• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 33
  • 26
  • Tagged with
  • 59
  • 38
  • 21
  • 21
  • 21
  • 16
  • 12
  • 11
  • 11
  • 10
  • 9
  • 8
  • 8
  • 8
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Fault Detection, Isolation and Recovery : Analysis of two scheduling algorithms

Capitanu, Calin January 2021 (has links)
Unmanned, as well as manned space missions have seen a high failure rate in the early era of space technology. However, this decreased a lot since technology advanced and engineers learnt from previous experiences and improved critical real time systems with fault detection mechanisms. Fault detection, isolation and recovery, nowadays, is generally available in every flying device. However, the cost of hardware can bottleneck the process of creating such a system that is both robust and responsive. This thesis analyses the possibility of implementing a fault detection, isolation and recovery system inside of a single-threaded, cooperative scheduling operating system. The thesis suggests a cooperative implementation of such a system, where every task is responsible for parts of the fault detection. The analysis is done from both the integration layer, across the operating system and its tasks, as well as from the inside of the detection system, where two key components are implemented and analyzed: debug telemetry and operation modes. Results show that it is possible to implement a fault detection system that is spread across all the components of the satellite and acts cooperatively. Furthermore, the comparison with a traditional, dedicated fault detection system proves that errors can be caught faster with a cooperative mechanism. / Obemannade såväl som bemannade rymduppdrag har sett ett högt misslyckande i rymdteknikens tidiga era. Detta har dock förbättrats mycket sedan ingenjörer började lära sig av sina tidigare erfarenheter och utrustade kritiska realtidssystem med feldetekteringsmekanismer. Idag är alla flygande enheter utrustade med feldetekterings-, isolerings- och återställningsmekanismer. Däremot kan kostnaden för hårdvara vara ett problem för processen att skapa ett sådant system som är både robust och mottagligt. Denna uppsats analyserar möjligheten att implementera ett feldetekterings-, isolerings- och återställningssystem inuti ett enkelgängat samarbetsplaneringssystem. Denna uppsats föreslår ett samarbete för implementering av ett sådant system, där varje uppgift ansvarar för delar av feldetekteringen. Analysen görs från både integrationsskiktet, över operativsystemet och dess uppgifter, samt från insidan av detekteringssystemet, där två nyckelkomponenter implementeras och analyseras. Resultaten visar att det är möjligt att implementera ett feldetekteringssystem som täcker alla satellitkomponenter och som är mottaglig. Dessutom visar jämförelsen med ett traditionellt, dedikerat feldetekteringssystem att fel kan fångas snabbare med en mottagligmekanism. / Misiunile spat,iale cu oameni, atât cât s, i fara oameni, au avut o rata a es, ecurilor destul de ridicata în perioada init,iala a erei tehnologiei spat,iale. În schimb, aceasta a scazut semnificativ odata cu dezvoltarea tehnologiei, dar s, i datorita faptului ca inginerii au învat,at din experient,ele precendente s, i au îmbunatat, it sistemele critice în timp real cu mecanisme de detect,ie a erorilor. Sisteme de detect,ie, izolare s, i recuperare din erori sunt disponibile astazi în aproape toate sistemele spat,iale. Însa, costul echipamentelor poate împiedica crearea unor astfel de sisteme de detect,ie, care sa fie robuste s, i responsive. Aceasta teza analizeaza posibilitatea implementarii unui sistem de detect,ie, izolare s, i recuperare de la erori într-un satelit care este echipat cu un procesor cu un singur fir de execut,ie, care are un sistem de planificare cooperativ în sistemul de operare. Aceasta teza sugereaza o implementare cooperativa a unui astfel de sistem, unde fiecare proces este responsabil de câte o parte din detectarea erorilor. Analiza este realizata atât din perspectiva integrarii în sistemul de operare s, i procesele acestuia, cât s, i din interiorul acestui sistem de detect,ie, unde doua elemente importante sunt implementate s, i analizate: telemetria de depanare s, i modurile de operare. Rezultatele arata faptul ca este posibila implementarea unui sistem de detect,ie care este împart, it în toate componentele sistemului unui satelit s, i se comporta cooperativ. Mai departe, comparat,ia cu un sistem tradit,ional, dedicat, de detect,ie a erorilor arata ca erorile pot fi detectate mai rapid cu un sistem cooperativ.
52

Assessment of a prediction-based strategy for mixingautonomous and manually driven vehicles in an intersection / Utvärdering av en prediktionsbaserad metod för att blanda autonoma och manuella bilar i en korsning

NADI, ADRIAN, STEFFNER, YLVA January 2017 (has links)
The introduction of autonomous vehicles in traffic is driven by expected gains in multiple areas, such as improvement of health and safety, better resource utilization, pollution reduction and greater convenience. The development of more competent algorithms will determine the rate and level of success for the ambitions around autonomous vehicles. In this thesis work an intersection management system for a mix of autonomous and manually driven vehicles is created. The purpose is to investigate the strategy to combine turn intention prediction for manually driven vehicles with scheduling of autonomous vehicle. The prediction method used is support vector machine (SVM) and scheduling of vehicles have been made by dividing the intersection into an occupancy grid and apply different safety levels. Real-life data comprising recordings of large volumes of traffic through an intersection has been combined with simulated vehicles to assess the relevance of the new algorithms. Measurements of collision rate and traffic flow showed that the algorithms behaved as expected. A miniature vehicle based on a prototype for an autonomous RC-car has been designed with the purpose of testing of the algorithms in a laboratory setting. / Införandet av autonoma fordon i trafiken drivs av förväntade vinster i flera områden, såsom förbättring av hälsa och säkerhet, bättre resursutnyttjande, minskning av föroreningar och ökad bekvämlighet. Utvecklingen av mer kompetenta algoritmer kommer att bestämma hastigheten och nivån på framgång för ambitionerna kring autonoma fordon. I detta examensarbete skapas ett korsningshanteringssystem för en blandning av autonoma och självkörande bilar. Syftet är att undersöka strategin att kombinera prediktion av hur manuellt styrda bilar kommer att svänga med att schemalägga autonoma bilar utifrån detta. Prediktionsmetoden som använts är support vector machine (SVM) och schemaläggning av bilar har gjorts genom att dela upp korsningen i ett occupancy grid och tillämpa olika säkerhetsmarginaler. Verklig data från inspelningar av stora volymer trafik genom en korsning har kombinerats med simulerade fordon för att bedöma relevansen av de nya algoritmerna. Mätningar av kollisioner och trafikflöde visade att algoritmerna uppträdde som förväntat. Ett miniatyrfordon baserat på en prototyp av en självkörande radiostyrd bil har tagits fram i syfte att testa algoritmerna i laboratoriemiljö.
53

Real-time audio processing for an embedded Linux system using a dual-kernel approach

Kulkarni, Nitin January 2017 (has links)
Professional audio processing systems such as digital musical instruments, audiomixers, etc. must operate with very tight constraints on overall processing latencyand CPU performance. Consequently, traditional implementations are still mostlybased on specialized hardware like Digital Signal Processors (DSP) and Real-TimeOperating Systems (RTOS) to meet such requirements. However, such systems areminimalistic in nature and they lack many features (e.g. network connectivity, widehardware support, etc.) that a general-purpose operating system such as Linuxoffers. Linux is a very popular choice for the operating system used in embeddeddevices, and many developers have started to use it for designing real-time systemswith relaxed timing constraints. However, none of the available solutions using astandard Linux kernel can satisfy the low-latency requirements of professional audiosystems.In this thesis, a dual kernel approach is employed to enable an embedded Linuxsystem to process audio with low roundtrip latency. The solution is developed usingthe Xenomai framework for real-time computation, which is based on a techniqueknown as interrupt pipeline (I-pipe). I-Pipe enables interrupt virtualization througha micro-kernel running between the Linux kernel and the interrupt controller hardware.The designed system includes an x86 Atom System-on-Chip (SoC), an XMOSmicrocontroller and audio converters to and from the analog domain. Custom kerneldrivers and libraries have been developed to expose the audio programming functionalitiesto programs running in user-space. As a result, the system can achieverobust real-time performance appropriate for professional audio applications, andat the same time it has all the advantages of a traditional Linux solution such ascompatibility with external devices and ease of programming. The real-time capabilityis measured by evaluating the performance in terms of worst case responsetime of the real-time tasks in comparison to the same metrics obtained under astandard Linux kernel. The overall roundtrip latency of audio processing is showedto be improved by almost an order of magnitude (around 2.5ms instead of 20ms). / Profesionella system för ljudbearbetning, som digitala musikinstrument, mixerbord,etc, arbetar med väldigt hårda krav på tidfördröjning och CPU-prestanda. Som enkonsekvens har dessa system traditionellt implementerats på specialiserad hårdvarasom specifika DSP-processor och speciella realtidsoperativsystem. Den typen avsystem är till sin natur minimalistiska och saknar många funktioner (till exempelnätverk och brett stöd för olika hårdvaror) som mer generella operativsystem,som Linux, kan erbjuda. Linux är ett väldigt populärt val av operativsystem förinbyggda system och många utvecklare har även börjat använda det till realtidssystemmed mindre hårda tidskrav. Det finns dock idag inte någon lösning med enstandard-linuxkärna som kan tillfredsställda de krav på låg fördröjning som krävsför användning i profesionella ljudsystem.I det här examensarbetet används en dubbelkärneuppsättning för att ge ettinbyggt Linuxsystem möjlighet att bearbeta digitalt ljud med låg fördröjning. Lösningenanvänder Xenomai-ramverket för realtidsberäkningar baserat på en teknikkallad interrupt pipeline (I-pipe). I-pipe ger möjlighet att virtualisera interruptgenom en mikrokärna som körs som ett lager mellan Linuxkärnan och hårdvaransinterruptcontroller.Det resulterande systemet inkluderar ett x86 Atom-enchipssystem, en XMOSmicrocontroller, och ljudkonverterare till och från analoga ljud in- och utgångar.Drivrutiner och bibliotek utvecklas för att ge direkt tillgång till ljudfunktionerfrån applikationer. Systemet ges därmed robust realtidsprestanda som gör detlämpligt för profesionella ljudtillämpningar samtidigt som det behåller alla fördelarfrån ett traditionellt Linuxsystem, som kompabilitet med extern hårdvara och enklareapplikationsutveckling. Systemets realtidsprestanda utvärderas som den maximalauppmätta tidfördröjning vid realtidsberäkningar jämfört med motsvarandeberäkningar på en standardlinuxkärna. Resultaten visade på en förbättring på nästanen storleksordning (ca 2,5ms mot 20ms).
54

Evaluating the Effects of using a Fuzzy Controller in Timetable Generation for Commuter Rail Services / Prestandautvärdering av tidtabeller genererade med fuzzy control för pendeltågstafik

Söderberg, Anna, Wieslander, Johan January 2019 (has links)
Scheduling trains is a hard problem where current solutions typically create timetables that create undesirable amounts of delay for the trains that use them. This study considers the fact that conventional timetables, which only use fixed intervals to schedule trains, might not be optimal for minimising the delay and travel time of passengers. In this study, we compare this ”simple” timetable with timetables generated via a fuzzy controller which has access to information about the flow of passengers throughout the day. The hypothesis is that this fuzzy controller therefore becomes more ”intelligent”. We evaluate the performance using a custom-built simulator that measures the average delay and travel time of the passengers. We conclude that the fuzzy controller can generate timetables that quickly adapt to passenger demands and show favourable resource usage over the simple timetable. However, more research is needed on the input variables and their usage within the fuzzy controller to further optimise the performance. / Schemaläggning av tåg är ett svårt problem och nuvarande lösningar skapar ofta tidtabeller med oönskade mängder förseningar. Den här rapporten behandlar faktumet att enkla tidtabeller, som enbart använder fasta intervaller för tågens avgång, kanske inte är optimala för att minimera antalet förseningar samt resenärers restid. Den här studien jämför enkla tidtabeller, med fasta intervall, med tidtabeller som skapats av en fuzzy controller som har tillgång till information om passagerarflödet. Hypotesen är att fuzzy controllern på så sätt blir mer intelligent. Rapporten utvärderar hur bra tidtabellerna presterar med hjälp av en simulator som mäter genomsnittlig försening och restid för passagerarna i simulationen. Slutsatsen som dras är att en fuzzy controller kan generera tidtabeller som kan anpassa sig till passagerarflödet samt att denna uppvisar gynnsam resursanvändning i jämförelse med den enkla tidtabellen. Dock framhävs behovet av ytterligare forskning på indatavariabler och dess användning inom fuzzy controllern för att vidare kunna optimera dess prestanda.
55

Detecting latency spikes in network quality measurements caused by hypervisor pausing virtual environment execution. : Finding ways to detect hypervisor-induced latency spikes during an execution in a virtual environment from the virtual environment.

Bouaddi, Hilaire January 2022 (has links)
Virtual Environments have transformed over the years the way software is built and distributed. The recent growth of services such as Amazon EC2 or Google Cloud is representative of this trend and encourages developers to build software intended for virtual environments like virtual machines or containers. Despite all the benefits that virtualization brings (isolation, security, energy efficiency, stability, portability, etc.), the extra layer of software between the virtual environment and the hardware, called the hypervisor, increases the complexity of a system and the interpretation of its metrics. In this paper, we explore the situation of software performing latency measurements from a virtual environment. This is an example of a use-case where latency from the hypervisor could lead to measurable noise on the virtual environment if the hypervisor makes our environment wait for resources for milliseconds. To solve this problem, we propose an algorithm that will filter out this noise from computed metrics from the virtual environment. This algorithm was developed studying correlation between those metrics and hypervisor-induced latency spikes. We also try to be hypervisor agnostic which means that this work stays relevant whether a virtual environment is deployed locally or on a Cloud Service with different (and constantly evolving) hypervisor technologies. This research gives an overview of hypervisor technologies and how latency can appear when executing processes on virtual environments. As we will see, computing the metric and running the algorithm make network quality measurements from virtual environments more reliable and can explain unexpected latencies. / Virtuella miljöer(virtual environments) har under åren förändrat hur mjukvara(software) byggs och distribueras. Den senaste tidens tillväxt av tjänster som Amazon EC2 eller Google Cloud är representativ för denna trend och uppmuntrar utvecklare att bygga programvara avsedd för virtuella miljöer som virtuella maskiner eller behållare. Trots alla fördelar som virtualisering ger (isolering, säkerhet, energieffektivitet, stabilitet, portabilitet, etc.), ökar det extra lagret av mjukvara mellan den virtuella miljön och hårdvaran, kallad hypervisor, komplexiteten hos ett system och tolkning av dessa måtvärden. I denna artikel utforskar vi situationen för programvara som utför latensmätningar från en virtuell miljö. Detta är ett exempel på ett användningsfall där latens från hypervisorn kan leda till mätbart brus i den virtuella miljön om hypervisorn får vår miljö att vänta på resurser i millisekunder. För att lösa detta problem föreslår vi en algoritm som kommer att filtrera bort detta brus från beräknade mätvärden från den virtuella miljön. Denna algoritm utvecklades för att studera korrelationen mellan dessa mätvärden och hypervisor-inducerade latensspikar. Vi försöker också vara hypervisoragnostiska vilket innebär att detta arbete förblir relevant oavsett om en virtuell miljö distribueras lokalt eller på en molntjänst med olika (och ständigt utvecklande) hypervisorteknologier. Denna forskning ger en översikt över hypervisorteknologier och hur latens kan uppstå när processer körs i virtuella miljöer. Som vi kommer att se gör beräkning av måtten och körning av algoritmen mätningar av nätverkskvalitet från virtuella miljöer mer tillförlitliga och kan förklara oväntade latenser. / Les environments virtuels transforment depuis des années la manière de développer et distribuer du logiciel. La récente croissance de services comme Amazon EC2 ou Google Cloud reflète bien cette tendance et encourage les développeurs à construire du logiciel déployable sur des environnements virtuels comme des machines virtuels ou des conteneurs. Malgré tous les bénéfices que la virtualisation apporte (isolation, sécurité, efficacité énergétique, stabilité, portabilité, etc.), la couche logiciel supplémentaire entre l’environnement virtuel et le hardware, appelée hyperviseur, augmente la complexité d’un système et l’interprétation de ces métriques. Dans ce mémoire de projet de fin d’études, nous explorons la situation où un logiciel effectue des tests de latence depuis un envirronnement virtuel. Cette situation est un exemple d’un cas d’utilisation où la latence introduite par un hyperviseur peut mener à un bruit mesurable si l’hyperviseur fait attendre notre environnement dans l’ordre de grandeur de la milliseconde. Pour résoudre ce problème, nous proposons un algorithme qui filtre ce bruit à partir de métriques calculées directement depuis l’environnement virtuel. Cet algorithme est dévelopé en étudiant la corrélation entre nos métriques et une latence dite "hypervisor-induced". Cette approche permet donc une grande flexibilité dans la technologie sous-jacente de l’hôte puisque celui-ci peut utiliser des hyperviseurs différents ou même faire partie d’un service Cloud sans que notre solution en soit impactée. Ce mémoire donne aussi un aperçu de la technologie derrière un hyperviseur et comment de la latence peut s’introduire dans l’exécution d’un processus dans un environnement virtuel.
56

Randomized heuristic scheduling of electrical distribution network maintenance in spatially clustered balanced zones / Randomiserad heurisik schemaläggning för underhåll av eldistributionsnätverk i spatiala klustrade balancerade områden

Offenbacher, Carolina, Thornström, Ellen January 2022 (has links)
Reliable electricity distribution systems are crucial; hence, the maintenance of such systems is highly important, and in Sweden strictly regulated. Poorly planned maintenance scheduling leads unnecessary driving which contributes to increased emissions and costs.  Maintenance planning is similar to the capacitated vehicle routing problem, CVRP, a combinatorial optimization problem. Each route has an origin location, in this case is the office of the maintenance worker. The origin is the starting and ending point of each route. In addition, conditions such as due date for inspection has an impact on how components in the network are prioritized. The maintenance planning problem is likely NP-hard.  Given the above, the aim for this study is to develop a heuristic algorithm that efficiently generates daily inspection schedules on a yearly basis. There are multiple tools and algorithms already developed to solve these kinds of problems, for example the Google’s OR-Tools library, which provide optimal or near optimal solutions to VRP problems. The time complexity of those tools makes them impractical to use when planning maintenance of electrical networks since they can contain many thousands of components i.e., nodes. The main aim of this study is to develop an algorithm that provides a solution good enough compared to the solutions computed by the tools mentioned above but with a lower time complexity.  In order to develop and test the algorithm an electrical distribution network data is required. Due to the sensitive nature of this data, a simulated network is generated in place of using real data. The simulated network is based on land use data from the city of Uppsala, Sweden, and is based on the spatial distribution of an existing electrical distribution network in Örebro, Sweden. The scheduling and routing algorithm developed works by dividing candidate nodes into subsets. The division is done by using Density-based spatial clustering of applications with noise (DBSCAN). The clustering is made by querying all objects that requires an inspection to be performed that year. As a post-processing step all noise points are appended to the closest neighboring cluster. Then a distance map is computed for the objects within each cluster. An inspection day route is computed by applying a greedy forward selection in each cluster, always selecting a random unvisited starting node until all nodes within the cluster has been visited. This is then repeated 100 times for each cluster, finally keeping the best iteration. The number of iterations is based on evaluating the gain per additional iteration which appear to be logarithmic. The greedy forward selection means that the algorithm has a linear time complexity after the clustering and distance map computation is done.  The algorithm is evaluated by comparing the total driving time for the computed route to the output routes of a modified Concorde TSP solution and the solution of Google’s VRP solver.  The results show that the algorithm performs better in areas with shorter average neighborhood distance and driving time of the output route decrease with higher number of iterations. Although the VRP based baselines methods return solutions with inspection routes that are roughly 25% shorter than the proposed method, for realistic problem sizes the proposed method uses less compute resources i.e., time and memory. Furthermore, while the proposed method has a linear time and space complexity whereas the baselines have exponential time complexity. Finally, the VRP based back-optimization solutions are not practical in real settings when inspection tasks are added / changed daily due to service tasks and unfinished routes or when the number of nodes is substantially larger than the roughly 1 000 nodes used in the evaluation.Due to the sensitive nature of electrical distribution data the performance of the algorithm could not be compared to actual maintenance schedules. But with all likelihood the computed schedules should be significantly more efficient than manually planned schedules. / Att ha pålitliga elnät är essentiellt för ett välfungerande samhälle därav är underhållet av sådana system av stor vikt och i Sverige strikt reglerat. Dåligt planerade besiktningar leder till onödig körning inom nätet vilket bidrar till ökade utsläpp och kostnader. Underhållsplanering liknar problemet, CVRP, ett kombinatoriskt optimeringsproblem. Varje rutt har en ursprungsplats, i detta fall är besiktningsmannens kontor. Kontoret är start- och slutpunkten för varje rutt. Dessutom har villkor som sista besiktningsdatum en inverkan på hur komponenter i nätet prioriteras. Underhållsplaneringsproblemet är sannolikt NP-svårt. Mot bakgrund av ovanstående är syftet med denna studie att utveckla en algoritm som effektivt genererar dagliga besiktningsscheman på årsbasis. Det finns redan flera verktyg och algoritmer som har utvecklats för att lösa den här typen av problem, till exempel Googles OR-Tools, som beräknar optimala eller nästan optimala lösningar på VRP-problem. Tidskomplexiteten hos dessa verktyg gör dem opraktiska att använda vid planering av underhåll av elnät eftersom dessa kan innehålla många tusen komponenter, dvs noder. Huvudsyftet med denna studie är att utveckla en algoritm som ger en lösning som är tillräckligt bra jämfört med de lösningar som beräknas av de verktyg som finns idag men med en lägre tidskomplexitet.För att utveckla och testa algoritmen krävs elnätsdata. På grund av denna datas känsliga natur genereras ett simulerat nätverk istället för att använda riktiga data. Det simulerade nätet är baserat på markanvändningsdata från Uppsala, Sverige, och på den rumsliga distributionen av ett befintligt eldistributionsnät i Örebro, Sverige. Schemaläggnings- och ruttalgoritmen som utvecklats fungerar genom att dela upp kandidatnoder i delmängder. Uppdelningen görs genom att använda densitetsbaserad spatial klustring (DBSCAN). Klustringen görs genom att välja ut alla objekt som behöver besiktigas det året. Som ett efterbehandlingssteg läggs alla bruspunkter till det närmaste intilliggande klustret. Sedan beräknas en distansmatris för objekten inom varje kluster. En besiktningsrutt beräknas genom att inom varje kluster alltid starta på en slumpmässig vald ej besökt startnod. Därefter väljs den närmsta nod tills alla noder inom klustret har besökts. Detta upprepas sedan 100 gånger för varje kluster, och slutligen behålls den bästa iterationen. Antalet iterationer baseras på att utvärdera förbättringen per ytterligare iteration - som verkar vara logaritmisk. Det här innebär att algoritmen har en linjär tidskomplexitet efter att klustringen och beräkningen av distansmatrisen har genomförts. Algoritmen utvärderas genom att jämföra den totala körtiden för den beräknade rutten med rutterna för en modifierad Concorde TSP-lösning och lösningen från Googles VRP-solver. Resultaten visar att algoritmen presterar bättre i områden med kortare genomsnittligt avstånd mellan noderna och körtiden för besiktningsrutterna minskar med ett högre antal iterationer. Även om de existerande VRP-algoritmerna returnerar lösningar med besiktningsrutter som är cirka 25 % kortare än den föreslagna metoden, så är dessa inte realistiska att använda när antalet noder närmar sig de av ett riktigt elnät.Dessutom, medan den föreslagna metoden har en linjär tids-och rymdkomplexitet medan de existerande VRP-algoritmerna har en exponentiell tidskomplexitet. Slutligen är de VRP-baserade algoritmerna inte praktiska i verkligheten när besiktningar läggs till eller ändras eller när antalet noder är avsevärt större än de cirka 1 000 noder som används i utvärderingen. På grund av den känsliga karaktären hos elnätsdata kunde algoritmens prestanda inte jämföras med faktiska besiktningsscheman. Men med all sannolikhet borde de beräknade besiktningsschemana vara betydligt effektivare än manuellt planerade scheman.
57

Predicting Buffer Status Report (BSR) for 6G Scheduling using Machine Learning Models

Zhang, Qi January 2021 (has links)
In 6G communication, many state-of-the-art machine learning algorithms are going to be implemented to enhance the performances, including the latency property. In this thesis, we apply Buffer Status Report(BSR) prediction to the uplink scheduling process. The BSR does not include information for data arriving after the transmission of this BSR. Therefore, the base station does not allocate resources for the new arrival data, which increases the latency. To solve this problem, we decide to make BSR predictions at the base station side and allocate more resources than BSRs indicate. It is hard to make an accurate prediction since there are so many features influence the BSRs. Another challenge in this task is that the time intervals are tremendously short (in the order of milliseconds). In other traffic predictions, the traffic data in a long term, such as in a week and month, can be used to predict the periodicity and trend. In addition, many external features, such as the weather, can boost the prediction results. However, when the time is short, it is hard to leverage these features. The datasets provided by Ericsson are collected from real networks. After cleaning the data, we convert the time series forecasting problem into a supervised learning problem. State-of-the-art algorithms such as Random Forest(RF), XGboost, and Long Short Term Memory(LSTM) are leveraged to predict the data arrival rate, and one K-Fold Cross-Validation is followed to validate the models. The results show that even the time intervals are small, the data arrival rate can be predicted and the downlink data, downlink quality indicator and rank indicator can boost the forecasting performance. / I 6G-kommunikation kommer många toppmoderna maskinin lärnings algoritmer att implementeras för att förbättra prestanda, inklusive latensegenskapen. I den här avhandlingen vill vi tillämpa Buffer Status Report (BSR) förutsägelse för schemaläggningsprocessen för upplänkning. BSR innehåller inte information för data som anländer efter överföring av denna BSR. Därför tilldelar basstationen inte resurser för den nya ankomstdatan, vilket ökar latensen. För att lösa detta problem bestämmer vi oss för att göra BSR-förutsägelser på basstationssidan och tilldela fler resurser än vad BSR anger. Det är svårt att göra en exakt förutsägelse eftersom det finns så många funktioner som påverkar BSR. En annan utmaning i denna uppgift är att tidsintervallen är oerhört korta (millisekunder). I andra trafikprognoser kan trafikdata på lång sikt, som under en vecka och månad, användas för att förutsäga periodicitet och trend, och många externa funktioner, såsom väder, kan öka förutsägelseresultaten. Men när tiden är kort är det svårt att utnyttja dessa funktioner. Dataset som tillhandahålls av Ericsson samlas in från riktiga nätverk. Efter rengöring av data konverterar vi tidsserieprognosproblemet till ett övervakat inlärningsproblem. Toppmoderna algoritmer som Random Forest (RF), XGboost och LSTM(Long Short TermMemory) utnyttjas för att förutsäga data ankomst astigheten och en K-Fold Cross-Validation följs för att validera modellerna. Resultaten visar att även tidsintervallen är små, datainkomsthastigheten kan förutsägas och nedlänksdata, kvalitetsindikator för nedlänk och rangindikator kan öka prognosprestandan.
58

Investigating Multi-Objective Reinforcement Learning for Combinatorial Optimization and Scheduling Problems : Feature Identification for multi-objective Reinforcement Learning models / Undersökning av förstärkningsinlärning av flera mål för kombinatorisk optimering och schemaläggningsproblem : Funktionsidentifiering för förstärkningsinlärning av flera mål för kombinatorisk optimering och schemaläggningsproblem

Fridsén Skogsberg, Rikard January 2022 (has links)
Reinforcement Learning (RL) has in recent years become a core method for sequential decision making in complex dynamical systems, being of great interest to support improvements in scheduling problems. This could prove important to areas in the newer generation of cellular networks. One such area is the base stations scheduler which allocates radio resources to users. This is posed as large-scale optmization problem which needs to be solved in millisecond intervals, while at the same time accounting for multiple, sometimes conflicting, objectives like latency or Quality of Service requirements. In this thesis, multi-objective RL (MORL) solutions are proposed and evaluated in order to identify desired features for novel applications to the scheduling problem. The posed solution classes were tested in common MORL benchmark environments such as Deep Sea Treasure for efficient and informative evaluation of features. It was ultimately tested in environments to solve combinatorial optmization and scheduling problems. The results indicate that outer-loop multi-policy solutions are able to produce models that comply with desired features for scheduling. A multi-policy multi-objective deep Q-network was implemented and showed it can produce an adaptive-at-run-time discrete model, based on an outer-loop approach that calls a single-policy algorithm. The presented approach does not increase in complexity when adding objectives but generally requires larger sampling quantities for convergence. Differing scalarization techniques of the reward was tested, indicating effect on variance that could effect performance in certain environment characteristics. / Försärkningsinlärning som en gångbar metod för sekventiellt beslutsfattande i komplexa dynamiska system har ökat under de senaste åren tack vare förbättrade hårdvaru möjligheter. Intressenter av denna teknik finns bland annat inom telekom-indistrin vars aktörer har som mål att uteveckla nya generationens mobilnätverk. En av de grundläggande funktionerna i en basstation är scheduleraren vars uppgift är att allokera radio resurser till användare i nätverket. Detta ställs med fördel upp som ett optimeringsproblem som nödvändiggör att problemet måste lösas på millisekund nivå samtidigt som den kan ta flera typer av mål i beaktning, såsom QoS krav och latens. I detta examensarbete så presenteras och utvärderas förstärningsinlärnings algoritmer för flera mål inom flera lösningsklasser i syfte att identifiera önskvärda funktioner för nya tillämpningar inom radio resurs schemaläggning. De presenterade lösningsklasserna av algoritmer testades i vanligt förekommande riktmärkesmiljöer för denna typ av teknik såsom Deep Sea Treasure för att på effektivt sätt utvärdera de kvalitéer och funktioner varje algoritm har. Slutligen testades lösningen i miljöer inom kombinatorisk optimering och schemaläggning. Resultaten indikerar att fler-policy lösningar har kapaciteten att producera modeller som ligger inom de krav problemet kräver. Fler-policy modeller baserade på djupa Q-närverk av flera mål kunde framställa adaptiva, diskreta realtidsmodeller. Denna lösning ökar inte komplexiteten när fler mål läggs till men har generellt behov av större mängder samplade preferenser för att konvergera. Olika skaläriseringstekniker av belöningen testades och indikerade att dessa påverkade variansen, vilket i vissa typer av miljö konfigurationer påverkade resultaten.
59

Support for Emulated 5G-System Bridge in a Time-Sensitive Bridged Network / Stöd för ett simulerat system med 5G-brygga i ett tidskritiska bryggnätverk

Donde, Shrinish January 2020 (has links)
Time Sensitive Networking (TSN) defined in the IEEE 802.1 working group, is an important enabler for industrial Internet of things, specifically industry 4.0. 3GPP release 16 specifications includes the 5G system as a logical TSN bridge, thus promoting the integration of 5G technology with TSN. This combination provides wireless deterministic communication thus ensuring low, bounded delay and near-zero packet loss. In this thesis, we implement a 5G system in- tegration with TSN using a discrete event network simulator (NS-3). Further, we propose a simplified per egress port scheduling algorithm based on IEEE 802.1Q (scheduled traffic standard) running in the Centralized Network Con- troller (CNC). Average packet delay, average jitter, average throughput and the packet loss is measured for comparing the performance difference when our TSN scheduler is used versus when it is not. The designed system is tested by measuring it’s network impact in terms of average delay and packet loss. The 5GS logical bridge behavior is simulated by varying the 5G bridge de- lay dynamically. For every frame transmission in the queue, the processing delay of a particular bridge is varied with pre-defined set of values. Two sets of 5GS bridge delay variations are considered, i.e. between 1-10ms and 5- 10ms respectively. On calculating the network impact, we conclude that the overall impact on the network decreases as the variation range for the delay gets smaller. This proves that higher delay variations have a significant impact whereas smaller delay variations have a negligible impact on the network. For the latter case, the system delay is considerably stable and thus can be used for industrial applications in real-life TSN scenarios. / Tidskritiska nätverk (TSN) definierat i IEEE 802.1-arbetsgruppen, är en vik- tig faktor för det industriella Sakernas Internet, särskilt när det gäller Industri4.0. Specifikationer enligt 3GPP release 16 inkluderar 5G-system som en lo- gisk TSN-brygga, som främjar integrationen av 5G-teknik med TSN. 5G med TSN ger trådlös deterministisk kommunikation som säkerställer låg, begrän- sad fördröjning och nästan noll paketförlust. I denna rapport implementerar vi en 5G-systemintegration med TSN med hjälp av en diskret händelse simu- lator (NS-3). Dessutom föreslår vi en förenklad algoritm för schemaläggning av portar per utgång baserat på IEEE 802.1Q (Scheduled Traffic Standard) som körs i en centraliserad nätverks-controller (CNC). Genomsnittlig paket- fördröjning, genomsnittlig fördröjningsvariation, genomsnittlig genomström- ning och paketförlust mäts för att jämföra prestandaskillnaden när vår TSN- schemaläggare används jämfört med när den inte används. Det utformade sy- stemet testas genom att mäta nätverkets påverkan i termer av genomsnittlig fördröjning och paketförlust. 5GS logiska bryggbeteende simuleras genom att dynamiskt variera 5G-bryggfördröjningen. För varje bildöverföring varieras bryggans bearbetningsfördröjning med en fördefinierad uppsättning värden. Två fördefinierade uppsättningar av 5GS-fördröjningsvariationer beaktas som ligger mellan 1-10ms respektive 5-10ms. När vi beräknar nätverkspåverkan drar vi slutsatsen att den totala effekten på nätverket minskar när variationen i fördröjningen blir mindre. Detta visar att högre fördröjningsvariationer har en signifikant effekt medan mindre fördröjningsvariationer har en försumbar effekt. I det senare fallet är systemfördröjningen betydligt stabilare och kan användas för tillämpningar i verkliga TSN-scenarier.

Page generated in 0.081 seconds