21 |
Network Performance Improvement for Cloud Computing using Jumbo FramesKanthla, Arjun Reddy January 2014 (has links)
The surge in the cloud computing is due to its cost effective benefits and the rapid scalability of computing resources, and the crux of this is virtualization. Virtualization technology enables a single physical machine to be shared by multiple operating systems. This increases the eciency of the hardware, hence decreases the cost of cloud computing. However, as the load in the guest operating system increases, at some point the physical resources cannot support all the applications efficiently. Input and output services, especially network applications, must share the same total bandwidth and this sharing can be negatively affected by virtualization overheads. Network packets may undergo additional processing and have to wait until the virtual machine is scheduled by the underlying hypervisor before reaching the final service application, such as a web server.In a virtualized environment it is not the load (due to the processing of the user data) but the network overhead, that is the major problem. Modern network interface cards have enhanced network virtualization by handling IP packets more intelligently through TCP segmentation offload, interrupt coalescence, and other virtualization specific hardware. Jumbo frames have long been proposed for their advantages in traditional environment. They increase network throughput and decrease CPU utilization. Jumbo frames can better exploit Gigabit Ethernet and offer great enhancements to the virtualized environment by utilizing the bandwidth more effectively while lowering processor overhead. This thesis shows a network performance improvement of 4.7% in a Xen virtualized environment by using jumbo frames. Additionally the thesis examines TCP's performance in Xen and compares Xen with the same operations running on a native Linux system. / Den kraftiga ökningen i datormoln är på grund av dess kostnadseffektiva fördelar och den snabba skalbarhet av datorresurser, och kärnan i detta är virtualisering. Virtualiseringsteknik möjliggör att man kan köra era operativsystem på en enda fysisk maskin. Detta ökar effektiviteten av hårdvaran, vilket gör att kostnaden minskar för datormoln. Men eftersom lasten i gästoperativsystemet ökar, gör att de fysiska resurserna inte kan stödja alla program på ett effektivt sätt. In-och utgångstjänster, speciellt nätverksapplikationer, måste dela samma totala bandbredd gör att denna delning kan påverkas negativt av virtualisering. Nätverkspaket kan genomgå ytterligare behandling och måste vänta tills den virtuella maskinen är planerad av den underliggande hypervisor innan den slutliga services applikation, till exempel en webbserver. I en virtuell miljö är det inte belastningen (på grund av behandlingen av användarens data) utan nätverket overhead, som är det största problemet. Moderna nätverkskort har förbättrat nätverk virtualisering genom att hantera IP-paket mer intelligent genom TCP- segmenterings avlastning, avbrotts sammansmältning och genom en annan hårdvara som är specifik för virtualisering. Jumboramar har länge föreslagits för sina fördelar i traditionell miljö. De ökar nätverk genomströmning och minska CPU-användning. Genom att använda Jumbo frames kan Gigabit Ethernet användandet förbättras samt erbjuda stora förbättringar för virtualiserad miljö genom att utnyttja bandbredden mer effektivt samtidigt sänka processor overhead. Det här examensarbetet visar ett nätverk prestandaförbättring på 4,7% i en Xen virtualiserad miljö genom att använda jumbo frames. Dessutom undersöker det TCP prestanda i Xen och jämför Xen med samma funktion som körs på en Linux system.
|
22 |
An analysis of 5G orchestration : Defining the role of software orchestrators in 5G networks, and building a method to compare implementations of 5G orchestrators / En analys av 5G orkestrering : Hur orkestreringsprogramvaror används i 5G nätverk, och ett sätt att jämföra varianter av orkestreringsprogramvaror.Lex-Hammarskjöld, Justin January 2021 (has links)
Software orchestrators like Kubernetes are growing in popularity with computer engineers for deploying and running complex software systems. Interestingly, there are now new technical standards being proposed for the telecom industry to begin utilizing software orchestration for the software that runs inside cellular networks. The telecom industry is currently transitioning from 4G to 5G technology. One of the central pieces of this development work is implementing a software orchestrator for 5G networks. This raises some questions about how and why the telecom industry will use software orchestration in their cellular networks. Software orchestration is a complex technology and it is challenging to develop an implementation of a software orchestrator. Some important questions that this thesis addresses are: What do network operators need from this technology? Furthermore, telecom vendors, like Ericsson and Huawei, have developed their own versions of a 5G software orchestrator, which orchestrator should the network operators choose? Furthermore, we investigate what 5G is, why the telecom industry is developing software orchestrators for the 5G roll-out, and importantly, we determine the design requirements that the telecom industry has for these "5G orchestration systems". We interpret and break down technical whitepapers from the industry, and we build a picture of the IT stack of upcoming 5G networks. In our research, we find that software orchestration is being used to deploy and maintain complex software stacks such as software-defined networking (SDN) system that is central to 5G networks. We uncover some of the specializations needed in a software orchestrator for the telecom industry, such as modularity, high-availability, and specialized system integration. With this information, we make feature and design recommendations for 5G orchestrators, and we compile a list of criteria that network operators can use to assess and compare different 5G orchestrators. / Orkestreringsprogramvaror som Kubernetes växer i popularitet med IT ingenjörer för att installera och köra komplexa mjukvarasystem. På grund av pågående transitionen från 4G till 5G, används orkestreringsprogramvaror nu också i mobilnäten. I den här uppsatsen undersöks vad är 5G, varför telekombranschen använder orkestreringsprogramvaror för nya 5G nätverk, och vad krav har telekombranschen på denna "5G orkestreringsprogramvaror". Denna undersökning utförs genom en litteraturstudie. Genom den här undersökningen, det visar sig att orkestreringsprogramvaror används för att installera och köra komplexa mjukvarasystem som är centralt till 5G nätverk. Specialiseringskrav för orkestreringsprogramvaror i telekombranschen upptäcks, som modularitet, hög tillgänglighet, och specialiserad API-hookar. Rekommendationer görs för 5G orkestreringsprogramvarors funktioner, och en lista sammanställas av kriterier som telekomoperatör kan använda för att bedöma och jämföra 5G orkestreringsprogramvaror.
|
23 |
Virtualisering : en prestandajämförelse mellan fullständig- och parallell systemvirtualiseringLindberg, Magnus January 2008 (has links)
Virtualisering är en abstraktion av underliggande fysisk hårdvara som omvandlas till en förutbestämd struktur av hårdvara via mjukvara. En virtuell maskin kan då vara frånkopplad från hårdvaran. Virtualisering tillåter hårdvara att delas upp som flera separata virtuella hårdvaror vilket kan ske transparent för operativsystem i virtuella maskiner. Virtualisering ökade under 90-talet och det utvecklades två virtualiseringsteknologier: (i) den fullständiga systemvirtualisering och (ii) parallell systemvirtualisering. Fullständig systemvirtualisering erbjuder abstraktion som utgör en frånkoppling från hårdvara. Operativsystem som använder en virtuell maskin känner då inte till att virtualisering skett med resultatet att alla operativsystem kan användas. Parallell systemvirtualisering använder en delvis abstraktion då operativsystem modifieras för att virtuell maskin skall vara medveten om att virtualisering utförts för att möjliggöra för prestandaförbättringar. Den problemställningen som ställts försöker utröna vilken av dessa två teknologier som kan leverera bästa prestanda över FTP. Experiment har då utförts och visade att det är inga skillnader mellan teknologierna.
|
24 |
RAM-minnets kontaminering vid tillämpning av forensiska verktygJohansson, Christian, Nilsson, Robin January 2011 (has links)
Denna rapport behandlar ett specifikt område inom IT-forensik och informationssäkerhet. Då en berörd part behöver agera i ett skarpt läge, kan kunskaperna om volatilt minne vara avgörande. I takt med att IT-brott har ökat dramatiskt, har det också bidragit till en enorm utveckling inom de forensiska ramarna. IT-forensikerns handlingar är av avgörande karaktär då minnet förändras kontinuerligt, därför eftersträvas minimala förändringar på systemet. Ett datorsystem är utrustat med ett fysiskt minne vars syfte är att temporärt lagra information då det är aktivt. Detta minne kan vara en rik informationskälla ur ett forensiskt perspektiv. Volatilt minne är uppbyggt av binärkod som går att analysera med hjälp av verktyg. Idag finns det ett stort utbud av verktyg för allmänheten och myndigheter, därför begränsas rapporten med inriktning mot kommersiella metoder. För att effektivisera det praktiska utförandet, tillämpas virtualisering som underlättar påvisning av konsistent datautvinning. Vid experimenterande av volatilt minne erhölls framgångsrika resultat där det gick att fastställa förändringar i minnesallokeringen. Då ett program exekveras, resulterar det i märkbara förändringar som går att urskilja i det fysiska minnet. När verktyget sedan har utfört sina givna instruktioner, går det att tolka den procentuella skillnaden mellan minnes-dumparna. Detta bidrog till de förutbestämda målen. Det fysiska minnet är ett relativt nytt och outforskat tekniskt område. Valmöjligheten för en minnesutvinning kan innefatta allt från hårdvaru- till mjukvarulösningar där tyngden på denna rapport baseras på mjukvarulösning. Alla IT-forensiker bör få upp ögonen för denna informationstillgång som kan vara nyckeln till framgång under live-respons.
|
25 |
Virtuella skrivbord i kommunal verksamhet / Virtual desktops in a municipal organizationJohansson, Andreas, Pettersson, Sebastian January 2011 (has links)
Today it’s common that companies and organizations are facing several challenges and problems when it comes to making their IT-environment more efficient. Some of these are the management of user’s computers and file security. Comput-er users are often tied to their personal computer due to personal programs and files. Because of this users lack the mobility and flexibility to be able to work at different places within and outside of the organization.Virtual desktop is one of the offered solutions to these problems and comes with several possibilities. The virtual technique makes it possible to run several virtual machines on a few physical computers in the datacenter. Companies are still quite careful about implementing virtual desktops since it requires a small change for the computer users. They are also unsure how the users will be affected by work-ing with a virtual desktop. Mullsjö commune where the research was performed were interested in virtual desktops, they had a few hunches about what sort of possibilities one might gain by investing in virtual desktop. The IT administration wasn’t sure how it might affect their computer users, and they also lacked the time required to investigate how the computer users experience working with a virtual desktop. Because of these problems the purpose of this thesis was to study how computer users experience working with a virtual desktop and what sort of possi-bilities it can create for the organization. The purpose and research questions were broken down into several assumptions to make it easier to answer the questions that the thesis is built around.Initially a research took place at three chosen computer users and two IT adminis-trators to be able to retrieve information and problems that might exist. A litera-ture review was performed around virtual desktop. With the help of the collected information from the initial research a test environment could be set up, consist-ing of one virtual desktop per computer user. The computer users used their virtual desktop throughout a normal work day and were then asked how they experienced working with a virtual desktop. The experience of the computer users in Mullsjö commune turned out to be positive and didn’t bring any major adjust-ments in their work. Differences between the computer users existed that made them experience the virtual desktop and its possibilities in different ways. With the help of the literature review regarding virtual desktops, several possibilities could be compiled, e.g. the possibility to use older computers longer, increased flexibil-ity, increased security and the ability to reduce the costs.A summary is presented that consists of the results from the research of the expe-rience among the users and the literature review. The assumptions are being used to be able to compare the two results to see if they can strengthen each other. The conclusion of virtual desktop is that it most likely can be implemented without affecting the experience of the computer user and that it also will create several possibilities. It’s however important to involve the user and find out their needs. / Idag står företag, organisationer och myndigheter inför flera utmaningar när det gäller att effektivisera sin IT-miljö. Det finns flera problem som man vill lösa runt hanteringen och säkerheten av datoranvändarnas datorer. Det förekommer även att datoranvändare kan vara knutna till sin personliga dator vilket medför att de inte kan arbeta på olika platser inom och utanför organisationen.Virtuella skrivbord är en lösning på dessa problem och medför flera möjligheter. Den virtuella tekniken gör det möjligt att samköra flera virtuella datorer på ett fåtal kraftfulla fysisk datorer i datacentret. Många företag är dock ännu försiktiga när det gäller virtuella skrivbord då det innebär en viss förändring för datoranvän-darna och är osäkra på hur de kommer att uppleva att arbeta via ett virtuellt skriv-bord. Mullsjö kommun där arbetet har utförts, var intresserade av virtuella skriv-bord och hade vissa aningar om vilka möjligheter virtuella skrivbord kunde med-föra. IT-administrationen var dock osäker på hur det skulle påverka och upplevas av datoranvändarna, de hade dessutom inte den tid som krävs för att undersöka detta. Med tanke på dessa problem blev syftet med examensarbetet att undersöka hur datoranvändaren upplever det att arbeta via ett virtuellt skrivbord samt vilka möjligheter virtuella skrivbord kan medföra. Syftet och frågeställningarna bröts ner i flera antaganden om virtuella skrivbord för att enklare kunna besvara dem.Först i undersökningen gjordes förundersökningar hos tre utvalda datoranvändare och IT-administratörerna för att ta reda på information och problem. En littera-turgenomgång gjordes även av virtuella skrivbord. Genom informationen ifrån de tre förundersökningarna kunde en testmiljö konfigureras upp med ett virtuellt skrivbord per datoranvändare. Datoranvändarna fick testköra sitt virtuella skriv-bord och fick därefter svara på hur de upplevde det. Upplevelsen bland datoran-vändarna i Mullsjö kommun var positiv och medförde ingen större omställning i deras arbete. Skillnader fanns i datoranvändarnas behov som gjorde att de upplev-de de virtuella skrivborden och möjligheterna på olika sätt. Genom litteraturge-nomgången av virtuella skrivbord sammanställdes ett antal möjligheter som virtu-ella skrivbord kan medföra. T.ex. skapas möjligheterna att kunna utnyttja äldre datorer längre, ökad flexibilitet, ökad säkerhet och reducerade kostnader.I slutet av undersökningen presenteras en sammanfattning av resultaten ifrån efterundersökningen av upplevelsen hos användarna och litteraturgenomgången av virtuella skrivbord. Detta görs med hjälp av de antaganden som gjorts för att kontrollera ifall de båda undersökningarna kan styrka varandra.Slutsatserna om virtuella skrivbord är att det med största sannolikhet kan införas utan att göra användarens upplevelse sämre och att virtuella skrivbord kan skapa flera möjligheter. Man bör dock involvera användarna och undersöka deras behov.
|
26 |
Virtualisering för en effektivare laborationsmiljö / Virtualization, for a more efficient laboratory environmentAndersson, Martin, Strand, Niklas January 2012 (has links)
Som IT-företag har man ett behov av att laborera med den teknik man levererar till sina kunder. För att öka effektiviteten i dessa laborationsmiljöer bör man sträva efter att minska genomförandetiden för de olika arbetsmoment som ingår i labo-rationerna. TDC, som levererar kommunikationslösningar, har en laborationsmiljö på sitt kontor i Växjö. Arbetet innefattar tidsödande ominstallationer av servrar. Ett annat problem är att man i dagsläget ofta fysiskt måste befinna sig i laborat-ionsmiljön vilket begränsar arbetet då personer som inte befinner sig på samma kontor inte kan använda utrustningen. Under laborationer finns ofta ett behov av att rensa servrar och nätverksenheter för att sedan utföra ominstallation eller om konfiguration, arbetsmoment som kan ha hög tidsåtgång. Syftet med arbetet är att ta fram riktlinjer för hur man bygger upp effektiva laborationsmiljöer för nätverk-senheter och servrar med hjälp av bland annat virtualisering, samt att reducera behovet av fysisk tillgång till laborationsutrustning. Under arbetets gång utfördes en workshop, regelbundna telefonavstämningar, laborationer och en litteratursökning. Målet har varit att ta fram riktlinjer för hur man bygger effektiva laborationsmiljöer. Laborationerna innefattade virtualisering och extern lagring. Genom att utföra litteratursökningen i ett flertal databaser har man hittat källor för att stödja teori och resultat. Riktlinjerna som tagits fram visar hur man minskarbehovet av fysisk närvaro ge-nom att möjliggöra fjärråtkomst samt genom att ha en väl planerad nätverksstruk-tur. Genom att använda fjärranslutningar på rätt sätt kommer man åt utrustningen även om nätverksutrustningen i laborationsmiljön inte är fullt funktionell. Om man har ett instickskort för remote management i servern går det ofta att komma åt servrar via ett gränssnitt så länge den har ström och nätverksåtkomst. På det sättet kan man via fjärranslutning stänga av och starta servern samt installera ope-rativsystem på den. För att minska tidsåtgånen vid rensning och ominstallat-ion/omkonfiguration av servrar och nätverksenheter kan man använda sig av virtualiering med ögonblicksbilder och nätverksenheters konfiguration kan sparas på servrar. Företag utnyttjar generellt sett bara en liten del av sin serverkapacitet. För att använda kapaciteten effektivare och på så sätt vara mer ekonomisk är vir-tualisering en bra lösning. Rent administrativt bör laborationsmiljön och dess rutiner vara mycket väl dokumenterade. / IT-companies today need to experiment with the technology they deliver to their customers. A laboratory environment with little or no planning behind it can have a quite low efficiency. The term “efficiency” is used, in this work, as a measure-ment of how much time it takes to complete a certain work-task. However, effi-ciency also means reducing the useage of resources. Increased efficiency means that less time is used to complete one or more tasks. Today, IT-companies nor-mally utilize a fraction of their total server capacity. To utilize the servers more efficiently, and be more economic, virtualization is a good solution. TDC, who delivers communication solutions, has a laboratory environment at their office in Växjö. The work includes, among other things, time-consuming reinstallation of servers. Another problem is that people currently often need to be in the envi-ronment, physically. This limits the use of the environment because people in oth-er offices have no chance of using it. The purpose of this work is to develop guidelines as to build efficient laboratory environments for servers and network-units, and to reduce the need of physical access to the laboratory equipment. During the work a workshop was conducted, regular telephone reconciliations were held, experiments were done and a literature research was made. The exper-iments dealt with virtualization and external storage. The goal has been to develop guidelines on how to build efficient laboratory environments. Through the litera-ture research, in multiple databases, sources were found that support the theory and the results. The guidelines developed show how to reduce the need of physical presence by allowing remote access and having a well-planned network structure. By configur-ing the remote access properly the equipment can be accessed even if some parts of the network structure are not fully functional. Servers can be accessed via a special expansion card as long as they have power and network access. This way, you can start and stop the server and even reinstall its operatingsystem, all of it remotely. It is essential in a laboratory environment to be able to restore the con-figuration of a device to a initial state, or known working state. For networking units this is accomplished by storing (and getting) configurations from a central server. Virtualization is a good option when it comes to restoring servers, because it is easy to save snapshots of virtual machines. The whole environment and its routines should be well documented.
|
27 |
Container Based Virtualization Techniques on Lightweight Internet of Things Devices : Evaluating Docker container effectiveness on Raspberry Pi computersKieu, Le Truong Van January 2021 (has links)
There currently does not exist a way for creating digital twins’information and transferring it between networks , but container-basedvirtualization could be a possible solution. One of those techniques isDocker, which is an engine to isolate a software and can bring benefits toimprove the workflow of software development. Making changes withDocker is very fast as it uses the copy-on-write model, it can containerizeapplications in minutes. This study will design a scenario with twodevices sending a data packet between each other to simulate theproblem. The results from the study is further investigate and analyze toanswer the question of whether the container-based virtualization can bea possible solution for creating digital twins. The result from the scenariois Docker works equal or worse when used with a low-cost computinghardware compared to a computing hardware. It is speculated that theresources used in the images is a factor that can affect the performance,but the hardware is also another factor that can affect it. / Det finns för närvarande inget sätt att skapa digitala tvillingar ochöverföra den mellan nätverk, men containerbaserad virtualisering kanvara en möjlig lösning. En av containerbaserad virtualisering tekniker ärDocker, som är en motor för att isolera en programvara och kanframbringa fördelar för att förbättra arbetsflödet för programutveckling.Att göra ändringar med Docker är mycket snabbt tack vare användningav copy-on-write-modellen. Denna studie kommer att utforma ettscenario med två enheter som skickar ett datapaket mellan varandra fratt simulera överföringsprocessen. Mätresultat från studien bliranalyserad för att besvara frågan om containerbaserad virtualisering kanvara en möjlig lösning för att skapa och skicka digitala tvillingar.Resultatet från scenariot är att Docker fungerar lika eller sämre när detanvänds med en låg kostnad datorhårdvara jämfört med endatorhårdvara. Det spekuleras att resurserna som används i datapaketetär en faktor som kan påverka prestandan, men hårdvaran är också enannan faktor som påverkar det.
|
28 |
Strategier för migration av klassiska servermiljöer till containermiljöerWejros, Albin January 2020 (has links)
Företag som är intresserade av att gå över från ett traditionellttillvägagångssätt att driftsätta sin applikationsmiljö i en mer moderncontainerbaserad miljö saknas ofta den kunskap och erfarenhet som behövs.Det här arbetet syftar till att ge förslag till företag kring hur de bör gå tillvägaför att flytta sin nuvarande traditionella infrastrukturella lösning, vare sig detär fysiska eller virtuella servrar, till en containerbaserad lösning. Projektetsyftar också till att ge företag som är intresserade av en sådan migration enteoretisk grund att stå på för att undvika att gå i de fällor som är vanliga att gåi. Resultatet baseras på en litteraturstudie som i sin tur resulterade i ensammanfattning över vad som bör ingå i en migrationsstrategi samt ett antalpraktiskt tillämpningsbara beslutsträd.
|
29 |
Performance Evaluation of Virtualization in Cloud Data CenterZhuang, Hao January 2012 (has links)
Amazon Elastic Compute Cloud (EC2) has been adopted by a large number of small and medium enterprises (SMEs), e.g. foursquare, Monster World, and Netflix, to provide various kinds of services. There has been some existing work in the current literature investigating the variation and unpredictability of cloud services. These work demonstrated interesting observations regarding cloud offerings. However, they failed to reveal the underlying essence of the various appearances for the cloud services. In this thesis, we looked into the underlying scheduling mechanisms, and hardware configurations, of Amazon EC2, and investigated their impact on the performance of virtual machine instances running atop. Specifically, several instances with the standard and high-CPU instance families are covered to shed light on the hardware upgrade and replacement of Amazon EC2. Then large instance from the standard family is selected to conduct focus analysis. To better understand the various behaviors of the instances, a local cluster environment is set up, which consists of two Intel Xeon servers, using different scheduling algorithms. Through a series of benchmark measurements, we observed the following findings: (1) Amazon utilizes highly diversified hardware to provision different instances. It results in significant performance variation, which can reach up to 30%. (2) Two different scheduling mechanisms were observed, one is similar to Simple Earliest Deadline Fist (SEDF) scheduler, whilst the other one analogies Credit scheduler in Xen hypervisor. These two scheduling mechanisms also arouse variations in performance. (3) By applying a simple "trial-and-failure" instance selection strategy, the cost saving is surprisingly significant. Given certain distribution of fast-instances and slow-instances, the achievable cost saving can reach 30%, which is attractive to SMEs which use Amazon EC2 platform. / Amazon Elastic Compute Cloud (EC2) har antagits av ett stort antal små och medelstora företag (SMB), t.ex. foursquare, Monster World, och Netflix, för att ge olika typer av tjänster. Det finns en del tidigare arbeten i den aktuella litteraturen som undersöker variationen och oförutsägbarheten av molntjänster. Dessa arbetenhar visat intressanta iakttagelser om molnerbjudanden, men de har misslyckats med att avslöja den underliggande kärnan hos de olika utseendena för molntjänster. I denna avhandling tittade vi på de underliggande schemaläggningsmekanismerna och maskinvarukonfigurationer i Amazon EC2, och undersökte deras inverkan på resultatet för de virtuella maskiners instanser som körs ovanpå. Närmare bestämt är det flera fall med standard- och hög-CPU instanser som omfattas att belysa uppgradering av hårdvara och utbyte av Amazon EC2. Stora instanser från standardfamiljen är valda för att genomföra en fokusanalys. För att bättre förstå olika beteenden av de olika instanserna har lokala kluster miljöer inrättas, dessa klustermiljöer består av två Intel Xeonservrar och har inrättats med hjälp av olika schemaläggningsalgoritmer. Genom en serie benchmarkmätningar observerade vi följande slutsatser: (1) Amazon använder mycket diversifierad hårdvara för att tillhandahållandet olika instanser. Från de olika instans-sub-typernas perspektiv leder hårdvarumångfald till betydande prestationsvariation som kan nå upp till 30%. (2) Två olika schemaläggningsmekanismer observerades, en liknande Simple Earliest Deadline Fist(SEDF) schemaläggare, medan den andra mer liknar Credit-schemaläggaren i Xenhypervisor. Dessa två schemaläggningsmekanismer ger även upphov till variationer i prestanda. (3) Genom att tillämpa en enkel "trial-and-failure" strategi för val av instans, är kostnadsbesparande förvånansvärt stor. Med tanke på fördelning av snabba och långsamma instanser kan kostnadsbesparingen uppgå till 30%, vilket är attraktivt för små och medelstora företag som använder Amazon EC2 plattform.
|
30 |
Performance Optimization of Virtualized Packet Processing Function for 5G RAN / Prestandaoptimering av virtualiserad packet processing-funktion för 5G RANÖstermark, Filip January 2017 (has links)
The advent of the fifth generation mobile networks (5G) presents many new challenges to satisfy the requirements of the upcoming standards. The 5G Radio Access Network (RAN) has several functions which must be highly optimized to keep up with increasing performance requirements. One such function is the Packet Processing Function (PPF) which must process network packets with high throughput and low latency. A major factor in the pursuit of higher throughput and lower latency is adaptability of 5G technology. For this reason, Ericsson has developed a prototype 5G RAN PPF as a Virtualized Network Function (VNF) using an extended version of the Data Plane Development Kit’s Eventdev framework, which can be run on a general purpose computer. This thesis project optimizes the throughput and latency of a 5G RAN PPF prototype using a set of benchmarking and code profiling tools to find bottlenecks within the packet processing path, and then mitigates the effects of these bottlenecks by changing the configuration of the PPF. Experiments were performed using IxNetwork to generate 2 flows with GTP-u/UDP/IPv4 packets for the PPF to process. IxNetwork was also used to measure throughput and latency of the PPF. The results show that the maximum throughput of the PPF prototype could be increased by 40.52% with an average cut-through latency of 97.59% compared to the default configuration in the evaluated test case, by reassigning the CPU cores, performing the packet processing work in fewer pipeline stages, and patching the RSS function of the packet reception (Rx) driver. / Med den annalkande femte generationen av mobila nätverk (5G) följer en rad utmaningar för att uppnå de krav som ställs av kommande standarder. Den femte generationens Radioaccessnätverk (RAN) har flera funktioner som måste vara väloptimerade för att prestera enligt ökade krav. En sådan funktion är Packet Processing-funktionen (PPF), vilken måste kunna bearbeta paket med hög genomströmning och låg latens. En avgörande faktor i jakten på högre genomströmning och lägre latens är anpassningsbarhet hos 5Gteknologin. Ericsson har därför utvecklat en prototyp av en PPF för 5G RAN som en virtuell nätverksfunktion (VNF) med hjälp av DPDK:s Eventdev-ramverk, som kan köras på en dator avsedd för allmän användning. I detta projekt optimeras genomströmningen och latensen hos Ericssons 5G RAN PPF-prototyp med hjälp av ett antal verktyg för prestandamätning och kodprofilering för att hitta flaskhalsar i pakethanteringsvägen, och därefter minska flaskhalsarnas negativa effekt på PPFens prestanda genom att ändra dess konfiguration. I experimenten användes IxNetwork för att generera 2 flöden med GTP-u/UDP/IPv4-paket som bearbetades av PPFen. IxNetwork användes även för att mäta genomströmning och latens. Resultaten visade att den maximala genomströmningen kunde ökas med 40.52% med en genomsnittlig latens på 97.59% jämfört med den ursprungliga PPF-prototypkonfigurationen i testfallet, genom att omfördela processorkärnor, sammanslå paketbearbetningssteg, och att patcha RSS-funktionen hos mottagardrivaren.
|
Page generated in 0.0939 seconds