• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 57
  • 48
  • Tagged with
  • 105
  • 67
  • 61
  • 51
  • 49
  • 39
  • 35
  • 23
  • 20
  • 19
  • 19
  • 18
  • 15
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Geo-distributed application deployment assistance based on past routing information / Utplacering av geografiskt distribuerade applikationer baserat på tidigare routing information

Falgert, Marcus January 2017 (has links)
Cloud computing platforms allow users to deploy geographically distributed applications on servers around the world. Applications may be simple to deploy on these platforms, but it is up to the user and the application to decide which regions and servers to use for application placement. Furthermore, network conditions and routing between the geo-distributed servers change over time, which can lead to sub-optimal performance of applications deployed on such servers. A user could either employ a static deployment configuration of servers, or attempt to use a more dynamic configuration. However, both have inherent limitations. A static configuration will be sub-optimal, as it will be unable to adapt to changing network conditions. A more dynamic approach where an application could switch over or transition to a more suitable server could be beneficial, but this can be very complex in practice. Furthermore, such a solution is more about adapting to change as it happens, and not beforehand. This thesis will investigate the possibility of forecasting impending routing changes between servers, by leveraging messages generated by the Border Gateway Protocol (BGP) and past knowledge about routing changes. BGP routers can delay BGP updates due to factors such as the minimum route advertisement interval (MRAI). Thus, out proposed solution involves forwarding BGP updates downstream in the network, before BGP routers process them. As routing between servers changes, so does the latency, meaning that the latency then could be predicted to some degree. This observation could be applied to realize when the latency to a server increases or decreases past another server. This in turn facilitates the decision process of selecting the most optimal servers in terms of latency for application deployment. The solution presented in this thesis can successfully predict routing changes between end-points in an enclosed environment, and inform users ahead of time that the latency is about to change. The time gained by such predictions depend on factors such as the number of ASs between the end-points, the MRAI, and the update processing delay imposed on BGP routers. Time gains between tens of milliseconds to over 2 minutes has been observed.
62

The Adoption of Distributed Ledger Technology within Central Securities Depositories : An Exploratory Study from a Business Perspective / Införandet av Distribuerad Databasteknik inom Centrala Värdepappersförvarare

Dang, Robin January 2022 (has links)
Organizations in the financial services industry are coming under increasing pressure. Regulatory compliance, operational inefficiencies, and the higher cost of capital are all forcing incumbents to adapt. As such, there are strong incentives for technological innovations that either reduce costs or generate new revenue. Distributed ledger technology (DLT), the foundation of bitcoin, is one of the latest innovations that appear to be the source of an imminent solution. An identified area with great potential for DLT is the post-trade market where market players, such as central securities depositories (CSDs), are heavily investing in pilot studies of how DLT may affect their business activities. In fact, the practical potential of adoption has been demonstrated by experiments and proof of concepts. However, while technological and regulatory aspects have been more frequently discussed in academia, the business dimension of the adoption of DLT within CSDs has received less attention. In this thesis, the business opportunities and challenges of the adoption of DLT within CSDs were explored, coupled with an analysis of the contextual factors affecting the rate of adoption. Further, this thesis compares the throughput performance between a centralized system and a private permissioned network. By performing a multiple-case study with a mixed-methodology approach, the researcher analyzed the literature, conducted a performance evaluation, and interviewed several industry experts. The conclusions suggest that the main business opportunities are the incorporation of digital assets and CSDs potential role as the gatekeeper of private networks. The main identified challenges related to adoption were interoperability, standardization, collaboration, scalability, defining applicable use cases, and governance and regulatory frameworks. Further, the performance evaluation suggests that the throughput performance of the centralized system outperforms the private permissioned network by an average of 6.5 times. The findings have both practical and academic implications. In academics, this thesis lays the foundation for further studies and provides new insights into the business dimensions of the adoption of DLT within CSDs. For practitioners, this thesis provides a basis for discussion and assessment of the entailed challenges related to the adoption of DLT within the post-trade market. / Organisationer inom finansbranschen utsätts för ökande press. Regelverksefterlevnad, operationell ineffektivitet och den högre kapitalkostnaden tvingar aktörer att anpassa sig. Som sådan finns det starka incitament för tekniska innovationer som antingen minskar kostnaderna eller genererar nya intäkter. Distribuerade liggare (DLT), grunden för bitcoin, är en av de senaste innovationerna som visar stor potential. Ett identifierat område med stor potential för DLT är post-trade-marknaden där marknadsaktörer, såsom centrala värdepappersförvarare (CSD), har investerat i pilotstudier av hur DLT kan påverka deras affärsverksamhet. Faktum är att den praktiska potentialen har demonstrerats genom experiment och bevis på koncept. Men även om tekniska och regulatoriska aspekter har diskuterats mer frekvent i den akademiska världen, har affärsdimensionen med införandet av DLT inom CSD:er fått mindre uppmärksamhet. I det här examensarbetet utforskades affärsmöjligheterna och utmaningarna med införandet av DLT inom CSDs, tillsammans med en analys av de marknadsmässiga faktorerna som påverkar spridningen av teknologin. Vidare jämför denna avhandling genomströmningsprestandan mellan ett centraliserat system och ett private permissioned nätverk. Genom att utföra en flerfallsstudie med en blandad metodologi analyserade forskaren litteraturen, genomförde en prestandautvärdering och intervjuade flera branschexperter. Slutsatserna tyder på att de huvudsakliga affärsmöjligheterna är integreringen av digitala tillgångar och CSD:s potentiella roll som gatekeeper för privata nätverk. De främsta identifierade utmaningarna i samband med införandet av DLT var interoperabilitet, standardisering, samarbete, skalbarhet, definition av tillämpliga användningsfall samt styrning och regelverk. Vidare antyder prestandautvärderingen att genomströmningsprestandan för det centraliserade systemet överträffar det private permissioned nätverket med i genomsnitt 6,5 gånger. Resultaten har både praktiska och akademiska implikationer. Inom akademin lägger denna avhandling grunden för fortsatta studier och ger nya insikter om affärsdimensionerna av införandet av DLT inom CSDs. För praktiker ger detta examensarbete ett underlag för diskussion och bedömning av de medförda utmaningarna relaterade till införandet av DLT inom post-trade-marknaden.
63

Mitigation of inter-domain Policy Violations at Internet eXchange Points

Raheem, Muhammad January 2019 (has links)
Economic incentives and the need to efficiently deliver Internet have led to the growth of Internet eXchange Points (IXPs), i.e., the interconnection networks through which a multitude of possibly competing network entities connect to each other with the goal of exchanging traffic. At IXPs, the exchange of traffic between two or more member networks is dictated by the Border gateway Protocol (BGP), i.e., the inter-domain routing protocol used by network operators to exchange reachability information about IP prefix destinations. There is a common “honest-closed-world” assumption at IXPs that two IXP members exchange data traffic only if they have exchanged the corresponding reachability information via BGP. This state of affairs severely hinders security as any IXP member can send traffic to another member without having received a route from that member. Filtering traffic according to BGP routes would solve the problem. However, IXP members can install filters but the number of filtering rules required at a large IXP can easily exceed the capacity of the network devices. In addition, an IXP cannot filter this type of traffic as the exchanged BGP routes between two members are not visible to the IXP itself. In this thesis, we evaluated the design space between reactive and proactive approaches for guaranteeing consistency between the BGP control-plane and the data-plane. In a reactive approach, an IXP member operator monitors, collects, and analyzes the incoming traffic to detect if any illegitimate traffic exists whereas, in a proactive approach, an operator configures its network devices to filter any illegitimate traffic without the need to perform any monitoring. We focused on proactive approaches because of the increased security of the IXP network and its inherent simplified network management. We designed and implemented a solution to this problem by leveraging the emerging Software Defined Networking (SDN) paradigm, which enables the programmability of the forwarding tables by separating the control- and data-planes. Our approach only installs rules in the data-plane that allow legitimate traffic to be forwarded, dropping anything else. As hardware switches have high performance but low memory space, we decided to make also use of software switches.  A “heavy-hitter” module detects the forwarding rules carrying most of the traffic and installs them into the hardware switch. The remaining forwarding rules are installed into the software switches. We evaluated the prototype in an emulated testbed using the Mininet virtual network environment. We analyzed the security of our system with the help of static verification tests, which confirmed compliance with security policies. The results reveal that with even just 10% of the rules installed in the hardware switch, the hardware switch directly filterss 95% of the traffic volume with non-uniform Internet-like traffic distribution workloads. We also evaluated the latency and throughput overheads of the system, though the results are limited by the accuracy of the emulated environment. The scalability experiments show that, with 10K forwarding rules, the system takes around 40 seconds to install and update the data plane. This is due to inherent slowness of the emulated environment and limitations of the POX controller, which is coded in Python. / Ekonomiska incitament och behovet av att effektivt leverera Internet har lett till tillväxten av Internet eXchange Points (IXP), dvs de sammankopplingsnät genom vilka en mängd möjligen konkurrerande nätverksenheter förbinder varandra med målet att utbyta trafik. Vid IXPs dikteras utbytet av trafik mellan två eller flera medlemsnät av gränsgatewayprotokollet (BGP), dvs det inter-domänroutingprotokollet som används av nätoperatörer för att utbyta tillgänglighetsinformation om IP-prefixdestinationer. Det finns ett gemensamt antagande om "honest-closed-world" vid IXP, att två IXP-medlemmar endast utbyter datatrafik om de har bytt ut motsvarande tillgänglighetsinformation via BGP. Detta tillstånd försvårar allvarligt säkerheten eftersom varje IXP-medlem kan skicka trafik till en annan medlem utan att ha mottagit en rutt från den medlemmen. Filtrering av trafik enligt BGP-vägar skulle lösa problemet. IXPmedlemmar kan dock installera filter men antalet filtreringsregler som krävs vid en stor IXP kan enkelt överskrida nätverksenheternas kapacitet. Dessutom kan en IXP inte filtrera denna typ av trafik eftersom de utbytta BGP-vägarna mellan två medlemmar inte är synliga för IXP-enheten själv. I denna avhandling utvärderade vi utrymmet mellan reaktiva och proaktiva metoder för att garantera överensstämmelse mellan BGP-kontrollplanet och dataplanet. I ett reaktivt tillvägagångssätt övervakar, samlar och analyserar en inkommande trafik en IXP-medlem för att upptäcka om någon obehörig trafik finns, medan en operatör konfigurerar sina nätverksenheter för att filtrera någon obehörig trafik utan att behöva övervaka. Vi fokuserade på proaktiva tillvägagångssätt på grund av den ökade säkerheten för IXP-nätverket och dess inneboende förenklad nätverkshantering. Vi konstruerade och genomförde en lösning på detta problem genom att utnyttja det nya SDN-paradigmet (Software Defined Networking), vilket möjliggör programmerbarheten hos vidarebefordringsborden genom att separera kontroll- och dataplanerna. Vårt tillvägagångssätt installerar bara regler i dataplanet som tillåter legitim trafik att vidarebefordras, släppa allt annat. Eftersom hårdvaruomkopplare har hög prestanda men lågt minne, bestämde vi oss för att även använda programvaruomkopplare. En "heavy-hitter" -modul detekterar vidarebefordringsreglerna som transporterar större delen av trafiken och installerar dem i hårdvaruomkopplaren. De återstående spolningsreglerna installeras i programvaruomkopplarna. Vi utvärderade prototypen i en emulerad testbädd med hjälp av virtuella nätverksmiljö Mininet. Vi analyserade säkerheten för vårt system med hjälp av statiska verifieringsprov, vilket bekräftade överensstämmelse med säkerhetspolicyerna. Resultaten visar att med bara 10% av de regler som installerats i hårdvaruomkopplaren filtrerar hårdvaruomkopplaren direkt 95% av trafikvolymen med ojämn Internetliknande trafikfördelningsarbete. Vi utvärderade också latens- och genomströmningsomkostnaderna för systemet, även om resultaten begränsas av noggrannheten hos den emulerade miljön. Skalbarhetsexperimenten visar att med 10K-vidarebefordringsregler tar systemet cirka 40 sekunder för att installera och uppdatera dataplanet. Detta beror på inneboende långsamma emulerade miljöer och begränsningar av POX-kontrollern, som kodas i Python.
64

Multicast Communication for Increased Data Exchange in Data- Intensive Distributed Systems

Schnell, Felicia January 2018 (has links)
Modern applications are required to handle and communicate an increasing amount of data. Meanwhile, distributed systems containing multiple computationally weak components becomes more common, resulting in a problematic situation. Choosing among communication strategies, used for delivering message between entities, therefore becomes crucial in order to efficiently utilize available resources. Systems where identical data is delivered to many recipients are common nowadays, but may apply an underlying communication strategy based on direct interaction between sender and receiver which is insufficient. Multicasting refers to a technique for group communication where messages can be distributed to participating nodes in a single transmission. This technique is developed to circumvent the problem of high workload on sender side and redundant traffic in the network, and constitutes the focus for this thesis. Within the area of Electronic Warfare and self-protection systems, time constitutes a critical aspect in order to provide relevant information for decision making. Self-protection systems developed by Saab, used in military aircrafts, must provide situational awareness to guarantee that correct decisions can be made at the right time. With more advanced systems, where the amount of data needed to be transmitted increases, the need of fast communication is essential to achieve quality of service. This thesis investigates how the deployment of multicast, in a distributed data-intensive system, could prepare a system for increased data exchange. The result is a communication design which allows for the system to distribute messages to a group of receivers with less effort from the sender and with reduced redundant traffic transferred over the same link. Comparative measurements are conducted between the new implementation and the old system. The result of the evaluation shows that the multicast solution both can decrease the time for message handling as well as the workload on endpoints significantly. / Nutidens applikationer måste kunna hantera och kommunicera en ökad datamängd. Samtidigt har distribuerade system bestående av många beräkningsmässigt svaga enheter blivit allt mer vanligt, vilket är problematiskt. Valet av kommunikationsstrategi, för att leverera data mellan enheter i ett system, är därför av stor betydelse för att uppnå effektivt utnyttjande av tillgängliga resurser. System där identisk information ska distribueras till flertalet mottagare är vanligt förekommande idag. Den underliggande kommunikationsstrategin som används kan dock baseras på direkt interaktion mellan sändare och mottagare vilket är ineffektivt. Multicast (Flersändning) syftar till ett samlingsbegrepp inom datorkommunikation baserat på gruppsändning av information. Denna teknik är utvecklad för att kringgå problematiken med hög belastning på sändarsidan och dessutom minska belastningen på nätverket, och utgör fokus för detta arbete. Inom telekrigföring och självskyddssystem utgör tiden en betydande faktor för att kunna tillhandahålla relevant information som kan stödja beslutsfattning. För självskyddssystem utvecklade av Saab, vilka används i militärflygplan, är situationsmedvetenhet av stor betydelse då det möjliggör för att korrekta beslut kan tas vid rätt tidpunkt. Genom utvecklingen av mer avancerade system, där mängden meddelanden som måste passera genom nätverket ökar, tillkommer höga krav på snabb kommunikation för att kunna åstadkomma kvalité. Denna uppsatsrapport undersöker hur införandet av multicast, i ett dataintensivt distribuerat system, kan förbereda ett system för ökat datautbyte. Arbetet har resulterat i en kommunikationsdesign som gör det möjligt för systemet att distribuera meddelanden till grupp av mottagare med minskad belastning på sändarsidan och mindre redundant trafik på de utgående länkarna. Jämförandet mätningar har gjorts mellan den nya implementationen och det gamla systemet. Resultaten visar att multicast-lösningen både kan reducera tiden för meddelande hantering samt belastningen på ändnoder avsevärt.
65

Query processing for peer mediator databases /

Katchaounov, Timour, January 2003 (has links)
Diss. (sammanfattning) Uppsala : Univ., 2003. / Härtill 6 uppsatser.
66

Faktorer som påverkar ett virtuellt teams kommunikationsprocesser inom agila mjukvaruutevcklingsprojekt : En fallstudie av Altran / Factors that affect a virtual team's communication processes within agile software development projects : A case study of Altran

Johansson, Elin January 2018 (has links)
I takt med att det blir vanligare att arbeta i team inom organisationer, utförs allt mer forskning om teamprocesser som påverkar teamens resultat och prestanda. Teamkommunikation är en teamprocess som vid upprepade tillfällen har identifierats som en av de teamprocesser som har en stor inverkan på teamens arbetsresultat. Även användandet av agila mjukvaruutvecklingsmetoder och distribuerad mjukvaruutveckling ökar och det råder delade meningar om hur väl egentligen distribuerat arbete och agila metoder fungerar i kombination. Å ena sidan bygger agila metoder på att utvecklarna har kontrollen själva, å andra sidan blir teamkommunikationen mer omständlig, eftersom den elektroniska kommunikationen kan verka begränsande. Uppsatsens syfte är att identifiera faktorer som påverkar virtuella teams kommunikationsprocesser inom agila mjukvaruutvecklingsprojekt. Fallstudiemetoden har tillämpats för att samla in relevant empiri och det valda fallföretaget är konsultföretaget Altran. Altran har ett konsultuppdrag hos en stor aktör inom fordonsindustrin och arbetar i distribuerade team inom ett agilt mjukvaruutvecklingsprojekt. Studien har utförts med hjälp av flera kvalitativa metoder; ostrukturerade observationer, en sonderande intervju och sex semi-semistrukturerade intervjuer med konsulter från utvecklingsteamen på Altran. Slutsatserna av studien är att flera faktorer påverkar virtuella teams kommunikationsprocesser. Några faktorer har dock varit mer framträdande än andra: Mångfald i teamet, som har en tydlig inverkan på kommunikationsprocesserna, eftersom Mångfalden i teamet sätter förutsättningarna för vilken grad teammedlemmarna är engagerade i kommunikationsprocesserna. Även Teamkommunikation i relation till Tillit mellan teammedlemmarna är viktig. Teamkommunikationen har en tydlig positiv inverkan på Tillit och Tillit har i sin tur en viktig funktion, eftersom det är den som avgör hur väl samarbetet mellan teammedlemmarna inom teamet fungerar. En tredje faktor som identifierats under studien är Teamkommunikationen i relation till Mentala modeller. Mentala modeller skapas med hjälp av Teamkommunikation och är en förutsättning för att teammedlemmarna ska kunna arbeta mot gemensamma mål och få ett bra arbetsresultat.
67

Kunskapshantering med wikis : En studie om användningen av wikis som kunskapshanteringssystem i ett distribuerat mjukvaruutvecklingsteam / Knowledge management using wikis : A study on the usage of wikis as knowledge management systems in a distributed software development team

Strandqvist, Louise, Abrahamsson, Camilla January 2016 (has links)
To seize and make use of knowledge in organizations is important for their competitiveness, amongst other things. To do this is, however, not entirely straightforward and therefore the use of so called knowledge management systems is common. There are different kinds of systems for managing knowledge, for example systems that are known as traditional knowledge management systems. However, a number of difficulties and problems with the traditional knowledge management systems has led to the usage of other systems, for example wikis, for knowledge management. We have, in this thesis, studied the role of a wiki as a knowledge management system in a distributed software development team. We have also studied how a wiki can relate to a traditional knowledge management system. A case study was conducted and five software developers were interviewed. The study showed that the usage of wikis can be versatile and that there are both similarities and differences to traditional knowledge management systems, both regarding the use and the content. The study also showed that wikis and traditional knowledge management systems can be used combined. The conclusions of the study shows that both wikis and traditional knowledge management systems can support and facilitate the management and dispersion of knowledge in organizations. / Att kunna ta vara på kunskap som finns inom organisationer och omsätta denna är viktigt bland annat för organisationers konkurrenskraft. Att göra detta är dock inte helt enkelt och därför tar man ofta hjälp av så kallade kunskapshanteringssystem. Det finns olika typer av system för att hantera kunskap, exempelvis de som benämns som traditionella kunskapshanteringssystem. Ett antal svårigheter och problem med dessa system har lett till att man börjat använda andra system för kunskaphantering, exempelvis wikis. I denna uppsats har vi undersökt en wikis roll som kunskapshanteringssystem inom ett distribuerat mjukvaruutvecklingsteam. Vi har även undersökt hur wikis förhåller sig till traditionella kunskapshanteringssystem. För att undersöka detta genomfördes en fallstudie där fem mjukvaruutvecklare intervjuades. Studien visade att användningen av wikis kan vara mångsidig och att det finns både likheter och skillnader med traditionella kunskapshanteringssystem, både gällande användningen och dess innehåll. Det visade sig också att wikis och traditionella kunskapshanteringssystem kan användas samverkande. Slutsatserna visar att både wikis och traditionella kunskapshanteringssystem kan vara ett stöd och underlätta hanteringen och spridningen av kunskap i organisationer.
68

Kommunikationsproblemi agila distribuerade team : En studieav identifierade kommunikationsproblem och lösningar för agila distribueradeteam.

Van Zwoll, Erik, Blivik, Andreas January 2019 (has links)
The   agile methods are becoming increasingly more common to use in distributed   work, the globally growing IT market has led to IT-system development often   being distributed. The fact that many   teams today choose to work distributed and agile has brought with it some new   communication problems. There has been some research related to communication   problems in agile distributed teams before, but when examining the previous   research we have identified that that the individuals own experiences usually   do not fall into focus. This study has investigated how the individuals   themselves perceive the communication problems within their agile distributed   team and why they believe the problems arise, as well as what the consequence   of their occurrence is and also how they perceive the positive effects of   well-functioning communication.   In   order to investigate problems and solutions related to communication in agile   distributed teams, seven semi-structured interviews have been conducted with   various project members who work with software development in distributed   agile teams. Also two meetings have   been analyzed. The study is made with a qualitative method.   The individuals who acted as respondents in   the study all work at a global IT company that we have gained access to. The   study has been developed on-site at this global IT company in an office   located in Östersund. Respondents were selected based on recommendations from   the company according to the roles requested in the study. / De agila metoderna blir allt vanligare att   använda vid distribuerat arbete, den globalt växande IT marknaden har lett   till att systemutveckling ofta sker distribuerat. Att team som sitter   distribuerat väljer att arbeta agilt har fört med sig en del nya kommunikationsproblem.   Det har gjorts en del forskning inom kommunikationsproblem i agila   distribuerade team tidigare, men det som märks när man granskar den tidigare   forskningen är att individernas egna upplevelser oftast inte hamnar i fokus.   Denna studie har undersökt hur individerna själva uppfattar   kommunikationsproblemen inom sitt agila distribuerade team samt varför de   tror att de uppstår och vad som är konsekvensen av att de uppstår, även hur   de uppfattar de positiva effekterna av en väl fungerande kommunikation.   För att undersöka området så har sju stycken   semistrukturerade intervjuer genomförts på olika projektmedlemmar som jobbar   med utveckling i distribuerade agila team, även två möten har analyserats,   detta har genomförts med en kvalitativ studie. Individerna som agerat som   respondenter i studien jobbar alla på ett globalt IT-företag som vi har fått   tillgång till. Studien har utvecklats på plats hos detta IT-företag på ett   kontor beläget i Östersund. Respondenterna valdes utifrån rekommendationer   från företaget efter de roller som efterfrågats i studien.
69

Simultaneous Data Management in Sensor-Based Systems using Disaggregation and Processing

Persson, Mathias January 2016 (has links)
To enable high performance data management for sensor-based systems the system components in an architecture has to be tailored to the situation at hand. Therefore, each component has to handle a massive amount of data independently, and at the same time cooperate with other components within a system. To facilitate rapid data processing between components, a model detailing the flow of information and specifying internal component structures will assist in faster and more reliable system designs. This thesis presents a model for a scalable, safe, reliable and high performing system for managing sensor-based data. Based on the model a prototype is developed that can be used to handle a large amount of messages from various distributed sensors. The different components within the prototype are evaluated and their advantages and disadvantages are presented. The result merits the architecture of the prototype and validates the initial requirements of how it should operate to achieve high performance. By combining components with individual advantages, a system can be designed that allows a high amount of simultaneous data to be disaggregated into its respective category, processed to make the information usable and stored in a database for easy access to interested parties. / Om ett system som hanterar sensorbaserad data ska kunna prestera bra måste komponenterna som ingår i systemet vara skräddarsydda för att hantera olika situationer. Detta betyder att varje enskild komponent måste individuellt kunna hantera stora simultana datamängder, samtidigt som de måste samarbeta med de andra komponenterna i systemet. För att underlätta snabb bearbetning av data mellan komponenter kan en modell, som specificerar informationsflödet och interna strukturer hos komponenterna, assistera i skapande av snabbare och mer tillförlitliga systemarkitekturer. I denna uppsats presenteras en modell för skapande av skalbara, säkra, tillförlitliga och bra presterande system som hanterar sensor-baserad data. En prototyp utvecklas, baserad på modellen, som kan hantera en stor mängd meddelanden från distribuerade sensorer. De olika komponenterna som används i prototypen utvärderas och deras för- och nackdelar presenteras. Resultatet visar att arkitekturen hos prototypen fungerar enligt de initiala kraven om hur bra systemet ska prestera. Genom att kombinera individuella styrkor hos komponenterna kan ett system skapas som tillåter stora mängder data att bli fördelat enligt deras typ, behandlat för att få fram relevant information och lagrat i en databas för enkel tillgång.
70

Building Distributed Systems for Fresh and Low-latency Data Delivery for Internet of Things

Toutounji Alkallas, Adnan January 2019 (has links)
Internet of Things (IoT) is a system of interrelated computing devices with the ability to transfer data over the network and collected by the applications that rely on fresh information, where the freshness of data can be measured by a metric called Age of Information (AoI). Age of Information is the time that is measured by the receiving node from the time the data has generated at the source. It is an important metric for many IoT applications such as, collecting data from temperature sensors, pollution rates in a specific city. However, the bottleneck problem occurs at sensors because they are constrained devices in terms of energy (power via battery), and also have limited memory and computational power. Therefore, they cannot serve many requests at the same time and thus, it will decrease the information quality which means more unnecessary aging. As a result, we suggest as a solution a distributed system that takes into account the AoI transmitted by the sensors so that IoT applications will receive the expected information quality. This thesis describes the three algorithms that can be used tobuild and test three different topologies. The first algorithm builds a Random graph while second and thirds algorithms shapes Clustered and Hybrid graphs respectively. For testing, we use Python based SimPy package which is a process-based discrete-event simulation framework. Finally, we compare Random, Clustered and Hybrid graphs results. Overall, the Hybrid graph delivers more fresh information than other graphs. / Internet of Things (IoT) är ett system med sammanhängande datorenheter med förmågan att överföra data över nätverket och samlas in av applikationer som förlitar sig på ny information, där datorns färskhet kan mätas med en metrisk som kallas Age of Information (AoI ). Age of Information är den tid som mäts av den mottagande noden från den tid datan har genererat vid källan. Det är en viktig metrisk för många IoT-applikationer, till exempel att samla in data från temperatursensorer, föroreningar i en specifik stad. Flaskhalsproblemet uppstår emellertid vid sensorer eftersom de är begränsade enheter i termer av energi (ström via batteri), och också har begränsat minne och beräkningskraft. Därför kan de inte betjäna många förfrågningar samtidigt och det kommer därför att minska informationskvaliteten vilket innebär mer onödigt åldrande. Som ett resultat föreslår vi som en lösning ett distribuerat system som tar hänsyn till AoI som sänds av sensorerna så att IoT-applikationer får den förväntade informationskvaliteten. Den här avhandlingen beskriver de tre algoritmerna som kananvändas för att bygga och testa tre olika topologier. Den första algoritmen bygger ett slumpmässigt diagram medan andra och tredjedels algoritmer formar Clustered respektive hybriddiagram. För testning använder vi ett Python-baserat SimPy-paket somär en processbaserad diskret händelsimuleringsram. Slutligen jämför vi slumpmässiga, klusterade och hybriddiagramresultat. Sammantaget ger hybridgrafen mer ny information än andra grafer.

Page generated in 0.0981 seconds