• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 27
  • Tagged with
  • 68
  • 44
  • 32
  • 29
  • 20
  • 18
  • 17
  • 16
  • 15
  • 15
  • 15
  • 14
  • 12
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Vad är Cloud Computing? : En kvalitativ studie ur ett företagsperspektiv

Nordlindh, Mattias, Suber, Kristoffer January 2010 (has links)
Cloud computing is a new buzzword within the IT-industry, and introduces a whole new way of working with IT. The technique delivers web based services, which results in that the user no longer needs to install an application locally on a computer. Since the application no longer needs to run on a local entity, but in a datacenter located on a service provider, the users no longer need any specific hardware more than a computer with an internet connection. Cloud computing also offers IT-infrastructure and development environments as services, these three service types is better known as cloud services. Through the usage of different types of cloud services, the need for maintenance and hardware is significantly reduced. Therefore, the need for IT-competence in a company is reduced, which offers the company to focus on their core business strategy. A problem with cloud computing is that because it is such a new phenomenon, there is no established definition. This makes the subject hard to understand and easily misunderstood. Cloud computing surely seems to solve many of the problems with reliability of systems and hardware that companies struggle with on a daily basis, but is it really that simple? The purpose of this thesis is to understand which types of company preconditions that affect the integration of cloud services in a company. We will also clarify the concept of Cloud computing by divide and describe its different components. To investigate the different types of company preconditions and there approach to cloud services we have performed interviews at different companies in associations with our case study. The result shows that a cloud service only can be integrated to an organization as long as the organization possesses the right preconditions. We think that cloud services can bring great advantages to organizations that meet these preconditions and that cloud services has the potential to ease the way of work for organizations in the future. / Cloud computing är ett nytt trendord inom IT-branschen och innebär ett nytt sätt att arbeta med IT. Tekniken bygger på att användare av en applikation inte behöver installera en applikation på sin lokala dator utan applikationen förmedlas som en tjänst genom Internet. Då applikationen inte körs på någon lokal enhet utan i en datorhall hos tjänsteleverantören behöver inte användaren ha någon mer specifik hårdvara utöver en dator och en Internetanslutning för att ta del av tjänsten. Även IT-infrastruktur och utvecklingsmiljö som tjänst erbjuds på samma sätt inom Cloud computing, dessa tre typer av tjänster kallas för molntjänster. Genom att använda olika typer av molntjänster minskar den interna driften av system, underhåll av hårdvara och således behövs minmal IT-kompetens inom företag, detta tillåter företag att fokusera på sin kärnverksamhet. Då Cloud computing är ett nytt fenomen finns det ingen erkänd definition av begreppet ännu, detta resulterar i att ämnet blir svårförstått och misstolkas lätt. Cloud computing verkar onekligen lösa problematiken med driftsäkerhet som företag tvingas att handskas med dagligen, men är de verkligen så enkelt? Syftet med uppsatsen är att redogöra för vilka förutsättningar som företag besitter som påverkar hur bra olika typer av molntjänster kan integreras i företagets verksamhet. Uppsatsen ska även redogöra för begreppet Cloud computing genom att dela upp och beskriva de olika delar som begreppet består utav. För att utreda detta har vi bedrivit en fallstudie genom intervjuer hos utvalda företag för att undersöka företagens förutsättningar och förhållningssätt gentemot olika typer av molntjänster. Resultatet visar att de rätta förutsättningarna krävs för att ett företag ska kunna integrera molntjänster i sin verksamhet. Vi anser att molntjänster kan medföra stora fördelar för de företagen som besitter dessa förutsättningar, och att molntjänster har potential att underlätta verksamheten för många organisationer i framtiden.
62

Implementation of a Log Agent in Microsoft Azure : and packaging it to Azure Marketplace / Implementering av en Log Agent i Microsoft Azure : och paketering till Azure Marketplace

Bui, Michael, Pedersen, Magnus January 2015 (has links)
Cloud computing is still in an early stage of development and Microsoft is now investing considerable amount of resources in the cloud. Microsoft Azure is a cloud platform developed by Microsoft and it is continuously evolving, new features are constantly being added and old features are being updated. Integration Software, which is a company that focuses on products for system integration strongly believes that cloud­-based solutions will have a significant impact on their future. This is why selling and developing solutions and services for the cloud are strategically important for them. The objective of this dissertation is to investigate Microsoft Azure in general and Azure Marketplace in particular. This investigation consisted of an implementation of a Microsoft Azure application and integrating this application with Azure Marketplace and evaluating the expenses for running the application. The purpose for this project is to gain practical experience and to work with new techniques and help Integration Software better understand Azure Marketplace. The application is a Log Agent which fetches data from an external source and resends the data to an external party (Integration Manager). Our first intention was to package and deploy the application to a newly updated Azure Marketplace. The new Azure Marketplace was never released during this dissertation so we decided to deploy the application to the existing version of Azure Marketplace. This was however not fully successful. We encountered some problems in successfully deploying the application to Azure Marketplace. The evaluations for the cost of running an Azure application were not carried out due to lack of time.
63

A Cloud-native Vehicular Public Key Infrastructure : Towards a Highly-available and Dynamically- scalable VPKIaaS / En cloud-native public key infrastruktur för fordon : För ett VPKI med hög tillgänglihhet och dynamisk skalbarhet

Noroozi, Hamid January 2021 (has links)
Efforts towards standardization of Vehicular Communication Systems (VCSs) have been conclusive on the use of Vehicular Public-Key Infrastructure (VPKI) for the establishment of trust among network participants. Employing VPKI in Vehicular Communication (VC) guarantees the integrity and authenticity of Cooperative Awareness Messages (CAMs) and Decentralized Environmental Notification Messages (DENMs). It also offers a level of privacy for vehicles as VPKI provides them with a set of non-linkable short-lived certificates, called pseudonyms, which are used to sign outgoing messages by vehicles while they communicate with other vehicles referred to as Vehicle-to-Vehicle (V2V) or Roadside Units (RSUs) referred to as Vehicle-to-Infrastructure (V2I). Each vehicle uses a pseudonym for its lifetime and by switching to a not- previously- used pseudonym, it continues to communicate without risking its privacy. There have been two approaches suggested by the literature on how to provide vehicles with pseudonyms. One is the so-called pre-loading mode, suggesting to pre-load vehicles with all pseudonyms they need, which increases the cost of revocation in case they are compromised. The other one is the on-demand mode, suggesting a real-time offering of pseudonyms by VPKI at vehicles request e.g., on starting each trip. Choosing the on-demand approach imposes a considerable burden of availability and resilience on VPKI services. In this work, we are confronting the problems regarding a large-scale deployment of an on-demand VPKI that is resilient, highly available, and dynamically scalable. In order to achieve that, by leveraging state-of-the-art tools and design paradigms, we have enhanced a VPKI system to ensure that it is capable of meeting enterprise-grade Service Level Agreement (SLA) in terms of availability, and it can also be cost-efficient as services can dynamically scale-out in the presence of high load, or possibly scale-in when facing less demand. That has been made possible by re-architecting and refactoring an existing VPKI into a cloud-native solution deployed as microservices. Towards having a reliable architecture based on distributed microservices, one of the key challenges to deal with is Sybil-based misbehavior. By exploiting Sybil-based attacks in VPKI, malicious vehicles can gain influential advantage in the system, e.g., one can affect the traffic to serve its own will. Therefore, preventing the occurrence of Sybil attacks is paramount. On the other hand, traditional approaches to stop them, often come with a performance penalty as they verify requests against a relational database which is a bottleneck of the operations. We propose a solution to address Sybil-based attacks, utilizing Redis, an in-memory data store, without compromising the system efficiency and performance considerably. Running our VPKI services on Google Cloud Platform (GCP) shows that a large-scale deployment of VPKI as a Service (VPKIaaS) can be done efficiently. Conducting various stress tests against the services indicates that the VPKIaaS is capable of serving real world traffic. We have tested VPKIaaS under synthetically generated normal traffic flow and flash crowd scenarios. It has been shown that VPKIaaS managed to issue 100 pseudonyms per request, submitted by 1000 vehicles where vehicles kept asking for a new set of pseudonyms every 1 to 5 seconds. Each vehicle has been served in less than 77 milliseconds. We also demonstrate that, under a flash crowd situation, with 50000 vehicles, VPKIaaS dynamically scales out, and takes ≈192 milliseconds to serve 100 pseudonyms per request submitted by vehicles. / Ansträngningar för standardisering av Vehicular Communication Systems har varit avgörande för användandet av Vehicular Public-Key Infrastructure (VPKI) för att etablera förtroende mellan nätverksdeltagare. Användande av VPKI i Vehicular Communication (VC) garanterar integritet och autenticitet av meddelanden. Det erbjuder ett lager av säkerhet för fordon då VPKI ger dem en mängd av icke länkbara certifikat, kallade pseudonym, som används medan de kommunicerar med andra fordon, kallat Vehicle-to-Vehicle (V2V) eller Roadside Units (RSUs) kallat Vehicle-to-Infrastructure (V2I). Varje fordon använder ett pseudonym under en begränsad tid och genom att byta till ett icke tidigare använt pseudonym kan det fortsätta kommunicera utan att riskera sin integritet. I litteratur har två metoder föreslagits för hur man ska ladda fordon med pseudonym de behöver. Den ena metoden det så kallade offline-läget, som proponerar att man för-laddar fordonen med alla pseudonym som det behöver vilket ökar kostnaden för revokering i fall de blir komprometterat. Den andra metoden föreslår ett on-demand tillvägagångssätt som erbjuder pseudonym via VPKI på fordonets begäran vid början av varje färd. Valet av på begäran metoden sätter en stor börda på tillgänglighet och motståndskraft av VPKI tjänster. I det här arbetet, möter vi problem med storskaliga driftsättningar av en på begäran VPKI som är motståndskraftig, har hög tillgänglighet och dynamiskt skalbarhet i syfte att uppnå dessa attribut genom att nyttja toppmoderna verktyg och designparadigmer. Vi har förbättrat ett VPKI system för att säkerställa att det är kapabelt att möta SLA:er av företagsklass gällande tillgänglighet och att det även kan vara kostnadseffektivt eftersom tjänster dynamiskt kan skala ut vid högre last eller skala ner vid lägre last. Detta har möjliggjorts genom att arkitekta om en existerande VPKI till en cloud-native lösning driftsatt som mikrotjänster. En av nyckelutmaningarna till att ha en pålitlig arkitektur baserad på distribuerade mikrotjänster är sybil-baserad missuppförande. Genom att utnyttja Sybil baserade attacker på VPKI, kan illvilliga fordon påverka trafik att tjäna dess egna syften. Därför är det av största vikt att förhindra Sybil attacker. Å andra sidan så dras traditionella metoder att stoppa dem med prestandakostnader. Vi föreslår en lösning för att adressera Sybilbaserade attacker genom att nyttja Redis, en in-memory data-store utan att märkbart kompromissa på systemets effektivitet och prestanda. Att köra våra VPKI tjänster på Google Cloud Platform (GCP) och genomföra diverse stresstester mot dessa har visat att storskaliga driftsättningar av VPKI as a Service (VPKIaaS) kan göras effektivt samtidigt som riktigt trafik hanteras. Vi har testat VPKIaaS under syntetisk genererat normalt trafikflöde samt flow och flash mängd scenarier. Det har visat sig att VPKIaaS klarar att utfärda 100 pseudonym per förfråga utsänt av 1000 fordon (där fordonen bad om en ny uppsättning pseudonym varje 1 till 5 sekunder), och varje fordon fått svar inom 77 millisekunder. Vi demonstrerar även att under en flashcrowd situation, där antalet fordon höjs till 50000 med en kläckningsgrad på 100. VPKIaaS dynamiskt skalar ut och tar ≈192 millisekunder att betjäna 100 pseudonymer per förfrågan gjord av fordon.
64

Molns inverkan på satellitdetektion av vegetationsbränder i Sverige / The Impact of Clouds on VIIRS Active Fire Satellite Detection in Sweden

Letalick, Marcus January 2022 (has links)
Results are presented from the 2021 test run of active fire detection using the Visual Infrared Imaging Radiometer Suite (VIIRS) instrument, that is currently onboard the polar satellites Suomi-NPP and NOAA-20. The test is performed by the Swedish Civil Contingencies Agency and the Swedish Meteorological and Hydrological Institute, in cooperation with local fire departments in Sweden. The aim of this report was to study the impact of clouds on the ability of active fire detection, as well as to identify objects that potentially can cause commission errors in the VIIRS 375 m active fire algorithm (false positive notifications). Also, the study aimed to investigate what may cause omission errors in the algorithm, and to show to what extent the detections can be used to represent the true time development of the wildfire front and burned area. Using a cloudmask and a cloudtype classification product from Nowcasting Satellite Application Facilities (NWC SAF), the impact of clouds was anlalyzed by comparing the cloud data with the obtained fire notifications from the satellites. Active fires and newly burned areas were also studied using Sentinel-2 imagery, specifically the False Color Urban and the Short Wave Infrared (SWIR) RGB composites, as well as images from the 842 nm band, making use of the relatively high spatial resolution as well as the spectral signatures of fire and newly burned vegetation. Detection of active fires occurred in both cloud free and completely cloud covered conditions. How-ever, roughly 70% of the detected vegetation fire pixels were obtained in conditions with 20% clouds or less. / I rapporten presenteras resultat från 2021 års test av satellitdetektering av skogs- och vegetationsbränder, ett test som genomförs av MSB och SMHI i samverkan med kommunala räddningstjänster. De två satelliter som ingår i testet (Suomi-NPP och NOAA-20) går i polära omloppsbanor och är utrustade med instrumentet Visible Infrared Imaging Radiometer Suite (VIIRS). Detta projekt syftade till att undersöka hur molnighet påverkar möjligheten till detektion med satellit, vilka objekt som potentiellt kan ge upphov till falska detektioner samt vad som kan orsaka uteblivna satellitdetektioner. Ytterligare ett mål med rapporten var att genom fallstudier av större bränder undersöka i vilken utsträckning satellitdetektionerna kan användas för att representera brandfrontens utveckling med tiden och brandens faktiska utbredning. Vid studierna av molnighet analyserades en molnmask och en molnklassificeringsprodukt från Nowcasting Satellite Application Facilities (NWC SAF). I utvärderingen användes även data från Sentinel-2 för att studera pågående bränder och avbränd yta, som syns tydligt i RGB-kompositerna False Color Urban och Short Wave Infrared (SWIR) och i 842 nm-bandet, tack vare den relativt höga bildupplösningen och den nyligen avbrända ytans spektralsignatur. Brand detekterades i både molnfria och helt molntäckta förhållanden. Drygt 70 % av detektionerna vid vegetationsbrand kom emellertid i förhållanden med 20 % moln eller mindre.
65

IoT as Fog Nodes: An Evaluation on Performance and Scalability

Ezaz, Ishaq January 2023 (has links)
I takt med den exponentiella tillväxten av Internet of Things (IoT) har utmaningen att hantera den enorma mängden genererade data blivit allt större. Denna studie undersöker paradigmen med distribuerade dimdatorer, där kostnadseffektiva IoT-enheter används som dimnoder, som en potentiell lösning på de utmaningarna som det centraliserade molnet står inför. Skalbarheten och prestandan hos ett dimdatorsystem utvärderades under en rad olika arbetsbelastningar genererade av beräkningsintensiva uppgifter. Resultaten visade att en ökning av antal dimnoder förbättrade systemets skalbarhet och minskade den totala latensen. Dock visade det sig att konfigurationer med färre dimnoder presterade bättre vid lägre arbetsbelastningar, vilket understryker vikten av balansen mellan beräkningsuppgifter och kommunikationskostnaden. Sammantaget framhäver denna studie dimdatorkonceptets genomförbarhet som en effektiv och skalbar lösning för beräkningsintensiva databearbetning inom IoT. Trots att studiens fokus låg på latens, kan de insikter som vunnits vägleda framtida design och implementering av dimdatorsystem och bidra till de pågående diskussionerna om strategier för datahantering inom IoT. / With the exponential growth of the Internet of Things (IoT), managing the enormous amount of data generated has become a significant challenge. This study investigates the distributed paradigm of fog computing, using cost-effective IoT devices as fog nodes, as a potential solution for the centralized cloud. The scalability and performance of a fog computing system were evaluated under a range of workloads, using computationally intensive tasks reflective of real-world scenarios. Results indicated that with an increase in the number of fog nodes, system scalability improved, and the overall latency decreased. However, at lower workloads, configurations with fewer fog nodes outperformed those with more, highlighting the importance of the balance between computation and communication overheads. Overall, this study emphasizes the viability of fog computing as an efficient and scalable solution for data processing in IoT systems. Although the study primarily focused on latency, the insights gained could guide future design and implementation of fog computing systems and contribute to the ongoing discussions on IoT data processing strategies.
66

Krisinformation i molnet : Att uppnå stabil distribuering av krisinformation med Cloud Computing

Huzell, Linus, Öhlund, Philip January 2019 (has links)
Denna studie undersöker hur svenska myndigheter bör tänka för att uppnå en stabil driftlösning vid distribuering av webbaserad krisinformation med hjälp av molntjänster. Resultatet är fyra faktorer som myndigheter kan använda sig av och ta hänsyn till för att uppnå detta. Resultatet uppnås genom intervjuer med yrkesverksamma personer inom området, både från myndigheter och privata företag, för bringa flera perspektiv på forskningsfrågan. Faktorerna härleds därefter från intervjuerna med en induktiv ansats för att sedan testas med en deduktiv ansats mot tidigare forskning som lyfter upp tio utmaningar vid införande av molntjänster hos myndigheter. För att bekräfta sin relevans och funktion testas sedan faktorerna i en historisk fallstudie av ett fall där ett falskt VMA-larm utlösts i Stockholm sommaren 2017. / This study examines what Swedish authorities should consider in order to achieve a stable operational solution when distributing web-based crisis information using Cloud Computing. The study results in four factors that authorities can use and take into account in order to achieve this. The result is achieved through interviews with professionals, both from private and public sectors, to bring multiple perspectives on the topic. The factors derive from the interviews with an inductive approach and then tested with a deductive approach to a previous research that highlights ten major challenges facing governments in implementing Cloud Computing. To confirm their relevance and function, the factors are then tested in a historical case study of a case where a false important notice to the public (VMA) was sent in Stockholm in the summer of 2017.
67

Molntjänster : en studie av tekniska möjligheter

Olsson, Fredrik, Cruz, Maribel January 2013 (has links)
Datormoln, även kallat molnet, är teknik baserad på användande av applikationer och data över Internet. Molnet erbjuder olika typer av tjänster och resurser som t.ex. applikationer och datorkraft. Molntjänster kan underlätta för företag då de kan sänka den annars höga kostnaden för saker som personal, hårdvara, mjukvara och det utrymme detta kräver. Denna rapport kommer svara på frågan ”Vad är moln?” och grundläggande beskriva molnets struktur och funktion, samt olika typer av moln. Rapporten kommer även beskriva ett par olika molntjänster.
68

Performance of message brokers in event-driven architecture: Amazon SNS/SQS vs Apache Kafka / Prestanda av meddelandeköer i händelsedriven arkitektur: Amazon SNS/SQS vs Apache Kafka

Edeland, Johan, Zivkovic, Ivan January 2023 (has links)
Microservice architecture, which involves breaking down applications into smaller and loosely coupled components, is becoming increasingly common in the development of modern systems. Connections between these components can be established in various ways. One of these approaches is event-driven architecture, where components in the system communicate asynchronously with each other through message queues.  AWS, Amazon Web Services, the largest provider of cloud-based services, offers such a messaging queue: SQS, Amazon Simple Queue Service, which can be integrated with SNS, Amazon Simple Notification Service, to enable "one-to-many" asynchronous communication.  An alternative tool is Apache Kafka, created by LinkedIn and later open-sourced under the Apache Software Foundation. Apache Kafka is an event logging and streaming platform that can also function as a message queue in an event-driven architecture.  The authors of this thesis have been commissioned by Scania to compare and evaluate the performance of these two tools and investigate whether there are use cases where one might be more suitable than the other. To achieve this, two prototypes were developed, each prototype consisting of a producer microservice and a consumer microservice. These prototypes were then used to conduct latency and load tests by producing messages and measuring the time interval until they were consumed.  The results of the tests show that Apache Kafka has a lower average latency than SNS/SQS and scales more efficiently with increasing data volumes, making it more suitable for use cases involving real-time data streaming. Its potential as a message bus for loosely coupled components in the system is also evident. In this context, SNS/SQS is equally valuable, as it operates as a dedicated message bus with good latency and offers a user-friendly and straightforward setup process. / Mikrotjänstarkitektur, som innebär att applikationer bryts ned till mindre och löst kopplade komponenter, är något som blir allt vanligare vid utvecklingen av moderna system. Kopplingar mellan dessa komponenter kan etableras på olika sätt. Ett av dessa tillvägagångssätt är händelsedriven arkitektur, där komponenterna i systemet kommunicerar asynkront med varandra genom meddelandeköer.  AWS, Amazon Web Services, som är den största leverantören av molnbaserade tjänster, tillhandahåller en sådan meddelandekö: SQS, Amazon Simple Queue Service, som kan integreras med SNS, Amazon Simple Notification Service för att möjliggöra ”en-till-många” asynkron kommunikation.  Ett alternativt verktyg är Apache Kafka, skapat av Linkedin och senare öppen källkodspublicerad under Apache Software Foundation. Apache Kafka är en händelselogg och strömningsplattform som även kan fungera som en meddelandekö i en händelsedriven arkitektur.  Författarna av detta arbete har på uppdrag av Scania blivit ombedda att jämföra och utvärdera prestandan hos de två verktygen samt undersöka om det finns användningsfall där det ena kan vara mer lämpligt än det andra. För att uppnå detta utvecklades två prototyper, där varje prototyp består av en producent- och en konsumentmikrotjänst. Dessa prototyper användes sedan för att genomföra latens- och lasttester genom att producera meddelanden och mäta tidsintervallet till dess att de konsumerades.  Resultatet från testerna visar att Apache Kafka har lägre genomsnittlig latens än SNS/SQS och skalar mer effektivt vid ökande datamängder, vilket gör det mer lämpat för användningsfall med realtidsströmning av data. Dess potential som meddelandebuss för löst kopplade komponenter i systemet är också tydlig. I detta sammanhang är SNS/SQS lika användbart, då det fungerar som en dedikerad meddelandebuss med god latens och en användarvänlig och enkel startprocess.

Page generated in 0.0382 seconds