• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 17
  • Tagged with
  • 37
  • 24
  • 18
  • 14
  • 12
  • 10
  • 10
  • 9
  • 8
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Medicinsk digital tvilling : Den digitala människokroppen / Medical digital twin : The digital human body

Gustafsson, Ted, Rajala, Lukas, Nee, Lukas, Nordin, Herman, Nimhed, Carl, Bahnan, Gabraiel, Almrot, Jacob, Stålebrink, Lovisa January 2020 (has links)
Den här rapporten behandlar ett projekt utfört i kandidatkursen TDDD96 - Kandidatprojekt i programvaruutveckling. Projektet är utfört av åtta studenter från datateknik- ochmjukvaruteknikprogrammen på Linköpings universitet (LiU) för kunden från institutionen för medicinsk teknik (IMT) på LiU. Syftet med projektet var att ta fram en prototypmed ett grafiskt gränssnitt för uppvisning och simulering av hur kroppen påverkas av t.ex.träning, sömn och kostintag. Modellerna som simulerats är framtagna av forskningsgrup-pen integrativ system biologi för institutionen för medicinsk teknik LiU och resultatet är i form av dataändringar och grafer i programmets gränssnit.
32

A Cloud-native Vehicular Public Key Infrastructure : Towards a Highly-available and Dynamically- scalable VPKIaaS / En cloud-native public key infrastruktur för fordon : För ett VPKI med hög tillgänglihhet och dynamisk skalbarhet

Noroozi, Hamid January 2021 (has links)
Efforts towards standardization of Vehicular Communication Systems (VCSs) have been conclusive on the use of Vehicular Public-Key Infrastructure (VPKI) for the establishment of trust among network participants. Employing VPKI in Vehicular Communication (VC) guarantees the integrity and authenticity of Cooperative Awareness Messages (CAMs) and Decentralized Environmental Notification Messages (DENMs). It also offers a level of privacy for vehicles as VPKI provides them with a set of non-linkable short-lived certificates, called pseudonyms, which are used to sign outgoing messages by vehicles while they communicate with other vehicles referred to as Vehicle-to-Vehicle (V2V) or Roadside Units (RSUs) referred to as Vehicle-to-Infrastructure (V2I). Each vehicle uses a pseudonym for its lifetime and by switching to a not- previously- used pseudonym, it continues to communicate without risking its privacy. There have been two approaches suggested by the literature on how to provide vehicles with pseudonyms. One is the so-called pre-loading mode, suggesting to pre-load vehicles with all pseudonyms they need, which increases the cost of revocation in case they are compromised. The other one is the on-demand mode, suggesting a real-time offering of pseudonyms by VPKI at vehicles request e.g., on starting each trip. Choosing the on-demand approach imposes a considerable burden of availability and resilience on VPKI services. In this work, we are confronting the problems regarding a large-scale deployment of an on-demand VPKI that is resilient, highly available, and dynamically scalable. In order to achieve that, by leveraging state-of-the-art tools and design paradigms, we have enhanced a VPKI system to ensure that it is capable of meeting enterprise-grade Service Level Agreement (SLA) in terms of availability, and it can also be cost-efficient as services can dynamically scale-out in the presence of high load, or possibly scale-in when facing less demand. That has been made possible by re-architecting and refactoring an existing VPKI into a cloud-native solution deployed as microservices. Towards having a reliable architecture based on distributed microservices, one of the key challenges to deal with is Sybil-based misbehavior. By exploiting Sybil-based attacks in VPKI, malicious vehicles can gain influential advantage in the system, e.g., one can affect the traffic to serve its own will. Therefore, preventing the occurrence of Sybil attacks is paramount. On the other hand, traditional approaches to stop them, often come with a performance penalty as they verify requests against a relational database which is a bottleneck of the operations. We propose a solution to address Sybil-based attacks, utilizing Redis, an in-memory data store, without compromising the system efficiency and performance considerably. Running our VPKI services on Google Cloud Platform (GCP) shows that a large-scale deployment of VPKI as a Service (VPKIaaS) can be done efficiently. Conducting various stress tests against the services indicates that the VPKIaaS is capable of serving real world traffic. We have tested VPKIaaS under synthetically generated normal traffic flow and flash crowd scenarios. It has been shown that VPKIaaS managed to issue 100 pseudonyms per request, submitted by 1000 vehicles where vehicles kept asking for a new set of pseudonyms every 1 to 5 seconds. Each vehicle has been served in less than 77 milliseconds. We also demonstrate that, under a flash crowd situation, with 50000 vehicles, VPKIaaS dynamically scales out, and takes ≈192 milliseconds to serve 100 pseudonyms per request submitted by vehicles. / Ansträngningar för standardisering av Vehicular Communication Systems har varit avgörande för användandet av Vehicular Public-Key Infrastructure (VPKI) för att etablera förtroende mellan nätverksdeltagare. Användande av VPKI i Vehicular Communication (VC) garanterar integritet och autenticitet av meddelanden. Det erbjuder ett lager av säkerhet för fordon då VPKI ger dem en mängd av icke länkbara certifikat, kallade pseudonym, som används medan de kommunicerar med andra fordon, kallat Vehicle-to-Vehicle (V2V) eller Roadside Units (RSUs) kallat Vehicle-to-Infrastructure (V2I). Varje fordon använder ett pseudonym under en begränsad tid och genom att byta till ett icke tidigare använt pseudonym kan det fortsätta kommunicera utan att riskera sin integritet. I litteratur har två metoder föreslagits för hur man ska ladda fordon med pseudonym de behöver. Den ena metoden det så kallade offline-läget, som proponerar att man för-laddar fordonen med alla pseudonym som det behöver vilket ökar kostnaden för revokering i fall de blir komprometterat. Den andra metoden föreslår ett on-demand tillvägagångssätt som erbjuder pseudonym via VPKI på fordonets begäran vid början av varje färd. Valet av på begäran metoden sätter en stor börda på tillgänglighet och motståndskraft av VPKI tjänster. I det här arbetet, möter vi problem med storskaliga driftsättningar av en på begäran VPKI som är motståndskraftig, har hög tillgänglighet och dynamiskt skalbarhet i syfte att uppnå dessa attribut genom att nyttja toppmoderna verktyg och designparadigmer. Vi har förbättrat ett VPKI system för att säkerställa att det är kapabelt att möta SLA:er av företagsklass gällande tillgänglighet och att det även kan vara kostnadseffektivt eftersom tjänster dynamiskt kan skala ut vid högre last eller skala ner vid lägre last. Detta har möjliggjorts genom att arkitekta om en existerande VPKI till en cloud-native lösning driftsatt som mikrotjänster. En av nyckelutmaningarna till att ha en pålitlig arkitektur baserad på distribuerade mikrotjänster är sybil-baserad missuppförande. Genom att utnyttja Sybil baserade attacker på VPKI, kan illvilliga fordon påverka trafik att tjäna dess egna syften. Därför är det av största vikt att förhindra Sybil attacker. Å andra sidan så dras traditionella metoder att stoppa dem med prestandakostnader. Vi föreslår en lösning för att adressera Sybilbaserade attacker genom att nyttja Redis, en in-memory data-store utan att märkbart kompromissa på systemets effektivitet och prestanda. Att köra våra VPKI tjänster på Google Cloud Platform (GCP) och genomföra diverse stresstester mot dessa har visat att storskaliga driftsättningar av VPKI as a Service (VPKIaaS) kan göras effektivt samtidigt som riktigt trafik hanteras. Vi har testat VPKIaaS under syntetisk genererat normalt trafikflöde samt flow och flash mängd scenarier. Det har visat sig att VPKIaaS klarar att utfärda 100 pseudonym per förfråga utsänt av 1000 fordon (där fordonen bad om en ny uppsättning pseudonym varje 1 till 5 sekunder), och varje fordon fått svar inom 77 millisekunder. Vi demonstrerar även att under en flashcrowd situation, där antalet fordon höjs till 50000 med en kläckningsgrad på 100. VPKIaaS dynamiskt skalar ut och tar ≈192 millisekunder att betjäna 100 pseudonymer per förfrågan gjord av fordon.
33

Distribuerade beräkningar med Kubernetes : Användning av Raspberry Pi och Kubernetes för distribuerade matematiska uträkningar

Mahamud, Abdirahman January 2023 (has links)
Under de senaste åren har stora datamängder blivit allt vanligare för beslutsfattande och analys. Maskininlärning och matematiska beräkningar är två avgörande metoder som används för detta. Dessa beräkningar kan dock vara tidskrävande, och de kräver högpresterande datorer som är utmanande att skala upp. Raspberry Pi är en liten, kraftfull och billig dator som lämpar sig för parallella beräkningar. Kubernetes är en öppen källkodsplattform för att hantera containerbaserade applikationer som tillåter automatisk skalning av mjukvaruapplikationer. Genom att kombinera Raspberry Pi med Kubernetes kan ett kostnadseffektivt och skalbart system för matematiska beräkningar och maskininlärning skapas. I denna studie undersöks möjligheten att bygga ett kostnadseffektivt och skalbart system för matematiska beräkningar och maskininlärning med hjälp av Raspberry Pi och Kubernetes. Det kommer att göras teoretisk forskning kring Kubernetes och Raspberry Pi, designa ett system för matematiska beräkningar och maskininlärning, implementera systemet genom att installera och konfigurera Kubernetes på flera Raspberry Pi:s, mäta och utvärdera systemets prestanda och skalbarhet samt presentera studiens resultat. Resultatet visade att användningen av Raspberry Pi i kombination med Kubernetes för att utföra matematiska beräkningar är både kostnadseffektiv och skalbar. När det gäller prestanda kunde systemet hantera intensiva beräkningsuppgifter på ett tillfredsställande sätt, vilket visar sin potential som en lösning för storskalig dataanalys. Förbättringar i systemdesign och mjukvaruoptimering kan ytterligare öka effektiviteten och prestanda / In the recent years, large data sets have become more often used for decision-making and analysis. Machine learning and mathematical calculations are two crucial methods employed for this. However, these computations may be time-consuming, and they require highperformance computers that are challenging to scale up. Raspberry Pi is a small, powerful, and cheap computer suitable for parallel calculations. Kubernetes is an open-source platform for managing container-based applications that allows automatic scaling of software applications. By combining Raspberry Pi with Kubernetes, a cost-effective and scalable system for mathematical calculations and machine learning can be created. In this study, the possibility of building a cost-effective and scalable system for mathematical calculations and machine learning using Raspberry Pi and Kubernetes is investigated. There will be theoretical research on Kubernetes and Raspberry Pi, design a system for mathematical calculations and machine learning, implement the system by installing and configuring Kubernetes on multiple Raspberry Pi's, measure and evaluate the system's performance and scalability, and present the study's results. The result showed that the use of Raspberry Pi in combination with Kubernetes to perform mathematical calculations is both cost-effective and scalable. In terms of performance, the system was able to handle intensive computational tasks satisfactorily, demonstrating its potential as a solution for large-scale data analysis. Improvements in system design and software optimization can further increase efficiency and performance.
34

IoT as Fog Nodes: An Evaluation on Performance and Scalability

Ezaz, Ishaq January 2023 (has links)
I takt med den exponentiella tillväxten av Internet of Things (IoT) har utmaningen att hantera den enorma mängden genererade data blivit allt större. Denna studie undersöker paradigmen med distribuerade dimdatorer, där kostnadseffektiva IoT-enheter används som dimnoder, som en potentiell lösning på de utmaningarna som det centraliserade molnet står inför. Skalbarheten och prestandan hos ett dimdatorsystem utvärderades under en rad olika arbetsbelastningar genererade av beräkningsintensiva uppgifter. Resultaten visade att en ökning av antal dimnoder förbättrade systemets skalbarhet och minskade den totala latensen. Dock visade det sig att konfigurationer med färre dimnoder presterade bättre vid lägre arbetsbelastningar, vilket understryker vikten av balansen mellan beräkningsuppgifter och kommunikationskostnaden. Sammantaget framhäver denna studie dimdatorkonceptets genomförbarhet som en effektiv och skalbar lösning för beräkningsintensiva databearbetning inom IoT. Trots att studiens fokus låg på latens, kan de insikter som vunnits vägleda framtida design och implementering av dimdatorsystem och bidra till de pågående diskussionerna om strategier för datahantering inom IoT. / With the exponential growth of the Internet of Things (IoT), managing the enormous amount of data generated has become a significant challenge. This study investigates the distributed paradigm of fog computing, using cost-effective IoT devices as fog nodes, as a potential solution for the centralized cloud. The scalability and performance of a fog computing system were evaluated under a range of workloads, using computationally intensive tasks reflective of real-world scenarios. Results indicated that with an increase in the number of fog nodes, system scalability improved, and the overall latency decreased. However, at lower workloads, configurations with fewer fog nodes outperformed those with more, highlighting the importance of the balance between computation and communication overheads. Overall, this study emphasizes the viability of fog computing as an efficient and scalable solution for data processing in IoT systems. Although the study primarily focused on latency, the insights gained could guide future design and implementation of fog computing systems and contribute to the ongoing discussions on IoT data processing strategies.
35

Performance of Digital Currency and Improvements : An analysis of current implementations and the future of digital currency / Prestanda av digital valuta och förbättrningar

Johannesson, Tobias January 2022 (has links)
Currency has changed a lot, and the introduction of the Internet sped up the evolution of the currency. Digital currency introduced many benefits compared to physical currencies. Ideas such as cryptocurrencies work as an option for other means of payment. During the recent pandemic, interest in new digital currencies has increased, leading to more research on digital currency. With the introduction of new currencies and their increased popularity, many central banks have started looking into the idea of innovating currency. All this new research has coined the term central bank digital currency. As of today, there is no single idea on how a digital currency should work or be implemented. With many variations, the future is still unclear. There seem to be vulnerabilities to solve and many potential ways to improve current systems. When building this new currency it is crucial to know what different use cases could demand from the implementation. In conclusion, the results show that digital currency is still in early development, with central bank digital currency research showing promise. It is theoretically possible to create a better transaction solution contra traditional currencies. More research is needed on the topic of digital currency, but there could be incremental improvements to today’s currency leading to better future solutions. / Valuta har förändrats genom tiderna och introductionen av internet skyndade på denna utveckling. Digital valuta har introducerat många fördelar jämfört med fysiska valutor. Fler idéer som till exempel kryptovalutor har introducerats som alternativa betalmedel. Under den senaste pandemin så har intresset för nya digitala valutor ökat, vilket har lett till mer forskning inom området av digitala valutor. På grund av växande popularitet och nya digitala valutor så har många central banker börjat testa idéen om att nyskapa valuta, och med detta så har termen centralbanks valuta skapats. Det finns inte idag en enda lösning på hur digitala valutor ska fungera eller bli implementerade. Med många varianter så är framtiden fortfarande oklar. Det verkar finnas problem att lösa och många möjliga sätt att förbättra existerande system. Vid byggandet av denna nya valuta så är det extremt viktigt att veta vad som är viktigt och hur det kan finnas olika krav beroende på hur valutan ska användas. Enligt resultaten så är digital valuta fortfarande tidigt i sin utveckling och forsking gällande centralbanks styrda digitala valutor verkar lovande. Mer forsking kommer att behövas inom området digital valuta, men det kan komma många små förbättringar på dagens valuta som leder till bättre framtida lösningar.
36

Utvärdering utifrån ett mjukvaruutveckling perspektiv av ramverk för SharePoint / Evaluation from a software development perspective of a framework for SharePoint

Al-Battat, Ahmed, Anwer, Noora January 2017 (has links)
Inom ett företag eller en organisation finns det stor nytta av intranät som ett arbetsverktyg för att kunna dela information. Ett välfungerat intranät bidrar till ett bättre informationsflöde och ett effektivare samarbete. SharePoint är en plattform för intranät med interaktiva funktioner. Omnia är ett ramverk anpassad för Microsofts SharePoint 2013.I detta arbete undersöks hur Omnia fungerar som ett ramverk och vad produkten lämpar sig för. Omnia ramverket utvärderades noggrant och en oberoende bedömning utfördes under examensarbetet. Utvärderingen var baserad på vetenskapliga undersökningar som byggde på den kvalitativa och kvantitativa forskningsmetodiken. Utvärderingens huvudområden baserades på systemets prestanda, skalbarhet, arkitektur och funktionalitet. En testprototyp utvecklades under arbetets gång genom Omnia i from av en webbaserad applikation.Ramverket Omnia var lämplig för utveckling av interaktiva webbaserade applikationer för intranät i SharePoint. Dock saknade den färdig dokumentation/API, vilket gjorde utvecklingsprocessen mer avancerad. Lösningsarkitekturen för systemet uppfyllde kraven för skalbara system, eftersom den baserades på lagerarkitektur. Systemet hade även bra prestanda, dock försämrades den efter att antalet användare översteg ettusen. Funktionaliteten testades med hjälp av två olika tester, vilket visade att produkten är lämplig för att användas i intranät. / The functionality was tested by two different tests, which showed that the product is suitable for usage in the intranet within a company or an organization, there are great benefits from using intranet as a tool for sharing of information. A good intranet contributes to a better flow of information and effective cooperation. SharePoint is a platform for intranet with interactive features, it makes the job easier for staff and even the company. The framework Omnia is a solution designed for Microsoft SharePoint 2013.This essay evaluates how Omnia acts as a framework and what the product is suitable for. Omnia framework evaluates carefully and is an independent assessment carried during this essay. The evaluation is based on scientific studies which are based on the qualitative and quantitative research methodology. The evaluator's main areas are based on system performance, scalability, architecture and functionality. A test prototype develops during the process in the form of an employee vacation request application by the development framework Omnia.The framework Omnia is considered to be suitable for the development of interactive web-based applications for SharePoint. The architecture for the system meets the requirements for scalable systems because it is based on the tier architecture. The system also has good performance but it needs to be improved if the number of users exceeds one thousand. The functionality of this product is quite suitable for the system's usage.
37

Software Licensing in Cloud Computing : A CASE STUDY ABOUT RELATIONSHIPS FROM A CLOUD SERVICE PROVIDER’S PERSPECTIVE

Kabir, Sanzida January 2015 (has links)
One of the most important attribute a cloud service provider (CSP) offers their customers through their cloud services is scalability. Scalability gives customers the ability to vary the amount of capacity when required. A cloud service can be divided in three service layers, Infrastructure-as-a-Service (IaaS), Platform-as-a-Service (PaaS) and Software-as-a-Service (SaaS). Scalability of a certain service depends on software licenses on these layers. When a customer wants to increase the capacity it will be determined by the CSP's licenses bought from its suppliers in advance. If a CSP scales up more than what was agreed on, then there is a risk that the CSP needs to pay a penalty fee to the supplier. If the CSP invests in too many licenses that does not get utilized, then it will be an investment loss. A second challenge with software licensing is when a customer outsources their applications to the CSP’s platform. As each application comes with a set of licenses, there is a certain level of scalability that cannot be exceeded. If a customer wants the CSP scale up more than usual for an application then the customer need to inform the vendors. However, a common misunderstanding is that the customer expects the CSP to notify the vendor. Then there is a risk that the vendor never gets notified and the customer is in danger of paying a penalty fee. This in turn hurts the CSP’s relationship with the customer. The recommendation to the CSP under study is to create a successful customer relationship management (CRM) and a supplier relationship management (SRM). By creating a CRM with the customer will minimize the occurring misunderstandings and highlight the responsibilities when a customer outsources an application to the CSP. By creating a SRM with the supplier will help the CSP to maintain a flexible paying method that they have with a certain supplier. Furthermore, it will set an example to the remaining suppliers to change their inflexible paying method. By achieving a flexible payment method with the suppliers will make it easier for the CSP to find equilibrium between scalability and licenses. / Ett av de viktigaste attributen en molnleverantör (CSP) erbjuder sina kunder genom sina molntjänster är skalbarhet. Skalbarheten ger kunden möjligheten att variera mängden kapacitet efter behov. En molntjänst kan delas in i tre serviceskikter, Infrastruktur-as-a-Service (IaaS), Platform-as-a-Service (PaaS) och Software-as-a-Service (SaaS). Skalbarheten av en viss service beror på mjukvarulicenser på dessa skikt. När en kund vill öka kapaciteten bestäms detta av CSP:s förhandsköpta licenser från sina leverantörer. Om en CSP skalar upp mer än vad som avtalats, finns det en risk att CSP:n måste betala en straffavgift till leverantören. Investerar CSP i alltför många licenser som inte utnyttjas, blir det en investeringsförlust. En annan utmaning med mjukvarulicenser uppstår när en kund lägger ut sina applikationer på CSP:s plattform. Eftersom varje applikation levereras med en uppsättning av licenser, finns det en bestämd nivå av skalbarhet som inte kan överskridas. Om en kund vill att CSP:n ska skala upp mer än vanligt för en applikation, måste kunden informera applikationsförsäljaren själv. Dock sker det en missuppfattning då kunden förväntar sig att CSP:n ska meddela säljaren om detta. Det finns en risk att säljaren aldrig blir informerad och kunden hamnar i stor risk för att betala en straffavgift. Detta i sin tur skadar CSP:s relation med kunden. Rekommendationen till CSP:n är att skapa en framgångsrik kundrelationshantering (CRM) och leverantörrelationshantering (SRM). Genom att skapa en CRM med kunden kan förekommande missförstånd minimeras och belysa ansvarsområden som råder när en kund lägger ut sin applikation hos CSP:n. Genom att skapa en SRM med leverantörerna kommer det att hjälpa CSP:n att upprätthålla en flexibel betalmetod som de har med en viss leverantör. Dessutom kommer det att vara ett föredöme för de övriga leverantörerna att ändra sin icke flexibla betalningsmetod. Genom att uppnå en mer flexibel betalningsmetod med leverantörerna kommer det att bli enklare för en CSP att hitta en balans mellan skalbarhet och licenser.

Page generated in 0.5131 seconds