• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 31
  • 31
  • 20
  • 15
  • 12
  • 11
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Hybrid Cloud Migration Challenges. A case study at King

Boronin, Mikhail January 2020 (has links)
Migration to the cloud has been a popular topic in industry and academia in recent years. Despite many benefits that the cloud presents, such as high availability and scalability, most of the on-premise application architectures are not ready to fully exploit the benefits of this environment, and adapting them to this environment is a non-trivial task.Therefore, many organizations consider a gradual process of moving to the cloud with Hybrid Cloud architecture. In this paper, the author is making an effort of analyzing particular enterprise case in cloud migration topics like cloud deployment, cloud architecture and cloud management.This paper aims to identify, classify, and compare existing challenges in cloud migration, illustrate approaches to resolve these challenges and discover the best practices in cloud adoption and process of conversion teams to the cloud.
22

Analýza současných cloudových řešení / The analysis of modern cloud solutions

Kis, Matej January 2015 (has links)
This thesis describes existing cloud storage systems. Description of the prerequisites of developing cloud and distributed systems are presented. Current storage systems such as Dropbox, iCloud and Google drive are described. Description is mainly focused on the resources of both protocols and derive a conclusion for the use in the cloud storage systems. The practical part of this work is focused on creating two labs, what will be implemented in the teaching syllabus of Projecting, Administration and Security of Computer Networks subject. The first of the labs is focused on the implementation of own cloud services. In the last lab students attention will concentrate on interception of communication secured with SSL protocol.
23

Beschreibung, Verarbeitung und Überprüfung clientseitiger Policies für vertrauenswürdige Cloud-Anwendungen

Kebbedies, Jörg 07 December 2017 (has links)
Für Geschäftsbereiche mit hohen Anforderungen an Vertraulichkeit und Datenschutz zur Verarbeitung ihrer sensitiven Informationen kann für die Nutzung von Public-Cloud-Technologien keine Benutzerakzeptanz ausgewiesen werden. Die Ursachen dafür erwachsen aus dem inhärenten Strukturkonzept verteilter, begrenzter Verantwortlichkeiten und einem fehlenden Cloud-Anwender-Vertrauen. Die vorliegende Arbeit verfolgt ein Cloud-Anwender orientiertes Vorgehen zur Durchsetzung regelnder Policy-Konzepte, kombiniert mit einem holistischen Ansatz zur Herstellung einer durchgehenden Vertrauensbasis. Der Aspekt Vertrauen erhält eine eigenständige Konzeptualisierung und wird zu einem Cloud-Anwender-Instrument für die Gestaltung vertrauenswürdiger infrastruktureller Eigenschaften entwickelt. Jede weitere Form einer Policy entwickelt ihren verbindlichen regulierenden Wert erst durch eine unlösliche Verbindung mit den hier vorgelegten Konzepten vertrauenswürdiger Entitäten. Ein ontologisch formalisierter Beschreibungsansatz vollzieht die für eine Regulierung notwendige Konzeptualisierung einer domänenspezifischen IT-Architektur und qualifizierender Sicherheitseigenschaften. Eigenständige Konzeptklassen für die Regulierung liefern den Beschreibungsrahmen zur Ableitung integrierter Trust-Policies. Darauf aufbauende Domänenmodelle repräsentieren eine vom Cloud-Anwender definierte Erwartung in Bezug auf ein reguliertes Cloud-Architektur-Design und reflektieren die reale Welt auf Grundlage vertrauenswürdiger Fakten. Vertrauen quantifiziert sich im Ergebnis logischer Schlussfolgerungen und ist Ausdruck zugesicherter Cloud-Sicherheitseigenschaften und geregelter Verhaltensformen.:1 Einleitung 1.1 Motivation 1.2 Forschungsfragen 1.3 Zielstellung 1.4 Vorgehensweise 2 Problembeschreibung 2.1 Public Cloud, Strukturerweiterung einer Organisation 2.1.1 Kopplung im sozialen Kontext 2.1.2 Strukturelle Kopplung im Cloud-Kontext 2.2 Regelungen: strukturbildende Elemente von Organisationen 2.2.1 Regelungen im sozialenKontext 2.2.1.1 Rechtliche Regelungen 2.2.1.2 Nichtrechtliche Regelungen 2.2.1.3 Regelungen in Organisationen 2.2.2 Regelungen im Cloud-Kontext 2.3 Erwartungen und Unbestimmtheit von Handlungen 2.3.1 Erwartungen im sozialenKontext 2.3.2 Erwartungen im Cloud-Kontext 2.4 Konformität, Abbildung von Regelungen 2.4.1 Konformität im sozialenKontext 2.4.2 Konformität im Cloud-Kontext 2.5 Thesen 3 Analyse 3.1 Anforderungen 3.1.1 Infrastrukturschicht 3.1.1.1 Hardwarebasierte Geo-Lokalisierung 3.1.1.2 Virtual Machine Monitor 3.1.1.3 Netzwerksicherheit 3.1.2 Plattform-/Laufzeitschicht 3.1.2.1 Virtualisierungstechnologie 3.1.2.2 OS-Sicherheitsmodell 3.1.2.3 Datensicherheit der Laufzeitschicht 3.1.3 Anwendungs-/Serviceschicht 3.1.3.1 Anwendungssicherheit 3.1.3.2 Prozesssicherheit 3.1.3.3 Datensicherheit der Anwendungsschicht 3.1.4 Verwaltung/Betrieb 3.1.5 Compliance 3.1.5.1 Governance 3.1.5.2 Klassifizierte Informationen 3.1.5.3 Datenschutz 3.1.6 Zusammenfassung der Regulierungsziele 3.2 Anwendungsfälle einer Multi-User-Cloud-Umgebung 3.2.1 TCG-Konzepte und Definitionen 3.2.2 UC-Aufbau einer Vertrauensbasis 3.2.3 UC-Aufbau einer vertrauenswürdigen Kooperationsbasis 3.2.4 UC-kooperative Provisionierung 3.2.5 UC-Änderungen von Regeln innerhalb einer kooperativen Domäne 3.2.6 Abgeleitete Anwendungsfälle aus TCG-Richtlinien 3.3 State-of-the-Art-Betrachtung 3.3.1 Thema:Regulierungsziele 3.3.1.1 Pattern-based Runtime Management of Composite Cloud Applications 3.3.1.2 Unifying Compliance Requirements across Business and IT 3.3.2 Thema:Digitale Regelkonzepte 3.3.2.1 Policy-Aware Provisioning of Cloud Applications 3.3.2.2 Policy-Aware Provisioning and Management of Cloud Applications 3.3.3 Thema:Vertrauenskonzepte 3.3.3.1 Secure Enclaves for REactive Cloud Applications 3.3.3.2 Enforcing-Security-and-Assurance-Properties-in-Cloud-Environment 3.3.4 Thema:Technische Standards 3.3.4.1 WebServicesPolicy1.5 – Framework-Current 3.3.4.2 WS-SecurityPolicy1.3 3.3.4.3 WS-Trust 3.3.4.4 Web Services Security: SOAP Message Security 1.1 3.3.5 Thema:Sprachkonzepte 3.3.5.1 Using Ontologies to Analyze Compliance Requirements of Cloud-BasedProcesses 3.3.5.2 Policy Language for a Pervasive Computing Environment 3.4 Zusammenfassung und Abgrenzungsbeschreibung 4 Konzeption 4.1 Ontologie-Konzept 4.1.1 Strukturentwurf Ontologie 4.1.2 Ziele der ontologischen Konzeptualisierung 4.1.3 Ontologie Regulierung 4.1.3.1 Haupthierachie Regulation-Ontology 4.1.3.2 Konzeptklasse Action 4.1.3.3 Konzeptklasse Constraint 4.1.3.4 Konzeptklasse Rule 4.1.3.5 Konzeptklasse Policy 4.1.3.6 Konzeptklasse State 4.1.3.7 Konzeptklasse Transformation 4.1.4 Ontologie Cloud-Domain 4.1.4.1 Konzeptklasse CloudDomain 4.1.4.2 Konzeptklasse Entity 4.1.4.3 Konzeptklasse Subject 4.1.4.4 Konzeptklasse ArchitecturalLayer 4.1.4.5 Konzeptklasse Object 4.1.4.6 Konzeptklasse Part 4.1.4.7 Konzeptklasse Connection 4.1.4.8 Konzeptklasse CloudService 4.1.5 Ontologie Security 4.1.5.1 Konzept einer vertrauensbildenden Sicherheitsstrategie 4.1.5.2 Konzeptklasse Asset 4.1.5.3 Konzeptklasse PropertySecurity 4.1.5.4 Konzeptklasse SecurityFunction 4.1.5.5 Konzeptklasse SecurityRequirement 4.1.5.6 Konzeptklasse Identity 4.1.5.7 Konzeptklasse Credential 4.1.5.8 Konzeptklasse SecurityModel (Sicherheitsmodell) 4.2 Konzept zur Herausbildung von Vertrauen (Trust) 4.2.1 Konzept einer vertrauenswürdigen Entität 4.2.2 Konzept einer Authority 4.2.2.1 Zusicherung von Entity-Eigenschaften 4.2.2.2 Entitäten innerhalb einer Authority-Hierarchie 4.2.2.3 Entitäten und externe Authority 4.2.3 Konzept einer Policy zur Entwicklung von Vertrauen 4.2.3.1 Spezialisierung der Trust-Policy 4.2.3.2 QualityProperty – Gegenstand der Vertrauenspolitik 4.3 Trust-Establishment-Protokoll 4.3.1 Datenmodell 4.3.1.1 Verhaltensorientierte Artefakte 4.3.1.2 Kryptographische Artefakte 4.3.1.3 Protokollspezifische Artefakte 4.3.2 Horizontale Etablierung von Vertrauen (Establishment of Trust) 4.3.2.1 Phase1: Auswahl einer Cloud-Plattform 4.3.2.2 Phase2: Erweiterung der Vertrauensgrundlage auf Cloud-Anbieter-Seite 4.3.3 Vertikale Etablierung von Vertrauen (Delegation of Trust) 4.3.3.1 Registrierung von Policy-Entitäten 4.3.3.2 Registrierung von Domänen-Entitäten 4.3.3.3 Ableitung vertrauenswürdiger Entitäten 4.3.3.4 Ableitung vertrauenswürdiger Eigenschaften und Aktivitäten 4.4 Zusammenfassung 5 Validierung 5.1 Referenzarchitektur – TrustedCloud 5.1.1 Komponentenbeschreibung – IT-Plattform 5.1.2 Komponentenbeschreibung – Laufzeitumgebung 5.1.3 Komponentenbeschreibung – Integrierte Systeme 5.1.4 ExterneSysteme – Key & CA Service 5.1.4.1 Bezeichnungen und Namespaces 5.1.4.2 TE-Zustandsmodell 5.1.4.3 Policy-Zonen und Policy-Anwendungsraum 5.2 Trust-Policies und Transformation 5.2.1 Szenario (1) – Bereitstellung Virtual Machine Monitor KVM 5.2.1.1 Domain-Spezifikation–KVM-Komponente 5.2.1.2 Regulation-Spezifikation – KVM-Deployment-Policy 5.2.1.3 Prüfung der KVM-Authentizität 5.2.1.4 Zusicherung von KVM-Identitätseigenschaften 5.2.1.5 Transformation – KVM-Trust-Rule 5.2.1.6 Transformation – KVM-Deployment-Rule 5.2.2 Szenario (2) – Bereitstellung Virtualisiertes Betriebssystem 5.2.2.1 Domain-Spezifikation–Virtual-OS 5.2.2.2 Regulation-Spezifikation – Virtual-OS-Deployment-Policy 5.2.2.3 Prüfung der TE-Authentizität 5.2.2.4 Policy-Zone einrichten – Z_RUNTIME.DB 5.2.2.5 Vertrauenskette prüfen – ChainofTrust 5.2.3 Szenario (3) – Bereitstellung Datenbanksystem (DBS) 5.2.3.1 Domain-Spezifikation – Datenbanksystem 5.2.3.2 Regulation-Spezifikation – DBS-Deployment-Policy 5.2.3.3 Prüfung der DBS-Authentizität 5.2.3.4 Transformation – DBS-Trust-Rule 5.2.3.5 Transformation – DBS-Deployment-Rule 5.2.4 Szenario(4) – ExterneDBS-Zugangssteuerung 5.2.4.1 Domain-Spezifikation – User-to-DB Connection 5.2.4.2 Regulation-Spezifikation – DBS-Connection-Policy 5.2.4.3 Prüfung der DBS-Endpunkt-Authentizität 5.2.4.4 Absicherung der DBS-Verbindung – Verschlüsselung 5.2.4.5 Transformation 5.3 Attestierung – Vertrauenswürdigkeit 5.3.1 Dynamische Methoden der Konzeptklasse State 5.3.2 Kategorien für Niveaubestimmung von Vertrauenswürdigkeit 5.3.3 Semantische Rules für Niveaubestimmung 5.3.3.1 Ableitungsregel – Vertrauenswürdigkeit HOCH 5.3.3.2 Ableitungsregel – Vertrauenswürdigkeit MITTEL 5.3.3.3 Ableitungsregel – Vertrauenswürdigkeit GERING 5.3.3.4 Ableitungsregel – Vertrauenswürdigkeit UNBESTIMMT 5.4 Gegenüberstellung der Szenarien mit den Zielstellungen 5.5 Gegenüberstellung der Ergebnisse mit den Kernfragen 5.6 Zusammenfassung der Validieren 6 Zusammenfassung – Ausblick 6.1 Zusammenfassung der Arbeit 6.2 Ausblick und abgeleitete Themen Abkürzungsverzeichnis I State-of-the-Art – Kategorien II Hardwareunterstützte Sicherheit für eine IT-Plattform II.1 TrustedPlatformModule II.2 TechnologiefürIT-Plattformsicherheit II.3 Konzept einer hardwarebasierten Vertrauenspolitik II.3.1 Sichere Mikroarchitektur II.3.2 Messung statischer Systemeigenschaften II.4 Kontrollierter Systemstart II.4.1 Identifizierbarer Plattform-Eigentümer II.4.2 Versiegeln von Systemwerten(Sealing) II.5 Konzept der Attestierung II.5.1 Attestierungs-Schlüssel II.5.2 Zertifizierung des Attestierungs-Identifikationsschlüssels II.5.3 Attestierungs-Modul II.5.4 Attestierungs-Service II.5.5 HardwarebasierteGeo-Lokalisierung III Übersicht der Anforderungen III.1 Anforderungen an die Cloud-Infrastruktur-Plattform-Ebene III.2 Anforderungen an die Cloud-Laufzeitebene III.3 Anforderungen an die Cloud-Service-Ebene III.4 Anforderungen an operatives Management III.5 Anforderungen an Cloud-Anwender-Nutzungsebene IV Spezifikation Ontologie
24

Towards Data and Model Confidentiality in Outsourced Machine Learning

Sharma, Sagar 05 September 2019 (has links)
No description available.
25

Cloud Computing and Sensitive Data : A Case of Beneficial Co-Existence or Mutual Exclusiveness?

Vaskovich, Daria January 2015 (has links)
I dag anses molntjänster vara ett omtalat ämne som har ändrat hur IT-tjänster levereras och som skapat nya affärsmodeller. Några av molntjänsternas mest frekvent nämnda fördelar är flexibilitet och skalbarhet. Molntjänster är i dagsläget extensivt använda av privatpersoner genom tjänster så som Google Drive och Dropbox. Å andra sidan kan en viss försiktighet gentemot molntjänster uppmärksammas hos de organisationer som innehar känslig data. Denna försiktighet kan anses leda till en långsammare tillämpningshastighet för dessa organisationer. Detta examensarbete har som syfte att undersöka sambandet mellan molntjänster och känslig data för att kunna erbjuda stöd och kunskapsbas för organisationer som överväger en övergång till molntjänster. Känslig data är definierat som information som omfattas av den svenska Personuppgiftslagen. Tidigare studier visar att organisationer värdesätter en hög säkerhetsgrad vid en övergång till molntjänster och ofta föredrar att leverantören kan erbjuda ett antal säkerhetsmekanismer. En molntjänsts lagliga överensstämmelse är en annan faktor som uppmärksammas. Datainsamlingen skedde genom en enkät, som var riktad till 101 av de svenska organisationerna i syfte att kartlägga användningen av molntjänster samt att identifiera möjliga bromsande faktorer. Dessutom genomfördes tre (3) intervjuer med experter och forskare inom IT-lag och/eller molnlösningar. En analys och diskussion, baserad på resultaten, har genomförts, vilket ledde till slutsatserna att en molnlösning av hybrid karaktär är bäst lämpad för den försiktiga organisationen, de olika villkoren i serviceavtalet bör grundligt diskuteras innan en överenskommelse mellan parter uppnås samt att i syfte att undvika att lösningen blir oförenlig med lagen bör främst en leverantör som är väl etablerad i Sverige väljas. Slutligen, bör varje organisation utvärdera om molntjänster kan tillgodose organisationens säkerhetsbehov, då det i stor mån berör ett risktagande. / Cloud computing is today a hot topic, which has changed how IT is delivered and created new business models to pursue. The main listed benefits of Cloud computing are, among others, flexibility and scalability. It is widely adopted by individuals in services, such as Google Drive and Dropbox. However, there exist a certain degree of precaution towards Cloud computing at organizations, which possess sensitive data, which may decelerate the adoption. Hence, this master thesis aims to investigate the topic of Cloud computing in a combination with sensitive data in order to support organizations in their decision making with a base of knowledge when a transition into the Cloud is considered. Sensitive data is defined as information protected by the Swedish Personal Data Act. Previous studies show that organizations value high degree of security when making a transition into Cloud computing, and request several measures to be implemented by the Cloud computing service provider. Legislative conformation of a Cloud computing service is another important aspect. The data gathering activities consisted of a survey, directed towards 101 Swedish organizations in order to map their usage of Cloud computing services and to identify aspects, which may decelerate the adoption. Moreover, interviews with three (3) experts within the fields of law and Cloud computing were conducted. The results were analyzed and discussed, which led to conclusions that hybrid Cloud is a well chosen alternative for a precautious organization, the SLA between the organizations should be thoroughly negotiated and that primarily providers well established on the Swedish market should be chosen in order to minimize the risk of legally non-consisting solution. Finally, each organization should decide whether the security provided by the Cloud computing provider is sufficient for organization’s purposes.
26

Candidate generation for relocation of black box applications in mobile edge computing environments / Kandidat generering för omlokalisering av applikationer i mobile edge computing-miljöer

Walden, Love January 2022 (has links)
Applications today are generally deployed in public cloud environments such as Azure, AWS etc. Mobile edge computing (MEC) enables these applications to be relocated to edge nodes which are located in close proximity to the end user, thereby allowing the application to serve the user at lower latency. However, these edge nodes have limited capacity and hence a problem arises of when to relocate an application to an edge. This thesis project attempts to tackle the problem of detecting when an application’s quality of experience is degraded, and how to use this information in order to generate candidates for relocation to edge nodes. The assumption for this thesis project is there is no insight to the application itself, meaning the applications are treated as blackboxes. To detect quality of experience degradation we chose to capture network packets and inspect protocol-level information. We chose WebRTC and HTTP as communication protocols because they were the most common protocols used by the target environment. We developed two application prototypes. The first prototype was a rudimentary server based on HTTP and the second prototype was a video streaming application based on WebRTC. The prototypes were used to study the possibility of breaking down latency components and obtaining quality of service parameters. We then developed a recommendation engine to use this information in order to generate relocation candidates. The recommendation engine was evaluated by placing the WebRTC prototype under quality of experience affecting scenarios and measuring the time taken to generate a relocation candidate of the application. The result of this project show it is possible in some cases to break down latency components for HTTP based applications. However, for WebRTC based applications our approach was not sufficient enough to break down latency components. Instead, we had to rely on quality of service parameters to generate relocation candidates. Based on the outcomes of the project, we conclude detecting quality of experience degradation for blackbox applications have three generalizations. Firstly, the underlying transport and communication protocol has an impact on available approaches and obtainable information. Secondly, the implementation of the communication protocol also has an impact on obtainable information. Lastly, the underlying infrastructure can matter for the approaches used in this project. / Applikationer idag produktionssätts allmänhet i offentliga molntjänster som Azure, AWS etc. Mobile edge computing (MEC) gör att dessa applikationer kan flyttas till gränsnoder som är placerade i närheten av slutanvändaren, vilket gör att applikationen kan erbjuda användaren lägre latens. Dessa gränsnoder har emellertid begränsad kapacitet och därför uppstår ett problem om när en applikation ska flyttas till en gränsnod. Detta examensarbete försöker ta itu med problemet med att upptäcka när en applikations upplevelsekvalitet försämras, och hur man använder denna information för att generera kandidater för omlokalisering till gränsnoder. Antagandet för detta examensarbete är att det inte finns någon insikt i själva applikationen, vilket innebär att applikationer behandlas som svarta lådor. För att upptäcka försämring av upplevelsekvalitet valde vi att fånga nätverkspaket och inspektera information på protokollnivå. Vi valde WebRTC och HTTP som kommunikationsprotokoll eftersom de var de vanligaste protokollen som användes i målmiljön. Vi utvecklade två applikationsprototyper. Den första prototypen var en rudimentär server baserad på HTTPoch den andra prototypen var en videoströmningsapplikation baserad på WebRTC. Prototyperna användes för att studera möjligheten att bryta ned latenskomponenter och erhålla tjänstekvalitetsparametrar. Vi utvecklade sedan en rekommendationsmotor för att använda denna information till att generera omplaceringskandidater. Rekommendationsmotorn utvärderades genom att placera WebRTC-prototypen under scenarion som påverkar upplevelsekvaliten, och sedan mäta tiden det tog att generera en omlokaliseringskandidat av applikationen. Resultatet av detta projekt visar att det i vissa fall är möjligt att bryta ned latenskomponenter för HTTP-baserade applikationer. Dock för WebRTCbaserade applikationer var vårt tillvägagångssätt inte tillräckligt för att bryta ned latenskomponenter. Istället var vi tvungna att förlita oss på kvalitetsparametrar för tjänsten för att generera omlokaliseringskandidater. Baserat på resultaten av projektet drar vi slutsatsen att upptäcka kvalitetsförsämring av erfarenheter för blackbox-applikationer har tre generaliseringar. För det första har det underliggande transport- och kommunikationsprotokollet en inverkan på tillgängliga tillvägagångssätt och tillgänglig information. För det andra har implementeringen av kommunikationsprotokollet också en inverkan på tillgänglig information. Slutligen kan den underliggande infrastrukturen ha betydelse för de tillvägagångssätt som används i detta projekt.
27

Evaluation of different Cloud Environments and Services related to large scale organizations(Swedish Armed forces)

Ravichandran, Pravin Karthick, Balmuri, Santhosh Keerthi January 2011 (has links)
Cloud Computing (CC) is one of the fast growing computer network technologies and many companies offer their services through cloud network. Cloud Computing has many properties with respect to the existing traditional service provisions like scalability, availability, fault tolerance, capability and so on which are supported by many IT companies like Google, Amazon, Salesforce.com. These IT companies have more chances to adapt their services into a new environment, known as Cloud computing systems. There are many cloud computing services which are being provided by many IT companies.The purpose of this thesis is to investigate which cloud environment (public, private and hybrid) and services (Infrastructure as a Service, Software as a Service, and Platform as a Service) are suitable for Swedish Armed Forces (SWAF) with respect to performance, security, cost, flexibility and functionality. SWAF is using private (internal) cloud for communications where both sensitive and non-sensitive information are located in the internal cloud. There are problems like maintenance of hardware, cost issues and secure communication while maintaining the private cloud. In order to overcome those problems we have suggested a hybrid and community cloud environment and SaaS, IaaS, PaaS services for SWAF.For suggesting these cloud environments and cloud services we have performed a literature study and two empirical studies (survey and interviews) with different organizations.A new cloud model is designed based on the suggested cloud environment, separate storage spaces for sensitive and non-sensitive information, suitable services and an effective infrastructure for sharing the internal information for SWAF.
28

A Process Framework for Managing Quality of Service in Private Cloud

Maskara, Arvind 01 August 2014 (has links)
As information systems leaders tap into the global market of cloud computing-based services, they struggle to maintain consistent application performance due to lack of a process framework for managing quality of service (QoS) in the cloud. Guided by the disruptive innovation theory, the purpose of this case study was to identify a process framework for meeting the QoS requirements of private cloud service users. Private cloud implementation was explored by selecting an organization in California through purposeful sampling. Information was gathered by interviewing 23 information technology (IT) professionals, a mix of frontline engineers, managers, and leaders involved in the implementation of private cloud. Another source of data was documents such as standard operating procedures, policies, and guidelines related to private cloud implementation. Interview transcripts and documents were coded and sequentially analyzed. Three prominent themes emerged from the analysis of data: (a) end user expectations, (b) application architecture, and (c) trending analysis. The findings of this study may help IT leaders in effectively managing QoS in cloud infrastructure and deliver reliable application performance that may help in increasing customer population and profitability of organizations. This study may contribute to positive social change as information systems managers and workers can learn and apply the process framework for delivering stable and reliable cloud-hosted computer applications.
29

Cloud Computing Pricing and Deployment Efforts : Navigating Cloud Computing Pricing and Deployment Efforts: Exploring the Public-Private Landscape / Prissättning och Implementeringsinsatser för Molntjänster : Att Navigera Molntjänsters Prissättning och Implementeringsinsatser: Utforska det Offentlig-Privata Landskapet

Kristiansson, Casper, Lundström, Fredrik January 2023 (has links)
The expanding adoption of cloud computing services by businesses has transformed IT infrastructure and data management in the computing space. Cloud computing offers advantages such as availability, scalability, and cost-effectiveness, making it a favored choice for businesses of all sizes. The aim of this thesis is to compare private and public cloud computing services in terms of pricing and implementation effort as well as comparing the cloud providers to each other. The top three cloud providers that will be examined are Google GCP, Microsoft Azure, and Amazon AWS. The study examines different pricing models and evaluates their effectiveness in different business scenarios. In addition, the thesis also discusses the challenges associated with building and maintaining private infrastructure and the deployment of applications to cloud computing service are examined. The research methodology involves data collection, analysis, and a case study of developing and deploying a ticketing system application on different cloud platforms. The ticket system helps to provide a realistic example and investigation of the cloud providers. The findings will help companies make informed decisions regarding the selection of the most appropriate cloud computing service based on pricing models and implementation efforts. The thesis provides valuable information on private and public cloud computing and recommends appropriate pricing models for different scenarios. This study adds to existing knowledge by analyzing current pricing models and deployment concepts in cloud computing. The thesis does not propose new solutions but follows a structured format compiling information on private, and public cloud computing and a comprehensive review of cloud computing pricing models and marketing efforts. / Den växande adoptionen av molntjänster inom företag har förändrat IT-infrastrukturen och datahanteringen inom datorområdet. Molntjänster erbjuder fördelar såsom tillgänglighet, skalbarhet och kostnadseffektivitet, vilket gör det till ett populärt val för företag i alla storlekar. Syftet med denna avhandling är att jämföra privata och offentliga molntjänster med avseende på prissättning och implementeringsinsatser samt att jämföra molnleverantörerna med varandra. De tre främsta molnleverantörerna som kommer att undersökas är Google GCP, Microsoft Azure och Amazon AWS. Studien undersöker olika prismodeller och utvärderar deras effektivitet i olika affärsscenarier. Dessutom diskuterar avhandlingen också utmaningarna med att bygga och underhålla privat infrastruktur samt implementeringen av applikationer till molntjänster. Forskningsmetodologin omfattar datainsamling, analys och en fallstudie av utveckling och implementering av ett support system på olika molnplattformar. Supportsystemet hjälper till att ge ett realistiskt exempel och undersökning av molnleverantörerna. Resultaten kommer att hjälpa företag att fatta informerade beslut när det gäller valet av lämpligaste molntjänst baserat på prismodeller och implementeringsinsatser. Avhandlingen tillhandahåller värdefull information om privat och offentlig molntjänst och rekommenderar lämpliga prismodeller för olika scenarier. Denna studie bidrar till befintlig kunskap genom att analysera nuvarande prismodeller och implementeringskoncept inom molntjänster. Avhandlingen föreslår inga nya lösningar, men följer en strukturerad format genom att sammanställa information om privat och offentlig molntjänst samt en omfattande översikt av prismodeller och marknadsinsatser inom molntjänster.
30

Interference Analysis and Resource Management in Server Processors: from HPC to Cloud Computing

Pons Escat, Lucía 01 September 2023 (has links)
[ES] Una de las principales preocupaciones de los centros de datos actuales es maximizar la utilización de los servidores. En cada servidor se ejecutan simultáneamente varias aplicaciones para aumentar la eficiencia de los recursos. Sin embargo, las prestaciones dependen en gran medida de la proporción de recursos que recibe cada aplicación. El mayor número de núcleos (y de aplicaciones ejecutándose) con cada nueva generación de procesadores hace que crezca la preocupación por la interferencia en los recursos compartidos. Esta tesis se centra en mitigar la interferencia cuando diferentes aplicaciones se consolidan en un mismo procesador desde dos perspectivas: computación de alto rendimiento (HPC) y computación en la nube. En el contexto de HPC, esta tesis propone políticas de gestión para dos de los recursos más críticos: la caché de último nivel (LLC) y los núcleos del procesador. La LLC desempeña un papel clave en las prestaciones de los procesadores actuales al reducir considerablemente el número de accesos de alta latencia a memoria principal. Se proponen estrategias de particionado de la LLC tanto para cachés inclusivas como no inclusivas, ambos diseños presentes en los procesadores para servidores actuales. Para los esquemas, se detectan nuevos comportamientos problemáticos y se asigna un mayor espacio de caché a las aplicaciones que hacen mejor uso de este. En cuanto a los núcleos del procesador, muchas aplicaciones paralelas (como aplicaciones de grafos) no escalan bien con un mayor número de núcleos. Además, el planificador de Linux aplica una estrategia de tiempo compartido que no ofrece buenas prestaciones cuando se ejecutan aplicaciones de grafo. Para maximizar la utilización del sistema, esta tesis propone ejecutar múltiples aplicaciones de grafo en el mismo procesador, asignando a cada una el número óptimo de núcleos (y adaptando el número de hilos creados) dinámicamente. En cuanto a la computación en la nube, esta tesis aborda tres grandes retos: la compleja infraestructura de estos sistemas, las características de sus aplicaciones y el impacto de la interferencia entre máquinas virtuales (MV). Primero, esta tesis presenta la plataforma experimental desarrollada con los principales componentes de un sistema en la nube. Luego, se presenta un amplio estudio de caracterización sobre un conjunto de aplicaciones de latencia crítica representativas con el fin de identificar los puntos que los proveedores de servicios en la nube deben tener en cuenta para mejorar el rendimiento y la utilización de los recursos. Por último, se realiza una propuesta que permite detectar y estimar dinámicamente la interferencia entre MV. El enfoque usa métricas que pueden monitorizarse fácilmente en la nube pública, ya que las MV deben tratarse como "cajas negras". Toda la investigación descrita se lleva a cabo respetando las restricciones y cumpliendo los requisitos para ser aplicable en entornos de producción de nube pública. En resumen, esta tesis aborda la contención en los principales recursos compartidos del sistema en el contexto de la consolidación de servidores. Los resultados experimentales muestran importantes ganancias sobre Linux. En los procesadores con LLC inclusiva, el tiempo de ejecución (TT) se reduce en más de un 40%, mientras que se mejora el IPC más de un 3%. Con una LLC no inclusiva, la equidad y el TT mejoran en un 44% y un 24%, respectivamente, al mismo tiempo que se mejora el rendimiento hasta un 3,5%. Al distribuir los núcleos del procesador de forma eficiente, se alcanza una equidad casi perfecta (94%), y el TT se reduce hasta un 80%. En entornos de computación en la nube, la degradación del rendimiento puede estimarse con un error de un 5% en la predicción global. Todas las propuestas presentadas han sido diseñadas para ser aplicadas en procesadores comerciales sin requerir ninguna información previa, tomando las decisiones dinámicamente con datos recogidos de los contadores de prestaciones. / [CAT] Una de les principals preocupacions dels centres de dades actuals és maximitzar la utilització dels servidors. A cada servidor s'executen simultàniament diverses aplicacions per augmentar l'eficiència dels recursos. Tot i això, el rendiment depèn en gran mesura de la proporció de recursos que rep cada aplicació. El nombre creixent de nuclis (i aplicacions executant-se) amb cada nova generació de processadors fa que creixca la preocupació per l'efecte causat per les interferències en els recursos compartits. Aquesta tesi se centra a mitigar la interferència en els recursos compartits quan diferents aplicacions es consoliden en un mateix processador des de dues perspectives: computació d'alt rendiment (HPC) i computació al núvol. En el context d'HPC, aquesta tesi proposa polítiques de gestió per a dos dels recursos més crítics: la memòria cau d'últim nivell (LLC) i els nuclis del processador. La LLC exerceix un paper clau a les prestacions del sistema en els processadors actuals reduint considerablement el nombre d'accessos d'alta latència a la memòria principal. Es proposen estratègies de particionament de la LLC tant per a caus inclusives com no inclusives, ambdós dissenys presents en els processadors actuals. Per als dos esquemes, se detecten nous comportaments problemàtics i s'assigna un major espai de memòria cau a les aplicacions que en fan un millor ús. Pel que fa als nuclis del processador, moltes aplicacions paral·leles (com les aplicacions de graf) no escalen bé a mesura que s'incrementa el nombre de nuclis. A més, el planificador de Linux aplica una estratègia de temps compartit que no ofereix bones prestacions quan s'executen aplicacions de graf. Per maximitzar la utilització del sistema, aquesta tesi proposa executar múltiples aplicacions de grafs al mateix processador, assignant a cadascuna el nombre òptim de nuclis (i adaptant el nombre de fils creats) dinàmicament. Pel que fa a la computació al núvol, aquesta tesi aborda tres grans reptes: la complexa infraestructura d'aquests sistemes, les característiques de les seues aplicacions i l'impacte de la interferència entre màquines virtuals (MV). En primer lloc, aquesta tesi presenta la plataforma experimental desenvolupada amb els principals components d'un sistema al núvol. Després, es presenta un ampli estudi de caracterització sobre un conjunt d'aplicacions de latència crítica representatives per identificar els punts que els proveïdors de serveis al núvol han de tenir en compte per millorar el rendiment i la utilització dels recursos. Finalment, es fa una proposta que de manera dinàmica permet detectar i estimar la interferència entre MV. L'enfocament es basa en mètriques que es poden monitoritzar fàcilment al núvol públic, ja que les MV han de tractar-se com a "caixes negres". Tota la investigació descrita es duu a terme respectant les restriccions i complint els requisits per ser aplicable en entorns de producció al núvol públic. En resum, aquesta tesi aborda la contenció en els principals recursos compartits del sistema en el context de la consolidació de servidors. Els resultats experimentals mostren que s'obtenen importants guanys sobre Linux. En els processadors amb una LLC inclusiva, el temps d'execució (TT) es redueix en més d'un 40%, mentres que es millora l'IPC en més d'un 3%. En una LLC no inclusiva, l'equitat i el TT es milloren en un 44% i un 24%, respectivament, al mateix temps que s'obté una millora del rendiment de fins a un 3,5%. Distribuint els nuclis del processador de manera eficient es pot obtindre una equitat quasi perfecta (94%), i el TT pot reduir-se fins a un 80%. En entorns de computació al núvol, la degradació del rendiment pot estimar-se amb un error de predicció global d'un 5%. Totes les propostes presentades en aquesta tesi han sigut dissenyades per a ser aplicades en processadors de servidors comercials sense requerir cap informació prèvia, prenent decisions dinàmicament amb dades recollides dels comptadors de prestacions. / [EN] One of the main concerns of today's data centers is to maximize server utilization. In each server processor, multiple applications are executed concurrently, increasing resource efficiency. However, performance and fairness highly depend on the share of resources that each application receives, leading to performance unpredictability. The rising number of cores (and running applications) with every new generation of processors is leading to a growing concern for interference at the shared resources. This thesis focuses on addressing resource interference when different applications are consolidated on the same server processor from two main perspectives: high-performance computing (HPC) and cloud computing. In the context of HPC, resource management approaches are proposed to reduce inter-application interference at two major critical resources: the last level cache (LLC) and the processor cores. The LLC plays a key role in the system performance of current multi-cores by reducing the number of long-latency main memory accesses. LLC partitioning approaches are proposed for both inclusive and non-inclusive LLCs, as both designs are present in current server processors. In both cases, newly problematic LLC behaviors are identified and efficiently detected, granting a larger cache share to those applications that use best the LLC space. As for processor cores, many parallel applications, like graph applications, do not scale well with an increasing number of cores. Moreover, the default Linux time-sharing scheduler performs poorly when running graph applications, which process vast amounts of data. To maximize system utilization, this thesis proposes to co-locate multiple graph applications on the same server processor by assigning the optimal number of cores to each one, dynamically adapting the number of threads spawned by the running applications. When studying the impact of system-shared resources on cloud computing, this thesis addresses three major challenges: the complex infrastructure of cloud systems, the nature of cloud applications, and the impact of inter-VM interference. Firstly, this thesis presents the experimental platform developed to perform representative cloud studies with the main cloud system components (hardware and software). Secondly, an extensive characterization study is presented on a set of representative latency-critical workloads which must meet strict quality of service (QoS) requirements. The aim of the studies is to outline issues cloud providers should consider to improve performance and resource utilization. Finally, we propose an online approach that detects and accurately estimates inter-VM interference when co-locating multiple latency-critical VMs. The approach relies on metrics that can be easily monitored in the public cloud as VMs are handled as ``black boxes''. The research described above is carried out following the restrictions and requirements to be applicable to public cloud production systems. In summary, this thesis addresses contention in the main system shared resources in the context of server consolidation, both in HPC and cloud computing. Experimental results show that important gains are obtained over the Linux OS scheduler by reducing interference. In inclusive LLCs, turnaround time (TT) is reduced by over 40% while improving IPC by more than 3%. In non-inclusive LLCs, fairness and TT are improved by 44% and 24%, respectively, while improving performance by up to 3.5%. By distributing core resources efficiently, almost perfect fairness can be obtained (94%), and TT can be reduced by up to 80%. In cloud computing, performance degradation due to resource contention can be estimated with an overall prediction error of 5%. All the approaches proposed in this thesis have been designed to be applied in commercial server processors without requiring any prior information, making decisions dynamically with data collected from hardware performance counters. / Pons Escat, L. (2023). Interference Analysis and Resource Management in Server Processors: from HPC to Cloud Computing [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/195840

Page generated in 0.0513 seconds