• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 778
  • 220
  • 122
  • 65
  • 54
  • 33
  • 32
  • 30
  • 28
  • 21
  • 15
  • 14
  • 9
  • 9
  • 7
  • Tagged with
  • 1599
  • 1599
  • 390
  • 281
  • 244
  • 243
  • 240
  • 236
  • 231
  • 226
  • 215
  • 210
  • 177
  • 174
  • 152
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Digital Transformation - Rollen för Big Data, Internet of Things och CloudComputing / Digital Transformation - The role of Big Data, Internet of Things and CloudComputing

Eide, Linn, Paredes Degollar, Daniel January 2016 (has links)
Förändringar i affärsvärlden och på marknaden leder till att företag idag ständigt ställs införnya utmaningar. Vi befinner oss i ett digitaliserat samhälle som är under ständig förändring.Det är något som företag måste förhålla sig till. Företagen står inför utmaningen attdigitalisera sin verksamhet för att förhålla sig till en förändrande marknad och allt merdigitaliserade kunder. Utökande av kommunikationsnät och infrastruktur har möjliggjort förkunder att verka i en mer uppkopplad miljö än tidigare. För att verksamheter ska vara med ispelet bland de konkurrenskraftiga organisationerna, leder det till en av anledningarna till attföretagen kommer i kontakt med IT-trender inom digitalisering som Big Data, Internet ofThings och Cloud Computing. Affärsmodellen är en huvudsaklig aspekt att ta hänsyn till ochjustera vid digitalisering. Studien syftar därmed till att undersöka rollen för de tre nämnda ITtrendernai en verksamhet och hur affärsmodellen faktiskt påverkas. Studiens slutsatser visarpå att användandet av de tre IT-trenderna är låg idag och vad gäller affärsmodellen har detskett en låg påverkan på även om medvetenhet finns i hur den bör påverkas. IT-trendernafinns dock ständigt på agendan och kommer spela en stor roll framöver inom verksamhetersamtidigt som affärsmodellen kommer få en större påverkan. / Changes in the business world and on the market means that companies today are constantlyfaced with new challenges. We are in a digitized society that is constantly changing. It issomething that companies must adhere to. The companies face the challenge of digitizing itsoperations to respond to a changing market and increasingly digitized customers. Extension ofnetworks and infrastructure has enabled customers to work in a more connected world thanbefore. For businesses to be included in the game among the competitive organizations, itleads to one of the reasons that companies will use the IT trends in digitization as Big Data,Internet of Things and Cloud Computing. The business model is a main aspect to be takeninto account and adjust for digitization. The study thus aims to examine the role of these threeIT trends in the business and how the business model actually is affected. The study's findingsshow that the use of the three IT trends are low today, and in terms of the business model hasbeen a low impact on even if consciousness is how it should be affected. The IT trends are,however, constantly on the agenda and will play a big role in the future in the activities whilethe business model will have a larger impact.
422

Monitoring et détection d'anomalie par apprentissage dans les infrastructures virtualisées / Monitoring and detection of learning abnormalities in virtualized infrastructures

Sauvanaud, Carla 13 December 2016 (has links)
Le cloud computing est un modèle de délivrance à la demande d’un ensemble de ressources informatiques distantes, partagées et configurables. Ces ressources, détenues par un fournisseur de service cloud, sont mutualisées grâce à la virtualisation de serveurs qu’elles composent et sont mises à disposition d’utilisateurs sous forme de services disponibles à la demande. Ces services peuvent être aussi variés que des applications, des plateformes de développement ou bien des infrastructures. Afin de répondre à leurs engagements de niveau de service auprès des utilisateurs, les fournisseurs de cloud se doivent de prendre en compte des exigences différentes de sûreté de fonctionnement. Assurer ces exigences pour des services différents et pour des utilisateurs aux demandes hétérogènes représente un défi pour les fournisseurs, notamment de part leur engagement de service à la demande. Ce défi est d’autant plus important que les utilisateurs demandent à ce que les services rendus soient au moins aussi sûrs de fonctionnement que ceux d’applications traditionnelles. Nos travaux traitent particulièrement de la détection d’anomalies dans les services cloud de type SaaS et PaaS. Les différents types d’anomalie qu’il est possible de détecter sont les erreurs, les symptômes préliminaires de violations de service et les violations de service. Nous nous sommes fixé quatre critères principaux pour la détection d’anomalies dans ces services : i) elle doit s’adapter aux changements de charge de travail et reconfiguration de services ; ii) elle doit se faire en ligne, iii) de manière automatique, iv) et avec un effort de configuration minimum en utilisant possiblement la même technique quel que soit le type de service. Dans nos travaux, nous avons proposé une stratégie de détection qui repose sur le traitement de compteurs de performance et sur des techniques d’apprentissage automatique. La détection utilise les données de performance système collectées en ligne à partir du système d’exploitation hôte ou bien via les hyperviseurs déployés dans le cloud. Concernant le traitement des ces données, nous avons étudié trois types de technique d’apprentissage : supervisé, non supervisé et hybride. Une nouvelle technique de détection reposant sur un algorithme de clustering est de plus proposée. Elle permet de prendre en compte l’évolution de comportement d’un système aussi dynamique qu’un service cloud. Une plateforme de type cloud a été déployée afin d’évaluer les performances de détection de notre stratégie. Un outil d’injection de faute a également été développé dans le but de cette évaluation ainsi que dans le but de collecter des jeux de données pour l’entraînement des modèles d’apprentissage. L’évaluation a été appliquée à deux cas d’étude : un système de gestion de base de données (MongoDB) et une fonction réseau virtualisée. Les résultats obtenus à partir d’analyses de sensibilité, montrent qu’il est possible d’obtenir de très bonnes performances de détection pour les trois types d’anomalies, tout en donnant les contextes adéquats pour la généralisation de ces résultats. / Nowadays, the development of virtualization technologies as well as the development of the Internet contributed to the rise of the cloud computing model. A cloud computing enables the delivery of configurable computing resources while enabling convenient, on-demand network access to these resources. Resources hosted by a provider can be applications, development platforms or infrastructures. Over the past few years, computing systems are characterized by high development speed, parallelism, and the diversity of task to be handled by applications and services. In order to satisfy their Service Level Agreements (SLA) drawn up with users, cloud providers have to handle stringent dependability demands. Ensuring these demands while delivering various services makes clouds dependability a challenging task, especially because providers need to make their services available on demand. This task is all the more challenging that users expect cloud services to be at least as dependable as traditional computing systems. In this manuscript, we address the problem of anomaly detection in cloud services. A detection strategy for clouds should rely on several principal criteria. In particular it should adapt to workload changes and reconfigurations, and at the same time require short configurations durations and adapt to several types of services. Also, it should be performed online and automatic. Finally, such a strategy needs to tackle the detection of different types of anomalies namely errors, preliminary symptoms of SLA violation and SLA violations. We propose a new detection strategy based on system monitoring data. The data is collected online either from the service, or the underlying hypervisor(s) hosting the service. The strategy makes use of machine learning algorithms to classify anomalous behaviors of the service. Three techniques are used, using respectively algorithms with supervised learning, unsupervised learning or using a technique exploiting both types of learning. A new anomaly detection technique is developed based on online clustering, and allowing to handle possible changes in a service behavior. A cloud platform was deployed so as to evaluate the detection performances of our strategy. Moreover a fault injection tool was developed for the sake of two goals : the collection of service observations with anomalies so as to train detection models, and the evaluation of the strategy in presence of anomalies. The evaluation was applied to two case studies : a database management system and a virtual network function. Sensitivity analyzes show that detection performances of our strategy are high for the three anomaly types. The context for the generalization of the results is also discussed.
423

Automation of The SLA Life Cycle in Cloud Computing

Ghumman, Waheed Aslam 09 October 2017 (has links) (PDF)
Cloud computing has become a prominent paradigm to offer on-demand services for softwares, infrastructures and platforms. Cloud services are contracted by a service level agreement (SLA) between a cloud service provider (CSP) and a cloud service user (CSU) which contains service definitions, quality of service (QoS) parameters, guarantees and obligations. Cloud service providers mostly offer SLAs in descriptive format which is not directly consumable by a machine or a system. The SLA written in natural language may impede the utility of rapid elasticity in a cloud service. Manual management of SLAs with growing usage of cloud services can be a challenging, erroneous and tedious task especially for the CSUs acquiring multiple cloud services. The necessity of automating the complete SLA life cycle (which includes SLA description in machine readable format, negotiation, monitoring and management) becomes imminent due to complex requirements for the precise measurement of QoS parameters. Current approaches toward automating the complete SLA life cycle, lack in standardization, completeness and applicability to cloud services. Automation of different phases of the SLA life cycle (e.g. negotiation, monitoring and management) is dependent on the availability of a machine readable SLA. In this work, a structural specification for the SLAs in cloud computing (S3LACC in short) is presented which is designed specifically for cloud services, covers complete SLA life cycle and conforms with the available standards. A time efficient SLA negotiation technique is accomplished (based on the S3LACC) for concurrently negotiating with multiple CSPs. After successful negotiation process, next leading task in the SLA life cycle is to monitor the cloud services for ensuring the quality of service according to the agreed SLA. A distributed monitoring approach for the cloud SLAs is presented, in this work, which is suitable for services being used at single or multiple locations. The proposed approach reduces the number of communications of SLA violations to a monitoring coordinator by eliminating the unnecessary communications. The presented work on the complete SLA life cycle automation is evaluated and validated with the help of use cases, experiments and simulations.
424

Plateforme ouverte, évolutive, sécurisée et orientée utilisateur pour l'e-commerce / Open, scalable, secure and user-centric platform for e-commerce

Delettre, Christian 12 December 2014 (has links)
De nos jours, l’e-commerce est devenu un écosystème complexe où de multiples solutions (en termes de plateforme) sont possibles et réalisables pour un e-commerçant. En parallèle, un nouveau paradigme a fait son apparition, celui du Cloud Computing. Malgré les avantages certains qu’il apporte, peu des plateformes existantes sont pensées pour fonctionner sur une architecture Cloud. De plus, face à la complexité d’obtenir une plateforme d’e-commerce (PE) sécurisée, flexible et évolutive s’appuyant sur des applications et services hétérogènes existants et répondant aux besoins des e-commerçants, il est légitime de se demander si une PE basée sur le Cloud permettrait de réellement simplifier les difficultés rencontrées par les e-commerçants. Cette thèse propose de valider la pertinence de l’utilisation du Cloud dans un contexte d’e-commerce avant de proposer les principes architecturaux d’une PE ouverte, évolutive et sécurisée basée sur une architecture de Cloud. De plus, la mise en œuvre d’une PE par un e-commerçant, n’est pas orientée utilisateur. Face à ceci, nous proposons un mécanisme orienté utilisateur simplifiant la mise en œuvre d’une PE tout en assurant un haut degré de sécurité au sein de celle-ci. Enfin, nous nous sommes également intéressés à répondre à la question suivante dans un contexte d’e-commerce : Comment assurer qu’aucune inférence d’activités sur une taille constatée d’une BD ne puisse être réalisée par des entités non autorisées ? Pour y répondre, nous proposons une solution de sécurité de dissimulation de données orientée utilisateur permettant de résoudre la propriété de confidentialité forte des données au sein des SGBDR. / Nowadays, e-commerce has become a complex ecosystem where multiple solutions (in terms of platforms) are possible and feasible for e-merchant. Concurrently, a new paradigm called Cloud Computing has emerged. Despite some advantages it brings, few of these platforms have been designed to operate on a Cloud architecture. Thus, because of the complexity to design a flexible and scalable e-commerce platform (EP), based on existing heterogeneous applications/services and fulfilling the needs of e-merchants, it is legitimate to ask ourself if a PE based on the Cloud would really simplify the difficulties faced by e-merchants. This thesis aims to validate the relevance of using the Cloud Computing in the e-commerce context and propose the architectural principles of an open, scalable and secure EP based on a Cloud architecture. In addition, the EP used by e-merchants are not user-centric EP. As a consequence, we propose a user-centric mechanism simplifying the design and implementation of an EP while ensuring a high security level. Finally, we tried to answer the following question: How to ensure that no activity inference on a database size, in an e-commerce context, can be achieved by unauthorized entities? As a response, we propose a user-centric security solution of data concealment to resolve the property of strong data confidentiality within relational database management system (RDBMS).
425

Security for the cloud / Sécurité pour le cloud

Cornejo-Ramirez, Mario 17 November 2016 (has links)
La cryptographie a été un facteur clé pour permettre la vente de services et du commerce par Internet. Le cloud computing a amplifié cette révolution et est devenu un service très demandé grâce à ses avantages comme : puissance de calcul importante, services à bas coûts, rendement, évolutivité, accessibilité et disponibilité. Parallèlement à la hausse de nouveaux business, des protocoles pour des calculs sécurisés ont aussi émergé. Le but de cette thèse est de contribuer à la sécurité des protocoles d’Internet existants en fournissant une analyse de la source aléatoire de ces protocoles et en introduisant des protocoles mieux adaptés pour les environnements des cloud computing. Nous proposons de nouvelles constructions en améliorant l'efficacité des solutions actuelles afin de les rendre plus accessibles et pratiques. Nous fournissons une analyse de sécurité détaillée pour chaque schéma avec des hypothèses raisonnables. Nous étudions la sécurité du cloud computing à différents niveaux. D'une part, nous formalisons un cadre pour analyser quelques-uns des générateurs de nombres pseudo-aléatoires populaires à ce jour qui sont utilisés dans presque chaque application cryptographique. D'autre part, nous proposons deux approches efficaces pour des calculs en cloud. Le premier permet à un utilisateur de partager publiquement son secret de haute entropie avec des serveurs différents pour plus tard le récupérer par interaction avec certains de ces serveurs en utilisant seulement son mot de passe et sans données authentifiées. Le second permet à un client d'externaliser à un serveur une base de données en toute sécurité, qui peut être recherchée et modifiée ultérieurement. / Cryptography has been a key factor in enabling services and products trading over the Internet. Cloud computing has expanded this revolution and it has become a highly demanded service or utility due to the advantages of high computing power, cheap cost of services, high performance, scalability, accessibility as well as availability. Along with the rise of new businesses, protocols for secure computation have as well emerged. The goal of this thesis is to contribute in the direction of securing existing Internet protocols by providing an analysis of the sources of randomness of these protocols and to introduce better protocols for cloud computing environments. We propose new constructions, improving the efficiency of current solutions in order to make them more accessible and practical. We provide a detailed security analysis for each scheme under reasonable assumptions. We study the security in a cloud computing environment in different levels. On one hand, we formalize a framework to study some popular real-life pseudorandom number generators used in almost every cryptographic application. On the other, we propose two efficient applications for cloud computing. The first allows a user to publicly share its high-entropy secret across different servers and to later recover it by interacting with some of these servers using only his password without requiring any authenticated data. The second, allows a client to securely outsource to a server an encrypted database that can be searched and modified later.
426

Description and evaluation of elasticity strategies for business processes in the Cloud / Description et évaluation de stratégies d'élasticité des processus métiers dans le Cloud

Ben Jrad, Aicha 05 July 2019 (has links)
Le principe d'élasticité est d'assurer que juste les ressources nécessaires sont provisionnées pour préserver le bon fonctionnement des services Cloud. La propriété d'élasticité permet d'éviter la sous-utilisation et la sur-utilisation des ressources. La propriété d'élasticité a attiré beaucoup d'attention ces dernières années comme une tâche pivot qui permet d'assurer un bon compromis entre les QdS désirées et les coûts opérationnels des AbSs. Toutefois, le contrôle d'élasticité des AbSs et la définition des stratégies d'élasticité non-triviales sont encore des tâches difficiles à réaliser. Une stratégie d'élasticité est utilisée pour gérer l'élasticité en décidant des trois éléments essentiels: 'quand', 'où' et 'comment' utiliser les mécanismes d'élasticité (par exemple, les opérations de duplication/consolidation de services) qui permettent d'assurer les objectifs de QdS avec une consommation optimisée des ressources. La complexité de définition de stratégies d'élasticité augmente avec les métriques de QdS considérées. La difficulté de cette tâche est de plus accentuée avec l'absence d'un langage unifiée pour exprimer ces stratégies. Notre travail de thèse vise à remédier aux limites des approches existantes pour la gestion des stratégies d'élasticité. Il consiste à développer un langage pour décrire différents types des stratégies d'élasticité d'une façon unifiée. Nous définissons un modèle formel qui cadre l'ensemble de métriques à considérer, définit les opérations d'élasticité à appliquer et spécifie les lois d'émission de requêtes. Ce modèle servira aussi pour appliquer et valider les stratégies spécifiées. Nous travaillons en plus sur l'alignement des contrats de qualités de services (Service Level Agreement) avec les stratégies d'élasticité. / Elasticity is the ability of a system to be adjustable to workload change by allocating and releasing as many resources as needed while ensuring the agreed QoS. It has played a pivotal role in many research works for ensuring QoS. Therefore, Elasticity management is witnessing a lot of attention from IT community as a pivotal issue for finding the right tradeoffs between QoS levels and operational costs by working on developing novel methods and mechanisms. However, controlling business process elasticity and defining non-trivial elasticity strategies are challenging issues. Elasticity strategies are policies that are used to manage elasticity by deciding when, where and how to use elasticity mechanisms (e.g, adding or removing resources). Many strategies can be defined to ensure applications elasticity. The abundance of possible strategies requires their evaluation and validation in order to guarantee their effectiveness before using them in real Cloud environments. Our thesis work aims to overcome the limitations of the existing approaches for elasticity strategies management. It consists in developing a configurable Domain-Specific language to describe different types of elasticity strategies in a unified way. We define a formal model that captures a set of QoS metrics and defines elasticity operations. This model will also be used to define and verify elasticity strategies. We will also work on the alignment of Service Level Agreements with the elasticity strategies.
427

Leistungsoptimierung der persistenten Datenverwaltung in DSP-Architekturen zur Live-Analyse von Sensordaten

Weißbach, Manuel 28 October 2021 (has links)
Aufgrund der in vielen Bereichen stets wachsenden Menge an zu verarbeitenden Daten haben sich Big-Data-Anwendungen in den letzten Jahren zunehmend verbreitet. Twitter gab bereits im Jahr 2011 an, täglich 15 Millionen URLs in Echtzeit zu untersuchen, um die Verbreitung von Spamlinks zu unterbinden [1]. Facebook verarbeitet pro Minute über vier Millionen „Gefällt mir“-Klicks und verwaltet über 300 Petabyte Daten [2]. Über das Businessportal LinkedIn wurden 2011 rund eine Milliarde Nachrichten pro Tag zugestellt, 2015 waren es laut Angaben des Unternehmens bereits 1,1 Billionen täglich versendete Nachrichten [3]. Diesem starken Anstieg liegt ein exponentielles Wachstum zugrunde, das für Big Data typisch ist. Gartner definiert den Begriff „Big Data“ auf Basis seiner spezifischen Eigenschaften, die in englischer Sprache auch als die „drei V´s“ bezeichnet werden: „Volume“, „Variety“ und „Velocity“ [4]. Neben der enormen Menge an zu verarbeitenden Daten („Volume“) und ihrer Vielfalt und Unstrukturiertheit („Variety“), ist demnach auch die Geschwindigkeit („Velocity“), in der die Daten generiert werden, ein wesentliches Merkmal von Big Data [5, 6]. Soll trotz der ständigen und immer schneller werdenden Generierung neuer Daten ein Verarbeitungsrückstau vermieden werden, so folgt daraus auch die Notwendigkeit, die kontinuierlich wachsenden Datenmengen immer schneller zu verarbeiten.
428

An agile information flow consolidator for delivery of quality software projects: technological perspective from a South African start-up

Gaoussou, Abdel Kader Doukoure 05 1900 (has links)
In today’s knowledge-based economy, modern organisations understand the importance of technology in their quest to be considered global leaders. South African markets like others worldwide are regularly flooded with the latest technology trends which can complicate the acquisition, use, management and maintenance of software. To achieve a competitive edge, companies tend to leverage agile methods with the best possible combination of innovative supporting tools as a key differentiator. Software technology firms are in this light faced with determining how to leverage technology and efficient development processes for them to consistently deliver quality software projects and solutions to their customer base. Previous studies have discussed the importance of software development processes from a project management perspective. African academia has immensely contributed in terms of software development and project management research which has focused on modern frameworks, methodologies as well as project management techniques. While the current research continues with this tradition by presenting the pertinence of modern agile methodologies, it additionally further describes modern agile development processes tailored in a sub-Saharan context. The study also aims novelty by showing how innovative sometimes disruptive technology tools can contribute to producing African software solutions to African problems. To this end, the thesis contains an experimental case study where a web portal is prototyped to assist firms with the management of agile project management and engineering related activities. Literature review, semi-structure interviews as well as direct observations from the industry use case are used as data sources. Underpinned by an Activity Theory analytical framework, the qualitative data is analysed by leveraging content and thematic oriented techniques. This study aims to contribute to software engineering as well as the information systems body of knowledge in general. The research hence ambitions to propose a practical framework to promote the delivery of quality software projects and products. For this thesis, such a framework was designed around an information system which helps organizations better manage agile project management and engineering related activities. / Information Science / Ph. D. (Information Systems)
429

Alma: Einführung des cloudbasierten Bibliotheksmanagementsystems in den Bibliotheken der HTWK Leipzig und der HTW Dresden

Giersch, Katrin, Schiemichen, Astrid, Stenzel, Petra-Sibylle 19 November 2015 (has links)
Praktisch mehr erreichen! Der Slogan der Hochschule für Technik und Wirtschaft (HTW) Dresden gilt gleichermaßen für die Hochschulbibliotheken. Als Serviceeinrichtungen bemühen wir uns intensiv darum, unsere Kunden, die Studierenden, Wissenschaftler und Angestellten der Hochschule sowie interessierte Bürger bestmöglich mit Literatur zu versorgen und optimale Lern und Aufenthaltsbedingungen zu bieten.
430

Systemunterstützung zur Bewertung der Qualität persönlicher Cloud-Dienste

Thoß, Yvonne 07 July 2014 (has links)
Cloud-Technologien ermöglichen Endnutzern das flexible und bedarfsgerechte Beziehen von IT-Leistungen über das Internet. In einer Public Cloud können die Dienste oder Ressourcen von beliebigen Unternehmen und Endnutzern zeit- sowie ortsunabhängig verwendet werden. Nutzer von Cloud-basierten Softwareanwendungen haben keinen Einfluss auf die sachgerechte Verwaltung und Überwachung der darunterliegenden Cloud-Infrastruktur. Infolgedessen haben sie zunehmend Bedenken hinsichtlich der Sicherheit ihrer Daten oder in Bezug auf die Performance bzw. Verfügbarkeit des Dienstes. Um diese Bedenken abzubauen, müssen die nichtfunktionalen Eigenschaften eines Dienstes betrachtet werden, da sie dessen qualitative Wahrnehmung beeinflussen. Derzeit steht Endnutzern weder ein vollständiger Kriterienkatalog zur Bewertung von Cloud-Diensten als Orientierungshilfe zur Verfügung noch sind Cloud-Gütesiegel oder Zertifikate ausreichend verbreitet. Mangelnde Fachkenntnisse und verstreute oder nicht verfügbare Qualitätsinformationen führen dazu, dass Endnutzer die Dienstqualität nur erschwert oder gar nicht bewerten können. Das Ziel der Dissertation ist, Cloud-Nutzer bei der schnellen und umfangreichen Überwachung und Bewertung der Qualität ihrer Public-Cloud-Dienste zu unterstützen. Die Berücksichtigung der Nutzerinteressen und -bedürfnisse in Bezug auf die Dienstqualität steht dabei im Vordergrund. Die Untersuchung der verwandten Cloud-spezifischen Qualitätsmodelle hat gezeigt, dass die Modelle unvollständig sind und keine Aussagen zu deren Eignung und Akzeptanz aus Nutzersicht getroffen werden. Folglich werden in der Arbeit zunächst die nichtfunktionalen Qualitätsattribute von Softwareanwendungen identifiziert und nutzerfreundlich kategorisiert. Das daraus abgeleitete Modell bildet die Grundlage für ein Qualitätsinformationssystem, das Endnutzer künftig bei der kontinuierlichen Einschätzung der Qualität ihrer Dienste unterstützen soll. Darüber hinaus wird ein Konzept zur nutzerfreundlichen visuellen Aufbereitung der Qualitätsinformationen entwickelt. Es werden Empfehlungen zur Darstellung, Strukturierung und Verknüpfung der Informationen innerhalb des Systems gegeben. Jeder Nutzer kann individuell festlegen, über welche Qualitätseigenschaften er informiert werden möchte und wann die Qualität eines Dienstes als hoch eingeschätzt werden soll. Mit der prototypisch technischen Realisierung des Qualitätsinformationssystems werden die praktische Eignung des Qualitätsmodells und Konzeptes demonstriert. Ferner belegen die Ergebnisse von zwei Nutzerbefragungen, dass Cloud-Nutzer durch das Informationssystem bei der Qualitätsbewertung unterstützt werden und mit dem System grundsätzlich zufrieden sind.

Page generated in 0.0694 seconds