• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 778
  • 217
  • 122
  • 65
  • 54
  • 33
  • 32
  • 30
  • 28
  • 21
  • 15
  • 14
  • 9
  • 9
  • 7
  • Tagged with
  • 1597
  • 1597
  • 391
  • 281
  • 244
  • 242
  • 235
  • 231
  • 231
  • 226
  • 216
  • 210
  • 176
  • 174
  • 153
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Evaluation of Cloud Native Solutions for Trading Activity Analysis / Evaluering av cloud native lösningar för analys av transaktionsbaserad börshandel

Johansson, Jonas January 2021 (has links)
Cloud computing has become increasingly popular over recent years, allowing computing resources to be scaled on-demand. Cloud Native applications are specifically created to run on the cloud service model. Currently, there is a research gap regarding the design and implementation of cloud native applications, especially regarding how design decisions affect metrics such as execution time and scalability of systems. The problem investigated in this thesis is whether the execution time and quality scalability, ηt of cloud native solutions are affected when housing the functionality of multiple use cases within the same cloud native application. In this work, a cloud native application for trading data analysis is presented, where the functionality of 3 use cases are implemented to the application: (1) creating reports of trade prices, (2) anomaly detection, and (3) analysis of relation diagram of trades. The execution time and scalability of the application are evaluated and compared to readily available solutions, which serve as a baseline for the evaluation. The results of use cases 1 and 2 are compared to Amazon Athena, while use case 3 is compared to Amazon Neptune. The results suggest that having functionalities combined into the same application could improve both execution time and scalability of the system. The impact depends on the use case and hardware configuration. When executing the use cases in a sequence, the mean execution time of the implemented system was decreased up to 17.2% while the quality scalability score was improved by 10.3% for use case 2. The implemented application had significantly lower execution time than Amazon Neptune but did not surpass Amazon Athena for respective use cases. The scalability of the systems varied depending on the use case. While not surpassing the baseline in all use cases, the results show that the execution time of a cloud native system could be improved by having functionality of multiple use cases within one system. However, the potential performance gains differ depending on the use case and might be smaller than the performance gains of choosing another solution. / Cloud computing har de senaste åren blivit alltmer populärt och möjliggör att skala beräkningskapacitet och resurser på begäran. Cloud native-applikationer är specifikt skapade för att köras på distribuerad infrastruktur. För närvarande finns det luckor i forskningen gällande design och implementering av cloud native applikationer, särskilt angående hur designbeslut påverkar mätbara värden som exekveringstid och skalbarhet. Problemet som undersöks i denna uppsats är huruvida exekveringstiden och måttet av kvalitetsskalbarhet, ηt påverkas när funktionaliteten av flera användningsfall intregreras i samma cloud native applikation. I det här arbetet skapades en cloud native applikation som kombinerar flera användningsfall för att analysera transaktionsbaserad börshandelsdata. Funktionaliteten av 3 användningsfall implementeras i applikationen: (1) generera rapporter över handelspriser, (2) detektering av avvikelser och (3) analys av relations-grafer. Applikationens exekveringstid och skalbarhet utvärderas och jämförs med kommersiella cloudtjänster, vilka fungerar som en baslinje för utvärderingen. Resultaten från användningsfall 1 och 2 jämförs med Amazon Athena, medan användningsfall 3 jämförs med Amazon Neptune. Resultaten antyder att systemets exekveringstid och skalbarhet kan förbättras genom att funktionalitet för flera användningsfall implementeras i samma system. Effekten varierar beroende på användningsfall och hårdvarukonfiguration. När samtliga användningsfall körs i en sekvens, minskar den genomsnittliga körtiden för den implementerade applikationen med upp till 17,2% medan kvalitetsskalbarheten ηt förbättrades med 10,3%för användningsfall 2. Den implementerade applikationen har betydligt kortare exekveringstid än Amazon Neptune men överträffar inte Amazon Athena för respektive användningsfall. Systemens skalbarhet varierade beroende på användningsfall. Även om det inte överträffar baslinjen i alla användningsfall, visar resultaten att exekveringstiden för en cloud native applikation kan förbättras genom att kombinera funktionaliteten hos flera användningsfall inom ett system. De potentiella prestandavinsterna varierar dock beroende på användningsfallet och kan vara mindre än vinsterna av att välja en annan lösning.
382

Dynamic scaling of a web-based application in a Cloud Architecture

Hossain, Md. Iqbal, Hossain, Md. Iqbal January 2014 (has links)
With the constant growth of internet applications, such as social networks, online media, various online communities, and mobile applications, website user traffic has grown, is very dynamic, and is oftentimes unpredictable. These unpredictable natures of the traffic have led to many new and unique challenges which must be addressed by solution architects, application developers, and technology researchers. All of these actors must continually innovate to create new attractive application and new system architectures to support the users of these new applications. In addition, increased traffic increases the demands for resources, while users demand even faster response times, despite the ever-growing datasets underlying many of these new applications. Several concepts and best practices have been introduced to build highly scalable applications by exploiting cloud computing. As no one who expect to be or remain a leader in business today can afford to ignore cloud computing. Cloud computing has emerged as a platform upon which innovation, flexibility, availability, and faster time-to-market can be supported by new small and medium sized enterprises. Cloud computing is enabling these businesses to create massively scalable applications, some of which handle tens of millions of active users daily. This thesis concerns the design, implementation, demonstration, and evaluation of a highly scalable cloud based architectures designed for high performance and rapid evolution for new businesses, such as Ifoodbag AB, in order to meet the requirement for their web based application. This thesis examines how to scale resources both up and down dynamically, since there is no reason to allocate more or less resources than actually needed. Apart from implementing and testing the proposed design, this thesis presents several guidelines, best practices and recommendations for optimizing auto scaling process including cost analysis. Test results and analysis presented in this thesis, clearly shows the proposed architecture model is strongly capable of supporting high demand applications, provides greater flexibility and enables rapid market share growth for new businesses, without their need to investing in an expensive infrastructure. / Med den ständiga tillväxten av Internet- applikationer, såsom sociala nätverk, online media, olika communities och mobila applikationer, har trafiken mot webbplatser ökat samt blivit mycket mer dynamisk och är ofta oförutsägbara. Denna oförutsägbara natur av trafiken har lett till många nya och unika utmaningar som måste lösas med hjälp av lösningsarkitekter, applikationsutvecklare och teknikforskare. Alla dessa aktörer måste ständigt förnya sig för att skapa nya attraktiva program och nya systemarkitekturer för att stödja användarna av dessa nya tillämpningar. Dessutom ökar den ökade trafikmängden krav på resurser, samtidigt som användarna kräver ännu snabbare svarstider, trots den ständigt växande datamängden som ligger som grund för många av dessa nya tillämpningar . Flera koncept och branchstandarder har införts för att bygga skalbara applikationer genom att utnyttja ”molnet” (”cloud computing”), eftersom att ingen som förväntar sig att bli eller förbli en ledare i näringslivet idag har råd att ignorera ”molnet”. Cloud computing har vuxit fram som en plattform på vilken innovation, flexibilitet, tillgänglighet och snabbhet till marknaden kan uppnås av nya, små och medelstora företag. Cloud computing är möjligt för dessa företag att skapa mycket skalbara applikationer, vilka kan hanterar tiotals miljoner aktiva användare varje dag. Detta examensarbete handlar om utformning, genomförande, demonstration och utvärdering av en mycket skalbar molnbaseradearkitekturer som utformats för höga prestanda och snabb utveckling av nya företag, såsom Ifoodbag AB, för att uppfylla kravet på deras webb- baserad applikation. Detta examensarbete undersöker hur man både skalar upp och ner dynamiskt, eftersom det inte finns någon anledning att tillägna applikationer mer eller mindre resurser än vad som faktiskt behövs för stunden. Som en del av examensarbetet implementeras och testas den föreslagna utformningen, samt presenterar flera riktlinjer, branchstandarder och rekommendationer för att optimera automatisk skalning av processer. Testresultat och de analyser som presenteras i detta examensarbete, visar tydligt att den föreslagna arkitekturen/modellen kan stödja resurskrävande applikationer, ger större flexibilitet och möjliggör snabb tillväxt av marknadsandelar för nya företag, utan att deras behov av att investera i en dyr infrastruktur.
383

Efficient and secure mobile cloud networking / Réseau cloud mobile et sécurisé

Bou Abdo, Jacques 18 December 2014 (has links)
MCC (Mobile Cloud Computing) est un candidat très fort pour le NGN (Next Generation Network) qui permet aux utilisateurs mobiles d’avoir une mobilité étendue, une continuité de service et des performances supérieures. Les utilisateurs peuvent s’attendre à exécuter leurs travaux plus rapidement, avec une faible consommation de batterie et à des prix abordables ; mais ce n’est pas toujours le cas. Diverses applications mobiles ont été développées pour tirer parti de cette nouvelle technologie, mais chacune de ces applications possède ses propres exigences. Plusieurs MCA (Mobile Cloud Architectures) ont été proposées, mais aucune n'a été adaptée pour toutes les applications mobiles, ce qui a mené à une faible satisfaction du client. De plus, l'absence d'un modèle d'affaires (business model) valide pour motiver les investisseurs a empêché son déploiement à l'échelle de production. Cette thèse propose une nouvelle architecture de MCA (Mobile Cloud Architecture) qui positionne l'opérateur de téléphonie mobile au cœur de cette technologie avec un modèle d'affaires de recettes. Cette architecture, nommée OCMCA (Operator Centric Mobile Cloud Architecture), relie l'utilisateur d’un côté et le fournisseur de services Cloud (CSP) de l'autre côté, et héberge un cloud dans son réseau. La connexion OCMCA / utilisateur peut utiliser les canaux multiplex menant à un service beaucoup moins cher pour les utilisateurs, mais avec plus de revenus, et de réduire les embouteillages et les taux de rejet pour l'opérateur. La connexion OCMCA / CSP est basée sur la fédération, ainsi un utilisateur qui a été enregistré avec n’importe quel CSP, peut demander que son environnement soit déchargé de cloud hébergé par l'opérateur de téléphonie mobile afin de recevoir tous les services et les avantages de OCMCA.Les contributions de cette thèse sont multiples. Premièrement, nous proposons OCMCA et nous prouvons qu'il a un rendement supérieur à toutes les autres MCA (Mobile Cloud Architectures). Le modèle d'affaires (business model) de cette architecture se concentre sur la liberté de l'abonnement de l'utilisateur, l'utilisateur peut ainsi être abonné à un fournisseur de cloud et être toujours en mesure de se connecter via cette architecture à son environnement à l'aide du déchargement et de la fédération... / Mobile cloud computing is a very strong candidate for the title "Next Generation Network" which empowers mobile users with extended mobility, service continuity and superior performance. Users can expect to execute their jobs faster, with lower battery consumption and affordable prices; however this is not always the case. Various mobile applications have been developed to take advantage of this new technology, but each application has its own requirements. Several mobile cloud architectures have been proposed but none was suitable for all mobile applications which resulted in lower customer satisfaction. In addition to that, the absence of a valid business model to motivate investors hindered its deployment on production scale. This dissertation proposes a new mobile cloud architecture which positions the mobile operator at the core of this technology equipped with a revenue-making business model. This architecture, named OCMCA (Operator Centric Mobile Cloud Architecture), connects the user from one side and the Cloud Service Provider (CSP) from the other and hosts a cloud within its network. The OCMCA/user connection can utilize multicast channels leading to a much cheaper service for the users and more revenues, lower congestion and rejection rates for the operator. The OCMCA/CSP connection is based on federation, thus a user who has been registered with any CSP, can request her environment to be offloaded to the mobile operator's hosted cloud in order to receive all OCMCA's services and benefits...
384

Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters / Predictive approach of power efficiency into Clouds Datacenters

Gbaguidi, Fréjus A. Roméo 22 December 2017 (has links)
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing. / With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
385

Service-Oriented Architecture for the Mobile Cloud Computing / Architecture Orientée Service pour le Mobile Cloud Computing

Houacine, Fatiha 25 November 2016 (has links)
La croissance des appareils connectés, principalement due au grand nombre de déploiements de l'internet des objets et à l'émergence des services de cloud mobile, introduit de nouveaux défis pour la conception d'architectures de services dans le Cloud Computing Mobile (CCM) du cloud computing mobile. Nous montrons dans cette thèse comment l'architecture orientée services SOA peut être une solution clé pour fournir des services cloud mobiles distribués et comment la plate-forme OSGi peut être un cadre adaptatif et efficace pour fournir une telle implémentation. Nous adaptons le cadre CCM proposé à différents contextes d'architecture. Le premier est un modèle centré traditionnel, où les appareils mobiles sont réduits à consommer des services. Le second est un modèle distribué où la puissance de l'interaction de mobile à mobile offre des opportunités illimitées de services de valeur, et enfin, l'architecture à trois niveaux est considérée avec l'introduction de la notion de cloudlet. Pour chaque contexte, nous explorons la performance de notre cadre axé sur le service et le comparons à d'autres solutions existantes. / The growth of connected devices, mostly due to the large number of internet of things IoT deployments and the emergence of mobile cloud services, introduces new challenges for the design of service architectures in mobile cloud computing MCC. An MCC framework should provide elasticity and scalability in a distributed and dynamic way while dealing with limited environment resources and variable mobile contexts web applications, real-time, enterprise services, mobile to mobile, hostile environment, etc. that may include additional constraints impacting the design foundation of cloud services. We show in this thesis how service-oriented architecture SOA can be a key solution to provide distributed mobile cloud services and how OSGi platform can be an adaptive and efficient framework to provide such implementation. We adapt the proposed MCC framework to different architecture contexts. The first one is a traditional centric model, where mobile devices are reduced to consuming services. The second one is a distributed model where the power of mobile-to-mobile interaction offers unlimited value-services opportunities, and finally, three-tier architecture is considered with the introduction of the cloudlet notion. For each context, we explore the performance of our service-oriented framework, and contrast it with alternative existing solutions.
386

End-to-end security architecture for cloud computing environments / Architecture de sécurité de bout en bout et mécanismes d'autoprotection pour les environnements Cloud

Wailly, Aurélien 30 September 2014 (has links)
La virtualisation des infrastructures est devenue un des enjeux majeurs dans la recherche, qui fournissent des consommations d'énergie moindres et des nouvelles opportunités. Face à de multiples menaces et des mécanismes de défense hétérogènes, l'approche autonomique propose une gestion simplifiée, robuste et plus efficace de la sécurité du cloud. Aujourd'hui, les solutions existantes s'adaptent difficilement. Il manque des politiques de sécurité flexibles, une défense multi-niveaux, des contrôles à granularité variable, ou encore une architecture de sécurité ouverte. Ce mémoire présente VESPA, une architecture d'autoprotection pour les infrastructures cloud. VESPA est construit autour de politiques qui peuvent réguler la sécurité à plusieurs niveaux. La coordination flexible entre les boucles d'autoprotection réalise un large spectre de stratégies de sécurité comme des détections et des réactions sur plusieurs niveaux. Une architecture extensible multi plans permet d'intégrer simplement des éléments déjà présents. Depuis peu, les attaques les plus critiques contre les infrastructures cloud visent la brique la plus sensible: l'hyperviseur. Le vecteur d'attaque principal est un pilote de périphérique mal confiné. Les mécanismes de défense mis en jeu sont statiques et difficile à gérer. Nous proposons une approche différente avec KungFuVisor, un canevas logiciel pour créer des hyperviseurs autoprotégés spécialisant l'architecture VESPA. Nous avons montré son application à trois types de protection différents : les attaques virales, la gestion hétérogène multi-domaines et l'hyperviseur. Ainsi la sécurité des infrastructures cloud peut être améliorée grâce à VESPA / Since several years the virtualization of infrastructures became one of the major research challenges, consuming less energy while delivering new services. However, many attacks hinder the global adoption of Cloud computing. Self-protection has recently raised growing interest as possible element of answer to the cloud computing infrastructure protection challenge. Yet, previous solutions fall at the last hurdle as they overlook key features of the cloud, by lack of flexible security policies, cross-layered defense, multiple control granularities, and open security architectures. This thesis presents VESPA, a self-protection architecture for cloud infrastructures. Flexible coordination between self-protection loops allows enforcing a rich spectrum of security strategies. A multi-plane extensible architecture also enables simple integration of commodity security components.Recently, some of the most powerful attacks against cloud computing infrastructures target the Virtual Machine Monitor (VMM). In many case, the main attack vector is a poorly confined device driver. Current architectures offer no protection against such attacks. This thesis proposes an altogether different approach by presenting KungFuVisor, derived from VESPA, a framework to build self-defending hypervisors. The result is a very flexible self-protection architecture, enabling to enforce dynamically a rich spectrum of remediation actions over different parts of the VMM, also facilitating defense strategy administration. We showed the application to three different protection scheme: virus infection, mobile clouds and hypervisor drivers. Indeed VESPA can enhance cloud infrastructure security
387

Optimisation intégrée dans un environnement cloud / Integrated optimization in cloud environment

Teyeb, Hana 18 December 2017 (has links)
Dans les systèmes cloud géographiquement distribués, un défi majeur auquel sont confrontés les fournisseurs de cloud consiste à optimiser et à configurer leurs infrastructures. En particulier, cela consiste à trouver un emplacement optimal pour les machines virtuelles (VMs) afin de minimiser les coûts tout en garantissant une bonne performance du système. De plus, en raison des fluctuations de la demande et des modèles de trafic, il est essentiel d'ajuster dynamiquement le schéma de placement des VMs en utilisant les techniques de migration des VMs. Cependant, malgré ses avantages apportés, dans le contexte du Cloud géo-distribué, la migration des VMs génère un trafic supplémentaire dans le réseau backbone ce qui engendre la dégradation des performances des applications dans les centres de données (DCs) source et destination. Par conséquent, les décisions de migration doivent être bien étudiés et basées sur des paramètres précis. Dans ce manuscrit, nous étudions les problèmes d'optimisation liés au placement, à la migration et à l'ordonnancement des VMs qui hébergent des applications hautement corrélées et qui peuvent être placés dans des DCs géo-distribués. Dans ce contexte, nous proposons un outil de gestion de DC autonome basé sur des modèles d'optimisation en ligne et hors ligne pour gérer l'infrastructure distribuée du Cloud. Notre objectif est de minimiser le volume du trafic global circulant entre les différents DCs du système.Nous proposons également des modèles d'optimisation stochastiques et déterministes pour traiter les différents modèles de trafic de communication. En outre, nous fournissons des algorithmes quasi-optimaux qui permettent d'avoir la meilleure séquence de migration inter-DC des machines virtuelles inter-communicantes. En plus, nous étudions l'impact de la durée de vie des VMs sur les décisions de migration afin de maintenir la stabilité du Cloud. Enfin, nous utilisons des environnements de simulation pour évaluer et valider notre approche. Les résultats des expériences menées montrent l'efficacité de notre approche / In geo-distributed cloud systems, a key challenge faced by cloud providers is to optimally tune and configure their underlying cloud infrastructure. An important problem in this context, deals with finding an optimal virtual machine (VM) placement, minimizing costs while at the same time ensuring good system performance. Moreover, due to the fluctuations of demand and traffic patterns, it is crucial to dynamically adjust the VM placement scheme over time. Hence, VM migration is used as a tool to cope with this problem. However, despite the benefits brought by VM migration, in geo-distributed cloud context, it generates additional traffic in the backbone links which may affect the application performance in both source and destination DCs. Hence, migration decisions need to be effective and based on accurate parameters. In this work, we study optimization problems related to the placement, migration and scheduling of VMs hosting highly correlated and distributed applications within geo-distributed DCs. In this context, we propose an autonomic DC management tool based on both online and offline optimization models to manage the distributed cloud infrastructure. Our objective is to minimize the overall expected traffic volume circulating between the different DCs of the system. To deal with different types of communication traffic patterns, we propose both deterministic and stochastic optimization models to solve VM placement and migration problem and to cope with the uncertainty of inter-VM traffic. Furthermore, we propose near-optimal algorithms that provide with the best inter-DCs migration sequence of inter-communicating VMs. Along with that, we study the impact of the VM's lifetime on the migration decisions in order to maintain the stability of the cloud system. Finally, to evaluate and validate our approach, we use experimental tests as well as simulation environments. The results of the conducted experiments show the effectiveness of our proposals
388

Ordonnancement sous contraintes de qualité de service dans les clouds / Cloud scheduling under quality of service constraints

Guérout, Tom 05 December 2014 (has links)
Ces dernières années, de nouvelles problématiques sont nées au vu des considérations écologiques de plus en plus présentes dans notre société. Dans le domaine de la technologie de l'Information, les centres de calcul consomment actuellement environ 1.5% de l'électricité mondiale. Cela ne cesse d’augmenter en raison de l'évolution de nombreux domaines et particulièrement du Cloud Computing. Outre cet aspect environnemental, le contrôle de la consommation d’énergie fait désormais partie intégrante des paramètres de Qualité de Service (QoS) incombant aux fournisseurs de services de Cloud Computing. En effet, ces fournisseurs de services à la demande proposent à leurs utilisateurs un contrat de QoS, appelé SLA (Service Level Agreement), qui définit de manière précise la qualité de service qu’ils s’engagent à respecter. Le niveau de QoS proposé influence directement la qualité d’utilisation des services par les utilisateurs, mais aussi la consommation et le rendement général de l’ensemble des ressources de calcul utilisées, impactant fortement les bénéfices des fournisseurs de services.Le Cloud Computing étant intrinsèquement lié à la virtualisation des ressources de calcul, une élaboration de modèles d’architecture matérielle et logicielle est proposée afin de définir les caractéristiques de l’environnement considéré. Ensuite, une modélisation détaillée de paramètres de QoS en termes de performance, de sûreté de fonctionnement, de sécurité des données et de coûts est proposée. Des métriques associées à ces paramètres sont définies afin d’étendre les possibilités d'évaluation des SLA. Ces modélisations constituent la première contribution de cette thèse.Il convient alors de démontrer comment l’utilisation et l’interprétation de plusieurs métriques de QoS ouvrent la possibilité d'une analyse plus complexe et plus fine de la perspicacité des algorithmes de placement. Cette approche multi-critères leur apporte des informations importantes sur l’état de leur système qu’ils peuvent analyser afin de gérer le niveau de chaque paramètre de QoS. Ainsi, quatre métriques antagonistes, incluant la consommation énergétique, ont été sélectionnées et utilisées conjointement dans plusieurs algorithmes de placement de manière à montrer leur pertinence, l’enrichissement qu’elles apportent à ces algorithmes, et comment un fournisseur de service peut tirer profit des résultats d’une optimisation multi-objectifs. Cette seconde contribution présente un algorithme génétique (GA) ainsi que deux algorithmes gloutons. L’analyse du comportement de l'algorithme génétique a permis de démontrer différents intérêts d’une optimisation multi-critères appliquée à des métriques de QoS habituellement ignorées dans les études dédiées au Cloud Computing.La troisième contribution de cette thèse propose une étude de l’impact de l'utilisation des métriques de QoS sur l’ordonnancement de machines virtuelles au cours du temps. Pour cela, le simulateur CloudSim a été exploité et étendu afin d'améliorer ses fonctionnalités de gestion de consommation énergétique. Tout d’abord par l’ajout du DVFS (Dynamic Voltage & Frequency Scaling) apportant une gestion dynamique très précise des fréquences de fonctionnement CPU, puis la possibilité de reconfiguration de machines virtuelles et enfin par la gestion dynamique des évènements. Les simulations effectuées mettent en jeu l'ensemble de ces outils énergétiques ainsi que les algorithmes de placement et évaluent chacune des métriques de QoS sélectionnées. Ces simulations donnent une vision temporelle de l’évolution de celles-ci, en fonction des algorithmes utilisés et de plusieurs configurations d’optimisation du GA. Cela permet d'analyser sous différents angles le comportement des algorithmes gloutons, l'impact des optimisations du GA, et l'influence des métriques les unes par rapport aux autres.Une collaboration a pu être établie avec le laboratoire CLOUDS Laborartory de Melbourne, dirigé par Prof. Rajkumar Buyya. / In recent years, new issues have arisen in environmental considerations, increasingly pointed out in our society. In the field of Information Technology, data centers currently consume about 1.5% of world electricity. This increasing is due to changes in many areas, especially in Cloud Computing. Besides this environmental aspect, the management of energy consumption has become an important field of Quality of Service (QoS), in the responsibility of Cloud providers. These providers propose a QoS contract called SLA (Service Level Agreement), which specify the level of QoS given to users. The level of QoS offered directly influences the quality of the users' utilization, but also the overall energy consumption and performance of computing resources, which strongly affect profits of the Cloud providers. Cloud computing is intrinsically linked to the virtualization of computing resources. A model of hardware and software architecture is proposed in order to define the characteristics of the environment considered. Then, a detailed modeling of QoS parameters in terms of performance, dependability, security and cost is proposed. Therefore, QoS metrics, associated to these parameters are defined in order to extend the possibilities for evaluating the SLA. These models represent the first contribution of this thesis. Then, it is necessary to illustrate how the use and interpretation of several QoS metrics open the possibility of a more complex and precise analysis of algorithms' insight. This multi-criteria approach, that provides useful informations about the system's status can be analyzed to manage the QoS parameters' level. Thus, four antagonists metrics, including energy consumption, are selected and used together in several scheduling algorithms which allow to show their relevance, the enrichment given to these algorithms, and how a Cloud provider can take advantage of the results of this kind of multi-objective optimization. The second contribution presents a genetic algorithm (GA) and two greedy algorithms. The analysis of the genetic algorithm behavior allows to show different interests of a multi-criteria optimization applied to QoS metrics, usually ignored in studies dedicated to Cloud Computing. The third contribution of this thesis proposes a study of the impact of the use of QoS metrics in virtual machines scheduling. The simulator CloudSim has been used and expanded to improve its energy-aware tools. The DVFS (Dynamic Voltage & Frequency Scaling), providing a highly accurate dynamic management of CPU frequencies, the virtual machines reconfiguration, and the dynamic management of events have been included. The simulations involve all of these energy tools and placement algorithms, and evaluate each selected QoS metrics. These simulations allow to see the evolution in time of these metrics, depending on the algorithms used and the behavior of the GA in different optimizations configurations. This allows to analyze from different angles the behavior of greedy algorithms, the impact of optimizations GA, and the influence of these metrics one against the others.
389

Prediction of traffic flow in cloud computing at a service provider.

Sekwatlakwatla, Prince 11 1900 (has links)
M. Tech. (Department of Information Technology, Faculty of Applied and Computer Sciences) Vaal University of Technology. / Cloud computing provides improved and simplified IT management and maintenance capabilities through central administration of resources. Companies of all shapes and sizes are adapting to this new technology. Although cloud computing is an attractive concept to the business community, it still has some challenges such as traffic management and traffic prediction that need to be addressed. Most cloud service providers experience traffic congestion. In the absence of effective tools for cloud computing traffic prediction, the allocation of resources to clients will be ineffective thus driving away cloud computing users. This research intends to mitigate the effect of traffic congestion on provision of cloud service by proposing a proactive traffic prediction model that would play an effective role in congestion control and estimation of accurate future resource demand. This will enhance the accuracy of traffic flow prediction in cloud computing by service providers. This research will evaluate to determine the performance between Auto-regressive Integrated Moving Average (ARIMA) and Artificial Neural Networks (ANN) as prediction tools for cloud computing traffic. These two techniques were tested by using simulation to predict traffic flow per month and per year. The dataset was downloaded data taken from CAIDA database. The two algorithms Auto-Regressive Integrated Moving Average (ARIMA) and Artificial Neural Networks (ANN) where implemented and tested separately. Experimental results were generated and analyzed to test the effectiveness of the traffic prediction algorithms. Finally, the findings indicated that ARIMA can have 98 % accurate prediction results while ANN produced 89 % accurate prediction results. It was also observed that both models perform better on monthly data as compared to yearly data. This study recommends ARIMA algorithm for data flow prediction in private cloud computing
390

Measuring the responsiveness of WebAssembly in edge network applications / Mätning av responsiviteten hos WebAssembly i edge network-applikationer

Scolati, Remo January 2023 (has links)
Edge computing facilitates applications of cyber-physical systems that require low latencies by moving compute and storage resources closer to the end application. Whilst the edge network benefits such systems in terms of responsiveness, it increases the systems’ complexity due to edge devices’ often heterogeneous and resource-constrained nature. In this work, we evaluate whether WebAssembly can be used as a lightweight and portable abstraction layer for such applications. Through the implementation of an edge network robot control scenario, we benchmark and compare the performance of WebAssembly against its native equivalent. We measure WebAssembly’s overhead and assess the impact of different placement options in the network. We further compare the overall application responsiveness against the latency requirements of an industrial application to evaluate its performance. We find that WebAssembly satisfies the portability and performance requirements of the selected industrial use case. Our empirical results show that WebAssembly doubles the execution latency in a localized setting, but does not excessively impact the overall responsiveness of a cyber-physical system. / Edge computing underlättar tillämpningar av cyberfysiska system som kräver låga latenser genom att flytta beräknings- och lagringsresurser närmare slutapplikationen. Även om edge-nätverket gynnar sådana system när det gäller reaktionsförmåga, ökar det systemens komplexitet på grund av edge-enheternas ofta heterogena och resursbegränsade natur. I detta arbete utvärderar vi om WebAssembly kan användas som ett lättviktigt och portabelt abstraktionslager för sådana applikationer. Genom att implementera ett robotkontrollscenario för edge-nätverk benchmarkar och jämför vi prestandan hos WebAssembly med dess inbyggda motsvarighet. Vi mäter WebAssemblys overhead och utvärderar effekten av olika placeringsalternativ i nätverket. Vi jämför även den övergripande applikationsresponsen mot latenskraven i en industriell applikation för att utvärdera dess prestanda. Vi konstaterar att WebAssembly uppfyller portabilitets- och prestandakraven för det utvalda industriella användningsfallet. Våra empiriska resultat visar att WebAssembly fördubblar exekveringslatensen i en lokaliserad miljö, men att det inte påverkar den övergripande responsiviteten i ett cyberfysiskt system i alltför hög grad.

Page generated in 0.5808 seconds