621 |
Adaptation et cloud computing : un besoin d'abstraction pour une gestion transverseDaubert, Erwan 24 May 2013 (has links) (PDF)
Le Cloud Computing est devenu l'un des grands paradigmes de l'informatique et propose de fournir les ressources informatiques sous forme de services accessibles au travers de l'Internet. Ces services sont généralement organisés selon trois types ou niveaux. On parle de modèle SPI pour "Software, Platform, Infrastructure" en anglais. De la même façon que pour les applications ''standard'', les services de Cloud doivent être capables de s'adapter de manière autonome afin de tenir compte de l'évolution de leur environnement. À ce sujet, il existe de nombreux travaux tels que ceux concernant la consolidation de serveur et l'économie d'énergie. Mais ces travaux sont généralement spécifiques à l'un des niveaux et ne tiennent pas compte des autres. Pourtant, comme l'a affirmé Kephart et al. en 2000, même s'il existe des adaptations à priori indépendantes les unes des autres, celles-ci ont un impact sur l'ensemble du système informatique dans lequel elles sont appliquées. De ce fait, une adaptation au niveau infrastructure peut avoir un impact au niveau plate-forme ou au niveau application. L'objectif de cette thèse est de fournir un support pour l'adaptation permettant de gérer celle-ci comme une problématique transverse au différents niveaux afin d'assurer la cohérence et l'efficacité de l'adaptation. Pour cela, nous proposons une abstraction capable de représenter l'ensemble des niveaux et servant de support pour la définition des reconfigurations. Cette abstraction repose sur les techniques de modèle à l'exécution (Model at Runtime en anglais) qui propose de porter les outils utilisés à la conception pour définir, valider et appliquer une nouvelle configuration pendant l'exécution du système lui-même. Afin de montrer l'utilisabilité de cette abstraction, nous présentons trois expérimentations permettant de montrer l'extensibilité et la généricité de notre solution, de montrerque l'impact sur les performances du système est faible, et de montrer que cette abstraction permet de faire de l'adaptation multiniveaux.
|
622 |
Υπολογιστικό νέφος & ηλεκτρονικές ταυτότητες: προβλήματα ιδιωτικότηταςΚαλαντζή, Ροζαλία 07 October 2011 (has links)
Η ιδιωτικότητα (privacy) είναι μια λέξη που ακούμε πολύ συχνά στις μέρες μας. Παρόλα αυτά δεν είναι εύκολο να διατυπώσει κανείς έναν αυστηρό ορισμό. Γενικά, είναι η μέριμνα ενός ατόμου ή μιας ομάδας ατόμων να προστατεύουν πληροφορίες σχετικές με αυτούς και όσες αυτοί θέλουν ή όσες επιβάλλονται από την κοινωνία ή και την πολιτεία, και έτσι να «αποκαλύπτονται» επιλεκτικά. Τα όρια και το περιεχόμενο του τι θεωρείται ιδιωτικό διαφέρει μεταξύ πολιτισμών, χωρών και διαφορετικών ατόμων, αλλά μοιράζεται βασικά κοινά θέματα. Όσο αφορά τον χώρο της Πληροφορικής, ιδιωτικότητα της πληροφορίας (information privacy) ή ιδιωτικότητα των δεδομένων (data privacy) είναι η συσχέτιση ανάμεσα στην συλλογή και διάδοση των δεδομένων, στην τεχνολογία, στην προσδοκία της κοινωνίας για ιδιωτικότητα και στα νομικά ζητήματα που περιβάλλουν όλα αυτά.
Η ιδιωτικότητα αποτελεί κεντρικό θέμα στον Παγκόσμιο Ιστό (Web). Τέμνει θέματα όπως ασφάλεια (security), ταυτοποίηση (identification) και αυθεντικοποίηση (authentication). Μερικές φορές οδηγεί σε συγκρούσεις και αποτελεί μονόδρομος η εύρεση ισορροπιών. Τα προβλήματα ιδιωτικότητας επιδεινώνονται ραγδαία καθώς οι εφαρμογές «νέφους» αποτελούν μέρος της καθημερινότητας των χρηστών του Διαδικτύου και όχι απλά μια μελλοντική τεχνολογική εξέλιξη.
Στα πλαίσια της παρούσας διπλωματικής εργασίας θα δώσουμε μια τελευταία εικόνα των εξελίξεων των εφαρμογών του υπολογιστικού νέφους (cloud computing) με έμφαση στις δυνητικές επιπτώσεις στην ιδιωτικότητα. Το «νέφος» αφορά στην παροχή υπολογιστικών πόρων κατά ζήτηση (on demand) μέσω του Διαδικτύου από εταιρείες παρόχους τέτοιων υπηρεσιών. Η πρόσβαση σε υπολογιστικούς πόρους γίνεται από οπουδήποτε αρκεί να υπάρχει σύνδεση στο Διαδίκτυο. Τα πλεονεκτήματα για εταιρείες και επιχειρήσεις είναι πολλά καθώς μειώνονται τα λειτουργικά τους έξοδα. Παρόλα αυτά εκκρεμεί η επίλυση ζητημάτων που αφορούν την έλλειψη προτύπων αγοράς, την ασφάλεια και την ιδιωτικότητα των χρηστών υπηρεσιών «νέφους». Σύμφωνα με πρόσφατη έρευνα σε στελέχη πληροφορικής προκύπτει πως το «νέφος» θα αποτελέσει τoν σημαντικότερο μοχλό αύξησης των εσόδων στον συγκεκριμένο τομέα τα επόμενα 3 χρόνια.
Το θέμα των ηλεκτρονικών ταυτοτήτων (electronic identity card) αποκτά ιδιαίτερη σημασία στο επερχόμενο πλαίσιο σχετικά πάντοτε με την ιδιωτικότητα. Στην συνέχεια της εργασίας θα παρουσιάσουμε ορισμένες πρόσφατες εξελίξεις στις ηλεκτρονικές ταυτότητες. Οι νέου τύπου ηλεκτρονικές ταυτότητες δεν αποτελούν απλά προϊόν ψηφιοποίησης των συμβατικών ταυτοτήτων, αλλά μία πιο «έξυπνη» μορφή τους. Ενσωματώνουν δυνατότητες για online ταυτοποίηση αλλά και για υπογραφή ηλεκτρονικών εγγράφων μέσω ψηφιακών υπογραφών. Με την διάδοσή τους επαναπροσδιορίζεται το ζήτημα της προστασίας των προσωπικών δεδομένων. Προκύπτει λοιπόν πως τα κλασσικά διαπιστευτήρια που χρησιμοποιούνται συνήθως για να πιστοποιήσει κάποιος χρήστης την ταυτότητά του κατά την διάρκεια των ηλεκτρονικών του συναλλαγών, δεν προστατεύουν πλήρως την ιδιωτικότητα του. Κατά κανόνα αποκαλύπτεται η ταυτότητα του κατόχου του διαπιστευτηρίου, παρόλο που συχνά απαιτείται λιγότερη πληροφορία. Για παράδειγμα, για να ενοικιάσει κανείς ένα αυτοκίνητο αρκεί η επιβεβαίωση πως είναι ενήλικας και δεν είναι απαραίτητο να γίνει γνωστή η ακριβής ημερομηνία γέννησής του. Αντιθέτως, τα διαπιστευτήρια που βασίζονται σε χαρακτηριστικά (Attribute Based Credentials) επιτρέπουν στον κάτοχο του διαπιστευτηρίου να αποκαλύψει μόνο την ελάχιστη πληροφορία που απαιτείται, χωρίς να αποκαλύπτει την πλήρη ταυτότητά του. Αυτό ονομάζεται ελάχιστη αποκάλυψη (minimal disclosure). / Privacy is a word we hear quite often nowadays. However it is not easy to give a strict definition. Generally, it is the concern of a person or group of individuals to protect information about them and those they want or those imposed by society or the state, and thus 'revealed' selective. The boundaries and content of what is considered private differs between cultures, countries and different people, but shares basic common themes. As regards the field of Informatics, privacy of information or privacy of data is the correlation between the collection and dissemination of data, technology, society's expectations of privacy and legal issues surrounding all.
The privacy is central to the Web. It intersects issues such as security, identification and authentication. Sometimes it leads to conflict and is one way to find balance. The privacy issues are rapidly deteriorating as the applications of "cloud" becoming part of everyday Internet users and not just a future technology development.
As part of this thesis will give an overview of recent developments in applications of cloud computing, with emphasis on the potential impact on privacy. The "cloud" refers to the provision of computing resources on demand over the Internet from companies providing such services. To have access to computing resources from anywhere is enough to have an Internet connection. The advantages for companies and businesses are many as they reduce their operating costs. Nevertheless, is pending the resolution of issues relating to lack of market standards, security and user’s privacy of "cloud" services. According to a recent survey the "cloud" will be the main driver of revenue growth in the Informatics over the next 3 years.
The issue of electronic identity cards is of particular importance in the upcoming framework of privacy. In continuing, the work will present some recent developments in electronic identity cards. The new type of electronic identity cards is not just digitize conventional identities, but are a more intuitive form. Integrate opportunities for online identification and signature for electronic documents through digital signatures. With the proliferation redefined the issue of protection of personal data. The classical credentials which are typically used to certify a user’s identity during an electronic transaction are not fully protect their privacy. Normally reveal the identity of the holder of credentials, although frequently less information is needed. For example, for someone to rent a car is sufficient to confirm that it is an adult and is not necessary to know the exact date of birth. However, the attribute based credentials allow the holder of credentials to disclose only the minimum information required (minimal disclosure), without disclosing their full identity.
|
623 |
Εφαρμογή ασύρματου δικτύου για την αντιμετώπιση έκτακτης ανάγκηςΚολιόπουλος, Κυριάκος-Άρης 15 April 2013 (has links)
Αντικείμενο της εργασίας αυτής είναι η μελέτη και κατασκευή εφαρμογής ασύρματου δικτύου με σκοπό την αναγνώριση της ανθρώπινης δραστηριότητας και τον εντοπισμό της πτώσης σε πραγματικό χρόνο, καθώς επίσης και την παρακολούθηση των αποτελεσμάτων από απομακρυσμένη τοποθεσία. Στη συγκεκριμένη εργασία σκοπός είναι η αναγνώριση των τεσσάρων βασικών καταστάσεων
της ανθρώπινης φυσικής δραστηριότητας (κάθομαι, ξαπλώνω, στέκομαι, κινούμαι) και ο
εντοπισμός της πτώσης με χρήση της των επιταχυνσιομέτρων που προσφέρει η πλατφόρμα
SunSpot καθώς και η σύνδεση της διάταξης με το διαδίκτυο για την παροχή πληροφορίας σχετικά
με την κατάσταση του κατόχου του συστήματος σε απομακρυσμένη τοποθεσία. Πραγματοποιήθηκε
μελέτη σχετικά με διάφορες διατάξεις των αισθητήρων ,την συχνότητα δειγματοληψίας, τους
αλγορίθμους κατάταξης καθώς και για τις μεθόδους διάθεσης της πληροφορίας στο διαδίκτυο.
Για την αναγνώριση των καταστάσεων και τον εντοπισμό της πτώσης χρησιμοποιήθηκαν δυο
πλατφόρμες αισθητήρων SunSPOT, μια στο στήθος (master) και μια στο δεξιό τετρακέφαλο
(slave) / A wearable wireless sensor network application performing human activity recognition and fall detection using the Naïve Bayesian Classifier algorithm in the SunSpot Platform accompanied by a web application in the Google App Engine platform to be able to monitor the classification results from a remote location and to automatically notify via e-mail in case of emergency.
|
624 |
Ερωτήματα διαστημάτων σε περιβάλλοντα νεφών υπολογιστώνΣφακιανάκης, Γεώργιος 04 February 2014 (has links)
Τα νέφη υπολογιστών γίνονται ολοένα και πιο σημαντικά για εφαρμογές διαχείρισης δεδομένων, λόγω της δυνατότητας που προσφέρουν για διαχείριση πολύ μεγάλου όγκου δεδομένων. Καθημερινά προκύπτουν νέα προβλήματα, που η λύση τους απαιτεί αποδοτικές και κλιμακώσιμες εφαρμογές για την επεξεργασία αυτού του τεράστιου όγκου πληροφορίας. Κεντρικό ρόλο σε αυτόν τον τομέα κατέχουν τα συστήματα αποθήκευσης κλειδιού-τιμής σε νέφη υπολογιστών (cloud key-value stores), καθώς και συστήματα παράλληλης επεξεργασίας μεγάλης ποσότητας δεδομένων όπως το MapReduce.
Τα ερωτήματα διαστημάτων εμφανίζονται συχνά σε πραγματικές εφαρμογές. Η εργασία αυτή ασχολείται με ερωτήματα διαστημάτων σε περιβάλλοντα νεφών υπολογιστών με κορυφαία εφαρμογή τα χρονικά ερωτήματα (temporal queries). Τέτοια ερωτήματα επικεντρώνονται συνήθως στο να απαντήσουν ποια γεγονότα συνέβησαν ή συνέβαιναν κατά την διάρκεια ενός χρονικού διαστήματος. ́Ομως τα παραδοσιακά συστήματα για τη διαχείριση τέτοιου είδους ερωτημάτων δεν μπορούν να αντεπεξέλθουν στον όγκο δεδομένων που παράγονται τη σημερινή εποχή από ορισμένες εφαρμογές, με αποτέλεσμα να μην υπάρχει μία αποδοτική λύση. Για να αντιμετωπιστεί το πρόβλημα αυτό προτείνεται η χρήση συστημάτων νεφών υπολογιστών, τέτοιων που θα καταστήσουν διαχειρίσιμο αυτόν τον τεράστιο όγκο δεδομένων. Τα υπάρχοντα, όμως, έως σήμερα συστήματα νεφών υπολογιστών δεν διαθέτουν τη δυνατότητα υποστήριξης τέτοιου είδους ερωτημάτων.
Στην εργασία αυτή, αρχικά, μελετήθηκε το πρόβλημα και οι σχετικές λύσεις που είχαν προταθεί παλαιότερα, όπως πχ. τα δέντρα ευθυγράμμων τμημάτων (Segment trees). Αυτές οι δομές επιτρέπουν την απάντηση των ερωτημάτων που περιγράφονται παραπάνω με αποδοτικό τρόπο. Στη συνέχεια μελετήθηκε η δυνατότητα εφαρμογής τους σε περιβάλλοντα νεφών υπολογιστών, ενώ διερευνήθηκαν πιθανές εναλλακτικές λύσεις που θα εκμεταλλεύονται καλύτερα τις δυνατότητες που προσφέρουν τα συστήματα αυτά. Η μελέτη αυτή οδήγησε στην δημιουργία νέων δομών δεδομένων και αλγορίθμων, ή τροποποιήσεις των υπαρχόντων, που βοηθούν στην αποδοτική επίλυση του προβλήματος. Τέλος πραγματοποιήθηκε σύγκριση της απόδοσης των λύσεων και τον αλγορίθμων που προτείνονται με τις ήδη υπάρχουσες. Τα αποτελέσματα της σύγκρισης έδειξαν βελτίωση του χρόνου εκτέλεσης έως και μία τάξης μεγέθους σε μερικές περιπτώσεις. / The cloud is becoming increasingly more important for data management applications, as it can seamlessly handle huge amounts of data. New problems arise on a daily basis and can only be solved by the use of efficient and scalable applications that can process these data. Cloud key-value storage systems play a crucial role in this new field, along with systems like MapReduce that can distributedly process huge amounts of data.
One of these problems appearing often is supporting interval queries, an efficient solution for which is lacking in the field of cloud key-value stores. This thesis deals with this problem, and more specifically with the problem of temporal queries. This kind of queries try to answer what happened during a specific time range. But in recent years there has been an explosion in how much data are produced from some applications, rendering traditional systems incapable of handling them. For handling this amount of data the use of cloud key-value stores is suggested. But these systems don't have any special functionality for enabling them to answer those queries.
First, in this thesis, older solutions where studied, such as Segment Trees. These kinds of data structures can answer the queries described above in an efficient way. After that, it was studied whether these data structures can be deployed on top of cloud key-value stores, additionally other solutions were investigated that could take better advantage of these systems. Finally, the efficiency of these new methods is compared with those already existing. The comparisons results showed even an order of magnitude improvement on some occasions.
|
625 |
Cloud BI : Styrkor och svagheter i praktikenPasalic, Orhan January 2018 (has links)
Business Intelligence (BI) möjliggör bättre och effektivare beslutsfattande genom att förse beslutsfattare med relevant information vid rätt tillfälle, plats och format och har därmed möjligheten att stärka verksamheter. Idag är det svårt att hitta en framgångsrik verksamhet som inte tillämpar BI. Implementeringen och underhållningen av BI är dock kopplad till några förebyggande faktorer. Cloud Computing (CC) är en ny typ av lösning som har potentialen att åtgärda de förebyggande faktorerna som brukar hindra verksamheter från att utnyttja fördelarna hos BI. Kombinationen av BI och CC brukar kallas för Cloud BI, vilket är området som denna undersökningen berör. Styrkor och svagheter hos CC blir ärvda till Cloud BI i samband med kombinationen. Precis som BI har sina förebyggande faktorer har även Cloud BI förebyggande faktorer i form av svagheter. Verksamheter måste överväga styrkor mot svagheter innan de väljer att tillämpa Cloud BI. Under denna undersökningen genomförde författaren en litteraturgranskning och upptäckte både inkonsekvens och motsägelser angående styrkor och svagheter hos Cloud BI samt en brist på empiriska och kvalitativa studier. Författaren valde därmed att undersöka styrkor och svagheter hos Cloud BI i praktiken, genom att ta reda på hur praktiska användare i Sverige upplever Cloud BI. Användarnas upplevelser samlades in genom semi-strukturerade intervjuer och analyserades genom tematisk analys. Totalt deltog sex respondenter från fyra olika verksamheter. Resultatet visar att styrkorna som användarna upplever är (1) skalbarhet, (2) tidsbesparingar, (3) mobilitet, (4) potentiella kostnadsbesparingar, (5) inbyggd säkerhetskopiering, (6) effektivitet samt (7) tillgång till de senaste versionerna medan svagheterna som användarna upplever är (1) svårt att estimera kostnader, (2) lagstiftningsproblem, (3) leverantörsberoende, (4) kompatibilitetsproblem, (5) mognad samt (6) valmöjligheter.
|
626 |
Challenges and New Solutions for Live Migration of Virtual Machines in Cloud Computing EnvironmentsZhang, Fei 03 May 2018 (has links)
No description available.
|
627 |
Changement de contexte matériel sur FPGA, entre équipements reconfigurables et hétérogènes dans un environnement de calcul distribué / Hardware task context switch on FPGA between heterogeneous reconfigurable devices in a cloud-FPGA environmentBourge, Alban 23 November 2016 (has links)
Architectures reconfigurables dynamiquement offrent théoriquement excellent compromis entre performance et flexibilité. Pratiquement, ces architectures sont basées sur un ou plusieurs processeurs et plusieurs cellules reconfigurables. Une cellule reconfigurable peut charger, exécuter et décharger des accélérateurs matériels. Cette propriété permet la virtualisation des tâches matérielles. Dans ce contexte, une application peut prendre avantage de la flexibilité du logiciel et la performance du matériel. Dans les architectures reconfigurables actuels, les tâches matérielles sont limitées à une coopérative multi-tâches , depuis le temps de reconfiguration et l'heure de contexte stockage sont coûteux . Bien que le temps de reconfiguration est dépendante de l’architecture, le temps requis pour stocker ou restaurer le contexte dépend fortement des applications s'exécutant sur des tâches matériels. La réduction de ce temps des changements de contexte est obligatoire d'offrir à la tâche matérielle d'un multi- tâches préemptif, tout comme les tâches de logiciels. Plusieurs méthodes existent pour effectuer les opérations contexte commutateur matériel dans un contexte cellulaire homogène : chaîne de relecture dédiée sur tissus reconfigurables, des points de contrôle, de numérisation de la chaîne sur le contexte réel. Mais, rien n'a été proposé dans un contexte de tissu hétérogène (par exemple une accélération matérielle nuage fournir sur différents types de carte FPGA) .L'objectif de cette thèse est de proposer de nouvelles méthodes et algorithmes pour permettre le matériel des changements de contexte, même entre des cibles matérielles hétérogènes. Au cours de la thèse, l'étudiant devra :- Réaliser une bibliographie sur les méthodes du matériel du groupe de préemption existants dans le contexte cellulaire homogène.- Proposer des algorithmes qui permettent une solution légère et générique changement de contexte pour les tâches matérielles .- Valider ces algorithmes par leur intégration dans un flux de production d' accélérateur matériel . Ainsi, le flux prolongée peut générer, en plus de la tâche matérielle d'une application, le support matériel dédié pour des changements de contexte.- Proposer une stratégie de génération (multi- cible supplémentaire, ...) adapté pour cibles hétérogènes. La stratégie doit préserver les points de synchronisation entre les objectifs- Prototype de preuve de concepts sur la stratégie sur un nuage de FPGA. / Dynamically reconfigurable architectures offer theoretically excellent trade-off between performance and flexibility. Practically, these architectures are based on one or several processors and several reconfigurable cells. A reconfigurable cell can load, execute and unload hardware accelerators. This property enables virtualization of hardware tasks. In this context, an application can take benefit from both software flexibility and hardware performance. In current reconfigurable architectures, hardware tasks are limited to cooperative multi-tasking, since reconfiguration time and context-storing time are expensive. While reconfiguration time is architecture-dependent, the time required to store or restore the context strongly depends on applications running on hardware tasks. Reducing this context-switch time is mandatory to offer to hardware task a preemptive multi-tasking, just like software tasks. Several methods exist to perform the hardware context-switch operations in an homogeneous cell context: dedicated readback chain on reconfigurable fabrics, checkpoints, scan-chain on live context. But, nothing has been proposed in an heterogeneous fabric context (e.g. a cloud providing hardware acceleration on various kind of FPGA board).The goal of this thesis is to propose new methodologies and algorithms to enable hardware context-switch even between heterogeneous hardware targets. During the thesis, the student will have to:- Realize a bibliography on the existing hardware task preemption methods in homogeneous cell context.- Propose algorithms that enable a lightweight and generic context switch solution for hardware tasks.- Validate these algorithms by their integration in a hardware accelerator generation flow. Thus, the extended flow can generate in addition of the hardware task of an application, the dedicated hardware support for context-switch.- Propose an generation strategy (incremental, multi-target,...) suitable for heterogeneous targets. The strategy has to preserve synchronization points between targets- Prototype proof-of-concepts on the strategy on an FPGA cloud.
|
628 |
vLab: A Cloud based Resource and Service Sharing Platform for Computer and Network Security EducationJanuary 2010 (has links)
abstract: Cloud computing systems fundamentally provide access to large pools of data and computational resources through a variety of interfaces similar in spirit to existing grid and HPC resource management and programming systems. These types of systems offer a new programming target for scalable application developers and have gained popularity over the past few years. However, most cloud computing systems in operation today are proprietary and rely upon infrastructure that is invisible to the research community, or are not explicitly designed to be instrumented and modified by systems researchers. In this research, Xen Server Management API is employed to build a framework for cloud computing that implements what is commonly referred to as Infrastructure as a Service (IaaS); systems that give users the ability to run and control entire virtual machine instances deployed across a variety physical resources. The goal of this research is to develop a cloud based resource and service sharing platform for Computer network security education a.k.a Virtual Lab. / Dissertation/Thesis / M.S. Computer Science 2010
|
629 |
Energy-aware adaptation in Cloud datacentersMahadevamangalam, Srivasthav January 2018 (has links)
Context: Cloud computing is providing services and resources to customers based on pay-per-use. As the services increasing, Cloud computing using a vast number of data centers like thousands of data centers which consumes high energy. The power consumption for cooling the data centers is very high. So, recent research going on to implement the best model to reduce the energy consumption by the data centers. This process of minimizing the energy consumption can be done using dynamic Virtual Machine Consolidation (VM Consolidation) in which there will be a migration of VMs from one host to another host so that energy can be saved. 70% of energy consumption will be reduced/ saved when the host idle mode is switched to sleep mode, and this is done by migration of VM from one host to another host. There are many energy adaptive heuristics algorithms for the VM Consolidation. Host overload detection, host underload detection and VM selection using VM placement are the heuristics algorithms of VM Consolidation which results in less consumption of the energy in the data centers while meeting Quality of Service (QoS). In this thesis, we proposed new heuristic algorithms to reduce energy consumption. Objectives: The objective of this research is to provide an energy efficient model to reduce energy consumption. And proposing a new heuristics algorithms of VM Consolidationtechnique in such a way that it consumes less energy. Presenting the advantages and disadvantages of the proposed heuristics algorithms is also considered as objectives of our experiment. Methods: Literature review was performed to gain knowledge about the working and performances of existing algorithms using VM Consolidation technique. Later, we have proposed a new host overload detection, host underload detection, VM selection, and VM placement heuristic algorithms. In our work, we got 32 combinations from the host overload detection and VM selection, and two VM placement heuristic algorithms. We proposed dynamic host underload detection algorithm which is used for all the 32 combinations. The other research method chosen is experimentation, to analyze the performances of both proposed and existing algorithms using workload traces of PlanetLab. This simulation is done usingCloudSim. Results: To compare and get the results, the following parameters had been considered: Energy consumption, No. of migrations, Performance Degradation due to VM Migrations (PDM),Service Level Agreement violation Time per Active Host (SLATAH), SLA Violation (SLAV),i.e. from a combination of the PDM, SLATAH, Energy consumption and SLA Violation (ESV).We have conducted T-test and Cohen’s d effect size to measure the significant difference and effect size between algorithms respectively. For analyzing the performance, the results obtained from proposed algorithms and existing algorithm were compared. From the 32 combinations of the host overload detection and VM Selection heuristic algorithms, MADmedian_MaxR (Mean Absolute Deviation around median (MADmedian) and Maximum Requested RAM (MaxR))using Modified Worst Fit Decreasing (MWFD) VM Placement algorithm, andMADmean_MaxR (Mean Absolute Deviation around mean (MADmean), and MaximumRequested RAM (MaxR)) using Modified Second Worst Fit Decreasing (MSWFD) VM placement algorithm respectively gives the best results which consume less energy and with minimum SLA Violation. Conclusion: By analyzing the comparisons, it is concluded that proposed algorithms perform better than the existing algorithm. As our aim is to propose the better energy- efficient model using the VM Consolidation techniques to minimize the power consumption while meeting the SLAs. Hence, we proposed the energy- efficient algorithms for VM Consolidation technique and compared with the existing algorithm and proved that our proposed algorithm performs better than the other algorithm. We proposed 32 combinations of heuristics algorithms (host overload detection and VM selection) with two adaptive heuristic VM placement algorithms. We have proposed a dynamic host underload detection algorithm, and it is used for all 32 combinations. When the proposed algorithms are compared with the existing algorithm, we got 22 combinations of host overload detection and VM Selection heuristic algorithms with MWFD(Modified Worst Fit Decreasing) VM placement and 20 combinations of host overload detection and VM Selection heuristic algorithms with MSWFD (Modified Second Worst FitDecreasing) VM placement algorithm which shows the better performance than existing algorithm. Thus, our proposed heuristic algorithms give better results with minimum energy consumption with less SLA violation.
|
630 |
A comparison of energy efficient adaptation algorithms in cloud data centersPenumetsa, Swetha January 2018 (has links)
Context: In recent years, Cloud computing has gained a wide range of attention in both industry and academics as Cloud services offer pay-per-use model, due to increase in need of factors like reliability and computing results with immense growth in Cloud-based companies along with a continuous expansion of their scale. However, the rise in Cloud computing users can cause a negative impact on energy consumption in the Cloud data centers as they consume huge amount of overall energy. In order to minimize the energy consumption in virtual datacenters, researchers proposed various energy efficient resources management strategies. Virtual Machine dynamic Consolidation is one of the prominent technique and an active research area in recent time, used to improve resource utilization and minimize the electric power consumption of a data center. This technique monitors the data centers utilization, identify overloaded, and underloaded hosts then migrate few/all Virtual Machines (VMs) to other suitable hosts using Virtual Machine selection and Virtual Machine placement, and switch underloaded hosts to sleep mode. Objectives: Objective of this study is to define and implement new energy-aware heuristic algorithms to save energy consumption in Cloud data centers and show the best-resulted algorithm then compare performances of proposed heuristic algorithms with old heuristics. Methods: Initially, a literature review is conducted to identify and obtain knowledge about the adaptive heuristic algorithms proposed previously for energy-aware VM Consolidation, and find the metrics to measure the performance of heuristic algorithms. Based on this knowledge, for our thesis we have proposed 32 combinations of novel adaptive heuristics for host overload detection (8) and VM selection algorithms (4), one host underload detection and two adaptive heuristic for VM placement algorithms which helps in minimizing both energy consumption and reducing overall Service Level Agreement (SLA) violation of Cloud data center. Further, an experiment is conducted to measure the performances of all proposed heuristic algorithms. We have used the CloudSim simulation toolkit for the modeling, simulation, and implementation of proposed heuristics. We have evaluated the proposed algorithms using PlanetLab VMs real workload traces. Results: The results were measured using metrics energy consumption of data center (power model), Performance Degradation due to Migration (PDM), Service Level Agreement violation Time per Active Host (SLATAH), Service Level Agreement Violation (SLAV = PDM . SLATAH) and, Energy consumption and Service level agreement Violation (ESV). Here for all four categories of VM Consolidation, we have compared the performances of proposed heuristics with each other and presented the best heuristic algorithm proposed in each category. We have also compared the performances of proposed heuristic algorithms with existing heuristics which are identified in the literature and presented the number of newly proposed algorithms work efficiently than existing algorithms. This comparative analysis is done using T-test and Cohen's d effect size. From the comparison results of all proposed algorithms, we have concluded that Mean absolute Deviation around median (MADmedain) host overload detection algorithm equipped with Maximum requested RAM VM selection (MaxR) using Modified First Fit Decreasing VM placement (MFFD), and Standard Deviation (STD) host overload detection algorithm equipped with Maximum requested RAM VM selection (MaxR) using Modified Last Fit decreasing VM placement (MLFD) respectively performed better than other 31 combinations of proposed overload detection and VM selection heuristic algorithms, with regards to Energy consumption and Service level agreement Violation (ESV). However, from the comparative study between existing and proposed algorithms, 23 and 21 combinations of proposed host overload detection and VM selection algorithms using MFFD and MLFD VM placements respectively performed efficiently compared to existing (baseline) heuristic algorithms considered for this study. Conclusions: This thesis presents novel proposed heuristic algorithms that are useful for minimization of both energy consumption and Service Level Agreement Violation in virtual datacenters. It presents new 23 combinations of proposed host overloading detection and VM selection algorithms using MFFD VM placement and 21 combinations of proposed host overloading detection and VM selection algorithms using MLFD VM placement, which consumes the minimum amount of energy with minimal SLA violation compared to the existing algorithms. It gives scope for future researchers related to improving resource utilization and minimizing the electric power consumption of a data center. This study can be extended in further by implementing the work on other Cloud software platforms and developing much more efficient algorithms for all four categories of VM consolidation.
|
Page generated in 0.0681 seconds