• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 779
  • 217
  • 122
  • 65
  • 54
  • 34
  • 32
  • 30
  • 28
  • 21
  • 15
  • 14
  • 9
  • 9
  • 7
  • Tagged with
  • 1600
  • 1600
  • 392
  • 281
  • 244
  • 242
  • 235
  • 231
  • 231
  • 227
  • 218
  • 210
  • 176
  • 175
  • 154
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
621

Efficient Workload and Resource Management in Datacenters

Xu, Hong 13 August 2013 (has links)
This dissertation focuses on developing algorithms and systems to improve the efficiency of operating mega datacenters with hundreds of thousands of servers. In particular, it seeks to address two challenges: First, how to distribute the workload among the set of datacenters geographically deployed across the wide area? Second, how to manage the server resources of datacenters using virtualization technology? In the first part, we consider the workload management problem in geo-distributed datacenters. We first present a novel distributed workload management algorithm that jointly considers request mapping, which determines how to direct user requests to an appropriate datacenter for processing, and response routing, which decides how to select a path among the set of ISP links of a datacenter to route the response packets back to a user. In the next chapter, we study some key aspects of cost and workload in geo-distributed datacenters that have not been fully understood before. Through extensive empirical studies of climate data and cooling systems, we make a case for temperature aware workload management, where the geographical diversity of temperature and its impact on cooling energy efficiency can be used to reduce the overall cooling energy. Moreover, we advocate for holistic workload management for both interactive and batch jobs, where the delay-tolerant elastic nature of batch jobs can be exploited to further reduce the energy cost. A consistent 15% to 20% cooling energy reduction, and a 5% to 20% overall cost reduction are observed from extensive trace-driven simulations. In the second part of the thesis, we consider the resource management problem in virtualized datacenters. We design Anchor, a scalable and flexible architecture that efficiently supports a variety of resource management policies. We implement a prototype of Anchor on a small-scale in-house datacenter with 20 servers. Experimental results and trace-driven simulations show that Anchor is effective in realizing various resource management policies, and its simple algorithms are practical to solve virtual machine allocation with thousands of VMs and servers in just ten seconds.
622

Efficient Workload and Resource Management in Datacenters

Xu, Hong 13 August 2013 (has links)
This dissertation focuses on developing algorithms and systems to improve the efficiency of operating mega datacenters with hundreds of thousands of servers. In particular, it seeks to address two challenges: First, how to distribute the workload among the set of datacenters geographically deployed across the wide area? Second, how to manage the server resources of datacenters using virtualization technology? In the first part, we consider the workload management problem in geo-distributed datacenters. We first present a novel distributed workload management algorithm that jointly considers request mapping, which determines how to direct user requests to an appropriate datacenter for processing, and response routing, which decides how to select a path among the set of ISP links of a datacenter to route the response packets back to a user. In the next chapter, we study some key aspects of cost and workload in geo-distributed datacenters that have not been fully understood before. Through extensive empirical studies of climate data and cooling systems, we make a case for temperature aware workload management, where the geographical diversity of temperature and its impact on cooling energy efficiency can be used to reduce the overall cooling energy. Moreover, we advocate for holistic workload management for both interactive and batch jobs, where the delay-tolerant elastic nature of batch jobs can be exploited to further reduce the energy cost. A consistent 15% to 20% cooling energy reduction, and a 5% to 20% overall cost reduction are observed from extensive trace-driven simulations. In the second part of the thesis, we consider the resource management problem in virtualized datacenters. We design Anchor, a scalable and flexible architecture that efficiently supports a variety of resource management policies. We implement a prototype of Anchor on a small-scale in-house datacenter with 20 servers. Experimental results and trace-driven simulations show that Anchor is effective in realizing various resource management policies, and its simple algorithms are practical to solve virtual machine allocation with thousands of VMs and servers in just ten seconds.
623

Secure Schemes for Semi-Trusted Environment

Tassanaviboon, Anuchart January 2011 (has links)
In recent years, two distributed system technologies have emerged: Peer-to-Peer (P2P) and cloud computing. For the former, the computers at the edge of networks share their resources, i.e., computing power, data, and network bandwidth, and obtain resources from other peers in the same community. Although this technology enables efficiency, scalability, and availability at low cost of ownership and maintenance, peers defined as ``like each other'' are not wholly controlled by one another or by the same authority. In addition, resources and functionality in P2P systems depend on peer contribution, i.e., storing, computing, routing, etc. These specific aspects raise security concerns and attacks that many researchers try to address. Most solutions proposed by researchers rely on public-key certificates from an external Certificate Authority (CA) or a centralized Public Key Infrastructure (PKI). However, both CA and PKI are contradictory to fully decentralized P2P systems that are self-organizing and infrastructureless. To avoid this contradiction, this thesis concerns the provisioning of public-key certificates in P2P communities, which is a crucial foundation for securing P2P functionalities and applications. We create a framework, named the Self-Organizing and Self-Healing CA group (SOHCG), that can provide certificates without a centralized Trusted Third Party (TTP). In our framework, a CA group is initialized in a Content Addressable Network (CAN) by trusted bootstrap nodes and then grows to a mature state by itself. Based on our group management policies and predefined parameters, the membership in a CA group is dynamic and has a uniform distribution over the P2P community; the size of a CA group is kept to a level that balances performance and acceptable security. The muticast group over an underlying CA group is constructed to reduce communication and computation overhead from collaboration among CA members. To maintain the quality of the CA group, the honest majority of members is maintained by a Byzantine agreement algorithm, and all shares are refreshed gradually and continuously. Our CA framework has been designed to meet all design goals, being self-organizing, self-healing, scalable, resilient, and efficient. A security analysis shows that the framework enables key registration and certificate issue with resistance to external attacks, i.e., node impersonation, man-in-the-middle (MITM), Sybil, and a specific form of DoS, as well as internal attacks, i.e., CA functionality interference and CA group subversion. Cloud computing is the most recent evolution of distributed systems that enable shared resources like P2P systems. Unlike P2P systems, cloud entities are asymmetric in roles like client-server models, i.e., end-users collaborate with Cloud Service Providers (CSPs) through Web interfaces or Web portals. Cloud computing is a combination of technologies, e.g., SOA services, virtualization, grid computing, clustering, P2P overlay networks, management automation, and the Internet, etc. With these technologies, cloud computing can deliver services with specific properties: on-demand self-service, broad network access, resource pooling, rapid elasticity, measured services. However, theses core technologies have their own intrinsic vulnerabilities, so they induce specific attacks to cloud computing. Furthermore, since public clouds are a form of outsourcing, the security of users' resources must rely on CSPs' administration. This situation raises two crucial security concerns for users: locking data into a single CSP and losing control of resources. Providing inter-operations between Application Service Providers (ASPs) and untrusted cloud storage is a countermeasure that can protect users from lock-in with a vendor and losing control of their data. To meet the above challenge, this thesis proposed a new authorization scheme, named OAuth and ABE based authorization (AAuth), that is built on the OAuth standard and leverages Ciphertext-Policy Attribute Based Encryption (CP-ABE) and ElGamal-like masks to construct ABE-based tokens. The ABE-tokens can facilitate a user-centric approach, end-to-end encryption and end-to-end authorization in semi-trusted clouds. With these facilities, owners can take control of their data resting in semi-untrusted clouds and safely use services from unknown ASPs. To this end, our scheme divides the attribute universe into two disjointed sets: confined attributes defined by owners to limit the lifetime and scope of tokens and descriptive attributes defined by authority(s) to certify the characteristic of ASPs. Security analysis shows that AAuth maintains the same security level as the original CP-ABE scheme and protects users from exposing their credentials to ASP, as OAuth does. Moreover, AAuth can resist both external and internal attacks, including untrusted cloud storage. Since most cryptographic functions are delegated from owners to CSPs, AAuth gains computing power from clouds. In our extensive simulation, AAuth's greater overhead was balanced by greater security than OAuth's. Furthermore, our scheme works seamlessly with storage providers by retaining the providers' APIs in the usual way.
624

Adaptation et cloud computing : un besoin d'abstraction pour une gestion transverse

Daubert, Erwan 24 May 2013 (has links) (PDF)
Le Cloud Computing est devenu l'un des grands paradigmes de l'informatique et propose de fournir les ressources informatiques sous forme de services accessibles au travers de l'Internet. Ces services sont généralement organisés selon trois types ou niveaux. On parle de modèle SPI pour "Software, Platform, Infrastructure" en anglais. De la même façon que pour les applications ''standard'', les services de Cloud doivent être capables de s'adapter de manière autonome afin de tenir compte de l'évolution de leur environnement. À ce sujet, il existe de nombreux travaux tels que ceux concernant la consolidation de serveur et l'économie d'énergie. Mais ces travaux sont généralement spécifiques à l'un des niveaux et ne tiennent pas compte des autres. Pourtant, comme l'a affirmé Kephart et al. en 2000, même s'il existe des adaptations à priori indépendantes les unes des autres, celles-ci ont un impact sur l'ensemble du système informatique dans lequel elles sont appliquées. De ce fait, une adaptation au niveau infrastructure peut avoir un impact au niveau plate-forme ou au niveau application. L'objectif de cette thèse est de fournir un support pour l'adaptation permettant de gérer celle-ci comme une problématique transverse au différents niveaux afin d'assurer la cohérence et l'efficacité de l'adaptation. Pour cela, nous proposons une abstraction capable de représenter l'ensemble des niveaux et servant de support pour la définition des reconfigurations. Cette abstraction repose sur les techniques de modèle à l'exécution (Model at Runtime en anglais) qui propose de porter les outils utilisés à la conception pour définir, valider et appliquer une nouvelle configuration pendant l'exécution du système lui-même. Afin de montrer l'utilisabilité de cette abstraction, nous présentons trois expérimentations permettant de montrer l'extensibilité et la généricité de notre solution, de montrerque l'impact sur les performances du système est faible, et de montrer que cette abstraction permet de faire de l'adaptation multiniveaux.
625

Υπολογιστικό νέφος & ηλεκτρονικές ταυτότητες: προβλήματα ιδιωτικότητας

Καλαντζή, Ροζαλία 07 October 2011 (has links)
Η ιδιωτικότητα (privacy) είναι μια λέξη που ακούμε πολύ συχνά στις μέρες μας. Παρόλα αυτά δεν είναι εύκολο να διατυπώσει κανείς έναν αυστηρό ορισμό. Γενικά, είναι η μέριμνα ενός ατόμου ή μιας ομάδας ατόμων να προστατεύουν πληροφορίες σχετικές με αυτούς και όσες αυτοί θέλουν ή όσες επιβάλλονται από την κοινωνία ή και την πολιτεία, και έτσι να «αποκαλύπτονται» επιλεκτικά. Τα όρια και το περιεχόμενο του τι θεωρείται ιδιωτικό διαφέρει μεταξύ πολιτισμών, χωρών και διαφορετικών ατόμων, αλλά μοιράζεται βασικά κοινά θέματα. Όσο αφορά τον χώρο της Πληροφορικής, ιδιωτικότητα της πληροφορίας (information privacy) ή ιδιωτικότητα των δεδομένων (data privacy) είναι η συσχέτιση ανάμεσα στην συλλογή και διάδοση των δεδομένων, στην τεχνολογία, στην προσδοκία της κοινωνίας για ιδιωτικότητα και στα νομικά ζητήματα που περιβάλλουν όλα αυτά. Η ιδιωτικότητα αποτελεί κεντρικό θέμα στον Παγκόσμιο Ιστό (Web). Τέμνει θέματα όπως ασφάλεια (security), ταυτοποίηση (identification) και αυθεντικοποίηση (authentication). Μερικές φορές οδηγεί σε συγκρούσεις και αποτελεί μονόδρομος η εύρεση ισορροπιών. Τα προβλήματα ιδιωτικότητας επιδεινώνονται ραγδαία καθώς οι εφαρμογές «νέφους» αποτελούν μέρος της καθημερινότητας των χρηστών του Διαδικτύου και όχι απλά μια μελλοντική τεχνολογική εξέλιξη. Στα πλαίσια της παρούσας διπλωματικής εργασίας θα δώσουμε μια τελευταία εικόνα των εξελίξεων των εφαρμογών του υπολογιστικού νέφους (cloud computing) με έμφαση στις δυνητικές επιπτώσεις στην ιδιωτικότητα. Το «νέφος» αφορά στην παροχή υπολογιστικών πόρων κατά ζήτηση (on demand) μέσω του Διαδικτύου από εταιρείες παρόχους τέτοιων υπηρεσιών. Η πρόσβαση σε υπολογιστικούς πόρους γίνεται από οπουδήποτε αρκεί να υπάρχει σύνδεση στο Διαδίκτυο. Τα πλεονεκτήματα για εταιρείες και επιχειρήσεις είναι πολλά καθώς μειώνονται τα λειτουργικά τους έξοδα. Παρόλα αυτά εκκρεμεί η επίλυση ζητημάτων που αφορούν την έλλειψη προτύπων αγοράς, την ασφάλεια και την ιδιωτικότητα των χρηστών υπηρεσιών «νέφους». Σύμφωνα με πρόσφατη έρευνα σε στελέχη πληροφορικής προκύπτει πως το «νέφος» θα αποτελέσει τoν σημαντικότερο μοχλό αύξησης των εσόδων στον συγκεκριμένο τομέα τα επόμενα 3 χρόνια. Το θέμα των ηλεκτρονικών ταυτοτήτων (electronic identity card) αποκτά ιδιαίτερη σημασία στο επερχόμενο πλαίσιο σχετικά πάντοτε με την ιδιωτικότητα. Στην συνέχεια της εργασίας θα παρουσιάσουμε ορισμένες πρόσφατες εξελίξεις στις ηλεκτρονικές ταυτότητες. Οι νέου τύπου ηλεκτρονικές ταυτότητες δεν αποτελούν απλά προϊόν ψηφιοποίησης των συμβατικών ταυτοτήτων, αλλά μία πιο «έξυπνη» μορφή τους. Ενσωματώνουν δυνατότητες για online ταυτοποίηση αλλά και για υπογραφή ηλεκτρονικών εγγράφων μέσω ψηφιακών υπογραφών. Με την διάδοσή τους επαναπροσδιορίζεται το ζήτημα της προστασίας των προσωπικών δεδομένων. Προκύπτει λοιπόν πως τα κλασσικά διαπιστευτήρια που χρησιμοποιούνται συνήθως για να πιστοποιήσει κάποιος χρήστης την ταυτότητά του κατά την διάρκεια των ηλεκτρονικών του συναλλαγών, δεν προστατεύουν πλήρως την ιδιωτικότητα του. Κατά κανόνα αποκαλύπτεται η ταυτότητα του κατόχου του διαπιστευτηρίου, παρόλο που συχνά απαιτείται λιγότερη πληροφορία. Για παράδειγμα, για να ενοικιάσει κανείς ένα αυτοκίνητο αρκεί η επιβεβαίωση πως είναι ενήλικας και δεν είναι απαραίτητο να γίνει γνωστή η ακριβής ημερομηνία γέννησής του. Αντιθέτως, τα διαπιστευτήρια που βασίζονται σε χαρακτηριστικά (Attribute Based Credentials) επιτρέπουν στον κάτοχο του διαπιστευτηρίου να αποκαλύψει μόνο την ελάχιστη πληροφορία που απαιτείται, χωρίς να αποκαλύπτει την πλήρη ταυτότητά του. Αυτό ονομάζεται ελάχιστη αποκάλυψη (minimal disclosure). / Privacy is a word we hear quite often nowadays. However it is not easy to give a strict definition. Generally, it is the concern of a person or group of individuals to protect information about them and those they want or those imposed by society or the state, and thus 'revealed' selective. The boundaries and content of what is considered private differs between cultures, countries and different people, but shares basic common themes. As regards the field of Informatics, privacy of information or privacy of data is the correlation between the collection and dissemination of data, technology, society's expectations of privacy and legal issues surrounding all. The privacy is central to the Web. It intersects issues such as security, identification and authentication. Sometimes it leads to conflict and is one way to find balance. The privacy issues are rapidly deteriorating as the applications of "cloud" becoming part of everyday Internet users and not just a future technology development. As part of this thesis will give an overview of recent developments in applications of cloud computing, with emphasis on the potential impact on privacy. The "cloud" refers to the provision of computing resources on demand over the Internet from companies providing such services. To have access to computing resources from anywhere is enough to have an Internet connection. The advantages for companies and businesses are many as they reduce their operating costs. Nevertheless, is pending the resolution of issues relating to lack of market standards, security and user’s privacy of "cloud" services. According to a recent survey the "cloud" will be the main driver of revenue growth in the Informatics over the next 3 years. The issue of electronic identity cards is of particular importance in the upcoming framework of privacy. In continuing, the work will present some recent developments in electronic identity cards. The new type of electronic identity cards is not just digitize conventional identities, but are a more intuitive form. Integrate opportunities for online identification and signature for electronic documents through digital signatures. With the proliferation redefined the issue of protection of personal data. The classical credentials which are typically used to certify a user’s identity during an electronic transaction are not fully protect their privacy. Normally reveal the identity of the holder of credentials, although frequently less information is needed. For example, for someone to rent a car is sufficient to confirm that it is an adult and is not necessary to know the exact date of birth. However, the attribute based credentials allow the holder of credentials to disclose only the minimum information required (minimal disclosure), without disclosing their full identity.
626

Εφαρμογή ασύρματου δικτύου για την αντιμετώπιση έκτακτης ανάγκης

Κολιόπουλος, Κυριάκος-Άρης 15 April 2013 (has links)
Αντικείμενο της εργασίας αυτής είναι η μελέτη και κατασκευή εφαρμογής ασύρματου δικτύου με σκοπό την αναγνώριση της ανθρώπινης δραστηριότητας και τον εντοπισμό της πτώσης σε πραγματικό χρόνο, καθώς επίσης και την παρακολούθηση των αποτελεσμάτων από απομακρυσμένη τοποθεσία. Στη συγκεκριμένη εργασία σκοπός είναι η αναγνώριση των τεσσάρων βασικών καταστάσεων της ανθρώπινης φυσικής δραστηριότητας (κάθομαι, ξαπλώνω, στέκομαι, κινούμαι) και ο εντοπισμός της πτώσης με χρήση της των επιταχυνσιομέτρων που προσφέρει η πλατφόρμα SunSpot καθώς και η σύνδεση της διάταξης με το διαδίκτυο για την παροχή πληροφορίας σχετικά με την κατάσταση του κατόχου του συστήματος σε απομακρυσμένη τοποθεσία. Πραγματοποιήθηκε μελέτη σχετικά με διάφορες διατάξεις των αισθητήρων ,την συχνότητα δειγματοληψίας, τους αλγορίθμους κατάταξης καθώς και για τις μεθόδους διάθεσης της πληροφορίας στο διαδίκτυο. Για την αναγνώριση των καταστάσεων και τον εντοπισμό της πτώσης χρησιμοποιήθηκαν δυο πλατφόρμες αισθητήρων SunSPOT, μια στο στήθος (master) και μια στο δεξιό τετρακέφαλο (slave) / A wearable wireless sensor network application performing human activity recognition and fall detection using the Naïve Bayesian Classifier algorithm in the SunSpot Platform accompanied by a web application in the Google App Engine platform to be able to monitor the classification results from a remote location and to automatically notify via e-mail in case of emergency.
627

Ερωτήματα διαστημάτων σε περιβάλλοντα νεφών υπολογιστών

Σφακιανάκης, Γεώργιος 04 February 2014 (has links)
Τα νέφη υπολογιστών γίνονται ολοένα και πιο σημαντικά για εφαρμογές διαχείρισης δεδομένων, λόγω της δυνατότητας που προσφέρουν για διαχείριση πολύ μεγάλου όγκου δεδομένων. Καθημερινά προκύπτουν νέα προβλήματα, που η λύση τους απαιτεί αποδοτικές και κλιμακώσιμες εφαρμογές για την επεξεργασία αυτού του τεράστιου όγκου πληροφορίας. Κεντρικό ρόλο σε αυτόν τον τομέα κατέχουν τα συστήματα αποθήκευσης κλειδιού-τιμής σε νέφη υπολογιστών (cloud key-value stores), καθώς και συστήματα παράλληλης επεξεργασίας μεγάλης ποσότητας δεδομένων όπως το MapReduce. Τα ερωτήματα διαστημάτων εμφανίζονται συχνά σε πραγματικές εφαρμογές. Η εργασία αυτή ασχολείται με ερωτήματα διαστημάτων σε περιβάλλοντα νεφών υπολογιστών με κορυφαία εφαρμογή τα χρονικά ερωτήματα (temporal queries). Τέτοια ερωτήματα επικεντρώνονται συνήθως στο να απαντήσουν ποια γεγονότα συνέβησαν ή συνέβαιναν κατά την διάρκεια ενός χρονικού διαστήματος. ́Ομως τα παραδοσιακά συστήματα για τη διαχείριση τέτοιου είδους ερωτημάτων δεν μπορούν να αντεπεξέλθουν στον όγκο δεδομένων που παράγονται τη σημερινή εποχή από ορισμένες εφαρμογές, με αποτέλεσμα να μην υπάρχει μία αποδοτική λύση. Για να αντιμετωπιστεί το πρόβλημα αυτό προτείνεται η χρήση συστημάτων νεφών υπολογιστών, τέτοιων που θα καταστήσουν διαχειρίσιμο αυτόν τον τεράστιο όγκο δεδομένων. Τα υπάρχοντα, όμως, έως σήμερα συστήματα νεφών υπολογιστών δεν διαθέτουν τη δυνατότητα υποστήριξης τέτοιου είδους ερωτημάτων. Στην εργασία αυτή, αρχικά, μελετήθηκε το πρόβλημα και οι σχετικές λύσεις που είχαν προταθεί παλαιότερα, όπως πχ. τα δέντρα ευθυγράμμων τμημάτων (Segment trees). Αυτές οι δομές επιτρέπουν την απάντηση των ερωτημάτων που περιγράφονται παραπάνω με αποδοτικό τρόπο. Στη συνέχεια μελετήθηκε η δυνατότητα εφαρμογής τους σε περιβάλλοντα νεφών υπολογιστών, ενώ διερευνήθηκαν πιθανές εναλλακτικές λύσεις που θα εκμεταλλεύονται καλύτερα τις δυνατότητες που προσφέρουν τα συστήματα αυτά. Η μελέτη αυτή οδήγησε στην δημιουργία νέων δομών δεδομένων και αλγορίθμων, ή τροποποιήσεις των υπαρχόντων, που βοηθούν στην αποδοτική επίλυση του προβλήματος. Τέλος πραγματοποιήθηκε σύγκριση της απόδοσης των λύσεων και τον αλγορίθμων που προτείνονται με τις ήδη υπάρχουσες. Τα αποτελέσματα της σύγκρισης έδειξαν βελτίωση του χρόνου εκτέλεσης έως και μία τάξης μεγέθους σε μερικές περιπτώσεις. / The cloud is becoming increasingly more important for data management applications, as it can seamlessly handle huge amounts of data. New problems arise on a daily basis and can only be solved by the use of efficient and scalable applications that can process these data. Cloud key-value storage systems play a crucial role in this new field, along with systems like MapReduce that can distributedly process huge amounts of data. One of these problems appearing often is supporting interval queries, an efficient solution for which is lacking in the field of cloud key-value stores. This thesis deals with this problem, and more specifically with the problem of temporal queries. This kind of queries try to answer what happened during a specific time range. But in recent years there has been an explosion in how much data are produced from some applications, rendering traditional systems incapable of handling them. For handling this amount of data the use of cloud key-value stores is suggested. But these systems don't have any special functionality for enabling them to answer those queries. First, in this thesis, older solutions where studied, such as Segment Trees. These kinds of data structures can answer the queries described above in an efficient way. After that, it was studied whether these data structures can be deployed on top of cloud key-value stores, additionally other solutions were investigated that could take better advantage of these systems. Finally, the efficiency of these new methods is compared with those already existing. The comparisons results showed even an order of magnitude improvement on some occasions.
628

Cloud BI : Styrkor och svagheter i praktiken

Pasalic, Orhan January 2018 (has links)
Business Intelligence (BI) möjliggör bättre och effektivare beslutsfattande genom att förse beslutsfattare med relevant information vid rätt tillfälle, plats och format och har därmed möjligheten att stärka verksamheter. Idag är det svårt att hitta en framgångsrik verksamhet som inte tillämpar BI. Implementeringen och underhållningen av BI är dock kopplad till några förebyggande faktorer. Cloud Computing (CC) är en ny typ av lösning som har potentialen att åtgärda de förebyggande faktorerna som brukar hindra verksamheter från att utnyttja fördelarna hos BI. Kombinationen av BI och CC brukar kallas för Cloud BI, vilket är området som denna undersökningen berör. Styrkor och svagheter hos CC blir ärvda till Cloud BI i samband med kombinationen. Precis som BI har sina förebyggande faktorer har även Cloud BI förebyggande faktorer i form av svagheter. Verksamheter måste överväga styrkor mot svagheter innan de väljer att tillämpa Cloud BI. Under denna undersökningen genomförde författaren en litteraturgranskning och upptäckte både inkonsekvens och motsägelser angående styrkor och svagheter hos Cloud BI samt en brist på empiriska och kvalitativa studier. Författaren valde därmed att undersöka styrkor och svagheter hos Cloud BI i praktiken, genom att ta reda på hur praktiska användare i Sverige upplever Cloud BI. Användarnas upplevelser samlades in genom semi-strukturerade intervjuer och analyserades genom tematisk analys. Totalt deltog sex respondenter från fyra olika verksamheter. Resultatet visar att styrkorna som användarna upplever är (1) skalbarhet, (2) tidsbesparingar, (3) mobilitet, (4) potentiella kostnadsbesparingar, (5) inbyggd säkerhetskopiering, (6) effektivitet samt (7) tillgång till de senaste versionerna medan svagheterna som användarna upplever är (1) svårt att estimera kostnader, (2) lagstiftningsproblem, (3) leverantörsberoende, (4) kompatibilitetsproblem, (5) mognad samt (6) valmöjligheter.
629

Challenges and New Solutions for Live Migration of Virtual Machines in Cloud Computing Environments

Zhang, Fei 03 May 2018 (has links)
No description available.
630

Changement de contexte matériel sur FPGA, entre équipements reconfigurables et hétérogènes dans un environnement de calcul distribué / Hardware task context switch on FPGA between heterogeneous reconfigurable devices in a cloud-FPGA environment

Bourge, Alban 23 November 2016 (has links)
Architectures reconfigurables dynamiquement offrent théoriquement excellent compromis entre performance et flexibilité. Pratiquement, ces architectures sont basées sur un ou plusieurs processeurs et plusieurs cellules reconfigurables. Une cellule reconfigurable peut charger, exécuter et décharger des accélérateurs matériels. Cette propriété permet la virtualisation des tâches matérielles. Dans ce contexte, une application peut prendre avantage de la flexibilité du logiciel et la performance du matériel. Dans les architectures reconfigurables actuels, les tâches matérielles sont limitées à une coopérative multi-tâches , depuis le temps de reconfiguration et l'heure de contexte stockage sont coûteux . Bien que le temps de reconfiguration est dépendante de l’architecture, le temps requis pour stocker ou restaurer le contexte dépend fortement des applications s'exécutant sur des tâches matériels. La réduction de ce temps des changements de contexte est obligatoire d'offrir à la tâche matérielle d'un multi- tâches préemptif, tout comme les tâches de logiciels. Plusieurs méthodes existent pour effectuer les opérations contexte commutateur matériel dans un contexte cellulaire homogène : chaîne de relecture dédiée sur tissus reconfigurables, des points de contrôle, de numérisation de la chaîne sur le contexte réel. Mais, rien n'a été proposé dans un contexte de tissu hétérogène (par exemple une accélération matérielle nuage fournir sur différents types de carte FPGA) .L'objectif de cette thèse est de proposer de nouvelles méthodes et algorithmes pour permettre le matériel des changements de contexte, même entre des cibles matérielles hétérogènes. Au cours de la thèse, l'étudiant devra :- Réaliser une bibliographie sur les méthodes du matériel du groupe de préemption existants dans le contexte cellulaire homogène.- Proposer des algorithmes qui permettent une solution légère et générique changement de contexte pour les tâches matérielles .- Valider ces algorithmes par leur intégration dans un flux de production d' accélérateur matériel . Ainsi, le flux prolongée peut générer, en plus de la tâche matérielle d'une application, le support matériel dédié pour des changements de contexte.- Proposer une stratégie de génération (multi- cible supplémentaire, ...) adapté pour cibles hétérogènes. La stratégie doit préserver les points de synchronisation entre les objectifs- Prototype de preuve de concepts sur la stratégie sur un nuage de FPGA. / Dynamically reconfigurable architectures offer theoretically excellent trade-off between performance and flexibility. Practically, these architectures are based on one or several processors and several reconfigurable cells. A reconfigurable cell can load, execute and unload hardware accelerators. This property enables virtualization of hardware tasks. In this context, an application can take benefit from both software flexibility and hardware performance. In current reconfigurable architectures, hardware tasks are limited to cooperative multi-tasking, since reconfiguration time and context-storing time are expensive. While reconfiguration time is architecture-dependent, the time required to store or restore the context strongly depends on applications running on hardware tasks. Reducing this context-switch time is mandatory to offer to hardware task a preemptive multi-tasking, just like software tasks. Several methods exist to perform the hardware context-switch operations in an homogeneous cell context: dedicated readback chain on reconfigurable fabrics, checkpoints, scan-chain on live context. But, nothing has been proposed in an heterogeneous fabric context (e.g. a cloud providing hardware acceleration on various kind of FPGA board).The goal of this thesis is to propose new methodologies and algorithms to enable hardware context-switch even between heterogeneous hardware targets. During the thesis, the student will have to:- Realize a bibliography on the existing hardware task preemption methods in homogeneous cell context.- Propose algorithms that enable a lightweight and generic context switch solution for hardware tasks.- Validate these algorithms by their integration in a hardware accelerator generation flow. Thus, the extended flow can generate in addition of the hardware task of an application, the dedicated hardware support for context-switch.- Propose an generation strategy (incremental, multi-target,...) suitable for heterogeneous targets. The strategy has to preserve synchronization points between targets- Prototype proof-of-concepts on the strategy on an FPGA cloud.

Page generated in 0.0723 seconds