• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 6
  • 4
  • Tagged with
  • 17
  • 17
  • 16
  • 13
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Spécification et analyse formelles des politiques de sécurité dans un processus de courtage de l'informatique en nuage / Formal specification and analysis of security policies in a cloud brokerage process

Guesmi, Asma 01 July 2016 (has links)
Les offres de l’informatique en nuage augmentent de plus en plus et les clients ne sont pas capables de lescomparer afin de choisir la plus adaptée à leurs besoins. De plus, les garanties de sécurité proposées parles fournisseurs restent incompréhensibles pour les clients. Cela représente un frein pour l'adoption dessolutions de l’informatique en nuage.Dans cette thèse, nous proposons un mécanisme de courtage des services de l’informatique en nuage quiprend en compte les besoins du client en termes de sécurité.Les besoins exprimés par le client sont de deux natures. Les besoins fonctionnels représentent lesressources et leurs performances. Les besoins non-fonctionnels représentent les propriétés de sécurité etles contraintes de placement des ressources dans le nuage informatique. Nous utilisons le langage Alloypour décrire les offres et les besoins. Nous utilisons l'analyseur Alloy pour l'analyse et la vérification desspécifications du client. Le courtier sélectionne les fournisseurs qui satisfont les besoins fonctionnels et nonfonctionnelsdu client. Il vérifie ensuite, que la configuration du placement des ressources chez lesfournisseurs respecte toutes les propriétés de sécurité exigées par le client.Toutes ces démarches sont effectuées avant le déploiement des ressources dans le nuage informatique.Cela permet de détecter les erreurs et conflits des besoins du client tôt. Ainsi, on réduit les vulnérabilités desressources du client une fois déployées. / The number of cloud offerings increases rapidly. Therefore, it is difficult for clients to select the adequate cloud providers which fit their needs. In this thesis, we introduce a cloud service brokerage mechanism that considers the client security requirements. We consider two types of the client requirements. The amount of resources is represented by the functional requirements. The non-functional requirements consist on security properties and placement constraints. The requirements and the offers are specified using the Alloy language. To eliminate inner conflicts within customers requirements, and to match the cloud providers offers with these customers requirements, we use a formal analysis tool: Alloy. The broker uses a matching algorithm to place the required resources in the adequate cloud providers, in a way that fulfills all customer requirements, including security properties. The broker checks that the placement configuration ensures all the security requirements. All these steps are done before the resources deployment in the cloud computing. This allows to detect the conflicts and errors in the clients requirements, thus resources vulnerabilities can be avoided after the deployment.
12

Approche prédictive de l'efficacité énergétique dans les Clouds Datacenters / Predictive approach of power efficiency into Clouds Datacenters

Gbaguidi, Fréjus A. Roméo 22 December 2017 (has links)
Avec la démocratisation des technologies du numérique, la construction d'un cyberespace globalisé s'est faite insidieusement, transformant littéralement notre mode de vie et notre vécu quotidien. Faire communiquer plus de 4 milliards d'individus à une vitesse devenue incontrôlable, nécessite l'invention de nouveaux concepts pour la production des services informatiques capable de s'adapter à ce défis. Le Cloud Computing, dans cette optique permet de fournir à travers des Datacenters, une partie ou la totalité des composants nécessaires aux entreprises pour la délivrance de leurs services dans les délais et avec des performances conformes aux exigences de leurs clients. Dès lors, la prolifération conséquente des Datacenters aux quatre coins du monde a mis au jour la préoccupante question de la quantité d'énergie nécessaire pour leur fonctionnement et la difficulté qui en résulte pour l'humanité dont les réserves actuelles ne sont pas extensibles à l'infini. Ainsi, il est apparu nécessaire de développer des techniques permettant de réduire la consommation électrique des Datacenters en minimisant les pertes d'énergie orchestrées sur les serveurs dont le moindre watt gaspillé entraine par effet de cascade une augmentation substantielle de la facture globale des Datacenters. Notre travail a consisté à faire dans un premier temps une revue de la littérature sur le sujet, puis de tester la capacité de quelques outils de prédiction à améliorer l'anticipation des risques de pertes d'énergie engendrer par la mauvaise allocation des machines virtuelles sur les serveurs. Cette étude s'est focalisée notamment sur les outil ARMA et les réseaux de neurones qui dans la littérature ont produit des résultats intéressants dans des domaines proches. Après cette étape, il nous est apparu que les outils ARMA bien qu'ayant des performances inférieures aux réseaux de neurones dans notre contexte, s'exécute dans plus rapidement et sont les plus adaptés pour être implémenter dans les environnements de Cloud Computing. Ainsi, nous avons utilisé les résultats de cette méthode pour améliorer le processus de prise de décision, notamment pour la re-allocation proactive des machines virtuelles avant qu'il n'entraine des sous-consommations des ressources sur les serveurs physiques ou des surconsommation pouvant induire des violations des accords de niveaux de service. Cette démarche a permis sur la base de nos simulations de réduire de plus de 5Kwh la consommation d'énergie dans une ferme de 800 serveurs et sur une durée d'une journée. Ce gain pourrait se révéler important lorsque l'on considère la taille énorme des datacenters modernes et que l'on se projette dans une durée relativement longue. Il serait encore plus intéressant d'approfondir cette recherche afin de généraliser l'intégration de cette approche prédictive dans les techniques existantes afin d'optimiser de façon significative les consommations d'énergie au sein des Datacenters tout en préservant les performances et la qualité de service indispensable dans le concept de Cloud Computing. / With the democratization of digital technologies, the construction of a globalized cyberspace insidiously transforms our lifestyle. Connect more than 4 billion people at high speed, requires the invention of new concept of service provision and trafic management that are capable to face the challenges. For that purpose, Cloud Computing have been set up to enable Datacenters to provide part or total IT components needed by companies for timely services delivering with performance that meets the requirements of their clients. Consequently, the proliferation of Datacenters around the world has brought to light the worrying question about the amount of energy needed for their function and the resulting difficulty for the humanity, whose current reserves are not extensible indefinitely. It was therefore necessary to develop techniques that reduce the power consumption of Datacenters by minimizing the energy losses orchestrated on servers where each wasted watt results in a chain effect on a substantial increase in the overall bill of Datacenters. Our work consisted first in making a review of the literature on the subject and then testing the ability of some prediction tools to improve the anticipation of the risks of energy loss caused by the misallocation of virtual equipment on servers. This study focused particularly on the ARMA tools and neural networks which in the literature have produced interesting results in related fields. After this step, it appeared to us that ARMA tools, although having less performance than neural networks in our context, runs faster and are best suited to be implemented in cloud computing environments. Thus, we used the results of this method to improve the decision-making process, notably for the proactive re-allocation of virtual equipment before it leads to under-consumption of resources on physical servers or over-consumption inducing breaches of SLAs. Based on our simulations, this approach enabled us to reduce energy consumption on a firm of 800 servers over a period of one day by more than 5Kwh. This gain could be significant when considering the enormous size of modern data centers and projected over a relatively long period of time. It would be even more interesting to deepen this research in order to generalize the integration of this predictive approach into existing techniques in order to significantly optimize the energy consumption within Datacenters while preserving performance and quality of service which are key requirements in the concept of Cloud Computing
13

Méthodologie de provisionnement automatique d’applications métier orientées service sur les environnements cloud / Method for automated provisioning of service-oriented cloud business applications

Benfenatki, Hind 07 December 2016 (has links)
Le développement orienté-service et le cloud computing offrent beaucoup d'opportunités au développement et au déploiement d'applications. En effet, le développement orienté-service permet de composer des fonctionnalités issues de services distribués, développés par différentes organisations. D'un autre côté, le cloud computing permet de provisionner des environnements évolutifs (en fonction du besoin en ressources) de développement et de déploiement, à la demande. Dans ce travail de recherche, nous proposons et décrivons une méthode de provisonnement automatique d'applications métier, orientées-service sur le cloud. Nous avons appelé cette méthode MADONA (Method for AutomateD prOvisioning of service-oriented busiNess Applications). MADONA couvre le cycle de vie de provisionnement d'applications et est basée sur un orchestrateur de services pour la gestion de la configuration, du déploiement, et de la composition de services métier.Dans ce travail, nous visons à réduire les connaissances techniques nécessaires au provisionnement d'applications métier. Pour ce faire, nous apportons trois contributions majeures. Premièrement, l'automatisation de ce provisionnement. En effet, les phases de MADONA sont complètement automatisées. L'utilisateur n'intervient que pour exprimer son besoin et pour utiliser l'application métier automatiquement générée (par la composition de services métier) et déployée sur une IaaS présélectionnée. Deuxièmement, l'enrichissement de la description des services par des concepts liés aux relations d'un service. En effet, les langages de description de services décrivent le plus souvent ces derniers comme des entités isolées et ne considèrent pas les relations entre services. Nous avons défini dans ce travail les relations de composition qui décrivent pour chaque service métier les services nécessaires à son bon fonctionnement, et les services avec lesquels il peut être composé.Troisièmement, nous permettons à l'utilisateur d'exprimer son besoin à un haut niveau d'abstraction des détails techniques de composition et de déploiement. Nous avons pour cela défini un vocabulaire pour formaliser ces besoins fonctionnels (en termes de mots clés décrivant les fonctionnalités désirées, ou de noms de services désirés) et non fonctionnels (en termes de coût, de préférences de déploiement (ex : localisation de déploiement), et de qualité de service). La méthode a été prototypée et testée suivant plusieurs scénarios montrant sa faisabilité / Service-oriented computing and cloud computing offer many opportunities for developing and deploying applications. In fact, service-oriented computing allows to compose several functionalities from distributed services developed by different organizations. On the other hand, cloud computing allows to provision on demand scalable development and deployment environments. In this resarch work, we propose and describe a Method for AutomateD prOvisioning of service-oriented cloud busiNess Applications (MADONA). The method covers the whole application’s lifecycle and is based on cloud orchestration tools that manage the deployment and dependencies of supplied components. This research work aims to reduce the necessary technical knowledge for provisioning service-oriented cloud applications. To this end, we bring three major contributions. Firstly, we automatise the whole application provisioning. In fact, MADONA phases are fully automated. The user intervenes only in requirement elicitation and when the application is deployed and ready to use. The business application is automatically generated (by composing business services) and deployed in an automatically preselected IaaS. Secondly, we enrich the description of services by integrating concepts describing services’ interactions. In fact, service description languages usually describe services as isolated components and does not consider the interactions between services. We define in this work, composition interactions which describe for each business service, its necessary services and the services with which it can be composed. Thirdly, we allow the user to express her requirements abstracting composition and deployment technical details. To this end, we defined a RequIrement VocAbuLary (RIVAL) to formalize user’s functional (in terms of keywords describing the desired functionalities, or names of desired services) and non-functional requirements (in terms of cost, deployment preferences (ex. preferred location), and quality of service). The method has been implemented and tested showing its faisability
14

Δυναμική ανάθεση υπολογιστικών πόρων και συ-ντονισμός εκτέλεσης πολύπλοκων διαδικασιών ανάλυσης δεδομένων σε υποδομή Cloud / Dynamic allocation of computational resources and workflow orchestration for data analysis in the Cloud

Σφήκα, Νίκη 10 June 2015 (has links)
Το Υπολογιστικό Νέφος (Cloud Computing) χαρακτηρίζεται ως το νέο μοντέλο ανάπτυξης λογισμικού και παροχής υπηρεσιών στον τομέα των Τεχνολογιών Πληροφορικής και Επικοινωνιών. Τα κύρια χαρακτηριστικά του είναι η κατά απαίτηση διάθεση υπολογιστικών πόρων, η απομακρυσμένη πρόσβαση σε αυτούς μέσω διαδικτύου και η ευελιξία των παρεχόμενων υπηρεσιών. Η ευελιξία επιτρέπει την αναβάθμιση ή υποβάθμιση των υπολογιστικών πόρων σύμφωνα με τις απαιτήσεις του τελικού χρήστη. Επιπλέον, η συνεχής αύξηση του μεγέθους της παραγόμενης από διάφορες πηγές πληροφορίας (διαδίκτυο, επιστημονικά πειράματα) έχει δημιουργήσει μία τεράστια ποσότητα πολύπλοκων και διάχυτων ψηφιακών δεδομένων . Η απόσπαση χρήσιμης γνώσης από μεγάλου όγκου ψηφιακά δεδομένα απαιτεί έξυπνες και ευκόλως επεκτάσιμες υπηρεσίες ανάλυσης, εργαλεία προγραμματισμού και εφαρμογές. Επομένως, η δυνατότητα της ελαστικότητας και της επεκτασιμότητας έχει κάνει το Υ-πολογιστικό Νέφος να είναι μια αναδυόμενη τεχνολογία αναφορικά με τις αναλύσεις μεγάλου όγκου δεδομένων οι οποίες απαιτούν παραλληλισμό, πολύπλοκες ροές ανάλυσης και υψηλό υπολογιστικό φόρτο εργασίας. Για την καλύτερη δυνατή διαχείριση πολύπλοκων αναλύσεων και ενορχήστρωση των απαιτούμενων διαδικασιών, είναι απαραίτητη η ένθεση ροών εργασιών. Μια ροή εργασίας είναι ένα οργανωμένο σύνολο ενεργειών που πρέπει να πραγματοποιηθούν για να επιτευχθεί μια εμπορική ή ερευνητική διεργασία, καθώς και οι μεταξύ τους εξαρτήσεις αφού κάθε ενέργεια αποτελείται από ορισμένα βήματα που πρέπει να εκτελεστούν σε συγκεκριμένη σειρά. Στην παρούσα μεταπτυχιακή διπλωματική εργασία δημιουργήθηκε ένα σύστημα για τη δυναμική διαχείριση των προσφερόμενων πόρων σε μια υποδομή Υπολογιστικού Νέφους και την εκτέλεση κατανεμημένων υλοποιήσεων υπολογιστικής ανάλυσης δεδομένων. Συγκεκριμένα, η εφαρμογή, αφού λάβει από το χρήστη τα δεδομένα εισόδου για την έναρξη μιας νέας διαδικασίας ανάλυσης, εξετάζει τα δεδομένα των επιστημονικών προβλημάτων καθώς και την πολυπλοκότητά τους και παρέχει δυναμικά και αυτόματα τους αντίστοιχους υπολογιστικούς πόρους για την εκτέλεση της αντίστοιχης λειτουργίας ανάλυσής τους. Επίσης, επιτρέπει την καταγραφή της ανάλυσης και αναθέτει τον συντονισμό της διαδικασίας σε αντίστοιχες ροές εργασιών ώστε να διευκολυνθεί η ενορχήστρωση των παρεχόμενων πόρων και η παρακολούθηση της εκτέλεσης της υπολογιστικής διαδικασίας. Η συγκεκριμένη μεταπτυχιακή εργασία, με τη χρήση τόσο των παρεχόμενων υπηρεσιών μιας υποδομής Υπολογιστικού Νέφους όσο και των δυνατοτήτων που παρέχουν οι ροές εργασιών στην διαχείριση των εργασιών, έχει σαν αποτέλεσμα να απλουστεύει την πρόσβαση, τον έλεγχο, την οργάνωση και την εκτέλεση πολύπλοκων και παράλληλων υλοποιήσεων ανάλυσης δεδομένων από την στιγμή εισαγωγής των δεδομένων από το χρήστη έως τον υπολογισμό του τελικού αποτελέσματος. Πιο αναλυτικά η διπλωματική εργασία επικεντρώθηκε στη πρόταση μιας ολοκληρωμένης λύσης για: 1. τη παροχή μιας εφαρμογής στην οποία ο χρήστης θα έχει τη δυνατότητα να εισάγεται και να ξεκινά μια σύνθετη ανάλυση δεδομένων, 2. τη δημιουργία της κατάλληλης υποδομής για τη δυναμική διάθεση πόρων από μια cloud υποδομή ανάλογα με τις ανάγκες του εκάστοτε προβλήματος και 3. την αυτοματοποιημένη εκτέλεση και συντονισμό της διαδικασίας της ανάλυσης με χρήση ροών εργασιών. Για την επικύρωση και αξιολόγηση της εφαρμογής, αναπτύχθηκε η πλατφόρμα IRaaS η οποία παρέχει στους χρήστες του τη δυνατότητα επίλυσης προβλημάτων πολλαπλών πεδίων / πολλαπλών φυσικών. Η πλατφόρμα IRaaS βασίστηκε πάνω στην προαναφερόμενη εφαρμογή για τη δυναμική ανάθεση υπολογιστικών πόρων και συντονισμός εκτέλεσης πολύπλοκων διαδικασιών ανάλυσης δεδομένων. Εκτελώντας μια σειρά αναλύσεων παρατηρήθηκε ότι η συγκεκριμένη εφαρμογή παρέχει καλύτερους χρόνους εκτέλεσης, μικρότερη δέσμευση υπολογιστικών πόρων και κατά συνέπεια μικρότερο κόστος για τις αναλύσεις. Η εγκατάσταση της πλατφόρμας IRaaS για την εκτέλεση των πειραμάτων έγινε στην υποδομή Υπολογιστικού Νέφους του εργαστηρίου Αναγνώρισης Προτύπων. Η υποδομή βασίστηκε στα λογισμικά XenServer και Cloudstack, τα οποία εγκαταστάθηκαν και παραμετροποιήθηκαν στα πλαίσια της παρούσας εργασίας. / Cloud Computing is the new software development and service providing model in the area of Information and Communication Technologies. The main aspects of Cloud Computing are the on-demand allocation of computational resources, the remote access to the latter via the Internet and the elasticity of the provided services. Elasticity provides the capability to scale the computational resources depending on the computational needs. The continuous proliferation of data warehouses, webpages, audio and video streams, tweets, and blogs is generating a massive amount of complex and pervasive digital data. Extracting useful knowledge from huge digital datasets requires smart and scalable analytics services, programming tools, and applications. Due to the aspects of elasticity and scalability, Cloud Computing has become an emerging technology regarding to big data analysis, which demands parallelization, complex workflow analysis and massive computational workload. In this respect, workflows have an important role in managing complex flows and orchestrating the required processes. A workflow is an orchestrated set of activities that are necessary in order to complete a commercial or scientific task, as well as any dependencies between these tasks, since each one of them can be further decomposed into finer tasks that need to be executed in a predefined order. In this thesis, a system is presented that dynamically allocates the available resources provided by a cloud infrastructure and orchestrates the execution of complex and distrib-uted data analysis on these allocated resources. In particular, the system calculates the required computational resources (memory and CPU) based on the size of the input data and on the available resources of the cloud infrastructure, concluding to allocate dynamically the most suitable resources. . Moreover, the application offers the ability to coordinate the distributed analysis process utilising workflows for the orchestration and monitoring of the different tasks of the computational flow execution. Taking advantage of the services provided by a cloud infrastructure as well as the functionality of workflows in task management, this thesis has resulted in simplifying access, control, coordination and execution of complex and parallel data analysis implementations from the moment that a user enters a set of input data to the computation of the final result. In this context, this thesis focuses on a comprehensive and integrated solution that: 1. provides an application, through which the user is able to log in and start a complex data analysis, 2. offers the necessary infrastructure for dynamically allocating the cloud resources of, based on the needs of the particular problem, and 3. executes and coordinates the analysis process automatically by leveraging workflows. In order to validate and evaluate the application, the IRaaS platform was developed, offering the ability of solving multi-domain/multi-physics problems. The IRaaS platform is based on the aforementioned system in order to enable the dynamic allocation of computational resources and to coordinate the execution of complex data analysis processes. By executing a series of experiments with different input data, we observed that the presented application resulted in improved execution times, better allocation of computational resources and, thus, lower cost. In order to perform experiments, the IRaaS platform was set up on the cloud infrastructure of Pattern Recognition laboratory. In the context of this thesis, a new infrastructure has been installed and parameterized based on XenServer as virtualization hypervisor and CloudStack platform for the creation of a private cloud infrastructure.
15

De la business intelligence interne vers la business intelligence dans le cloud : modèles et apports méthodologiques / From internal business intelligence to business intelligence on the cloud : models and methodological contributions

Sangupamba Mwilu, Odette 03 April 2018 (has links)
La BI et le cloud computing sont deux grands sujets de recherche en informatique et en système d’information en particulier. Une recherche combinant ces deux concepts est d'un intérêt double : D’une part, dans les entreprises, la BI devient de plus en plus une partie importante du système d'information qui nécessite des investissements en termes de performances de calcul et des volumes de données. D’autre part, le cloud computing offre de nouvelles opportunités pour gérer les données à des fins d’analyse.Etant donné les possibilités de cloud, la question de la migration de l'ensemble du système d’information y compris la BI est d'un grand intérêt. En particulier, les chercheurs doivent fournir aux professionnels des modèles et des méthodes qui puissent les aider à migrer vers le cloud.Que faire pour que la BI puisse fournir aux managers un service de mise à disposition de données d’analyse au travers du cloud ? La question de recherche est : Comment aider les organisations à migrer leur BI vers le cloud ?Dans cette thèse, nous répondons à cette question en utilisant l'approche science de conception (design science). Nous mettons en place une aide à la décision de la migration de la BI vers le cloud qui s'appuie sur les taxonomies. Nous proposons un modèle de guidage opérationnel qui est instancié par une taxonomie de la BI dans le cloud et dont découlent les règles pour la migration de la BI vers le cloud. / BI and cloud computing are two major areas of computer science research and in particular in information system. A research combining these two concepts has a double interest : On the one hand, in business, the BI becomes increasingly an important part of the information system which requires investment in terms of computing performance and data volumes. On the other hand, cloud computing offers new opportunities to manage data for analysis.Given the possibilities of cloud, migration question of the information system including BI is of great interest. In particular, researchers must provide models and methods to help professional in BI migration to the cloud.The research question is : how to migrate BI to the cloud?In this thesis, we address this issue using design science research approach. We implement a decision-making help for BI migration to the cloud based on taxonomies. We provide an operational guidance model that is instantiated by a BI taxonomy in the cloud and from that rules for BI migration to the cloud are arised.
16

Security and Trust in Mobile Cloud Computing / La sécurité et la confiance pour le Cloud computing mobile

Le Vinh, Thinh 14 December 2017 (has links)
Nous vivons aujourd’hui dans l'ère cybernétique où de nouvelles technologies naissent chaque jour avec la promesse de rendre la vie humaine plus confortable, pratique et sûre. Parmi ces nouvelles technologies, l'informatique mobile se développe en influençant la vie de l’utilisateur. En effet, les plates-formes mobiles (smartphone, tablette) sont devenues les meilleurs compagnons de l’utilisateur pour mener à bien ses activités quotidiennes, comme les activités commerciales ou de divertissement. En jouant ces rôles importants, les plates-formes mobiles doivent opérer dans des environnements de confiance. Dans cette thèse, nous étudions la sécurité des plates-formes mobiles en passant d’un niveau de sécurité primitif qui s’appuie sur les plates-formes de confiance, à un niveau plus sophistiqué qui se base sur de l’intelligence bio-inspirée. Plus précisément, après avoir abordé les défis du cloud computing mobile (MCC), nous développons une étude de cas appelée Droplock pour le cloud mobile et nous étudions son efficacité énergétique et ses performances pour illustrer le modèle MCC. En outre, en s’appuyant sur les plates-formes de confiance (comme les TPM), nous avons introduit un nouveau schéma d'attestation à distance pour sécuriser les plates-formes mobiles dans le contexte du cloud mobile. Pour améliorer le niveau de sécurité et être adaptatif au contexte, nous avons utilisé de la logique floue combinant un système de colonies de fourmis pour évaluer la confiance et la réputation du cloud mobile basé sur la notion de cloudlets. / As living in the cyber era, we admit that a dozen of new technologies have been born every day with the promises that making a human life be more comfortable, convenient and safe. In the forest of new technologies, mobile computing is raise as an essential part of human life. Normally, mobile devices have become the best companions in daily activities. They have served us from the simple activities like entertainment to the complicated one as business operations. As playing the important roles, mobile devices deserve to work in the environment which they can trust for serving us better. In this thesis, we investigate the way to secure mobile devices from the primitive security level (Trusted Platforms) to the sophisticated one (bio-inspired intelligence). More precisely, after addressing the challenges of mobile cloud computing (MCC), we have studied the real-case of mobile cloud computing, in terms of energy efficiency and performance, as well as proposed a demonstration of particular MCC model, called Droplock system. Moreover, taking advantages of trusted platform module functionality, we introduced a novel schema of remote attestation to secure mobile devices in the context of Mobile-Cloud based solution. To enhance the security level, we used fuzzy logic combining with ant colony system to assess the trust and reputation for securing another mobile cloud computing model based on the cloudlet notion.
17

Virtual machine experience design : a predictive resource allocation approach for cloud infrastructures / Design de l'expérience utilisateur dans les machines virtuelles : l'approche de l'allocation de ressources prédictive pour les infrastructures cloud

Pérennou, Loïc 23 October 2019 (has links)
L’un des principaux défis des fournisseurs de services cloud est d’offrir aux utilisateurs une performance acceptable, tout en minimisant les besoins en matériel et énergie. Dans cette thèse CIFRE menée avec Outscale, un fournisseur de cloud, nous visons à optimiser l’allocation des ressources en utilisant de nouvelles sources d’information. Nous caractérisons la charge de travail pour comprendre le stress résultant sur l’orchestrateur, et la compétition pour les ressources disponibles qui dégrade la qualité de service. Nous proposons un modèle pour prédire la durée d’exécution des VMs à partir de caractéristiques prédictives disponibles au démarrage. Enfin, nous évaluons la sensibilité aux erreurs d’un algorithme de placement des VMs de la littérature qui se base sur ces prédictions. Nous ne trouvons pas d’intérêt à coupler note système prédictif avec cet algorithme, mais nous proposons d’autres façons d’utiliser les prédictions pour optimiser le placement des VMs. / One of the main challenges for cloud computing providers remains to offer trustable performance for all users, while maintaining an efficient use of hardware and energy resources. In the context of this CIFRE thesis lead with Outscale, apublic cloud provider, we perform an in-depth study aimed at making management algorithms use new sources of information. We characterize Outscale’s workload to understand the resulting stress for the orchestrator, and the contention for hardware resources. We propose models to predict the runtime of VMs based on features which are available when they start. We evaluate the sensitivity with respect to prediction error of a VM placement algorithm from the literature that requires such predictions. We do not find any advantage in coupling our prediction model and the selected algorithm, but we propose alternative ways to use predictions to optimize the placement of VMs.

Page generated in 0.2169 seconds