• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 774
  • 220
  • 122
  • 63
  • 54
  • 33
  • 32
  • 29
  • 28
  • 20
  • 15
  • 14
  • 9
  • 9
  • 7
  • Tagged with
  • 1589
  • 1589
  • 387
  • 279
  • 241
  • 241
  • 240
  • 236
  • 231
  • 223
  • 213
  • 209
  • 174
  • 172
  • 151
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

La construction des Business Models des fournisseurs de services d'infrastructure Cloud Computing (IaaS) / Building "Infrastructure as a Service" (IaaS) providers Business Models

Leon, Franck 24 March 2015 (has links)
L’émergence du Cloud Computing change le paysage des infrastructures qui soutiennent les systèmes informatiques. L’originalité du Cloud Computing réside avant tout dans l’offre d’un nouveau mode de consommation proposé aux clients: les ressources informatiques en tant que service à la demande. Les fournisseurs de "hardware" et de "software" qui ont historiquement fondé leurs revenus sur la vente de produits matériels et de licences logiciels ont fait face à un changement de leurs modèles de revenus, et donc à considérer de nouveau Business Models. Ce travail révèle que les fournisseurs de services d’infrastructure Cloud Computing se définissent comme étant des opérateurs Cloud. Ils ont un rôle d’agrégateur de service et proposent des services d’infrastructures fonctionnelles, disponible à la demande et accessible à distance. Ces fournisseurs construisent un écosystème de partenaires-fournisseurs et un écosystème de partenaires-produits pour accroitre la valeur ajoutée globale. La garantie de niveau de service (SLA) devient l’objet de la transaction entre le fournisseur et le client. Ce dernier se décharge de toutes les problématiques techniques, et les transfère au fournisseur lors de la signature du contrat. Lors de la fixation des prix, une hypothèse de taux d’usage est prise en compte et sera à la base des calculs des coûts. Nous proposons alors trois leviers d’actions aux fournisseurs d’infrastructure Cloud Computing pour accroître leur part de valeur ajoutée : (1) la baisse des coûts par l’innovation technologique, (2) la capacité d’attirer et de garder les clients pour avoir un taux d’usage élevé, et (3) le développement d’un écosystème de services. / The emergence of cloud computing is changing the landscape of the infrastructure supporting IT systems. The originality of cloud computing lies primarily in the offer of a new consumption mode available to consumers: IT resources as a service provided on demand. IT providers that have based their income from products sales (hardware and software licenses) faced a change in their revenue models, and thus have to consider new business models. This research reveals that IaaS provider is defined as cloud operators. They are service aggregator and offer functional infrastructure available on demand available over the network. IaaS providers are building a supplier-partners and product-partners ecosystems to increase the overall value. When consumers sign contract, they declaim all technical issues by transferring them to providers. Service Level Agreement (SLA) becomes the object of transaction between providers and consumers. For the pricing process, rate of use is the basis of cost assessment. We suggest three leverage to IaaS providers in order to increase their share of value added: (1) lower costs through technological innovation, (2) ability to attract and retain customers to have high rate of use, and (3) development of services ecosystem.
142

Analýza použitelnosti cloud computingu pro práci na dálku / Analysis of usableness of cloud computingu for teleworking

Pospíšil, Václav January 2012 (has links)
Cloud Computing has become a serious participant in ICT in past few years. Technical and economic attributes of Cloud Computing can change a forecast in an organization. These benefits are investigated and putted into large picture of teleworking. In critical moment there is flexibility, which is crucial either for the organization or for the individual. How much is flexibility important is illustrated on the example of organization, that is considering whether the cloud computing and teleworking is the right way for the their future.
143

Optimization of autonomic resources for the management of service-based business processes in the Cloud / Optimisation des ressources autonomiques pour la gestion des processus métier à base de services dans le Cloud

Hadded, Leila 06 October 2018 (has links)
Le Cloud Computing est un nouveau paradigme qui fournit des ressources informatiques sous forme de services à la demande via internet fondé sur le modèle de facturation pay-per-use. Il est de plus en plus utilisé pour le déploiement et l’exécution des processus métier en général et des processus métier à base de services (SBPs) en particulier. Les environnements cloud sont généralement très dynamiques. À cet effet, il devient indispensable de s’appuyer sur des agents intelligents appelés gestionnaires autonomiques (AMs), qui permettent de rendre les SBPs capables de se gérer de façon autonome afin de faire face aux changements dynamiques induits parle cloud. Cependant, les solutions existantes sont limitées à l’utilisation soit d’un AM centralisé, soit d’un AM par service pour gérer un SBP. Il est évident que la deuxième solution représente un gaspillage d’AMs et peut conduire à la prise de décisions de gestion contradictoires, tandis que la première solution peut conduire à des goulots d’étranglement au niveau de la gestion du SBP. Par conséquent, il est essentiel de trouver le nombre optimal d’AMs qui seront utilisés pour gérer un SBP afin de minimiser leur nombre tout en évitant les goulots d’étranglement. De plus, en raison de l’hétérogénéité des ressources cloud et de la diversité de la qualité de service (QoS) requise par les SBPs, l’allocation des ressources cloud pour ces AMs peut entraîner des coûts de calcul et de communication élevés et/ou une QoS inférieure à celle exigée. Pour cela, il est également essentiel de trouver l’allocation optimale des ressources cloud pour les AMs qui seront utilisés pour gérer un SBP afin de minimiser les coûts tout en maintenant les exigences de QoS. Dans ce travail, nous proposons un modèle d’optimisation déterministe pour chacun de ces deux problèmes. En outre, en raison du temps nécessaire pour résoudre ces problèmes qui croît de manière exponentielle avec la taille du problème, nous proposons des algorithmes quasi-optimaux qui permettent d’obtenir de bonnes solutions dans un temps raisonnable / Cloud Computing is a new paradigm that provides computing resources as a service over the internet in a pay-per-use model. It is increasingly used for hosting and executing business processes in general and service-based business processes (SBPs) in particular. Cloud environments are usually highly dynamic. Hence, executing these SBPs requires autonomic management to cope with the changes of cloud environments implies the usage of a number of controlling devices, referred to as Autonomic Managers (AMs). However, existing solutions are limited to use either a centralized AM or an AM per service for managing a whole SBP. It is obvious that the latter solution is resource consuming and may lead to conflicting management decisions, while the former one may lead to management bottlenecks. An important problem in this context, deals with finding the optimal number of AMs for the management of an SBP, minimizing costs in terms of number of AMs while at the same time avoiding management bottlenecks and ensuring good management performance. Moreover, due to the heterogeneity of cloud resources and the diversity of the required quality of service (QoS) of SBPs, the allocation of cloud resources to these AMs may result in high computing costs and an increase in the communication overheads and/or lower QoS. It is also crucial to find an optimal allocation of cloud resources to the AMs, minimizing costs while at the same time maintaining the QoS requirements. To address these challenges, in this work, we propose a deterministic optimization model for each problem. Furthermore, due to the amount of time needed to solve these problems that grows exponentially with the size of the problem, we propose near-optimal algorithms that provide good solutions in reasonable time
144

Sécurité dans le cloud : framework de détection de menaces internes basé sur l'analyse d'anomalies / Security in the Cloud : an anomaly-based detection framework for the insider threats

Carvallo, Pamela 17 December 2018 (has links)
Le Cloud Computing (CC) ouvre de nouvelles possibilités pour des services plus flexibles et efficaces pour les clients de services en nuage (CSC). Cependant, la migration vers le cloud suscite aussi une série de problèmes, notamment le fait que, ce qui autrefois était un domaine privé pour les CSC, est désormais géré par un tiers, et donc soumis à ses politiques de sécurité. Par conséquent, la disponibilité, la confidentialité et l'intégrité des CSC doivent être assurées. Malgré l'existence de mécanismes de protection, tels que le cryptage, la surveillance de ces propriétés devient nécessaire. De plus, de nouvelles menaces apparaissent chaque jour, ce qui exige de nouvelles techniques de détection plus efficaces.Les travaux présentés dans ce document vont au-delà du simple l’état de l'art, en traitant la menace interne malveillante, une des menaces les moins étudiées du CC. Ceci s'explique principalement par les obstacles organisationnels et juridiques de l'industrie, et donc au manque de jeux de données appropriés pour la détecter. Nous abordons cette question en présentant deux contributions principales.Premièrement, nous proposons la dérivation d’une méthodologie extensible pour modéliser le comportement d’un utilisateur dans une entreprise. Cette abstraction d'un employé inclut des facteurs intra-psychologiques ainsi que des informations contextuelles, et s'inspire d'une approche basée sur les rôles. Les comportements suivent une procédure probabiliste, où les motivations malveillantes devraient se produire selon une probabilité donnée dans la durée.La contribution principale de ce travail consiste à concevoir et à mettre en œuvre un cadre de détection basé sur les anomalies pour la menace susmentionnée. Cette implémentation s’enrichit en comparant deux points différents de capture de données : une vue basée sur le profil du réseau local de la entreprise, et une point de vue du cloud qui analyse les données des services avec lesquels les clients interagissent. Cela permet au processus d'apprentissage des anomalies de bénéficier de deux perspectives: (1) l'étude du trafic réel et du trafic simulé en ce qui concerne l'interaction du service de cloud computing, de manière de caractériser les anomalies; et (2) l'analyse du service cloud afin d'ajouter des statistiques prenant en compte la caractérisation globale du comportement.La conception de ce cadre a permis de détecter de manière empirique un ensemble plus large d’anomalies de l’interaction d'une entreprise donnée avec le cloud. Cela est possible en raison de la nature reproductible et extensible du modèle. En outre, le modèle de détection proposé profite d'une technique d'apprentissage automatique en mode cluster, en suivant un algorithme adaptatif non supervisé capable de caractériser les comportements en évolution des utilisateurs envers les actifs du cloud. La solution s'attaque efficacement à la détection des anomalies en affichant des niveaux élevés de performances de clustering, tout en conservant un FPR (Low Positive Rate) faible, garantissant ainsi les performances de détection pour les scénarios de menace lorsque celle-ci provient de la entreprise elle-même / Cloud Computing (CC) opens new possibilities for more flexible and efficient services for Cloud Service Clients (CSCs). However, one of the main issues while migrating to the cloud is that what once was a private domain for CSCs, now is handled by a third-party, hence subject to their security policies. Therefore, CSCs' confidentiality, integrity, and availability (CIA) should be ensured. In spite of the existence of protection mechanisms, such as encryption, the monitoring of the CIA properties becomes necessary. Additionally, new threats emerge every day, requiring more efficient detection techniques. The work presented in this document goes beyond the state of the art by treating the malicious insider threat, one of the least studied threats in CC. This is mainly due to the organizational and legal barriers from the industry, and therefore the lack of appropriate datasets for detecting it. We tackle this matter by addressing two challenges.First, the derivation of an extensible methodology for modeling the behavior of a user in a company. This abstraction of an employee includes intra psychological factors, contextual information and is based on a role-based approach. The behaviors follow a probabilistic procedure, where the malevolent motivations are considered to occur with a given probability in time.The main contribution, a design and implementation of an anomaly-based detection framework for the aforementioned threat. This implementation enriches itself by comparing two different observation points: a profile-based view from the local network of the company, and a cloud-end view that analyses data from the services with whom the clients interact. This allows the learning process of anomalies to benefit from two perspectives: (1) the study of both real and simulated traffic with respect to the cloud service's interaction, in favor of the characterization of anomalies; and (2) the analysis of the cloud service in order to aggregate data statistics that support the overall behavior characterization.The design of this framework empirically shows to detect a broader set of anomalies of the company's interaction with the cloud. This is possible due to the replicable and extensible nature of the mentioned insider model. Also, the proposed detection model takes advantage of the autonomic nature of a clustering machine learning technique, following an unsupervised, adaptive algorithm capable of characterizing the evolving behaviors of the users towards cloud assets. The solution efficiently tackles the detection of anomalies by showing high levels of clustering performance, while keeping a low False Positive Rate (FPR), ensuring the detection performance for threat scenarios where the threat comes from inside the enterprise
145

Cloud Computing and Decision-Making : Determinants, Modelling and Impacts / Cloud computing et la décision : déterminants, modélisation et impacts

Cheng, Xiaolin 20 November 2017 (has links)
Cette thèse cherche à traiter des sujets de l’adoption de cloud et la décision de cloud. Elle analyse des déterminants de l’adoption, discute des services de cloud et compare des fournisseurs de cloud. Cloud computing a des dimensions à la fois techniques et organisationnelles. Jusqu’à présent, la dimension organisationnelle a reçu peu d’attention, et cloud computing a été essentiellement considéré d’un point de vue technique. Cependant, la “cloudification” des systèmes d’information pose de nombreuses questions économiques et managériales qui doivent être évaluées. Il est donc important d’enrichir notre compréhension des phénomènes liés à la "virtualization" de l’information, à travers un examen de leurs caractéristiques multidimensionnelles. En général, cette thèse démontre que l’utilité perçue, la facilité d’utilisation perçue, la complexité et la compatibilité sont des facteurs clés de l’adoption du cloud, le savoir-faire informatique joue également un rôle important dans le processus de la décision ; la plupart des petits fournisseurs de cloud ont des performances plus stables et plus performantes que les grands fournisseurs de cloud, la performance du processeur ayant un impact significatif sur le prix. Cette thèse contribue beaucoup aux dimensions théoriques et managériales de la recherche sur cloud, mais il y a plus de travail de recherche à faire du point de vue de l’adoption de cloud et de la prise de décision dans le cloud. La recherche future se concentrera sur les limites de la recherche. / This dissertation addresses cloud computing adoption and decision-making issues. It analyzes adoption determinants, discusses cloud services, and compares cloud providers. Cloud computing has both technical and organizational dimensions. Until recently the organizational dimension has received little attention, and cloud computing has essentially been considered from a technical perspective. However, the "cloudification" of information systems poses many economic and managerial questions that need to be evaluated. It is therefore important to enrich our understanding of phenomena related to the "virtualization" of information, through an examination of their multidimensional characteristics. Overall, this dissertation finds that perceived usefulness, perceived ease of use, complexity and compatibility are key factors for cloud adoption, It know-how plays also an important role in the decision process; most small cloud providers have more stable and better computing performance than large cloud providers, the performance of CPU impact price significantly. This dissertation contributes a lot to the theoretical and managerial dimensions of cloud computing research, however, there exists more research work to do as the aforementioned research limitations from the perspective of cloud adoption and cloud decision-making. Future research will focus on the limitions of the research.
146

Measurement and Analysis of Networking Performance in Virtualised Environments

Chauhan, Maneesh January 2014 (has links)
Mobile cloud computing, having embraced the ideas like computation ooading, mandates a low latency, high speed network to satisfy the quality of service and usability assurances for mobile applications. Networking performance of clouds based on Xen and Vmware virtualisation solutions has been extensively studied by researchers, although, they have mostly been focused on network throughput and bandwidth metrics. This work focuses on the measurement and analysis of networking performance of VMs in a small, KVM based data centre, emphasising the role of virtualisation overheads in the Host-VM latency and eventually to the overall latency experienced by remote clients. We also present some useful tools such as Driftanalyser, VirtoCalc and Trotter that we developed for carrying out specific measurements and analysis. Our work proves that an increase in a VM's CPU workload has direct implications on the network Round trip times. We also show that Virtualisation Overheads (VO) have significant bearing on the end to end latency and can contribute up to 70% of the round trip time between the Host and VM. Furthermore, we thoroughly study Latency due to Virtualisation Overheads as a networking performance metric and analyse the impact of CPU loads and networking workloads on it. We also analyse the resource sharing patterns and their effects amongst VMs of different sizes on the same Host. Finally, having observed a dependency between network performance of a VM and the Host CPU load, we suggest that in a KVM based cloud installation, workload profiling and optimum processor pinning mechanism can be e ectively utilised to regulate network performance of the VMs. The ndings from this research work are applicable to optimising latency oriented VM provisioning in the cloud data centres, which would benefit most latency sensitive mobile cloud applications. / Mobil cloud computing, har anammat ideerna som beräknings avlastning, att en låg latens, höghastighetsnät för att tillfredsställa tjänsternas kvalitet och användbarhet garantier för mobila applikationer. Nätverks prestanda moln baserade på Xen och VMware virtualiseringslösningar har studerats av forskare, även om de har mestadels fokuserat på nätverksgenomströmning och bandbredd statistik. Arbetet är inriktat på mätning och analys av nätverksprestanda i virtuella maskiner i en liten, KVM baserade datacenter, betonar betydelsen av virtualiserings omkostnader i värd-VM latens och så småningom till den totala fördröjningen upplevs av fjärrklienter. Wealso presentera några användbara verktyg som Driftanalyser, VirtoCalc och Trotter som vi utvecklat för att utföra specifika mätningar och analyser. Vårt arbete visar att en ökning av en VM processor arbetsbelastning har direkta konsekvenser för nätverket Round restider. Vi visar också att Virtualiserings omkostnader (VO) har stor betydelse för början till slut latens och kan bidra med upp till 70 % av rundtrippstid mellan värd och VM. Dessutom är vi noga studera Latency grund Virtualiserings Omkostnader som en nätverksprestanda och undersöka effekterna av CPU-belastning och nätverks arbetsbelastning på den. Vi analyserar också de resursdelningsmönster och deras effekter bland virtuella maskiner i olika storlekar på samma värd. Slutligen, efter att ha observerat ett beroende mellan nätverksprestanda i ett VM och värd CPU belastning, föreslar vi att i en KVM baserad moln installation, arbetsbelastning profilering och optimal processor pinning mekanism kan anvandas effektivt för att reglera VM nätverksprestanda. Resultaten från denna forskning gäller att optimera latens orienterade VM provisione i molnet datacenter, som skulle dra störst latency känsliga mobila molnapplikationer.
147

Combating Data Leakage in the Cloud

Dlamini, Moses Thandokuhle January 2020 (has links)
The increasing number of reports on data leakage incidents increasingly erodes the already low consumer confidence in cloud services. Hence, some organisations are still hesitant to fully trust the cloud with their confidential data. Therefore, this study raises a critical and challenging research question: How can we restore the damaged consumer confidence and improve the uptake and security of cloud services? This study makes a plausible attempt at unpacking and answering the research question in order to holistically address the data leakage problem from three fronts, i.e. conflict-aware virtual machine (VM) placement, strong authentication and digital forensic readiness. Consequently, this study investigates, designs and develops an innovative conceptual architecture that integrates conflict-aware VM placement, cutting-edge authentication and digital forensic readiness to strengthen cloud security and address the data leakage problem in the hope of eventually restoring consumer confidence in cloud services. The study proposes and presents a conflict-aware VM placement model. This model uses varying degrees of conflict tolerance levels, the construct of sphere of conflict and sphere of non-conflict. These are used to provide the physical separation of VMs belonging to conflicting tenants that share the same cloud infrastructure. The model assists the cloud service provider to make informed VM placement decisions that factor in their tenants’ security profile and balance it against the relevant cost constraints and risk appetite. The study also proposes and presents a strong risk-based multi-factor authentication mechanism that scales up and down, based on threat levels or risks posed on the system. This ensures that users are authenticated using the right combination of access credentials according to the risk they pose. This also ensures end-to-end security of authentication data, both at rest and in transit, using an innovative cryptography system and steganography. Furthermore, the study proposes and presents a three-tier digital forensic process model that proactively collects and preserves digital evidence in anticipation of a legal lawsuit or policy breach investigation. This model aims to reduce the time it takes to conduct an investigation in the cloud. Moreover, the three-tier digital forensic readiness process model collects all user activity in a forensically sound manner and notifies investigators of potential security incidents before they occur. The current study also evaluates the effectiveness and efficiency of the proposed solution in addressing the data leakage problem. The results of the conflict-aware VM placement model are derived from simulated and real cloud environments. In both cases, the results show that the conflict-aware VM placement model is well suited to provide the necessary physical isolation of VM instances that belong to conflicting tenants in order to prevent data leakage threats. However, this comes with a performance cost in the sense that higher conflict tolerance levels on bigger VMs take more time to be placed, compared to smaller VM instances with low conflict tolerance levels. From the risk-based multifactor authentication point of view, the results reflect that the proposed solution is effective and to a certain extent also efficient in preventing unauthorised users, armed with legitimate credentials, from gaining access to systems that they are not authorised to access. The results also demonstrate the uniqueness of the approach in that even minor deviations from the norm are correctly classified as anomalies. Lastly, the results reflect that the proposed 3-tier digital forensic readiness process model is effective in the collection and storage of potential digital evidence. This is done in a forensically sound manner and stands to significantly improve the turnaround time of a digital forensic investigation process. Although the classification of incidents may not be perfect, this can be improved with time and is considered part of the future work suggested by the researcher. / Thesis (PhD)--University of Pretoria, 2020. / Computer Science / PhD / Unrestricted
148

Gestion de la sécurité des réseaux à l'aide d'un service innovant de Cloud Based Firewall / Network Security Management Using a Novel Firewall Cloud-Based Service

Guenane, Fouad Amine 13 October 2014 (has links)
Le Cloud Computing a évolué au cours de la dernière décennie, passant d’un simple service de stockage à des services plus complexes, en proposant le software comme service (SaaS), les plateformes comme service(PaaS) et très récemment la sécurité comme service (SECaaS).Dans notre travail, nous sommes partis de l'idée simple d'utiliser les ressources offertes par le Cloud avec un faible coût financier pour proposer des nouvelles architectures de service de sécurité. La sécurité des environnements virtuels est un sujet majeur pour le déploiement de l’usage du Cloud. Malheureusement, comme ces environnements sont composés d’un ensemble de technologies déjà existantes, utilisées d'une manière nouvelle, de nombreuses solutions sécuritaires ne sont que des solutions traditionnelles reconditionnées à la problématique Cloud et réseaux virtuels. Le travail effectué dans le cadre de cette thèse vient répondre à la limitation de ressources des équipements physiques de sécurité comme les Firewalls et a pour objectif de proposer de nouveaux services de sécurité composés d’architectures de gestion de la sécurité des réseaux dans le Cloud basé sur le modèle Security as a Service, ainsi que des architectures de management de ces services. Nous avons pris l’initiative de proposer une architecture totalement Cloud-Based. Cette dernière, permet à un Cloud provider de proposer un service de Firewalling à ses clients. Celui-ci leur demande de s’abonner à l’offre en leur garantissant le traitement (analyse) d’une capacité de bande-passante de trafic avec des règles de filtrages fonctionnelles et d’autres proposées par l’abonné. Les résultats obtenus ont démontré les aptitudes de nos architectures à gérer et à faire face à des attaques réseaux de type DDoS et à augmenter la capacité d’analyse en distribuant le trafic sur plusieurs pare-feu virtuels. / Cloud computing has evolved over the last decade from a simple storage service for more complex services, offering the software as a service (SaaS) platforms as a service (PaaS) and most recently the security as a service (SECaaS). In our work, we started with the simple idea to use the resources offered by the Cloud with a low financial cost to propose new architectures of security service. The security of virtual environments is a major issue for the deployment of the use of the Cloud. Unfortunately, these environments are composed of a set of already existing technologies used in a new way, many security solutions are only traditional reconditioned solutions to solve the Cloud and virtual networks security issues. The work done in this thesis is a response to the resource limitations of physical security devices such as firewalls and propose new security architectures consist of management of network security in the cloud-based services following Security as a Service model and propose novel architectures for managing these services. We took the initiative to propose a completely Cloud-Based architecture. The latter allows a cloud provider to provide firewalling service to its customers. It asks them to subscribe to the offer by guaranteeing treatment (analysis) with a capacity of bandwidth traffic with functional filtering rules and other proposed by the subscriber. The results demonstrated the ability of our architecture to manage and cope with network DDoS attacks and to increase analytical capacity by distributing traffic over multiple virtual
149

Isolation réseau dans un environnement Cloud Public/Hybride / Network Isolation in a Public/Hybrid cloud environment

Del Piccolo, Valentin 23 May 2017 (has links)
Le cloud computing est un modèle informatique donnant accès à un grand nombre de ressources de calcul et de stockage. Trois types de cloud existent, le cloud public, le cloud privé et le cloud hybride. Afin de proposer une solution cloud hybride, nous utilisons le protocole TRILL qui permet d'optimiser l'utilisation des ressources réseau d'une infrastructure. Cependant, TRILL ne permet pas d'interconnecter des data centers sans perdre l'indépendance de leur plan de contrôle. Pour modifier ce comportement, lequel implique la création d'un unique domaine de broadcast s'étendant sur tout le réseau, nous proposons, comme première contribution, une solution (MLTP) qui permet d'interconnecter des réseaux TRILL tout en les maintenant indépendants. Un autre élément manquant de TRILL est l'isolation des flux réseau. Notre seconde contribution consiste donc à trouver et implémenter une solution d'isolation des flux au sein de MLTP. Ce nouveau protocole (MLTP+VNT), permet d'avoir une solution de cloud hybride, mais elle possède deux désavantages. Le premier est la gestion des pannes. Certains éléments de MLTP+VNT, les Border RBridges (BRB), contiennent des informations nécessaires au routage inter-data center et lorsqu'ils tombent en panne, ces informations sont perdues. Pour éviter cela, nous avons, dans notre troisième contribution, modifié MLTP+VNT pour synchroniser les BRBs. Le second est l'obligation de n'utiliser que des réseaux MLTP+VNT pour réaliser un cloud hybride. Pour lever cette restriction, nous avons, dans notre quatrième contribution, conçu une passerelle entre un réseau TRILL, pour le cloud public, et un réseau OpenFlow, pour le cloud privé. / Cloud computing uses infrastructure with a lot of computing and storage resources. There are three types of cloud: Public cloud, Private cloud, and Hybrid cloud. In order to provide a hybrid cloud solution, we used as a base the TRILL protocol which optimizes the use of the data center infrastructure. However, TRILL cannot interconnect data centers as doing so will merge the data centers networks and each data center will lose its independence. Our first contribution is to change this behavior and we develop MLTP which allows to interconnect TRILL or MLTP network without merging them. Another functionality missing from TRILL is network isolation. To fill this lack, in our second proposal we add to MLTP a solution called VNT and we then have a new protocol called MLTP+VNT. In this protocol, each user traffic is isolated from one another. Therefore, MLTP+VNT allows to have a hybrid cloud environment. Nevertheless, it has two shortcomings. The first one is its “single” point of failure. As a matter of fact, MLTP+VNT uses a new type of nodes called Border RBridges which contains inter-data centers routing information. If a Border RBridge fails, then the information it contained is lost. In order to prevent this loss, we implement a method to synchronize the Border RBridges in our third contribution. The second shortcoming is the obligation to use MLTP+VNT in each network to form the hybrid cloud. To lift this limitation, we design and develop, in our fourth contribution, a bridge between a MLTP+VNT network and an OpenFlow network. This way, our solution allows to create a hybrid cloud environment with the MLTP+VNT solution in the public cloud and OpenFlow in the public cloud.
150

Virtualisation efficace d'architectures NUMA / Efficient virtualization of NUMA architectures

Voron, Gauthier 08 March 2018 (has links)
Alors que le surcoût de la virtualisation reste marginal sur des machines peu puissantes, la situation change radicalement quand le nombre de cœur disponible augmente. Il existe aujourd’hui des machines de plusieurs dizaines de cœurs dans les data centers dédiés au cloud computing, un modèle de gestion de ressources qui utilise largement la virtualisation. Ces machines reposent sur une architecture Non Uniform Memory Access (NUMA) pour laquelle le placement des tâches sur les cœurs ainsi que celui des données en mémoire est déterminant pour les performances.Cette thèse montre d’une part comment la virtualisation affecte le comportement des applications en les empêchant notamment d’utiliser un placement efficace de leurs données en mémoire. Cette étude montre que les erreurs de placement ainsi provoquées engendrent une dégradation des performances allant jusqu’à 700%. D’autre part, cette thèse propose une méthode qui permet la virtualisation efficace d’architectures NUMA par la mise en œuvre dans l’hyperviseur Xen de politiques génériques de placement mémoire. Une évaluation sur un ensemble de 29 applications exécutées sur une machine NUMA de 48 cœurs montre que ces politiques multiplient les performances de 9 de ces applications par 2 ou plus et diminuent le surcoût de la virtualisation à moins de 50% pour 23 d’entre elles. / While virtualization only introduces a negligible overhead on machines with few cores, this is not the case when the number of cores increases. We can find such computers with tens of cores in todays data centers dedicated to the cloud computing, a resource management model which relies on virtualization. These large multicore machines have a complex architecture, called Non Uniform Memory Access (NUMA). Achieving high performance on a NUMA architecture requires to wisely place application threads on the appropriate cores and application data in the appropriate memory bank.In this thesis, we show how virtualization techniques modify the applications behavior by preventing them to efficiently place their data in memory. We show that the data misplacement leads to a serious performance degradation, up to 700%.Additionally, we suggest a method which allows the Xen hypervisor to efficiently virtualize NUMA architectures by implementing a set of generic memory placement policies. With an evaluation over a set of 29 applications on a 48-cores machine, we show that the NUMA policies can multiply the performance of 9 applications by more than 2 and decrease the virtualization overhead below 50% for 23 of them.

Page generated in 0.089 seconds