Spelling suggestions: "subject:"informatique dess nuages"" "subject:"informatique deus nuages""
1 |
soCloud : une plateforme multi-nuages distribuée pour la conception, le déploiement et l'exécution d'applications distribuées à large échelle / soCloud : distributed multi-cloud platform for designing, deploying and executing world wide distributed applicationsParaiso, Fawaz 18 June 2014 (has links)
L’informatique multi-nuages s’est imposée comme un paradigme de choix pour créer des applications distribuées à large échelle s’exécutant à des emplacements géographiques répartis. L’informatique multi-nuages consiste en l’utilisation de multiples environnements de nuages indépendants qui ne nécessitent pas d’accord a priori entre les fournisseurs de nuage ou un tiers. Toutefois, ces applications conçues pour un environnement multi-nuages doivent faire face à de véritables défis en terme d’architecture, de modèle et de technologies. L’utilisation de l’informatique multi-nuages se heurte à l’hétérogénéité et à la complexité des offres de nuage. Ainsi, l’informatique multi-nuages doit faire face aux défis de la portabilité, de l’approvisionnement, de l’élasticité et de la haute disponibilité que nous identifions dans cette thèse.Dans ce travail de thèse, nous proposons un modèle d’applications nommé soCloud qui adresse ces quatre défis. C’est un modèle basé sur le standard SCA du consortium OASIS pour concevoir de manière simple et cohérente des applications distribuées à large échelle pour un environnement multi-nuages. Un nouveau langage dédié d’élasticité a été proposé pour exprimer efficacement l’élasticité d’applications multi-nuages par l’abstraction. Nous proposons aussi une plateforme multi-nuages soCloud conçue pour déployer, exécuter et gérer des applications réparties à travers plusieurs nuages. Le modèle d’applications soCloud a été utilisé pour la mise en œuvre de trois applications distribuées déployées dans un environnement multi-nuages. Quant à la plateforme soCloud, elle a été implantée, déployée et expérimentée sur dix nuages. / Multi-cloud computing has established itself as a paradigm of choice for creating very large scale world wide distributed applications. Multi-cloud computing is the usage of multiple, independent cloud environments, which assumed no priori agreement between cloud providers or third party. However, these applications, designed for multi-cloud envi-ronments, have to face real challenges in term of design, architecture, and technology. The possibility of using multi-cloud faces the heterogeneity and complexity of cloud solutions.Thus, multi-cloud computing has to face several challenges such as portability, provisioning, elasticity, and high availability we have identified in this thesis. In this thesis, we propose soCloud both amodel and a platformthat tackle these four chal-lenges. This model is based on the OASIS Service Component Architecture (SCA) standard to design distributed large scale applications for multi-cloud environments. Anew language is proposed to effectively express the elasticity of multi-cloud applications through abstrac-tion. The multi-cloud platform is designed to deploy and manage distributed applications across multi-clouds. The soCloud model is illustrated on three distributed applications deployed in multi-cloud environments. The soCloud platform has been implemented, deployed and experi-mented on top of ten existing cloud providers.These experiments are used to validate the novelty of the contributed solutions. With our contributions, we aim to provide a simple and effective way to design, deploy, run, and manage distributed applications for a multi-cloud environment by proposing a model and platform.
|
2 |
Performances réseaux et système pour le cloud computing / Joint network and system performance for cloud computingBelhareth, Sonia 18 December 2014 (has links)
Le cloud computing permet d'offrir un accès à la demande à des ressources de calcul et de stockage. Le succès du cloud computing nécessite la maîtrise d'aspects système et réseau. Dans cette thèse, nous nous sommes intéressés aux performances du protocole TCP Cubic, qui est la version par défaut de TCP sous Linux et donc présent dans de nombreux serveurs opérationnels dans les data centers actuels. Afin de comprendre les performances d'un environnement cloud, qui offre un faible produit bande passante-délai pour le cas intra-data center, et un fort produit dans le cas inter-data center, nous avons développé des modèles analytiques pour les cas d'une ou plusieurs connexions TCP Cubic. Nos modèles se sont révélés précis dans le cas intra-datacenter, mais ne capturaient pas la synchronisation des pertes indiquée par les simulations ns-2 dans le cas inter-datacenter. Nous avons complété les simulations par des tests en environnements réels avec (i) un réseau expérimental à l'I3S ; et (ii) une solution cloud interne à Orange : Cube. Les études dans Cube nous ont démontré la forte corrélation qui pouvait exister entre performances réseau et système, et la complexité d'analyser les performances des applications dans des contextes cloud. Les études dans l'environnement I3S ont confirmé la forte synchronisation qui peut exister entre connexions TCP Cubic et nous ont permis de définir les conditions d'apparition de cette synchronisation. Nous avons étudié deux types de solution pour lutter contre la synchronisation: des solutions niveau client, avec des modifications de TCP Cubic, et des solutions réseau avec l'utilisation de politiques de gestion de tampon, notamment PIE et Codel. / Cloud computing enables a flexible access to computation and storage services. This requires, for the cloud service provider, mastering network and system issues. During this PhD thesis, we focused on the performance of TCP Cubic, which is the default version of TCP in Linux and thus widely used in today's data centers. Cloud environments feature low bandwidth-delay products (BPD) in the case of intra data center communications and high BDP in the case of inter data center communications. We have developed analytical models to study the performance of a Cubic connection in isolation or a set of competing Cubic connections. Our models turn out to be precise in the low BDP case but fail at capturing the synchronization of losses that ns-2 simulations reveal in the high BDP case. We have complemented our simulations studies with tests in real environments: (i) an experimental network at I3S and (ii) a cloud solution available internally at Orange: Cube. Studies performed in Cube have highlighted the high correlation that might exist between network and system performance and the complexity to analyze the performance of applications in a cloud context. Studies in the controlled environment of I3S have confirmed the existence of synchronization and enabled us to identify its condition of appearance. We further investigated two types of solution to combat synchronization: client level solutions that entail modifications of TCP and network level solutions based on queue management solutions, in particular PIE and Codel.
|
3 |
Supporting energy-awareness for cloud users / Rendre les nuages plus verts grâce aux utilisateursGuyon, David 07 December 2018 (has links)
Les centres de calcul cloud consomment d'importantes quantités d'énergie et il devient nécessaire de réduire leur consommation en raison des changements climatiques actuels. Bien que des propositions d'optimisations énergétiques existent, elles ne tiennent pas compte des utilisateurs finaux. Cette thèse propose d'inclure les utilisateurs cloud dans l'optimisation énergétique afin de réduire la consommation d'énergie des centres de calcul. L'inclusion se fait, dans un premier temps, en délivrant une information énergétique pour sensibiliser, puis dans un second temps, en fournissant des moyens d'action. Les contributions portent sur les couches cloud IaaS et PaaS. Nos résultats montrent que les utilisateurs tolérants à la variation des performances (e.g. retarder l'obtention de résultats) permettent de réduire la consommation d'énergie des centres de calcul. / Cloud datacenters consume large amounts of energy and it becomes necessary to reduce their consumption due to current climate changes. Although energy optimization propositions exist, they do not take into account end-users. This thesis proposes to include cloud users in the energy optimization as a means to reduce datacenters energy consumption. The inclusion is done, first, by delivering energy related information to raise awareness, and second, by providing means of actions. Contributions are located at IaaS and PaaS cloud layers. Our results show that users tolerant to performance variation (e.g. delay in obtaining execution results) allow to reduce datacenters energy consumption.
|
4 |
Software Datapaths for Multi-Tenant Packet Processing / Plans de données logiciels pour les traitements réseaux en environnements partagésChaignon, Paul 07 May 2019 (has links)
En environnement multi-tenant, les réseaux s'appuient sur un ensemble de ressources matérielles partagées pour permettre à des applications isolés de communiquer avec leurs clients. Cette isolation est garantie par un ensemble de mécanismes à la bordure des réseaux: les mêmes serveurs hébergeant les machines virtuelles doivent notamment déterminer le destinataire approprié pour chaque paquet réseau, copier ces derniers entre zones mémoires isolées et supporter les tunnels permettant l'isolation du trafic lors de son transit sur le coeur de réseau. Ces différentes tâches doivent être accomplies avec aussi peu de ressources matérielles que possible, ces dernières étant tout d'abord destinées aux machines virtuelles. Dans un contexte d'intensification de la demande en haute performance sur les réseaux, les acteurs de l'informatique en nuage ont souvent recours à des équipements matériels spécialisés mais inflexibles, leur permettant d'atteindre les performances requises. Néanmoins, dans cette thèse, nous défendons la possibilité d'améliorer les performances significativement sans avoir recours à de tels équipements. Nous prônons, d'une part, une consolidation des fonctions réseaux au niveau de la couche de virtualisation et, d'autre part, une relocalisation de certaines fonctions réseaux hors des machines virtuelles. À cette fin, nous proposons Oko, un commutateur logiciel extensible qui facilite la consolidation des fonctions réseaux dans la couche de virtualisation. Oko étend les mécanismes de l'état de l'art permettant une mise en cache des règles de commutateurs, ceci afin de permettre une exécution des fonctions réseaux sous forme d'extensions au commutateur. De plus, les extensions sont isolées du coeur du commutateur afin d'empêcher des fautes dans les extensions d'impacter le reste du réseau et de faciliter une mise en place rapide et sûre de nouvelles fonctions réseaux. En permettant aux fonctions réseaux de s'exécuter au sein du commutateur logiciel, sans redirections vers des processus distincts, Oko diminue de moitié le coût lié à l'exécution des fonctions réseaux en moyenne. Notre seconde contribution vise à permettre une exécution de certaines fonctions réseaux en amont des machines virtuelles, au sein de la couche de virtualisation. L'exécution de ces fonctions réseaux hors des machines virtuelles permet d'importants gains de performance, mais lèvent des problématiques d'isolation. Nous réutilisons et améliorons la technique utilisé dans Oko pour isoler les fonctions réseaux et l'étendons avec un mécanisme de partage équitable du temps CPU entre les différentes fonctions réseaux relocalisées. / Multi-tenant networks enable applications from multiple, isolated tenants to communicate over a shared set of underlying hardware resources. The isolation provided by these networks is enforced at the edge: end hosts demultiplex packets to the appropriate virtual machine, copy data across memory isolation boundaries, and encapsulate packets in tunnels to isolate traffic over the datacenter's physical network. Over the last few years, the growing demand for high performance network interfaces has pressured cloud providers to build more efficient multi-tenant networks. While many turn to specialized, hard-to-upgrade hardware devices to achieve high performance, in this thesis, we argue that significant performance improvements are attainable in end-host multi-tenant networks, using commodity hardware. We advocate for a consolidation of network functions on the host and an offload of specific tenant network functions to the host. To that end, we design Oko, an extensible software switch that eases the consolidation of network functions. Oko includes an extended flow caching algorithm to support its runtime extension with limited overhead. Extensions are isolated from the software switch to prevent failures on the path of packets. By avoiding costly redirections to separate processes and virtual machines, Oko halves the running cost of network functions on average. We then design a framework to enable tenants to offload network functions to the host. Executing tenant network functions on the host promises large performance improvements, but raises evident isolation concerns. We extend the technique used in Oko to provide memory isolation and devise a mechanism to fairly share the CPU among offloaded network functions with limited interruptions.
|
Page generated in 0.1133 seconds