• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 50
  • 32
  • 6
  • 4
  • 1
  • 1
  • Tagged with
  • 102
  • 44
  • 35
  • 30
  • 19
  • 16
  • 16
  • 16
  • 14
  • 14
  • 13
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Monitoring et détection d'anomalie par apprentissage dans les infrastructures virtualisées / Monitoring and detection of learning abnormalities in virtualized infrastructures

Sauvanaud, Carla 13 December 2016 (has links)
Le cloud computing est un modèle de délivrance à la demande d’un ensemble de ressources informatiques distantes, partagées et configurables. Ces ressources, détenues par un fournisseur de service cloud, sont mutualisées grâce à la virtualisation de serveurs qu’elles composent et sont mises à disposition d’utilisateurs sous forme de services disponibles à la demande. Ces services peuvent être aussi variés que des applications, des plateformes de développement ou bien des infrastructures. Afin de répondre à leurs engagements de niveau de service auprès des utilisateurs, les fournisseurs de cloud se doivent de prendre en compte des exigences différentes de sûreté de fonctionnement. Assurer ces exigences pour des services différents et pour des utilisateurs aux demandes hétérogènes représente un défi pour les fournisseurs, notamment de part leur engagement de service à la demande. Ce défi est d’autant plus important que les utilisateurs demandent à ce que les services rendus soient au moins aussi sûrs de fonctionnement que ceux d’applications traditionnelles. Nos travaux traitent particulièrement de la détection d’anomalies dans les services cloud de type SaaS et PaaS. Les différents types d’anomalie qu’il est possible de détecter sont les erreurs, les symptômes préliminaires de violations de service et les violations de service. Nous nous sommes fixé quatre critères principaux pour la détection d’anomalies dans ces services : i) elle doit s’adapter aux changements de charge de travail et reconfiguration de services ; ii) elle doit se faire en ligne, iii) de manière automatique, iv) et avec un effort de configuration minimum en utilisant possiblement la même technique quel que soit le type de service. Dans nos travaux, nous avons proposé une stratégie de détection qui repose sur le traitement de compteurs de performance et sur des techniques d’apprentissage automatique. La détection utilise les données de performance système collectées en ligne à partir du système d’exploitation hôte ou bien via les hyperviseurs déployés dans le cloud. Concernant le traitement des ces données, nous avons étudié trois types de technique d’apprentissage : supervisé, non supervisé et hybride. Une nouvelle technique de détection reposant sur un algorithme de clustering est de plus proposée. Elle permet de prendre en compte l’évolution de comportement d’un système aussi dynamique qu’un service cloud. Une plateforme de type cloud a été déployée afin d’évaluer les performances de détection de notre stratégie. Un outil d’injection de faute a également été développé dans le but de cette évaluation ainsi que dans le but de collecter des jeux de données pour l’entraînement des modèles d’apprentissage. L’évaluation a été appliquée à deux cas d’étude : un système de gestion de base de données (MongoDB) et une fonction réseau virtualisée. Les résultats obtenus à partir d’analyses de sensibilité, montrent qu’il est possible d’obtenir de très bonnes performances de détection pour les trois types d’anomalies, tout en donnant les contextes adéquats pour la généralisation de ces résultats. / Nowadays, the development of virtualization technologies as well as the development of the Internet contributed to the rise of the cloud computing model. A cloud computing enables the delivery of configurable computing resources while enabling convenient, on-demand network access to these resources. Resources hosted by a provider can be applications, development platforms or infrastructures. Over the past few years, computing systems are characterized by high development speed, parallelism, and the diversity of task to be handled by applications and services. In order to satisfy their Service Level Agreements (SLA) drawn up with users, cloud providers have to handle stringent dependability demands. Ensuring these demands while delivering various services makes clouds dependability a challenging task, especially because providers need to make their services available on demand. This task is all the more challenging that users expect cloud services to be at least as dependable as traditional computing systems. In this manuscript, we address the problem of anomaly detection in cloud services. A detection strategy for clouds should rely on several principal criteria. In particular it should adapt to workload changes and reconfigurations, and at the same time require short configurations durations and adapt to several types of services. Also, it should be performed online and automatic. Finally, such a strategy needs to tackle the detection of different types of anomalies namely errors, preliminary symptoms of SLA violation and SLA violations. We propose a new detection strategy based on system monitoring data. The data is collected online either from the service, or the underlying hypervisor(s) hosting the service. The strategy makes use of machine learning algorithms to classify anomalous behaviors of the service. Three techniques are used, using respectively algorithms with supervised learning, unsupervised learning or using a technique exploiting both types of learning. A new anomaly detection technique is developed based on online clustering, and allowing to handle possible changes in a service behavior. A cloud platform was deployed so as to evaluate the detection performances of our strategy. Moreover a fault injection tool was developed for the sake of two goals : the collection of service observations with anomalies so as to train detection models, and the evaluation of the strategy in presence of anomalies. The evaluation was applied to two case studies : a database management system and a virtual network function. Sensitivity analyzes show that detection performances of our strategy are high for the three anomaly types. The context for the generalization of the results is also discussed.
82

The flâneur in contemporary society with special reference to the work of Francis Alÿs

McDowall, Estelle 08 December 2011 (has links)
The contemporary flâneur is confronted with a radically different world in comparison to the Parisian arcades of the nineteenth century during which the idea of the flâneur was conceptualised. The current urban milieu of the flâneur is dominated by consumerism, computer systems and surveillance, and the research posed here explores the flâneur within this environment. The flâneur was originally visualised on the streets and arcades of the city; however, cities do not only exist as buildings and streets and have become global entities that are constituted from the physical and the virtual. Throughout this study reference is primarily made to the work of Francis Alÿs to elucidate theoretical concepts. This study proposes that there is an absence of the teleological goal in the journey of the flâneur and as such, the flâneur wanders the streets without aim; however, in the process creates narratives and leaves traces of his journey. The ubiquity of surveillance in the contemporary metropolis complicates the flâneur's relationship with the latter. Consequently the impact of surveillance on the flâneur and the flâneur's daily wanderings are examined to ascertain its influence on the flâneur in a hyperreal society. In contemporary thinking, the traditional idea of the male flâneur requires reassessment and this research investigates the possibility of the female flâneur and women's presence in the public spaces of the city and the virtual realm of cyberspace. Furthermore, women are intricately linked to consumerism and their experience and position in the city are influenced by being seen as objects of the gaze. / Dissertation (MA)--University of Pretoria, 2011. / Visual Arts / unrestricted
83

L’expérimentation stratégique du business model : proposition d’un cadre conceptuel et méthodologique / Strategic experimentation of business model : towards the proposition of a conceptual and methodological framework

Ammar, Oussama 30 November 2010 (has links)
Face un environnement complexe et hyper-compétitif, les firmes sont amenées à reconsidérer leur modèle de création de valeur. Leur réaction s’insère dans le cadre d’une réinvention voire innovation de leur Business Model (BM). Ceci passe indéniablement par une démarche d’expérimentation stratégique. Définie comme un processus par lequel les firmes explorent de nouvelles sources de revenus et testent de nouveaux concepts d’affaires, l’expérimentation stratégique s’associe à un outil de réinvention du BM qui intervient non seulement dans la création de nouveaux BM mais également dans la transformation de BM existants. Nous posons ainsi la question de savoir : Comment concevoir l’expérimentation stratégique des BM des entreprises ? Dans cette perspective, notre recherche vise à dresser un cadre conceptuel et méthodologique de l’expérimentation stratégique. Il s’agit de proposer aux entreprises une aide à la conception d’une méthodologie d’expérimentation de BM. Pour répondre à cette problématique, nous proposons de définir l’expérimentation stratégique comme une théorie combinée du changement en partant du modèle de Van de Ven et Poole (1995) sur les théories de changement et de développement organisationnel. Ceci permet de traduire les processus centraux de l’expérimentation stratégique et d’en saisir les dimensions clés. Dans le cadre d’une approche qualitative avec étude de cas, nous interrogeons trois profils d’acteurs sur leurs registres de conception et de pratique de l’expérimentation. Ensuite, nous élaborons via une analyse inter-profils un modèle générique d’expérimentation stratégique de BM qui s’articule autour de trois temps de l’expérimentation stratégique ; un temps de virtualisation, un temps d’actualisation et un temps d’itérations de processus de rationalisation et d’apprentissage. / In a hypercompetitive environment, firms are obliged to reconsider their revenue formula and to innovate consequently the way they create value and make profit. This lies at the heart of every company’s ability to experiment new Business Models (BM) and becomes a key step in the strategic thinking. Defined as a process by which firms explore new ways of doing business, strategic experimentation takes shape of series of trial and error changes pursued along various dimensions of strategy in an effort to identify and establish a viable basis for competing. Our research examines strategic experimentation as an effective tool for BM reinvention. It answers therefore to the main question of: How to conceive BM experimentation? In this way, we define strategic experimentation as a combined theory of change according to the model developed by Van de Ven and Poole (1995) to explain processes of organizational development and change. We aim at dressing a conceptual and methodological framework for strategic experimentation that would helps managers and academics to conceive and master the process of BM experimentation. Using a qualitative research methodology rooted in a case study approach, we achieved semi-structured interviews with three categories of actors implied in the process of BM experimentation. Our results demonstrate that BM experimentation is organized through four major processes which are exploration, formulation, resources allocation and identification which are articulated by a time of virtualization, a time of actualization, and a time of iterations based on learning and rationalization.
84

Virtualizace a optimalizace IT v produkční společnosti / Virtualisation and Optimalisation of IT in a Production Company

Popelka, David January 2013 (has links)
The master‘s thesis deals with the implementation of server virtualization in the Entity production, s.r.o., which is a small company by it’s size, but needs modern IT technologies for the normal operations. The thesis shows how to reuse the server virtualization technologies from large corporations, that have been unavailable to small business companies in past. It also design show to optimize the current IT environment.
85

Du prototypage à l’exploitation d’overlays FPGA / From prototyping to exploitation of FPGA overlays

Bollengier, Théotime 15 January 2018 (has links)
De part leur capacité de reconfiguration et les performances qu’ils offrent, les FPGAs sont de bons candidats pour accélérer des applications dans le Cloud. Cependant, les FPGAs présentent certaines caractéristiques qui font obstacle à leur utilisation dans le Cloud et leur adoption par les clients : premièrement, la programmation des FPGAs se fait à bas niveau et demande une certaine expertise, que n’ont pas nécessairement les clients habituels du Cloud. Deuxièmement, les FPGAs ne présentent pas de mécanismes natifs permettant leur intégration dans le modèle de gestion dynamique d’une infrastructure Cloud.Dans ce travail, nous proposons d’utiliser des architectures overlay afin de faciliter l’adoption, l’intégration et l’exploitation de FPGAs dans le Cloud. Les overlays sont des architectures reconfigurables elles-mêmes implémentée sur FPGA. En tant que couche d’abstraction matérielle placée entre le FPGA et les applications, les overlays permettent de monter le niveau d’abstraction du modèle d’exécution présenté aux applications et aux utilisateurs, ainsi que d’implémenter des mécanismes facilitant leur intégration et leur exploitation dans une infrastructure Cloud.Ce travail présente une approche verticale adressant tous les aspects de la mise en œuvre d’overlays dans le Cloud en tant qu’accélérateurs reconfigurables par les clients : de la conception et l’implémentation des overlays, leur intégration sur des plateformes FPGA commerciales, la mise en place de leurs mécanismes d’exploitation, jusqu’à la réalisationde leurs outils de programmation. L’environnement réalisé est complet, modulaire et extensible, il repose en partie sur différents outils existants, et démontre la faisabilité de notre approche. / Due to their reconfigurable capability and the performance they offer, FPGAs are good candidates for accelerating applications in the cloud. However, FPGAs have some features that hinder their use in the Cloud as well as their adoption by customers : first, FPGA programming is done at low level and requires some expertise that usual Cloud clients do not necessarily have. Secondly, FPGAs do not have native mechanisms allowing them to easily fit in the dynamic execution model of the Cloud.In this work, we propose to use overlay architectures to facilitate FPGA adoption, integration, and operation in the Cloud. Overlays are reconfigurable architectures synthesized on FPGA. As hardware abstraction layers placed between the FPGA and applications, overlays allow to raise the abstraction level of the execution model presented to applications and users, as well as to implement mechanisms making them fit in a Cloud infrastructure.This work presents a vertical approach addressing all aspects of overlay operation in the Cloud as reconfigurable accelerators programmable by tenants : from designing and implementing overlays, integrating them on commercial FPGA platforms, setting up their operating mechanisms, to developping their programming tools. The environment developped in this work is complete, modular and extensible, it is partially based on several existing tools, and demonstrate the feasibility of our approach.
86

Service Function Placement and Chaining in Network Function Virtualization Environments / Placement et Chaînage des Fonctions de Service dans les Environnements de Virtualisation Réseau

Alleg, Abdelhamid 11 July 2019 (has links)
L'émergence de la technologie de virtualisation des fonctions réseau (NFV) a suscité un vif intérêt autour de la conception, la gestion et le déploiement de services réseau de manière flexible, automatisée et indépendante du fournisseur. La mise en œuvre de la technologie NFV devrait être une solution profitable pour les fournisseurs de services et les clients. Cependant, ce changement de paradigme, amorcé par NFV, nécessite un abandon progressif des services réseau fournis à travers des équipements dédiés. En contrepartie, un environnement totalement ou partiellement virtualisé est proposé pour instancier dynamiquement et à la demande des modules logiciels appelés fonctions de réseau virtuelles (VNF). Cette évolution soulève un ensemble de défis liés au déploiement et à l'exploitation de services, tels que l'orchestration et la gestion, la résilience des services, le contrôle de la qualité de service (QoS), l’approvisionnement des ressources, etc. En outre, la question centrale à résoudre dans le contexte NFV est la suivante : « comment placer et chaîner effacement des fonctions virtuelles d’un service afin de fournir un niveau de qualité demandé par le client tout en optimisant l'utilisation des ressources par le fournisseur de services ? ”.Ainsi, cette thèse étudie la problématique du placement et du chaînage des VNF en tenant compte de certaines exigences de service telles que le délai de bout en bout, la disponibilité du service et la consommation d'énergie, et propose un ensemble d'algorithmes et de mécanismes visant à optimiser le déploiement des services demandés/fournis. Nos contributions dans cette thèse sont triples. Premièrement, nous proposons deux algorithmes de placement et de chaînage de VNF sensibles au délai de bout-en-bout pour des applications temps-réel. Les algorithmes proposés visent à respecter le délai approprié de bout-en-bout qui dépend du service déployé (exemples : VoIP, Streaming, etc.). Deuxièmement, nous présentons une analyse comparative de la disponibilité des services et nous proposons deux mécanismes de placement et de chaînage de VNF pour garantir un niveau prédéfini de disponibilité. L’objectif est de fournir des services résilients en ajustant avec précision les paramètres du schéma de protection (nombre, type, emplacement et taille des instances VNF) nécessaires pour atteindre ce niveau de disponibilité en dépit des défaillances du réseau. Enfin, nous proposons une architecture générale qui explore la possibilité d’étendre le paradigme de la virtualisation à l’Internet des objets (IoT). À cette fin, nous définissons un mécanisme de placement et de chaînage respectant les contraintes énergétiques pour des services IoT. Notre architecture propose de découpler et de virtualiser les fonctionnalités inhérentes à un objet connecté de l’équipement IoT physique. En étendant NFV au domaine IoT, notre solution ouvre de nouvelles perspectives d’application en supportant de nouveaux cas d’usages. / The emergence of Network Function Virtualization (NFV) technology has aroused keen interest to design, manage and deploy network services in a flexible, automated and vendor-agnostic manner. Implementing NFV technology is expected to be a win-win solution for both service providers and costumers. However, this paradigm shift, sparked by NFV, calls for a progressive abandon of network services that are provided as hardware appliance and rather it proposes a fully or partially virtualized environment that offers software modules called Virtual Network Functions (VNFs). This shift rises a set of challenges related to service deployment and operation such as orchestration and management, service resiliency, Quality of Service (QoS) and resource provisioning among others. Furthermore, the core question that needs to be solved within NFV context is “What is the best way to place and chain VNFs that form a service in order to meet Service Level Agreement requirements (costumer side) while optimizing resource usage (service provider side)?”.This thesis investigates the problem of VNF Placement and Chaining considering service requirements such as end-to-end delay, service availability and energy consumption and proposes a set of algorithms and mechanisms that aim to achieve an optimized deployment of the requested/provided services. Our contributions in this thesis are threefold. First, we propose a delay-aware Placement and Chaining algorithms for delay-sensitive applications over NFV networks. The proposed algorithms aim to meet the appropriate end-to-end delay defined according to the deployed service (VoIP, Streaming, etc.). Second, we provide a comprehensive service availability benchmarking and we propose two availability-aware mechanisms for VNFs chain. The aim is to provide resilient service provisioning by fine-tuning the parameters of the protection scheme (the number, the type, the placement and the size of the spare instances) needed to reach a predefined availability level, despite network failures. Finally, we propose a framework architecture that explores the possibility to extend the virtualization paradigm to Internet of Things (IoT). Toward this end, we define an energy-aware Placement and Chaining for IoT services where inherent IoT functionalities are decoupled from specific dedicated IoT devices and instantiated on-demand. By bringing together NFV and IoT paradigms, this extension opens new perspectives and push toward designing new use cases.
87

A Comparison of the Resiliency Against Attacks Between Virtualised Environments and Physical Environments

Tellez Martinez, Albert, Steinhilber, Dennis Dirk January 2020 (has links)
Virtualisation is a technology that is more and more applied due to its advantages regarding cost and operation. It is often believed that it provides a better security for an IT environment since it enables centralisation of hardware. However, virtualisation changes an IT environment fundamentally and contains new vulnerabilities that must be considered. It is of interest to evaluate whether the belief that virtual environments provide a better security for an IT environment is true or not. In this project, the resiliency against attacks for physical environments and virtual environments is analysed to determine which one provides a higher resiliency and why. Therefore, the physical and digital attack surfaces of all entities are analysed to reveal the relevant vulnerabilities that could be exploited. Beside a theoretical research, a physical and a virtual environment have been established to test chosen attacks practically. The results show that virtual environments are less resilient than physical environments, especially to common attacks. This shows that virtualisation is still a technology that is new to many companies and the vulnerabilities it has must be taken seriously.
88

Optimization and virtualization techniques adapted to networking / Des techniques d’optimisation et de virtualisation adaptées aux réseaux

Ibn Khedher, Hatem 30 April 2018 (has links)
Dans cette thèse, on présente nos travaux sur la virtualisation dans le contexte de la réplication des serveurs de contenu vidéo. Les travaux couvrent la conception d’une architecture de virtualisation pour laquelle on présente aussi plusieurs algorithmes qui peuvent réduire les couts globaux à long terme et améliorer la performance du système. Le travail est divisé en plusieurs parties : les solutions optimales, les solutions heuristiques pour des raisons de passage à l’échelle, l’orchestration des services, l’optimisation multi-objective, la planification de services dans des réseaux actifs et complexes et l'intégration d'algorithmes dans une plate-forme réelle / In this thesis, we designed and implemented a tool which performs optimizations that reduce the number of migrations necessary for a delivery task. We present our work on virtualization in the context of replication of video content servers. The work covers the design of a virtualization architecture for which there are also several algorithms that can reduce overall costs and improve system performance. The thesis is divided into several parts: optimal solutions, greedy (heuristic) solutions for reasons of scalability, orchestration of services, multi-objective optimization, service planning in complex active networks, and integration of algorithms in real platform. This thesis is supported by models, implementations and simulations which provide results that showcase our work, quantify the importance of evaluating optimization techniques and analyze the trade-off between reducing operator cost and enhancing end user satisfaction index
89

GeRoFan : une architecture et un plan de contrôle basés sur la radio-sur-fibre pour la mutualisation des réseaux d'accès mobile de nouvelle génération / GeRoFAN : an architecture and a control plane based on radio-over-fiber for the mutualization of next generation radio mobile backhaul

Haddad, Ahmed 26 April 2013 (has links)
L’architecture actuelle des réseaux d’accès radio n’est pas adaptée en terme de capacité à supporter l’accroissement continu du trafic dans les systèmes cellulaires 4G et au-delà. L’objectif de cette thèse est de proposer une architecture réseau générique, GeRoFAN (Generic Radio over Fiber Access Network) pour la fédération des stations de base des systèmes cellulaires de nouvelle génération (WiMAX, 4G LTE). Deux innovations technologiques majeures sont utilisées pour l’implémentation de l’architecture GeRoFAN: la radio-sur-fibre (RoF) et les modulateurs réflexifs éléctro-absorbants. La thèse vise aussi à concevoir pour l’architecture GeRoFAN un plan contrôle et un canal de signalisation adapté permettant le basculement des ressources radio, selon la fluctuation du trafic, entre un grand nombre de cellules réparties à l’échelle métropolitaine. Cependant, il a été bien avéré que la transmission optique de plusieurs canaux radios en utilisant la RoF analogique est assujettie à des multiples facteurs de dégradation physique altérant la qualité du signal de ces canaux et induisant une perte dans leur capacité de Shannon. L’originalité du plan de contrôle de GeRoFAN est de réaliser une affectation optimisée des canaux radios sur les porteuses optiques, grace au multiplexage par sous-porteuse (SCM), afin d’ajuster la capacité de Shannon dans chaque cellule radio à la charge de trafic à laquelle elle est soumise. A cet effet, une connaissance fine des contraintes physiques de la transmission RoF est requise pour le plan de contrôle. Cette connaissance est acquise par l’élaboration d’un modèle analytique des divers bruits de transmission du système GeRoFAN. Contrairement à des propositions comparables, le plan contrôle de GeRoFAN se doit d’être le plus transparent que possible à la technologie des systèmes radio concernés. Sa nature " MAC radio agnostique " vise à permettre, grâce au multiplexage en longueur d’onde et au routage optique WDM, la fédération de plusieurs opérateurs utilisant différentes technologies radio sur la même infrastructure. Plus généralement, avec la mutualisation de l’architecture GeRoFAN, le plan de contrôle permet de virtualiser les ressources radiofréquences et de promouvoir de nouveaux modèles économiques pour les opérateurs Télécoms. Le dernier volet de la thèse se focalise sur la valeur "business" du paradigme GeRoFAN. Les contours du nouveau éco-system d’affaire promu par GeRoFAN sont définis. Les motivations/attentes des différentes parties prenantes dans cet éco-system sont esquissées, les contraintes réglementaires et organisationnelles soulevées sont adressées afin d’assurer un déploiement sans heurts de GeRoFAN. Bien qu’exigeant un nouveau modèle réglementaire, il s’agit de mettre en évidence l’intérêt économique de la solution GeRoFAN, tout particulièrement en comparaison à la RoF digitale, à travers des études technico-économiques chiffrant les couts d’investissement (CapEx), les couts opérationnels (OpEx) et les possibles retours sur investissement. A cet effet, deux modèles économiques sont proposés mettant en évidence la valeur ajoutée de GeRoFAN tout au long de la chaine de valeur. / Current radio access networks architectures are not suited in terms of capacity and backhauling capabilities to fit the continuing traffic increase of 4G cellular systems. The objective of the thesis is to propose an innovative and generic mobile backhauling network architecture, called GeRoFAN (Generic Radio-over-Fiber Access Network), for next generation mobile systems (WiMAX, 4G LTE). Two major technological innovations are used to implement GeRo-FAN: analog Radio-over-Fiber (RoF) and reflective amplified absorption modulators. The aim of this thesis is to design for such an architecture an original Control Plane (CP) and a signaling channel enabling to balance radio resources between a set of neighboring cells at the access/metropolitan scale according to traffic fluctuations. The transmission of several radio frequencies by means of an analog RoF link suffers from several impairments that may degrade the capacity of the radio system. The originality of the GeRoFAN-CP consists in mapping radio frequencies with optical carriers by means of Sub-Carrier Multiplexing (SCM) in order to optimize the Shannon’s capacity within the various cells covered by the system according to the current traffic load. For that purpose, a deep analysis and modeling of the various physical layer impairments impacting the quality of the radio signal is carried out. Unlike comparable approaches, the GeRoFAN-CP is as independent as possible from the radio layer protocols. Thus, the "radio MAC-agnostic" nature of the GeRoFAN-CP enables to federate multiple operators using different radio technologies onto the same backhauling optical infrastructure. Subcarrier and wavelength division multiplexing (SCM/WDM) as well as WDM optical routing capabilities are exploited onto the GeRoFAN transparent architecture. More globally, the GeRoFAN-CP enables a form of "radio frequency virtualization" while promoting new business models for Telecom service providers. The last part of the thesis focuses on the business value of the GeRoFAN paradigm. The expectations of the different stake-holders and main regulatory/organizational entities that could be involved in the deployment of GeRoFAN infrastructures should be addressed in order to achieve a smooth deployment of this new type of mobile backhauling. Economics of the GeRoFAN architecture are investigated in terms of OpEx/CapEx valuation and investment profitability, especially in reference to digitized RoF. Two business models are then proposed to study how GeRoFAN contributes to enriching the cellular backhauling service value chain.
90

Fuites d'information dans les processeurs récents et applications à la virtualisation / Information leakage on shared hardware : evolutions in recent hardware and applications to virtualization

Maurice, Clémentine 28 October 2015 (has links)
Dans un environnement virtualisé, l'hyperviseur fournit l'isolation au niveau logiciel, mais l'infrastructure partagée rend possible des attaques au niveau matériel. Les attaques par canaux auxiliaires ainsi que les canaux cachés sont des problèmes bien connus liés aux infrastructures partagées, et en particulier au partage du processeur. Cependant, ces attaques reposent sur des caractéristiques propres à la microarchitecture qui change avec les différentes générations de matériel. Ces dernières années ont vu la progression des calculs généralistes sur processeurs graphiques (aussi appelés GPUs), couplés aux environnements dits cloud. Cette thèse explore ces récentes évolutions, ainsi que leurs conséquences en termes de fuites d'information dans les environnements virtualisés. Premièrement, nous investiguons les microarchitectures des processeurs récents. Notre première contribution est C5, un canal caché sur le cache qui traverse les coeurs d'un processeur, évalué entre deux machines virtuelles. Notre deuxième contribution est la rétro-ingénierie de la fonction d'adressage complexe du dernier niveau de cache des processeurs Intel, rendant la classe des attaques sur les caches facilement réalisable en pratique. Finalement, dans la dernière partie nous investiguons la sécurité de la virtualisation des GPUs. Notre troisième contribution montre que les environnements virtualisés sont susceptibles aux fuites d'informations sur la mémoire d'un GPU. / In a virtualized environment, the hypervisor provides isolation at the software level, but shared infrastructure makes attacks possible at the hardware level. Side and covert channels are well-known issues of shared hardware, and in particular shared processors. However, they rely on microarchitectural features that are changing with the different generations of hardware. The last years have also shown the rise of General-Purpose computing on Graphics Processing Units (GPGPU), coupled to so-called cloud environments. This thesis explores these recent evolutions and their consequences in terms of information leakage in virtualized environments. We first investigate the recent processor microarchitectures. Our first contribution is C5, a cross-core cache covert channel, evaluated between virtual machines. Following this work, our second contribution is the reverse engineering of the complex addressing function of the last-level cache of Intel processors, rendering the class of cache attacks highly practical. In the last part, we investigate the security of GPU virtualization. Our third contribution shows that virtualized environments are susceptible to information leakage from the GPU memory.

Page generated in 0.1118 seconds