Spelling suggestions: "subject:"réseaux"" "subject:"éseaux""
171 |
Sur l'intégration de mécanismes d'ordonnancement et de communication dans la sous-couche MAC de réseaux locaux temps réelVasques De Carvalho, Francisco 25 June 1996 (has links) (PDF)
Cette thèse se situe dans le contexte des réseaux de communication temps-réel et son objectif est de proposer une architecture de communication pour la sous-couche MAC, qui définit des mécanismes pour assurer les contraintes temporelles du trafic temps-réel. Tout d'abord, une classification des protocoles MAC temps-réel existants, en mettant en exergue l'aspect ordonnancement de flux de messages ou ordonnancement de stations, est effectuée. En particulier, le protocole "jeton temporisé" et des mécanismes de la norme "ISA SP-50 / IEC-65C" sont détaillés. Ensuite, des contributions sur les mécanismes d'ordonnancement et les mécanismes protocolaires sont développées, à la fois en termes conceptuels et en termes de réflexions sur les normes existantes: proposition d'un algorithme non-préemptif ED avec, en particulier, une extension des conditions classiques d'ordonnançabilité; définition d'un algorithme de changement de mode de fonctionnement pour un système ordonnancé par l'algorithme RM; définition d'un protocole appelé "jeton temporisé régulier" qui améliore les performances temps-réel du protocole "jeton temporisé"; définition des conditions d'ordonnançabilité du trafic apériodique urgent dans le réseau FIP et proposition de deux profils de fonctionnement temps-réel pour le réseau Profibus. Enfin, nous proposons, modélisons avec le modèle "Réseaux de Petri Temporisés Stochastiques" et évaluons une architecture de communication pour la sous-couche MAC de réseaux locaux temps-réel. Cette architecture met en ¿uvre, de manière centralisée, un ordonnancement conjoint des trafics périodique et apériodique temps-réel, sur la base d'un algorithme non-préemptif pour le trafic périodique et d'une technique de jeton temporisé pour le trafic apériodique temps-réel. L'analyse permet, d'une part, d'évaluer l'ordonnancement en termes de taux d'utilisation permis et des limites de l'ordonnançabilité et, d'autre part, de montrer tout l'intérêt des modèles "Réseaux de Petri Temporisés Stochastiques" pour représenter et évaluer automatiquement l'ordonnançabilité d'un ensemble de configurations de flux de messages.
|
172 |
Protocoles localisés de diffusion et économie d'énergie dans les réseaux ad hoc et de capteursIngelrest, François 30 June 2006 (has links) (PDF)
Un réseau ad hoc sans fil est composé d'un ensemble décentralisé d'objets mobiles et auto-organisés. Un tel réseau ne repose sur aucune infrastructure, et est donc complètement autonome et dynamique. Selon ces hypothèses, tout ensemble d'objets équipés d'interfaces de communication adéquates peut spontanément former un tel réseau. Puisque des communications sans fil sont utilisées, seuls les objets suffisamment proches les uns des autres peuvent communiquer ensemble. Les communications de longue portée doivent donc être effectuées via un mécanisme multi-sauts : cela veut simplement dire que les objets intermédiaires doivent faire suivre les messages jusqu'au destinataire.<br /><br />Les réseaux de capteurs sont similaires aux réseaux ad hoc, car ils sont également décentralisés et autonomes. Un capteur est un petit appareil capable de surveiller son environnement. Des cas typiques d'utilisation peuvent être la surveillance de zones militaires (détection de mouvements) ou de forêts (détection d'incendie).<br /><br />Parmi les problèmes communs à ces deux types de réseaux se trouve la diffusion. Dans une telle communication, un message est envoyé depuis un objet donné vers tous les autres du réseau. Les applications de ce processus sont nombreuses : découverte de routes, synchronisation... Comme les objets mobiles utilisent une batterie, il est nécessaire que la diffusion soit la plus économe possible d'un point de vue énergétique. Cela est généralement obtenu en réduisant la quantité de relais nécessaires, ou en limitant la puissance d'émission à chaque relais.<br /><br />Le but de mon travail était d'étudier la diffusion dans les réseaux ad hoc et de capteurs, afin de mettre en lumière les caractéristiques et les défauts des mécanismes existants, puis d'en proposer de nouveaux, plus efficaces. Dans tous ces travaux, nous avons toujours voulu rester dans le domaine des solutions 'réalistes' : beaucoup des précédentes études utilisaient en effet des mécanismes centralisés, où une connaissance globale du réseau est nécessaire pour effectuer la diffusion. Nous nous sommes concentrés sur des solutions fiables et localisés, c'est-à-dire n'utilisant que des informations sur le voisinage de chaque noeud. Ce type de mécanisme permet également un passage à l'échelle simplifié, car la quantité d'informations nécessaire ne varie pas avec la taille du réseau. Nos études montrent de plus que ces solutions peuvent être aussi efficaces que les méthodes centralisées.<br /><br />Puisque l'ajustement de portée est un mécanisme très important dans la conservation de l'énergie, nous avons proposé une méthode de diffusion originale, basée sur le concept de portée optimale de communication. Cette dernière est calculée de manière théorique grâce au modèle énergétique considéré, et représente le meilleur compromis entre l'énergie dépensée à chaque noeud et le nombre de relais nécessaires. Nous avons ainsi proposé deux protocoles différents basés sur ce concept, chacun étant plus spécifiquement adapté soit aux réseaux ad hoc (TR-LBOP), soit aux réseaux de capteurs (TR-DS).<br /><br />Afin de réduire encore plus la consommation énergétique, nous avons étudié le fameux protocole centralisé nommé BIP. Son efficacité est due au fait qu'il considère la couverture obtenue par une seule émission omnidirectionnelle, au lieu de considérer chaque lien séparément. Nous avons proposé une solution localisée basée sur BIP, afin de construire incrémentalement une structure de diffusion. Nous avons montré de manière expérimentale que les résultats ainsi obtenus sont très proches de ceux fournis par BIP, notamment dans les réseaux de forte densité, tout en n'utilisant que des informations locales à chaque noeud.<br /><br />Nous avons finalement considéré la suppression d'une hypothèse forte, largement répandue dans la communauté des réseaux ad hoc et de capteurs : l'utilisation d'un graphe du disque unitaire. Ce dernier définit la zone de communication d'un noeud comme étant un cercle parfait. Nous avons remplacé cette hypothèse par une autre plus réaliste afin d'en étudier les conséquences sur un protocole connu, le protocole de diffusion par relais multipoints (MPR). Nous avons montré que ce dernier ne fournit plus de résultats suffisants dans un tel environnement. Nous avons également proposé quelques modifications afin d'obtenir à nouveau de bons résultats.
|
173 |
Détection de communautés recouvrantes dans des réseaux de terrain dynamiquesWang, Qinna 12 April 2012 (has links) (PDF)
Dans le contexte des réseaux complexes, la structure communautaire du réseau devient un sujet important pour plusieurs domaines de recherche. Les communautés sont en général vues comme des groupes intérieurement denses. La détection de tels groupes offre un éclairage intéressant sur la structure du réseau. Par exemple, une communauté de pages web regroupe des pages traitant du même sujet. La définition de communautés est en général limitée à une partition de l'ensemble des nœds. Cela exclut par définition qu'un nœd puisse appartenir à plusieurs communautés, ce qui pourtant est naturel dans de nombreux (cas des réseaux sociaux par exemple). Une autre question importante et sans réponse est l'étude des réseaux et de leur structure communautaire en tenant compte de leur dynamique. Cette thèse porte sur l'étude de réseaux dynamiques et la détection de communautés recouvrantes. Nous proposons deux méthodes différentes pour la détection de communautés recouvrantes. La première méthode est appelée optimisation de clique. L'optimisation de clique vise à détecter les nœds recouvrants granulaires. La méthode de l'optimisation de clique est une approche à grain fin. La seconde méthode est nommée détection floue (fuzzy detection). Cette méthode est à grain plus grossier et vise à identifier les groupes recouvrants. Nous appliquons ces deux méthodes à des réseaux synthétiques et réels. Les résultats obtenus indiquent que les deux méthodes peuvent être utilisées pour caractériser les nœds recouvrants. Les deux approches apportent des points de vue distincts et complémentaires. Dans le cas des graphes dynamiques, nous donnons une définition sur la relation entre les communautés à deux pas de temps consécutif. Cette technique permet de représenter le changement de la structure en fonction du temps. Pour mettre en évidence cette relation, nous proposons des diagrammes de lignage pour la visualisation de la dynamique des communautés. Ces diagrammes qui connectent des communautés à des pas de temps successifs montrent l'évolution de la structure et l'évolution des groupes recouvrantes., Nous avons également appliquer ces outils à des cas concrets.
|
174 |
Ufa : une architecture ultra plate pour les réseaux mobiles du futurDaoud Triki, Khadija 18 February 2011 (has links) (PDF)
Les réseaux mobiles ont un modèle en couches, avec: (1) un réseau d'accès IP offrant une connectivité IP aux utilisateurs; (2) une couche de contrôle de service, l'IMS; (3) une couche d'interaction pour le contrôle des politiques réseau, le PCC. Ce modèle, centralisé et hiérarchique, serait à l'origine de problèmes de passage à l'échelle et de qualité de service en cas d'explosion du volume de trafic de données à transporter. Dans cette thèse, un nouveau modèle pour les réseaux mobiles du futur est proposé: Ultra Flat Architecture (UFA). UFA utilise l'IMS pour le contrôle de tout type d'applications. UFA est dite plate car elle réduit le nombre de types de nœuds réseau à 2 principalement: (1) une Gateway UFA regroupant à la fois l'ensemble des fonctionnalités du réseau d'accès IP, de l'IMS et du PCC; (2) le terminal. Après la conception de l'architecture, nous avons spécifié et évalué trois procédures réseau principales pour UFA : l'enregistrement/authentification, l'établissement de service et la mobilité. Nous avons optimisé les deux premières procédures par rapport aux procédures standardisées de l'IMS. Par exemple, la procédure d'établissement de service présente un délai réduit et permet une configuration du service ou de la couche de transport selon les ressources disponibles dans le réseau. Nous avons développé une procédure de mobilité pour UFA, se basant sur le transfert, d'une Gateway UFA à une autre, des contextes de toutes les couches OSI liés au terminal, et sur la détermination proactive par la Gateway UFA des paramètres de toutes les couches du terminal. Tous les résultats obtenus montrent le grand intérêt d'UFA et des architectures plates plus généralement.
|
175 |
Adaptation de contexte basée sur la Qualité d'Expérience dans les réseaux Internet du FuturCherif, Wael 19 June 2013 (has links) (PDF)
Pour avoir une idée sur la qualité du réseau, la majorité des acteurs concernés (opérateurs réseau, fournisseurs de service) se basent sur la Qualité de Service (Quality of Service). Cette mesure a montré des limites et beaucoup d'efforts ont été déployés pour mettre en place une nouvelle métrique qui reflète, de façon plus précise, la qualité du service offert. Cette mesure s'appelle la qualité d'expérience (Quality of Experience). La qualité d'expérience reflète la satisfaction de l'utilisateur par rapport au service qu'il utilise. Aujourd'hui, évaluer la qualité d'expérience est devenu primordiale pour les fournisseurs de services et les fournisseurs de contenus. Cette nécessité nous a poussés à innover et concevoir des nouvelles méthodes pour estimer la QoE. Dans cette thèse, nous travaillons sur l'estimation de la QoE (1) dans le cas des communications Voix sur IP et (2) dans le cas des services de diffusion Vidéo sur IP. Nous étudions les performances et la qualité des codecs iLBC, Speex et Silk pour la VoIP et les codecs MPEG-2 et H.264/SVC pour la vidéo sur IP. Nous étudions l'impact que peut avoir la majorité des paramètres réseaux, des paramètres sources (au niveau du codage) et destinations (au niveau du décodage) sur la qualité finale. Afin de mettre en place des outils précis d'estimation de la QoE en temps réel, nous nous basons sur la méthodologie Pseudo-Subjective Quality Assessment. La méthodologie PSQA est basée sur un modèle mathématique appelé les réseaux de neurones artificiels. En plus des réseaux de neurones, nous utilisons la régression polynomiale pour l'estimation de la QoE dans le cas de la VoIP.
|
176 |
Auto-organisation des réseaux sans-fil multi-sauts dans les villes intelligentesDucrocq, Tony 15 November 2013 (has links) (PDF)
Les villes du futur et actuelles sont de plus en plus connectées. Les relèves de compteur électrique, de gaz et d'eau se font de plus en plus à distance et sans-fil. Les luminaires des villes deviennent intelligents et communiquent pour économiser l'énergie et offrir un éclairage adapté. Les engins de ramassage des ordures communiqueront bientôt avec les poubelles afin d'anticiper les tournées de ramassage et de mieux connaître le contenu des containers. Pour des questions de coûts et de rapidité de déploiement, ces réseaux sont souvent sans infrastructure. Par ailleurs, pour les mêmes raisons, chaque nœud du réseau puise son énergie dans une batterie donc la capacité est limitée. Il convient donc pour ces réseaux particuliers, déployés dans un environnement contraint, de trouver des solutions d'organisation et de communication adaptées. À travers cette thèse je propose d'étudier la problématique des réseaux sans-fil multi-sauts dans les villes intelligentes. J'étudie dans un premier temps l'importance et l'impact de la topologie sur les performances réseau. Plus précisément, au travers de simulations et d'études expérimentales, je démontre que le placement des nœuds impacte les performances des algorithmes et que, par conséquent, il est nécessaire d'étudier les algorithmes pour réseaux de capteurs sans-fil sur des topologies qui correspondent à l'application ciblée. Je propose ensuite une famille d'algorithmes de clustering pour réseaux de capteurs sans-fil permettant d'optimiser la durée de vie du réseau. L'hypothèse clé de ces algorithmes est qu'un chef de cluster (cluster-head ) consomme plus d'énergie qu'un nœud sans rôle particulier. En effet, le cluster-head se voit souvent attribuer des tâches supplémentaires telles que l'agrégation de données et la transmission à un nœud puits, plus lointain donc plus coûteux à joindre. Cette famille d'algorithmes nommée BLAC permet de créer des clusters multi-sauts dans lesquels chaque tête de cluster est la racine d'un arbre qui compose le cluster. Dans chaque cluster, les données sont acheminées vers le cluster-head grâce à un gradient routing. L'idée principale de ces algorithmes est que le rôle de cluster-head doit être attribué en fonction du niveau d'énergie des nœuds et de leur voisinage. Ces algorithmes ont été testés grâce à des simulations sur des topologies de villes réalistes avec des paramètres de simulation tirés du monde réel. Enfin, je propose un algorithme de routage pour des réseaux de villes intelligentes à large échelle. Cet algorithme repose sur l'hypothèse que seulement certains nœuds du réseau ont une connaissance de leur position. Cette position peut être acquise parce que ces nœuds sont équipés d'une puce de localisation (telle que le GPS) ou parce qu'ils sont fixes et configurés au moment du déploiement avec leur position pré-programmée. Cet algorithme epose sur la combinaison de deux techniques de routage, classique et géographique : AODV et Greedy geographic routing. Je montre qu'il est possible d'obtenir des performances proches des algorithmes de routage géographique alors même qu'un sous ensemble des nœuds du réseau n'a pas connaissance de sa position.
|
177 |
Apprentissage de la qualité de service dans les réseaux multiservices: applications au routage optimal sous contraintesMahul, Antoine 23 November 2005 (has links) (PDF)
La cohabitation de plusieurs services différents sur un même réseau soulève de nombreux problèmes pour la gestion et la conception de réseau de télécommunication. L'introduction de mécanismes "intelligents " dans les réseaux multiservices permet de surmonter la difficulté de mettre en place des méthodes plus traditionnelles pour prendre en compte toute la complexité générée par la multiplication des services. Dans ce contexte, nous nous intéressons au problème de l'évaluation de performance dans les réseaux à l'état stationnaire, et plus spécifiquement l'évaluation des critères de qualité de service (QoS). Au lieu d'essayer de modéliser tous les mécanismes d'un routeur pour formaliser certains critères de QoS, nous proposons d'utiliser les capacités d'apprentissage et de généralisation des réseaux de neurones pour apprendre cette QoS à partir d'observations du système. Nous proposons ainsi des modèles neuro-mimétiques de différents critères de la QoS d'un noeud du réseau qui s'appuient sur une description statistique relativement simple des trafics incidents. Nous avons étudié l'apprentissage de plusieurs critères de qualité de service à partir de simulations à évènements discrets dans le cas de files d'attente élémentaires et de files d'attente à serveur partagé qui modélisent la différentiation de services dans les routeurs IP ou MPLS. Nous généralisons ensuite cette approche pour effectuer l'estimation de la QoS le long d'un chemin et proposons pour cela une coopération distribuée de modèles neuronaux. Les réseaux de neurones sont chargés d'estimer à la fois les critères de qualité de service et une description du trafic de sortie. Ce schéma couplé à un protocole de type RSVP permettrait à terme de propager les estimations le long du chemin pour établir une estimation de la QoS de bout en bout. Nous nous intéressons enfin au problème de routage optimal sous contraintes de QoS de bout en bout. Nous présentons une formalisation multiflot permettant de mettre en place une stratégie de résolution de type déviation de flot qui s'appuie sur une approche de type lagrangien augmenté pour relâcher les contraintes de QoS. Cette stratégie permet d'obtenir un optimum local réalisable. Nous proposons ensuite de remplacer l'approximation M/M/1 traditionnellement utilisée dans les modèles de multiflot par un modèle par réseaux de neurones de la QoS, plus réaliste notamment dans le cas de la différentiation de service. Toutefois il est nécessaire de garantir la croissance des fonctions évaluations pour assurer la validité du schéma d'optimisation. Cette monotonie peut être imposée lors de l'apprentissage du modèle neuronal par l'ajout de contraintes sur les dérivées premières. Nous avons développé ainsi un algorithme d'apprentissage sous contraintes qui impose la monotonie dans les réseaux de neurones feed-forward en utilisant des méthodes classiques de l'optimisation nonlinéaire sous contraintes.
|
178 |
Conceptual Approaches for Securing Networks and SystemsBecker, Sheila 16 October 2012 (has links) (PDF)
Peer-to-peer real-time communication and media streaming applications optimize their performance by using application-level topology estimation services such as virtual coordinate systems. Virtual coordinate systems allow nodes in a peer-to-peer network to accurately predict latency between arbi- trary nodes without the need of performing extensive measurements. However, systems that leverage virtual coordinates as supporting building blocks, are prone to attacks conducted by compromised nodes that aim at disrupting, eavesdropping, or mangling with the underlying communications. Recent research proposed techniques to mitigate basic attacks (inflation, deflation, oscillation) considering a single attack strategy model where attackers perform only one type of attack. In this work, we define and use a game theory framework in order to identify the best attack and defense strategies assuming that the attacker is aware of the defense mechanisms. Our approach leverages concepts derived from the Nash equilibrium to model more powerful adversaries. We apply the game theory framework to demonstrate the impact and efficiency of these attack and defense strategies using a well-known virtual coordinate system and real-life Internet data sets. Thereafter, we explore supervised machine learning techniques to mitigate more subtle yet highly effective attacks (frog-boiling, network-partition) that are able to bypass existing defenses. We evaluate our techniques on the Vivaldi system against a more complex attack strategy model, where attackers perform sequences of all known attacks against virtual coordinate systems, using both simulations and Internet deployments.
|
179 |
Routage g éographique dans les r éseaux de capteurs et actionneursGouvy, Nicolas 19 September 2013 (has links) (PDF)
Cette thèse se positionne dans le contexte des réseaux sans fil multi-sauts tels les réseaux de capteurs ou les réseaux de capteurs/actionneurs ou encore de robots mobiles. Ces réseaux sont composés d'entités (nœuds) indépendantes (c.-à-d. les robots) possédant des capacités limitées en termes de taille mémoire, de capacité de calcul et sont soumis à des contraintes énergétiques fortes (ces composants reposent sur des batteries). Ils communiquent exclusivement par voie radio, il n'y a donc aucune infrastructure fixe. Pour pouvoir relayer les messages d'un robot à une station de base, on utilise des protocoles dits " de routage" qui ont en charge de déterminer quel robot doit relayer le message, de façon locale et distribuée, sans connaissance globale du réseau. Nous nous sommes basé sur CoMNet, le premier protocole de routage géographique utilisant la mobilité contrôlée tout en garantissant la connexité de celui-ci. CoMNet va, à chaque routage, relocaliser le prochain saut selon un schéma de relocalisation prédéfini de manière à adapter la topologie du réseau à son trafic, et ce afin d'économiser de l'énergie. CoMNet propose trois schémas de relocalisation différents adaptés à différents environnements, et l'on en choisit un au démarrage du réseau. Toutefois, CoMNet, en faisant bouger le prochain nœud N, va certes adapter la topologie, mais aussi modifier le voisinage de ce même nœud. Quand ça sera à lui de transmettre le message il n'aura plus forcément les mêmes possibilités, ses voisins ayant changé. La relocalisation d'un nœud N va servir de base pour celle de N + 1 et les suivants dans le routage. En réponse à ce problème, nous avons proposé MobileR (Mobile Recursivity). MobileR va, à chaque étape du routage, essayer d'anticiper sur plusieurs sauts pour choisir le prochain noeud. Il va calculer la relocalisation des voisins N et pour chacun d'entre eux les multiples N + 1 possibles, etc. MobileR va donc calculer à chaque étape du routage les coûts sur progrès de chacun des chemins (avec nœuds relocalisés) possibles. Le paquet sera alors transmis, au premier nœud du chemin qui minimise ce ratio. Le principe même de relocaliser les nœuds apporte son lot de nouveaux problèmes. Ainsi, dans les réseaux de capteurs, il y a souvent plusieurs nœuds sources qui détectent un même événement et vont émettre des messages à router vers l'unique station de base. Les chemins de routage de ces différents messages sont physiquement proches - vu qu'ils sont liés à un même événement - et ce d'autant plus qu'on se rapproche de la station de base. Ces chemins vont finir par se croiser, et le noeud de croisement va sans cesse être relocalisé par chacun des chemins. C'est pourquoi j'ai proposé le protocole de routage PAMAL (PAth Merging ALgorithm) en réponse à un problème introduit par la mobilité. En effet, PAMAL permet de détecter ces intersections et de les gérer localement. Il va arrêter ces oscillations parasites, provoquer une fusion des chemins de routage en amont du noeud d'intersection et une agrégation de paquets en aval. PAMAL propose ainsi une amélioration de la durée de vie du réseau allant jusqu'à 37% avec un mécanisme d'agrégation très simple. La mobilité contrôlée permet aussi d'envisager de nouvelles solutions à des anciens problèmes. Le protocole GRR (Greedy Routing Recovery) propose ainsi un mécanisme de récupération pour augmenter le taux de délivrance des messages dans les réseaux de capteurs/actionneurs avec obstacle(s). En effet aucun des protocoles de routage reposant sur des actionneurs n'implémente un procédé pour contourner les obstacles ou les zones de faible densité où le routage glouton simple est impossible. Ils routent tous les messages de manière gloutonne vers la destination. Le routage échoue alors quand un noeud n'a plus de voisin plus proche de la destination que lui-même. C'est pourquoi GRR va, quand le routage glouton simple de proche en proche échoue, appliquer un nouveau schéma de relocalisation qui va permettre de contourner l'obstacle tout en restaurant le routage glouton. L'obstacle va ainsi être circonvenu en relocalisant des nœuds tout autour. Ainsi, les routages suivants seront gloutons. Sans pour autant garantir la délivrance de 100% des messages, nos simulations montrent que le mécanisme de récupération de GRR permet de router avec succès dans 72% des cas sur des topologies où CoMNet échoue dans tous les cas.
|
180 |
Virtualisation des réseaux : performance, partage et applicationsFabienne, Anhalt 07 July 2011 (has links) (PDF)
La virtualisation apparait comme étant une solution clé pour révolutionner l'architecture des réseaux comme Internet. La croissance et le succès d'Internet ont fini par aboutir a' son ossification : le déploiement de nouvelles fonctionnalités ou la mise a jour de son architecture ne sont guère possibles, entravant ainsi les innovations. La virtualisation apporte une réponse a cette problématique, en ajoutant une couche d'abstraction entre le matériel et le réseau tel qu'il est vu par les utilisateurs. De tels réseaux virtuels peuvent être gérés et configures de manière flexible et indépendamment les uns des autres, par des opérateurs différents. Ceci crée donc un environnement compétitif qui stimule l'innovation. En étant dématérialisés de cette façon, les réseaux peuvent être déployés a la demande, configures, démarrés, suspendus, sauvegardes, supprimes, etc., comme un en- semble d'objets eux-mêmes programmables, organisées dans une topologie, où chaque objet représente un commutateur, un routeur ou un lien virtuel. La flexibilité qui en résulte donne a l'opérateur la possibilité de configurer la topologie du réseau, et de modifier les piles protocolaires. Parvenir à un tel degré de découplage, permettant d'aboutir a' des changements fondamentaux, est l'un des buts ultimes de la virtualisation des réseaux-- qui est envisagée comme une cl e pour le 'futur' de l'Internet--mais le concept est pour l'instant loin d'être réalisé. Jusqu'à' présent, la virtualisation du réseaux a été déployée dans des plateformes de test ou de recherche, pour permettre aux chercheurs d'expérimenter avec les protocoles de routage, notamment dans les réseaux interconnectant des nœuds de calcul, eux-mêmes virtuels. L'industrie propose des routeurs virtuels pour la consolidation des réseaux afin de réduire les coûts des équipements. Pourtant, dans le but d'introduire la virtualisation dans les réseaux de production comme ceux de l'Internet, plusieurs nouveaux défis apparaissent. La couche supplémentaire interposée entre le matériel et les réseaux virtuels doit prendre en charge le partage des ressources physiques entre les différents réseaux virtuels. Elle introduit potentiellement un surcoût en performance. Dans ce manuscrit, nous nous concentrons sur ces problématiques, en particulier la performance et le partage dans les réseaux virtualises. Ces deux questions sont particulièrement pertinentes, lorsque le plan de données du réseau lui-même est virtualise, pour offrir un maximum d'isolation et de configurabilité dans des réseaux virtuels. Puis, nous examinons les possibles applications des réseaux virtuels, partageant le réseau physique au niveau du plan de données. Dans ce contexte, les contributions présentées dans ce manuscrit peuvent être résumées de la manière suivante. Analyse et évaluation de l'impact des mécanismes de virtualisation sur la performance des communications. Afin d' évaluer l'impact de la virtualisation sur les performances d'un réseau virtualise, nous analysons d'abord différentes technologies qui permettent de virtualiser le plan de données. Puis nous construisons un prototype de routeur virtuel en utilisant des techniques logicielles de virtualisation. La performance réseau d'un tel routeur virtuel est évaluée en détail, en utilisant des configurations logicielles différentes [7] [9] [2]. Les résultats montrent que la performance des communications des serveurs virtuels a augmente durant les dernières années, pour atteindre jusqu'à' 100% du débit maximum sur des interfaces réseau de 1 Gb/s, grâce aux optimisations logicielles. La virtualisation en logiciel est donc une approche prometteuse pour l'expérimentation, mais pour un réseau de production tel qu'Internet, du matériel dédié est requis, pour atteindre de très hauts débits (> 10 Gb/s). Virtualisation de la matrice de commutation. Nous proposons une architecture de commutation virtualisée, qui permet de partager les ressources matérielles d'un commutateur de manière flexible entre plusieurs commutateurs virtuels [5]. Cette architecture de switch virtualisée permet a' des utilisateurs de mettre en place des commutateurs virtuels, instancies au dessus du commutateur physique, chaque commutateur ayant un nombre de ports configurable. De plus, la capacité par port et la taille des tampons mémoire peuvent être dimensionnées. En outre, chaque commutateur virtuel peut disposer de mécanismes d'ordonnancement et de mise en file d'attente de paquets différents. Un ordonnanceur de commutateurs virtuels contrôle le partage des ressources matérielles entre les commutateurs virtuels et assure l'isolation des performances. L'architecture proposée est évaluée par des simulations. Un brevet a été déposé pour cette architecture [VxSwitch]. Isolation et programmation de r eseaux virtuels. Etant virtualisées, les ressources réseau sont partagées par des réseaux virtuels différents. Pour contrôler la quantité de chaque ressource qui est attribuée à chaque réseau virtuel, nous proposons un service de réseaux virtuels. Ce service consiste en l'interconnexion de nœuds par un réseau virtuel, compose de routeurs et de liens virtuels. Les routeurs peuvent être configures afin que chaque réseau virtuel puisse contrôler quel chemin est utilise par son trafic. La bande passante peut être allouée dynamiquement aux liens virtuels. Les ressources physiques sous-jacentes vérifient que chaque lien virtuel fournit la bande passante configurée et qu'il assure un niveau de service garanti [1]. Ce service est implémenté de deux façons. En premier lieu, des routeurs virtuels logiciels interconnectes par des liens virtuels sont utilises [HIPerNet]. Puis, des routeurs et liens virtuels sont crées en utilisant des commutateurs OpenFlow. Des évaluations montrent qu'avec chacune des deux approches, des garanties en termes de bande passante, ainsi que des fonctions de configuration du routage peuvent être fournies a' chaque réseau virtuel. Application des réseaux virtuels. Finalement, le service de réseaux virtuels est applique au contexte des infrastructures virtuelles généralisées, combinant la virtualisation du réseau et des nœuds de calcul. Les utilisateurs peuvent demander une infrastructure virtuelle de calcul, dont les ressources sont interconnectées par un réseau virtuel contrôle. Cette approche est prometteuse pour les réseaux du Cloud ou nuage en français. Nous déployons un tel service dans la plateforme de test Grid'5000, et l'évaluons en utilisant une application distribuée à grande échelle [6]. Les résultats montrent que la configuration de niveaux de service réseau différents impacte directement le temps d'exécution de l'application [3] [12]. Nous validons donc l'importance du contrôle et de l'isolation dans les réseaux virtuels, dans le but de fournir des performances prévisibles a des applications Cloud.
|
Page generated in 0.0535 seconds