• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 62
  • 62
  • 28
  • Tagged with
  • 154
  • 154
  • 142
  • 142
  • 142
  • 142
  • 142
  • 140
  • 139
  • 20
  • 19
  • 17
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Auto-organisation des réseaux sans-fil multi-sauts dans les villes intelligentes

Ducrocq, Tony 15 November 2013 (has links) (PDF)
Les villes du futur et actuelles sont de plus en plus connectées. Les relèves de compteur électrique, de gaz et d'eau se font de plus en plus à distance et sans-fil. Les luminaires des villes deviennent intelligents et communiquent pour économiser l'énergie et offrir un éclairage adapté. Les engins de ramassage des ordures communiqueront bientôt avec les poubelles afin d'anticiper les tournées de ramassage et de mieux connaître le contenu des containers. Pour des questions de coûts et de rapidité de déploiement, ces réseaux sont souvent sans infrastructure. Par ailleurs, pour les mêmes raisons, chaque nœud du réseau puise son énergie dans une batterie donc la capacité est limitée. Il convient donc pour ces réseaux particuliers, déployés dans un environnement contraint, de trouver des solutions d'organisation et de communication adaptées. À travers cette thèse je propose d'étudier la problématique des réseaux sans-fil multi-sauts dans les villes intelligentes. J'étudie dans un premier temps l'importance et l'impact de la topologie sur les performances réseau. Plus précisément, au travers de simulations et d'études expérimentales, je démontre que le placement des nœuds impacte les performances des algorithmes et que, par conséquent, il est nécessaire d'étudier les algorithmes pour réseaux de capteurs sans-fil sur des topologies qui correspondent à l'application ciblée. Je propose ensuite une famille d'algorithmes de clustering pour réseaux de capteurs sans-fil permettant d'optimiser la durée de vie du réseau. L'hypothèse clé de ces algorithmes est qu'un chef de cluster (cluster-head ) consomme plus d'énergie qu'un nœud sans rôle particulier. En effet, le cluster-head se voit souvent attribuer des tâches supplémentaires telles que l'agrégation de données et la transmission à un nœud puits, plus lointain donc plus coûteux à joindre. Cette famille d'algorithmes nommée BLAC permet de créer des clusters multi-sauts dans lesquels chaque tête de cluster est la racine d'un arbre qui compose le cluster. Dans chaque cluster, les données sont acheminées vers le cluster-head grâce à un gradient routing. L'idée principale de ces algorithmes est que le rôle de cluster-head doit être attribué en fonction du niveau d'énergie des nœuds et de leur voisinage. Ces algorithmes ont été testés grâce à des simulations sur des topologies de villes réalistes avec des paramètres de simulation tirés du monde réel. Enfin, je propose un algorithme de routage pour des réseaux de villes intelligentes à large échelle. Cet algorithme repose sur l'hypothèse que seulement certains nœuds du réseau ont une connaissance de leur position. Cette position peut être acquise parce que ces nœuds sont équipés d'une puce de localisation (telle que le GPS) ou parce qu'ils sont fixes et configurés au moment du déploiement avec leur position pré-programmée. Cet algorithme epose sur la combinaison de deux techniques de routage, classique et géographique : AODV et Greedy geographic routing. Je montre qu'il est possible d'obtenir des performances proches des algorithmes de routage géographique alors même qu'un sous ensemble des nœuds du réseau n'a pas connaissance de sa position.
12

Apprentissage de la qualité de service dans les réseaux multiservices: applications au routage optimal sous contraintes

Mahul, Antoine 23 November 2005 (has links) (PDF)
La cohabitation de plusieurs services différents sur un même réseau soulève de nombreux problèmes pour la gestion et la conception de réseau de télécommunication. L'introduction de mécanismes "intelligents " dans les réseaux multiservices permet de surmonter la difficulté de mettre en place des méthodes plus traditionnelles pour prendre en compte toute la complexité générée par la multiplication des services. Dans ce contexte, nous nous intéressons au problème de l'évaluation de performance dans les réseaux à l'état stationnaire, et plus spécifiquement l'évaluation des critères de qualité de service (QoS). Au lieu d'essayer de modéliser tous les mécanismes d'un routeur pour formaliser certains critères de QoS, nous proposons d'utiliser les capacités d'apprentissage et de généralisation des réseaux de neurones pour apprendre cette QoS à partir d'observations du système. Nous proposons ainsi des modèles neuro-mimétiques de différents critères de la QoS d'un noeud du réseau qui s'appuient sur une description statistique relativement simple des trafics incidents. Nous avons étudié l'apprentissage de plusieurs critères de qualité de service à partir de simulations à évènements discrets dans le cas de files d'attente élémentaires et de files d'attente à serveur partagé qui modélisent la différentiation de services dans les routeurs IP ou MPLS. Nous généralisons ensuite cette approche pour effectuer l'estimation de la QoS le long d'un chemin et proposons pour cela une coopération distribuée de modèles neuronaux. Les réseaux de neurones sont chargés d'estimer à la fois les critères de qualité de service et une description du trafic de sortie. Ce schéma couplé à un protocole de type RSVP permettrait à terme de propager les estimations le long du chemin pour établir une estimation de la QoS de bout en bout. Nous nous intéressons enfin au problème de routage optimal sous contraintes de QoS de bout en bout. Nous présentons une formalisation multiflot permettant de mettre en place une stratégie de résolution de type déviation de flot qui s'appuie sur une approche de type lagrangien augmenté pour relâcher les contraintes de QoS. Cette stratégie permet d'obtenir un optimum local réalisable. Nous proposons ensuite de remplacer l'approximation M/M/1 traditionnellement utilisée dans les modèles de multiflot par un modèle par réseaux de neurones de la QoS, plus réaliste notamment dans le cas de la différentiation de service. Toutefois il est nécessaire de garantir la croissance des fonctions évaluations pour assurer la validité du schéma d'optimisation. Cette monotonie peut être imposée lors de l'apprentissage du modèle neuronal par l'ajout de contraintes sur les dérivées premières. Nous avons développé ainsi un algorithme d'apprentissage sous contraintes qui impose la monotonie dans les réseaux de neurones feed-forward en utilisant des méthodes classiques de l'optimisation nonlinéaire sous contraintes.
13

Conception et exploitation d'une base de métadonnées de traitements informatiques, représentation opérationnelle des connaissances d'expert -- Application au domaine géographique

Abd-El-Kader, Yann 03 July 2006 (has links) (PDF)
L'information géographique est construite, analysée et transformée par des traitements informatiques. À l'Institut Géographique National (IGN), les utilisateurs et les développeurs ont besoin d'aide pour rechercher, connaître et partager ces traitements.<br />Le but de notre travail est de fournir cette aide. Les documentations existantes ne permettent pas toujours de répondre de façon satisfaisante aux besoins identifiés : elles sont éparses, aux formats hétérogènes et ne décrivent pas les données avec toute la finesse souhaitée. Ces documentations sont également en général statiques : elles ne peuvent fournir des modes d'emploi adaptés aux contextes d'utilisation particuliers (caractéristiques des données, environnement, connaissances de l'utilisateur). Or, puisque toutes les réponses aux requêtes des utilisateurs ne peuvent être stockées à l'avance, il faut que des mécanismes de dérivation de l'information soient mis en oeuvre.<br />Face à ce problème, nous soutenons la thèse qu'une solution peut être de recourir à des métadonnées à la structure et au contenu contrôlés, conformes à un modèle à la fois approprié à la spécificité des traitements géographiques (description fine des propriétés des données avant et après traitements, illustrations) et propre à une représentation opérationnelle des connaissances d'expert. Nous montrons l'intérêt de suivre une double approche en développant d'une part un système d'information documentaire (SI) dédié à la consultation et la saisie des métadonnées, d'autre part un système à base de connaissances (SBC) dédié à la simulation des raisonnements de l'expert et reposant sur les langages standard du Web Sémantique RDF, OWL et SWRL.
14

Conceptual Approaches for Securing Networks and Systems

Becker, Sheila 16 October 2012 (has links) (PDF)
Peer-to-peer real-time communication and media streaming applications optimize their performance by using application-level topology estimation services such as virtual coordinate systems. Virtual coordinate systems allow nodes in a peer-to-peer network to accurately predict latency between arbi- trary nodes without the need of performing extensive measurements. However, systems that leverage virtual coordinates as supporting building blocks, are prone to attacks conducted by compromised nodes that aim at disrupting, eavesdropping, or mangling with the underlying communications. Recent research proposed techniques to mitigate basic attacks (inflation, deflation, oscillation) considering a single attack strategy model where attackers perform only one type of attack. In this work, we define and use a game theory framework in order to identify the best attack and defense strategies assuming that the attacker is aware of the defense mechanisms. Our approach leverages concepts derived from the Nash equilibrium to model more powerful adversaries. We apply the game theory framework to demonstrate the impact and efficiency of these attack and defense strategies using a well-known virtual coordinate system and real-life Internet data sets. Thereafter, we explore supervised machine learning techniques to mitigate more subtle yet highly effective attacks (frog-boiling, network-partition) that are able to bypass existing defenses. We evaluate our techniques on the Vivaldi system against a more complex attack strategy model, where attackers perform sequences of all known attacks against virtual coordinate systems, using both simulations and Internet deployments.
15

Détection non supervisée d'anomalies dans les réseaux de communication

Mazel, Johan 19 December 2011 (has links) (PDF)
La détection d'anomalies est une tâche critique de l'administration des réseaux. L'apparition continue de nouvelles anomalies et la nature changeante du trafic réseau compliquent de fait la détection d'anomalies. Les méthodes existantes de détection d'anomalies s'appuient sur une connaissance préalable du trafic : soit via des signatures créées à partir d'anomalies connues, soit via un profil de normalité. Ces deux approches sont limitées : la première ne peut détecter les nouvelles anomalies et la seconde requiert une constante mise à jour de son profil de normalité. Ces deux aspects limitent de façon importante l'efficacité des méthodes de détection existantes. Nous présentons une approche non-supervisée qui permet de détecter et caractériser les anomalies réseaux de façon autonome. Notre approche utilise des techniques de partitionnement afin d'identifier les flux anormaux. Nous proposons également plusieurs techniques qui permettent de traiter les anomalies extraites pour faciliter la tâche des opérateurs. Nous évaluons les performances de notre système sur des traces de trafic réel issues de la base de trace MAWI. Les résultats obtenus mettent en évidence la possibilité de mettre en place des systèmes de détection d'anomalies autonomes et fonctionnant sans connaissance préalable.
16

Gestion des Risques dans les Infrastructures VoIP

Dabbebi, Oussema 23 April 2013 (has links) (PDF)
La téléphonie sur IP est devenue un nouveau paradigme pour établir et transmettre les com- munications téléphoniques directement sur les réseaux IP de manière flexible et à faible coût. Toutefois, les services VoIP sont confrontés à plusieurs problèmes de sécurité qui sont soit hérités de la couche IP soit spécifiques au service lui-même. Une grande variété de mécanismes de protection sont disponibles pour y faire face. Cependant, ces services nécessitent des performances et une disponibilité du réseau élevées, et les mécanismes de protection peuvent nuire à ces perfor- mances. La gestion des risques offre de nouvelles perspectives à l'égard de cette problématique. Nos contributions portent sur l'application et l'automatisation de la gestion de risques dans les infrastructures VoIP selon trois axes. Le première axe porte sur l'automatisation du processus de gestion des risques dans un réseau VoIP d'entreprise. Dans ce cadre, nous avons développé un modèle pour évaluer les risques, un ensemble de contremesures progressives et des algorithmes de mitigation. Nous l'avons couplé à un système de détection d'anomalies basé sur les SVM et un mécanisme d'auto-configuration qui peut fournir un retour d'expérience sur l'efficacité des contremesures. Le deuxième axe concerne l'extension de notre stratégie dans les réseaux P2PSIP. Nous avons mis en place une solution adaptée à la nature distribuée des environnements pair- à-pair. Nous nous sommes aussi intéressés à l'architecture RELOAD et avons étudié comment traiter les attaques résiduelles à travers des mécanismes de confiance. Nous avons enfin étudié les services VoIP dans le cloud où nous proposons plusieurs stratégies pour le déploiement et l'application des contremesures.
17

Ordonnancement des liens et routage de multiple chemins pour les réseaux maillés sans fil

Rocha Jimenez Vieira, Fabio, Rezende, José Ferreira, Carneiro Barbosa, Valmir, Serge, Fdida 25 May 2012 (has links) (PDF)
Nous présentons des solutions algorithmiques pour deux problèmes liés à l'interfé-rence de réseau sans fil. D'abord on propose de ordonnancer les liens d'un ensemble de routes données en vertu de l'hypothèse d'un modèle à fort trafic. Nous considérons un protocole TDMA qu'offre une source d'intervalles de temps synchronisés et cherchent à ordonnancer les itinéraires des liens afin de maximiser le nombre de paquets qui sont livrés à leurs destinations par chaque intervalle de temps. Notre approche consiste à construire un graphe non orienté $G$ et à obtenir multiples colorations pour les noeuds de $G$ qui peuvent induire aux ordonnancement de liens efficaces. En $G$ chaque noeud représente un lien à être ordonnancer et les arcs sont mis en place pour représenter toutes les interférences possibles pour un ensemble d'hypothèses d'interférence. Nous présentons deux heuristiques de multiples colorations et étudions leurs performances grâce à de nombreuses simulations. L'un des deux heuristiques est fondée sur l'assouplissement des dynamiques de multiples colorations en exploitant la disponibilité des possibilités de communication qui seraient autrement perdues. Nous avons constaté que, par conséquent, sa performance est nettement supérieure à la celle des autres. Dans la deuxième proposition, nous considérons les réseaux maillés sans fil et le problème de routage bout à bout du trafic sur les chemins multiples pour la même paire origine-destination avec un minimum d'interférences. Nous introduisons une heuristique pour la détermination des chemins avec deux caractéristiques distinctives. Tout d'abord, il fonctionne par le raffinage d'un ensemble existant de chemins, préalablement déterminée par un algorithme de routage de multiples chemins. Deuxièmement, il est tout à fait locale, dans le sens où il peut être exécuté par chacune des origines sur l'information qui est disponible plus loin dans le réseau de voisinage immédiat du noeud. Nous avons mené de nombreuses expériences avec la nouvelle heuristique, en utilisant le protocole OLSR et AODV ainsi que leurs variantes de chemins multiples. Nous avons démontré que la nouvelle heuristique est capable d'améliorer le débit moyen du réseau à l'échelle en utilisant un protocole TDMA sous l'exécution d'un algorithme de ordonnancement des liens orienté à routes et de deux différents paramètres de fonctionnement du protocole CSMA 802.11. En travaillent à partir des trajectoires générées par le chemin provenaient de algorithmes de multiples chemins, l'heuristique est également capable de fournir un modèle de trafic plus équitablement répartie.
18

Routage g éographique dans les r éseaux de capteurs et actionneurs

Gouvy, Nicolas 19 September 2013 (has links) (PDF)
Cette thèse se positionne dans le contexte des réseaux sans fil multi-sauts tels les réseaux de capteurs ou les réseaux de capteurs/actionneurs ou encore de robots mobiles. Ces réseaux sont composés d'entités (nœuds) indépendantes (c.-à-d. les robots) possédant des capacités limitées en termes de taille mémoire, de capacité de calcul et sont soumis à des contraintes énergétiques fortes (ces composants reposent sur des batteries). Ils communiquent exclusivement par voie radio, il n'y a donc aucune infrastructure fixe. Pour pouvoir relayer les messages d'un robot à une station de base, on utilise des protocoles dits " de routage" qui ont en charge de déterminer quel robot doit relayer le message, de façon locale et distribuée, sans connaissance globale du réseau. Nous nous sommes basé sur CoMNet, le premier protocole de routage géographique utilisant la mobilité contrôlée tout en garantissant la connexité de celui-ci. CoMNet va, à chaque routage, relocaliser le prochain saut selon un schéma de relocalisation prédéfini de manière à adapter la topologie du réseau à son trafic, et ce afin d'économiser de l'énergie. CoMNet propose trois schémas de relocalisation différents adaptés à différents environnements, et l'on en choisit un au démarrage du réseau. Toutefois, CoMNet, en faisant bouger le prochain nœud N, va certes adapter la topologie, mais aussi modifier le voisinage de ce même nœud. Quand ça sera à lui de transmettre le message il n'aura plus forcément les mêmes possibilités, ses voisins ayant changé. La relocalisation d'un nœud N va servir de base pour celle de N + 1 et les suivants dans le routage. En réponse à ce problème, nous avons proposé MobileR (Mobile Recursivity). MobileR va, à chaque étape du routage, essayer d'anticiper sur plusieurs sauts pour choisir le prochain noeud. Il va calculer la relocalisation des voisins N et pour chacun d'entre eux les multiples N + 1 possibles, etc. MobileR va donc calculer à chaque étape du routage les coûts sur progrès de chacun des chemins (avec nœuds relocalisés) possibles. Le paquet sera alors transmis, au premier nœud du chemin qui minimise ce ratio. Le principe même de relocaliser les nœuds apporte son lot de nouveaux problèmes. Ainsi, dans les réseaux de capteurs, il y a souvent plusieurs nœuds sources qui détectent un même événement et vont émettre des messages à router vers l'unique station de base. Les chemins de routage de ces différents messages sont physiquement proches - vu qu'ils sont liés à un même événement - et ce d'autant plus qu'on se rapproche de la station de base. Ces chemins vont finir par se croiser, et le noeud de croisement va sans cesse être relocalisé par chacun des chemins. C'est pourquoi j'ai proposé le protocole de routage PAMAL (PAth Merging ALgorithm) en réponse à un problème introduit par la mobilité. En effet, PAMAL permet de détecter ces intersections et de les gérer localement. Il va arrêter ces oscillations parasites, provoquer une fusion des chemins de routage en amont du noeud d'intersection et une agrégation de paquets en aval. PAMAL propose ainsi une amélioration de la durée de vie du réseau allant jusqu'à 37% avec un mécanisme d'agrégation très simple. La mobilité contrôlée permet aussi d'envisager de nouvelles solutions à des anciens problèmes. Le protocole GRR (Greedy Routing Recovery) propose ainsi un mécanisme de récupération pour augmenter le taux de délivrance des messages dans les réseaux de capteurs/actionneurs avec obstacle(s). En effet aucun des protocoles de routage reposant sur des actionneurs n'implémente un procédé pour contourner les obstacles ou les zones de faible densité où le routage glouton simple est impossible. Ils routent tous les messages de manière gloutonne vers la destination. Le routage échoue alors quand un noeud n'a plus de voisin plus proche de la destination que lui-même. C'est pourquoi GRR va, quand le routage glouton simple de proche en proche échoue, appliquer un nouveau schéma de relocalisation qui va permettre de contourner l'obstacle tout en restaurant le routage glouton. L'obstacle va ainsi être circonvenu en relocalisant des nœuds tout autour. Ainsi, les routages suivants seront gloutons. Sans pour autant garantir la délivrance de 100% des messages, nos simulations montrent que le mécanisme de récupération de GRR permet de router avec succès dans 72% des cas sur des topologies où CoMNet échoue dans tous les cas.
19

Virtualization and distribution of the BGP control plane

Oprescu, Mihaela Iuniana 18 October 2012 (has links) (PDF)
L'Internet est organisé sous la forme d'une multitude de réseaux appelés Systèmes Autonomes (AS). Le Border Gateway Protocol (BGP) est le langage commun qui permet à ces domaines administratifs de s'interconnecter. Grâce à BGP, deux utilisateurs situés n'importe o'u dans le monde peuvent communiquer, car ce protocole est responsable de la propagation des messages de routage entre tous les réseaux voisins. Afin de répondre aux nouvelles exigences, BGP a dû s'améliorer et évoluer à travers des extensions fréquentes et de nouvelles architectures. Dans la version d'origine, il était indispensable que chaque routeur maintienne une session avec tous les autres routeurs du réseau. Cette contrainte a soulevé des problèmes de scalabilité, puisque le maillage complet des sessions BGP internes (iBGP) était devenu difficile à réaliser dans les grands réseaux. Pour couvrir ce besoin de connectivité, les opérateurs de réseaux font appel à la réflection de routes (RR) et aux confédérations. Mais si elles résolvent un problème de scalabilité, ces deux solutions ont soulevé des nouveaux défis car elles sont accompagnées de multiples défauts; la perte de diversité des routes candidates au processus de séléction BGP ou des anomalies comme par exemple des oscillations de routage, des déflections et des boucles en font partie. Les travaux menés dans cette thèse se concentrent sur oBGP, une nouvelle architecture pour redistribuer les routes externes à l'intérieur d'un AS. à la place des classiques sessions iBGP, un réseau de type overlay est responsable (I) de l'échange d'informations de routage avec les autres AS, (II) du stockage distribué des routes internes et externes, (III) de l'application de la politique de routage au niveau de l'AS et (IV) du calcul et de la redistribution des meilleures routes vers les destinations de l'Internet pour tous les routeurs
20

Virtualisation des réseaux : performance, partage et applications

Fabienne, Anhalt 07 July 2011 (has links) (PDF)
La virtualisation apparait comme étant une solution clé pour révolutionner l'architecture des réseaux comme Internet. La croissance et le succès d'Internet ont fini par aboutir a' son ossification : le déploiement de nouvelles fonctionnalités ou la mise a jour de son architecture ne sont guère possibles, entravant ainsi les innovations. La virtualisation apporte une réponse a cette problématique, en ajoutant une couche d'abstraction entre le matériel et le réseau tel qu'il est vu par les utilisateurs. De tels réseaux virtuels peuvent être gérés et configures de manière flexible et indépendamment les uns des autres, par des opérateurs différents. Ceci crée donc un environnement compétitif qui stimule l'innovation. En étant dématérialisés de cette façon, les réseaux peuvent être déployés a la demande, configures, démarrés, suspendus, sauvegardes, supprimes, etc., comme un en- semble d'objets eux-mêmes programmables, organisées dans une topologie, où chaque objet représente un commutateur, un routeur ou un lien virtuel. La flexibilité qui en résulte donne a l'opérateur la possibilité de configurer la topologie du réseau, et de modifier les piles protocolaires. Parvenir à un tel degré de découplage, permettant d'aboutir a' des changements fondamentaux, est l'un des buts ultimes de la virtualisation des réseaux-- qui est envisagée comme une cl e pour le 'futur' de l'Internet--mais le concept est pour l'instant loin d'être réalisé. Jusqu'à' présent, la virtualisation du réseaux a été déployée dans des plateformes de test ou de recherche, pour permettre aux chercheurs d'expérimenter avec les protocoles de routage, notamment dans les réseaux interconnectant des nœuds de calcul, eux-mêmes virtuels. L'industrie propose des routeurs virtuels pour la consolidation des réseaux afin de réduire les coûts des équipements. Pourtant, dans le but d'introduire la virtualisation dans les réseaux de production comme ceux de l'Internet, plusieurs nouveaux défis apparaissent. La couche supplémentaire interposée entre le matériel et les réseaux virtuels doit prendre en charge le partage des ressources physiques entre les différents réseaux virtuels. Elle introduit potentiellement un surcoût en performance. Dans ce manuscrit, nous nous concentrons sur ces problématiques, en particulier la performance et le partage dans les réseaux virtualises. Ces deux questions sont particulièrement pertinentes, lorsque le plan de données du réseau lui-même est virtualise, pour offrir un maximum d'isolation et de configurabilité dans des réseaux virtuels. Puis, nous examinons les possibles applications des réseaux virtuels, partageant le réseau physique au niveau du plan de données. Dans ce contexte, les contributions présentées dans ce manuscrit peuvent être résumées de la manière suivante. Analyse et évaluation de l'impact des mécanismes de virtualisation sur la performance des communications. Afin d' évaluer l'impact de la virtualisation sur les performances d'un réseau virtualise, nous analysons d'abord différentes technologies qui permettent de virtualiser le plan de données. Puis nous construisons un prototype de routeur virtuel en utilisant des techniques logicielles de virtualisation. La performance réseau d'un tel routeur virtuel est évaluée en détail, en utilisant des configurations logicielles différentes [7] [9] [2]. Les résultats montrent que la performance des communications des serveurs virtuels a augmente durant les dernières années, pour atteindre jusqu'à' 100% du débit maximum sur des interfaces réseau de 1 Gb/s, grâce aux optimisations logicielles. La virtualisation en logiciel est donc une approche prometteuse pour l'expérimentation, mais pour un réseau de production tel qu'Internet, du matériel dédié est requis, pour atteindre de très hauts débits (> 10 Gb/s). Virtualisation de la matrice de commutation. Nous proposons une architecture de commutation virtualisée, qui permet de partager les ressources matérielles d'un commutateur de manière flexible entre plusieurs commutateurs virtuels [5]. Cette architecture de switch virtualisée permet a' des utilisateurs de mettre en place des commutateurs virtuels, instancies au dessus du commutateur physique, chaque commutateur ayant un nombre de ports configurable. De plus, la capacité par port et la taille des tampons mémoire peuvent être dimensionnées. En outre, chaque commutateur virtuel peut disposer de mécanismes d'ordonnancement et de mise en file d'attente de paquets différents. Un ordonnanceur de commutateurs virtuels contrôle le partage des ressources matérielles entre les commutateurs virtuels et assure l'isolation des performances. L'architecture proposée est évaluée par des simulations. Un brevet a été déposé pour cette architecture [VxSwitch]. Isolation et programmation de r eseaux virtuels. Etant virtualisées, les ressources réseau sont partagées par des réseaux virtuels différents. Pour contrôler la quantité de chaque ressource qui est attribuée à chaque réseau virtuel, nous proposons un service de réseaux virtuels. Ce service consiste en l'interconnexion de nœuds par un réseau virtuel, compose de routeurs et de liens virtuels. Les routeurs peuvent être configures afin que chaque réseau virtuel puisse contrôler quel chemin est utilise par son trafic. La bande passante peut être allouée dynamiquement aux liens virtuels. Les ressources physiques sous-jacentes vérifient que chaque lien virtuel fournit la bande passante configurée et qu'il assure un niveau de service garanti [1]. Ce service est implémenté de deux façons. En premier lieu, des routeurs virtuels logiciels interconnectes par des liens virtuels sont utilises [HIPerNet]. Puis, des routeurs et liens virtuels sont crées en utilisant des commutateurs OpenFlow. Des évaluations montrent qu'avec chacune des deux approches, des garanties en termes de bande passante, ainsi que des fonctions de configuration du routage peuvent être fournies a' chaque réseau virtuel. Application des réseaux virtuels. Finalement, le service de réseaux virtuels est applique au contexte des infrastructures virtuelles généralisées, combinant la virtualisation du réseau et des nœuds de calcul. Les utilisateurs peuvent demander une infrastructure virtuelle de calcul, dont les ressources sont interconnectées par un réseau virtuel contrôle. Cette approche est prometteuse pour les réseaux du Cloud ou nuage en français. Nous déployons un tel service dans la plateforme de test Grid'5000, et l'évaluons en utilisant une application distribuée à grande échelle [6]. Les résultats montrent que la configuration de niveaux de service réseau différents impacte directement le temps d'exécution de l'application [3] [12]. Nous validons donc l'importance du contrôle et de l'isolation dans les réseaux virtuels, dans le but de fournir des performances prévisibles a des applications Cloud.

Page generated in 0.1322 seconds