Spelling suggestions: "subject:"1nternet architecture"" "subject:"centernet architecture""
11 |
Conception et exploitation d'une base de métadonnées de traitements informatiques, représentation opérationnelle des connaissances d'expert -- Application au domaine géographiqueAbd-El-Kader, Yann 03 July 2006 (has links) (PDF)
L'information géographique est construite, analysée et transformée par des traitements informatiques. À l'Institut Géographique National (IGN), les utilisateurs et les développeurs ont besoin d'aide pour rechercher, connaître et partager ces traitements.<br />Le but de notre travail est de fournir cette aide. Les documentations existantes ne permettent pas toujours de répondre de façon satisfaisante aux besoins identifiés : elles sont éparses, aux formats hétérogènes et ne décrivent pas les données avec toute la finesse souhaitée. Ces documentations sont également en général statiques : elles ne peuvent fournir des modes d'emploi adaptés aux contextes d'utilisation particuliers (caractéristiques des données, environnement, connaissances de l'utilisateur). Or, puisque toutes les réponses aux requêtes des utilisateurs ne peuvent être stockées à l'avance, il faut que des mécanismes de dérivation de l'information soient mis en oeuvre.<br />Face à ce problème, nous soutenons la thèse qu'une solution peut être de recourir à des métadonnées à la structure et au contenu contrôlés, conformes à un modèle à la fois approprié à la spécificité des traitements géographiques (description fine des propriétés des données avant et après traitements, illustrations) et propre à une représentation opérationnelle des connaissances d'expert. Nous montrons l'intérêt de suivre une double approche en développant d'une part un système d'information documentaire (SI) dédié à la consultation et la saisie des métadonnées, d'autre part un système à base de connaissances (SBC) dédié à la simulation des raisonnements de l'expert et reposant sur les langages standard du Web Sémantique RDF, OWL et SWRL.
|
12 |
Conceptual Approaches for Securing Networks and SystemsBecker, Sheila 16 October 2012 (has links) (PDF)
Peer-to-peer real-time communication and media streaming applications optimize their performance by using application-level topology estimation services such as virtual coordinate systems. Virtual coordinate systems allow nodes in a peer-to-peer network to accurately predict latency between arbi- trary nodes without the need of performing extensive measurements. However, systems that leverage virtual coordinates as supporting building blocks, are prone to attacks conducted by compromised nodes that aim at disrupting, eavesdropping, or mangling with the underlying communications. Recent research proposed techniques to mitigate basic attacks (inflation, deflation, oscillation) considering a single attack strategy model where attackers perform only one type of attack. In this work, we define and use a game theory framework in order to identify the best attack and defense strategies assuming that the attacker is aware of the defense mechanisms. Our approach leverages concepts derived from the Nash equilibrium to model more powerful adversaries. We apply the game theory framework to demonstrate the impact and efficiency of these attack and defense strategies using a well-known virtual coordinate system and real-life Internet data sets. Thereafter, we explore supervised machine learning techniques to mitigate more subtle yet highly effective attacks (frog-boiling, network-partition) that are able to bypass existing defenses. We evaluate our techniques on the Vivaldi system against a more complex attack strategy model, where attackers perform sequences of all known attacks against virtual coordinate systems, using both simulations and Internet deployments.
|
13 |
Détection non supervisée d'anomalies dans les réseaux de communicationMazel, Johan 19 December 2011 (has links) (PDF)
La détection d'anomalies est une tâche critique de l'administration des réseaux. L'apparition continue de nouvelles anomalies et la nature changeante du trafic réseau compliquent de fait la détection d'anomalies. Les méthodes existantes de détection d'anomalies s'appuient sur une connaissance préalable du trafic : soit via des signatures créées à partir d'anomalies connues, soit via un profil de normalité. Ces deux approches sont limitées : la première ne peut détecter les nouvelles anomalies et la seconde requiert une constante mise à jour de son profil de normalité. Ces deux aspects limitent de façon importante l'efficacité des méthodes de détection existantes. Nous présentons une approche non-supervisée qui permet de détecter et caractériser les anomalies réseaux de façon autonome. Notre approche utilise des techniques de partitionnement afin d'identifier les flux anormaux. Nous proposons également plusieurs techniques qui permettent de traiter les anomalies extraites pour faciliter la tâche des opérateurs. Nous évaluons les performances de notre système sur des traces de trafic réel issues de la base de trace MAWI. Les résultats obtenus mettent en évidence la possibilité de mettre en place des systèmes de détection d'anomalies autonomes et fonctionnant sans connaissance préalable.
|
14 |
Gestion des Risques dans les Infrastructures VoIPDabbebi, Oussema 23 April 2013 (has links) (PDF)
La téléphonie sur IP est devenue un nouveau paradigme pour établir et transmettre les com- munications téléphoniques directement sur les réseaux IP de manière flexible et à faible coût. Toutefois, les services VoIP sont confrontés à plusieurs problèmes de sécurité qui sont soit hérités de la couche IP soit spécifiques au service lui-même. Une grande variété de mécanismes de protection sont disponibles pour y faire face. Cependant, ces services nécessitent des performances et une disponibilité du réseau élevées, et les mécanismes de protection peuvent nuire à ces perfor- mances. La gestion des risques offre de nouvelles perspectives à l'égard de cette problématique. Nos contributions portent sur l'application et l'automatisation de la gestion de risques dans les infrastructures VoIP selon trois axes. Le première axe porte sur l'automatisation du processus de gestion des risques dans un réseau VoIP d'entreprise. Dans ce cadre, nous avons développé un modèle pour évaluer les risques, un ensemble de contremesures progressives et des algorithmes de mitigation. Nous l'avons couplé à un système de détection d'anomalies basé sur les SVM et un mécanisme d'auto-configuration qui peut fournir un retour d'expérience sur l'efficacité des contremesures. Le deuxième axe concerne l'extension de notre stratégie dans les réseaux P2PSIP. Nous avons mis en place une solution adaptée à la nature distribuée des environnements pair- à-pair. Nous nous sommes aussi intéressés à l'architecture RELOAD et avons étudié comment traiter les attaques résiduelles à travers des mécanismes de confiance. Nous avons enfin étudié les services VoIP dans le cloud où nous proposons plusieurs stratégies pour le déploiement et l'application des contremesures.
|
15 |
Ordonnancement des liens et routage de multiple chemins pour les réseaux maillés sans filRocha Jimenez Vieira, Fabio, Rezende, José Ferreira, Carneiro Barbosa, Valmir, Serge, Fdida 25 May 2012 (has links) (PDF)
Nous présentons des solutions algorithmiques pour deux problèmes liés à l'interfé-rence de réseau sans fil. D'abord on propose de ordonnancer les liens d'un ensemble de routes données en vertu de l'hypothèse d'un modèle à fort trafic. Nous considérons un protocole TDMA qu'offre une source d'intervalles de temps synchronisés et cherchent à ordonnancer les itinéraires des liens afin de maximiser le nombre de paquets qui sont livrés à leurs destinations par chaque intervalle de temps. Notre approche consiste à construire un graphe non orienté $G$ et à obtenir multiples colorations pour les noeuds de $G$ qui peuvent induire aux ordonnancement de liens efficaces. En $G$ chaque noeud représente un lien à être ordonnancer et les arcs sont mis en place pour représenter toutes les interférences possibles pour un ensemble d'hypothèses d'interférence. Nous présentons deux heuristiques de multiples colorations et étudions leurs performances grâce à de nombreuses simulations. L'un des deux heuristiques est fondée sur l'assouplissement des dynamiques de multiples colorations en exploitant la disponibilité des possibilités de communication qui seraient autrement perdues. Nous avons constaté que, par conséquent, sa performance est nettement supérieure à la celle des autres. Dans la deuxième proposition, nous considérons les réseaux maillés sans fil et le problème de routage bout à bout du trafic sur les chemins multiples pour la même paire origine-destination avec un minimum d'interférences. Nous introduisons une heuristique pour la détermination des chemins avec deux caractéristiques distinctives. Tout d'abord, il fonctionne par le raffinage d'un ensemble existant de chemins, préalablement déterminée par un algorithme de routage de multiples chemins. Deuxièmement, il est tout à fait locale, dans le sens où il peut être exécuté par chacune des origines sur l'information qui est disponible plus loin dans le réseau de voisinage immédiat du noeud. Nous avons mené de nombreuses expériences avec la nouvelle heuristique, en utilisant le protocole OLSR et AODV ainsi que leurs variantes de chemins multiples. Nous avons démontré que la nouvelle heuristique est capable d'améliorer le débit moyen du réseau à l'échelle en utilisant un protocole TDMA sous l'exécution d'un algorithme de ordonnancement des liens orienté à routes et de deux différents paramètres de fonctionnement du protocole CSMA 802.11. En travaillent à partir des trajectoires générées par le chemin provenaient de algorithmes de multiples chemins, l'heuristique est également capable de fournir un modèle de trafic plus équitablement répartie.
|
16 |
Routage g éographique dans les r éseaux de capteurs et actionneursGouvy, Nicolas 19 September 2013 (has links) (PDF)
Cette thèse se positionne dans le contexte des réseaux sans fil multi-sauts tels les réseaux de capteurs ou les réseaux de capteurs/actionneurs ou encore de robots mobiles. Ces réseaux sont composés d'entités (nœuds) indépendantes (c.-à-d. les robots) possédant des capacités limitées en termes de taille mémoire, de capacité de calcul et sont soumis à des contraintes énergétiques fortes (ces composants reposent sur des batteries). Ils communiquent exclusivement par voie radio, il n'y a donc aucune infrastructure fixe. Pour pouvoir relayer les messages d'un robot à une station de base, on utilise des protocoles dits " de routage" qui ont en charge de déterminer quel robot doit relayer le message, de façon locale et distribuée, sans connaissance globale du réseau. Nous nous sommes basé sur CoMNet, le premier protocole de routage géographique utilisant la mobilité contrôlée tout en garantissant la connexité de celui-ci. CoMNet va, à chaque routage, relocaliser le prochain saut selon un schéma de relocalisation prédéfini de manière à adapter la topologie du réseau à son trafic, et ce afin d'économiser de l'énergie. CoMNet propose trois schémas de relocalisation différents adaptés à différents environnements, et l'on en choisit un au démarrage du réseau. Toutefois, CoMNet, en faisant bouger le prochain nœud N, va certes adapter la topologie, mais aussi modifier le voisinage de ce même nœud. Quand ça sera à lui de transmettre le message il n'aura plus forcément les mêmes possibilités, ses voisins ayant changé. La relocalisation d'un nœud N va servir de base pour celle de N + 1 et les suivants dans le routage. En réponse à ce problème, nous avons proposé MobileR (Mobile Recursivity). MobileR va, à chaque étape du routage, essayer d'anticiper sur plusieurs sauts pour choisir le prochain noeud. Il va calculer la relocalisation des voisins N et pour chacun d'entre eux les multiples N + 1 possibles, etc. MobileR va donc calculer à chaque étape du routage les coûts sur progrès de chacun des chemins (avec nœuds relocalisés) possibles. Le paquet sera alors transmis, au premier nœud du chemin qui minimise ce ratio. Le principe même de relocaliser les nœuds apporte son lot de nouveaux problèmes. Ainsi, dans les réseaux de capteurs, il y a souvent plusieurs nœuds sources qui détectent un même événement et vont émettre des messages à router vers l'unique station de base. Les chemins de routage de ces différents messages sont physiquement proches - vu qu'ils sont liés à un même événement - et ce d'autant plus qu'on se rapproche de la station de base. Ces chemins vont finir par se croiser, et le noeud de croisement va sans cesse être relocalisé par chacun des chemins. C'est pourquoi j'ai proposé le protocole de routage PAMAL (PAth Merging ALgorithm) en réponse à un problème introduit par la mobilité. En effet, PAMAL permet de détecter ces intersections et de les gérer localement. Il va arrêter ces oscillations parasites, provoquer une fusion des chemins de routage en amont du noeud d'intersection et une agrégation de paquets en aval. PAMAL propose ainsi une amélioration de la durée de vie du réseau allant jusqu'à 37% avec un mécanisme d'agrégation très simple. La mobilité contrôlée permet aussi d'envisager de nouvelles solutions à des anciens problèmes. Le protocole GRR (Greedy Routing Recovery) propose ainsi un mécanisme de récupération pour augmenter le taux de délivrance des messages dans les réseaux de capteurs/actionneurs avec obstacle(s). En effet aucun des protocoles de routage reposant sur des actionneurs n'implémente un procédé pour contourner les obstacles ou les zones de faible densité où le routage glouton simple est impossible. Ils routent tous les messages de manière gloutonne vers la destination. Le routage échoue alors quand un noeud n'a plus de voisin plus proche de la destination que lui-même. C'est pourquoi GRR va, quand le routage glouton simple de proche en proche échoue, appliquer un nouveau schéma de relocalisation qui va permettre de contourner l'obstacle tout en restaurant le routage glouton. L'obstacle va ainsi être circonvenu en relocalisant des nœuds tout autour. Ainsi, les routages suivants seront gloutons. Sans pour autant garantir la délivrance de 100% des messages, nos simulations montrent que le mécanisme de récupération de GRR permet de router avec succès dans 72% des cas sur des topologies où CoMNet échoue dans tous les cas.
|
17 |
Virtualization and distribution of the BGP control planeOprescu, Mihaela Iuniana 18 October 2012 (has links) (PDF)
L'Internet est organisé sous la forme d'une multitude de réseaux appelés Systèmes Autonomes (AS). Le Border Gateway Protocol (BGP) est le langage commun qui permet à ces domaines administratifs de s'interconnecter. Grâce à BGP, deux utilisateurs situés n'importe o'u dans le monde peuvent communiquer, car ce protocole est responsable de la propagation des messages de routage entre tous les réseaux voisins. Afin de répondre aux nouvelles exigences, BGP a dû s'améliorer et évoluer à travers des extensions fréquentes et de nouvelles architectures. Dans la version d'origine, il était indispensable que chaque routeur maintienne une session avec tous les autres routeurs du réseau. Cette contrainte a soulevé des problèmes de scalabilité, puisque le maillage complet des sessions BGP internes (iBGP) était devenu difficile à réaliser dans les grands réseaux. Pour couvrir ce besoin de connectivité, les opérateurs de réseaux font appel à la réflection de routes (RR) et aux confédérations. Mais si elles résolvent un problème de scalabilité, ces deux solutions ont soulevé des nouveaux défis car elles sont accompagnées de multiples défauts; la perte de diversité des routes candidates au processus de séléction BGP ou des anomalies comme par exemple des oscillations de routage, des déflections et des boucles en font partie. Les travaux menés dans cette thèse se concentrent sur oBGP, une nouvelle architecture pour redistribuer les routes externes à l'intérieur d'un AS. à la place des classiques sessions iBGP, un réseau de type overlay est responsable (I) de l'échange d'informations de routage avec les autres AS, (II) du stockage distribué des routes internes et externes, (III) de l'application de la politique de routage au niveau de l'AS et (IV) du calcul et de la redistribution des meilleures routes vers les destinations de l'Internet pour tous les routeurs
|
18 |
Virtualisation des réseaux : performance, partage et applicationsFabienne, Anhalt 07 July 2011 (has links) (PDF)
La virtualisation apparait comme étant une solution clé pour révolutionner l'architecture des réseaux comme Internet. La croissance et le succès d'Internet ont fini par aboutir a' son ossification : le déploiement de nouvelles fonctionnalités ou la mise a jour de son architecture ne sont guère possibles, entravant ainsi les innovations. La virtualisation apporte une réponse a cette problématique, en ajoutant une couche d'abstraction entre le matériel et le réseau tel qu'il est vu par les utilisateurs. De tels réseaux virtuels peuvent être gérés et configures de manière flexible et indépendamment les uns des autres, par des opérateurs différents. Ceci crée donc un environnement compétitif qui stimule l'innovation. En étant dématérialisés de cette façon, les réseaux peuvent être déployés a la demande, configures, démarrés, suspendus, sauvegardes, supprimes, etc., comme un en- semble d'objets eux-mêmes programmables, organisées dans une topologie, où chaque objet représente un commutateur, un routeur ou un lien virtuel. La flexibilité qui en résulte donne a l'opérateur la possibilité de configurer la topologie du réseau, et de modifier les piles protocolaires. Parvenir à un tel degré de découplage, permettant d'aboutir a' des changements fondamentaux, est l'un des buts ultimes de la virtualisation des réseaux-- qui est envisagée comme une cl e pour le 'futur' de l'Internet--mais le concept est pour l'instant loin d'être réalisé. Jusqu'à' présent, la virtualisation du réseaux a été déployée dans des plateformes de test ou de recherche, pour permettre aux chercheurs d'expérimenter avec les protocoles de routage, notamment dans les réseaux interconnectant des nœuds de calcul, eux-mêmes virtuels. L'industrie propose des routeurs virtuels pour la consolidation des réseaux afin de réduire les coûts des équipements. Pourtant, dans le but d'introduire la virtualisation dans les réseaux de production comme ceux de l'Internet, plusieurs nouveaux défis apparaissent. La couche supplémentaire interposée entre le matériel et les réseaux virtuels doit prendre en charge le partage des ressources physiques entre les différents réseaux virtuels. Elle introduit potentiellement un surcoût en performance. Dans ce manuscrit, nous nous concentrons sur ces problématiques, en particulier la performance et le partage dans les réseaux virtualises. Ces deux questions sont particulièrement pertinentes, lorsque le plan de données du réseau lui-même est virtualise, pour offrir un maximum d'isolation et de configurabilité dans des réseaux virtuels. Puis, nous examinons les possibles applications des réseaux virtuels, partageant le réseau physique au niveau du plan de données. Dans ce contexte, les contributions présentées dans ce manuscrit peuvent être résumées de la manière suivante. Analyse et évaluation de l'impact des mécanismes de virtualisation sur la performance des communications. Afin d' évaluer l'impact de la virtualisation sur les performances d'un réseau virtualise, nous analysons d'abord différentes technologies qui permettent de virtualiser le plan de données. Puis nous construisons un prototype de routeur virtuel en utilisant des techniques logicielles de virtualisation. La performance réseau d'un tel routeur virtuel est évaluée en détail, en utilisant des configurations logicielles différentes [7] [9] [2]. Les résultats montrent que la performance des communications des serveurs virtuels a augmente durant les dernières années, pour atteindre jusqu'à' 100% du débit maximum sur des interfaces réseau de 1 Gb/s, grâce aux optimisations logicielles. La virtualisation en logiciel est donc une approche prometteuse pour l'expérimentation, mais pour un réseau de production tel qu'Internet, du matériel dédié est requis, pour atteindre de très hauts débits (> 10 Gb/s). Virtualisation de la matrice de commutation. Nous proposons une architecture de commutation virtualisée, qui permet de partager les ressources matérielles d'un commutateur de manière flexible entre plusieurs commutateurs virtuels [5]. Cette architecture de switch virtualisée permet a' des utilisateurs de mettre en place des commutateurs virtuels, instancies au dessus du commutateur physique, chaque commutateur ayant un nombre de ports configurable. De plus, la capacité par port et la taille des tampons mémoire peuvent être dimensionnées. En outre, chaque commutateur virtuel peut disposer de mécanismes d'ordonnancement et de mise en file d'attente de paquets différents. Un ordonnanceur de commutateurs virtuels contrôle le partage des ressources matérielles entre les commutateurs virtuels et assure l'isolation des performances. L'architecture proposée est évaluée par des simulations. Un brevet a été déposé pour cette architecture [VxSwitch]. Isolation et programmation de r eseaux virtuels. Etant virtualisées, les ressources réseau sont partagées par des réseaux virtuels différents. Pour contrôler la quantité de chaque ressource qui est attribuée à chaque réseau virtuel, nous proposons un service de réseaux virtuels. Ce service consiste en l'interconnexion de nœuds par un réseau virtuel, compose de routeurs et de liens virtuels. Les routeurs peuvent être configures afin que chaque réseau virtuel puisse contrôler quel chemin est utilise par son trafic. La bande passante peut être allouée dynamiquement aux liens virtuels. Les ressources physiques sous-jacentes vérifient que chaque lien virtuel fournit la bande passante configurée et qu'il assure un niveau de service garanti [1]. Ce service est implémenté de deux façons. En premier lieu, des routeurs virtuels logiciels interconnectes par des liens virtuels sont utilises [HIPerNet]. Puis, des routeurs et liens virtuels sont crées en utilisant des commutateurs OpenFlow. Des évaluations montrent qu'avec chacune des deux approches, des garanties en termes de bande passante, ainsi que des fonctions de configuration du routage peuvent être fournies a' chaque réseau virtuel. Application des réseaux virtuels. Finalement, le service de réseaux virtuels est applique au contexte des infrastructures virtuelles généralisées, combinant la virtualisation du réseau et des nœuds de calcul. Les utilisateurs peuvent demander une infrastructure virtuelle de calcul, dont les ressources sont interconnectées par un réseau virtuel contrôle. Cette approche est prometteuse pour les réseaux du Cloud ou nuage en français. Nous déployons un tel service dans la plateforme de test Grid'5000, et l'évaluons en utilisant une application distribuée à grande échelle [6]. Les résultats montrent que la configuration de niveaux de service réseau différents impacte directement le temps d'exécution de l'application [3] [12]. Nous validons donc l'importance du contrôle et de l'isolation dans les réseaux virtuels, dans le but de fournir des performances prévisibles a des applications Cloud.
|
19 |
Gestion de l'adaptabilité dans les applications répartiesStefani, Jean-Bernard 04 December 2009 (has links) (PDF)
RESUME : Bien que les modèles à composants aient permis de mieux gérer la complexité des applications réparties, ces applications restent confrontées à un problème d'adaptabilité. Le caractère distribué et évolutif de l'environnement d'exécution, la dynamicité des composants logiciels et les propriétés de qualité de service attendues sont autant de critères qui nécessitent de pouvoir adapter une application durant son cycle de vie. Durant mon parcours, j'ai abordé le problème de l'adaptabilité des applications réparties comme le fil directeur de mes recherches. Dans un premier temps, dans le cadre du projet Olan, ma démarche a été d'utiliser le concept de composant pour obtenir une adaptabilité au déploiement. Par la suite, dans le contexte du projet Jade, je me suis intéressée au support de l'adaptabilité durant l'exécution, en exploitant les capacités offertes par les modèles à composants réflexifs pour fournir une adaptabilité contrôlée par des processus autonomes. L'usage des composants comme socle pour une adaptabilité autonomique reste la base de ma démarche scientifique. Dans ce document, je motive cette démarche en retraceant l'évolution des modèles à composants et leurs apports pour l'adaptabilité. Je présente également les perspectives de recherche, encore très ouvertes, de l'adaptabilité dynamique et les directions futures que je compte investiguer.
|
20 |
Modelo de avaliação de redes de acesso banda larga baseadas no paradigma SDN / An evaluation model for SDN based broadband internet access networksSouza, Alexsander Silva de January 2017 (has links)
Redes definidas por software (SDN) são uma abordagem recente para o projeto e operação de redes de computadores. Este paradigma é empregado com sucesso em cenários de datacenter, no entanto redes de acesso definidas por software (SDAN) ainda são raras em operadoras de telefonia e provedores de Internet. Isso deve-se em grande parte à inexistência de uma arquitetura de referência, algo que diversos projetos tentaram suprir nos últimos anos. Independente da vertente escolhida, a opção por uma mudança tão disruptiva como o SDN precisa ser justificada. Modelos tecno-econômicos são comumente utilizados para estimar o impacto da mudança na rentabilidade da operação. O custo total de propriedade (TCO) é uma métrica utilizada para esse fim. O presente trabalho desenvolveu um modelo simplificado de comparação de arquiteturas de rede, que diferentemente dos demais, tem foco nos serviços oferecidos ao assinante e no custo de gerenciamento dos mesmos. A análise é realizada em duas dimensões. Na primeira o esforço de operar a rede é estimado através de uma análise qualitativa, de forma similar ao realizado por outros modelos. O segundo eixo é a quantidade de recursos exigida para provisionar e monitorar cada serviço. Essa estimativa é gerada através do uso de simulação de tempo discreto dos elementos e protocolos relevantes. A combinação das duas análises permite identificar as tendências de comportamento dos serviços geradas pela adoção de uma nova arquitetura de rede, e avaliar a conveniência dessa migração. O uso de simulação neste trabalho demandou a construção de modelos dos equipamentos e protocolos envolvidos. Elegeu-se o pacote NS-3 como ferramenta de simulação. Definir e implementar modelos para todos os serviços analisados poderia tornar-se tão oneroso quanto as técnicas que desejávamos suplantar, e por isso utilizou-se uma abordagem indireta. São simulados apenas os componentes essenciais, e os custos de cada serviço são inferidos a partir deles. O modelo de rede SDAN utilizado, denominado SDCN, é inspirado no SplitArchitecture, proposto pelo projeto SPARC. / Software defined networks are a novel approach to design and operation of computer networks. Although this paradigm is employed successfully in many data-centers and campus, software defined access networks (SDAN) are still in their infancy. Carriers and ISPs have not converged on a standard architecture to build their infrastructure upon, a problem many initiatives are trying to solve. Regardless of the chosen model, the option for such a disruptive change as SDN needs to be justified. Techno-economic models are commonly used to estimate the impact of a change in the operation. The Total Cost of Ownership (TCO) is a metric commonly used for this purpose. The present work developed a simplified evaluation model for network architectures, which focuses on the services offered to the subscriber and on the cost of managing them. The analysis is performed in two dimensions. In the first, the effort to operate the network is estimated through a qualitative analysis, similar to the one performed by other existing models. The second axis is the amount of resources required to provision and monitor each service. This estimation is produced through the use of discrete time simulation of selected elements and protocols. The combination of the analyzes allows us to identify the behavioral trends provoked by the adoption of a new network architecture, and to evaluate the convenience of such migration. The simulation in this work demanded models for the equipment and protocols involved. The package NS-3 was the chosen simulation tool. Defining and implementing models for all services analyzed could become as costly as the techniques we wish to overcome, so an indirect approach has been used. Only the essential components are simulated, and the costs of each service are inferred from them. The SDAN model evaluated in this work, called SDCN, is a simplification of the SplitArchitecture proposed by the SPARC project.
|
Page generated in 0.0922 seconds