• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 3
  • 1
  • Tagged with
  • 7
  • 7
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Pilotage dynamique de la qualité de service de bout en bout pour une session "user-centric"

Alaoui Soulimani, Houda 18 June 2012 (has links) (PDF)
Aujourd'hui, le marché des services est devenu de plus en plus concurrentiel. Les exigences des clients pour des offres de service en adéquation avec leurs usages et leurs préférences conduisent les fournisseurs à proposer de nouveaux services qui répondent à ce nouveau besoin pour se démarquer des concurrents et attirer de nouveaux clients. Avec la convergence des réseaux et celle des services de nouvelle génération (NGN/NGS), de nouveaux services sont apparus. Les utilisateurs sont nomades et veulent utiliser leurs services de différentes manières n'importe où, n'importe quand et par n'importe quel type de terminal, et cela avec une continuité de service et une qualité de service de bout en bout. Ainsi, fournir des services personnalisés aux clients dans un environnement hétérogène et mobile devient un challenge pour les opérateurs et les fournisseurs de service pour améliorer le retour sur investissement (ROI) et le délai de mise sur le marché (TTM). Nos réflexions à propos de la fourniture des services personnalisés selon les besoins fonctionnels et non-fonctionnels (QoS) des usagers, nous ont conduits à identifier les besoins du nouveau contexte NGN/NGS défini par l'intersection de ces trois éléments "user-centric, mobilité et QoS". Comment piloter dynamiquement la QoS de bout en bout pour une session unique "user-centric"? Comment assurer le " service Delivery" dans un contexte de mobilité et d'ubiquité? Ces nouveaux besoins, nous ont motivé à proposer des solutions à travers trois contributions principales qui prennent en considération la vision utilisateur et opérateur. Notre première contribution porte sur le modèle organisationnel. Nous proposons une nouvelle organisation avec un maximum de flexibilité, d'adaptabilité et d'autogestion, qui permet de piloter la QoS à chaque niveau de l'architecture (équipement, réseau et service). Dans cette organisation nous avons défini des acteurs et le rôle que joue chacun d'eux par rapport à la prise de décision au cours de la session de l'utilisateur, et cela pour maintenir la QoS de bout en bout dans un environnement qui est totalement hétérogène et mobile.Notre deuxième contribution traite du composant de service autonomique. Avec la complexité de la personnalisation des services dans un contexte hétérogène et mobile et le besoin de satisfaire la QoS de bout en bout, les ressources services doivent être prises en compte au même titre que les ressources réseaux. Donc, un degré élevé d'autosuffisance, d'autogestion et d'automatisation est demandé dans la ressource service (composant de service) pour améliorer le service delivery. Pour cela, nous proposons un composant de service autonomique "ASC: Autonomic Service Component" basé sur un agent de QoS intégré qui s'autocontrôle et s'autogère pour adapter dynamiquement ses ressources en réponse à un changement de situations au cours de la session de l'utilisateur. Notre troisième proposition couvre le modèle protocolaire. La session de services personnalisés nécessite des interactions plus flexibles au niveau service pour avoir une session unique avec une continuité de service. Nous proposons un protocole de signalisation SIP+ qui permet la négociation de la QOS des services personnalisés dès la phase d'initialisation de la session et de la renégociation de la QoS pendant l'usage, pour maintenir le service avec la QoS requise à travers une session unique.De façon plus concrète, nous présentons nos expérimentations à travers un scenario et une plate-forme de démonstration qui nous permet de tester la faisabilité et la performance de nos contributions. Les apports et les perspectives de cette thèse sont consignés en conclusion.
2

Isolation réseau dans un environnement Cloud Public/Hybride / Network Isolation in a Public/Hybrid cloud environment

Del Piccolo, Valentin 23 May 2017 (has links)
Le cloud computing est un modèle informatique donnant accès à un grand nombre de ressources de calcul et de stockage. Trois types de cloud existent, le cloud public, le cloud privé et le cloud hybride. Afin de proposer une solution cloud hybride, nous utilisons le protocole TRILL qui permet d'optimiser l'utilisation des ressources réseau d'une infrastructure. Cependant, TRILL ne permet pas d'interconnecter des data centers sans perdre l'indépendance de leur plan de contrôle. Pour modifier ce comportement, lequel implique la création d'un unique domaine de broadcast s'étendant sur tout le réseau, nous proposons, comme première contribution, une solution (MLTP) qui permet d'interconnecter des réseaux TRILL tout en les maintenant indépendants. Un autre élément manquant de TRILL est l'isolation des flux réseau. Notre seconde contribution consiste donc à trouver et implémenter une solution d'isolation des flux au sein de MLTP. Ce nouveau protocole (MLTP+VNT), permet d'avoir une solution de cloud hybride, mais elle possède deux désavantages. Le premier est la gestion des pannes. Certains éléments de MLTP+VNT, les Border RBridges (BRB), contiennent des informations nécessaires au routage inter-data center et lorsqu'ils tombent en panne, ces informations sont perdues. Pour éviter cela, nous avons, dans notre troisième contribution, modifié MLTP+VNT pour synchroniser les BRBs. Le second est l'obligation de n'utiliser que des réseaux MLTP+VNT pour réaliser un cloud hybride. Pour lever cette restriction, nous avons, dans notre quatrième contribution, conçu une passerelle entre un réseau TRILL, pour le cloud public, et un réseau OpenFlow, pour le cloud privé. / Cloud computing uses infrastructure with a lot of computing and storage resources. There are three types of cloud: Public cloud, Private cloud, and Hybrid cloud. In order to provide a hybrid cloud solution, we used as a base the TRILL protocol which optimizes the use of the data center infrastructure. However, TRILL cannot interconnect data centers as doing so will merge the data centers networks and each data center will lose its independence. Our first contribution is to change this behavior and we develop MLTP which allows to interconnect TRILL or MLTP network without merging them. Another functionality missing from TRILL is network isolation. To fill this lack, in our second proposal we add to MLTP a solution called VNT and we then have a new protocol called MLTP+VNT. In this protocol, each user traffic is isolated from one another. Therefore, MLTP+VNT allows to have a hybrid cloud environment. Nevertheless, it has two shortcomings. The first one is its “single” point of failure. As a matter of fact, MLTP+VNT uses a new type of nodes called Border RBridges which contains inter-data centers routing information. If a Border RBridge fails, then the information it contained is lost. In order to prevent this loss, we implement a method to synchronize the Border RBridges in our third contribution. The second shortcoming is the obligation to use MLTP+VNT in each network to form the hybrid cloud. To lift this limitation, we design and develop, in our fourth contribution, a bridge between a MLTP+VNT network and an OpenFlow network. This way, our solution allows to create a hybrid cloud environment with the MLTP+VNT solution in the public cloud and OpenFlow in the public cloud.
3

Pilotage dynamique de la qualité de service de bout en bout pour une session "user-centric"

Alaoui Soulimani, Houda 18 June 2012 (has links)
Aujourd’hui, le marché des services est devenu de plus en plus concurrentiel. Les exigences des clients pour des offres de service en adéquation avec leurs usages et leurs préférences conduisent les fournisseurs à proposer de nouveaux services qui répondent à ce nouveau besoin pour se démarquer des concurrents et attirer de nouveaux clients. Avec la convergence des réseaux et celle des services de nouvelle génération (NGN/NGS), de nouveaux services sont apparus. Les utilisateurs sont nomades et veulent utiliser leurs services de différentes manières n’importe où, n’importe quand et par n’importe quel type de terminal, et cela avec une continuité de service et une qualité de service de bout en bout. Ainsi, fournir des services personnalisés aux clients dans un environnement hétérogène et mobile devient un challenge pour les opérateurs et les fournisseurs de service pour améliorer le retour sur investissement (ROI) et le délai de mise sur le marché (TTM). Nos réflexions à propos de la fourniture des services personnalisés selon les besoins fonctionnels et non-fonctionnels (QoS) des usagers, nous ont conduits à identifier les besoins du nouveau contexte NGN/NGS défini par l’intersection de ces trois éléments «user-centric, mobilité et QoS». Comment piloter dynamiquement la QoS de bout en bout pour une session unique «user-centric»? Comment assurer le « service Delivery» dans un contexte de mobilité et d’ubiquité? Ces nouveaux besoins, nous ont motivé à proposer des solutions à travers trois contributions principales qui prennent en considération la vision utilisateur et opérateur. Notre première contribution porte sur le modèle organisationnel. Nous proposons une nouvelle organisation avec un maximum de flexibilité, d’adaptabilité et d’autogestion, qui permet de piloter la QoS à chaque niveau de l’architecture (équipement, réseau et service). Dans cette organisation nous avons défini des acteurs et le rôle que joue chacun d’eux par rapport à la prise de décision au cours de la session de l’utilisateur, et cela pour maintenir la QoS de bout en bout dans un environnement qui est totalement hétérogène et mobile.Notre deuxième contribution traite du composant de service autonomique. Avec la complexité de la personnalisation des services dans un contexte hétérogène et mobile et le besoin de satisfaire la QoS de bout en bout, les ressources services doivent être prises en compte au même titre que les ressources réseaux. Donc, un degré élevé d’autosuffisance, d’autogestion et d’automatisation est demandé dans la ressource service (composant de service) pour améliorer le service delivery. Pour cela, nous proposons un composant de service autonomique «ASC: Autonomic Service Component» basé sur un agent de QoS intégré qui s’autocontrôle et s’autogère pour adapter dynamiquement ses ressources en réponse à un changement de situations au cours de la session de l’utilisateur. Notre troisième proposition couvre le modèle protocolaire. La session de services personnalisés nécessite des interactions plus flexibles au niveau service pour avoir une session unique avec une continuité de service. Nous proposons un protocole de signalisation SIP+ qui permet la négociation de la QOS des services personnalisés dès la phase d’initialisation de la session et de la renégociation de la QoS pendant l’usage, pour maintenir le service avec la QoS requise à travers une session unique.De façon plus concrète, nous présentons nos expérimentations à travers un scenario et une plate-forme de démonstration qui nous permet de tester la faisabilité et la performance de nos contributions. Les apports et les perspectives de cette thèse sont consignés en conclusion. / Nowadays, the services market has become increasingly competitive. Customer requirements for service offerings in line with their uses and preferences led providers to offer new services to meet this new need and to stand out from competitors and attract new customers. With the success of the network and service convergence (NGN / NGS), new services have emerged. A mobile user desires to access his services anywhere, anytime and on any type of terminal.Thus, providing customized services to clients while ensuring the service continuity and the end-to-end quality of service in a heterogeneous and mobile environment became a challenge for mobile operators and service providers to improve the return on investment (ROI) and time-to-market (TTM). Our thinking about the provision of customized services according to the functional and non-functional (QoS) needs of the users has led us to identify the needs of the new context NGN / NGS defined by the intersection of these three elements "user-centric, mobility and QoS". How to dynamically control the end-to-end QoS for a single "user-centric" session? How to ensure the "Service Delivery" in the context of mobility and ubiquity? These new needs have led us to propose solutions through three main contributions that take into account the user and the operator vision. Our first contribution concerns the organizational model. We have proposed a new organization with a maximum of flexibility, adaptability and self-management which allows the control of the QoS at each level of the architecture (equipment, network and service). In this organization, we have defined actors and the role of each one in relation to the decision-making process during the user session in order to maintain the end-to-end QoS in an environment that is totally heterogeneous and mobile. Our second contribution addresses the autonomic service component. With the complexity of services personalization in a heterogeneous and mobile context and the need to satisfy the end to end QoS, services and network resources must be taken into account. Therefore, a high degree of self-sufficiency, self-management and automation is required in the resource service to improve the service delivery. We have therefore proposed an autonomic service component based on an integrated QoS-agent which is self-controlled and self-managed to dynamically adapt its resources in response to changing situations during the user’s session. Our third proposal covers the model protocol. The personalized services session requires more flexible interactions at the service level in order to obtain a single session with service continuity. We have proposed a signalling protocol SIP + that allows the negotiation of the QoS of personalized services at the session initialization phase and the renegotiation of the QoS during the utilization to maintain the service with the required QoS through a unique session. More concretely, we have presented our experiments through a scenario and demonstration platform that allows us to test the feasibility and the performance of our contributions. The contributions and perspectives of this thesis are stated in the conclusion.
4

Enriching the internet control-plane for improved traffic engineering / Amélioration du plan de contrôle d'internet avec de nouvelles solutions d'ingénierie de trafic

Phung, Chi Dung 30 March 2018 (has links)
L'un des défis majeurs de l'évolution de l'architecture Internet est la définition d'une architecture protocolaire permettant d'améliorer le routage, et en particulier (i) conserver un système de routage gérable avec les technologies actuelles et futures c'est-à-dire, avec quelques millions d'états, (ii) offrir une architecture apte à faciliter la programmabilité du plan de transfert, (iii) proposer un système de routage évolutif pouvant être régulièrement optimisé avec uniquement les informations sur les flux actifs, (iv) fournir une séparation entre localisateurs et identificateurs pour la mobilité IP avancée, (v) faciliter un déploiement incrémental, (vi) mieux servir les services applicatifs "over-the-top". Le protocole LISP (\textit{Locator/Identifier Separation Protocol}) a été identifié comme l'un des protocoles émergents à cet égard. Dans son état actuel, il répond très bien aux besoins susmentionnés. Cependant, il subit des limitations lorsqu'il s'agit de prendre en compte la résilience et la capacité à réagir rapidement aux mises à jour de l'état du réseau. Ces inconvénients peuvent être compensés en améliorant l'architecture du plan de contrôle et ses algorithmes de routage. Dans cette thèse, nous proposons une nouvelle architecture réseau-système et expérimentons de nouvelles primitives de plan de contrôle, ainsi que d'algorithmes de diffusion des états, en testant son passage à l'échelle avec différentes conditions de réseau. Nous concevons et construisons d'abord un nœud de plan de données et de plan de contrôle LISP open source. Nous le comparons avec d'autres implémentations en montrant que notre implémentation atteint des performances adaptées aux vrais déploiements. Nous montrons comment notre implémentation a permis la mise en oeuvre d'une plateforme d'expérimentation à grande échelle, la plate-forme LISP-Lab, en opération aussi bien les fonctions de plan de transfert que les fonctions de plan de contrôle. En suite, nous proposons une nouvelle solution pour les migrations à chaud de machines virtuelles à travers des centres de données géographiquement répartis sur des réseaux IP étendus. Des tests dans un testbed réel connecté nativement à Internet montrent qu'avec notre approche, nous pouvons facilement atteindre des temps d'arrêt inférieurs à la seconde lors de la migration sur une grande échelle, même pour des clients très distants. En outre, nous avons étudié des protocoles d'optimisation de réseau multicouche, en particulier en relation avec le protocole MPTCP (Multipath Transport Control Protocol), auquel LISP peut offrir une diversité de chemins pour l’agrégation de bande passante, ainsi qu’une plus grande confidentialité et fiabilité des connexions. Bien que nous ne puissions bénéficier que de quelques nœuds de réseau superposés, nous avons pu évaluer expérimentalement nos propositions en montrant l'impact positif de notre solution, l'impact négatif des longs temps d'aller-rétour sur certains sous-flux MPTCP, et la forte corrélation entre le temps d'aller-retour différentiel et le débit. Enfin, nous avons travaillé sur une refonte du plan de contrôle de LISP afin d’améliorer son fonctionnement du à l'échelle d’Internet, en facilitant la coopération entre les systèmes de mapping LISP et en introduisant plus d'automatisation dans la procédure de fourniture de services de connectivité LISP. Nous croyons qu'une telle optimisation pourrait sensibiliser la communauté des fournisseurs de services, générant de nouvelles opportunités commerciales liées aux services de cartographie LISP et l'application de politiques d'ingénierie de trafic interdomaines avancées dans le but d'obtenir de meilleures garanties de qualité de service. / One of the major challenges in the evolution of the Internet architecture is the definition of a protocol architecture that allows to solve the following major issues in Internet routing and traffic forwarding capabilities, (i) keeping a routing state that is manageable with current and forthcoming computing infrastructure – i.e., with few millions of states, (ii) offering a scalable pull architecture in support of data-plane programmability, (iii) offering a scalable forwarding plane able to be regularly optimized with only active flows information, (iv) offering locator/identifier separation for advanced IP mobility, (v) is incrementally deployable, (vi) can enhance the support of over-the-top services. The Locator/Identifier Separation Protocol (LISP) has been identified as one of the rising protocols in this respect. In its current status, it supports the above mentioned requirements at a level that is acceptable for basic networking environments. However, it shows too limited capacities when it comes to take into consideration fault resiliency and capability to react fast to network state updates. These shortcomings can be compensated by enhancing the control-plane architecture, and the routing algorithms therein. In this dissertation, we propose new protocol features and experiment novel control-plane primitives, as well as hybrid distributed-centralized routing state dissemination algorithms, to scale with different network conditions. We first design and build own open source LISP data-plane and control plane node, comparing it with other implementations, showing how our implementation can scale for large networks and reach performances suitable for real deployments. We present how our implementation served to operate all network nodes (data-plane and control-plane nodes) of a large scale experimentation testbed, the LISP-Lab testbed. Then we propose a novel LISP-based solution for VM live migrations across geographically separated datacenters over wide area IP networks. Experimenting it at large scale, we show that with our approach we can easily reach sub-second downtimes upon Internet-wide migration, even for very distant clients. Moreover, we investigate cross-layer network optimization protocols, in particular in relation with the Multipath Transport Control Protocol (MPTCP) to which LISP can deliver path diversity in support of bandwidth increase, confidentiality support and connection reliability, also using LISP traffic engineering network overlays. Despite we could benefit from only few overlay network nodes, we could experimentally evaluate our proposals showing the positive impact by using our solution, the negative impact of long round-trip times on some MPTCP subflows, and the strong correlation between the differential round-trip time among subflows and the throughput performance. Finally, we worked on a framework to improve LISP operation at the Internet scale, by facilitating cooperation between LISP Mapping Systems and introducing more automation in the LISP connectivity service delivery procedure. We believe such optimization could raise awareness among the service providers’ community, yielding new business opportunities related to LISP mapping services and the enforcement of advanced inter-domain traffic engineering policies for the sake of better quality of service guarantees.
5

Loss-free architectures in optical burst switched networks for a reliable and dynamic optical layer / [Architectures sans pertes dans les réseaux optiques avec commutation en rafale pour une couche optique fiable et dynamique]

Coutelen, Thomas 15 June 2010 (has links)
[non communiqué] / For the last three decades, the optical fiber has been a quite systematic response to dimensioning issues in the Internet. Originally restricted to long haul networks, the optical network has gradually descended the network hierarchy to discard the bottlenecks. In the 90's, metropolitan networks became optical. Today, optical fibers are deployed in access networks and reach the users. In a near future, besides wireless access and local area networks, all networks in the network hierarchy may be made of fibers, in order to support current services (HDTV) and the emergence of new applications (3D-TV newly commercialized in USA). The deployment of such greedy applications will initiate an upward upgrade. The first step may be the Metropolitan Area Networks (MANs), not only because of the traffic growth, but also because of the variety of served applications, each with a specific traffic profile. The current optical layer is of mitigated efficiency, dealing with unforeseen events. The lack of reactivity is mainly due to the slow switching devices: any on-line decision of the optical layer is delayed by the configuration of the. devices. When the optical network has been extended in the MANs, a lot of efforts has been deployed to improve the reactivity of the optical layer. The Optical Circuit Switching paradigm (OCS) has been improved but it ultimately relies on off-line configuration of the optical devices. Optical Burst Switching (OBS) can be viewed as a highly flexible evolution of OCS, that operates five order of magnitude faster. Within this 'architecture, the loss-free guaranty can be abandoned in order to improve the reactivity of the optical layer. Indeed, reliability and reactivity appear as antagonists properties and getting closer to either of them mitigates the other. This thesis aims at proposing a solution to achieve reliable transmission over a dynamic optical layer. Focusing on OBS networks, our objective is to solve the contention issue without mitigating the reactivity. After the consideration of contention avoidance mechanisms with routing constraints similar as in OCS networks, we investigate the reactive solutions that intend to solve the contentions. None of the available contention resolution scheme can ensure the 100% efficiency that leads to loss-free transmission. An attractive solution is the recourse to electrical buffering, but it is notoriously disregarded because (1) it may highly impact the delays and (2) loss can occur due to buffer overflows. The efficiency of translucent architectures thus highly depends on the buffer availability, that can be improved by reducing the time spent in the buffers and the contention rate. We show that traffic grooming can highly reduce the emission delay, and consequently the buffer occupancy. In a first architecture, traffic grooming is enabled by a translucent core node architecture, capable to re-aggregate incoming bursts. The re-aggregation is mandatory to "de-groom" the bursts in the core network (i.e., to demultiplex the content of a burst). On the one hand, the re-aggregation highly reduces the loss probability, but on the other hand, it absorbs the benefits of traffic grooming. Finally, dynamic access to re-aggregation for contention resolution, despite the significant reduction of the contention rate, dramatically impacts the end-to-end delay and the memory requirement. We thus propose a second architecture, called CAROBS, that exploits traffic grooming in the optical domain. This framework is fully dynamic and can be used jointly with our translucent architecture that performs re-aggregation. As the (de)grooming operations do not involve re-aggregation, the translucent module can be restricted to contention resolution. As a result, the volume of data submitted to re-aggregation is drastically reduced and loss-free transmission can be reached with the same reactivity, end-to-end delay and memory requirement as a native OBS network
6

Architectures réseaux pour le partage de contenus multimédias avec garantie de qualité de service

Mahdi, Mohamed 16 November 2011 (has links) (PDF)
Le succès des services de partage de contenus multimédias sur internet témoigne de l'intérêt des utilisateurs à partager leurs expériences personnelles à travers des fichiers multimédias (photo, vidéo, musique). Les solutions actuelles sont basées essentiellement sur des serveurs web et souffrent d'un manque de QoS, de sécurité et de confidentialité. Plusieurs travaux de recherche ont été menés pour proposer des architectures réseaux d'accès à distance pour de tels services. Ils sont soit trop complexes pour être utilisés par des services dédiés au grand public, soit inadaptés au contexte de partage de contenus. Dans cette thèse nous présentons un système de mise en relation réseau entre équipements distants pour permettre l'échange de contenus multimédias, ceci en garantissant à la fois la sécurité, la confidentialité et la qualité de service. Étant donné que ces contenus sont gourmands en ressources réseaux, le système proposera une garantie de QoS de bout en bout pour les sessions établies. Il offrira également une sécurisation de la mise en relation et des échanges. Nous avons défini une architecture générique de notre système. Ensuite, nous avons proposé deux déclinaisons techniques, leur conception et leur implémentation, une première utilisant le Framework IMS (IP Multimédia Subsystem) et une deuxième adaptée au déploiement sur internet. Le système conçu constitue la brique réseau du service de partage de contenus à distance étudié dans le cadre du projet européen Feel@Home ("Full Extended Experience of living at Home").
7

Conception et étude des performances d'une solution auto-configurable pour les réseaux de transport du futur / Design and performances study of a self-configurable solution for future transport networks

Le Quéré, Damien 16 June 2015 (has links)
Dans cette thèse, nous étudions la solution LOCARN : ''Low Opex & Capex Architecture for Resilient Networks''. LOCARN est une architecture de réseaux paquet alternative conçue dans une optique de simplicité de sa structure et ses mécanismes tout en permettant par sa conception la résilience et l'auto-adaptation des services de transport clients. Compte tenu de la complexification croissante des réseaux de transport opérateurs ces dernières décennies, nous prenons ces réseaux comme cas d'usage privilégié. Dans ce cadre, LOCARN permet une simplification considérable des composants et de leur gestion en comparaison des solutions actuelles des opérateurs – ce qui implique respectivement des réductions de CAPEX et d'OPEX. Dans le travail qui suit, nous présentons LOCARN techniquement et mettons en évidence ses intérêts pour les opérateurs par rapport aux autres technologies de transport. Puis, la question prioritaire étant la capacité de mise à l'échelle de LOCARN pour des réseaux de grandes dimensions, nous étudions cette question en détails ce qui nous permet d'établir que l'architecture est tout à fait capable de passer à l'échelle dans des réseaux de transport réalistes. En outre, pour améliorer les performances nous avons également spécifié et évalué deux améliorations de conception permettant à l'architecture de transporter d'un très grand nombre de services, les résultats obtenus sont très encourageants. / In this thesis, we study the LOCARN solution “Low Opex & Capex Architecture for Resilient Networks". LOCARN is an alternative packet network architecture that has been conceived with a special attention to the simplicity of its structure and mechanisms while allowing by design the resiliency and the self-adaptation of clients transportation services. Considering the growing complexification of operators transport networks during the last decades, we consider these latter as the privileged use case. In such a context, LOCARN would allow a drastical simplification of devices and their operation compared to common operator solutions – this involves respectively reductions of CAPEX and OPEX. In this work, we first present LOCARN technically and we bring out its interests for operators beside other transport technologies. Then, since the primary issue of LOCARN is it scalability for large networks, we study this point in details which allow us to establish that the architecture is altogether capable to scale in realistics transport networks. Moreover, to increase the performances we specified two design improvements allowing the architecture to transport a huge amount of clients, the obtained results are very encouraging.

Page generated in 0.065 seconds