Spelling suggestions: "subject:" doptimisation"" "subject:" d'optimisation""
81 |
Optimisation de bout-en-bout du démarrage des connexions TCP / TCP startup end-to-end optimisationSallantin, Renaud 29 September 2014 (has links)
Dans cette thèse, nous proposons un mécanisme appelé Initial Spreading qui permet une optimisation remarquable des performances de TCP pour les connexions de petites tailles, représentant plus de 90% des connexions échangées dans l’Internet. Cette solution est d’autant plus intéressante que pour certaines technologies telles qu’un lien satellite, le temps d’aller-retour particulièrement long est très pénalisant, et des solutions spécifiques ont dû être implantées qui empêchent l’intégration du satellite dans un système de communication plus large. Nous montrons que l’Initial Spreading est non seulement plus performant, mais surtout plus général car pertinent dans toutes les situations. De plus, peu intrusif, il ne compromet aucune des évolutions de TCP passées ou à venir. / In this Ph.D. Thesis, we propose a mechanism called Initial Spreading that significantly improves the TCP short-lived connexions performance, and so more than 90% of the Internet connections. Indeed, if regular TCP without our mechanism can be considered as efficient for terrestrial networks, its behavior is strongly damaged by the long delay of a satellite communication. Satellite community developed then some satellite specific solutions that provide good performance, but prevent the joint use of satellite and other technologies. We show therefore that Initial Spreading is not only more efficient than regular solutions but enables also the use of an unique protocol whatever the context. Moreover, being non-intrusive, it is suitable for past and future TCP evolutions.
|
82 |
Introduction de fonctionnalités d'auto-optimisation dans une architecture de selfbenchmarking / Introduction of self-optimization features in a self-benchmarking architectureBendahmane, El Hachemi 25 September 2012 (has links)
Le Benchmarking des systèmes client-serveur implique des infrastructures techniques réparties complexes, dont la gestion nécessite une approche autonomique. Cette gestion s'appuie sur une suite d'étapes, observation, analyse et rétroaction, qui correspond au principe d'une boucle de contrôle autonome. Des travaux antérieurs dans le domaine du test de performances ont montré comment introduire des fonctionnalités de test autonome par le biais d'une injection de charge auto-régulée. L'objectif de cette thèse est de suivre cette démarche de calcul autonome (autonomic computing) en y introduisant des fonctionnalités d'optimisation autonome. On peut ainsi obtenir automatiquement des résultats de benchmarks fiables et comparables, mettant en oeuvre l'ensemble des étapes de self-benchmarking. Notre contribution est double. D'une part, nous proposons un algorithme original pour l'optimisation dans un contexte de test de performance, qui vise à diminuer le nombre de solutions potentielles à tester, moyennant une hypothèse sur la forme de la fonction qui lie la valeur des paramètres à la performance mesurée. Cet algorithme est indépendant du système à optimiser. Il manipule des paramètres entiers, dont les valeurs sont comprises dans un intervalle donné, avec une granularité de valeur donnée. D'autre part, nous montrons une approche architecturale à composants et une organisation du benchmark automatique en plusieurs boucles de contrôle autonomes (détection de saturation, injection de charge, calcul d'optimisation), coordonnées de manière faiblement couplée via un mode de communication asynchrone de type publication-souscription. Complétant un canevas logiciel à composants pour l'injection de charge auto-régulée, nous y ajoutons des composants pour reparamétrer et redémarrer automatiquement le système à optimiser.Deux séries d'expérimentations ont été menées pour valider notre dispositif d'auto-optimisation. La première série concerne une application web de type achat en ligne, déployée sur un serveur d'application JavaEE. La seconde série concerne une application à trois tiers effectifs (WEB, métier (EJB JOnAS) et base de données) clusterSample. Les trois tiers sont sur des machines physiques distinctes. / Benchmarking client-server systems involves complex, distributed technical infrastructures, whose management deserves an autonomic approach. It also relies on observation, analysis and feedback steps that closely matches the autonomic control loop principle. While previous works in performance testing have shown how to introduce autonomic load testing features through self-regulated load injection, the goal of this thesis is to follow this approach of autonomic computing to introduce self-optimization features in this architecture to obtain reliable and comparable benchmark results, and to achieve the fully principle of Self-benchmarking.Our contribution is twofold. From the algorithmic point of view, we propose an original optimization algorithm in the context of performance testing. This algorithm is divided into two parts. The first one concerns the overall level, i.e. the control of the performance index evolution, based on global parameters setting of the system. The second part concerns the search for the optimum when only one parameter is modified. From the software architecture point of view, we complete the Fractal component-based architecture, containing several autonomic control loops (saturation, injection, optimization computing) and we implement the coordination principle between these loops by asynchronous messages according to the publish-subscribe communication paradigm. To apply a given parameters setting on the system under test, we introduced new components Configurators to support the setting of parameters before starting the test process. It may also be necessary to restart all or part of the system to optimize to ensure that the new setting is effectively taken into account. We introduced components Starters to cover this need in a specific way for each system.To validate our self-optimization framework, two types of campaigns have been conducted onto the servers of Orange Labs in Meylan and the servers of the LISTIC Laboratory of the University of Savoie in Polytech Annecy-Chambéry (Annecy le Vieux). The first one is a WEB online shopping application deployed on a Java EE application server JonAS. The second one is a three-tiers application (WEB, business (EJB JOnAS) and data base) clusterSample. The three tiers are in three separate machines.
|
83 |
Intégration du déploiement de flotte et du service aux passagers dans la gestion de la planification pour compagnie aérienne / Integration of the fleet deployment and of the passengers services into the airline scheduling managementDuquesne, Christophe-Marie 14 January 2013 (has links)
Étant donnés un planning aérien et des prévisions de demande, le problème d'affectation de flotte aérienne consiste à déterminer la meilleure façon de répartir les types d'appareils sur les vols. Cette répartition a un impact majeur sur le profit d'une compagnie aérienne, puisqu'elle détermine les quantités de places disponibles sur les itinéraires du réseau aérien, ainsi que le coût de fonctionnement de celui-ci. Des décennies de recherche ont rendues les modélisations de ce problème de plus en plus réalistes. Cette thèse s'inscrit dans la continuité de ces recherches en considérant le problème d'affectation de flotte dans un contexte où les demandes des passagers sont incertaines. Nous proposons dans un premier temps une étude autour des deux modèles de la littérature les plus utilisés dans l'industrie, FAM et IFAM. Nous montrons que FAM peut être vu comme une Relaxation Lagrangienne de IFAM, avec des multiplicateurs Lagrangiens particuliers. Nous implémentons cette relaxation, et nous appliquons des résultats connus pour l'étendre en une génération de colonnes basée sur une décomposition de Dantzig-Wolfe de IFAM. Nous étudions ensuite les effets que l'imprécision des prévisions peut avoir sur la performance d'IFAM, et nous présentons au terme de cette étude une nouvelle approche pour modéliser le problème d'affectation de flotte. Notre modèle, Market Driven Fleet Assignment Model (MDFAM), intègre les demandes par itinéraires comme variables de décision, et contraint ces demandes plutôt que de les considérer comme une entrée fixe. Nous appelons les contraintes résultantes des contraintes de Marché. Nous illustrons la flexibilité de cette approche à travers divers exemples, et nous proposons une série d'expériences visant à déterminer quelles sont les contraintes de marché donnant les meilleurs résultats. Nous comparons les différents modèles, et nous montrons que MDFAM peut atteindre des niveaux de performance similaires à ceux offert par IFAM, tout en étant plus facile à utiliser et à implémenter. / Given an airline schedule and demand forecasts, the Fleet Assignment Problem consists in determining how to assign aircraft types to flight legs in the best possible way. This assignment has a major impact on the profit of an airline, since it determines the quantities of seats available over the itineraries of the flight network, along with the associated operating cost. Decades of research on this problem have improved the formulations to be more and more realistic. This thesis extends the ongoing work, considering the problem of doing Fleet Assignment taking demand volatility into account. We first propose a study involving the two models of the literature that are the most widely used by the industry, FAM and IFAM. We show that FAM can be seen as a Lagrangian Relaxation of IFAM, with particular Lagrangian multipliers. We implement this relaxation, and we apply known results to extend it in a column generation based on a Dantzig-Wolfe decomposition of IFAM. We then study the effects of forecasts inaccuracy over the performance of IFAM, and we present a novel approach for modeling the Fleet Assignment Problem. Our model, Market Driven Fleet Assignment Model (MDFAM), makes the itinerary demands part of the decision variables. We propose to constraint these variables rather than consider them as a fixed input of the problem, and we call the resulting constraints Market Constraints. We illustrate the flexibility of this approach through various examples, and we provide a series of experiments in order to determine which Market Constraints give the best results. We compare the different models, and we show that MDFAM can reach a performance which is similar to IFAM's, while being easier to use and to implement.
|
84 |
Intégration des énergies renouvelables au réseau de distribution d'électricité / Integration of renewable energies in the electricity distribution systemAbdelouadoud, Seddik Yassine 01 December 2014 (has links)
Afin de lutter contre le changement climatique et de préserver les ressources naturelles, de nombreux pays ont mis en place des politiques plus ou moins ambitieuses de développement des énergies renouvelables électriques à court et moyen terme, tandis que, en parallèle, des scénarii de prospective à long terme envisagent un approvisionnement électrique majoritairement d'origine renouvelable. Certaines de ces énergies sont intermittentes et non contrôlables et, du fait des faibles économies d'échelle dont elles bénéficient, peuvent être développées de manière décentralisée, intégrées au bâtiment et raccordées au réseau de distribution, à l'opposé des moyens de production actuels. Concomitamment, les pointes de consommation augmentent à un rythme soutenu et obligent les gestionnaires de réseaux et les producteurs/fournisseurs à toujours plus d'investissements dans des moyens de production et de transport qui ne seront utilisés que pendant un faible nombre d'heures par an.Les changements décrits ci-dessus vont avoir un impact sur les trois grands objectifs de la planification et de la gestion du système électrique : minimiser le coût global, assurer la sûreté de l'approvisionnement et garantir la qualité de la fourniture. Si on analyse le fonctionnement actuel du système, les transformations à venir et les possibilités offertes par l'intégration de solutions de contrôle et de gestion (compteurs électriques communicants, transformateurs régleur en charge, onduleurs PV avec gestion de réactif, stockages, etc.) au réseau de distribution, il est possible de mettre en évidence trois grands domaines d'application - et donc de valorisation - pour celles-ci. Il s'agit du déplacement temporel d'énergie, de la fourniture de services auxiliaires (régulation et suivi de charge, réserve ou gestion de tension, par exemple) et de l'optimisation de la planification et de la gestion du réseau (évitement et/ou retardement d'investissement).Cependant, l'ensemble des procédures et méthodes de planification et d'opération actuel est basé sur l'hypothèse d'une production centralisée et d'un réseau de distribution passif. Dans ce contexte, cette thèse contribue au développement d'une méthode de simulation d'un réseau de distribution actif en proposant trois avancées: une méthode de décomposition-coordination permettant la simulation intégrée du système centralisé et du réseau de distribution, un algorithme de résolution du problème des flux optimaux dans le réseau de distribution et un critère de criticité diminuant les besoins en capacité de calcul de la simulation si elle est employé dans un cadre de planification. / Many countries have set up mechanism support in favor of renewable energy development at a short or long term, while, in parallel, long-term scenarios of predominantly renewable energy provisioning are studied. Some of these energies are intermittent and non-dispatchable and, due to the low economies of scale they exhibit, can be deployed in a decentralized manner, integrated in buildings and connected to the distribution system.However, the methods and tools currently used to plan and operate the power system rely on hypothesis of centralized generation and passive distribution network. In this context, this thesis contributes to the development of a method aimed at simulated an active distribution network by proposing three novel approaches: a decomposition and coordination method allowing the integrated simulation of the centralized power system and the active distribution network, an algorithm to solve the single-stage optimal power flow in the distribution system as well as two criticality criteria allowing to decrease the computational burden of the simulation when it is used for planning purposes.
|
85 |
Optimisation de la production de l'électricité renouvelable pour un site isolé. / Global optimisation of electricity's production for a stand alone system.Huynh quang, Minh 11 February 2013 (has links)
Le but de cette thèse est l'optimisation de la production de l'électricité renouvelable pour site isolé de faible puissance. Un système, utilisant deux sources renouvelables : photovoltaïque et éolienne, est étudié afin d'améliorer le rendement énergétique de l'énergie produite. Pour la chaîne de conversion photovoltaïque, un contrôleur pour suivre le point de puissance maximale est conçu en utilisant l'approche de recherche directe (méthode Perturbe & Observe) combinée avec la logique floue, tout en prenant en compte le sens de variation des perturbations. Avec cette combinaison, on peut éviter des défauts de la méthode Perturbe & Observe, s'affranchir des informations sur les caractéristiques du panneau photovoltaïque et des conditions climatiques. Egalement, pour la chaîne de conversion éolienne de petite puissance fonctionnant à vitesse variable couplée à un générateur synchrone à aimant permanent, un contrôleur pour suivre le point de puissance maximale est proposé qui est basé sur le même principe par rapport à la chaîne de conversion photovoltaïque. Cette approche proposée a l'avantage de l'utilisation d'un capteur de tension au lieu d'un capteur de vitesse, ceci présente un intérêt certain notamment pour sites isolés par rapport aux autres solutions. Enfin, pour la réalisation d'un système de production d'électricité hybride, un superviseur est conçu pour obtenir un comportement optimal du système en fonction des variations de la charge et de la production en prenant en compte du système de stockage et de délestage. Pour chaque point abordé, des études en simulation sont fournies pour montrer l'efficacité des approches proposées. / The objective of this thesis is to optimize the production of renewable electricity for small isolated network. A system using two renewable sources: solar and wind power, is studied in order to improve the efficiency of energy extracted. For the photovoltaic conversion system, a maximum power point tracking controller is designed using direct searching approach (method Perturbe & Observe) combined with fuzzy logic, taking into account the direction of perturbation. This combination can avoid the disadvantages of the method Perturbe & Observe, and not requires any information about the generator's characteristics or climate conditions. Similarly, for the variable speed wind turbine using permanent magnet synchronous generator, a controller to track the maximum power point, based on the same principle with photovoltaic conversion system, is proposed. This approach has the advantage of using a voltage sensor instead of a speed sensor, this presents a particular interest for stand-alone system comparing to other solutions. Finally, for the realization of hybrid generation system, a fuzzy supervisor is adapted to obtain an optimal behavior of the system according to the variations of load demand and extracted power, taking into account the storage and dissipation system. For each issue, simulation studies are provided to show the effectiveness of the proposed approaches.
|
86 |
Adaptation automatique et semi-automatique des optimisations de programmes / Automatic and Semi-Automatic Adaptation of Program OptimizationsBagnères, Lénaïc 30 September 2016 (has links)
Les compilateurs offrent un excellent compromis entre le temps de développement et les performances de l'application. Actuellement l'efficacité de leurs optimisations reste limitée lorsque les architectures cibles sont des multi-cœurs ou si les applications demandent des calculs intensifs. Il est difficile de prendre en compte les nombreuses configurations existantes et les nombreux paramètres inconnus à la compilation et donc disponibles uniquement pendant l'exécution. En se basant sur les techniques de compilation polyédrique, nous proposons deux solutions complémentaires pour contribuer au traitement de ces problèmes. Dans une première partie, nous présentons une technique automatique à la fois statique et dynamique permettant d'optimiser les boucles des programmes en utilisant les possibilités offertes par l'auto-tuning dynamique. Cette solution entièrement automatique explore de nombreuses versions et sélectionne les plus pertinentes à la compilation. Le choix de la version à exécuter se fait dynamiquement avec un faible surcoût grâce à la génération de versions interchangeables: un ensemble de transformations autorisant le passage d'une version à une autre du programme tout en faisant du calcul utile. Dans une seconde partie, nous offrons à l'utilisateur une nouvelle façon d'interagir avec le compilateur polyédrique. Afin de comprendre et de modifier les transformations faites par l'optimiseur, nous traduisons depuis la représentation polyédrique utilisée en interne n'importe quelle transformation de boucles impactant l’ordonnancement des itérations en une séquence de transformations syntaxiques équivalente. Celle-ci est compréhensible et modifiable par les programmeurs. En offrant la possibilité au développeur d'examiner, modifier, améliorer, rejouer et de construire des optimisations complexes avec ces outils de compilation semi-automatiques, nous ouvrons une boîte noire du compilateur: celle de la plateforme de compilation polyédrique. / Compilers usually offer a good trade-off between productivity and single thread performance thanks to a wide range of available automatic optimizations. However, they are still fragile when addressing computation intensive parts of applications in the context of parallel architectures with deep memory hierarchies that are now omnipresent. The recent shift to multicore architectures for desktop and embedded systems as well as the emergence of cloud computing is raising the problem of the impact of the execution context on performance. Firstly, we present a static-dynamic compiler optimization technique that generates loop-based programs with dynamic auto-tuning capabilities with very low overhead. Our strategy introduces switchable scheduling, a family of program transformations that allows to switch between optimized versions while always processing useful computation. We present both the technique to generate self-adaptive programs based on switchable scheduling and experimental evidence of their ability to sustain high-performance in a dynamic environment.Secondly, we propose a novel approach which aims at opening the polyhedral compilation engines that are powering loop-level optimization and parallelization frameworks of several modern compilers.Building on the state-of-the-art polyhedral representation of programs, we present ways to translate comprehensible syntactic transformation sequences to and from the internal polyhedral compiler abstractions. This new way to interact with high-level optimization frameworks provides an invaluable feedback to programmers with the ability to design, replay or refine loop-level compiler optimizations.
|
87 |
Méthodologies de conception de formes d'onde pour radars sol. Application au cas du radar MIMO. / Implementation of waveform design methods for ground MIMO radarsTan, Uy Hour 13 June 2019 (has links)
Cette thèse se focalise sur le concept du radar MIMO co-localisé. L'acronyme MIMO -- pour Multiple-Input Multiple-Output -- indique l'utilisation de plusieurs émetteurs et de plusieurs récepteurs, tandis que le terme co-localisé signifie que ces éléments sont étroitement espacés. Chaque émetteur envoie une forme d'onde qui lui est propre : un radar MIMO émet donc simultanément un ensemble de signaux.Cette thèse a ainsi pour but d'établir une méthodologie permettant de générer cet ensemble de signaux, tout en respectant certaines contraintes opérationnelles. Cela nous permettra de déterminer les apports éventuels de ce radar. Nous nous sommes intéressés en particulier aux codes de phase, pour des raisons de couplage (qu'on peut traduire ici par la capacité, lors du traitement, à distinguer la position angulaire d'une cible de sa distance).La méthodologie proposée se synthétise simplement en une modélisation sous la forme d'un problème d'optimisation. Contrairement à la littérature et à des précédents résultats théoriques, nous avons décidé d'évaluer l'orthogonalité des signaux émis par le radar en différentes directions, et non l'orthogonalité des signaux élémentaires. Ce problème, plus réaliste, est malheureusement non-convexe et à grande échelle : un benchmark sur différentes méthodes d'optimisation nous a permis de constater l'efficacité des algorithmes basées sur le gradient.Optimiser cette orthogonalité sous-entend l'utilisation de filtres adaptés. Cependant, en pratique, le traitement radar s'effectue à l'aide de filtres désadaptés. Nous suggérons ainsi un problème d'optimisation jointe, permettant de générer de manière simultanée un ensemble de formes d'onde (pour le radar MIMO, entre autres) et les filtres désadaptés associés. Des simulations ont permis de montrer l'efficacité de la méthode. Celle-ci est en particulier préférable aux algorithmes cycliques habituellement utilisés. / This thesis deals with coherent MIMO radars. MIMO stands for Multiple-Input Multiple-Output, meaning that several transmitters and several receivers are used, closely-spaced in a coherent MIMO radar. Each transmitter has its own signal, providing waveform diversity. This thesis aims for defining a way to generate a set of sequences, specific for this radar, while satisfying practical constraints. It may help to determine the potential contribution of a MIMO radar. Only phase codes are concerned here, because they suffer less from the range/angle coupling effect.A simple framework is introduced, based on an optimisation problem.While literature often involves the orthogonality of the elementary signals (because of theoretical aspects), it is suggested to consider the orthogonality of signals from different directions of the surveillance space. Unfortunately, the obtained optimisation problem is non-convex and has a lot of variables. A benchmark on a simpler problem notifies us that gradient-based algorithms are surprisingly efficient.An optimisation of the correlation function corresponds to a processing with matched filters. However, in practice, mismatched filters are usually employed. A joint optimisation problem is suggested accordingly, in order to generate simultaneously a set of sequences (e.g. MIMO radar signals) and their associated mismatched filters. Obtained results are quite promising : as expected, a joint optimisation seems to perform better than a cyclic one, usually employed.
|
88 |
Optimization of core components of block ciphers / Optimisation des principaux composants des chiffrements par blocLambin, Baptiste 22 October 2019 (has links)
La sécurité des chiffrements par bloc évolue constamment au fur et à mesure que de nouvelles techniques de cryptanalyse sont découvertes. Lors de la conception de nouveaux chiffrements par bloc, il est donc nécessaire de considérer ces nouvelles techniques dans l'analyse de sécurité. Dans cette thèse, nous montrons comment construire certaines opérations internes des chiffrements par bloc pour améliorer la résistance à certaines attaques. Nous commençons par donner une méthode pour trouver les permutations paires-impaires optimales selon un certain critère pour les Réseaux de Feistel Généralisés. Grâce à une nouvelle caractérisation et à un algorithme efficace, nous sommes notamment capables de résoudre un problème ouvert depuis 10 ans. Nous donnons ensuite de nouvelles techniques de cryptanalyse pour améliorer la division property, qui nous permet également de donner un nouveau critère optimal pour la conception de boîtes-S. Nous continuons avec de nouvelles observations pour un cadencement de clé alternatif pour AES. Ceci nous permet de donner un nouveau cadencement de clé, à la fois plus efficace et augmentant la sécurité face à certaines attaques par rapport à l’original. Pour finir, nous présentons un algorithme général très effiace permettant d’attaquer la majorité des propositions pour la cryptographie en boîte blanche, ainsi qu’une attaque dédiée sur un schéma non attaqué jusque là, donnant lieu à une attaque qui n’a besoin que de quelques secondes pour retrouver la clé. / Along with new cryptanalysis techniques, the security of block ciphers is always evolving. When designing new block ciphers, we thus need to consider these new techniques during the security analysis. In this thesis, we show how to build some core operations for block ciphers to improve the security against some attacks. We first start by describing a method to find optimal (according to some criterion) even-odd permutations for a Generalized Feistel Network. Using a new characterization and an efficient algorithm, we are able to solve a 10-years old problem. We then give new cryptanalysis techniques to improve the division property, along with a new proven optimal criterion for designing S-boxes. We continue with new observations for the design of an alternative key-schedule for AES. We thus give a new key-schedule, which is both more efficient and more secure against some attacks compared to the original one. Finally, we describe a very efficient generic algorithm to break most proposals in white-box cryptography, as well as a dedicated attack on a previously not analyzed scheme, leading to a key-recovery attack in a few seconds.
|
89 |
Production et caractérisation de biocatalyseurs insolubles et laccase par l'action du chitosane comme agent de réticulationArsenault, Alexandre January 2011 (has links)
La laccase est une enzyme ayant une faible spécificité qui peut dégrader de nombreux contaminants présents dans l'environnement. Son utilisation dans des procédés de bioremédiation est donc appelée à augmenter dans les années à venir. Il est donc important d'améliorer le potentiel d'utilisation de cette enzyme en la rendant réutilisable et plus stable qu'à l'état naturel. Plusieurs techniques d'immobilisation/insolubilisation sont déjà disponibles mais la plupart utilisent un agent toxique pour plusieurs espèces. Cette étude cherche donc à remplacer ce produit toxique par un agent biodégradable, le chitosane, ayant peu d'effets sur l'environnement dans la formation d'agrégats d'enzymes réticulés [ cross-linked enzyme aggregates (CLEAs)]. Les conditions de formation de ces biocatalyseurs ont été optimisées dans le but d'obtenir un produit actif et stable. Ces CLEAs ont également été caractérisées en termes de capacité catalytiques [i.e. catalytique], de stabilité thermique et face aux dénaturants chimiques ainsi qu'en terme de dimensions.
|
90 |
Conception et déploiement d'un algorithme pour l'optimisation des réseaux optiquesKammoun, Mohamed Firas January 2010 (has links)
De nos jours, Internet devient de plus en plus répandue [i.e. répandu] ; la fibre optique est encore le support idéal pour cette technologie. Cependant, le développement des réseaux en fibre optique est très coûteux. Le but de ce projet est de mettre en place un algorithme d'optimisation des réseaux optiques qui vise la minimisation des coûts relatifs au déploiement et à l'exploitation de ces réseaux. L'algorithme est développé sous forme d'une librairie appelée OptimisationLib ; composée de quatre modules : de vérification, de correction, de calcul de coût et d'optimisation. Ces derniers collaborent ensemble pour donner une solution opérationnelle, avec un coût minimal à un réseau optique donné. La librairie ainsi développée est prête pour être intégrée dans le grand projet du groupe de recherche sur les réseaux de télécommunications appelé ONDE (optical Network Development Environment).
|
Page generated in 0.1041 seconds