Spelling suggestions: "subject:"hautdébit"" "subject:"surdébit""
131 |
Caractérisation et maîtrise de la prolifération microbienne dans des produits biosourcés pour des bâtiments sains et durables / Characterization and control of microbial proliferation on bio-based products for healthy and sustainable buildingsSimons, Alexis 04 April 2018 (has links)
Les impacts de la construction sur l'environnement et sur la santé des habitants sont aujourd'hui des enjeux prioritaires. Les matériaux en terre crue connaissent un essor important pour de nombreuses raisons (écologique, économique, etc.), mais des questions se posent sur leur sensibilité à la prolifération des moisissures vis-à-vis de la qualité de l'air intérieur. Au cours de ces travaux, les flores bactériennes et fongiques présentes sur des supports en terre crue, biosourcés ou non, au sein d'habitations, ainsi que dans les matières premières, ont été caractérisées selon des méthodes par culture et par métabarcoding. Les champignons détectés sont similaires à ceux présents dans les habitations conventionnelles. L'ajout de fibres végétales ne modifie pas la structure des communautés fongiques mais rend le matériau plus sensible à la prolifération. Celle-ci n'intervient qu'en condition d'accident hydrique. Des approches de lutte biologique à partir de bactéries ont été initiées pour inhiber la prolifération fongique sur ces matériaux. / Impacts of building on environment and on health of inhabitants are nowadays priority issues. The interest for earthen materials is increasing for many reasons (ecological, economical, etc.), but some questions are raised about their fungal proliferation sensitivity considering the quality of indoor air. This work consists in characterizing by cultural and metabarcoding methods the fungal and bacterial communities on the surface of earthen building materials, biobased or not, and raw materials. Detected fungi are related to those which are identified in conventional buildings. The addition of vegetal fibers don't modify the fungal communities structure, but make the material more favorable for proliferation. The fungal development appears only under water damage condition. Biocontrol methods with bacteria have been initiated in order to inhibit the fungal proliferation on these materials.
|
132 |
Identification des nouvelles phospholipases A microbiennes : purification et caractérisation biochimique d’une phospholipase A2 fongique secrétée / Identification of novel microbial phospholipases A and the purification and biochemical characterization of a secreted fungal phospholipase A2Sutto Ortiz, Priscila 05 October 2017 (has links)
Les phospholipases A catalysent sélectivement l'hydrolyse de la liaison ester des glycérophospholipides dans la position sn-1 (PLA1) et sn-2 (PLA2), libérant des acides gras et des lysophospholipides. Nous avons identifié des PLAs à partir des champignons/actinomycètes isolés des environnements du Mexique. Dans la 1ère partie, une méthode colorimétrique à haut débit pour la détection générale de l'activité PLA (cHTS-PLA) avec la PC comme substrat et le rouge crésol a été développée. L'analyse rRNA 16S des souches productrices des PLAs a démontrant qu'elles appartiennent aux genres Streptomyces et Aureobasidium. La production des PLAs a été mise en œuvre utilisant la fermentation en milieu solide avec la PC comme inducteur et la bagasse de canne à sucre comme support. Globalement, cette étude a contribué à la découverte des nouvelles PLA et au criblage des PLAs à haut débit dans les extraits microbiens / Phospholipase A are lipolytic enzymes that hydrolyze selectively the ester bond of glycerophospholipid substrates at the sn-1 (PLA1) and sn-2 (PLA2) position, respectively, releasing free fatty acids and lysophospholipids. We identified new PLAs from fungi and actinomycetes isolated from Mexican environments. Firstly, we implemented an agar-plate method containing rhodamine 6G and phosphatidylcholine (PC) for the primary screening. Then, a colorimetric high-throughput screening assay for general PLA activity detection (cHTS-PLA) using PC substrate and cresol red was developed. According to 16S rRNA analysis, PLA producing strains were mostly belonging to Streptomyces and Aureobasidium genus. Production of PLAs was implemented by solid-state fermentation with PC as inductor and sugar-cane bagasse as support. Overall, this study has contributed to the discovery of new microbial PLAs and to pave the way toward the HTS of PLA activity in microbial extracts
|
133 |
Caractérisation écophysiologique de différents génotypes de medicago truncatula au cours des phases de germination et de croissance hétérotropheBrunel, Sophie 10 December 2008 (has links) (PDF)
Les phases de germination et croissance hétérotrophe sont des étapes cruciales pour l'implantation d'une culture et dépendent fortement des conditions environnementales. Le cadre d'analyse fourni par le modèle de prévision des levées SIMPLE (SIMulation of PLant Emergence) a été utilisé pour la caractérisation de Medicago truncatula (M.tr.) au cours de ces étapes précoces de son cycle, en réponse à des facteurs physiques du lit de semences ayant des effets majeurs sur les levées : température, potentiel hydrique, obstacles mécaniques. M.tr est une espèce modèle. Elle a été retenue en raison de son importante diversité naturelle et de l'existence d'une core collection, permettant d'avoir accès à une certaine diversité génétique en caractérisant un nombre limité de génotypes. Par ailleurs, la disponibilité d'outils de génétique et de génomique offre la perspective d'analyser le déterminisme génétique des réponses aux facteurs environnementaux étudiés. La caractérisation menée nous a permis en premier lieu d'établir les valeurs des paramètres écophysiologiques de M.tr.. La germination de M.tr. est rapide mais elle ne s'observe que dans des gammes de températures et de potentiels relativement étroites. De même, l'allongement est rapide, mais se réalise dans une gamme de températures restreinte. La force exercée par la plantule face aux obstacles mécaniques est relativement faible, ce qui la rapproche de celles d'espèces de même masse de semences. Nous avons mis en évidence des comportements contrastés entre génotypes. Cette variabilité génotypique porte sur la vitesse de germination aux températures extrêmes, basses et supra-optimales. Les basses températures exacerbent aussi les différences d'allongement maximum atteint en conditions de croissance hétérotrophe. La réponse au déficit hydrique est variable selon les génotypes étudiés. Enfin, des différences de force d'émergence ont aussi été observées entre génotypes. Dans une seconde étape, nous avons évalué par expérimentations numériques réalisées avec SIMPLE, l'ampleur des effets de la variabilité génétique mise en évidence. Les résultats des simulations soulignent l'importance des effets des obstacles mécaniques et d'une manière générale de tous les paramètres permettant d'accélérer la vitesse d'arrivée à la surface. Ils ont ainsi permis d'établir des priorités d'étude du déterminisme génétique des paramètres dont les variations sont à l'origine de différences à la levée. L'ensemble de ces résultats oriente le choix de populations de lignées recombinantes (LR) issues des parents aux comportements contrastés sur des variables ou paramètres jugés pertinents, pour aborder l'analyse du déterminisme génétique de caractères présentant une importante variabilité intra-spécifique. Aussi, dans une troisième étape, nous avons abordé l'analyse du déterminisme génétique de caractères décrivant la germination, en réponse à des températures supra-optimales. Le phénotypage haut débit d'une population de LR a permis d'identifier des QTL impliqués dans la variation des vitesses de germination et de début de croissance. L'analyse des co-localisations de QTL apporte des informations sur les stratégies d'amélioration à envisager pour la sélection d'un ou plusieurs de ces caractères. Les connaissances issues de ces travaux contribuent à la définition de caractères susceptibles d'être améliorés pour favoriser l'implantation des cultures dans différentes conditions de semis, et à l'identification des zones chromosomiques impliquées. Elles ouvrent aussi des pistes d'études physiologiques expliquant des différences de comportements observés pour les différents génotypes (rôle de la composition en sucres de la graine sur la tolérance au stress hydrique ; modifications de l'allongement cellulaire à basses températures) et oriente ainsi la recherche de gènes candidats dans les zones chromosomiques impliquées.
|
134 |
Etude théorique et expérimentale de l'impact de la régénération 2R dans un système de transmission optique haut débitGay, Mathilde 10 February 2006 (has links) (PDF)
Ce mémoire est consacré à l'étude de l'impact de la régénération 2R dans un système de transmission optique. La régénération optique 2R devrait permettre d'améliorer les performances et limiter le coût des liaisons longue distance et métropolitaines. Des dispositifs simples et peu coûteux pourraient en effet remplacer certains transpondeurs des liaisons optiques. Seules les techniques compatibles avec le réseau multiplexé en longueur d'onde (WDM) seront susceptibles de voir le jour. Ces travaux se sont par conséquent plus particulièrement tournés vers un dispositif 2R à base d'un absorbant saturable en microcavité verticale, dispositif qui présente les qualités requises pour l'application visée. Ces travaux ont donné lieu à des considérations tant d'un point de vue compréhension des phénomènes que d'un point de vue performances. Ils ont été réalisés dans le cadre du projet RNRT (Réseau National de Recherche en Télécommunications) ASTERIX (Absorbant Saturable pour la régénération TERabits multIpleXée en longueurs d'onde).<br />Après une présentation des généralités sur les systèmes de transmission optique et des principales dégradations subies par le signal, nous abordons la régénération optique. Nous mettons ensuite en évidence la difficulté de démontrer l'efficacité d'un régénérateur. Nous montrons notamment que pour démontrer son efficacité, un régénérateur optique doit être caractérisé dans une liaison.<br />L'étude numérique et expérimentale d'une liaison comportant une cascade de régénérateurs optiques 3R, nous permet ensuite, dans le cas où l'accumulation de bruit d'amplitude limite la transmission, de connaître l'évolution des densités de probabilité depuissance des symboles et donc du taux d'erreur binaire (TEB).<br />Le cas d'une régénération 2R est ensuite abordé. Un dispositif original constitué d'un absorbant saturable suivi d'un amplificateur optique à semiconducteur (SOA) est caractérisé avant d'être cascadé dans une ligne de transmission à 10 Gbit/s. L'efficacitédu dispositif est démontrée puisqu'un facteur d'amélioration de la distance de propagation supérieur à 9,5 est obtenu pour un TEB de 10-8 permettant une propagation sur 20 000 km. L'accordabilité du dispositif est également démontrée sur une bande spectrale de 13 nm, ce qui est prometteur pour une transmission WDM.<br />Ce dispositif 2R nous permet finalement d'aborder de manière plus générale, l'effet d'une cascade de régénérateurs 2R dans une liaison. Une étude numérique clarifie le phénomène d'accumulation de gigue temporelle en présence de régénérateurs 2R. Une boucle à recirculation à pas de régénération variable permet d'étudier expérimentalemen l'impact du pas entre régénérateurs. Il existe un pas de régénération optimal correspondant au meilleur compromis entre accumulation de gigue temporelle et de bruit d'amplitude. L'étude met également en évidence l'intérêt d'espacer largement les régénérateurs (distance doublée pour 6 régénérateurs cascadés à un TEB de 10-8 dans le cas considéré). Enfin la limitation de la transmission par la gigue temporelle est mise en évidence expérimentalement.
|
135 |
Simulation hybride des réseaux IP-DiffServ-MPLS multi-services sur environnement d'exécution distribuéeGAUCHARD, David 25 April 2003 (has links) (PDF)
La technologique utilisée dans les réseaux de télécommunication à commutation de paquets est en développement permanent. La tendance actuelle est orientée vers la mutualisation des services voix et données, de leurs infrastructures et des techniques associées (réseaux IP/MPLS, QoS dans Internet). Les méthodes classiques utilisées pour l'évaluation de performances des ces réseaux sont la modélisation analytique et la simulation événementielle. La simulation événementielle requiert des temps de calcul prohibitifs, tandis que les modèles issus des méthodes analytiques manquent parfois de précision. Le travail présenté dans cette thèse définit un cadre de modélisation appelé Simulation Hybride Distribuée qui combine de manière rigoureuse la théorie différentielle du trafic et la simulation événementielle. Dans une première technique, les ressources du réseau sont partitionnées en domaines dont certains sont simulés par événements, et les autres sont modélisés par des équations intégrées numériquement. La seconde technique proposée permet la circulation de trafics simulés par événements sur les ressources du réseau modélisées par des équations. La simulation hybride permet ainsi de prolonger la modélisation analytique au-delà de ses limites théoriques. Elle permet également de concevoir des modèles d'évaluation de performances très généraux et de développer des logiciels plus performants en temps de calculs. Un prototype de simulateur hybride a été conçu. Il permet de modéliser précisément des routeurs Internet Diffserv et MPLS, le protocole TCP ainsi que diverses sources de trafic multimédia (Audio, Vidéo). Pour réduire les temps de calcul, le simulateur peut être parallélisé. En ce sens, un nouveau noyau de communication de l'environnement de parallélisme LANDA a été conçu. Il offre une bibliothèque à la norme MPI et permet d'utiliser simultanément et efficacement (latence, bande passante) plusieurs media de communication haut-débit ainsi que la mémoire commune S MP.
|
136 |
Architectures distribuées temps réel fondées sur ATMGuillaud, Jean-Francois 19 October 1995 (has links) (PDF)
L'évolution des réseaux de communication rend aujourd'hui possible l'apparition de nouvelles applications distribuées. Néanmoins, l'émergence du multimédia renforce les besoins de bande passante élevée et de garantie des délais, qui devront être pris en considération tant au niveau du réseau que des machines. Cette thèse propose l'architecture d'un système de communication complet, basé sur ATM, permettant de satisfaire les besoins des applications distribuées temps réel. En particulier, il est nécessaire d'intégrer de manière efficace les flux audio et vidéo, qui devront cohabiter avec d'autres trafics comme les alarmes ou les données traditionnelles. L'état de l'art sur l'architecture des machines pour les hauts débits permet de mieux cerner les problèmes posés par l'emploi des nouvelles technologies de communication, et montre que les nombreuses études dans ce domaine ne fournissent que des réponses partielles au problème posé. L'architecture du système de communication proposée permet de supporter plusieurs équipements audio/vidéo sur une même station, de construire des topologies de réseau variées, et d'assurer la redondance de chemins. L'introduction d'un micro-contrôleur sur la carte d'interface au réseau offre des services temps réel de haut niveau grâce au concept de télé-DMA, et fait ainsi profiter les applications des avantages d'ATM. D'autre part, une organisation protocolaire particulière permet de faire cohabiter efficacement les services temps réel et les services télé-informatique classiques. Pour les communications entre les équipements, un mécanisme de contrôle de flux à la source pour garantir un délai d'acheminement borné des messages temps réel est proposé. Les problèmes de récupération des applications existantes, de signalisation, d'administration et de gestion du basculement en cas de défaillance du réseau sont aussi abordés. Enfin, les performances globales du système de communication, puis celles d'un service de transfert périodique de variables temps réel implanté sur le micro-contrôleur sont évaluées.
|
137 |
Optimisation de la gestion des données pour les applications MapReduce sur des infrastructures distribuées à grande échelleMoise, Diana Maria 16 December 2011 (has links) (PDF)
Les applications data-intensive sont largement utilisées au sein de domaines diverses dans le but d'extraire et de traiter des informations, de concevoir des systèmes complexes, d'effectuer des simulations de modèles réels, etc. Ces applications posent des défis complexes tant en termes de stockage que de calcul. Dans le contexte des applications data-intensive, nous nous concentrons sur le paradigme MapReduce et ses mises en oeuvre. Introduite par Google, l'abstraction MapReduce a révolutionné la communauté intensif de données et s'est rapidement étendue à diverses domaines de recherche et de production. Une implémentation domaine publique de l'abstraction mise en avant par Google, a été fournie par Yahoo à travers du project Hadoop. Le framework Hadoop est considéré l'implémentation de référence de MapReduce et est actuellement largement utilisé à des fins diverses et sur plusieurs infrastructures. Nous proposons un système de fichiers distribué, optimisé pour des accès hautement concurrents, qui puisse servir comme couche de stockage pour des applications MapReduce. Nous avons conçu le BlobSeer File System (BSFS), basé sur BlobSeer, un service de stockage distribué, hautement efficace, facilitant le partage de données à grande échelle. Nous étudions également plusieurs aspects liés à la gestion des données intermédiaires dans des environnements MapReduce. Nous explorons les contraintes des données intermédiaires MapReduce à deux niveaux: dans le même job MapReduce et pendant l'exécution des pipelines d'applications MapReduce. Enfin, nous proposons des extensions de Hadoop, un environnement MapReduce populaire et open-source, comme par example le support de l'opération append. Ce travail inclut également l'évaluation et les résultats obtenus sur des infrastructures à grande échelle: grilles informatiques et clouds.
|
138 |
Développement et validation de la plateforme de criblage virtuel VSM-G et étude du domaine FAT de la kinase d'adhérence focale FAKBeautrait, Alexandre 15 January 2008 (has links) (PDF)
Les travaux présentés dans ce mémoire se situent dans le cadre général de la recherche de nouveaux médicaments par le biais de techniques informatiques. La première partie de ce document est centrée autour du développement de la plateforme logicielle VSM-G (Virtual Screening Manager for Grids). Le but poursuivi par ce projet est de fournir un outil convivial et simple d'utilisation afin de conduire des études de criblage virtuel à haut-débit. Le coeur de VSM-G repose sur une stratégie multi-étapes de filtres successifs permettant le traitement efficace de chimiothèques de grande taille. Deux filtres ont été utilisés pour ce travail et implémentés dans VSM-G : un programme innovant d'estimation rapide de complémentarité géométrique entre molécules-candidates et site actif (SHEF) précéde un algorithme de docking flexible plus conventionnel (GOLD). Les avantages de cette méthodologie, associée à la prise en charge de multiples conformations de la cible étudiée (le récepteur nucléaire LXRβ), sont présentés tout d'abord par une étude de preuve de concept, puis à travers une campagne de criblage virtuel à grande échelle. L'autre partie de ces travaux, exclusivement applicative, concerne l'étude du domaine FAT de la kinase d'adhérence focale FAK. FAK est une cible d'intérêt pharmaceutique particulièrement intéressante, car clairement impliquée dans divers processus de développement cancéreux. Le but de cette étude est double : il s'agit tout d'abord de mieux comprendre le mode de fonctionnement du domaine FAT de FAK à travers une étude biophysique pour en évaluer la flexibilité ; et ensuite concevoir in silico des petites molécules peptidomimétiques permettant de moduler son activité, ce qui pourrait limiter une progression tumorale.
|
139 |
Simulation numérique et approche orientée connaissance pour la découverte de nouvelles molécules thérapeutiquesGhemtio, Leo 07 May 2010 (has links) (PDF)
L'innovation thérapeutique progresse traditionnellement par la combinaison du criblage expérimental et de la modélisation moléculaire. En pratique, cette dernière approche est souvent limitée par la pénurie de données expérimentales, particulièrement les informations structurales et biologiques. Aujourd'hui, la situation a complètement changé avec le séquençage à haut débit du génome humain et les avancées réalisées dans la détermination des structures tridimensionnelles des protéines. Cette détermination permet d'avoir accès à une grande quantité de données pouvant servir à la recherche de nouveaux traitements pour un grand nombre de maladies. À cet égard, les approches informatiques permettant de développer des programmes de criblage virtuel à haut débit offrent une alternative ou un complément aux méthodes expérimentales qui font gagner du temps et de l'argent dans la découverte de nouveaux traitements. Appliqué aux grandes bases de données moléculaires, le criblage virtuel à haut débit permet de limiter le criblage expérimental en fournissant, pour chaque cible biologique visée, des molécules potentiellement intéressantes au moyen de méthodes informatiques adaptées. Cependant, la plupart de ces approches souffrent des mêmes limitations. Le coût et la durée des temps de calcul pour évaluer la fixation d'une collection de molécules à une cible, qui est considérable dans le contexte du haut débit, ainsi que la précision des résultats obtenus sont les défis les plus évidents dans le domaine. Le besoin de gérer une grande quantité de données hétérogènes est aussi particulièrement crucial. Pour surmonter les limitations actuelles du criblage virtuel à haut débit et ainsi optimiser les premières étapes du processus de découverte de nouveaux médicaments, j'ai mis en place une méthodologie innovante permettant, d'une part, de gérer une masse importante de données hétérogènes et d'en extraire des connaissances et, d'autre part, de distribuer les calculs nécessaires sur les grilles de calcul comportant plusieurs milliers de processeurs, le tout intégré à un protocole de criblage virtuel en plusieurs étapes. L'objectif est la prise en compte, sous forme de contraintes, des connaissances sur le problème posé afin d'optimiser la précision des résultats et les coûts en termes de temps et d'argent du criblage virtuel. Les approches méthodologiques développées ont été appliquées avec succès à une étude concernant le problème de résistance du VIH aux antiviraux, projet soutenu par la fondation Bill et Melinda Gates dans le cadre d'un projet de collaboration avec le CIRCB au Cameroun.
|
140 |
Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débitGuillier, Romaric 29 October 2009 (has links) (PDF)
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
|
Page generated in 0.0567 seconds