• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 62
  • 62
  • 28
  • Tagged with
  • 154
  • 154
  • 142
  • 142
  • 142
  • 142
  • 142
  • 140
  • 139
  • 20
  • 19
  • 17
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Vers le futur Internet d'Objets au travers d'une optimisation inter­couche des protocols standardisés

Pavkovic, Bogdan 18 December 2012 (has links) (PDF)
Le paradigme de l'Internet des Objets (IoT) envisage d'enrichir l'Internet actuel avec un grand nombre de dispositifs intelligents communicants. Les réseaux de capteurs sans fil (RCF) exploitent des appareils avec des ressources énergétiques limitées équipés de capteurs afin de récupérer en temps réel des mesures (comme la température, la radioactivité, ou le CO2). Les réseaux de capteurs sont particulièrement pertinents pour la surveillance, la télémétrie ou la prévention des catastrophes naturelles. Cependant, ce type de réseau pose des problèmes majeurs tels que l'utilisation efficace de ressources énergétiques limitées, la prise en charge transparente de nœuds défaillants, sans intervention humaine. L'Internet des Objets ne permettra d'intégrer des réseaux de capteurs autonomes que si les protocoles sont standards et passent à l'échelle. Les contributions de cette thèse sont les suivantes : * nous avons caractérisé expérimentalement un réseau radio multisaut en exploitant statistiquement un grand volume de mesures provenant d'une plate-forme expérimentale opérée par Orange. Notre analyse porte sur la caractérisation d'un lien et de sa qualité ainsi que de la dynamique du réseau. * nous avons proposé de modifier le standard IEEE 802.15.4 afin qu'il puisse cohabiter efficacement avec le protocole de routage actuellement standard de l'Internet des Objets, RPL. En particulier, nous proposons d'exploiter une structure de graphe dirigé acyclique afin d'exploiter une topologie maillée et pallier à la déficience éventuelle d'un nœud. Nous avons proposé également des algorithmes simples d'ordonnancement distribué des supertrames adaptés à cette topologie. * le choix des pères au niveau MAC dans une structure de graphe dirigé acyclique est déterminant dans la qualité des routes possibles dans la couche réseau. Nous avons ainsi proposé un algorithme de choix des pères basé sur plusieurs métriques. Nous aboutissons à une structure permettant d'équilibrer la charge, limitant les points de congestion, utilisant des liens radio de bonne qualité, limitant la congestion au niveau MAC. * nous avons enfin présenté des mécanismes permettant d'offrir une qualité de service dans une pile s'appuyant sur IEEE 802.15.4 et RPL. Notre extension de routage opportuniste et multi-chemin contribue à améliorer la livraison des paquets avant une date limite, tout en minimisant le surcout et la consommation d'énergie par rapport à la version originale de RPL.
102

Vers une évaluation quantitative de la sécurité informatique

Dacier, Marc 20 January 1994 (has links) (PDF)
Les systèmes d'information actuels doivent, à la fois, protéger les informations qui leur sont confiées et se plier à des environnements opérationnels variables. Cesdeux objectifs, sécurité et flexibilité, peuvent être antinomiques. Ce conflit conduit généralement à l'utilisation de systèmes offrant un niveau de sécurité acceptable, mais non maximal. Définir un tel niveau présuppose l'existence de méthodes d'évaluation de la sécurité. Cette problématique fait l'objet de cette thèse. L'auteur y passe en revue les différents critères d'évaluation existant ainsi que les méthodes dites d'analyse de risques. Ceci introduit la nécessité de définir un cadre formel capable de modéliser tout système et d'évaluer dans quelle mesure il satisfait à des objectifs de protection précis.<br />Les modèles formels développés pour l'étude de la sécurité informatique, n'offrent pas le cadre mathématique désiré. L'auteur montre qu'ils adoptent une hypothèse de pire cas sur le comportement des utilisateurs, incompatible avec une modélisation réaliste. Après avoir montré, sur la base du modèle take-grant, comment s'affranchir de cette hypothèse, l'auteur définit un nouveau modèle, le graphe des privilèges, plus efficace pour gérer certains problèmes de protection. Il illustre son utilisation dans le cadre des systèmes Unix.<br />Enfin, l'auteur propose d'évaluer la sécurité en calculant le temps et l'effort nécessaires à un intrus pour violer les objectifs de protection. Il montre comment définir un cadre mathématique apte à représenter le système pour obtenir de telles mesures. Pour cela, le graphe des privilèges est transformé en un réseau de Petri stochastique et son graphe des marquages est dérivé. Les mesures sont calculées sur cette dernière structure et leurs propriétés mathématiques sont démontrées. L'auteur illustre l'utilité du modèle par quelques résultats issus d'un prototype développé afin d'étudier la sécurité opérationnelle d'un système Unix.
103

WiBOX - Une passerelle pour une réception robuste de vidéo diffusée via WIMAX et une rediffusion indoor via WIFI

Ali, Usman 09 November 2010 (has links) (PDF)
Cette thèse étudie un certain nombre d'outils (rassemblés dans la WiBox) nécessaires pour une réception fiable de vidéo diffusée sur WiMAX, puis rediffusée sur Wifi. Il s'agit de fournir des services WiMAX à des utilisateurs WiFi, avec une qualité de réception vidéo raisonnable, même avec un très faible signal WiMAX. Pour cela, des techniques de décodage conjoint de paquets erronés sont indispensables afin de limiter les retards liés aux retransmissions. Dans la première partie de cette thèse, nous considérons le problème de la délinéation de paquets agrégés en macro-paquets. Cette opération d'agrégation est réalisée dans de nombreux protocoles afin d'améliorer le rapport en-tête/charge utile des systèmes de communication. Plusieurs méthodes de délinéation sont proposées. Elles exploitent d'une part les informations souples provenant des couches protocolaires basses ainsi que la redondance présente dans les paquets devant être séparés. L'ensemble des successions possibles de paquets au sein d'un macro-paquet est décrit à l'aide d'un trellis. Le problème de délinéation est transformé en un problème d'estimation de l'état d'une variable aléatoire Markovienne, pour lequel de nombreux algorithmes (BCJR, Viterbi) sont disponibles. Cette technique est très efficace mais complexe. De plus, elle nécessite la réception de l'ensemble du macro-paquet, ce qui peut induire des latences importantes. Dans une deuxième étape, nous proposons une technque où le décodage se fait sur une fenêtre glissante contenant une partie du macro-paquet. Un treillis glissant est considéré cette fois. La taille de la fenêtre permet d'ajuster un comproimis entre complexité et efficacité de décodage. Enfin, une méthode de décodage à la volée exploitant un automate à 3 état et des tests d'hypothèses Bayésiens permet de réaliser une délinéation moins efficace, mais sans latence. Ces méthodes sont comparées sur un problème de délinéation de paquets MAC dans des macro-paquets PHY dans WiMAX. Dans la deuxième partie de la thèse, nous proposons de réaliser un décodage souple des codes en blocs utilisés dans certaines couches de piles protocolaires pour le multimédia. Cdes sorties souples sont générées afin de permettre un décodage conjoint des en-têtes et de la charge utile au niveau des couches supérieures. Nous avons en particulier étudié des outils de décodage souple ldans le cas de la norme RTP FEC, et avons comparé les performances du décodeur proposé avec des approches classiques de décodage. En résumé, les techniques de décodage conjoint proposées permettent de réduire le nombre de paquets perdus, d'augmenter le nombre de paquets transmis vers les couches applicatives où des décodeurs source-canal conjoints peuvent être utilisés pour améliorer la qualité de la vidéo reçue.
104

Proposition et vérification formelle de protocoles de communications temps-réel pour les réseaux de capteurs sans fil

Mouradian, Alexandre 18 November 2013 (has links) (PDF)
Les RCsF sont des réseaux ad hoc, sans fil, large échelle déployés pour mesurer des paramètres de l'environnement et remonter les informations à un ou plusieurs emplacements (nommés puits). Les éléments qui composent le réseau sont de petits équipements électroniques qui ont de faibles capacités en termes de mémoire et de calcul ; et fonctionnent sur batterie. Ces caractéristiques font que les protocoles développés, dans la littérature scientifique de ces dernières années, visent principalement à auto-organiser le réseau et à réduire la consommation d'énergie. Avec l'apparition d'applications critiques pour les réseaux de capteurs sans fil, de nouveau besoins émergent, comme le respect de bornes temporelles et de fiabilité. En effet, les applications critiques sont des applications dont dépendent des vies humaines ou l'environnement, un mauvais fonctionnement peut donc avoir des conséquences catastrophiques. Nous nous intéressons spécifiquement aux applications de détection d'événements et à la remontée d'alarmes (détection de feu de forêt, d'intrusion, etc), ces applications ont des contraintes temporelles strictes. D'une part, dans la littérature, on trouve peu de protocoles qui permettent d'assurer des délais de bout en bout bornés. Parmi les propositions, on trouve des protocoles qui permettent effectivement de respecter des contraintes temporelles mais qui ne prennent pas en compte les spécificités des RCsF (énergie, large échelle, etc). D'autres propositions prennent en compte ces aspects, mais ne permettent pas de garantir des bornes temporelles. D'autre part, les applications critiques nécessitent un niveau de confiance très élevé, dans ce contexte les tests et simulations ne suffisent pas, il faut être capable de fournir des preuves formelles du respect des spécifications. A notre connaissance cet aspect est très peu étudié pour les RcsF. Nos contributions sont donc de deux types : * Nous proposons un protocole de remontée d'alarmes, en temps borné, X-layer (MAC/routage, nommé RTXP) basé sur un système de coordonnées virtuelles originales permettant de discriminer le 2-voisinage. L'exploitation de ces coordonnées permet d'introduire du déterminisme et de construire un gradient visant à contraindre le nombre maximum de sauts depuis toute source vers le puits. Nous proposons par ailleurs un mécanisme d'agrégation temps-réel des alarmes remontées pour lutter contre les tempêtes de détection qui entraînent congestion et collision, et donc limitent la fiabilité du système. * Nous proposons une méthodologie de vérification formelle basée sur les techniques de Model Checking. Cette méthodologie se déroule en trois points, qui visent à modéliser de manière efficace la nature diffusante des réseaux sans fil, vérifier les RCsF en prenant en compte la non-fiabilité du lien radio et permettre le passage à l'échelle de la vérification en mixant Network Calculus et Model Checking. Nous appliquons ensuite cette méthodologie pour vérifier RTXP.
105

Protection de ressources dans des centres de données d'entreprise: Architectures et Protocoles

Jarma, Yesid 24 January 2012 (has links) (PDF)
Au cours des dernières années, l'apparition de l'Internet a changé la façon dont les affaires sont menées partout dans le monde. Pour rester compétitives, les entreprises ont déployé du support informatique pour les processus métiers au fil des années. Dans ce contexte, les architectures orientées service (SOA) ont émergé comme la solution principale pour l'intégration des systèmes patrimoniaux avec les nouvelles technologies au coeur des grandes organisations. Les centres de traitement de données d'entreprise qui implémentent les concepts et solutions des SOA sont normalement déployés en suivant une architecture à deux niveaux où, pour libérer les serveurs de services des tâches computationnelles intensives (e.g., l'analyse syntaxique de documents XML) et pour effectuer de la protection de ressources, ces fonctions sont déchargées dans un cluster d'appliances qui implémentent des fonctions des réseaux orientées service (SON). Dans les centres de traitement, l'accès aux services est gouverné par des contrats de garantie de services (SLA), dont le but est de protéger les ressources du centre de traitement. Actuellement, les appliances SON sont utilisées pour protéger les ressources du centre de traitement en limitant l'accès (e.g., en contrôlant le trafic) aux services. Le provisionnement et l'optimisation de ressources sont des problèmes classiques de la gestion de la QoS. En outre, le contrôle de trafic est un problème très connu de l'ingénierie de trafic. Cependant, dans les centres de traitement orientés service le problème est fondamentalement diffèrent. Dans les réseaux classiques, les ressources protégée par la fonction de mise en conformité sont normalement la bande passante et la taille des mémoires tampon, dont les unités de mesure sont clairement définies et mesurées avec précision. Dans un centre de traitement, les métriques des ressources sont comprises pour la plupart dans un des types suivants: puissance de calcul et mémoire des serveurs d'application (CPU et RAM), capacité de stockage des serveurs de stockage (espace en disque dur), et la bande passante du réseau interne du centre de traitement. Une autre différence fondamentale est que, dans les réseaux dits "classiques", le contrôle de trafic a une étendue locale, puisque le trafic prend la conformité d'une connexion simple. Dans un centre de traitement, les clients de service accèdent aux services à partir de multiples points d'entrée (p.ex., un cluster d'appliances SON). Ainsi, l'effet désiré est une mise en conformité "globale" du trafic. Le défi est donc faire respecter les contrats de service en agissant localement dans chaque point d'entrée. Cette thèse apporte trois contributions. D'abord nous proposons DoWSS, un algorithme dynamique basé sur des crédits pour la mise en conformité de trafic multipoint-à-point. À la différence des approches existantes basées sur des crédits, notre approche utilise une stratégie doublement pondérée pour l'affectation de crédits, en utilisant des poids basés sur la taille des requêtes de service. L'évaluation de DoWSS montre que ses performances sont optimales puisqu'il limite le nombre de requêtes au maximum permis par le contrat de service. Par la suite, nous affirmons que les appliances SON actuelles présentent des limitations architecturales qui les empêchent d'être utilisées efficacement pour la mise en conformité de trafic en présence d'hôtes de service multiples. Pour palier à ce problème, nous proposons MuST, une architecture interne pour les appliances SON appropriée pour la mise en conformité de trafic multi-service. L'évaluation des performances de notre approche montre qu'elle résout le problème de la mise en conformité de trafic multipoint-à-multipoint tout en poussant le système à être utilisé à sa capacité maximale. Finalement, actuellement les applications sont souvent déployées dans des centres de données géographiquement distribués. Les approches existantes pour la mise en conformité de trafic, lesquelles ont étés conçues spécifiquement pour des centres de données aménagés sur un même site, présentent des problèmes liés aux latences réseau quand ils sont utilisés dans des environnements géographiquement distribués. Pour palier à ce problème, nous proposons GeoDS, un approche pour la mise en conformité du trafic géographiquement distribué qui considère les délais de communication entre les entités qui forment le système. L'évaluation de ses performances montre qu'il est capable de résoudre efficacement le problème de la mise en conformité du trafic dans les environnements géographiquement distribués.
106

De l'exploitation des réceptions opportunistes dans les mécanismes de relayage pour les réseaux sans-fil

LOISEAU, Lucien 06 December 2013 (has links) (PDF)
Les réseaux sans-fil tels que IEEE 802.11 (Wifi) connaissent aujourd'hui une popularité sans précédent, offrant des connexions réseau à domicile, en entreprise ou dans des lieux publics sous forme de "Hot spot". Nos études ont montré que les centres urbains sont fortement couvert par ce type de réseau (avec une couverture similaire aux réseaux 3G). Cependant, la technologie est limitée par la portée du signal qui provoque des pertes sur le canal. Nous proposons une nouvelle méthode de relayage opportuniste pour les réseaux basés sur le CSMA/CA permettant de faire coopérer des stations. En évitant l'inondation, et en réduisant au maximum la signalisation, nous proposons de légères modifications au standard IEEE 802.11 afin d'autoriser des stations intermédiaires à relayer les trames des autres stations. Les modifications apportées portent simplement sur le traitement des trames à destination d'autrui, et une gestion différente des acquittements : lorsqu'une destination ne reçoit pas un acquittement, toutes les stations ayant reçu la trame considèrent qu'une retransmission est nécessaire. Ces dernières entreront en compétition pour retransmettre la trame si leur probabilité d'effectuer une transmission réussie est plus forte que la source. Nous avons implémenté et testé notre proposition dans le simulateur réseau NS-2, et les résultats démontrent que la connectivité des stations lointaines est fortement améliorée.
107

Optimization methods for network design under variable link capacities / Méthodes d’optimisation pour le dimensionnement de réseaux ayant des liens à capacités variables

Fouquet, Yoann 10 November 2015 (has links)
Cette thèse porte sur l’optimisation des stratégies de reroutage dans les réseaux de télécommunications. Plus précisément, l’objectif est de proposer ou d’adapter des mécanismes permettant de router le trafic du réseau après une panne partielle, c’est-à-dire, après une baisse de la bande passante d’un ou plusieurs liens du réseau, tout en minimisant le coût de dimensionnement du réseau. Nos contributions principales sont la proposition de deux stratégies de protection/routage nommée Flow Thinning et Elastic Flow Rerouting. La thèse est organisée en trois parties. Dans la première partie, nous présentons la problématique de la thèse avant de passer en revue les stratégies de protection et reroutage de la littérature, leur modélisation et méthode de résolution. La deuxième partie présente en détails la première stratégie de protection appelée Flow-Thinning. Cette stratégie gère les pannes partielles en diminuant la bande passante de certain flots qui passent par le ou les arc(s) perturbés. Cela implique un surdimensionnement du routage nominal permettant d’assurer le trafic en cas de perturbations. La troisième et dernière partie concerne la deuxième stratégie de routage dénommée Elastic Flow Rerouting. Cette stratégie est un peu plus complexe que la première dans le sens où, en cas de panne, une distinction est faite entre les demandes perturbées ou non. Si une demande est perturbée, elle peu augmenter le trafic sur ces chemins. Si elle ne l’est pas, elle peut libérer de la bande passante sous la condition qu’elle ne devienne pas perturbée à son tour. Notons que ces deux stratégies sont assez difficiles du point de vue de leur complexité. Cette thèse a fait l’objet de divers travaux écrits : trois articles (acceptés ou en révision) dans des journaux (Fouquet et al. (2015b), Pióro et al. (2015), Shinko et al. (2015)), deux articles invités (Fouquet and Nace (2015), Fouquet et al. (2014c)) et huit articles dans des conférences internationales (Fouquet et al. (2015a; 2014d;a;b;e), Pióro et al. (2013b;a), Shinko et al. (2013)). Notons que Pióro et al. (2013b) a reçu le "Best Paper Award" de la conférence RNDM 2013. Pour finir, notons que cette thèse a été réalisée au laboratoire Heudiasyc de l’Université de Technologie de Compiègne (UTC). Elle a été financée par le Ministère de l’enseignement et de la recherche français3 avec le soutien du labex MS2T4 de l’UTC. / This thesis summaries the work we have done in optimization of resilient communication networks. More specifically, the main goal is to propose appropriated recovery mechanisms for managing the demand traffic in a network under partial failures, i.e. when some part of the network (one or some links and/or nodes) is operational with reduced capacity. The main criterion in deciding the efficiency of the proposed recovery scheme is the dimensioning cost of the network while keeping the management cost at reasonable levels. Our main contribution is the design of two restoration strategies named Flow Thinning and Elastic Flow Rerouting. This document is organized in three main parts. In the first part, we present the problematic of the thesis. It includes an introduction on the protection and rerouting state-of-art strategies, together with their mathematical models and resolution methods. The second part presents in depth the first protection strategy named Flow Thinning. This strategy manages partial failures by decreasing appropriately the bandwidth on some flows routed through one of perturbed links. This implies overdimensionning of the network in the nominal state to ensure demand traffic in all failure states. The third and last part deals with the second rerouting strategy called Elastic Flow Rerouting. This strategy is a bit more complex than the first one because, in a failure state, we need to distinguish demands which are disturbed and the one which are not. If a demand is disturbed, it can increase the traffic on some of its paths. If it is not disturbed, it can release bandwidth on paths at the condition it remains non-disturbed. All this allows for further reducing the dimensioning cost but at a higher cost in terms of recovery process management. Note that the dimensioning problems for each strategy are shown to be NP-hard in their general form. The work of the thesis has been published in: three journal articles (Fouquet et al. (2015b), Pióro et al. (2015), Shinko et al. (2015)), two invited articles (Fouquet and Nace (2015), Fouquet et al. (2014c)) and height articles in international conferences (Fouquet et al. (2015a; 2014d;a;b;e), Pióro et al. (2013b;a), Shinko et al. (2013)). Note that Pióro et al. (2013b) has been rewarded by a "Best Paper Award" from the RNDM conference. To conclude, note that this thesis was realized in the Heudiasyc laboratory, from the Université de Technologie de Compiègne (UTC). It was financed by the French Ministry of Higher Education and Research1 with the support of the Labex MS2T2 of the UTC.
108

Auto-diagnostic actif dans les réseaux de télécommunications

Hounkonnou, Carole 12 July 2013 (has links) (PDF)
Les réseaux de télécommunications deviennent de plus en plus complexes, notamment de par la multiplicité des technologies mises en oeuvre, leur couverture géographique grandissante, la croissance du trafic en quantité et en variété, mais aussi de par l' évolution des services fournis par les opérateurs. Tout ceci contribue à rendre la gestion de ces réseaux de plus en plus lourde, complexe, génératrice d'erreurs et donc coûteuse pour les opérateurs. On place derrière le terme réseaux autonomiques l'ensemble des solutions visant à rendre la gestion de ce réseau plus autonome. L'objectif de cette thèse est de contribuer à la réalisation de certaines fonctions autonomiques dans les réseaux de télécommunications. Nous proposons une stratégie pour automatiser la gestion des pannes tout en couvrant les différents segments du réseau et les services de bout en bout déployés au-dessus. Il s'agit d'une approche basée modèle qui adresse les deux difficultés du diagnostic basé modèle, à savoir: a) la façon d'obtenir un tel modèle, adapté à un réseau donné à un moment donné, en particulier si l'on souhaite capturer plusieurs couches et segments réseau et b) comment raisonner sur un modèle potentiellement énorme, si l'on veut gérer un réseau national par exemple. Pour répondre à la première diffculté, nous proposons un nouveau concept : l'automodélisation, qui consiste d'abord à construire les différentes familles de modèles génériques, puis à identifier à la volée les instances de ces mod èles qui sont déployées dans le réseau géré. La seconde diffculté est adressée grâce à un moteur d'auto-diagnostic actif, basé sur le formalisme des réseaux Bayesiens et qui consiste à raisonner sur un fragment du modèle du réseau qui est augmenté progressivement en utilisant la capacite d'automodélisation: des observations sont collectées et des tests réalisés jusqu'à ce que les fautes soient localisées avec précision. Cette approche de diagnostic actif a été expérimentée pour réaliser une gestion multi-couches et multi-segments des alarmes dans un reseau IMS (IP Multimedia Subsystem).
109

Garantie de la qualité de service et évaluation de performance des réseaux de télécommunications

Tomasik, Joanna 04 January 2012 (has links) (PDF)
Notre recherche porte sur des méthodes pour garantir la QoS dans les réseaux filaires classiques, optiques, ad hoc et le réseau global Internet au niveau des domaines. Afin de valider les méthodes proposées, nous créons des modèles à partir des outils de la théorie des files d'attente. Nous étudions les méthodes analytiques et les méthodes numériques afin de traiter les générateurs de chaînes de Markov. Nous utilisons également dans nos études la simulation à évènements discrets. Le travail sur le réseau inter-domaine a nécessité le développement d'un outil pour la génération de topologies aléatoires avec une hiérarchie correspondant à celle observée dans l'Internet.
110

Transmission coopérative dans les réseaux sans-fil avec feedback distribué

De Kerret, Paul 17 December 2013 (has links) (PDF)
La coopération des transmetteurs dans les système multi-antennes a été reconnue comme un outil prometteur pour éviter ou aligner les interférence résultant d'une réutilisation agressive de la bande spectrale. Il est usuellement supposé que les estimées de canal sont parfaitement partagées entre tous les transmetteurs entrant en coopération, ce qui n'est pas adaptée à de nombreuses situations où des émetteurs éloignés visent à coopérer. C'est pourquoi nous étudions le cas de réseaux sans-fil où des transmetteurs émettent d'une manière coopérative bien qu'ils ne puissent échanger que d'une manière imparfaite l'information de canal obtenue localement. Ce partage imparfait de l'information de canal donne lieu à une configuration d'information de canal, dénotée comme " distribuée ", où chaque transmetteur reçoit une estimée du canal multi-utilisateurs qui lui est propre, à partir de laquelle il détermine ses paramètres de transmission. Nous étudions tout d'abord les conséquences de la configuration à information de canal distribuée sur le précodage. En particulier, nous mettons en évidence l'inefficacité des méthodes conventionnelles de précodage lorsque confrontées à une configuration à information de canal distribuée. Nous passons ensuite à un autre aspect de ce scenario, qui est la détermination de " qui doit savoir quoi ", lorsqu'il s'agit de l'information de canal disponible aux transmetteurs engagés dans la coopération. À l'opposé de la méthode gourmande en ressource qui consiste à allouer à chaque transmetteur la même information de canal, il est montrée comment une allocation non-uniforme de l'information de canal aux transmetteurs peut donner lieu à des gain importants, en fonction de la géométrie du réseau considéré.

Page generated in 0.1055 seconds