• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 62
  • 62
  • 28
  • Tagged with
  • 154
  • 154
  • 142
  • 142
  • 142
  • 142
  • 142
  • 140
  • 139
  • 20
  • 19
  • 17
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Profiterole : un protocole de partage équitable de la bande passante dans les réseaux ad hoc

Vannier, Rémi 08 December 2009 (has links) (PDF)
On considère souvent IEEE 802.11 comme la technologie sous-jacente aux réseaux sans fil multisauts. Pourtant, dans de tels réseaux, 802.11 s'avère inefficace et/ou inéquitable dans de nombreuses situations. Cette thèse décrit un algorithme d'allocation dynamique et distribuée de débit permettant de garantir un partage équitable de la bande passante entre flux, tout en assurant une utilisation efficace du réseau. De plus, cette thèse propose une nouvelle méthode d'évaluation de l'efficacité d'un protocole en prenant en compte l'expérience utilisateur.
132

Maîtrise de la dimension temporelle de la qualité de service dans les réseaux

MARTIN, Steven 06 July 2004 (has links) (PDF)
Les nouvelles applications sur Internet nécessitent des garanties de qualité de service (QoS) de la part du réseau. Nous nous intéressons à deux paramètres de QoS : le temps de réponse et la gigue de bout-en-bout. Nous proposons un ordonnancement, noté FP/DP, à base de priorités fixes (FP), départageant les paquets ex aequo selon leurs priorités dynamiques (DP). La priorité fixe d'un flux reflète son degré d'importance et sa priorité dynamique est un paramètre temporel. FP/FIFO et FP/EDF sont deux exemples d'ordonnancement FP/DP. Nous déterminons des bornes déterministes sur les paramètres de QoS considérés, en utilisant l'approche par trajectoire. En monoprocesseur, nous améliorons les résultats existants et prouvons que FP/EDF domine FP/FIFO sous certaines conditions. En distribué, nous apportons de nouveaux résultats et montrons que l'approche par trajectoire est beaucoup moins pessimiste que l'approche holistique. Nos résultats sont appliqués dans une architecture DiffServ/MPLS.
133

Les communications multi-* : contribution au développement d'architectures radio flexibles pour les réseaux sans fil hétérogènes

Villemaud, Guillaume 09 December 2013 (has links) (PDF)
Ce document présente une synthèse de mes activités de recherche au cours des 10 dernières années. Recruté en septembre 2003 au laboratoire CITI, je suis venu renforcer les activités dans le domaine des communications radios, particulièrement de ce qui d'un point de vue réseau est dénommée la couche physique. Ces activités étaient jusqu'alors portées par un unique permanent (J.M. Gorce) et une doctorante. Pour être cohérent et complémentaire, j'ai dû opérer une évolution thématique pour m'intéresser aux aspects de traitement du signal et de modélisation niveau système, plus en amont de mes activités antérieures plus proches de l'électromagnétisme (même si les aspects antennes sont encore au cœur des problématiques). Mon rôle a ensuite évolué par la mise en place d'une plateforme de mesure permettant une meilleure prise en compte et validation globale des chaînes de transmissions. Cette évolution vers une vision plus globale des systèmes de transmissions m'a permis désormais de développer mon propre axe de recherche sur les aspects systèmes RF flexibles au sein du laboratoire, tout en poursuivant de multiples collaborations transverses avec mes collègues sur des aspects de radio logicielle ou encore de modélisation du canal radio.
134

Distribution et Stockage de Contenus dans les Réseaux

Modrzejewski, Remigiusz 24 October 2013 (has links) (PDF)
Dans cette thèse, nous étudions divers problèmes dont l'objectif est de gérer la croissance d'internet plus efficacement. En effet celle-ci est très vive : 41% pour le pic en 2012. Afin de répondre aux défis posés par cette évolution aux divers acteurs du réseau, des protocoles de gestion et de communication plus intelligents sont nécessaires. Les protocoles de l'Internet furent conçus comme des protocoles point à point. Or, la part de la diffusion de média dans le trafic est prépondérante et en nette hausse, et des projections indiquent qu'en 2016 80-90% du trafic sera engendré par de la diffusion vidéo. Cette divergence entraîne des inefficacités, car des multiples copies d'un message transitent par un lien. Dans cette thèse, nous étudions comment remediér á cette inefficacité. Nos contributions sont organisées selon les couches et les phases de déploiement du réseau. Nous étudions le placement de caches lors de la conception du réseau. Ensuite, pour la gestion d'un réseau, nous regardons quand placer des appareils en veille, en utilisant un mécanisme de cache et en coopération avec des réseaux de distribution. Puis, au niveau de la couche application, nous étudions un problème de maintenance d'arbres équilibrés pour la diffusion de média. Enfin, nous analysons la probabilité de survie des données dans un système de sauvegarde distribuée. Notre travail se fonde à la fois sur des méthodes théoriques (Chaînes de Markov, Programmation Linéaire), mais aussi sur des outils empiriques tels que la simulation et l'expérimentation.
135

Sur des modèles pour l'évaluation de performance des caches dans un réseau cœur et de la consommation d'énergie dans un réseau d'accès sans-fil

Choungmo Fofack, Nicaise Éric 21 February 2014 (has links) (PDF)
Internet est un véritable écosystème. Il se développe, évolue et s'adapte aux besoins des utilisateurs en termes de communication, de connectivité et d'ubiquité. Dans la dernière décennie, les modèles de communication ont changé passant des interactions machine-à-machine à un modèle machine-à-contenu. Cependant, différentes technologies sans-fil et de réseaux (tels que les smartphones et les réseaux 3/4G, streaming en ligne des médias, les réseaux sociaux, réseaux-orientés contenus) sont apparues pour améliorer la distribution de l'information. Ce développement a mis en lumière les problèmes liés au passage à l'échelle et à l'efficacité énergétique; d'où la question: Comment concevoir ou optimiser de tels systèmes distribués qui garantissent un accès haut débit aux contenus tout en (i) réduisant la congestion et la consommation d'énergie dans le réseau et (ii) s'adaptant à la demande des utilisateurs dans un contexte connectivité quasi-permanente? Dans cette thèse, nous nous intéressons à deux solutions proposées pour répondre à cette question: le déploiement des réseaux de caches et l'implantation des protocoles économes en énergie. Précisément, nous proposons des modèles analytiques pour la conception de ces réseaux de stockage et la modélisation de la consommation d'énergie dans les réseaux d'accès sans fil. Nos études montrent que la prédiction de la performance des réseaux de caches réels peut être faite avec des erreurs relatives absolues de l'ordre de 1% à 5% et qu'une proportion importante soit 70% à 90% du coût de l'énergie dans les cellules peut être économisée au niveau des stations de base et des mobiles sous des conditions réelles de trafic.
136

Équilibrage de charge et répartition de ressources dans les grands systèmes distribués

Leconte, Mathieu 18 December 2013 (has links) (PDF)
Cette thèse porte principalement sur l'équilibrage de charge dans de grands graphes aléatoires. En informatique, un problème d'équilibrage de charge survient lorsque différentes tâches ont besoin d'accéder à un même ensemble de points de ressources. Il faut alors décider quelles ressources spécifiques seront allouées à quelles tâches. Suivant le contexte, les notions de "tâche" et de "ressource" peuvent avoir différentes interprétations. Afin de prendre des exemples concrets, on se concentrera sur deux applications en particulier: - un système de hachage à choix multiples (plus précisément, le "cuckoo hashing"). L'objectif est ici d'allouer des cellules d'un tableau à des objets, afin de pouvoir ensuite vérifier facilement la présence d'un objet et récupérer les données associées. Les tâches sont liées aux objets à stocker, et les ressources sont les cellules du tableau. - un réseau de distribution de contenu distribué, au sens où les contenus peuvent être stockés sur une multitude de petits serveurs aux capacités individuelles très limitées. Ici, les tâches sont des demandes de téléchargement (ou requêtes) pour un contenu et les ressources sont liées aux serveurs et à la façon dont leurs espaces de stockage sont utilisés. Le problème d'équilibrage de charge consiste à décider quel serveur va servir quelle requête. Les contraintes locales portant sur chaque ressource (en quelle quantité est-elle disponible et pour quelles tâches est-elle convenable?) ainsi que la charge de travail associée avec chaque tâche peuvent être représentées efficacement sur un graphe biparti, avec des contraintes de capacité sur ses sommets et ses arêtes. De plus, en pratique, les systèmes considérés sont souvent de très grande taille (avec parfois des milliers de tâches et de points de ressources différents) et relativement aléatoires (que ce soit par choix ou une conséquence de leur grande taille). Une modélisation à l'aide de grands graphes aléatoires est donc souvent pertinente. L'ensemble des solutions envisageables pour un problème d'équilibrage de charge donné étant vaste, il est primordial de commencer par déterminer des bornes sur les performances que l'on peut espérer. Ainsi, on considérera dans un premier temps une solution optimale du problème (même si elle ne serait pas réalisable avec des contraintes pratiques). Les performances d'une telle solution peuvent être obtenues en étudiant les appariements de taille maximum dans un grand graphe aléatoire, ce que l'on réalisera à l'aide de la méthode de la cavité. Cette méthode vient de l'étude des systèmes désordonnés en physique statistique, et on s'attachera ici à l'appliquer de manière rigoureuse dans le cadre que l'on considère. Dans le contexte du cuckoo hashing, les résultats obtenus permettent de calculer le seuil sur la charge du système (le nombre d'objets à insérer par rapport à la taille du tableau) en-dessous duquel on peut construire une table de hachage correcte avec grande probabilité dans un grand système, et également de traiter de manière similaire de variantes de la méthode de hachage basique qui tentent de diminuer la quantité d'aléa nécessaire au système. Au-delà du problème d'équilibrage de charge, dans le cadre des réseaux de distributions de contenu distribués, un second problème se pose: comment décider quel contenu stocker et en quelle quantité, autrement dit comment répliquer les contenus? On appelle ce second problème un problème d'allocation de ressources. A nouveau, l'étude déjà réalisée permet de quantifier l'efficacité d'une politique de réplication fixée en supposant que la politique d'équilibrage de charge fonctionne de manière optimale. Il reste cependant à optimiser la politique de réplication de contenus utilisée, ce que l'on effectue dans un régime où l'espace de stockage disponible au niveau de chaque serveur est important par rapport à la taille d'un contenu. Finalement, afin de quantifier maintenant les performances minimales atteignables en pratique, on s'intéressera aux mêmes questions lorsque la politique d'équilibrage de charge utilisée est un simple algorithme glouton. Cette étude est réalisée à l'aide d'approximations de champs moyen. On utilisera également les résultats obtenus afin de concevoir des politiques de réplication de contenus adaptatives.
137

Techniques adaptatives pour la gestion de l'énergie dans les réseaux capteurs sans fil

Alam, Muhammad Mahtab 26 February 2013 (has links) (PDF)
De plus en plus d'objets électroniques nomades incorporent à la fois des capacités de traitement, de contrôle et un ou plusieurs émetteur-récepteur radios. Les objets, lorsqu'ils communiquent entre eux, forment des réseaux de capteurs sans l (WSN). Leur point commun est qu'ils doivent fonctionner aussi longtemps que possible sans avoir à remplacer ou recharger les batteries. Par conséquent, la consommation d'énergie est la principale contrainte à prendre en considération dans l'élaboration de ces articles. Les recherches sur l'optimisation de l'énergie sont nombreuses, et sont appliquées à tous les niveaux de la conception. Dans cette thèse, nous proposons des techniques d'optimisation au niveau algorithmique visant une réduction de l'énergie consommée. Dans ce contexte, tout d'abord, nous avons proposé un modèle énergétique hybride pragmatique et précis pour les WSN. Ce modèle prend en compte les différents scénarios qui se produisent pendant la communication et évalue leur consommation d'énergie en distinguant composantes logicielles et matérielles. Le modèle présenté est une combinaison d'approche analytique et de mesures en temps réel. La validation du modèle montre que l'erreur relative est de 1 à 8 pour cent. Dans la deuxième partie de la thèse nous nous sommes concentrés sur le contrôle d'accès au medium (MAC). La couche MAC joue un rôle essentiel dans la gestion de l'énergie dans les réseaux de capteurs, car l'activité de l'émetteur-récepteur radio (composante la plus gourmande en énergie) est contrôlée par la couche MAC. Par ailleurs, l'état d'écoute " idle " se trouve être l'état dans lequel s'opère un gaspillage énorme d'énergie dans la plupart des protocoles MAC. À ce sujet, nous proposons un nouveau protocole MAC dynamique (TAD-MAC) efficace en énergie avec une connaissance à priori du trafic courant. Le protocole repose sur l'adaptation dynamique des intervalles de réveil basée sur une estimation du trafic. Une approche heuristique est utilisée pour modéliser le système en caractérisant chacun des paramètres de l'algorithme adaptatif. Une analyse détaillée de la convergence et des métriques de performance pour atteindre un état d'équilibre est présentée et évaluée. En outre, TAD-MAC est appliqué dans le contexte des réseaux corporels de capteurs sans fil pour des taux de trafics fixes et variables. TAD-MAC surpasse les autres protocoles MAC à faible consommation énergétique en termes de latence ainsi que de consommation d'énergie et donc permet d'augmenter la durée de vie de trois à six fois. Dans la dernière partie de la thèse une technique adaptative d'optimisation de la puissance d'émission est appliquée avec une variation dynamique des canaux de transmission afi n de réduire l'énergie par bit transmis avec succès au niveau de la couche physique. La puissance d'émission est réglée de manière adaptative sur un critère de type " link-to-link" . Chaque nœud adapte localement sa puissance en fonction des variations du rapport signal-sur-bruit (SNR) (pour tous les nœuds voisins). Différents profils d'émetteurs-récepteurs radio sont utilisés pour montrer le gain par rapport à l'utilisation d'une puissance d'émission fixe. Il se trouve que par l'adaptation dynamique de la puissance d'émission, la consommation d'énergie peut être réduite d'un facteur 2.
138

Modélisation et simulation des réseaux sans fil hétérogènes et non-stationnaires. Application aux topologies de petites cellules

Maviel, Laurent 27 May 2013 (has links) (PDF)
Les nouveaux services de télécommunication accessibles en mobilité entraînent une demande croissante de débit et amènent aux limites de capacités des réseaux actuels. Pour répondre à cette demande, les opérateurs cellulaires déploient de nouvelles technologies et densifient leurs réseaux en ajoutant des petites cellules, où les stations de base sont plus proches des utilisateurs. Compte tenu de la visibilité directe et de la faible hauteur des antennes, le canal de propagation des petites cellules est différent de celui des macro-cellules et les modèles stochastiques de canal existants ne sont plus adaptés. C'est dans ce contexte que se situe cette thèse, qui explore les problématiques de dynamique dans le canal de propagation et dans l'utilisation des ressources radio. Nous proposons dans une première partie de caractériser les dynamiques dans le canal de propagation de petite cellule en milieu extérieur. Cette caractérisation se base sur des prédictions déterministes, où une partie de l'environnement est généré de manière aléatoire afin de procéder à des études statistiques. Pour cela, nous mettons en place une plateforme de simulation, capable de générer des objets statiques, de les déplacer et de les prendre en compte dans des outils de prédiction de propagation adaptés aux petites cellules. Une phase de mesures de l'impact du trafic de véhicules sur la puissance du signal permet de valider les outils de propagation développés dans la plateforme. L'objectif de la deuxième partie de la thèse est d'évaluer l'impact de ces nouvelles topologies sur les performances des réseaux hétérogènes. Nous présentons un modèle hybride de propagation qui prend en compte les variations de signal dues au trafic de véhicules en combinant les approches déterministes et statistiques, pour avoir les avantages de résultats précis et d'un temps de calcul rapide. Ce modèle hybride est utilisé par la suite dans un processus de simulation de réseau cellulaire 3G LTE au niveau système, où nous évaluons l'impact du trafic de véhicules sur le débit maximal, la consommation d'énergie et le respect de la qualité de service.
139

Analyse exploratoire de flots de liens pour la détection d'événements

Heymann, Sébastien 03 December 2013 (has links) (PDF)
Un flot de liens représente une trace de l'activité d'un système complexe au cours du temps, où un lien apparaît lorsque deux entités du système entrent en interaction ; l'ensemble des entités et des liens forme un graphe. Ces traces constituent depuis quelques années des jeux de données stratégiques dans l'analyse de l'activité de systèmes complexes à grande échelle, impliquant des millions d'entités : réseaux de téléphone mobiles, réseaux sociaux, ou encore Internet. Cette thèse porte sur l'analyse exploratoire des flots de liens, en particulier sur la caractérisation de leur dynamique et l'identification d'anomalies au cours du temps (événements). Nous proposons un cadre exploratoire sans hypothèse sur les données, faisant appel à l'analyse statistique et à la visualisation. Les événements détectés sont statistiquement significatifs et nous proposons une méthode pour valider leur pertinence. Nous illustrons enfin notre méthodologie sur l'évolution du réseau social en ligne Github, où des centaines de milliers de développeurs collaborent sur des projets de logiciel.
140

Codes AL-FEC et protocoles de diffusion robuste de contenus : composants pour des services performants et passant à l'échelle

Roca, Vincent 01 April 2014 (has links) (PDF)
Ce document discute de la fourniture de services de diffusion où des contenus de toute nature doivent être transmis efficacement à un ensemble de récepteurs. Plusieurs problèmes se posent : - la robustesse face aux problèmes de transmission, qu'il s'agisse d'erreurs (inversion de bits) ou de pertes (de paquets); - l'efficacité du service fourni, en termes de performances de correction d'erreurs et/ou effacements, et de faible complexité algorithmique; - le respect d'éventuelles contraintes temps réelles de certains contenus; - et enfin le passage à l'échelle lorsque le nombre de récepteur augmente significativement. La problématique est assez large et nous nous "limitons" à deux aspects et composants essentiels que sont : - les codes correcteurs de niveau applicatif, ou AL-FEC, pour le canal à effacements, sans lesquels l'efficacité du service serait fortement compromise, et - les protocoles de transport qui définissent les règles d'échanges d'informations entre soure(s) et récep- teur(s) et garantissent le niveau de fiabilité nécessaire. Tout au long de ce document, nous détaillons ces deux axes et positionnons nos contributions et leur usage effectif dans le panorama actuel.

Page generated in 0.3601 seconds