• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 117
  • 66
  • 12
  • Tagged with
  • 195
  • 195
  • 84
  • 75
  • 74
  • 73
  • 50
  • 45
  • 40
  • 39
  • 38
  • 31
  • 31
  • 27
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

PERFORMANCES ET QUALITE DE SERVICE DANS LES RESEAUX COURANTS PORTEURS POUR DES SYSTEMES DE DISTRIBUTION MOYENNE TENSION ET BASSE TENSION

Lu, Liping 22 November 2006 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la problématique liée à la communication numérique sur courant porteur dans l'objectif de fournir une infrastructure de communication qui permet la surveillance et le contrôle de la distribution et de la consommation de l'énergie. Ce travail a été effectué dans le cadre du projet européen REMPLI (Real-time Energy Management via Power Line and Internet) et a produit la spécification REMPLI PLC (Power Line Communication). Pour fournir une meilleure performance de la communication et effectuer le transfert de données en temps réel, en utilisant les réseaux électriques de moyenne tension et de basse tension, les problèmes principaux qui sont le routage dynamique de paquets de données, la gestion de la qualité de service et la notification des événement en temps réel, ont été traités. Nous avons développé un protocole de routage efficace pour s'adapter au changement dynamique de topologie du réseau électrique. Les performances de REMPLI PLC sont évaluées en utilisant des approches de simulation couplée avec des approches analytiques. Il est prouvé que la majorité des besoins applicatifs peuvent être satisfaite par REMPLI PLC. Nous avons proposé et implanté un nouvel “ordonnançeur de traffic” fournissant différents niveaux de qualité de service pour les applications. Des variantes de protocole ALOHA ont été proposées et évaluées afin de vérifier que les propriétés temps réel requises sur les notifications d'événements sont respectées.
82

Un schéma d'emprunt de ressources pour l'adaptation du comportement d'applications distribuées

Batouma, Narkoy, Batouma, Narkoy 30 September 2011 (has links) (PDF)
Les systèmes d'exploitation utilisent très généralement une politique de " meilleur effort " (Best-effort) pour exécuter les applications. Tant que les ressources sont suffisantes, les applications s'exécutent normalement mais quand les ressources deviennent insuffisantes, des mécanismes de contrôle sont nécessaires pour continuer à obtenir des services de qualité acceptable. Cette thèse a pour objectif de gérer la QoS des applications distribuées. La première partie propose un middleware totalement décentralisé pour contrôler l'utilisation des ressources des applications distribuées. Cette approche se fonde sur une planification approximative et un schéma d'emprunt de ressources afin d'améliorer la QoS globale du système. Via ce schéma d'emprunt, chaque nœud construit localement une vue détaillée de la disponibilité des ressources dans le système. La présence da la connaissance de la disponibilité des ressources en local permet à chaque nœud de prendre localement des décisions et de planifier les tâches des applications. Pour un contrôle plus fin de l'exécution, la deuxième partie ajoute un support pour l'adaptation du comportement des applications. Le middleware utilise un modèle général des applications sous forme de graphe d'exécution décoré avec les besoins en ressources. Un chemin dans le graphe est une exécution possible de l'application avec une certaine utilité, et ce sont ces chemins qui fournissent les degrés de liberté dont le middleware a besoin pour adapter la consommation des ressources au contexte. Les applications coopèrent avec le middleware dans le processus de gestion de la QoS lors de l'admission puis durant toute l'exécution. Le middleware est le chef d'orchestre et c'est lui qui pilote et c'est lui qui pilote l'exécution des actions des applications (arcs dans le graphe) Pour valider notre approche, un prototype à base d'agents a été réalisé. Les résultats démontrent l'intérêt de notre approche.
83

Allocation optimale des ressources pour les applications et services de grille de calcul

Abdelhanine, Filali January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
84

Contribution à l'étude et à l'amélioration de la qualité de service sur un réseau maillé WiFi

Soulage, Rémi 01 December 2011 (has links) (PDF)
Si l'utilisation de voix et vidéo sur ip fonctionne correctement sur un réseau WiFi avec un seul point d'accès, les performances en terme de qualité de service sont altérées sur un réseau WiFi maillé où chaque point d'accès sert de relais aux suivants. En effet, le partage d'un même canal radio sur de grandes surfaces par plusieurs noeuds qui ne se captent pas toujours permet difficilement d'établir des communications nécessitant de la qualité de service. La difficulté d'une analyse par expérimentation, due à la difficulté d'observation des communications, a orienté l'étude vers la simulation. En l'absence de simulateurs existants adéquats au vu d'un réseau maillé qui est un concept récent, l'objet de cette thèse est la création, l'étude et l'exploitation d'un simulateur, basé sur des réseaux de Petri, permettant la simulation de communications sur un réseau maillé WiFi. Les améliorations apportées par cette étude ont pour but d'être implémentées sur un matériel existant afin d'offrir un service de transport de voix et de vidéo sur un réseau WiFi maillé. Les premières simulations réalisées à l'aide de cet outil ont fait apparaître des pertes de paquets et des altérations de la gigue due à l'état des files d'attente d'émission de certains noeuds. Après avoir identifié des leviers accessibles sur le matériel existant sur lequel peuvent être effectivement apportées des améliorations tout en restant dans le cadre de la norme, une approche automatique et réseaux a mis en évidence des stratégies d'améliorations possibles de la qualité de service nécessaire pour des communications audio et vidéo.
85

Plan de connaissance pour les réseaux sémantiques : application au contrôle d'admission

Ammar, Doreid 07 December 2012 (has links) (PDF)
Depuis quelques années, il y a un réel changement dans les usages des réseaux en termes d'applications véhiculées ainsi que dans leur nombre. On voit apparaître de plus en plus d'applications contraintes en termes de délai, comme par exemple la téléphonie sur IP, ainsi que d'applications gourmandes en ressources comme par exemple le Srteaming Video. La croissance en volume de ces applications copmmence à poser des problèmes de congestion dasn les réseaux filiares et sans fil. Les opérateurs réseaux doivent être capables d'absorber ces changements de trafic, de faire face à cette demande de plus en plus intensive en bande passante et de fournir une bonne qualité (QoS) aux applications. Cela nécessite des mécanismes intellignets en termes d'ordonnancement et de gestion des files d'attente, de contrôle d'admission, de contrôle de débit et/ou de routage. L'objectif initial de cette thèse étati d'aboutir à la conception d'une nouvelle architecture de traitement et de gestion du trafic et de la qualité de service pour le contrôle d'admission. Plus précisément nous présentons une nouvelle solution pour le contrôle d'admission qui repose sur l'élaboration en continu d'un plan de connaissance et sur la modélisatio automatique du comportement d'un lien réseau par une file d'attente monoserveur. Norte solution doit permettre d'offrir une garantie probabiliste d'un paramètre de performance QoS qui peut être le délai d'attente moyen des paquets dans le buffer du lien ou le taux de perte. Nous avons évalué les performances de notre nouveau contro^le d'admission par simulation en considérant diverses conditions possibles de trafic. Lers résultats obtenus indiquent que la solution proposée permet d'atteindre un contrôle d'admission ni trop conservateur, ni trop permissif. En outre, notre solution offre l'avantage de se baser uniquement sur une connaisssance acquise au cours du temps et permet ainsi de s'affranchir d'un paramétrage compliqué des paramètres comme c'est le cas pour les solutions classiques de contrôle d'admission
86

Estimation de l’écart type du délai de bout-en-bout par méthodes passives / Passive measurement in Software Defined Networks

Nguyen, Huu-Nghi 09 March 2017 (has links)
Depuis l'avènement du réseau Internet, le volume de données échangées sur les réseaux a crû de manière exponentielle. Le matériel présent sur les réseaux est devenu très hétérogène, dû entre autres à la multiplication des "middleboxes" (parefeux, routeurs NAT, serveurs VPN, proxy, etc.). Les algorithmes exécutés sur les équipements réseaux (routage, “spanning tree”, etc.) sont souvent complexes, parfois fermés et propriétaires et les interfaces de supervision peuvent être très différentes d'un constructeur/équipement à un autre. Ces différents facteurs rendent la compréhension et le fonctionnement du réseau complexe. Cela a motivé la définition d'un nouveau paradigme réseaux afin de simplifier la conception et la gestion des réseaux : le SDN (“Software-defined Networking”). Il introduit la notion de contrôleur, qui est un équipement qui a pour rôle de contrôler les équipements du plan de données. Le concept SDN sépare donc le plan de données chargés de l'acheminement des paquets, qui est opéré par des équipements nommés virtual switches dans la terminologie SDN, et le plan contrôle, en charge de toutes les décisions, et qui est donc effectué par le contrôleur SDN. Pour permettre au contrôleur de prendre ses décisions, il doit disposer d'une vue globale du réseau. En plus de la topologie et de la capacité des liens, des critères de performances comme le délai, le taux de pertes, la bande passante disponible, peuvent être pris en compte. Cette connaissance peut permettre par exemple un routage multi-classes, ou/et garantir des niveaux de qualité de service. Les contributions de cette thèse portent sur la proposition d'algorithmes permettant à une entité centralisée, et en particulier à un contrôleur dans un cadre SDN, d'obtenir des estimations fiables du délai de bout-en-bout pour les flux traversant le réseau. Les méthodes proposées sont passives, c'est-à-dire qu'elles ne génèrent aucun trafic supplémentaire. Nous nous intéressons tout particulièrement à la moyenne et l'écart type du délai. Il apparaît que le premier moment peut être obtenu assez facilement. Au contraire, la corrélation qui apparaît dans les temps d'attentes des noeuds du réseau rend l'estimation de l'écart type beaucoup plus complexe. Nous montrons que les méthodes développées sont capables de capturer les corrélations des délais dans les différents noeuds et d'offrir des estimations précises de l'écart type. Ces résultats sont validés par simulations où nous considérons un large éventail de scénarios permettant de valider nos algorithmes dans différents contextes d'utilisation / Since the early beginning of Internet, the amount of data exchanged over the networks has exponentially grown. The devices deployed on the networks are very heterogeneous, because of the growing presence of middleboxes (e.g., firewalls, NAT routers, VPN servers, proxy). The algorithms run on the networking devices (e.g., routing, spanning tree) are often complex, closed, and proprietary while the interfaces to access these devices typically vary from one manufacturer to the other. All these factors tend to hinder the understanding and the management of networks. Therefore a new paradigm has been introduced to ease the design and the management of networks, namely, the SDN (Software-defined Networking). In particular, SDN defines a new entity, the controller that is in charge of controlling the devices belonging to the data plane. Thus, in a SDN-network, the data plane, which is handled by networking devices called virtual switches, and the control plane, which takes the decisions and executed by the controller, are separated. In order to let the controller take its decisions, it must have a global view on the network. This includes the topology of the network and its links capacity, along with other possible performance metrics such delays, loss rates, and available bandwidths. This knowledge can enable a multi-class routing, or help guarantee levels of Quality of Service. The contributions of this thesis are new algorithms that allow a centralized entity, such as the controller in an SDN network, to accurately estimate the end-to-end delay for a given flow in its network. The proposed methods are passive in the sense that they do not require any additional traffic to be run. More precisely, we study the expectation and the standard deviation of the delay. We show how the first moment can be easily computed. On the other hand, estimating the standard deviation is much more complex because of the correlations existing between the different waiting times. We show that the proposed methods are able to capture these correlations between delays and thus providing accurate estimations of the standard deviation of the end-to-end delay. Simulations that cover a large range of possible scenariosvalidate these results
87

Modeling and control of server systems : application to performance and dependability / Modélisation et contrôle de la performance et de la disponibilité des systèmes de serveurs

Malrait, Luc 03 July 2012 (has links)
Les serveurs informatiques permettent de mettre en œuvre un large éventail de services en ligne et d'applications telles que les services Web, les services de messagerie ou les services de base de données. Cependant, leur configuration ad hoc soulève des problématiques cruciales liées à la performance, la disponibilité et le coût économique des applications. Dans cette thèse, nous étudions l'impact de la configuration des serveurs sur le compromis central entre performance et disponibilité du service. Dans une première partie, nous modélisons le comportement de serveurs uniques à l'aide d'approximations fluides et développons des lois de commandes novatrices pour le contrôle d'admission sur les systèmes de serveurs centralisés. Nous proposons plusieurs lois de commande pour différentes combinaisons d'objectifs de qualité de service et de niveau de service. Parmi elles, AM-C garantit un objectif de performance du service en maximisant sa disponibilité; PM-C garantit un objectif de disponibilité du service en maximisant sa performance. Nous évaluons expérimentalement le modèle ainsi que les stratégies de contrôle sur TPC-C, un benchmark industriel reconnu qui reproduit un service d'e-commerce, implémenté sur le serveur de base de données PostgreSQL. Nos expériences montrent que les techniques proposées améliorent jusqu'à 30% les performances du service tout en garantissant les contraintes de disponibilité. Dans une deuxième partie, nous étendons ce travail aux systèmes de serveurs distribués, qui sont largement utilisés par les applications Internet évoluant sur des systèmes multi-niveaux hébergés par des clusters de serveurs. Nous présentons un modèle de serveur distribué comme un modèle continu non linéaire en faisant une analogie avec les systèmes transferts de fluide. Nous formalisons alors un problème d'optimisation pour le contrôle de ces systèmes. Nous fournissons un contrôle d'admission qui permet d'obtenir la disponibilité de service la plus élevée tout en garantissant un objectif de performance. Une évaluation numérique du modèle proposé et du contrôle distribué associé est présentée et montre que la configuration optimale de ces systèmes n'est pas intuitive. / Server technology provides a means to support a wide range of on-line services and applications, such as web services, e-mail services, database services. However, their ad hoc configuration poses significant challenges to the performance, availability and economical costs of applications. In this thesis, we examine the impact of server configuration on the central trade-off between service performance and service availability. First, we model the behavior of single servers using fluid approximations. Second, we develop novel ad- mission control laws of central server systems. We provide several control laws for different combinations of quality-of-service and service level objectives. Among them, AM-C , the availability-maximizing admission control law, achieves the highest service availability while meeting given performance objective; PM-C is a performance-maximizing ad- mission control law that meets a desired availability target with the highest performance. We evaluate our fluid model and control techniques on the TPC-C industry-standard benchmark that implements a warehouse running on the PostgreSQL database server. Our experiments show that the proposed techniques successfully improve performance by up to 30 % while guaranteeing availability constraints. Furthermore, we extend this work to distributed server systems, that are widely used by Internet applications in the farm of server clusters and multi-tier systems. We present a distributed server model as a non-linear continuous-time model using analogies with fluid transfer. We then state an optimization problem for the control of distributed server systems. We provide an admission control that allows to get the highest service availability while a target performance level is guaranteed. Numerical evaluations of the proposed distributed model and control are presented, and show that the optimal configuration of such systems is not intuitive.
88

Equité d'accès aux ressources dans les systèmes partagés best-effort / Resources access fairness in best-effort shared systems

Goichon, François 16 December 2013 (has links)
Au cours de la dernière décennie, l'industrie du service informatique s'est métamorphosée afin de répondre à des besoins client croissants en termes de disponibilité, de performance ou de capacité de stockage des systèmes informatisés. Afin de faire face à ces demandes, les hébergeurs d'infrastructures ont naturellement adopté le partage de systèmes où les charges de travail de différents clients sont exécutées simultanément. Cette technique, mutualisant les ressources à disposition d'un système entre les utilisateurs, permet aux hébergeurs de réduire le coût de maintenance de leurs infrastructures, mais pose des problèmes d'interférence de performance et d'équité d'accès aux ressources. Nous désignons par le terme systèmes partagés best-effort les systèmes dont la gestion de ressources est centrée autour d'une maximisation de l'usage des ressources à disposition, tout en garantissant une répartition équitable entre les différents utilisateurs. Dans ce travail, nous soulignons la possibilité pour un utilisateur abusif d'attaquer les ressources d'une plateforme partagée afin de réduire de manière significative la qualité de service fournie aux autres utilisateurs concurrents. Le manque de métriques génériques aux différentes ressources, ainsi que le compromis naturel entre équité et optimisation des performances forment les causes principales des problèmes rencontrés dans ces systèmes. Nous introduisons le temps d'utilisation comme métrique générique de consommation des ressources, métrique s'adaptant aux différentes ressources gérées par les systèmes partagés best-effort. Ceci nous amène à la spécification de couches de contrôles génériques, transparentes et automatisées d'application de politiques d'équité garantissant une utilisation maximisée des ressources régulées. Notre prototype, implémenté au sein du noyau Linux, nous permet d'évaluer l'apport de notre approche pour la régulation des surcharges d'utilisation mémoire. Nous observons une amélioration significative de la performance d'applications typiques des systèmes partagés best-effort en temps de contention mémoire. De plus, notre technique borne l'impact d'applications abusives sur d'autres applications légitimes concurrentes, puisque l'incertitude sur les durées d'exécution est naturellement amoindrie. / Over the last ten years, the IT services industry has gone through major transformations, to comply with customers ever-growing needs in terms of availability, performance or storage capabilities of IT infrastructures. In order to cope with this demand, IT service providers tend to use shared systems, executing mutiple workloads from distinct customers simultaneously on the same system. This technique allows service providers to reduce the maintenance cost of their infrastructure, by sharing the resources at their disposal and therefore maximizing their utilization. However, this assumes that the system is able to prevent arbitrary workloads from having significant impact on other workloads' performance. In this scenario, the operating system's resource multiplexing layer tries to maximize resource consumption, as well as enforcing a fair distribution among users. We refer to those systems as best-effort shared systems. In this work, we show that malicious users may attack a shared system's resources, to significantly reduce the quality of service provided to other concurrent users. This issue of resource control layers in shared systems can be linked to the lack of generic accounting metrics, as well as the natural trade-off that such systems have to make between fairness and performance optimization. We introduce the utilization time as a generic accounting metric, which can be applied to the different resources typically managed by best-effort shared systems. This metric allows us to design a generic, transparent and automated resource control layer, which enables the specification of simple resource management policies centered around fairness and resource consumption maximization. We applied this approach to the swap subsystem, a traditional operating system bottleneck, and implemented a prototype within the Linux kernel. Our results show significative performance enhancements under high memory pressure, for typical workloads of best-effort shared systems. Moreover, our technique bounds the impact of abusive applications on other legit applications, as it naturally reduces uncertainties over execution duration.
89

Gestion de ressources bout-en-bout et contrôle de la qualité de service en mobilité dans les réseaux LTE/LTE-Advanced / End-to-end resource management and service quality control with mobility in LTE / LTE-Advanced networks

Zaaraoui, Hind 30 June 2017 (has links)
L'évolution technologique de RAN dans le contexte de la 5G n'est pas seulement guidée par l'amélioration de la qualité de service du réseau mais aussi par la nécessité de transformer toutes les technologies par des systèmes dynamiques intelligents. La nouvelle technologie de la 5G est plus que flexible et pourra satisfaire chaque utilisateur de façon équitable sans que son type (mobile ou statique) ou sa demande de service (service temps réel et non réel) n'affecte. Tous les cas d'utilisation seront intelligemment dimensionnés et gérés dans le réseau. L'objectif principal de cette thèse est d'analyser et d'améliorer les performances radio en tenant compte de la mobilité des véhicules en gérant dynamiquement et intelligemment les ressources disponibles. A cette fin, nous présentons différents modèles de mobilité des utilisateurs dans le cas discret et continu. Le modèle discret utilisant le modèle bien connu du car following est bien adapté pour les simulations. La méthode continue est utile pour obtenir des indicateurs analytiques de performance clés (KPI). La nouveauté de cette partie de la thèse est la formulation analytique de KPIs qui tiennent compte de la mobilité physique dans le trafic radio. A titre d'exemple, l'impact d'un feu rouge sur les indicateurs de performance dans une cellule est étudié. Il est montré qu'une congestion physique périodique du trafic due au feu de circulation détériore périodiquement la performance de la cellule. La première solution considérée consiste à améliorer l'allocation et le contrôle des ressources dans le contexte du réseau hétérogène LTE-Advanced. Une small cell est ensuite déployée à proximité du feu rouge pour diminuer la congestion périodique et la dégradation de la qualité de service. Trois systèmes d'allocation et de contrôle des ressources sont étudiés: une réutilisation de fréquence complète, un algorithme de division de fréquence statique et dynamique qui sont optimisés par rapport à une utilité alpha -fair basé sur les débits reçus. En outre, il est montré que le système de commande dynamique est particulièrement intéressant pour le trafic non stationnaire comme celui introduit par un feu de circulation périodique. Par souci de réduction des coûts financiers et énergétiques, et de suivi d'utilisateurs mobiles, une autre solution est fournie en utilisant un nouveau réseau d'antennes afin de gérer efficacement le trafic hétérogène, fixe et mobile. On considère trois technologies différentes de réseau d'antennes permettant de décharger les zones de congestion ainsi que la congestion mobile dynamique: Virtual Small Cell (VSC), petite cellule virtuelle avec réseau auto-organisateur (VSC-SON) et rayons focalisant avec un multiniveau global codebook qui gère le système d'antenne hétérogène à la station de base. Les deux premières technologies améliorent la performance de la cellule en raison de leur capacité de focaliser le signal à la concentration du trafic au niveau de la congestion physique. La nouvelle solution de faisceaux focalisants avec le global codebook améliore de manière significative les performances en raison de la capacité de focaliser le signal le long de la route et d'équilibrer implicitement le trafic entre les différentes antennes. Nous comparons toutes ces technologies et leur impact sur les performances du réseau. La question de la sélection d'un utilisateur pour lui allouer une partie (en temps ou en bande passante) de la ressource disponible est étudiée. Le contexte de la gestion des ressources et de la performance du réseau dans la mobilité est un des défis futurs pour la 5G. Grâce à la technologie MDT, les réseaux peuvent avoir une idée, ou plus précisément une moyenne du SINR grâce à la GLM. Nous introduisons le concept de Forecast Scheduling pour les utilisateurs en mobilité à vitesse élevée. On suppose que la REM peut fournir des valeurs interpolées du SINR le long des trajectoires des utilisateurs. / The technology evolution of Radio Access Network (RAN) in the context of 5th Generation (5G) is not only guided by improving the network performance but also by the need to transform all the technologies into intelligent dynamic ones. The new 5G is a flexible technology that will be able to satisfy at the same time each user of any type of mobility (static or mobile) or service request (real and non-real time service) without modifying any models or algorithms in networks. All physical use cases will be able to be considered by the network intelligently and resource managed automatically. The objective of this thesis is to analyse and enhance radio performance taking into account vehicular mobility by managing dynamically and intelligently the available resources. To this end, we describe different users mobility models for discrete and continuous modeling. The discrete model using the well-known car following model is well adapted for simulations. The continuous one is useful to derive analytical key performance indicators (KPI). The novelty of the thesis is the analytical formulation of KPIs that take into account the physical mobility in the radio traffic which is not necessary stationary. As an example, the impact of a traffic light on performance indicators in a cell is investigated. It is shown that a periodical physical traffic congestion due to the traffic light deteriorate periodically the cell performance. A first given solution is to improve resource allocation and control in the context of LTE-Advanced heterogeneous network. A small cell is deployed near the traffic light to relieve periodic congestion and QoS degradation. Three resource allocation and control schemes are investigated: a full frequency reuse, a static and a dynamic frequency splitting algorithm that are optimized with respect to a throughput based alpha-fair utility. For sake of financial and energy costs decreasing, another solution is provided using new antenna array technologies in order to manage efficiently heterogeneous, fixed and mobile traffic. A heterogeneous antenna system with different large antenna array technologies is considered to ooad static congestion areas and also the dynamical mobile congestion: Virtual Small Cell (VSC), virtual small cell with Self-Organizing Network (VSC-SON) and beamforming with multilevel global codebook that manages the heterogeneous antenna system at the Base Station (BS). The first two technologies improve the cell performance due to the capability to focus the signal at the traffic concentration. The novel beamforming solution with global codebook can further and significantly improve performance due to the capability to focus the signal along the road and to implicitly balance the traffic between the different antennas. We compare all these technologies and their impact on the network performance. The issue of user selection to allocate a portion (in time or in bandwidth) of the available resource is also analyzed. Moreover the context of resource management and network performance for 5G in high mobility is one of the future challenges. Thanks to the Minimization of Drive Testing (MDT) technology, networks can have Signal to Interference plus Noise Ratio (SINR) information with Geo-Localized Measurements (GLM).We introduce the concept of Forecast Scheduler for users in high mobility. It is assumed that a Radio Environment Map (REM) can provide interpolated SINR values along the user trajectories. Mobile users experience in their trajectories different mean SINR values. In mobile networks, schedulers exploit channel quality variation by giving the signal to the user experiencing best channel conditions while remaining fair. Nevertheless, we cannot record data rates of users with high mobility due to a very small time coherence. The Forecast Scheduling will exploit the SINR variation during users' trajectories.
90

Utilisation du taux d'erreur binaire pour améliorer la qualité de service dans les réseaux ad hoc / Using bit error rate to improve quality of service in ad hoc networks

Yélémou, Tiguiane 18 December 2012 (has links)
Dans les réseaux sans fil ad hoc, les liens de communication sont sujets à un taux d'erreurimportant. Dans ce contexte, le routage joue un rôle stratégique pour augmenter les performancesdans les transmissions. Dans nos études, par une approche cross-layer, nous prenons en compte lafiabilité des liens dans le choix des routes. Pour cela, dans un premier temps, nous construisonsdeux nouvelles métriques, l'une basée sur le taux d'erreur binaire (au niveau couche physique) etl'autre, plus adaptée à la mesure, sur le nombre de retransmissions (au niveau couche MAC).Ensuite, pour exploiter ces métriques lors du calcul de routes, nous adaptons les algorithmes à labase des protocoles de routage.Les trois familles de protocoles de routage ont été traitées : les protocoles pro-actifs où chaquenoeud a une vision globale du réseau grâce aux échanges périodiques de messages de contrôle detopologie ; les protocoles réactifs où, avant de commencer ses transmissions de données, chaquenoeud doit initier un processus de recherche de route ; les protocoles hybrides qui mixent les deuxapproches.Pour tester l'effectivité de nos améliorations, nous utilisons le simulateur NS2 enrichi par unmodèle de propagation et un modèle de mobilité réalistes. Les paramètres de performance tels quele délai, le taux de livraison de paquets et la charge de routage sont mesurés dans plusieursscénarios représentatifs des conditions d'utilisation. Les résultats obtenus montrent une améliorationsignificative des protocoles standards dans un contexte de qualité de service. / In ad hoc wireless networks, links are error-prone. In this context, routing plays a decisive role inimproving transmission performances. In our studies, by a cross-layer approach, we take intoaccount the reliability of links in route choice. For this, first, we concept two new metrics, onebased on bit error rate (at physical layer) and the other, more suitable for the measurement, onnumber of retransmissions (at MAC layer). Then, to exploit these metrics when determining routes,we adapt the algorithms based routing protocols.The three families of routing protocols have been addressed: proactive protocols where eachnode has a global view of the network through periodic exchanges of topology control messages;reactive protocols where, before starting data transmission, each node must initiate a routediscovery process; hybrid protocols which mix the two approaches.To test the effectiveness of our enhancements, we use the simulator NS.2 enhanced by arealistic propagation model and a realistic mobility model. Performance parameters such as delay,packets delivery ratio and routing load are measured in several scenarios including mobility andmulti-communication. The results show a significant improvement of standard protocols in thequality of service context.

Page generated in 0.0569 seconds