• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 123
  • 72
  • 12
  • Tagged with
  • 209
  • 209
  • 93
  • 81
  • 75
  • 73
  • 51
  • 45
  • 41
  • 39
  • 39
  • 34
  • 33
  • 31
  • 29
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Contribution à l'étude et à l'amélioration de la qualité de service sur un réseau maillé WiFi

Soulage, Rémi 01 December 2011 (has links) (PDF)
Si l'utilisation de voix et vidéo sur ip fonctionne correctement sur un réseau WiFi avec un seul point d'accès, les performances en terme de qualité de service sont altérées sur un réseau WiFi maillé où chaque point d'accès sert de relais aux suivants. En effet, le partage d'un même canal radio sur de grandes surfaces par plusieurs noeuds qui ne se captent pas toujours permet difficilement d'établir des communications nécessitant de la qualité de service. La difficulté d'une analyse par expérimentation, due à la difficulté d'observation des communications, a orienté l'étude vers la simulation. En l'absence de simulateurs existants adéquats au vu d'un réseau maillé qui est un concept récent, l'objet de cette thèse est la création, l'étude et l'exploitation d'un simulateur, basé sur des réseaux de Petri, permettant la simulation de communications sur un réseau maillé WiFi. Les améliorations apportées par cette étude ont pour but d'être implémentées sur un matériel existant afin d'offrir un service de transport de voix et de vidéo sur un réseau WiFi maillé. Les premières simulations réalisées à l'aide de cet outil ont fait apparaître des pertes de paquets et des altérations de la gigue due à l'état des files d'attente d'émission de certains noeuds. Après avoir identifié des leviers accessibles sur le matériel existant sur lequel peuvent être effectivement apportées des améliorations tout en restant dans le cadre de la norme, une approche automatique et réseaux a mis en évidence des stratégies d'améliorations possibles de la qualité de service nécessaire pour des communications audio et vidéo.
92

Plan de connaissance pour les réseaux sémantiques : application au contrôle d'admission

Ammar, Doreid 07 December 2012 (has links) (PDF)
Depuis quelques années, il y a un réel changement dans les usages des réseaux en termes d'applications véhiculées ainsi que dans leur nombre. On voit apparaître de plus en plus d'applications contraintes en termes de délai, comme par exemple la téléphonie sur IP, ainsi que d'applications gourmandes en ressources comme par exemple le Srteaming Video. La croissance en volume de ces applications copmmence à poser des problèmes de congestion dasn les réseaux filiares et sans fil. Les opérateurs réseaux doivent être capables d'absorber ces changements de trafic, de faire face à cette demande de plus en plus intensive en bande passante et de fournir une bonne qualité (QoS) aux applications. Cela nécessite des mécanismes intellignets en termes d'ordonnancement et de gestion des files d'attente, de contrôle d'admission, de contrôle de débit et/ou de routage. L'objectif initial de cette thèse étati d'aboutir à la conception d'une nouvelle architecture de traitement et de gestion du trafic et de la qualité de service pour le contrôle d'admission. Plus précisément nous présentons une nouvelle solution pour le contrôle d'admission qui repose sur l'élaboration en continu d'un plan de connaissance et sur la modélisatio automatique du comportement d'un lien réseau par une file d'attente monoserveur. Norte solution doit permettre d'offrir une garantie probabiliste d'un paramètre de performance QoS qui peut être le délai d'attente moyen des paquets dans le buffer du lien ou le taux de perte. Nous avons évalué les performances de notre nouveau contro^le d'admission par simulation en considérant diverses conditions possibles de trafic. Lers résultats obtenus indiquent que la solution proposée permet d'atteindre un contrôle d'admission ni trop conservateur, ni trop permissif. En outre, notre solution offre l'avantage de se baser uniquement sur une connaisssance acquise au cours du temps et permet ainsi de s'affranchir d'un paramétrage compliqué des paramètres comme c'est le cas pour les solutions classiques de contrôle d'admission
93

Estimation de l’écart type du délai de bout-en-bout par méthodes passives / Passive measurement in Software Defined Networks

Nguyen, Huu-Nghi 09 March 2017 (has links)
Depuis l'avènement du réseau Internet, le volume de données échangées sur les réseaux a crû de manière exponentielle. Le matériel présent sur les réseaux est devenu très hétérogène, dû entre autres à la multiplication des "middleboxes" (parefeux, routeurs NAT, serveurs VPN, proxy, etc.). Les algorithmes exécutés sur les équipements réseaux (routage, “spanning tree”, etc.) sont souvent complexes, parfois fermés et propriétaires et les interfaces de supervision peuvent être très différentes d'un constructeur/équipement à un autre. Ces différents facteurs rendent la compréhension et le fonctionnement du réseau complexe. Cela a motivé la définition d'un nouveau paradigme réseaux afin de simplifier la conception et la gestion des réseaux : le SDN (“Software-defined Networking”). Il introduit la notion de contrôleur, qui est un équipement qui a pour rôle de contrôler les équipements du plan de données. Le concept SDN sépare donc le plan de données chargés de l'acheminement des paquets, qui est opéré par des équipements nommés virtual switches dans la terminologie SDN, et le plan contrôle, en charge de toutes les décisions, et qui est donc effectué par le contrôleur SDN. Pour permettre au contrôleur de prendre ses décisions, il doit disposer d'une vue globale du réseau. En plus de la topologie et de la capacité des liens, des critères de performances comme le délai, le taux de pertes, la bande passante disponible, peuvent être pris en compte. Cette connaissance peut permettre par exemple un routage multi-classes, ou/et garantir des niveaux de qualité de service. Les contributions de cette thèse portent sur la proposition d'algorithmes permettant à une entité centralisée, et en particulier à un contrôleur dans un cadre SDN, d'obtenir des estimations fiables du délai de bout-en-bout pour les flux traversant le réseau. Les méthodes proposées sont passives, c'est-à-dire qu'elles ne génèrent aucun trafic supplémentaire. Nous nous intéressons tout particulièrement à la moyenne et l'écart type du délai. Il apparaît que le premier moment peut être obtenu assez facilement. Au contraire, la corrélation qui apparaît dans les temps d'attentes des noeuds du réseau rend l'estimation de l'écart type beaucoup plus complexe. Nous montrons que les méthodes développées sont capables de capturer les corrélations des délais dans les différents noeuds et d'offrir des estimations précises de l'écart type. Ces résultats sont validés par simulations où nous considérons un large éventail de scénarios permettant de valider nos algorithmes dans différents contextes d'utilisation / Since the early beginning of Internet, the amount of data exchanged over the networks has exponentially grown. The devices deployed on the networks are very heterogeneous, because of the growing presence of middleboxes (e.g., firewalls, NAT routers, VPN servers, proxy). The algorithms run on the networking devices (e.g., routing, spanning tree) are often complex, closed, and proprietary while the interfaces to access these devices typically vary from one manufacturer to the other. All these factors tend to hinder the understanding and the management of networks. Therefore a new paradigm has been introduced to ease the design and the management of networks, namely, the SDN (Software-defined Networking). In particular, SDN defines a new entity, the controller that is in charge of controlling the devices belonging to the data plane. Thus, in a SDN-network, the data plane, which is handled by networking devices called virtual switches, and the control plane, which takes the decisions and executed by the controller, are separated. In order to let the controller take its decisions, it must have a global view on the network. This includes the topology of the network and its links capacity, along with other possible performance metrics such delays, loss rates, and available bandwidths. This knowledge can enable a multi-class routing, or help guarantee levels of Quality of Service. The contributions of this thesis are new algorithms that allow a centralized entity, such as the controller in an SDN network, to accurately estimate the end-to-end delay for a given flow in its network. The proposed methods are passive in the sense that they do not require any additional traffic to be run. More precisely, we study the expectation and the standard deviation of the delay. We show how the first moment can be easily computed. On the other hand, estimating the standard deviation is much more complex because of the correlations existing between the different waiting times. We show that the proposed methods are able to capture these correlations between delays and thus providing accurate estimations of the standard deviation of the end-to-end delay. Simulations that cover a large range of possible scenariosvalidate these results
94

Modeling and control of server systems : application to performance and dependability / Modélisation et contrôle de la performance et de la disponibilité des systèmes de serveurs

Malrait, Luc 03 July 2012 (has links)
Les serveurs informatiques permettent de mettre en œuvre un large éventail de services en ligne et d'applications telles que les services Web, les services de messagerie ou les services de base de données. Cependant, leur configuration ad hoc soulève des problématiques cruciales liées à la performance, la disponibilité et le coût économique des applications. Dans cette thèse, nous étudions l'impact de la configuration des serveurs sur le compromis central entre performance et disponibilité du service. Dans une première partie, nous modélisons le comportement de serveurs uniques à l'aide d'approximations fluides et développons des lois de commandes novatrices pour le contrôle d'admission sur les systèmes de serveurs centralisés. Nous proposons plusieurs lois de commande pour différentes combinaisons d'objectifs de qualité de service et de niveau de service. Parmi elles, AM-C garantit un objectif de performance du service en maximisant sa disponibilité; PM-C garantit un objectif de disponibilité du service en maximisant sa performance. Nous évaluons expérimentalement le modèle ainsi que les stratégies de contrôle sur TPC-C, un benchmark industriel reconnu qui reproduit un service d'e-commerce, implémenté sur le serveur de base de données PostgreSQL. Nos expériences montrent que les techniques proposées améliorent jusqu'à 30% les performances du service tout en garantissant les contraintes de disponibilité. Dans une deuxième partie, nous étendons ce travail aux systèmes de serveurs distribués, qui sont largement utilisés par les applications Internet évoluant sur des systèmes multi-niveaux hébergés par des clusters de serveurs. Nous présentons un modèle de serveur distribué comme un modèle continu non linéaire en faisant une analogie avec les systèmes transferts de fluide. Nous formalisons alors un problème d'optimisation pour le contrôle de ces systèmes. Nous fournissons un contrôle d'admission qui permet d'obtenir la disponibilité de service la plus élevée tout en garantissant un objectif de performance. Une évaluation numérique du modèle proposé et du contrôle distribué associé est présentée et montre que la configuration optimale de ces systèmes n'est pas intuitive. / Server technology provides a means to support a wide range of on-line services and applications, such as web services, e-mail services, database services. However, their ad hoc configuration poses significant challenges to the performance, availability and economical costs of applications. In this thesis, we examine the impact of server configuration on the central trade-off between service performance and service availability. First, we model the behavior of single servers using fluid approximations. Second, we develop novel ad- mission control laws of central server systems. We provide several control laws for different combinations of quality-of-service and service level objectives. Among them, AM-C , the availability-maximizing admission control law, achieves the highest service availability while meeting given performance objective; PM-C is a performance-maximizing ad- mission control law that meets a desired availability target with the highest performance. We evaluate our fluid model and control techniques on the TPC-C industry-standard benchmark that implements a warehouse running on the PostgreSQL database server. Our experiments show that the proposed techniques successfully improve performance by up to 30 % while guaranteeing availability constraints. Furthermore, we extend this work to distributed server systems, that are widely used by Internet applications in the farm of server clusters and multi-tier systems. We present a distributed server model as a non-linear continuous-time model using analogies with fluid transfer. We then state an optimization problem for the control of distributed server systems. We provide an admission control that allows to get the highest service availability while a target performance level is guaranteed. Numerical evaluations of the proposed distributed model and control are presented, and show that the optimal configuration of such systems is not intuitive.
95

Plan de connaissance pour les réseaux sémantiques : application au contrôle d'admission / Knowledge plane for semantic networks : admission control

Ammar, Doreid 07 December 2012 (has links)
Depuis quelques années, il y a un réel changement dans les usages des réseaux en termes d'applications véhiculées ainsi que dans leur nombre. On voit apparaître de plus en plus d'applications contraintes en termes de délai, comme par exemple la téléphonie sur IP, ainsi que d'applications gourmandes en ressources comme par exemple le Srteaming Video. La croissance en volume de ces applications copmmence à poser des problèmes de congestion dasn les réseaux filiares et sans fil. Les opérateurs réseaux doivent être capables d'absorber ces changements de trafic, de faire face à cette demande de plus en plus intensive en bande passante et de fournir une bonne qualité (QoS) aux applications. Cela nécessite des mécanismes intellignets en termes d'ordonnancement et de gestion des files d'attente, de contrôle d'admission, de contrôle de débit et/ou de routage. L'objectif initial de cette thèse étati d'aboutir à la conception d'une nouvelle architecture de traitement et de gestion du trafic et de la qualité de service pour le contrôle d'admission. Plus précisément nous présentons une nouvelle solution pour le contrôle d'admission qui repose sur l'élaboration en continu d'un plan de connaissance et sur la modélisatio automatique du comportement d'un lien réseau par une file d'attente monoserveur. Norte solution doit permettre d'offrir une garantie probabiliste d'un paramètre de performance QoS qui peut être le délai d'attente moyen des paquets dans le buffer du lien ou le taux de perte. Nous avons évalué les performances de notre nouveau contro^le d'admission par simulation en considérant diverses conditions possibles de trafic. Lers résultats obtenus indiquent que la solution proposée permet d'atteindre un contrôle d'admission ni trop conservateur, ni trop permissif. En outre, notre solution offre l'avantage de se baser uniquement sur une connaisssance acquise au cours du temps et permet ainsi de s'affranchir d'un paramétrage compliqué des paramètres comme c'est le cas pour les solutions classiques de contrôle d'admission / Over the las few years, new ussages such as streaming or live video watching are increasingly representing a significant part of Internet traffic. Network operators face the challenge of satisfying the quality of experience expected by end-users while, in the same time, avoiding the over-provisioning of transmission links. Bandwidth management offers a wide spectrum of policies to overcome this issue. Possible options include congestion control, scheduling algorithms, traffic shaping and admission control. The initial objective of this thesis was to design of a new architecture of traffic management and quality of service for admission control. More precisely, we introduce a novel data-driven method based on a time-varying model that we refer to as Knowledge-Based Admission Control solutions (KBAC). Our KBAC solution consists of three main stages : (i) collect leasurments on the on-going traffic over the communication link ; (ii) maintain an up-to-date broad view of the link behavior, and feed it to a Knowledge Plane ; (iii) model the observed link behavior by a mono-server queue whose parameters are set auutomatically and which predicts the expected QoS if a flow requesting admission were to be accepted. our KBAC solution provides a probalistic guarantee whose admission thresold is either expressed, as a bounded dealy or as a bounded loss rate. We run extensive siçmulations using various traffic conditions to assess the behavior of our KBAC solution in the case of a delay thresold. The results show that our KBAC solution leads to a good trade-off between flow performance and resource utilization. This ability stems from the quick and autoamtic adjustment of its admission policy according to the actual variations on the traffic conditions. On the other hand, our KBAC solution avoids the critical step of precisely calibrating key parameters.
96

Equité d'accès aux ressources dans les systèmes partagés best-effort / Resources access fairness in best-effort shared systems

Goichon, François 16 December 2013 (has links)
Au cours de la dernière décennie, l'industrie du service informatique s'est métamorphosée afin de répondre à des besoins client croissants en termes de disponibilité, de performance ou de capacité de stockage des systèmes informatisés. Afin de faire face à ces demandes, les hébergeurs d'infrastructures ont naturellement adopté le partage de systèmes où les charges de travail de différents clients sont exécutées simultanément. Cette technique, mutualisant les ressources à disposition d'un système entre les utilisateurs, permet aux hébergeurs de réduire le coût de maintenance de leurs infrastructures, mais pose des problèmes d'interférence de performance et d'équité d'accès aux ressources. Nous désignons par le terme systèmes partagés best-effort les systèmes dont la gestion de ressources est centrée autour d'une maximisation de l'usage des ressources à disposition, tout en garantissant une répartition équitable entre les différents utilisateurs. Dans ce travail, nous soulignons la possibilité pour un utilisateur abusif d'attaquer les ressources d'une plateforme partagée afin de réduire de manière significative la qualité de service fournie aux autres utilisateurs concurrents. Le manque de métriques génériques aux différentes ressources, ainsi que le compromis naturel entre équité et optimisation des performances forment les causes principales des problèmes rencontrés dans ces systèmes. Nous introduisons le temps d'utilisation comme métrique générique de consommation des ressources, métrique s'adaptant aux différentes ressources gérées par les systèmes partagés best-effort. Ceci nous amène à la spécification de couches de contrôles génériques, transparentes et automatisées d'application de politiques d'équité garantissant une utilisation maximisée des ressources régulées. Notre prototype, implémenté au sein du noyau Linux, nous permet d'évaluer l'apport de notre approche pour la régulation des surcharges d'utilisation mémoire. Nous observons une amélioration significative de la performance d'applications typiques des systèmes partagés best-effort en temps de contention mémoire. De plus, notre technique borne l'impact d'applications abusives sur d'autres applications légitimes concurrentes, puisque l'incertitude sur les durées d'exécution est naturellement amoindrie. / Over the last ten years, the IT services industry has gone through major transformations, to comply with customers ever-growing needs in terms of availability, performance or storage capabilities of IT infrastructures. In order to cope with this demand, IT service providers tend to use shared systems, executing mutiple workloads from distinct customers simultaneously on the same system. This technique allows service providers to reduce the maintenance cost of their infrastructure, by sharing the resources at their disposal and therefore maximizing their utilization. However, this assumes that the system is able to prevent arbitrary workloads from having significant impact on other workloads' performance. In this scenario, the operating system's resource multiplexing layer tries to maximize resource consumption, as well as enforcing a fair distribution among users. We refer to those systems as best-effort shared systems. In this work, we show that malicious users may attack a shared system's resources, to significantly reduce the quality of service provided to other concurrent users. This issue of resource control layers in shared systems can be linked to the lack of generic accounting metrics, as well as the natural trade-off that such systems have to make between fairness and performance optimization. We introduce the utilization time as a generic accounting metric, which can be applied to the different resources typically managed by best-effort shared systems. This metric allows us to design a generic, transparent and automated resource control layer, which enables the specification of simple resource management policies centered around fairness and resource consumption maximization. We applied this approach to the swap subsystem, a traditional operating system bottleneck, and implemented a prototype within the Linux kernel. Our results show significative performance enhancements under high memory pressure, for typical workloads of best-effort shared systems. Moreover, our technique bounds the impact of abusive applications on other legit applications, as it naturally reduces uncertainties over execution duration.
97

Gestion de ressources bout-en-bout et contrôle de la qualité de service en mobilité dans les réseaux LTE/LTE-Advanced / End-to-end resource management and service quality control with mobility in LTE / LTE-Advanced networks

Zaaraoui, Hind 30 June 2017 (has links)
L'évolution technologique de RAN dans le contexte de la 5G n'est pas seulement guidée par l'amélioration de la qualité de service du réseau mais aussi par la nécessité de transformer toutes les technologies par des systèmes dynamiques intelligents. La nouvelle technologie de la 5G est plus que flexible et pourra satisfaire chaque utilisateur de façon équitable sans que son type (mobile ou statique) ou sa demande de service (service temps réel et non réel) n'affecte. Tous les cas d'utilisation seront intelligemment dimensionnés et gérés dans le réseau. L'objectif principal de cette thèse est d'analyser et d'améliorer les performances radio en tenant compte de la mobilité des véhicules en gérant dynamiquement et intelligemment les ressources disponibles. A cette fin, nous présentons différents modèles de mobilité des utilisateurs dans le cas discret et continu. Le modèle discret utilisant le modèle bien connu du car following est bien adapté pour les simulations. La méthode continue est utile pour obtenir des indicateurs analytiques de performance clés (KPI). La nouveauté de cette partie de la thèse est la formulation analytique de KPIs qui tiennent compte de la mobilité physique dans le trafic radio. A titre d'exemple, l'impact d'un feu rouge sur les indicateurs de performance dans une cellule est étudié. Il est montré qu'une congestion physique périodique du trafic due au feu de circulation détériore périodiquement la performance de la cellule. La première solution considérée consiste à améliorer l'allocation et le contrôle des ressources dans le contexte du réseau hétérogène LTE-Advanced. Une small cell est ensuite déployée à proximité du feu rouge pour diminuer la congestion périodique et la dégradation de la qualité de service. Trois systèmes d'allocation et de contrôle des ressources sont étudiés: une réutilisation de fréquence complète, un algorithme de division de fréquence statique et dynamique qui sont optimisés par rapport à une utilité alpha -fair basé sur les débits reçus. En outre, il est montré que le système de commande dynamique est particulièrement intéressant pour le trafic non stationnaire comme celui introduit par un feu de circulation périodique. Par souci de réduction des coûts financiers et énergétiques, et de suivi d'utilisateurs mobiles, une autre solution est fournie en utilisant un nouveau réseau d'antennes afin de gérer efficacement le trafic hétérogène, fixe et mobile. On considère trois technologies différentes de réseau d'antennes permettant de décharger les zones de congestion ainsi que la congestion mobile dynamique: Virtual Small Cell (VSC), petite cellule virtuelle avec réseau auto-organisateur (VSC-SON) et rayons focalisant avec un multiniveau global codebook qui gère le système d'antenne hétérogène à la station de base. Les deux premières technologies améliorent la performance de la cellule en raison de leur capacité de focaliser le signal à la concentration du trafic au niveau de la congestion physique. La nouvelle solution de faisceaux focalisants avec le global codebook améliore de manière significative les performances en raison de la capacité de focaliser le signal le long de la route et d'équilibrer implicitement le trafic entre les différentes antennes. Nous comparons toutes ces technologies et leur impact sur les performances du réseau. La question de la sélection d'un utilisateur pour lui allouer une partie (en temps ou en bande passante) de la ressource disponible est étudiée. Le contexte de la gestion des ressources et de la performance du réseau dans la mobilité est un des défis futurs pour la 5G. Grâce à la technologie MDT, les réseaux peuvent avoir une idée, ou plus précisément une moyenne du SINR grâce à la GLM. Nous introduisons le concept de Forecast Scheduling pour les utilisateurs en mobilité à vitesse élevée. On suppose que la REM peut fournir des valeurs interpolées du SINR le long des trajectoires des utilisateurs. / The technology evolution of Radio Access Network (RAN) in the context of 5th Generation (5G) is not only guided by improving the network performance but also by the need to transform all the technologies into intelligent dynamic ones. The new 5G is a flexible technology that will be able to satisfy at the same time each user of any type of mobility (static or mobile) or service request (real and non-real time service) without modifying any models or algorithms in networks. All physical use cases will be able to be considered by the network intelligently and resource managed automatically. The objective of this thesis is to analyse and enhance radio performance taking into account vehicular mobility by managing dynamically and intelligently the available resources. To this end, we describe different users mobility models for discrete and continuous modeling. The discrete model using the well-known car following model is well adapted for simulations. The continuous one is useful to derive analytical key performance indicators (KPI). The novelty of the thesis is the analytical formulation of KPIs that take into account the physical mobility in the radio traffic which is not necessary stationary. As an example, the impact of a traffic light on performance indicators in a cell is investigated. It is shown that a periodical physical traffic congestion due to the traffic light deteriorate periodically the cell performance. A first given solution is to improve resource allocation and control in the context of LTE-Advanced heterogeneous network. A small cell is deployed near the traffic light to relieve periodic congestion and QoS degradation. Three resource allocation and control schemes are investigated: a full frequency reuse, a static and a dynamic frequency splitting algorithm that are optimized with respect to a throughput based alpha-fair utility. For sake of financial and energy costs decreasing, another solution is provided using new antenna array technologies in order to manage efficiently heterogeneous, fixed and mobile traffic. A heterogeneous antenna system with different large antenna array technologies is considered to ooad static congestion areas and also the dynamical mobile congestion: Virtual Small Cell (VSC), virtual small cell with Self-Organizing Network (VSC-SON) and beamforming with multilevel global codebook that manages the heterogeneous antenna system at the Base Station (BS). The first two technologies improve the cell performance due to the capability to focus the signal at the traffic concentration. The novel beamforming solution with global codebook can further and significantly improve performance due to the capability to focus the signal along the road and to implicitly balance the traffic between the different antennas. We compare all these technologies and their impact on the network performance. The issue of user selection to allocate a portion (in time or in bandwidth) of the available resource is also analyzed. Moreover the context of resource management and network performance for 5G in high mobility is one of the future challenges. Thanks to the Minimization of Drive Testing (MDT) technology, networks can have Signal to Interference plus Noise Ratio (SINR) information with Geo-Localized Measurements (GLM).We introduce the concept of Forecast Scheduler for users in high mobility. It is assumed that a Radio Environment Map (REM) can provide interpolated SINR values along the user trajectories. Mobile users experience in their trajectories different mean SINR values. In mobile networks, schedulers exploit channel quality variation by giving the signal to the user experiencing best channel conditions while remaining fair. Nevertheless, we cannot record data rates of users with high mobility due to a very small time coherence. The Forecast Scheduling will exploit the SINR variation during users' trajectories.
98

Utilisation du taux d'erreur binaire pour améliorer la qualité de service dans les réseaux ad hoc / Using bit error rate to improve quality of service in ad hoc networks

Yélémou, Tiguiane 18 December 2012 (has links)
Dans les réseaux sans fil ad hoc, les liens de communication sont sujets à un taux d'erreurimportant. Dans ce contexte, le routage joue un rôle stratégique pour augmenter les performancesdans les transmissions. Dans nos études, par une approche cross-layer, nous prenons en compte lafiabilité des liens dans le choix des routes. Pour cela, dans un premier temps, nous construisonsdeux nouvelles métriques, l'une basée sur le taux d'erreur binaire (au niveau couche physique) etl'autre, plus adaptée à la mesure, sur le nombre de retransmissions (au niveau couche MAC).Ensuite, pour exploiter ces métriques lors du calcul de routes, nous adaptons les algorithmes à labase des protocoles de routage.Les trois familles de protocoles de routage ont été traitées : les protocoles pro-actifs où chaquenoeud a une vision globale du réseau grâce aux échanges périodiques de messages de contrôle detopologie ; les protocoles réactifs où, avant de commencer ses transmissions de données, chaquenoeud doit initier un processus de recherche de route ; les protocoles hybrides qui mixent les deuxapproches.Pour tester l'effectivité de nos améliorations, nous utilisons le simulateur NS2 enrichi par unmodèle de propagation et un modèle de mobilité réalistes. Les paramètres de performance tels quele délai, le taux de livraison de paquets et la charge de routage sont mesurés dans plusieursscénarios représentatifs des conditions d'utilisation. Les résultats obtenus montrent une améliorationsignificative des protocoles standards dans un contexte de qualité de service. / In ad hoc wireless networks, links are error-prone. In this context, routing plays a decisive role inimproving transmission performances. In our studies, by a cross-layer approach, we take intoaccount the reliability of links in route choice. For this, first, we concept two new metrics, onebased on bit error rate (at physical layer) and the other, more suitable for the measurement, onnumber of retransmissions (at MAC layer). Then, to exploit these metrics when determining routes,we adapt the algorithms based routing protocols.The three families of routing protocols have been addressed: proactive protocols where eachnode has a global view of the network through periodic exchanges of topology control messages;reactive protocols where, before starting data transmission, each node must initiate a routediscovery process; hybrid protocols which mix the two approaches.To test the effectiveness of our enhancements, we use the simulator NS.2 enhanced by arealistic propagation model and a realistic mobility model. Performance parameters such as delay,packets delivery ratio and routing load are measured in several scenarios including mobility andmulti-communication. The results show a significant improvement of standard protocols in thequality of service context.
99

Qualité de service et calcul de chemins dans les réseaux inter-domaine et multicouches / Quality of service and path computation in inter-domain and multi-layer networks

Lamali, Mohamed Lamine 26 September 2014 (has links)
La Qualité de Service (Quality of Service - QoS) est une garantie de paramètres réseau (bande passante élevée, délai court, etc.). Dans un réseaux inter-domaine, elle peut être assurée par des contrats entre domaines appelés Service Level Agreements (SLA). Dans cette thèse, nous nous intéressons d’abord à l’étape de négociation de SLA : la sélection des SLA proposés par un domaine. Nous proposons des méthodes exactes et approchées permettant aux domaines de proposer les SLA qui maximisent leurs revenus. Nous étudions également l'impact de la réputation des domaines sur cette négociation. Au niveau de l’instanciation des SLA, nous nous intéressons au calcul de chemins qui prennent en compte les encapsulations de protocoles (afin de pallier l’hétérogénéité technologique des domaines). En utilisant des outils de théorie des langages, nous proposons la première solution polynomiale au calcul de chemins dans un tel contexte / Quality of Service (QoS) is a guarantee of network parameters (high bandwidth, short delay, etc.). In an inter-domaine network, it can be provided by contracts between domains, called Service Level Agreements (SLAs). In this thesis, we first focus on the SLA negotiation step, i.e., the selection of SLAs proposed by a domain. We provide exact and approximate methods that allow the domains to propose the SLAs that maximize their revenues. We also study the impact of the domain reputation on the negotiation process. Regarding the SLA instantiation step, we focus on path computation processes that take into account the encapsulation of protocols (in order to overcome the domain technological heterogeneity). Using tools from Language Theory, we provide the first polynomial solution to the path computation problem in this context.
100

Approche pour le développement de logiciels intégrant des concepts de qualité de service / A step-wise approach for integrating QoS throughout software development process

Geoffroy, Stéphanie 12 February 2014 (has links)
Dans les domaines critiques tels que l’avionique, le ferroviaire ou encore l’automobile, il faut, afin de pouvoir certifier un système, démontrer qu’il réalise la fonction pour laquelle il a été conçu, selon des exigences temporelles spécifiées. En effet, un rendu temporel trop long peut rendre des données erronées, et ainsi mettre en danger la sûreté des personnes. Aujourd’hui, la plupart des approches proposent d’assurer ces exigences de Qualité de service au niveau des couches basses, e.g., au travers d’une bande passante déterministe, d’allocation statique d’intervalles de temps, et d’un ordonnancement prédéfini. Ces contraintes assurent que les applications ne peuvent dépasser le temps d’exécution alloué ; les applications récupèrent de ce fait des exigences qui sont découplées de leur fonctionnalité. En revanche, il faut aussi pouvoir certifier des exigences temporelles spécifiques à une application. De là, les garanties au niveau des couches basses ne sont plus suffisantes. Il faudrait pouvoir prendre en compte ces exigences dès la phase de conception des applications. Aujourd’hui, la plupart des approches existant dans ce domaine se concentrent sur le support de QoS à des phases isolées du processus de développement logiciel, empêchant la traçabilité des exigences. Cette thèse propose une approche dirigée par la conception pour supporter les exigences de QoS tout au long du processus de développement logiciel, intégrée dans une méthodologie outillée, appelée DiaSuite. L’extension de QoS enrichit le langage de conception DiaSpec avec la capacité d’instancier les exigences de QoS sur les composants logiciels. Un support de surveillance à l’exécution de ces exigences temporelles est ensuite généré, directement à partir de la spécification. Cette thèse intègre uniformément les concepts temporels avec les concepts de gestion d’erreurs, au travers de la méthodologie DiaSuite, afin de proposer une couche de supervision qui puisse effectuer une reconfiguration applicative, dans le cas de violation de contrat de QoS. Les contributions de cette thèse sont évaluées au regard du respect des critères de cohérence et de conformité, illustrés au travers d’une étude de cas dans le domaine avionique. / In critical domains such as avionics, railways or automotive, to certify a system, it is required to demonstrate that it achieves its function, with respect to specified timing requirements. Indeed, longer-than-predicted function computing can make data erroneous, leading potentially to endanger people lives. Today, most approaches propose to ensure these Quality of Service requirements at platform level, e.g., through deterministic bandwidth, static time slots allocation and predefined scheduling. These constraints ensure applications can’t overpass allocated time slots; applications are then fed with requirements decoupled to their functionality. However, it shall be possible to certify timing requirements, dedicated to an application. Hence, guarantees at platform-level are not sufficient anymore. It should be possible to take into account these requirements from the stage of application design. Today, most of existing approaches in this domain, focus on supporting QoS at individual stages of the software development process, preventing requirements traceability. This thesis proposes a design-driven approach to supporting QoS throughout software development process, integrated in a tool-based methodology, namely DiaSuite. The QoS extension enriches the DiaSpec design language, with the capability to instantiate QoS requirements onto software components. A runtime execution support to monitoring these timing requirements, is then generated, directly from the specification. This thesis uniformly integrates timing concepts with error ones, around DiaSuite methodology, to propose a supervision layer that could lead to application reconfiguration in case of QoS contract violation. Contributions of this thesis are evaluated through respect of coherence and conformance critera, illustrated through a case study in avionics.

Page generated in 0.0847 seconds