• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • Tagged with
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Allocation de bande passante dans les grands réseaux stochastiques

Feuillet, Mathieu 12 July 2012 (has links) (PDF)
L'objectif de cette thèse est de traiter trois problèmes relatifs aux réseaux de grande taille. Les outils utilisés à cette fin sont issus des probabilités et plus spécifiquement de la théorie des files d'attente. En plus d'améliorer la compréhension des systèmes étudiés, les travaux réalisés dans cette thèse ont permis de prouver des résultats théoriques nouveaux ainsi que d'illustrer certains phénomènes probabilistes. Dans le Chapitre II, un modèle de réseau à partage de bande passante est étudié. Contrairement à ce qui avait été étudié dans la littérature, les utilisateurs n'utilisent pas de contrôle de congestion. On suppose qu'ils envoient des données avec un débit maximum et protègent leur transmission à l'aide d'un mécanisme basé sur des codes correcteurs d'erreur. Le modèle obtenu est analysé pour deux topologies de réseaux spécifiques : les réseaux linéaires et les arbres montants. A l'aide de limites fluides, les conditions de stabilité de ces réseaux sont établies. Ces limites fluides donnent lieu à un phénomène intéressant de moyennage stochastique. Ensuite, une autre méthode de renormalisation est utilisée pour prouver que la région de stabilité de ces processus converge vers la région optimale lorsque que les débits maximaux des utilisateurs deviennent infiniment petits par rapport à la taille des liens du réseau. Dans le Chapitre III, on se propose d'étudier CSMA/CA, un algorithme d'accès implémenté dans certains standards de réseaux sans fil. Chaque lien est constitué d'un émetteur et d'un récepteur et un graphe d'interférence modélise les collisions potentielles entre les liens. Les arrivées et les départs de ces derniers sont prises en compte. Une approximation est faite en supposant que la dynamique d'accès au canal est infiniment plus rapide que la dynamique des arrivées et départs de liens. Il est alors établi que le CSMA permet une utilisation optimale des ressources radio dans le cadre des réseaux ad-hoc. Cependant, il est également prouvé que ce même algorithme n'est pas efficace pour les réseaux avec une station de base ; dans ce cas, un biais en faveur des transmissions vers la station de base est observé. A la fin du chapitre, l'hypothèse simplificatrice est discutée. Les deux derniers chapitres de la thèse sont consacrés à l'étude d'un grand système distribué de stockage de données avec pertes. L'objectif est d'estimer la vitesse de perte des fichiers ou la durée de vie d'un fichier donné. Dans le Chapitre IV, c'est le premier point de vue qui est adopté. Le système est considéré de manière globale. Le système est constitué d'un grand nombre de fichiers qui peuvent avoir chacun deux copies au maximum. Chaque copie disparaît au bout d'un temps aléatoire. Un mécanisme centralisé de sauvegarde permet alors de restaurer les copies perdues. Un fichier dont les deux copies ont été détruites est définitivement perdu. Le système est étudié dans le cas limite où le nombre de fichiers tend vers l'infini. Afin de décrire correctement le système, trois échelles de temps différentes sont étudiées. Ralentir le temps permet de comprendre le mécanisme de sauvegarde ; laisser le temps inchangé permet de définir la capacité du système ; accélérer le temps permet d'évaluer la vitesse de perte des fichiers. Le principe de moyennage stochastique est également observé à l'échelle de temps la plus rapide. Dans le chapitre V, le point de vue d'un fichier donné est adopté. Des liens sont établis avec les modèles classiques d'Ehrenfest, issu de la physique statistique, et d'Erlang, issu des télécommunications. Des méthodes basées sur les martingales sont utilisées pour calculer la transformée de Laplace des temps d'atteinte de ces deux processus. Ces transformées permettent alors d'estimer le comportement asymptotique de ces temps d'atteinte et notamment le temps de disparition d'un fichier.
2

Stochastic models for resource allocation in large distributed systems / Modèles stochastiques pour l'allocation des ressources dans les grands systèmes distribués

Thompson, Guilherme 08 December 2017 (has links)
Cette thèse traite de quatre problèmes dans le contexte des grands systèmes distribués. Ce travail est motivé par les questions soulevées par l'expansion du Cloud Computing et des technologies associées. Le présent travail étudie l'efficacité de différents algorithmes d'allocation de ressources dans ce cadre. Les méthodes utilisées impliquent une analyse mathématique de plusieurs modèles stochastiques associés à ces réseaux. Le chapitre 1 fournit une introduction au sujet, ainsi qu'une présentation des principaux outils mathématiques utilisés dans les chapitres suivants. Le chapitre 2 présente un mécanisme de contrôle de congestion dans les services de Video on Demand fournissant des fichiers encodés dans diverses résolutions. On propose une politique selon laquelle le serveur ne livre la vidéo qu'à un débit minimal lorsque le taux d'occupation du serveur est supérieur à un certain seuil. La performance du système dans le cadre de cette politique est ensuite évaluée en fonction des taux de rejet et de dégradation. Les chapitres 3, 4 et 5 explorent les problèmes liés aux schémas de coopération entre centres de données (CD) situés à la périphérie du réseau. Dans le premier cas, on analyse une politique dans le contexte des services de cloud multi-ressources. Dans le second cas, les demandes arrivant à un CD encombré sont transmises à un CD voisin avec une probabilité donnée. Au troisième, les requêtes bloquées dans un CD sont transmises systématiquement à une autre où une politique de réservation (trunk) est introduite tel qu'une requête redirigée est acceptée seulement s'il y a un certain nombre minimum de serveurs libres dans ce CD. / This PhD thesis investigates four problems in the context of Large Distributed Systems. This work is motivated by the questions arising with the expansion of Cloud Computing and related technologies. The present work investigates the efficiency of different resource allocation algorithms in this framework. The methods used involve a mathematical analysis of several stochastic models associated to these networks. Chapter 1 provides an introduction to the subject in general, as well as a presentation of the main mathematical tools used throughout the subsequent chapters. Chapter 2 presents a congestion control mechanism in Video on Demand services delivering files encoded in various resolutions. We propose a policy under which the server delivers the video only at minimal bit rate when the occupancy rate of the server is above a certain threshold. The performance of the system under this policy is then evaluated based on both the rejection and degradation rates. Chapters 3, 4 and 5 explore problems related to cooperation schemes between data centres on the edge of the network. In the first setting, we analyse a policy in the context of multi-resource cloud services. In second case, requests that arrive at a congested data centre are forwarded to a neighbouring data centre with some given probability. In the third case, requests blocked at one data centre are forwarded systematically to another where a trunk reservation policy is introduced such that a redirected request is accepted only if there are a certain minimum number of free servers at this data centre.

Page generated in 0.0658 seconds