• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 6
  • 1
  • Tagged with
  • 18
  • 18
  • 18
  • 12
  • 6
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Interpolation approximations for steady-state performance measures / Interpolation des mesures de performance à l'état stationnaire

Izagirre, Ane 21 September 2015 (has links)
L'analyse de la performance à l'état stationnaire dans de nombreux systèmes de files d'attente est complexe et les résultats sous forme explicite ne sont disponibles que dans des cas particuliers. Nous avons donc développé des approximations pour des critères de performance importants à l'état stationnaire tels que la longueur de la file d'attente, le temps d'attente et le temps de traitement total. Nous analysons d'abord la performance dans des cas à faible et fort trafic. Nous montrons ensuite comment développer une approximation basée sur une interpolation qui est valable pour n'importe quelle condition de trafic. Un avantage de l'approche proposée est qu'elle n'est pas dépendante d’un modèle particulier et donc elle peut être appliquée à d'autres modèles de files d'attente complexes. Nous appliquons cette technique pour trois modèles largement utilisés dans l'évaluation des performances des réseaux stochastiques : le modèle du supermarché, la file d'attente Discriminatory-Processor-Sharing (DPS) et la file d'attente Relative Priority (RP). Le modèle du supermarché est une file d'attente à plusieurs serveurs où lorsqu’un client arrive, deux serveurs sont choisis au hasard dans un ensemble de serveurs. La politique Join-the-Shortest-Queue (JSQ) est ensuite utilisée parmi les deux serveurs sélectionnés. DPS et RP sont deux files d'attente à plusieurs classes et à serveur unique mettant en œuvre des priorités relatives entre les clients des différentes classes. La discipline DPS sert tous les clients simultanément, tandis que RP sert un seul client à la fois de manière non-préemptive. Nous montrons que dans certains cas, l'interpolation est exacte. Nous utilisons ensuite cette approximation pour déduire comment la performance dépend des paramètres des modèles, et nous effectuons des expériences numériques illustrant la précision de l'interpolation dans un grand nombre de cas de figure / The analysis of the steady-state performance in many queuing systems is complex and closed-form results are available only in particular cases. We therefore set out to develop approximations for important performance measures in steady-state such as the queue length vector, waiting time and sojourn time. We first analyse the performance in a light-traffic and heavy-traffic regime. We then show how to develop an interpolation-based approximation that is valid for any load in the system. An advantage of the approach taken is that it is not model dependent and hence could potentially be applied to other complex queuing models. We apply this technique to three widely used models in the performance evaluation of stochastic networks: The supermarket model, the Discriminatory-Processor-Sharing (DPS) queue and the Relative Priority (RP) queue. The supermarket model is a multi-server queue where upon arrival of a customer two servers are selected at random from the available pool of servers. The Join-the-Shortest-Queue policy is then used in isolation with these two servers. DPS and RP are both single-server multi-class queues that implement relative priorities among customers of the various classes. The DPS discipline serves all customers simultaneously while RP serves one customer at a time in a non-preemptive way. We show that in some instances the interpolation approximation is exact. We then use the approximation to draw structural insights onto the performance of the system, and we carry out numerical experiments that illustrate that the interpolation approximation is accurate over a wide range of parameters
2

MAC protocols design and a cross-layered QoS framework for next generation wireless networks

Sabir, Essaïd 24 September 2010 (has links) (PDF)
Ce manuscrit est centré sur la conception, l'amélioration et l'évaluation des protocoles des couches RESEAU, MAC et PHY. En particulier, nous nous focalisons sur la conception de nouveaux protocoles distribués pour une utilisation optimale/améliorée des ressources radio disponibles. Par ailleurs, nous caractérisons les performances des réseaux ad hoc à accès aléatoire au canal en utilisant des paramètres de plusieurs couches avec aptitude de transfert d'information (data forwarding). La majeure partie de nos analyses se base sur le concept d'interaction entre les couches OSI (cross-layer). En effet, cette nouvelle et attractive approche est devenue en peu de temps omniprésente dans le domaine de recherche et développement et dans le domaine industriel. Les métriques de performances qui nous intéressent sont la stabilité des files d'attentes de transfert, le débit, le délai et la consommation d'énergie. Principalement, la compréhension de l'interaction entre les couches MAC/PHY et routage du standard IEEE 802.11e DCF/EDCF, d'une part, et l'interaction entre noeuds en terme d'interférences, d'autre part, constituent le coeur central de notre travail
3

Modèles stochastiques pour les réseaux ad hoc mobiles

Groenevelt, Robin 07 April 2005 (has links) (PDF)
Dans la première partie de cette thèse nous étudions la mobilité et le temps de transfert d'un message dans les réseaux ad hoc mobiles. Nous obtenons, pour plusieurs modèles de mobilité, la loi stationnaire de la position des noeuds, la distribution du temps nécessaire avant que deux noeuds puissent (à nouveau) communiquer, et le temps durant lequel deux noeuds sont dans leur voisinage mutuel. Nous déduisons de ces résultats des formules pour le temps de transfert d'un message en utilisant d'autres noeuds dans le réseau comme relais. Ces calculs sont effectués pour plusieurs modèles de mobilité et pour deux types de protocoles de routage.La deuxième partie de cette thèse traite d'un système à " Polling " qui consiste en deux files d'attente servies par un serveur. Après avoir servi une file d'attente, le serveur a besoin d'un temps de commutation pour passer d'une file à l'autre, et commencer à servir les clients. Les temps de commutation peuvent être corrélés. Nous obtenons l'expression de plusieurs mesures de performance, notamment le temps d'attente moyen et la taille moyenne de la file d'attente. Grâce à ces expressions, nous comparons deux disciplines de service et au travers d'exemples nous montrons que la corrélation des temps de commutation peut augmenter significativement le temps d'attente moyen et la taille des files d'attente. Cela indique que la corrélation ne peut pas être ignorée et qu'elle a des implications importantes pour des systèmes de communication dans lesquels un canal de communication commun est partagé entre plusieurs utilisateurs et où le temps entre des transferts de données consécutifs est corrélé (par exemple dans les réseaux ad hoc).Dans la troisième et dernière partie nous étudions deux files d'attente en série avec des coûts pour chaque client dans le système. La fonction de valeur est calculée pour le coût moyen quand il n'y a pas d'entrée des clients. Celle-ci peut être utilisée pour l'optimisation des systèmes en série ou pour le calcul complet de la fonction de valeur.
4

Politiques d'approvisionnement dans les systèmes à plusieurs fournisseurs et optimisation des décisions dans les chaînes logistiques décentralisées

Arda, Yosemin 14 January 2008 (has links) (PDF)
La coordination des flux physiques au sein des chaînes logistiques est une tâche difficile à cause du caractère aléatoire des variations dues au marché et aux partenaires commerciaux et des antagonismes existants entre les objectifs économiques des partenaires. Les travaux développés dans cette thèse s'intègrent dans le cadre de pilotage de flux inter-organisationnelle dans les chaînes logistiques. Nous analysons deux approches ayant le but d'améliorer les performances des systèmes de production/stockage pilotés par des politiques de pilotage flux du type stock nominal. Dans la première approche, nous étudions les effets des stratégies multi-fournisseurs sur les performances des chaînes logistiques. Nous montrons que le délai moyen d'approvisionnement et les coûts moyens de stockage et de rupture de stock peuvent être réduits en optant pour une stratégie multi-fournisseurs. Dans la deuxième approche, nous analysons la dégradation de performances due à la décentralisation des décisions dans une chaîne logistique à deux niveaux en définissant un jeu de Stackelberg entre les partenaires. Nous proposons un contrat de coordination et montrons que le contrat proposé ramène les performances du système décentralisé vers les performances optimales du système centralisé.
5

Stochastic models for resource allocation in large distributed systems / Modèles stochastiques pour l'allocation des ressources dans les grands systèmes distribués

Thompson, Guilherme 08 December 2017 (has links)
Cette thèse traite de quatre problèmes dans le contexte des grands systèmes distribués. Ce travail est motivé par les questions soulevées par l'expansion du Cloud Computing et des technologies associées. Le présent travail étudie l'efficacité de différents algorithmes d'allocation de ressources dans ce cadre. Les méthodes utilisées impliquent une analyse mathématique de plusieurs modèles stochastiques associés à ces réseaux. Le chapitre 1 fournit une introduction au sujet, ainsi qu'une présentation des principaux outils mathématiques utilisés dans les chapitres suivants. Le chapitre 2 présente un mécanisme de contrôle de congestion dans les services de Video on Demand fournissant des fichiers encodés dans diverses résolutions. On propose une politique selon laquelle le serveur ne livre la vidéo qu'à un débit minimal lorsque le taux d'occupation du serveur est supérieur à un certain seuil. La performance du système dans le cadre de cette politique est ensuite évaluée en fonction des taux de rejet et de dégradation. Les chapitres 3, 4 et 5 explorent les problèmes liés aux schémas de coopération entre centres de données (CD) situés à la périphérie du réseau. Dans le premier cas, on analyse une politique dans le contexte des services de cloud multi-ressources. Dans le second cas, les demandes arrivant à un CD encombré sont transmises à un CD voisin avec une probabilité donnée. Au troisième, les requêtes bloquées dans un CD sont transmises systématiquement à une autre où une politique de réservation (trunk) est introduite tel qu'une requête redirigée est acceptée seulement s'il y a un certain nombre minimum de serveurs libres dans ce CD. / This PhD thesis investigates four problems in the context of Large Distributed Systems. This work is motivated by the questions arising with the expansion of Cloud Computing and related technologies. The present work investigates the efficiency of different resource allocation algorithms in this framework. The methods used involve a mathematical analysis of several stochastic models associated to these networks. Chapter 1 provides an introduction to the subject in general, as well as a presentation of the main mathematical tools used throughout the subsequent chapters. Chapter 2 presents a congestion control mechanism in Video on Demand services delivering files encoded in various resolutions. We propose a policy under which the server delivers the video only at minimal bit rate when the occupancy rate of the server is above a certain threshold. The performance of the system under this policy is then evaluated based on both the rejection and degradation rates. Chapters 3, 4 and 5 explore problems related to cooperation schemes between data centres on the edge of the network. In the first setting, we analyse a policy in the context of multi-resource cloud services. In second case, requests that arrive at a congested data centre are forwarded to a neighbouring data centre with some given probability. In the third case, requests blocked at one data centre are forwarded systematically to another where a trunk reservation policy is introduced such that a redirected request is accepted only if there are a certain minimum number of free servers at this data centre.
6

Physique statistique des phénomènes de blocage dans les flux particulaires / Statistical physics of blocking phenomena in particulate flows

Barré, Chloé 26 September 2017 (has links)
L'objectif de cette thèse porte sur l'étude des phénomènes de blocage dans un flux particules à faible densité dans un canal. Le blocage est induit par la géométrie du canal. L'essentiel de mes travaux concerne la description des situations où le blocage est contrôlé par les limites en capacité d'un canal. Le paramètre pertinent pour ce phénomène est donné par le nombre de particules minimum, N, conduisant à l'interruption du flux de particules. Un modèle stochastique simple introduit par Gabrielli et al. (PRL. 110, 170601, 2013) illustre ce comportement: des particules arrivent aléatoirement selon une distribution de Poisson à l'entrée d'un canal unidimensionnel et le traversent avec un temps constant, noté t. Le blocage survient lorsque N particules sont simultanément sur le pont. Le travail de cette thèse à été d'étudier les extensions de ce modèle. Les observables du système sont la probabilité de survie, le flux sortant ainsi que la statistique sur les particules sorties avant le blocage. Les différentes études ont permis pour le cas N>2, pour une distribution homogène quelconque et inhomogène d'entrée, pour un système de multi-canaux ainsi que pour une durée finie de blocage d'obtenir des résultats analytiques exactes ainsi que des approximations à l'aide d'outils statistique. Le dernier projet de cette thèse porte sur l'étude microscopique des phénomènes de blocage. Le modèle simple que nous avons étudié est un système bidimensionnel de particules browniennes soumis à une force de traînée et se déplaçant dans un canal avec rétrécissement. La présence d'un obstacle au milieu du canal peut causer un colmatage selon les valeurs des différents paramètres du système. / This manuscript presents a study of blocking phenomenon in particulate streams flowing through anarrow channel. In particular, it examines situations in which blocking is controlled by the limitedcarrying capacity of the channel. It builds on a simple stochastic model, introduced by Gabrielli etal. (Phys. Rev. Lett. 110, 170601, 2013), in which particles arrive randomly according to a Poissondistribution at the entrance of a one-dimensional channel with an intensity λ and, unless interrupted,exit after a transit time, τ. Blocking occurs instantaneously when N=2 particles are simultaneouslypresent in the channel. The quantities of interest include the probability that the channel is still openat time t (survival probability) and the flux and total number of exiting particles. The thesisexamines a number of generalizations including when more than two particles must be present toinduce blockage, N>2, a time dependent intensity, a finite blocking time, and multi-channelsystems. We obtain exact and approximate analytical results using tools such as the masterequations describing the evolution of the n-particle partial probabilities, large deviation theory andqueuing theory. The theoretical results are validated by comparison with the results of numericalsimulations. The final chapter of the thesis uses a different approach, namely a brownian dynamics simulation of a two dimensional system of soft particles subjected to an external driving and dragforces. The presence of an obstacle in the middle of the channel can cause irreversible orintermittent clogging depending on the system geometry, temperature and particle stiffness.
7

Resource management in computer clusters : algorithm design and performance analysis / Gestion des ressources dans les grappes d’ordinateurs : conception d'algorithmes et analyse de performance

Comte, Céline 24 September 2019 (has links)
La demande croissante pour les services de cloud computing encourage les opérateurs à optimiser l’utilisation des ressources dans les grappes d’ordinateurs. Cela motive le développement de nouvelles technologies qui rendent plus flexible la gestion des ressources. Cependant, exploiter cette flexibilité pour réduire le nombre d’ordinateurs nécessite aussi des algorithmes de gestion des ressources efficaces et dont la performance est prédictible sous une demande stochastique. Dans cette thèse, nous concevons et analysons de tels algorithmes en utilisant le formalisme de la théorie des files d’attente.Notre abstraction du problème est une file multi-serveur avec plusieurs classes de clients. Les capacités des serveurs sont hétérogènes et les clients de chaque classe entrent dans la file selon un processus de Poisson indépendant. Chaque client peut être traité en parallèle par plusieurs serveurs, selon des contraintes de compatibilité décrites par un graphe biparti entre les classes et les serveurs, et chaque serveur applique la politique premier arrivé, premier servi aux clients qui lui sont affectés. Nous prouvons que, si la demande de service de chaque client suit une loi exponentielle indépendante de moyenne unitaire, alors la performance moyenne sous cette politique simple est la même que sous l’équité équilibrée, une extension de processor-sharing connue pour son insensibilité à la loi de la demande de service. Une forme plus générale de ce résultat, reliant les files order-independent aux réseaux de Whittle, est aussi prouvée. Enfin, nous développons de nouvelles formules pour calculer des métriques de performance.Ces résultats théoriques sont ensuite mis en pratique. Nous commençons par proposer un algorithme d’ordonnancement qui étend le principe de round-robin à une grappe où chaque requête est affectée à un groupe d’ordinateurs par lesquels elle peut ensuite être traitée en parallèle. Notre seconde proposition est un algorithme de répartition de charge à base de jetons pour des grappes où les requêtes ont des contraintes d’affectation. Ces deux algorithmes sont approximativement insensibles à la loi de la taille des requêtes et s’adaptent dynamiquement à la demande. Leur performance peut être prédite en appliquant les formules obtenues pour la file multi-serveur. / The growing demand for cloud-based services encourages operators to maximize resource efficiency within computer clusters. This motivates the development of new technologies that make resource management more flexible. However, exploiting this flexibility to reduce the number of computers also requires efficient resource-management algorithms that have a predictable performance under stochastic demand. In this thesis, we design and analyze such algorithms using the framework of queueing theory.Our abstraction of the problem is a multi-server queue with several customer classes. Servers have heterogeneous capacities and the customers of each class enter the queue according to an independent Poisson process. Each customer can be processed in parallel by several servers, depending on compatibility constraints described by a bipartite graph between classes and servers, and each server applies first-come-first-served policy to its compatible customers. We first prove that, if the service requirements are independent and exponentially distributed with unit mean, this simple policy yields the same average performance as balanced fairness, an extension to processor-sharing known to be insensitive to the distribution of the service requirements. A more general form of this result, relating order-independent queues to Whittle networks, is also proved. Lastly, we derive new formulas to compute performance metrics.These theoretical results are then put into practice. We first propose a scheduling algorithm that extends the principle of round-robin to a cluster where each incoming job is assigned to a pool of computers by which it can subsequently be processed in parallel. Our second proposal is a load-balancing algorithm based on tokens for clusters where jobs have assignment constraints. Both algorithms are approximately insensitive to the job size distribution and adapt dynamically to demand. Their performance can be predicted by applying the formulas derived for the multi-server queue.
8

Resource management in computer clusters : algorithm design and performance analysis / Gestion des ressources dans les grappes d’ordinateurs : conception d'algorithmes et analyse de performance

Comte, Céline 24 September 2019 (has links)
La demande croissante pour les services de cloud computing encourage les opérateurs à optimiser l’utilisation des ressources dans les grappes d’ordinateurs. Cela motive le développement de nouvelles technologies qui rendent plus flexible la gestion des ressources. Cependant, exploiter cette flexibilité pour réduire le nombre d’ordinateurs nécessite aussi des algorithmes de gestion des ressources efficaces et dont la performance est prédictible sous une demande stochastique. Dans cette thèse, nous concevons et analysons de tels algorithmes en utilisant le formalisme de la théorie des files d’attente.Notre abstraction du problème est une file multi-serveur avec plusieurs classes de clients. Les capacités des serveurs sont hétérogènes et les clients de chaque classe entrent dans la file selon un processus de Poisson indépendant. Chaque client peut être traité en parallèle par plusieurs serveurs, selon des contraintes de compatibilité décrites par un graphe biparti entre les classes et les serveurs, et chaque serveur applique la politique premier arrivé, premier servi aux clients qui lui sont affectés. Nous prouvons que, si la demande de service de chaque client suit une loi exponentielle indépendante de moyenne unitaire, alors la performance moyenne sous cette politique simple est la même que sous l’équité équilibrée, une extension de processor-sharing connue pour son insensibilité à la loi de la demande de service. Une forme plus générale de ce résultat, reliant les files order-independent aux réseaux de Whittle, est aussi prouvée. Enfin, nous développons de nouvelles formules pour calculer des métriques de performance.Ces résultats théoriques sont ensuite mis en pratique. Nous commençons par proposer un algorithme d’ordonnancement qui étend le principe de round-robin à une grappe où chaque requête est affectée à un groupe d’ordinateurs par lesquels elle peut ensuite être traitée en parallèle. Notre seconde proposition est un algorithme de répartition de charge à base de jetons pour des grappes où les requêtes ont des contraintes d’affectation. Ces deux algorithmes sont approximativement insensibles à la loi de la taille des requêtes et s’adaptent dynamiquement à la demande. Leur performance peut être prédite en appliquant les formules obtenues pour la file multi-serveur. / The growing demand for cloud-based services encourages operators to maximize resource efficiency within computer clusters. This motivates the development of new technologies that make resource management more flexible. However, exploiting this flexibility to reduce the number of computers also requires efficient resource-management algorithms that have a predictable performance under stochastic demand. In this thesis, we design and analyze such algorithms using the framework of queueing theory.Our abstraction of the problem is a multi-server queue with several customer classes. Servers have heterogeneous capacities and the customers of each class enter the queue according to an independent Poisson process. Each customer can be processed in parallel by several servers, depending on compatibility constraints described by a bipartite graph between classes and servers, and each server applies first-come-first-served policy to its compatible customers. We first prove that, if the service requirements are independent and exponentially distributed with unit mean, this simple policy yields the same average performance as balanced fairness, an extension to processor-sharing known to be insensitive to the distribution of the service requirements. A more general form of this result, relating order-independent queues to Whittle networks, is also proved. Lastly, we derive new formulas to compute performance metrics.These theoretical results are then put into practice. We first propose a scheduling algorithm that extends the principle of round-robin to a cluster where each incoming job is assigned to a pool of computers by which it can subsequently be processed in parallel. Our second proposal is a load-balancing algorithm based on tokens for clusters where jobs have assignment constraints. Both algorithms are approximately insensitive to the job size distribution and adapt dynamically to demand. Their performance can be predicted by applying the formulas derived for the multi-server queue.
9

Resource management in computer clusters : algorithm design and performance analysis / Gestion des ressources dans les grappes d’ordinateurs : conception d'algorithmes et analyse de performance

Comte, Céline 24 September 2019 (has links)
La demande croissante pour les services de cloud computing encourage les opérateurs à optimiser l’utilisation des ressources dans les grappes d’ordinateurs. Cela motive le développement de nouvelles technologies qui rendent plus flexible la gestion des ressources. Cependant, exploiter cette flexibilité pour réduire le nombre d’ordinateurs nécessite aussi des algorithmes de gestion des ressources efficaces et dont la performance est prédictible sous une demande stochastique. Dans cette thèse, nous concevons et analysons de tels algorithmes en utilisant le formalisme de la théorie des files d’attente.Notre abstraction du problème est une file multi-serveur avec plusieurs classes de clients. Les capacités des serveurs sont hétérogènes et les clients de chaque classe entrent dans la file selon un processus de Poisson indépendant. Chaque client peut être traité en parallèle par plusieurs serveurs, selon des contraintes de compatibilité décrites par un graphe biparti entre les classes et les serveurs, et chaque serveur applique la politique premier arrivé, premier servi aux clients qui lui sont affectés. Nous prouvons que, si la demande de service de chaque client suit une loi exponentielle indépendante de moyenne unitaire, alors la performance moyenne sous cette politique simple est la même que sous l’équité équilibrée, une extension de processor-sharing connue pour son insensibilité à la loi de la demande de service. Une forme plus générale de ce résultat, reliant les files order-independent aux réseaux de Whittle, est aussi prouvée. Enfin, nous développons de nouvelles formules pour calculer des métriques de performance.Ces résultats théoriques sont ensuite mis en pratique. Nous commençons par proposer un algorithme d’ordonnancement qui étend le principe de round-robin à une grappe où chaque requête est affectée à un groupe d’ordinateurs par lesquels elle peut ensuite être traitée en parallèle. Notre seconde proposition est un algorithme de répartition de charge à base de jetons pour des grappes où les requêtes ont des contraintes d’affectation. Ces deux algorithmes sont approximativement insensibles à la loi de la taille des requêtes et s’adaptent dynamiquement à la demande. Leur performance peut être prédite en appliquant les formules obtenues pour la file multi-serveur. / The growing demand for cloud-based services encourages operators to maximize resource efficiency within computer clusters. This motivates the development of new technologies that make resource management more flexible. However, exploiting this flexibility to reduce the number of computers also requires efficient resource-management algorithms that have a predictable performance under stochastic demand. In this thesis, we design and analyze such algorithms using the framework of queueing theory.Our abstraction of the problem is a multi-server queue with several customer classes. Servers have heterogeneous capacities and the customers of each class enter the queue according to an independent Poisson process. Each customer can be processed in parallel by several servers, depending on compatibility constraints described by a bipartite graph between classes and servers, and each server applies first-come-first-served policy to its compatible customers. We first prove that, if the service requirements are independent and exponentially distributed with unit mean, this simple policy yields the same average performance as balanced fairness, an extension to processor-sharing known to be insensitive to the distribution of the service requirements. A more general form of this result, relating order-independent queues to Whittle networks, is also proved. Lastly, we derive new formulas to compute performance metrics.These theoretical results are then put into practice. We first propose a scheduling algorithm that extends the principle of round-robin to a cluster where each incoming job is assigned to a pool of computers by which it can subsequently be processed in parallel. Our second proposal is a load-balancing algorithm based on tokens for clusters where jobs have assignment constraints. Both algorithms are approximately insensitive to the job size distribution and adapt dynamically to demand. Their performance can be predicted by applying the formulas derived for the multi-server queue.
10

Dynamic control of stochastic and fluid resource-sharing systems / Contrôle dynamique des systèmes stochastiques et fluides de partage de ressources

Larrañaga, Maialen 25 September 2015 (has links)
Dans cette thèse, nous étudions le contrôle dynamique des systèmes de partage de ressources qui se posent dans divers domaines : réseaux de gestion des stocks, services de santé, réseaux de communication, etc. Nous visons à allouer efficacement les ressources disponibles entre des projets concurrents, selon certains critères de performance. Ce type de problème est de nature stochastique et peut être très complexe à résoudre. Nous nous concentrons donc sur le développement de méthodes heuristiques performantes. Dans la partie I, nous nous plaçons dans le cadre des Restless Bandit Problems, qui est une classe générale de problèmes d’optimisation dynamique stochastique. Relaxer la contrainte de trajectoire dans le problème d’optimisation permet de définir une politique d’index comme heuristique pour le modèle contraint d’origine, aussi appelée politique d’index de Whittle. Nous dérivons une expression analytique pour l’index de Whittle en fonction des probabilités stationnaires de l’état dans le cas où les bandits (ou projets) suivent un processus de naissance et de mort. D’une part, cette expression nécessite la vérification de plusieurs conditions techniques, d’autre part elle ne peut être calculée explicitement que dans certains cas spécifiques. Nous prouvons ensuite, que dans le cas particulier d’une file d’attente multi-classe avec abandon, la politique d’index de Whittle est asymptotiquement optimale aussi bien pour les régimes à faible trafic comme pour ceux à fort trafic. Dans la partie II, nous dérivons des heuristiques issues de l’approximation des systèmes stochastiques de partage de ressources par des modèles fluides déterministes. Nous formulons dans un premier temps une version fluide du problème d’optimisation relaxé que nous avons introduit dans la partie I, et développons une politique d’index fluide. L’index fluide peut toujours être calculé explicitement et surmonte donc les questions techniques qui se posent lors du calcul de l’index de Whittle. Nous appliquons les politiques d’index de Whittle et de l’index fluide à plusieurs cas : les fermes de serveurs éco-conscients, l’ordonnancement opportuniste dans les systèmes sans fil, et la gestion de stockage de produits périssables. Nous montrons numériquement que ces politiques d’index sont presque optimales. Dans un second temps, nous étudions l’ordonnancement optimal de la version fluide d’une file d’attente multi-classe avec abandon. Nous obtenons le contrôle optimal du modèle fluide en présence de deux classes de clients en concurrence pour une même ressource. En nous appuyant sur ces derniers résultats, nous proposons une heuristique pour le cas général de plusieurs classes. Cette heuristique montre une performance quasi-optimale lorsqu’elle est appliquée au modèle stochastique original pour des charges de travail élevées. Enfin, dans la partie III, nous étudions les phénomènes d’abandon dans le contexte d’un problème de distribution de contenu. Nous caractérisons une politique optimale de regroupement afin que des demandes issues d’utilisateurs impatients puissent être servies efficacement en mode diffusion. / In this thesis we study the dynamic control of resource-sharing systems that arise in various domains: e.g. inventory management, healthcare and communication networks. We aim at efficiently allocating the available resources among competing projects according to a certain performance criteria. These type of problems have a stochastic nature and may be very complex to solve. We therefore focus on developing well-performing heuristics. In Part I, we consider the framework of Restless Bandit Problems, which is a general class of dynamic stochastic optimization problems. Relaxing the sample-path constraint in the optimization problem enables to define an index-based heuristic for the original constrained model, the so-called Whittle index policy. We derive a closed-form expression for the Whittle index as a function of the steady-state probabilities for the case in which bandits (projects) evolve in a birth-and-death fashion. This expression requires several technical conditions to be verified, and in addition, it can only be computed explicitly in specific cases. In the particular case of a multi-class abandonment queue, we further prove that the Whittle index policy is asymptotically optimal in the light-traffic and heavy-traffic regimes. In Part II, we derive heuristics by approximating the stochastic resource-sharing systems with deterministic fluid models. We first formulate a fluid version of the relaxed optimization problem introduced in Part I, and we develop a fluid index policy. The fluid index can always be computed explicitly and hence overcomes the technical issues that arise when calculating the Whittle index. We apply the Whittle index and the fluid index policies to several systems: e.g. power-aware server-farms, opportunistic scheduling in wireless systems, and make-to-stock problems with perishable items. We show numerically that both index policies are nearly optimal. Secondly, we study the optimal scheduling control for the fluid version of a multi-class abandonment queue. We derive the fluid optimal control when there are two classes of customers competing for a single resource. Based on the insights provided by this result we build a heuristic for the general multi-class setting. This heuristic shows near-optimal performance when applied to the original stochastic model for high workloads. In Part III, we further investigate the abandonment phenomena in the context of a content delivery problem. We characterize an optimal grouping policy so that requests, which are impatient, are efficiently transmitted in a multi-cast mode.

Page generated in 0.4881 seconds