• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 25
  • 3
  • Tagged with
  • 53
  • 53
  • 23
  • 16
  • 15
  • 13
  • 13
  • 13
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modèles Stochastiques pour l'Aide à la Décision dans les Centres d'appels

Jouini, Oualid 11 December 2006 (has links) (PDF)
Depuis quelques années, les centres d'appels enregistrent une forte croissance dans le monde. Les entreprises s'orientent de plus en plus vers ce choix qui leur offre une relation privilégiée avec leurs clients. Ainsi, ils disposent d'un moyen convivial et peu coûteux pour fidéliser leurs clients tout en essayant d'en acquérir de nouveaux. Le sujet de cette thèse porte sur le développement et l'analyse de modèles stochastiques pour l'aide à la décision dans les centres d'appels. <br />Dans la première partie, nous considérons un centre d'appels où tous les agents sont groupés dans un même pool et les clients sont traités indifféremment par un des agents. Nous étudions les bénéfices de la migration depuis cette configuration vers un centre d'appels où les clients sont divisés en classes (appelées portefeuilles de clients). Chaque portefeuille de clients est servi par un pool de conseillers qui lui est exclusivement dédié. Ensuite, nous considérons un centre d'appels avec deux classes de clients impatients. Nous développons des politiques dynamiques pour l'affectation des clients (selon leurs types) aux différentes files d'attente. L'objectif étant lié aux qualités de service différentiées exprimées en terme du pourcentage des clients perdus, ainsi qu'en terme de la variance du temps d'attente. Enfin, nous étudions un centre d'appels qui annonce le délai d'attente à chaque nouveau client. Nous montrons les avantages de l'annonce sur les performances du centre d'appels.<br />Dans la deuxième partie, nous considérons un processus de naissance et de mort de forme générale. Nous calculons ensuite les moments de plusieurs variables aléatoires liées aux temps de premiers passages (ordinaires et conditionnels). Ensuite, nous montrons un résultat de concavité dans une file d'attente avec capacité limitée et avec une seule classe de clients impatients. Nous démontrons que la probabilité d'entrer en service est strictement croissante et concave en fonction de la taille de la file d'attente.
32

Politiques d'approvisionnement dans les systèmes à plusieurs fournisseurs et optimisation des décisions dans les chaînes logistiques décentralisées

Arda, Yosemin 14 January 2008 (has links) (PDF)
La coordination des flux physiques au sein des chaînes logistiques est une tâche difficile à cause du caractère aléatoire des variations dues au marché et aux partenaires commerciaux et des antagonismes existants entre les objectifs économiques des partenaires. Les travaux développés dans cette thèse s'intègrent dans le cadre de pilotage de flux inter-organisationnelle dans les chaînes logistiques. Nous analysons deux approches ayant le but d'améliorer les performances des systèmes de production/stockage pilotés par des politiques de pilotage flux du type stock nominal. Dans la première approche, nous étudions les effets des stratégies multi-fournisseurs sur les performances des chaînes logistiques. Nous montrons que le délai moyen d'approvisionnement et les coûts moyens de stockage et de rupture de stock peuvent être réduits en optant pour une stratégie multi-fournisseurs. Dans la deuxième approche, nous analysons la dégradation de performances due à la décentralisation des décisions dans une chaîne logistique à deux niveaux en définissant un jeu de Stackelberg entre les partenaires. Nous proposons un contrat de coordination et montrons que le contrat proposé ramène les performances du système décentralisé vers les performances optimales du système centralisé.
33

Stochastic models for resource allocation in large distributed systems / Modèles stochastiques pour l'allocation des ressources dans les grands systèmes distribués

Thompson, Guilherme 08 December 2017 (has links)
Cette thèse traite de quatre problèmes dans le contexte des grands systèmes distribués. Ce travail est motivé par les questions soulevées par l'expansion du Cloud Computing et des technologies associées. Le présent travail étudie l'efficacité de différents algorithmes d'allocation de ressources dans ce cadre. Les méthodes utilisées impliquent une analyse mathématique de plusieurs modèles stochastiques associés à ces réseaux. Le chapitre 1 fournit une introduction au sujet, ainsi qu'une présentation des principaux outils mathématiques utilisés dans les chapitres suivants. Le chapitre 2 présente un mécanisme de contrôle de congestion dans les services de Video on Demand fournissant des fichiers encodés dans diverses résolutions. On propose une politique selon laquelle le serveur ne livre la vidéo qu'à un débit minimal lorsque le taux d'occupation du serveur est supérieur à un certain seuil. La performance du système dans le cadre de cette politique est ensuite évaluée en fonction des taux de rejet et de dégradation. Les chapitres 3, 4 et 5 explorent les problèmes liés aux schémas de coopération entre centres de données (CD) situés à la périphérie du réseau. Dans le premier cas, on analyse une politique dans le contexte des services de cloud multi-ressources. Dans le second cas, les demandes arrivant à un CD encombré sont transmises à un CD voisin avec une probabilité donnée. Au troisième, les requêtes bloquées dans un CD sont transmises systématiquement à une autre où une politique de réservation (trunk) est introduite tel qu'une requête redirigée est acceptée seulement s'il y a un certain nombre minimum de serveurs libres dans ce CD. / This PhD thesis investigates four problems in the context of Large Distributed Systems. This work is motivated by the questions arising with the expansion of Cloud Computing and related technologies. The present work investigates the efficiency of different resource allocation algorithms in this framework. The methods used involve a mathematical analysis of several stochastic models associated to these networks. Chapter 1 provides an introduction to the subject in general, as well as a presentation of the main mathematical tools used throughout the subsequent chapters. Chapter 2 presents a congestion control mechanism in Video on Demand services delivering files encoded in various resolutions. We propose a policy under which the server delivers the video only at minimal bit rate when the occupancy rate of the server is above a certain threshold. The performance of the system under this policy is then evaluated based on both the rejection and degradation rates. Chapters 3, 4 and 5 explore problems related to cooperation schemes between data centres on the edge of the network. In the first setting, we analyse a policy in the context of multi-resource cloud services. In second case, requests that arrive at a congested data centre are forwarded to a neighbouring data centre with some given probability. In the third case, requests blocked at one data centre are forwarded systematically to another where a trunk reservation policy is introduced such that a redirected request is accepted only if there are a certain minimum number of free servers at this data centre.
34

Physique statistique des phénomènes de blocage dans les flux particulaires / Statistical physics of blocking phenomena in particulate flows

Barré, Chloé 26 September 2017 (has links)
L'objectif de cette thèse porte sur l'étude des phénomènes de blocage dans un flux particules à faible densité dans un canal. Le blocage est induit par la géométrie du canal. L'essentiel de mes travaux concerne la description des situations où le blocage est contrôlé par les limites en capacité d'un canal. Le paramètre pertinent pour ce phénomène est donné par le nombre de particules minimum, N, conduisant à l'interruption du flux de particules. Un modèle stochastique simple introduit par Gabrielli et al. (PRL. 110, 170601, 2013) illustre ce comportement: des particules arrivent aléatoirement selon une distribution de Poisson à l'entrée d'un canal unidimensionnel et le traversent avec un temps constant, noté t. Le blocage survient lorsque N particules sont simultanément sur le pont. Le travail de cette thèse à été d'étudier les extensions de ce modèle. Les observables du système sont la probabilité de survie, le flux sortant ainsi que la statistique sur les particules sorties avant le blocage. Les différentes études ont permis pour le cas N>2, pour une distribution homogène quelconque et inhomogène d'entrée, pour un système de multi-canaux ainsi que pour une durée finie de blocage d'obtenir des résultats analytiques exactes ainsi que des approximations à l'aide d'outils statistique. Le dernier projet de cette thèse porte sur l'étude microscopique des phénomènes de blocage. Le modèle simple que nous avons étudié est un système bidimensionnel de particules browniennes soumis à une force de traînée et se déplaçant dans un canal avec rétrécissement. La présence d'un obstacle au milieu du canal peut causer un colmatage selon les valeurs des différents paramètres du système. / This manuscript presents a study of blocking phenomenon in particulate streams flowing through anarrow channel. In particular, it examines situations in which blocking is controlled by the limitedcarrying capacity of the channel. It builds on a simple stochastic model, introduced by Gabrielli etal. (Phys. Rev. Lett. 110, 170601, 2013), in which particles arrive randomly according to a Poissondistribution at the entrance of a one-dimensional channel with an intensity λ and, unless interrupted,exit after a transit time, τ. Blocking occurs instantaneously when N=2 particles are simultaneouslypresent in the channel. The quantities of interest include the probability that the channel is still openat time t (survival probability) and the flux and total number of exiting particles. The thesisexamines a number of generalizations including when more than two particles must be present toinduce blockage, N>2, a time dependent intensity, a finite blocking time, and multi-channelsystems. We obtain exact and approximate analytical results using tools such as the masterequations describing the evolution of the n-particle partial probabilities, large deviation theory andqueuing theory. The theoretical results are validated by comparison with the results of numericalsimulations. The final chapter of the thesis uses a different approach, namely a brownian dynamics simulation of a two dimensional system of soft particles subjected to an external driving and dragforces. The presence of an obstacle in the middle of the channel can cause irreversible orintermittent clogging depending on the system geometry, temperature and particle stiffness.
35

Resource management in computer clusters : algorithm design and performance analysis / Gestion des ressources dans les grappes d’ordinateurs : conception d'algorithmes et analyse de performance

Comte, Céline 24 September 2019 (has links)
La demande croissante pour les services de cloud computing encourage les opérateurs à optimiser l’utilisation des ressources dans les grappes d’ordinateurs. Cela motive le développement de nouvelles technologies qui rendent plus flexible la gestion des ressources. Cependant, exploiter cette flexibilité pour réduire le nombre d’ordinateurs nécessite aussi des algorithmes de gestion des ressources efficaces et dont la performance est prédictible sous une demande stochastique. Dans cette thèse, nous concevons et analysons de tels algorithmes en utilisant le formalisme de la théorie des files d’attente.Notre abstraction du problème est une file multi-serveur avec plusieurs classes de clients. Les capacités des serveurs sont hétérogènes et les clients de chaque classe entrent dans la file selon un processus de Poisson indépendant. Chaque client peut être traité en parallèle par plusieurs serveurs, selon des contraintes de compatibilité décrites par un graphe biparti entre les classes et les serveurs, et chaque serveur applique la politique premier arrivé, premier servi aux clients qui lui sont affectés. Nous prouvons que, si la demande de service de chaque client suit une loi exponentielle indépendante de moyenne unitaire, alors la performance moyenne sous cette politique simple est la même que sous l’équité équilibrée, une extension de processor-sharing connue pour son insensibilité à la loi de la demande de service. Une forme plus générale de ce résultat, reliant les files order-independent aux réseaux de Whittle, est aussi prouvée. Enfin, nous développons de nouvelles formules pour calculer des métriques de performance.Ces résultats théoriques sont ensuite mis en pratique. Nous commençons par proposer un algorithme d’ordonnancement qui étend le principe de round-robin à une grappe où chaque requête est affectée à un groupe d’ordinateurs par lesquels elle peut ensuite être traitée en parallèle. Notre seconde proposition est un algorithme de répartition de charge à base de jetons pour des grappes où les requêtes ont des contraintes d’affectation. Ces deux algorithmes sont approximativement insensibles à la loi de la taille des requêtes et s’adaptent dynamiquement à la demande. Leur performance peut être prédite en appliquant les formules obtenues pour la file multi-serveur. / The growing demand for cloud-based services encourages operators to maximize resource efficiency within computer clusters. This motivates the development of new technologies that make resource management more flexible. However, exploiting this flexibility to reduce the number of computers also requires efficient resource-management algorithms that have a predictable performance under stochastic demand. In this thesis, we design and analyze such algorithms using the framework of queueing theory.Our abstraction of the problem is a multi-server queue with several customer classes. Servers have heterogeneous capacities and the customers of each class enter the queue according to an independent Poisson process. Each customer can be processed in parallel by several servers, depending on compatibility constraints described by a bipartite graph between classes and servers, and each server applies first-come-first-served policy to its compatible customers. We first prove that, if the service requirements are independent and exponentially distributed with unit mean, this simple policy yields the same average performance as balanced fairness, an extension to processor-sharing known to be insensitive to the distribution of the service requirements. A more general form of this result, relating order-independent queues to Whittle networks, is also proved. Lastly, we derive new formulas to compute performance metrics.These theoretical results are then put into practice. We first propose a scheduling algorithm that extends the principle of round-robin to a cluster where each incoming job is assigned to a pool of computers by which it can subsequently be processed in parallel. Our second proposal is a load-balancing algorithm based on tokens for clusters where jobs have assignment constraints. Both algorithms are approximately insensitive to the job size distribution and adapt dynamically to demand. Their performance can be predicted by applying the formulas derived for the multi-server queue.
36

Resource management in computer clusters : algorithm design and performance analysis / Gestion des ressources dans les grappes d’ordinateurs : conception d'algorithmes et analyse de performance

Comte, Céline 24 September 2019 (has links)
La demande croissante pour les services de cloud computing encourage les opérateurs à optimiser l’utilisation des ressources dans les grappes d’ordinateurs. Cela motive le développement de nouvelles technologies qui rendent plus flexible la gestion des ressources. Cependant, exploiter cette flexibilité pour réduire le nombre d’ordinateurs nécessite aussi des algorithmes de gestion des ressources efficaces et dont la performance est prédictible sous une demande stochastique. Dans cette thèse, nous concevons et analysons de tels algorithmes en utilisant le formalisme de la théorie des files d’attente.Notre abstraction du problème est une file multi-serveur avec plusieurs classes de clients. Les capacités des serveurs sont hétérogènes et les clients de chaque classe entrent dans la file selon un processus de Poisson indépendant. Chaque client peut être traité en parallèle par plusieurs serveurs, selon des contraintes de compatibilité décrites par un graphe biparti entre les classes et les serveurs, et chaque serveur applique la politique premier arrivé, premier servi aux clients qui lui sont affectés. Nous prouvons que, si la demande de service de chaque client suit une loi exponentielle indépendante de moyenne unitaire, alors la performance moyenne sous cette politique simple est la même que sous l’équité équilibrée, une extension de processor-sharing connue pour son insensibilité à la loi de la demande de service. Une forme plus générale de ce résultat, reliant les files order-independent aux réseaux de Whittle, est aussi prouvée. Enfin, nous développons de nouvelles formules pour calculer des métriques de performance.Ces résultats théoriques sont ensuite mis en pratique. Nous commençons par proposer un algorithme d’ordonnancement qui étend le principe de round-robin à une grappe où chaque requête est affectée à un groupe d’ordinateurs par lesquels elle peut ensuite être traitée en parallèle. Notre seconde proposition est un algorithme de répartition de charge à base de jetons pour des grappes où les requêtes ont des contraintes d’affectation. Ces deux algorithmes sont approximativement insensibles à la loi de la taille des requêtes et s’adaptent dynamiquement à la demande. Leur performance peut être prédite en appliquant les formules obtenues pour la file multi-serveur. / The growing demand for cloud-based services encourages operators to maximize resource efficiency within computer clusters. This motivates the development of new technologies that make resource management more flexible. However, exploiting this flexibility to reduce the number of computers also requires efficient resource-management algorithms that have a predictable performance under stochastic demand. In this thesis, we design and analyze such algorithms using the framework of queueing theory.Our abstraction of the problem is a multi-server queue with several customer classes. Servers have heterogeneous capacities and the customers of each class enter the queue according to an independent Poisson process. Each customer can be processed in parallel by several servers, depending on compatibility constraints described by a bipartite graph between classes and servers, and each server applies first-come-first-served policy to its compatible customers. We first prove that, if the service requirements are independent and exponentially distributed with unit mean, this simple policy yields the same average performance as balanced fairness, an extension to processor-sharing known to be insensitive to the distribution of the service requirements. A more general form of this result, relating order-independent queues to Whittle networks, is also proved. Lastly, we derive new formulas to compute performance metrics.These theoretical results are then put into practice. We first propose a scheduling algorithm that extends the principle of round-robin to a cluster where each incoming job is assigned to a pool of computers by which it can subsequently be processed in parallel. Our second proposal is a load-balancing algorithm based on tokens for clusters where jobs have assignment constraints. Both algorithms are approximately insensitive to the job size distribution and adapt dynamically to demand. Their performance can be predicted by applying the formulas derived for the multi-server queue.
37

Resource management in computer clusters : algorithm design and performance analysis / Gestion des ressources dans les grappes d’ordinateurs : conception d'algorithmes et analyse de performance

Comte, Céline 24 September 2019 (has links)
La demande croissante pour les services de cloud computing encourage les opérateurs à optimiser l’utilisation des ressources dans les grappes d’ordinateurs. Cela motive le développement de nouvelles technologies qui rendent plus flexible la gestion des ressources. Cependant, exploiter cette flexibilité pour réduire le nombre d’ordinateurs nécessite aussi des algorithmes de gestion des ressources efficaces et dont la performance est prédictible sous une demande stochastique. Dans cette thèse, nous concevons et analysons de tels algorithmes en utilisant le formalisme de la théorie des files d’attente.Notre abstraction du problème est une file multi-serveur avec plusieurs classes de clients. Les capacités des serveurs sont hétérogènes et les clients de chaque classe entrent dans la file selon un processus de Poisson indépendant. Chaque client peut être traité en parallèle par plusieurs serveurs, selon des contraintes de compatibilité décrites par un graphe biparti entre les classes et les serveurs, et chaque serveur applique la politique premier arrivé, premier servi aux clients qui lui sont affectés. Nous prouvons que, si la demande de service de chaque client suit une loi exponentielle indépendante de moyenne unitaire, alors la performance moyenne sous cette politique simple est la même que sous l’équité équilibrée, une extension de processor-sharing connue pour son insensibilité à la loi de la demande de service. Une forme plus générale de ce résultat, reliant les files order-independent aux réseaux de Whittle, est aussi prouvée. Enfin, nous développons de nouvelles formules pour calculer des métriques de performance.Ces résultats théoriques sont ensuite mis en pratique. Nous commençons par proposer un algorithme d’ordonnancement qui étend le principe de round-robin à une grappe où chaque requête est affectée à un groupe d’ordinateurs par lesquels elle peut ensuite être traitée en parallèle. Notre seconde proposition est un algorithme de répartition de charge à base de jetons pour des grappes où les requêtes ont des contraintes d’affectation. Ces deux algorithmes sont approximativement insensibles à la loi de la taille des requêtes et s’adaptent dynamiquement à la demande. Leur performance peut être prédite en appliquant les formules obtenues pour la file multi-serveur. / The growing demand for cloud-based services encourages operators to maximize resource efficiency within computer clusters. This motivates the development of new technologies that make resource management more flexible. However, exploiting this flexibility to reduce the number of computers also requires efficient resource-management algorithms that have a predictable performance under stochastic demand. In this thesis, we design and analyze such algorithms using the framework of queueing theory.Our abstraction of the problem is a multi-server queue with several customer classes. Servers have heterogeneous capacities and the customers of each class enter the queue according to an independent Poisson process. Each customer can be processed in parallel by several servers, depending on compatibility constraints described by a bipartite graph between classes and servers, and each server applies first-come-first-served policy to its compatible customers. We first prove that, if the service requirements are independent and exponentially distributed with unit mean, this simple policy yields the same average performance as balanced fairness, an extension to processor-sharing known to be insensitive to the distribution of the service requirements. A more general form of this result, relating order-independent queues to Whittle networks, is also proved. Lastly, we derive new formulas to compute performance metrics.These theoretical results are then put into practice. We first propose a scheduling algorithm that extends the principle of round-robin to a cluster where each incoming job is assigned to a pool of computers by which it can subsequently be processed in parallel. Our second proposal is a load-balancing algorithm based on tokens for clusters where jobs have assignment constraints. Both algorithms are approximately insensitive to the job size distribution and adapt dynamically to demand. Their performance can be predicted by applying the formulas derived for the multi-server queue.
38

Optimisation des opérations dans les services d’urgence / Operations optimization in emergency departments

Ghanes, Karim 29 April 2016 (has links)
Un Service d’urgence (SU) est le service hospitalier ayant comme responsabilité de fournir des soins non programmés à une grande variété de patients, 24 heures sur 24, 7 jours sur 7. Les SU sont actuellement confrontés à un problème international et récurrent, à savoir la saturation des urgences qui résulte de l’actuelle inadéquation entre les capacités médicales et la demande des patients. L'objectif est de développer des solutions internes et économiques permettant d’atténuer le phénomène de saturation des urgences et d’améliorer leur performance, à l'aide de méthodes issues de la Recherche Opérationnelle/Gestion des Opérations (RO/GO). Ces solutions sont d'un grand intérêt pour les gestionnaires. Afin d'atteindre cet objectif, nous abordons trois ensembles de questions de recherche.La première catégorie comprend des questions prospectives portant sur les indicateurs clés de performance (ICP) ainsi que sur les différents facteurs contribuant à l’encombrement des urgences. La deuxième catégorie est constituée de questions liées au dimensionnement de la capacité des ressources humaines dans un SU. Un modèle réaliste de simulation à événements discrets des urgences est élaboré. En utilisant l'optimisation basée sur la simulation, la durée moyenne de séjour des patients (LOS) est minimisée, en intégrant une contrainte budgétaire ainsi qu’une contrainte assurant que les patients les plus critiques accèderont à un médecin dans un délai déterminé. Les résultats obtenus permettent de fournir aux gestionnaires des urgences des indications utiles sur l'impact du budget sur la performance et sur la manière dont les investissements devraient être priorisés et répartis entre les ressources, ainsi que sur l'effet de la prise en compte de deux principaux ICP différents. Nous proposons également une heuristique pour l'optimisation de la structure des shifts (roulements) du personnel dans la journée. La méthode combine l'optimisation basée sur la simulation avec de la programmation linéaire. La troisième catégorie de questions porte sur le processus de soins des patients. Nous analysons des modifications et des alternatives innovantes dans le parcours du patient (à budget fixe). Typiquement, dans les pratiques actuelles, chaque patient dans un SU est affecté à un seul médecin qui en sera exclusivement responsable pendant toutes les étapes du processus (règle du "Même Patient Même Médecin", MPMM). Dans un premier temps, nous menons une enquête auprès des praticiens qui confirme que MPMM représente la pratique standard dans la plupart des SU à travers le monde. L’enquête révèle également que la suppression de cette règle est très controversée parmi les urgentistes. Nous utilisons ensuite une modélisation en réseau de files d’attente Erlang-R contenant une complexité additionnelle. Nous montrons et quantifions les avantages potentiels de la suppression de la restriction MPMM en fonction des paramètres du système. Une seconde étude portant sur le processus est menée, à savoir la prescription des examens par l’infirmière chargée du tri (PIT) avant la consultation initiale. Nous comparons le fait d’autoriser l’infirmière à prescrire certains examens complémentaires, avec la procédure standard consistant à attendre que le médecin examine le patient et lui prescrive des examens. Nous démontrons l'efficacité de PIT sur la performance du SU en fonction de paramètres clés, tels que le niveau de compétence de l’infirmière, la charge du système et l'extension de la durée du tri.De manière générale, cette thèse aborde d’innovantes questions de recherche dans la gestion des opérations des SU. Elle fournit aux décideurs des recommandations et des outils permettant d’améliorer la performance des urgences. Cette thèse ouvre également la voie pour de futurs axes de recherche liés à l'optimisation des opérations dans les SU. / Emergency Department (ED) is the service within hospitals responsible for providing unscheduled care to a wide variety of patients over 24 hours a day, 7 days a week. As a result to the existing mismatch between available caring capacity and patients demand, EDs are currently facing a recurrent worldwide problem, namely overcrowding. The objective of this thesis is to develop internal and cost-effective solutions to alleviate overcrowding in EDs and improve their performance, using Operations Research/Operations Management (OR/OM) methods. Such solutions are of great interest for managers. In order to achieve this objective, we address a series of research questions.The first category of research questions include prospective questions about ED Key Performance Indicators (KPIs) and about the diverse factors contributing to overcrowding. We first conduct a detailed literature review on the commonly used KPIs from an OR/OM perspective. The review summarizes the advantages and drawbacks of each KPI and provides several useful insights. In addition, a series of statistical analysis are performed in the purpose of identifying the main influencing factors of performance.The second category consists in resource-related questions that are associated to the dimensioning of ED resource capacity. A realistic ED discrete-event simulation model is thus proposed. The model accounts for the most essential structural and functional characteristics of EDs thanks to a close collaboration with practitioners. Using simulation optimization, we minimize the patient average length of stay (LOS), by integrating a staffing budget constraint and a constraint securing that the most severe incidents will see a doctor within a specified time limit. The obtained results allow us to provide useful insights to managers about the impact of the budget on performance and how investments priorities should be allocated among resources, as well as the effect of combining two different major KPIs. Furthermore, we propose a heuristic for the optimization of the shifts of human resources. The method combines simulation optimization and linear programming.The third category of questions deals with process-related issues. We investigate potential alternative and innovative ED patient flow designs (with fixed budget). Typically in current ED practices, each patient is assigned to a single physician who will be exclusively responsible of him/her during all stages of the process (“Same Patient Same Physician”, SPSP rule). We conduct a survey which confirms that SPSP stands as the standard practice in most EDs worldwide, and that removing SPSP rule is very controversial among practitioners. We next use a complexity-augmented Erlang-R queueing network modeling. We show and quantify the potential benefits of removing the SPSP restriction as a function of the system parameters. For a second process-related issue, we compare the Triage Nurse ordering (TNO) diagnostic tests against the standard procedure, i.e., waiting for the physician to examine the patient and order tests. We demonstrate the efficiency of TNO on ED performance as a function of key parameters, such as triage nurse ability, system load and triage time extension.In summary, this thesis addresses innovative OM research questions for EDs. It provides decision makers with recommendations and tools in order to improve ED performance. It also highlights various avenues for future research related to the optimization of ED operations.
39

Modèles de files d’attente pour l'analyse des stratégies de collaboration dans les systèmes de services / Queueing approaches for the analysis of collaboration strategies in service systems

Peng, Jing 19 December 2016 (has links)
Au cours des vingt dernières années, le secteur des services est devenu le secteur le plus important en nombre d'actifs occupés dans l’économie mondiale, en particulier dans les pays développés. Par ailleurs, la concurrence et la coopération dans le secteur des services sont devenues de plus en plus populaires dans le contexte de la mondialisation économique. Comment collaborer avec un accord gagnant-gagnant apporte une source fertile de problèmes de management des opérations dans le domaine des services. Dans cette thèse, nous étudions des stratégies de collaboration dans des systèmes de services homogènes. Nous nous concentrons en particulier sur les stratégies de pooling des ressources de service.Dans les deux premières parties, nous étudions le problème de partage des coûts entre les fournisseurs de services indépendants avec des temps de service qui suivent une distribution générale et en tenant compte de l'abandon des clients. Nous modélisons à la fois chaque fournisseur de services et la coalition coopérative comme des files d'attente avec serveur unique, et spécialisons les stratégies de pooling avec les capacités de services fixes et modifiables. Dans la dernière partie, nous abordons le problème de pooling dans le cadre multiserveur pour évaluer la qualité de l'hypothèse "superserveur". Nous étudions numériquement l'impact de la variabilité de la durée de service et l'abandon des clients sur les jeux de mise en commun des ressources. Nous comparons aussi les partages des coûts entre le système de "super-serveur" et multiserveur. / In past twenty years, the service sector has emerged as the primary sector in the world economy, especially in developed countries. Competition and cooperation in service industries have become more and more popular in the context of economic globalization. How to operate the collaboration with a win-win agreement brings a fertile source of operations management issues in service science. In this thesis, we study collaborations between homogeneous service systems in terms of resource pooling strategies.In the first two parts, we investigate the cost-sharing problem among independent service providers with general service times and accounting for the customer abandonment. We model both the service provider and the cooperative coalition as single server queues, and specialize the capacity pooling strategies with the fixed and optimized service capacities.Finally, we address the service pooling problem in the multi-serverpooling setting to assess the quality of the "super-server" assumption.We numerically investigate the impact of service duration variability and customer abandonment on the pooling game. We compare between cost-sharing results of the two resource pooling concepts, with or without the "super-server" assumptions.
40

Mécanismes auto-organisants pour connexions de bout en bout / Self-organizing mechanisms for end-to-end connections

Floquet, Julien 19 December 2018 (has links)
Les réseaux de cinquième génération sont en cours de définition et leurs différentes composantes commencent à émerger: nouvelles technologies d'accès à la radio, convergence fixe et mobile des réseaux et virtualization.Le contrôle et la gestion de bout en bout (E2E) du réseau ont une importance particulière pour les performances du réseau. Cela étant, nous segmentons le travail de thèse en deux parties: le réseau d’accès radio (RAN) axé sur la technologie MIMO Massif (M-MIMO) et la connexion E2E du point de vue de la couche transport.Dans la première partie, nous considérons la formation de faisceaux focalisés avec un structure hiérarchique dans les réseaux sans fil. Pour un ensemble de flots donnée, nous proposons des algorithmes efficaces en terme de complexité pour une allocation avec alpha-équité. Nous proposons ensuite des formules exactes pour la performance au niveau du flot, à la fois pour le trafic élastique (avec une équité proportionnelle et équité max-min) et le trafic en continu. Nous validons les résultats analytiques par des simulations.La seconde partie de la thèse vise à développer une fonction de réseau auto-organisant (SON) qui améliore la qualité d'expérience (QoE) des connexions en bout-en-bout. Nous considérons un service de type vidéo streaming et développons une fonctionnalité SON qui adapte la QoE de bout-en-bout entre le serveur vidéo et l'utilisateur. La mémoire-tampon reçoit les données d'un serveur avec une connexion E2E en suivant le protocole TCP. Nous proposons un modèle qui décrit ce comportement et nous comparons les formules analytiques obtenues avec les simulations. Enfin, nous proposons un SON qui donne la qualité vidéo de sorte que la probabilité de famine soit égale à une valeur cible fixée au préalable. / Fifth generation networks are being defined and their different components are beginning to emerge: new technologies for access to radio, fixed and mobile convergence of networks and virtualization.End-to-end (E2E) control and management of the network have a particular importance for network performance. Having this in mind, we segment the work of the thesis in two parts: the radio access network (RAN) with a focus on Massive MIMO (M-MIMO) technology and the E2E connection from a point of view of the transport layer.In the first part, we consider hierarchical beamforming in wireless networks. For a given population of flows, we propose computationally efficient algorithms for fair rate allocation. We next propose closed-form formulas for flow level performance, for both elastic (with either proportional fairness and max-min fairness) and streaming traffic. We further assess the performance of hierarchical beamforming using numerical experiments.In the second part, we identify an application of SON namely the control of the starvation probability of video streaming service. The buffer receives data from a server with an E2E connection following the TCP protocol. We propose a model that describes the behavior of a buffer content and we compare the analytical formulas obtained with simulations. Finally, we propose a SON function that by adjusting the application video rate, achieves a target starvation probability.

Page generated in 0.087 seconds