• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 379
  • 167
  • 50
  • 1
  • Tagged with
  • 592
  • 239
  • 177
  • 174
  • 119
  • 111
  • 100
  • 92
  • 91
  • 87
  • 86
  • 84
  • 83
  • 74
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Ordonnancement sous contraintes de qualité de service dans les clouds / Cloud scheduling under quality of service constraints

Guérout, Tom 05 December 2014 (has links)
Ces dernières années, de nouvelles problématiques sont nées au vu des considérations écologiques de plus en plus présentes dans notre société. Dans le domaine de la technologie de l'Information, les centres de calcul consomment actuellement environ 1.5% de l'électricité mondiale. Cela ne cesse d’augmenter en raison de l'évolution de nombreux domaines et particulièrement du Cloud Computing. Outre cet aspect environnemental, le contrôle de la consommation d’énergie fait désormais partie intégrante des paramètres de Qualité de Service (QoS) incombant aux fournisseurs de services de Cloud Computing. En effet, ces fournisseurs de services à la demande proposent à leurs utilisateurs un contrat de QoS, appelé SLA (Service Level Agreement), qui définit de manière précise la qualité de service qu’ils s’engagent à respecter. Le niveau de QoS proposé influence directement la qualité d’utilisation des services par les utilisateurs, mais aussi la consommation et le rendement général de l’ensemble des ressources de calcul utilisées, impactant fortement les bénéfices des fournisseurs de services.Le Cloud Computing étant intrinsèquement lié à la virtualisation des ressources de calcul, une élaboration de modèles d’architecture matérielle et logicielle est proposée afin de définir les caractéristiques de l’environnement considéré. Ensuite, une modélisation détaillée de paramètres de QoS en termes de performance, de sûreté de fonctionnement, de sécurité des données et de coûts est proposée. Des métriques associées à ces paramètres sont définies afin d’étendre les possibilités d'évaluation des SLA. Ces modélisations constituent la première contribution de cette thèse.Il convient alors de démontrer comment l’utilisation et l’interprétation de plusieurs métriques de QoS ouvrent la possibilité d'une analyse plus complexe et plus fine de la perspicacité des algorithmes de placement. Cette approche multi-critères leur apporte des informations importantes sur l’état de leur système qu’ils peuvent analyser afin de gérer le niveau de chaque paramètre de QoS. Ainsi, quatre métriques antagonistes, incluant la consommation énergétique, ont été sélectionnées et utilisées conjointement dans plusieurs algorithmes de placement de manière à montrer leur pertinence, l’enrichissement qu’elles apportent à ces algorithmes, et comment un fournisseur de service peut tirer profit des résultats d’une optimisation multi-objectifs. Cette seconde contribution présente un algorithme génétique (GA) ainsi que deux algorithmes gloutons. L’analyse du comportement de l'algorithme génétique a permis de démontrer différents intérêts d’une optimisation multi-critères appliquée à des métriques de QoS habituellement ignorées dans les études dédiées au Cloud Computing.La troisième contribution de cette thèse propose une étude de l’impact de l'utilisation des métriques de QoS sur l’ordonnancement de machines virtuelles au cours du temps. Pour cela, le simulateur CloudSim a été exploité et étendu afin d'améliorer ses fonctionnalités de gestion de consommation énergétique. Tout d’abord par l’ajout du DVFS (Dynamic Voltage & Frequency Scaling) apportant une gestion dynamique très précise des fréquences de fonctionnement CPU, puis la possibilité de reconfiguration de machines virtuelles et enfin par la gestion dynamique des évènements. Les simulations effectuées mettent en jeu l'ensemble de ces outils énergétiques ainsi que les algorithmes de placement et évaluent chacune des métriques de QoS sélectionnées. Ces simulations donnent une vision temporelle de l’évolution de celles-ci, en fonction des algorithmes utilisés et de plusieurs configurations d’optimisation du GA. Cela permet d'analyser sous différents angles le comportement des algorithmes gloutons, l'impact des optimisations du GA, et l'influence des métriques les unes par rapport aux autres.Une collaboration a pu être établie avec le laboratoire CLOUDS Laborartory de Melbourne, dirigé par Prof. Rajkumar Buyya. / In recent years, new issues have arisen in environmental considerations, increasingly pointed out in our society. In the field of Information Technology, data centers currently consume about 1.5% of world electricity. This increasing is due to changes in many areas, especially in Cloud Computing. Besides this environmental aspect, the management of energy consumption has become an important field of Quality of Service (QoS), in the responsibility of Cloud providers. These providers propose a QoS contract called SLA (Service Level Agreement), which specify the level of QoS given to users. The level of QoS offered directly influences the quality of the users' utilization, but also the overall energy consumption and performance of computing resources, which strongly affect profits of the Cloud providers. Cloud computing is intrinsically linked to the virtualization of computing resources. A model of hardware and software architecture is proposed in order to define the characteristics of the environment considered. Then, a detailed modeling of QoS parameters in terms of performance, dependability, security and cost is proposed. Therefore, QoS metrics, associated to these parameters are defined in order to extend the possibilities for evaluating the SLA. These models represent the first contribution of this thesis. Then, it is necessary to illustrate how the use and interpretation of several QoS metrics open the possibility of a more complex and precise analysis of algorithms' insight. This multi-criteria approach, that provides useful informations about the system's status can be analyzed to manage the QoS parameters' level. Thus, four antagonists metrics, including energy consumption, are selected and used together in several scheduling algorithms which allow to show their relevance, the enrichment given to these algorithms, and how a Cloud provider can take advantage of the results of this kind of multi-objective optimization. The second contribution presents a genetic algorithm (GA) and two greedy algorithms. The analysis of the genetic algorithm behavior allows to show different interests of a multi-criteria optimization applied to QoS metrics, usually ignored in studies dedicated to Cloud Computing. The third contribution of this thesis proposes a study of the impact of the use of QoS metrics in virtual machines scheduling. The simulator CloudSim has been used and expanded to improve its energy-aware tools. The DVFS (Dynamic Voltage & Frequency Scaling), providing a highly accurate dynamic management of CPU frequencies, the virtual machines reconfiguration, and the dynamic management of events have been included. The simulations involve all of these energy tools and placement algorithms, and evaluate each selected QoS metrics. These simulations allow to see the evolution in time of these metrics, depending on the algorithms used and the behavior of the GA in different optimizations configurations. This allows to analyze from different angles the behavior of greedy algorithms, the impact of optimizations GA, and the influence of these metrics one against the others.
372

Iterative restricted space search : a solving approach based on hybridization

Pécora, José Eduardo Junior 13 April 2018 (has links)
Face à la complexité qui caractérise les problèmes d'optimisation de grande taille l'exploration complète de l'espace des solutions devient rapidement un objectif inaccessible. En effet, à mesure que la taille des problèmes augmente, des méthodes de solution de plus en plus sophistiquées sont exigées afin d'assurer un certain niveau d 'efficacité. Ceci a amené une grande partie de la communauté scientifique vers le développement d'outils spécifiques pour la résolution de problèmes de grande taille tels que les méthodes hybrides. Cependant, malgré les efforts consentis dans le développement d'approches hybrides, la majorité des travaux se sont concentrés sur l'adaptation de deux ou plusieurs méthodes spécifiques, en compensant les points faibles des unes par les points forts des autres ou bien en les adaptant afin de collaborer ensemble. Au meilleur de notre connaissance, aucun travail à date n'à été effectué pour développer un cadre conceptuel pour la résolution efficace de problèmes d'optimisation de grande taille, qui soit à la fois flexible, basé sur l'échange d'information et indépendant des méthodes qui le composent. L'objectif de cette thèse est d'explorer cette avenue de recherche en proposant un cadre conceptuel pour les méthodes hybrides, intitulé la recherche itérative de l'espace restreint, ±Iterative Restricted Space Search (IRSS)>>, dont, la principale idée est la définition et l'exploration successives de régions restreintes de l'espace de solutions. Ces régions, qui contiennent de bonnes solutions et qui sont assez petites pour être complètement explorées, sont appelées espaces restreints "Restricted Spaces (RS)". Ainsi, l'IRSS est une approche de solution générique, basée sur l'interaction de deux phases algorithmiques ayant des objectifs complémentaires. La première phase consiste à identifier une région restreinte intéressante et la deuxième phase consiste à l'explorer. Le schéma hybride de l'approche de solution permet d'alterner entre les deux phases pour un nombre fixe d'itérations ou jusqu'à l'atteinte d'une certaine limite de temps. Les concepts clés associées au développement de ce cadre conceptuel et leur validation seront introduits et validés graduellement dans cette thèse. Ils sont présentés de manière à permettre au lecteur de comprendre les problèmes que nous avons rencontrés en cours de développement et comment les solutions ont été conçues et implémentées. À cette fin, la thèse a été divisée en quatre parties. La première est consacrée à la synthèse de l'état de l'art dans le domaine de recherche sur les méthodes hybrides. Elle présente les principales approches hybrides développées et leurs applications. Une brève description des approches utilisant le concept de restriction d'espace est aussi présentée dans cette partie. La deuxième partie présente les concepts clés de ce cadre conceptuel. Il s'agit du processus d'identification des régions restreintes et des deux phases de recherche. Ces concepts sont mis en oeuvre dans un schéma hybride heuristique et méthode exacte. L'approche a été appliquée à un problème d'ordonnancement avec deux niveaux de décision, relié au contexte des pâtes et papier: "Pulp Production Scheduling Problem". La troisième partie a permit d'approfondir les concepts développés et ajuster les limitations identifiées dans la deuxième partie, en proposant une recherche itérative appliquée pour l'exploration de RS de grande taille et une structure en arbre binaire pour l'exploration de plusieurs RS. Cette structure a l'avantage d'éviter l'exploration d 'un espace déjà exploré précédemment tout en assurant une diversification naturelle à la méthode. Cette extension de la méthode a été testée sur un problème de localisation et d'allocation en utilisant un schéma d'hybridation heuristique-exact de manière itérative. La quatrième partie généralise les concepts préalablement développés et conçoit un cadre général qui est flexible, indépendant des méthodes utilisées et basé sur un échange d'informations entre les phases. Ce cadre a l'avantage d'être général et pourrait être appliqué à une large gamme de problèmes.
373

Généralisations du problème d'ordonnancement de projet à ressources limitées

Kadri, Roubila Lilia 24 April 2018 (has links)
Un problème d'ordonnancement de projet à ressources limitées (POPRL) consiste en l'ordonnancement d'un ensemble de tâches, nécessitant un ou plusieurs types de ressources, renouvelables ou non renouvelables, en quantités limitées. La résolution d'un POPRL a pour but la détermination des dates d'exécution des tâches en tenant compte des contraintes de préséance et de disponibilité des ressources et ayant comme objectif la minimisation de la durée totale du projet. Le POPRL est un problème d'optimisation combinatoire de complexité NP-dur (Blazewicz et al. 1983). Une revue de littérature du (POPRL) est présentée au chapitre 2. Plus de 125 articles scientifiques sont analysés. Les contributions relatives à ce problème portent sur les méthodes exactes de résolution, la détermination de bornes inférieures sur la durée du projet et les méthodes heuristiques (approchées) de résolution. L'aspect pratique de ce problème dans des contextes industriels divers a conduit à de nombreuses généralisations du problème classique. On constate que malgré les efforts déployés pour définir des POPRL plus généraux, les contraintes de transfert des ressources continuent à être ignorées, nous constatons aussi que l'optimisation du problème en considérant les coûts a été très peu traitée dans la littérature. Ce qui forcent les gestionnaires dans la plus part des cas à se baser uniquement sur leur expérience pour réaliser ou ajuster manuellement les ordonnancements produits par des heuristiques conçues pour résoudre des versions simplifiées du problème. Cette thèse tente de combler partiellement ces lacunes. Le chapitre 3 traite le problème d'ordonnancement de projet à ressources limitées POPRLTT avec des temps de transfert des ressources. Un temps de transfert est le temps nécessaire pour transférer une ressource du lieu d'execution d'une activité vers un autre. Ainsi, le temps de transfert d'une ressource dépend des lieux des activités à exécuter, ainsi que des caractéristiques des ressources à transférer. L'objectif dans un POPRLTT est la détermination des dates d'exécution des tâches en tenant compte des contraintes de préséance et de disponibilité des ressources et les temps de transfert des ressources. L'objectif est de minimiser la durée totale du projet. Nous proposons un nouvel algorithme génétique basé sur un opérateur de croisement de deux positions. L'étude expérimentale menée sur un grand nombre de problèmes test prouve que l'algorithme proposé est meilleur que les deux méthodes déjà existantes dans la littérature. Une généralisation du problème d'ordonnancement de projet à ressources limitées et des temps de transfert des ressources au contexte multi mode (POPRL=PMETT) est présentée au chapitre 4. Dans ce problème, nous supposons que la préemption est non autorisée, et les ressources utilisées sont renouvelables et non renouvelables, chaque activité a plusieurs modes d'exécution, et les relations de préséance sont de type dit début-fin sans décalage. L'objectif est de choisir un temps de début (ou de fin) et un mode d'exécution pour chaque tâche du projet, pour que la durée du projet soit minimisée tout en respectant les contraintes de préséance, de disponibilité de ressources et les temps de transfert. Au meilleur de notre connaissance, cette version du problème n'a jamais été abordée auparavant. Nous proposons une formulation mathématique de ce problème, ensuite nous présentons un algorithme génétique, que nous avons conçu pour résoudre les instances de grandes tailles. Pour tester les méthodes proposées nous développons des nouveaux ensembles de problèmes-tests pour le POPRL=PMETT, qui pourront être utilisés dans l'avenir pour mener des recherches dans ce domaine. Dans le chapitre 5, nous définissons une nouvelle généralisation du problème d'ordonnancement de projet à ressources limitées en considérant l'objectif de minimiser le coût total d'exécution du projet. Celui-ci est composé de deux éléments principaux: le coût direct des ressources à utiliser et les frais généraux qui ne dépendent pas de la quantité de ressources allouées, mais qui sont proportionnels à la durée du projet. Ce problème, que nous appelons Problème général d'allocation et de nivellement des ressources d'un projet (PGANRP) est très commun en pratique, mais très peu de recherche est consacrée à ce problème. Dans un PGANRP, nous devons simultanément déterminer les quantités des ressources à allouer au projet au cours de son exécution et réduire la variabilité de l'utilisation des ressources au minimum tout en essayant de terminer le projet à une date de fin acceptable. Les quantités des ressources à allouer au projet devraient permettre l'accomplissement du projet à cette date et devient une limite sur la disponibilité de ces ressources durant toute l'exécution du projet. Nous proposons, une formulation mathématique du problème et deux approches de recherche dans le voisinage pour les instances de grandes tailles. / The resource-constrained project scheduling problem (RCPSP) consists of scheduling a set of activities or tasks using one or more resource types available in limited quantity. In the standard version of this problem, pre-emption is not allowed, precedence relations are of the no-lag, finish-to-start type, and the used resources are renewable meaning that the same resources quantity are available each time period. Solving this NP-hard optimization problem requires the determination of tasks execution date such that the project duration is minimized without using more than the available resource quantities. In the first chapter of this thesis, the research problem and research objectives are presented while chapter 2 reviews the literature and contributions to the RCPSP and some of its extended versions. More than 125 published papers are reviewed. These contributions are divided into 4 groups of contributions. Those proposing optimal solution methods, those developing lower bounds on the project duration, those proposing heuristic and approximate solution methods, and those extending the standard version of the problem in order to make it closer to the real-life problem. This literature review revealed that very few contributions explicitly take into consideration the time required to transfer resources between execution sites of the project. Only three such contributions are published and none of these three publication deal with the case where tasks have more than one execution mode. This review also revealed that the large majority of the published research deals with the problem where the objective is to minimize the duration of the project. However, in almost all real-life situations, the objective is to minimise the total cost of the project. That is why this thesis is dedicated to solve these neglected extensions of the RCPSP. Chapter 3 deals with the resource-constrained project scheduling problem with transfer times (RCPSPTT). Thus the goal in this case is to determine execution dates that allows for resources to be transferred between execution sites while respecting the precedence relations between these tasks as well as resources availability. A new genetic algorithm (GA) is developed to solve the RCPSPTT. This algorithm uses a new and efficient crossover operator. The chapter also study the performance of the proposed genetic algorithm and shows that it produces better results than the two previously published solution heuristics. It is to notice that the proposed GA considers renewable resource types and assume that tasks have only one execution mode. Chapter 4 deals with the multi-mode resource-constrained project scheduling problem with transfer times (MRCPSPTT). Thus, it extends the problem studied in the previous chapter to the multi-mode case under the assumptions of no pre-emption while using renewable and non-renewable resources. This problem has never been the subject of any published research before. An integer linear mathematical formulation of the problem is given as well as new genetic algorithm is developed to solve it. An extensive empirical analysis is then presented and shows that the proposed GA is able to produce the optimal solution for 529 test instances with 10, 20 and 30 activities. Chapter 5 introduces the generalized resource allocation and leveling problem (GRALP). This problem can be stated as follows. Given a set of project tasks to execute, their possible execution modes and precedence relations, an upper bound on the amount of resources that can be made available to the project, a project due date, the cost of resource utilization and the overhead cost; determine the execution date and mode for each task and the amount of resources to allocate to the project. The objective is to minimize the total project execution cost while respecting precedence constraints, project due date and not using more than the amount of resources that we decided to allocate to the project. Again we notice that this problem has never been the subject of any published research work. Chapter 5 presents an integer linear formulation of the problem, a neighborhood search solution heuristic, a genetic algorithm to solve it and an empirical experiment to evaluate the proposed heuristics showing the superiority of the proposed GA. Finally, the conclusions of the thesis and some propositions for future research are given.
374

Simulation combinée des processus de production et des processus de pilotage : analyse comparative de stratégies de pilotage pour la production de bois d'oeuvre

Dumetz, Ludwig 31 July 2018 (has links)
Dans le cadre de ce travail de thèse, nous avons conçu une plateforme de simulation permettant l’évaluation comparative de stratégies de pilotage pour la production de bois d’œuvre dans les scieries nord-américaines. Dans notre contexte, une stratégie de pilotage est composée de plusieurs paramètres tels que le choix des politiques d’acceptation des commandes, permettant d’accepter ou de refuser une commande en fonction de règles mises en place, le choix des modèles et algorithmes de planification utilisés à chaque étape de la production de bois d’œuvre, le choix du modèle au niveau tactique, les mécanismes de coordination utilisés, permettant de mieux coordonner les opérations de plusieurs entités distinctes ou de plusieurs niveaux de planification ; on parle notamment d’échange d’informations circulant entre les niveaux de planification tactique et opérationnel ou encore entre les entités/modèles utilisés au niveau opérationnel pour planifier la production de bois d’œuvre. Lors de la planification des opérations, les industriels doivent mettre en place ces stratégies de pilotage. Aujourd’hui, il est extrêmement compliqué de savoir quelle stratégie de pilotage mettre en place en fonction de son propre contexte de marché et de ses paramètres de production. L’objectif général est donc est de permettre d’évaluer et comparer des stratégies de pilotage aux niveaux tactique et opérationnel pour la production de bois d’œuvre, tout en tenant compte du contexte de marché de l’entreprise ainsi que de ses paramètres de production. Pour atteindre cet objectif, nous l’avons divisé en quatre objectifs spécifiques qui ont donnés lieu à trois publications. Pour notre premier objectif spécifique, nous avons développé un modèle de simulation permettant de représenter la génération, l’acceptation et la vente d’une commande pour une entreprise de sciage. Un module de planification de la production a également été couplé et est responsable de la gestion des stocks et de la génération des plans de production. Pour notre deuxième objectif spécifique, nous avons utilisons ce modèle de simulation pour pouvoir évaluer l’impact de politiques d’acceptation des commandes (telles que Availableto-promise (ATP), Capable-to-promise (CTP) ou encore On-Stock) sur les performances de l’entreprise en termes de volume de commandes acceptées dans un environnement à flux de produits divergent avec co-production. Bien que ces politiques d’acceptation des commandes aient été largement étudiées dans un contexte manufacturier traditionnel, le choix d’une politique plutôt qu’une autre est loin d’être trivial dans un tel contexte de divergence de flux physique. Nous montrons dans cette première contribution que dans ce type de contexte, le choix d’une politique d’acceptation de commande plutôt qu’une autre dépend fortement du marché et impacte fortement les performances de l’entreprise, en termes de commandes acceptées et de stock moyen annuel. Cet objectif spécifique a entrainé l’écriture d’un premier article. Pour notre troisième objectif spécifique, nous avons évalué des mécanismes de coordination mis en place au niveau opérationnel entre les différentes activités du processus de transformation de bois d’œuvre, qui est un processus décentralisé. La précédente plateforme de simulation a donc été adaptée et des mécanismes de coordination déjà publiés tels que « Twophases planning », ou « bottleneck-first planning » y sont évalués en utilisant un horizon roulant dans un environnement où les commandes sont générées dynamiquement. Nous montrons que les mécanismes de coordination déjà publiés et testés dans un environnement statique performent mal dans un environnement dynamique. Nous proposons donc un autre mécanisme de coordination « hybride flux poussé / flux tiré » exploitant le concept de point de découplage. Ce mécanisme s’avère meilleur que les précédents en permettant un plus grand nombre de ventes, ainsi qu’une réduction des stock moyens. Cet objectif spécifique a entrainé l’écriture d’un deuxième article. Enfin, pour notre quatrième objectif spécifique, nous nous intéressons à la planification de la production aux niveaux tactique et opérationnel. Nous utilisons le modèle de simulation pour comparer et évaluer l’impact de différents types d’informations transmises du niveau tactique au niveau opérationnel. Le niveau de planification tactique est alors pris en compte pour établir une planification à plus long terme. Nous montrons que le choix du type d’informations à transmettre du niveau tactique au niveau opérationnel varie selon plusieurs facteurs, tels que : la politique d’acceptation des commandes (ATP, CTP) utilisée par l’entreprise, l’ampleur de la saisonnalité des prix de vente, ou le fait d’être ou non dans un marché en surcapacité. Cet objectif spécifique a entrainé l’écriture d’un troisième article. / In this thesis, we designed a simulation platform to compare and evaluate production planning and order management strategies for lumber production in North American sawmills. In our context, a strategy is composed of several parameters such as the choice of order acceptance policies, allowing to accept or refuse an order based on implemented rules, the choice of planning models and algorithms used at each stage of timber production, the choice of model at the tactical level, the coordination mechanisms used, to better coordinate the operations of several distinct entities or of several planning levels; this includes the exchange of information between tactical and operational planning levels or between entities / models used at the operational level to plan timber production. Today, it is extremely difficult for a company to know which management strategy to put in place. The general objective is then to evaluate and compare tactical and operational planning strategies for timber production, taking into account the company's market context and its production parameters. To achieve this goal, we divided it into four specific objectives that resulted in three publications. In the first specific objective, we developed a simulation model to represent the generation, acceptance and sale of an order for a sawmill. We coupled a production planning module to this simulation model that is responsible for inventory management and the generation of production plans. In a second objective, we use this simulation model to be able to evaluate the impact of order acceptance policies such as Available-to-promise (ATP), Capable-to-promise (CTP) and Stock policies on the company’s performance in terms of volume of accepted orders in a product flow environment diverge with co-production. Although these order acceptance policies have been widely studied in a traditional manufacturing context, the choice of one policy over another is far from being trivial in such a context of divergence flow. We show that in this type of context, the choice of an order acceptance policy rather than another depends strongly on the market and impacts the performance of the company, in terms of accepted orders and average annual inventory. This specific objective leads to the first publication. In a third specific objective, we evaluated coordination mechanisms used at the operational level between the different activities of the timber processing process, which is a decentralized process. The previous simulation platform has been adapted and previously published coordination mechanisms such as "Two-phase planning" or "bottleneck-first planning" are evaluated using a rolling horizon in an environment where orders are generated dynamically. We show that coordination mechanisms already published and tested in a static environment perform poorly in a dynamic environment. We therefore propose another "hybrid push / pull" coordination mechanism exploiting the decoupling point concept. This mechanism is better than the previous ones by allowing a greater number of sales, as well as a reduction in average inventory. This specific objective leads to a second publication. Finally, in a fourth specific objective, we are interested in production planning at the tactical and operational levels. We use the simulation model to compare and evaluate different information transmitted from the tactical level to the operational level by simulating the production system, the planning process and the market behavior. The tactical planning level is then taken into account to establish longer-term production planning. We show that the choice of the type of information to be transmitted from the tactical level to the operational level varies according to several factors, such as: the order acceptance policy (ATP, CTP) used by the company, the extent of seasonality selling prices, or whether or not being in an overcapacity market. This specific objective leads to third publication
375

Problèmes d'optimisation combinatoires probabilistes

Bellalouna, Monia 05 March 1993 (has links) (PDF)
L'étude du domaine récent que constituent les problèmes d'optimisation combinatoires probabilistes (POCPs) forme le sujet de cette thèse. Les POCPs sont des généralisations des problèmes d'optimisation combinatoires classiques dont les formulations contiennent explicitement des éléments probabilistes. Plusieurs motivations ont provoqué cette étude. Deux d'entre elles sont particulièrement importantes. La première correspond au désir de formuler et d'analyser des modèles qui sont plus appropriés pour des problèmes pratiques pour lesquels l'aléatoire est une source constante de préoccupations, les modèles de nature probabiliste sont plus particulièrement attractifs comme abstraction mathématique des systèmes réels. La seconde motivation est d'analyser la stabilité des solutions optimales des problèmes déterministes lorsque les exemplaires sont perturbés : les perturbations sont simulées par la présence ou l'absence de sous-ensembles des données. Notre étude s'appuie sur certains de ces problèmes et en particulier : problème du voyageur de commerce; problème d'ordonnancement des travaux probabiliste et le problème du bin-packing probabiliste. Les questions soulevées et les résultats obtenus sont dans les domaines suivants : complexités des problèmes et analyse d'heuristiques pour les POCPs ; analyse du comportement asymptotique des problèmes lorsque les exemplaires correspondent à des problèmes de grandes tailles ; dégager une méthodologie générale d'étude de la stabilité des solutions des problèmes d'optimisation combinatoires classiques.
376

Coordination flexible fondée sur la métaphore chimique dans les infrastructures de services

Fernandez, Héctor 20 June 2012 (has links) (PDF)
Avec le développement de l'Internet des services, composer dynamiquement des services distribués faiblement couplés est devenu le nouveau challenge du calcul à large échelle. Alors que la composition de services est devenue un élément clef des plates-formes orientées service, les systèmes de composition de services suivent pour la plupart une approche centralisée connaissant l'ensemble des informations de flux de contrôle et de données du workflow, posant un certain nombre de problèmes, notamment de passage à l'échelle et de fiabilité. Dans un monde où les plates-formes sont de plus en plus dynamiques, de nouveaux mécanismes de coordination dynamiques sont requis. Dans ce contexte, des métaphores naturelles, et en particulier la méthapore chimique, ont gagné une attention particulière récemment, car elles fournissent des abstractions pour une coordination flexible d'entités. Dans cette thèse, nous présentons un système de gestion de workflow fondée sur la métaphore chimique, qui fournit un modèle d'exécution haut-niveau pour l'exécution centralisée et décentralisée de compositions (ou workflows). Selon ce modèle, les services sont vus comme des molécules qui flottent dans une solution chimique. La coordination de ces services est effectuée par un ensemble de réactions entre ces molécules exprimant l'exécution décentralisée d'un workflow. Par ailleurs, si le paradigme chimique est aujourd'hui considéré comme un modèle de coordination prometteur, il manque des résultats expérimentaux. Ainsi, nous avons développé un prototype logiciel. Des expériences ont été menées avec des workflows d'applications réelles pour montrer la viabilité de notre modèle.
377

Optimisation Stochastique pour la gestion des lits d’hospitalisation sous incertitudes / Stochastic optimization for hospital beds management under uncertainties

Mazier, Alexandre 06 December 2010 (has links)
Les services de soins hospitaliers sont soumis à de nombreux évènements de natures aléatoires rendant leur gestion et leur pilotage difficiles. Ces difficultés organisationnelles reposent essentiellement sur l'incertitude permanente pesant sur les évolutions futurs, principalement en termes d'arrivées et de départs de patients. Pourtant, une prise en charge rapide et efficace des patients est primordiale pour des services tels que les urgences. Ces services doivent pouvoir placer rapidement leurs patients ce qui n'est possible uniquement si (i) les arrivées ont été anticipées et des places sont laissées vacantes dans les services pour recevoir les patients urgents et/ou (ii) le planning d'occupation des services est construit de telle manière que l'insertion d'un nouveau patient est facilitée.Notre objectif va être de gérer les flux de patients séjournant dans les services de courts-séjours de l'hôpital, depuis le choix d'admission d'un nouveau patient jusqu'à sa sortie, et ce, en s'inspirant des deux postulats précédant. A l'aide de modèles d'optimisation stochastique, une succession de problèmes de décisions, ayant pour but de garantir le bon fonctionnement des structures hospitalières, est résolue. Une hiérarchie en trois niveaux est appliquée pour résoudre le problème de gestion: 1. Planification des admissions des patients réguliers, 2. Affectation des patients aux unités de soins et insertion des urgences, 3. Affectation des patients d'un service aux chambres.Les études de cas sont basées sur les données d'un établissement partenaire, le Centre Hospitalier de Firminy (France). / Hospitals have to deals with a lot of random events making their management hard to realize. Those difficulties are mainly due to the uncertainty relative to future evolutions of demand, in particular in term of future arrivals and departures. Despite those difficulties, a fast and efficient hospitalization is required especially for some units like the emergency department. This department has to find quick solution to the problem of hospitalized of their patients. This can only be possible if (i) emergency arrivals are forecasted and so a bed is remaining free for them and/or (ii) the planning of beds occupation is made in a way allowing easy allocations of emergency patients.Our purpose is going to manage the patient flow in short stay unit (medicine and surgery) starting form the choice of an admission date for each patient until their discharge by keeping in mind the two previous assumptions. By using some stochastic optimization models, we solve a succession of decision problems in order to grant the good state of hospitals. Three level of decision are solved: 1. Admission scheduling for elective patients, 2. Patient assignment to hospital floors, 3. Patient assignment to rooms.Cases of study are based on data provided by a french hospital partner of this work, Firminy's Hospital Center
378

Optimisation de la politique de lotissement et de séquencement pour une ligne de production soumise aux aléas / Optimization of a lot-sizing and sequencing problem for an imperfect production line

Schemeleva, Kseniya 13 December 2010 (has links)
Les travaux de recherche effectués dans le cadre de cette thèse concernent un problème delotissement et de séquencement pour une ligne de production imparfaite. Deux types d'aléas sont prisen compte : le rendement aléatoire (à cause des rebuts) et le temps d'exécution aléatoire (à cause despannes machines). Les temps de changement de série dépendant de la séquence des produits sontégalement pris en compte.Le problème est issu de d'une fabrication automatisée (usine-automate) des circuits impriméset il a été posé lors de la conception du système de gestion de production de l'atelier fabriquant lespartons conducteurs de plusieurs types. Étant donné que l'usine était complètement automatisée,l'atelier (comme le reste de l'usine) travaillait la plupart de la journée sans personnel autre que celui demaintenance, alors il fallait construire un planning de production pour les 24 heures suivantes. Ceplanning devait être répété chaque jour. Le problème consistait à définir les quantités optimales deproduits à traiter (tailles de lots) et l'ordre de passage des lots dans une ligne de production afind'optimiser un critère.Le problème traité appartient à trois domaines de recherche: 1) lotissement optimale pour lessystèmes de production imparfaits (ou lotissement sous incertitudes); 2) ordonnancement etlotissement déterministe; 3) ordonnancement avec des temps ou (et) coût de changement de série (setup).Dans la littérature scientifique nous trouvons beaucoup d’exemples de problèmes appartenant auun ou à l’intersection de deux de ces domaines. Par contre, nous n’avons pas trouvé les travaux quitraites de problèmes identiques au notre.Etant donné que le problème est trop compliqué tel qu’il est, nous avons cherché des façonsde son modélisation qui nous permettrons le résoudre. Nous avons trouvé trois cas où le problèmeinitial peut être décomposé en plusieurs parties, chacune entre lesquelles peut être transformé dans unproblème connu de la Recherche Opérationnelle. Ensuite nous avons travaillé que sur la partielotissement du problème décomposé tout en montrant comment les autres partis peuvent être résolus.Les problèmes de ce type sont très importants pour l’optimisation d’une chaine logistique.Ces résolutions aident d’organiser la production à la manière efficace, que permet aux entreprises defaire des gains financiers importants. / This thesis contains the research study of a multi-product lot-sizing and sequencing problemfor an imperfect production line. Two types of uncertainties were taken into account: the random yield(because of defective items) and random lead time (due to machine breakdowns). The sequencedependent set-up time between different products was also taken into account.This problem came from the electronics industry, more precisely from the automatedmanufacturing of several types of Printed Circuit Board. Since the plant was completely automated,the considered production line (like the rest of the plant) worked most of the day without any otherstaff but maintenance one, so it was necessary to consider a production schedule for the next 24 hours.This schedule was repeated every day. The problem was to define the optimal quantities of productsto be manufactured (lot sizes) and the sequence of these lots to optimize a given factor. The problemaddressed belongs to three research domains: 1) optimal lot-sizing for the imperfect productionsystems (or lot-sizing under uncertainty), 2) deterministic lot-sizing and scheduling, 3) schedulingwith set-up times or (and) costs. In the literature we can find many examples of problems belonging toone or the intersection of two of these areas. But we did not find any work that deals with similarproblem to ours.Since the problem is too complicated as it is, we looked for ways of modeling it, which wouldhave allowed us to solve it. We found three cases where the original problem could be decomposedinto several parts, each of which could be converted to a known problem of Operations Research.Then we worked on the lot-sizing part of the decomposed problem. Meanwhile, we showed how otherparties could be resolved.These kinds of problems are very important for a supply chain optimizing. Their solutionshelp to organize an efficient production, which in turn allows to make significant financial gains tocompany.
379

Une approche dynamique pour l'optimisation des communications concurrentes sur réseaux hautes performance

Brunet, Elisabeth 08 December 2008 (has links)
Cette thèse cherche à optimiser les communications des applications de calcul intensif s'exécutant sur des grappes de PC. En raison de l'usage massif de processeurs multicoeurs, il est désormais impératif de gérer un grand nombre de flux de communication concurrents. Nous avons mis en évidence et analysé les performances décevantes des solutions actuelles dans un tel contexte. Nous avons ainsi proposé une architecture de communication centrée sur l'arbitrage de l'accès aux matériels. Son originalité réside dans la dissociation de l'activité de l'application de celle des cartes réseaux. Notre modèle exploite l'intervalle de temps introduit entre le dépot des requêtes de communication et la disponibilité des cartes réseaux pour appliquer des optimisations de manière opportuniste. NewMadeleine implémente ce concept et se révèle capable d'exploiter les réseaux les plus performants du moment. Des tests synthétiques et portages d'implémentations caractéristiques de MPI ont permis de valider l'architecture proposée. / The aim of this thesis is to optimize the communications of high performance applications, in the context of clusters computing. Given the massive use of multicore architectures, it is now crucial to handle a large number of concurrent communication flows. We highlighted and analyzed the shortcomings of existing solutions. We therefore designed a new way to schedule communication flows by focusing on the activity of the network cards. Its novelty consists in untying the activity of applications from that of the network cards. Our model takes advantage of the delay that exists between the deposal of the communication requests and the moment when the network cards become idle in order to apply some opportunistic optimizations. NewMadeleine implements this model, thus making possible to exploit last generation high speed networks. The approach of NewMadeleine is not only validated by synthetical tests but also by real applications.
380

Ordonnancement et allocation de bande passante dans les systèmes de streaming pair-à-pair multicouches / Scheduling and bandwidth allocation in P2P layered streaming systems

Bradai, Abbas 10 December 2012 (has links)
Le but de cette thèse est de proposer des mécanismes efficaces pour l'ordonnancement des chunks et l'allocation de la bande passante dans le contexte de la transmission vidéo sur les réseaux P2P,afin d'offrir une meilleure qualité de service pour l'utilisateur final. Dans un premier temps nousavons proposé un mécanisme d'ordonnancement des chunks pour la transmission de vidéomulticouche dans les réseaux P2P. Le mécanisme proposé est basé sur une nouvelle technique quipermet de sélectionner les chunks adéquats et les demander des pairs les plus appropriés. Ensuitenous avons proposé un mécanisme d'allocation de la bande passante, toujours dans le cadre detransmission de vidéo multicouche dans les réseaux P2P. Le pair émetteur organise une enchère pour«vendre » sa bande passante. L'allocation tient en considération la priorité des pairs et l'importancedes couches demandées. Finalement nous avons proposé un mécanisme d'adaptation lisse « smooth» d'une vidéo multicouche transportée sur un réseau P2P.Après une introduction, nous présentons dans le chapitre 2 les motivations du travail le but du travailet les problèmes recherche qui demeurent. Dans ce chapitre nous présentons les composants dessystèmes P2P et tout particulièrement la distribution et l'adaptation de contenus. Dans ce cadre,nous proposons une classification des applications de streaming vidéo P2P ainsi que des mécanismesd'allocation de bande passante et d'ordonnancement pour le streaming pair-à-pair. Nous nousintéressons également aux techniques d'adaptation de la qualité en se focalisant plusparticulièrement sur la norme SVC (Scalable Video Coding).Le chapitre 3 propose des mécanismes de priorisation pour la planification de streaming P2P multicouches.Nous proposons une heuristique pour résoudre un problème général d'affectationgénéralisé (Generalized Assignment Problem – GAP). La solution présentée est ensuite adaptée aucas du streaming non multicouches. Les résultats issus des simulations montrent que les solutionsproposées donnent de meilleurs résultats que les solutions traditionnelles.Le chapitre 4 décrit un mécanisme d'allocation dynamique de la bande passante pour les réseaux destreaming P2P multicouches qui se base sur l'allocation d'une bande passante aux pairs tout enassurant un minimum de qualité de service à l'ensemble des pairs. Les bonnes performances desmécanismes proposés, qui sont détaillées à travers l'étude du ratio concernant l'utilisation de labande passante ainsi que du niveau de satisfaction des pairs, montrent que ces derniers permettentd'obtenir une utilisation optimale de la bande passante.Le chapitre 5 porte sur le lissage du streaming multicouches dans les réseaux P2P en se basant sur lesmétriques liées à la variation de la fréquence et de l'amplitude. Les mécanismes proposés ont étéimplémentés dans un banc d'essai réel et l'évaluation des performances montrent l'efficacité desmécanismes pour le lissage du streaming.Dans le chapitre 6 (conclusion and perspectives), nous résumons les contributions proposées danscette thèse ainsi qu’une ouverture sur les travaux futures / Recently we witnessed an increasing demand for scalable deployment of real-time multimediastreaming applications over Internet. In this context, Peer-to-Peer (P2P) networks are playing asignificant role for supporting large-scale and robust distribution of multimedia content to end-users.However, due to peers’ dynamicity, heterogeneity of terminals and access networks, the deploymentof real-time video streaming applications over P2P networks arises lot of challenges. Indeed, animportant issue in P2P overlays is the capacity to self-organize in the face of the dynamic behavior ofpeers in order to ensure content availability and continuity. In addition, the heterogeneity in networks,terminals, and P2P characteristics make the situation more challenging. In this context, layered videostreaming in P2P networks has drawn great interest to overcome these challenges, since it can notonly accommodate large numbers of users, but also handle heterogeneity of peers. However, there isstill a lack of comprehensive studies on video data blocks (chunks) scheduling and bandwidthallocation for the smooth playout in layered streaming over P2P networks.The aim of this thesis is to analyze these concerns and to propose an efficient real-time chunksscheduling and bandwidth allocation mechanisms for QoS provisioning of layered streamingapplications over P2P networks. Our contributions in this thesis are threefold. First, we propose ascheduling mechanism for layered P2P streaming. The proposed mechanism relies on a novelscheduling algorithm that enables each peer to select appropriate stream layers, along withappropriate peers to provide them. The presented mechanism makes efficient use of networkresources and provides high system throughput. Second, we propose a bandwidth allocation modelfor P2 layered streaming systems based on auction mechanisms to optimize the allocation of senderpeers’ uploads bandwidth. The upstream peers organize auctions to “sell” theirs items (links’bandwidth) according to bids submitted by the downstream peers taking into consideration the peerspriorities and the requested layers importance. The ultimate goal is to satisfy the quality levelrequirement for each peer, while reducing the overall streaming cost. Finally, we present a smoothingmechanism for layered streaming in P2P networks. The mechanism aims to reduce the number oflayer changes under varying network conditions, and ensure a smooth playout for the end-user.

Page generated in 0.0887 seconds