Spelling suggestions: "subject:"ordonnancement"" "subject:"ordonnancements""
221 |
Ordonnancement de tâches parallèles dans les environnements fortement perturbés / Scheduling parallel tasks in very disturted environmentsSafi, Adel 15 October 2012 (has links)
La démocratisation des nouvelles plateformes d'exécution parallèles et distribuées, notamment les grilles de calcul, a engendré l'émergence de nouvelles d'architectures constituées en grande partie par des ressources fournies par des personnes/organisations volontaires. Ces machines ne sont pas disponibles tout le temps. Elles sont sujettes à des perturbations liées aux incertitudes sur les dates de début et de fin de disponibilités. Pour générer des ordonnancements adaptés à ces plateformes, nous cherchons à optimiser, en plus des fonctions objectifs classiques, un nouveau critère qui caractérise l'aptitude de l'ordonnancement à absorber l'effet des perturbations (la stabilité). Nous nous sommes intéressés dans le cadre de ce travail au problème de l'ordonnancement avec contraintes d'indisponibilité de ressources et d'incertitudes sur les dates d'occurrence des évènements. Nous commençons par étudier le cas préliminaire de ce problème où une seule indisponibilité est possible par machine et où l'incertitude porte sur la durée de l'indisponibilité. Nous généralisons ensuite cette étude pour le cas où plusieurs indisponibilités peuvent être envisagées sur les machines et où l'incertitude porte sur les dates d'occurrences des évènements. Pour l'ensemble de ces problèmes, nous utilisons une technique de tampon pour fournir une famille d'ordonnancements qui optimisent simultanément la performance et la stabilité des ordonnancements générés. Une vaste campagne de simulation des heuristiques proposées conduit à la sélection de configurations qui aboutissent à des résultats satisfaisants en terme de compromis. Mots clés : Parallélisme, ordonnancement, incertitude, disponibilité, stabilité / New platforms for parallel and distributed computing, such grids, are emergent structure build by collecting resources provided by volunteers individuals or organisations. These resources are not always available. They are in fact subject to disturbances related to uncertainty on start and end availability time. In order to design schedules adapted to these platforms we aim to optimise, in addition to the classic objective function, a new criteria that characterise the ability of the schedule to absorb the effect of the perturbation (stability). In this work, we study the problem of scheduling under availability resource constraints and uncertainty on the events occurrence dates. We initially study the elementary case where only one unavailability is allowed per machine and where the duration of the availability is uncertain. We then generalize to the general case when multiple unavailabilities are allowed by machine and where uncertainties are related on the events occurrence dates. For all these problems, we design schedules based on the slack technique, and that optimise both performance and stability. A wide simulation campaign of the designed heuristics lead to the identification of configurations that produces satisfactory results.
|
222 |
Proposition d'outils pour l'ordonnacement de la production dans les usines de mécanique automobile / Proposition of tools for production scheduling in components manufacturing plantsFakhfakh, Mariem 22 October 2012 (has links)
Cette thèse CIFRE, en collaboration avec le constructeur automobile français PSA Peugeot Citroën, a pour but de proposer des solutions novatrices de gestion de production appliquée aux usines de mécanique, et plus particulièrement des politiques de planification et d'ordonnancement de la production des ateliers. Nous apportons des solutions pour résoudre la problématique de la planification de la production avec un redimensionnement des ressources au sein de l'usine de mécanique des amortisseurs. Nous étudions également la problématique de l'ordonnancement et du lissage de la production au sein des usines de mécanique des moteurs. Nous proposons deux approches différentes qui sont testées et comparées sur des données réelles. Nous proposons finalement un outil d'aide à la décision qui a pour objectif de fournir un ordonnancement des montages de moteurs tout en respectant les contraintes industrielles et le lissage de la production. Nos travaux ont été intégrés au sein du système d'information de PSA Peugeot Citroën. / This CIFRE thesis, in partnership with the French car manufacturer PSA Peugeot Citroën, aims to propose innovative solutions of production management applied to components manufacturing plants, and more particularly planning and scheduling policies of production workshops. We provide solutions for the production planning problem with a sizing of resources within a plant producing dampers. We also study the scheduling problem and production leveling problem in engines plants. We propose two different approaches which are tested and compared with real data. We finally propose a tool for decision support that aims to provide a scheduling of engines assembly workshops while respecting the industrial constraints and the production leveling. Our works have been integrated within the PSA Peugeot Citroen information system.
|
223 |
Mapping and scheduling on multi-core processors using SMT solvers / Allocation et ordonnancement sur des processeurs multi-coeur avec des solveurs SMTTendulkar, Pranav 13 October 2014 (has links)
Dans l’objectif d’augmenter les performances, l’architecture des processeurs a évolué versdes plate-formes "multi-core" et "many-core" composées de multiple unités de traitements.Toutefois, trouver des moyens efficaces pour exécuter du logiciel parallèle reste un problèmedifficile. Avec un grand nombre d’unités de calcul disponibles, le logiciel doit orchestrer lacommunication et assurer la synchronisation lors de l’exécution du code. La communication(transport des données entre les différents processeurs) est gérée de façon transparente par lematériel ou explicitement par le logiciel.Les modèles qui représentent les algorithmes de façon structurée et formelle mettent enévidence leur parallélisme inhérent. Le déploiement des logiciels représentés par ces modèlesnécessite de spécifier placement (sur quel processeur s’exécute une certaine tâche) et l’ordonnancement(dans quel ordre sont exécutées les tâches). Le placement et l’ordonnancement sontdes problèmes combinatoires difficile avec un nombre exponentiel de solutions. En outre, lessolutions ont différents coûts qui doivent être optimisés : la consommation de mémoire, letemps d’exécution, les ressources utilisées, etc. C’est un problème d’optimisation multi-critères.La solution à ce problème est ce qu’on appelle un ensemble Pareto-optimal nécessitant desalgorithmes spéciaux pour l’approximer.Nous ciblons une classe d’applications, appelées applications de streaming, qui traitentun flux continu de données. Ces applications qui appliquent un calcul similaire sur différentséléments de données successifs, peuvent être commodément exprimées par une classe de modèlesappelés modèles de flux de données. Le problème du placement et de l’ordonnancementest codé sous forme de contraintes logiques et résolu par un solveur Satisfaisabilité ModuloThéories (SMT). Les solveurs SMT résolvent le problème en combinant des techniques derecherche et de la propagation de contraintes afin d’attribuer des valeurs aux variables duproblème satisfaisant les contraintes de coût données.Dans les applications de flux de données, l’espace de conception explose avec l’augmentationdu nombre de tâches et de processeurs. Dans cette thèse, nous nous attaquons à ceproblème par l’introduction des techniques de réduction de symétrie et démontrons que larupture de symétrie accélère la recherche dans un solveur SMT, permettant ainsi l’augmentationde la taille du problème qui peut être résolu. Notre algorithme d’exploration de l’espacede conception approxime le front de Pareto du problème et produit des solutions pour différentscompromis de coûts. De plus, nous étendons le problème d’ordonnancement pour lesplate-formes "many-core" qui sont une catégorie de plate-forme multi coeurs où les unités sontconnectés par un réseau sur puce (NoC). Nous fournissons un flot de conception qui réalise leplacement des applications sur de telles plate-formes et insert automatiquement des élémentssupplémentaires pour modéliser la communication à l’aide de mémoires de taille bornée. Nousprésentons des résultats expérimentaux obtenus sur deux plate-formes existantes : la machineKalray à 256 processeurs et les Tilera TILE-64. / In order to achieve performance gains, computers have evolved to multi-core and many-core platforms abounding with multiple processor cores. However the problem of finding efficient ways to execute parallel software on them is hard. With a large number of processor cores available, the software must orchestrate the communication, synchronization along with the code execution. Communication corresponds to the transport of data between different processors, handled transparently by the hardware or explicitly by the software.Models which represent the algorithms in a structured and formal way expose the available parallelism. Deployment of the software algorithms represented by such models needs a specification of which processor to execute the tasks on (mapping) and when to execute them (scheduling). Mapping and scheduling is a hard combinatorial problem with exponential number of solutions. In addition, the solutions have multiple costs that need to be optimized, such as memory consumption, time to execute, resources used etc. Such a problem with multiple costs is called a multi-criteria optimization problem. The solution to this problem is a set of incomparable solutions called Pareto solutions which need special algorithms to approximate them.We target a class of applications called streaming applications, which process a continuous stream of data. These applications apply similar computation on different data items, can be conveniently expressed by a class of models called dataflow models. We encode mapping and scheduling problem in form of logical constraints and present it to satisfiability modulo theory (SMT) solvers. SMT solvers, solve the encoded problem by using a combination of search techniques and constraint propagation to find an assignment to the problem variables satisfying the given cost constraints.In dataflow applications, the design space explodes with increased number of tasks and processors. In this thesis, we tackle this problem by introduction symmetry reduction techniques and demonstrate that symmetry breaking accelerates search in SMT solver, increasing the size of the problem that can be solved. Our design-space exploration algorithm approximates Pareto front of the problem and produces solutions with different cost trade-offs. Further we extend the scheduling problem to the many-core platforms which are a group of multi-core platforms connected by network-on-chip. We provide a design flow which performs mapping of the applications on such platforms and automatic insertion of additional elements to model the communication using bounded memory. We provide experimental results obtained on the 256-processor Kalray and the Tilera TILE-64 platforms.The multi-core processors have typically a small amount of memory close to the processor, generally insufficient for all application data to fit. We study a class of parallel applications having a regular data access pattern and large amount of data to be processed by a uniform computation. The data must be brought from main memory to local memory, processed and then the results written back to main memory, all in batches. Selecting the proper granularity of the data that is brought into local memory is an optimization problem. We formalize this problem and provide a way to determine the optimal transfer granularity depending on the characteristics of application and the hardware platform.In addition to the scheduling problems and local memory management, we study a part of the problem of runtime management of the applications. Applications in modern embedded systems can start and stop dynamically. In order to execute all the applications efficiently and to optimize global costs such as power consumption, execution time etc., the applications must be reconfigured dynamically at runtime. We present a predictable and composable (executing independently without affecting others) way of migrating tasks according to the reconfiguration decision.
|
224 |
High-multiplicity Scheduling and Packing Problems : Theory and Applications / Ordonnancement en high-multiplicity et applications : théorie et applicationsGabay, Michael 20 October 2014 (has links)
L'encodage High-Multiplicity est un encodage naturel des données consistant, en ordonnancement, à réunir les tâches similaires et, pour chaque type, décrire les caractéristiques d'une seule tâche et le nombre de tâches de ce type. Cet encodage est très compact et lorsqu'il est considéré, pose de nombreux problème pour analyser la complexités des problèmes considérés. L'objectif de cette thèse est de proposer des techniques permettant de traiter les problèmes high-multiplicity. Nous exposons celles-ci à travers divers exemples. Nous étudions le problème d'ordonnancement high-multiplicity avec indisponibilités des opérateurs et montrons que celui-ci est polynomial lorsque le nombre de type de tâches est supérieur au nombre d'instants d'indisponibilités. Nous étudions les problème d'ordonnancement de tâches couplées identiques et montrons sur ce problème de nombreuses difficultés majeures de l'ordonnancement high-multiplicity. Nous améliorons les meilleures bornes supérieures et inférieures sur le problème de bin stretching. Nous étudions le problème de vector packing avec des récipients hétérogènes et proposons des heuristiques pour celui-ci. Enfin, nous proposons un algorithme de réduction très général pour les problèmes de placement d'objets. Cet algorithme peut être appliqué en temps polynomial en le nombre de type d'objets et de récipients. / High-Multiplicity encoding is a natural encoding of data. In scheduling, it simply consists in stating once the characteristics of each type of tasks and the number of tasks of this type. This encoding is very compact and natural but it is generally supposed in scheduling that all tasks are specified separately. High-Multiplicity scheduling, when considered, raises many complexity issues because of the small input size. The aim of this thesis is to provide insights on how to cope with high-multiplicity scheduling problems. We also seek to contribute to scheduling and packing in general. We expose different techniques and approaches and use them to solve specific scheduling and packing problems. We study the high-multiplicity single machine scheduling problem with forbidden start and completion times and show that this problem is polynomial with large diversity instances. We present the identical coupled-task scheduling problem and display many difficulties and issues occurring in high-multiplicity scheduling on this problem. We improve the best upper and lower bounds on the bin stretching problem. We study the vector packing problems with heterogeneous bins and propose heuristics for this problem. Finally, we present a general reduction algorithm for packing problems which can be applied in polynomial time, even with high-multiplicity encoding of the input.
|
225 |
Proposition et étude d'une extension du RCPSP pour la Mutualisation entre plusieurs sites : définition, formalisation, méthodes exactes et métaheuristiques / Proposition and study of an extension of the RCPSP with resource pooling between distant sitesLaurent, Arnaud 10 October 2017 (has links)
Cette thèse a pour objet l’étude d’une extension du RCPSP, un problème d’ordonnancement de tâches et d’affectation de ressources. Cette extension considère un aspect multi-site au problème. Cette extension a pour but de modéliser des problématiques de mutualisation de ressources entre plusieurs sites, comme c’est notamment le cas dans les communautés hospitalières. Pour résoudre ce problème nous avons proposé des méthodes exactes ainsi que des méthodes approchées. Deux modèles mathématiques ont été proposés et comparés sur de petites instances générées. Des méthodes approchées ont également été proposées. Ces méthodes s’articulent sur un couplage méta-heuritique / algorithme d’ordre strict et permettent d’explorer un espace de recherche restreint. Trois différents codages de solution ont été proposés ainsi que trois algorithmes d’ordre strict correspondant à chacun des trois codages. Ces différentes méthodes ont été comparées et analysées selon les instances et le temps de calcul alloué. / Résumé non disponible
|
226 |
Modélisation et simulation informatique de l'innovation en médecine : Conception d'un outil d'aide à l'évaluation médico-économique des centres de radiothérapie / Modeling and computer simulation of medical innovation : Design of a aid to medico-economic evaluation of radiotherapy centers toolShtiliyanova, Anastasiya 26 November 2012 (has links)
La thèse porte sur la conception d'un prototype logiciel ayant pour but l'évaluation de l'offre et de la demande pour les centres utilisant des traitements innovants en radiothérapie (hadronthérapie, tomothérapie, stéréotaxie, Cyberknife . . .). Le domaine applicatif visé est le domaine médical. L'étude menée porte également sur la modélisation du comportement du patient face à ces nouvelles technologies, sur leur mise en place et leur utilisation au sein des établissements de santé. Dans notre étude, nous modélisons des facteurs très importants tels que la qualité de vie du patient et sa prise en charge au niveau hospitalier. Nous nous intéressons au coût d'installation et d'entretien des nouvelles technologies. Nous comparons les nouvelles techniques utilisées en radiothérapie avec celles déjà existantes et bien évaluées. La comparaison est effectuée sur plusieurs critères, comprenant les critères médicaux et les critères financiers, dont le remboursement par la sécurité sociale enFrance. L'outil logiciel correspondant est construit en utilisant des techniques de modélisation multi-agents, en intégrant les techniques et le savoir-faire médicaux, ainsi que des modèles épidémiologiques pour caractériser les patients concernés et les thérapies correspondantes dans les centres de radiothérapie. Des méthodes économiques sont implémentées pour évaluer les coûts correspondants. / The main subject of the thesis is the modelling and the implementation of a software prototype for evaluating the supply and the demand for radiotherapy centers using innovative therapies (such as hadrontherapy, tomotherapy, stereotaxy, Cyberknife, . . .). The prototype should be used in the medical domain. The patient behaviour with respect to those new technologies is studied as well as their utilization in health institutions. The study takes into account important factors such as the quality of life of the patient and its treatment in a hospital. The costs of installation and maintainance are included in the tool. The new innovative radiotherapy techniques are compared with the existing ones. The comparison is based on medical and financial criteria, including refunding by the French public health insurance system. The software is based on multi-agent systems, and integrates medical knowledge as well as epidemiologic models for characterizing patients and relevant radio-therapies. Economical methods are also implemented for evaluating the associated costs.
|
227 |
Scheduling and deployment of large-scale applications on Cloud platforms / Ordonnancement et déploiement d'applications de gestion de données à grande échelle sur des plates-formes de type CloudsMuresan, Adrian 10 December 2012 (has links)
L'usage des plateformes de Cloud Computing offrant une Infrastructure en tant que service (IaaS) a augmenté au sein de l'industrie. Les infrastructures IaaS fournissent des ressources virtuelles depuis un catalogue de types prédéfinis. Les avancées dans le domaine de la virtualisation rendent possible la création et la destruction de machines virtuelles au fur et à mesure, avec un faible surcout d'exploitation. En conséquence, le bénéfice offert par les plate-formes IaaS est la possibilité de dimensionner une architecture virtuelle au fur et à mesure de l'utilisation, et de payer uniquement les ressources utilisées. D'un point de vue scientifique, les plateformes IaaS soulèvent de nouvelles questions concernant l'efficacité des décisions prises en terme de passage à l'échelle, et également l'ordonnancement des applications sur les plateformes dynamiques. Les travaux de cette thèse explorent ce thème et proposent des solutions à ces deux problématiques. La première contribution décrite dans cette thèse concerne la gestion des ressources. Nous avons travaillé sur le redimensionnement automatique des applications clientes de Cloud afin de modéliser les variations d'utilisation de la plateforme. De nombreuses études ont montré des autosimilarités dans le trafic web des plateformes, ce qui implique l'existence de motifs répétitifs pouvant être périodiques ou non. Nous avons développé une stratégie automatique de dimensionnement, capable de prédire le temps d'utilisation de la plateforme en identifiant les motifs répétitifs non périodiques. Dans un second temps, nous avons proposé d'étendre les fonctionnalités d'un intergiciel de grilles, en implémentant une utilisation des ressources à la demandes.Nous avons développé une extension pour l'intergiciel DIET (Distributed Interactive Engineering Toolkit), qui utilise un marché virtuel pour gérer l'allocation des ressources. Chaque utilisateur se voit attribué un montant de monnaie virtuelle qu'il utilisera pour exécuter ses tâches. Le mécanisme d'aide assure un partage équitable des ressources de la plateforme entre les différents utilisateurs. La troisième et dernière contribution vise la gestion d'applications pour les plateformes IaaS. Nous avons étudié et développé une stratégie d'allocation des ressources pour les applications de type workflow avec des contraintes budgétaires. L'abstraction des applications de type workflow est très fréquente au sein des applications scientifiques, dans des domaines variés allant de la géologie à la bioinformatique. Dans ces travaux, nous avons considéré un modèle général d'applications de type workflow qui contient des tâches parallèles et permet des transitions non déterministes. Nous avons élaboré deux stratégies d'allocations à contraintes budgétaires pour ce type d'applications. Le problème est une optimisation à deux critères dans la mesure où nous optimisons le budget et le temps total du flux d'opérations. Ces travaux ont été validés de façon expérimentale par leurs implémentations au sein de la plateforme de Cloud libre Nimbus et de moteur de workflow MADAG présent au sein de DIET. Les tests ont été effectuées sur une simulation de cosmologie appelée RAMSES. RAMSES est une application parallèle qui, dans le cadre de ces travaux, a été portée sur des plateformes virtuelles dynamiques. L'ensemble des résultats théoriques et pratiques ont débouché sur des résultats encourageants et des améliorations. / Infrastructure as a service (IaaS) Cloud platforms are increasingly used in the IT industry. IaaS platforms are providers of virtual resources from a catalogue of predefined types. Improvements in virtualization technology make it possible to create and destroy virtual machines on the fly, with a low overhead. As a result, the great benefit of IaaS platforms is the ability to scale a virtual platform on the fly, while only paying for the used resources. From a research point of view, IaaS platforms raise new questions in terms of making efficient virtual platform scaling decisions and then efficiently scheduling applications on dynamic platforms. The current thesis is a step forward towards exploring and answering these questions. The first contribution of the current work is focused on resource management. We have worked on the topic of automatically scaling cloud client applications to meet changing platform usage. There have been various studies showing self-similarities in web platform traffic which implies the existence of usage patterns that may or may not be periodical. We have developed an automatic platform scaling strategy that predicted platform usage by identifying non-periodic usage patterns and extrapolating future platform usage based on them. Next we have focused on extending an existing grid platform with on-demand resources from an IaaS platform. We have developed an extension to the DIET (Distributed Interactive Engineering Toolkit) middleware, that uses a virtual market based approach to perform resource allocation. Each user is given a sum of virtual currency that he will use for running his tasks. This mechanism help in ensuring fair platform sharing between users. The third and final contribution targets application management for IaaS platforms. We have studied and developed an allocation strategy for budget-constrained workflow applications that target IaaS Cloud platforms. The workflow abstraction is very common amongst scientific applications. It is easy to find examples in any field from bioinformatics to geology. In this work we have considered a general model of workflow applications that comprise parallel tasks and permit non-deterministic transitions. We have elaborated two budget-constrained allocation strategies for this type of workflow. The problem is a bi-criteria optimization problem as we are optimizing both budget and workflow makespan. This work has been practically validated by implementing it on top of the Nimbus open source cloud platform and the DIET MADAG workflow engine. This is being tested with a cosmological simulation workflow application called RAMSES. This is a parallel MPI application that, as part of this work, has been ported for execution on dynamic virtual platforms. Both theoretical simulations and practical experiments have shown encouraging results and improvements.
|
228 |
Real-time scheduling for energy haversting embedded systems / Gestion de l'énergie renouvelable et ordonnancement temps réel dans les systèmes embarquésChandarli, Younès 02 December 2014 (has links)
Dans cette thèse nous nous intéressons à la problématique de l'ordonnancement temps réel à priorité fixe des systèmes embarqués récupérant leur énergie de l'environnement. Ces derniers collectent l'énergie ambiante de l'environnement et la stockent dans un réservoir d'énergie afin d'alimenter un appareil électronique. Cette technologie est utilisée dans les petits systèmes embarqués qui nécessitent une longue autonomie. Les réseaux de capteurs et les implants médicaux sont des applications typiques de cette technologie. La majorité des systèmes qui opèrent avec cette technologie doivent exécuter des tâches récurrentes dans un temps imparti. Ainsi, ces systèmes sont soumis à des contraintes dites temps réel où le respect des contraintes temporelles est aussi important que l'exactitude des résultats. Cette thèse traite l'ordonnancement préemptif à priorité fixe de ce genre de systèmes sur des plateformes monoprocesseur. La problématique ici est de trouver des algorithmes d'ordonnancement performants ainsi que des conditions d'ordonnançabilité qui vérifient l'ordonnançabilité d'un système donné dans une configuration d'énergie donnée. La première contribution de cette thèse est la proposition de l'algorithme PFPasap. Il s'agit d'une adaptation de l'ordonnancement préemptif classique à priorité fixe aux contraintes énergétiques. Cela consiste à exécuter les tâches dès que l'énergie est suffisante pour exécuter au moins une unité de temps et à seulement recharger dans le cas échéant. Les périodes de rechargement sont aussi longues que nécessaire pour pouvoir exécuter une seule unité de temps. On prouve que PFPasap est optimal mais uniquement dans le cas des systèmes dits non-concrets où la date de la première activation des tâches et le niveau initial du réservoir d'énergie ne sont connus qu'au moment de l'exécution, et quand toutes les tâches consomment plus d'énergie pendant leur exécution que le système n'en collecte. Une condition d'ordonnançabilité nécessaire et suffisante pour ce type de systèmes est également proposée. Malheureusement, si l'on relâche l'hypothèse sur le profil de consommation d'énergie des tâches, en considérant des tâches qui consomment plus que le rechargement et d'autres qui consomment moins, l'algorithme PFPasap n'est plus optimal et l'activation synchrone n'est plus le pire scénario ce qui rend la condition d'ordonnançabilité précédemment citée seulement nécessaire. Pour cela, nous proposons de borner le pire temps de réponse des tâches afin de construire des conditions suffisantes. Concernant l'optimalité, nous explorons différentes idées dans le but de construire un algorithme optimal en considérant tous les types de systèmes de tâches et tous les profils de consommation d'énergie. Nous montrons aussi que la plupart des idées intuitives n'aboutissant pas à des algorithmes optimaux. Dans le but de mieux comprendre notre problématique, nous proposons d'explorer les solutions proposées pour des problématiques similaires, en particulier celles où le retardement des exécutions est parfois nécessaire pour respecter certaines contraintes. L'ordonnancement avec contraintes thermiques est l'une de ces problématiques. Cette dernière consiste à exécuter les tâches de tel sorte qu'une certaine température maximale n'est jamais atteinte. Cela passe par la suspension des exécutions de temps en temps pour rajouter des temps de refroidissement afin d'éviter que la température maximale ne soit atteinte. Comme première étape, nous proposons d'adapter les solutions proposées pour les systèmes à énergie renouvelable aux systèmes à contraintes thermiques. Ainsi, nous adaptons l'algorithme PFPasap afin que la contrainte thermique soit respectée. Nous proposons également une analyse d'ordonnançabilité basée sur des bornes du pire temps de réponse des tâches. Pour terminer, nous présentons YARTISS : l'outil de simulation développé pendant cette thèse pour évaluer les résultats théoriques / In this thesis, we are interested in the real-time fixed-priority scheduling problem of energy-harvesting systems. An energy-harvesting system is a system that can collect the energy from the environment in order to store it in a storage device and then to use it to supply an electronic device. This technology is used in small embedded systems that are required to run autonomously for a very long lifespan. Wireless sensor networks and medical implants are typical applications of this technology. Moreover, most of these devices have to execute many recurrent tasks within a limited time. Thus, these devices are subject to real-time constraints where the correctness of the system depends not only on the correctness of the results but also on the time in which they are delivered. This thesis focuses on the preemptive fixed-task-priority real-time scheduling for such systems in monoprocessor platforms. The problematic here is to find efficient scheduling algorithms and schedulability conditions that check the schedulability of a given task set in a given energy configuration. The first result of this thesis is the proposition of the PFPasap scheduling algorithm. It is an adaptation of the classical fixed-task-priority scheduling to the energy-harvesting context. It consists of executing tasks as soon as possible whenever the energy is sufficient to execute at least one time unit and replenishes otherwise. The replenishment periods are as long as needed to execute one time unit. We prove that PFPasap is optimal but only in the case of non-concrete systems where the first release time of tasks and the initial energy storage unit level are known only at run-time and where all the tasks consume more energy than the replenishment during execution times. A sufficient and necessary schedulability condition for such systems is also proposed. Unfortunately, when we relax the assumption of tasks energy consumption profile, by considering both tasks that consume more energy than the replenishment and the ones that consume less than the replenishment, PFPasap is no longer optimal and the worst-case scenario is no longer the synchronous release of all the tasks, which makes the precedent schedulability test only necessary. To cope with this limitation, we propose to upper bound tasks worst-case response time in order to build sufficient schedulability conditions instead of exact ones. Regarding algorithms optimality, we explore different ideas in order to build an optimal algorithm for the general model of fixed-task-priority tasks by considering all types of task sets and energy consumption profiles. We show through some counter examples the difficulty of finding such an algorithm and we show that most of intuitive scheduling algorithms are not optimal. After that, we discuss the possibility of finding such an algorithm. In order to better understand the scheduling problematic of fixed-priority scheduling for energy-harvesting systems, we also try to explore the solutions of similar scheduling problematics, especially the ones that delay executions in order to guarantee some requirements. The thermal-aware scheduling is one of these problematics. It consists of executing tasks such that a maximum temperature is never exceeded. This may lead to introduce additional idle times to cool down the system in order to prevent reaching the maximum temperature. As a first step, we propose in this thesis to adapt the solutions proposed for energy-harvesting systems to the thermal-aware model. Thus, we adapt the PFPasap algorithm to respect the thermal constraints and we propose a sufficient schedulability analysis based on worst-case response time upper bounds. Finally, we present YARTISS: the simulation tool used to evaluate the theoretical results presented in this dissertation
|
229 |
Résolution conjointe de problèmes d'ordonnancement et de routage / Integrated resolution of scheduling and routing problemsVinot, Marina 26 October 2017 (has links)
Cette thèse porte sur la modélisation et la résolution de différents problèmes intégrés d'ordonnancement et de transport. Ces problèmes demandent, entre autre, une coordination entre des activités/opérations de production, qui se définissent par une date de début et une durée, et des opérations de transport, qui se définissent par une date de début, une date de fin et une quantité transportée. Pour résoudre ces problèmes, plusieurs méthodes d'optimisation de type métaheuristique sont proposées, afin d’obtenir des solutions de bonne qualité dans des temps raisonnables. Trois problèmes intégrés sont traités successivement : 1) un problème d’ordonnancement à une machine avec un problème de transport limité à un seul véhicule ; 2) un problème d’ordonnancement à une machine avec un problème de transport à plusieurs véhicules ; 3) un problème d’ordonnancement de type RCPSP avec une flotte hétérogène de véhicules, permettant le transport des ressources entre les activités. Le premier problème est un problème d'ordonnancement/transport de type PTSP (Production and Transportation Scheduling Problem - PTSP), limité à un seul véhicule, présenté en 2008 par Geismar et al.. Une méthode de résolution de type GRASP×ELS est proposée dans le chapitre 2, les résultats obtenus avec cette méthode sont comparés aux meilleurs résultats de la littérature. Cette méthode est étendue dans le chapitre 3, afin de traiter du problème de PTPSP, avec une flotte homogène de véhicules. La méthode proposée possède un champ d'application plus large que la méthode de Geimar et al., dédiée au PTSP avec un véhicule, mais permet de résoudre efficacement le cas à un véhicule. Le dernier problème traité concerne la résolution d'un RCPSP, dans lequel une flotte de véhicules assure le transport d'une ressource d'une activité à l'autre. L'objectif est d'offrir une approche tirant profit de décisions stratégiques (organiser des échanges – flot – entre des sites), pour déterminer un plan de transport. La difficulté principale consiste à utiliser le flot, pour déterminer les opérations de transport (création de lots), afin de résoudre le problème d'affectation des véhicules, pour finalement ordonnancer les opérations de transport. Sur ce problème, une méthode heuristique de transformation est présentée dans le chapitre 4, ainsi qu’une méthode exacte (basée sur un algorithme de plus court chemin à contraintes de ressources) dans le chapitre 5. / This dissertation focuses on modelling and resolution of integrated scheduling and routing problems. Efficient resolutions of these problems required a proper coordination of activities/production operation, defined by starting and finishing times, and of transport operations, fully defined by starting times, finishing times and quantities of resources transferred.The resolution of this problem is based on several metaheuristics, with the aim to obtain high quality solutions in acceptable computational time. Three problems are iteratively studied considering: 1) a single machine scheduling problem and a transportation problem with a single vehicle; 2) a single machine scheduling problem with a homogeneous fleet of vehicles for the transport; 3) a RCPSP where the flow transferred between activities is transported by a heterogeneous fleet of vehicles.The first problem addressed is the PTSP (Production and Transportation Scheduling Problem - PTSP) where the routing part is devoted to a single vehicle (Geismar et al., 2008). The chapter 2 focuses on a GRASP×ELS method benchmarked with the best published methods. This method is extended to the PTSP with multiple vehicles in the chapter 3, and the method shows its capacity to address a wide range of problem, since the PTSP with a single vehicle is a special case. The second problem deals with the RCPSP, where a heterogeneous fleet of vehicles is devoted to the transportation of resources, between activities. The objective consists in considering a flow (activity exchanges solved at a strategic level), to compute a transportation plan. The main difficulties consists in using the flow to compute transport batches. A heuristic-based approach is introduced in the chapter 4 and an exact method is provided in the chapter 5.
|
230 |
Distribution d'une architecture modulaire intégrée dans un contexte hélicoptèreBérard-Deroche, Émilie 12 December 2017 (has links) (PDF)
Les architectures modulaires intégrées (IMA) sont une évolution majeure de l'architecture des systèmes avioniques. Elles permettent à plusieurs systèmes de se partager des ressources matérielles sans interférer dans leur fonctionnement grâce à un partitionnement spatial (zones mémoires prédéfinies) et temporel (ordonnancement statique) dans les processeurs ainsi qu'une réservation des ressources sur les réseaux empruntés. Ces allocations statiques permettent de vérifier le déterminisme général des différents systèmes: chaque système doit respecter des exigences de bout-en-bout dans une architecture asynchrone. Une étude pire cas permet d'évaluer les situations amenant aux limites du système et de vérifier que les exigences de bouten- bout sont satisfaites dans tous les cas. Les architectures IMA utilisés dans les avions centralisent physiquement des modules de calcul puissants dans des baies avioniques. Dans le cadre d'une étude de cas hélicoptère, ces baies ne sont pas envisageables pour des raisons d'encombrement: des processeurs moins puissants, utilisés à plus de 80%, composent ces architectures. Pour ajouter de nouvelles fonctionnalités ainsi que de nouveaux équipements, le souhait est de distribuer la puissance de traitement sur un plus grand nombre de processeurs dans le cadre d'une architecture globale asynchrone. Deux problématiques fortes ont été mises en avant tout au long de cette thèse. La première est la répartition des fonctions avioniques associée à une contrainte d'ordonnancement hors-ligne sur les différents processeurs. La deuxième est la satisfaction des exigences de communication de bout-en-bout, dépendantes de l'allocation et l'ordonnancement des fonctions ainsi que des latences de communication sur les réseaux. La contribution majeure de cette thèse est la recherche d'un compromis entre la distribution des architectures IMA sur un plus grand nombre de processeurs et la satisfaction des exigences de communication de bout-en-bout. Nous répondons à cet enjeu de la manière suivante: - Nous formalisons dans un premier temps un modèle de partitions communicantes tenant en compte des contraintes d'allocation et d'ordonnancement des partitions d'une part et des contraintes de communication de bout-en-bout entre partitions d'autre part. - Nous présentons dans un deuxième temps une recherche exhaustive des architectures valides. Nous proposons l'allocation successive des fonctions avioniques en considérant au même niveau la problématique d'ordonnancement et la satisfaction des exigences de bout-en-bout avec des latences de communication figées. Cette méthode itérative permet de construire des allocations de partitions partiellement valides. La construction des ordonnancements dans chacun des processeurs est cependant une démarche coûteuse dans le cadre d'une recherche exhaustive. - Nous avons conçu dans un troisième temps une heuristique gloutonne pour réduire l'espace de recherche associé aux ordonnancements. Elle permet de répondre aux enjeux de distribution d'une architecture IMA dans un contexte hélicoptère. - Nous nous intéressons dans un quatrième temps à l'impact des latences de communication de bout-en-bout sur des architectures distribuées données. Nous proposons pour celles-ci les choix de réseaux basés sur les latences de communication admissibles entre les différentes fonctions avioniques. Les méthodes que nous proposons répondent au besoin industriel de l'étude de cas hélicoptère, ainsi qu'à celui de systèmes de plus grande taille.
|
Page generated in 0.0759 seconds