• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 379
  • 167
  • 50
  • 1
  • Tagged with
  • 592
  • 239
  • 177
  • 174
  • 119
  • 111
  • 100
  • 92
  • 91
  • 87
  • 86
  • 84
  • 83
  • 74
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Optimisation de changements de séries par ordonnancement des tâches de réglage

Pessan, Cedric Néron, Emmanuel. January 2008 (has links) (PDF)
Thèse de doctorat : Informatique : Tours : 2008. / Titre provenant de l'écran-titre.
72

Chaînes d'approvisionnement approches stratégique et tactique /

Chauhan, Satyaveer Singh. Proth, Jean-Marie. January 2008 (has links) (PDF)
Reproduction de : Thèse doctorat : Automatique : Metz : 2003. / Titre provenant de l'écran-titre. Notes bibliographiques.
73

Mécanismes de gestion des flots d'éxécution d'exploitation écrit en langage Java

Motsch, Cédric Banâtre, Michel. January 2007 (has links) (PDF)
Thèse doctorat : Informatique : Rennes 1 : 2007. / Bibliogr. p. 183-187.
74

Ordonnancement hybride des applications flots de données sur des systèmes embarqués multi-coeurs / Hybrid scheduling of streaming applications to account for interprocessor communication in embedded manycores

Dkhil, Amira 14 April 2015 (has links)
Les systèmes embarqués sont de plus en plus présents dans l'industrie comme dans la vie quotidienne. Une grande partie de ces systèmes comprend des applications effectuant du traitement intensif des données: elles utilisent de nombreux filtres numériques, où les opérations sur les données sont répétitives et ont un contrôle limité. Les graphes "flots de données", grâce à leur déterminisme fonctionnel inhérent, sont très répandus pour modéliser les systèmes embarqués connus sous le nom de "data-driven". L'ordonnancement statique et périodique des graphes flot de données a été largement étudié, surtout pour deux modèles particuliers: SDF et CSDF. Dans cette thèse, on s'intéresse plus particulièrement à l'ordonnancement périodique des graphes CSDF. Le problème consiste à identifier des séquences périodiques infinies d'actionnement des acteurs qui aboutissent à des exécutions complètes à buffers bornés. L'objectif est de pouvoir aborder ce problème sous des angles différents : maximisation de débit, minimisation de la latence et minimisation de la capacité des buffers. La plupart des travaux existants proposent des solutions pour l'optimisation du débit et négligent le problème d'optimisation de la latence et propose même dans certains cas des ordonnancements qui ont un impact négatif sur elle afin de conserver les propriétés de périodicité. On propose dans cette thèse un ordonnancement hybride, nommé Self-Timed Périodique (STP), qui peut conserver les propriétés d'un ordonnancement périodique et à la fois améliorer considérablement sa performance en terme de latence. / One of the most important aspects of parallel computing is its close relation to the underlying hardware and programming models. In this PhD thesis, we take dataflow as the basic model of computation, as it fits the streaming application domain. Cyclo-Static Dataflow (CSDF) is particularly interesting because this variant is one of the most expressive dataflow models while still being analyzable at design time. Describing the system at higher levels of abstraction is not sufficient, e.g. dataflow have no direct means to optimize communication channels generally based on shared buffers. Therefore, we need to link the dataflow MoCs used for performance analysis of the programs, the real time task models used for timing analysis and the low-level model used to derive communication times. This thesis proposes a design flow that meets these challenges, while enabling features such as temporal isolation and taking into account other challenges such as predictability and ease of validation. To this end, we propose a new scheduling policy noted Self-Timed Periodic (STP), which is an execution model combining Self-Timed Scheduling (STS) with periodic scheduling. In STP scheduling, actors are no longer strictly periodic but self-timed assigned to periodic levels: the period of each actor under periodic scheduling is replaced by its worst-case execution time. Then, STP retains some of the performance and flexibility of self-timed schedule, in which execution times of actors need only be estimates, and at the same time makes use of the fact that with a periodic schedule we can derive a tight estimation of the required performance metrics.
75

Algorithmes pour les problèmes de tournées à la demande / Algorithms for on-demand touring problems

Zhao, Xiagang 06 May 2011 (has links)
Dans le cadre de cette thèse, nous nous intéressons au problème du transport à la demande. Nous proposons des heuristiques pour résoudre ce problème de manière rapide et efficace. Dans cette thèse, nous traitons trois problèmes : le premier est le Dial-a-ride (DARP standard). Pour ce problème, nous proposons des heuristiques basées sur la technique d’insertion et une technique de propagation de contrainte. Nous proposons aussi la procédure SPLIT et des opérateurs classiques de recherche locale pour résoudre ce problème. Le second est le DARP multicritères pour laquelle nous proposons un schéma de type ELS. Le troisième est un problème de transport à la demande avec contraintes financières (DARPF), qui est une extension de DARP. Nous résolvons ce problème grâce à une heuristique d’insertion et une technique de propagation de contraintes. La fonction objectif détermine les caractéristiques des tournées. Des résultats expérimentaux montrent que nos (méta-) heuristiques donnent des résultats plus favorables aux clients (meilleure qualité de service) / As part of this thesis, we investigate the vehicle routing problem. We propose heuristics to solve this problem quickly and efficiently. In this thesis, we deal with three problems: the first is the Dial-a-ride problem. For this problem, we propose heuristics based on the technique of insertion and a constraint propagation technique. We propose also the procedure SPLIT and some operators of local research to solve this problem. The second is the multi-criteria DARP for which we propose an ELS framework. The third is a DARP problem with financial constraints (DARPF), which is an extension of DARP. We solve this problem thanks to insertion heuristics using a constraint propagation technique. The objective function determines the characteristics of the tour. Experimental results show that our (meta-) heuristics give results more favorable to customers (better quality of service)
76

Ordonnancement stochastique avec impatience / Stochastic scheduling with impatience

Salch, Alexandre 29 November 2013 (has links)
Le sujet de cette thèse est l'étude de systèmes de production avec impatience. Ces systèmes sont modélisés comme des problèmes d'ordonnancement stochastiques avec des dates d'échéance. Dans la littérature, peu de résultats existent sur le contrôle optimal de ce genre de systèmes. C'est dans ce cadre que s'inscrit cette thèse. Nous considérons un système générique avec une machine, sur laquelle des tâches sont à exécuter. Les durées d'exécution, les dates d'échéance (ou durées d'impatience) et les dates de disponibilité des tâches sont des variables aléatoires. À chaque tâche est associé un poids et l'objectif est de minimiser l'espérance du nombre pondéré de tâches en retard. Dans notre étude, nous utilisons différentes modélisations, rendant compte des différentes contraintes régissant des systèmes réels. Notamment, nous faisons la différence entre l'impatience, le fait d'avoir attendu trop longtemps, et l'abandon, le fait de quitter le système suite à l'impatience. Dans la classe des politiques statiques, nous donnons des ordonnancements optimaux pour des problèmes avec impatience. Dans la classe des politiques dynamiques avec préemption, nous donnons de nouvelles conditions garantissant l'optimalité d'une politique stricte pour des problèmes avec abandon et nous proposons une heuristique plus efficace que celles que l'on trouve dans la littérature. Enfin, nous explorons des variantes et des extensions de ces problèmes, lorsque le système comporte plusieurs machines et lorsque la préemption n'est pas autorisée. / In this thesis, production systems facing abandonments are studied. These problems are modeled as stochastic scheduling problems with due dates. In the literature, few results exist concerning the optimal control of such systems. This thesis aims at providing optimal control policies for systems with impatience. We consider a generic system with a single machine, on which jobs have to be processed. Processing times, due dates (or patience time) and release dates are random variables. A weight is associated to each job and the objective is to minimize the expected weighted number of late jobs. In our study, we use different models, taking into account the specific features of real life problems. For example, we make a difference between impatience, when a customer has been waiting for too long, and abandonment, when a customer leaves the system after getting impatient. In the class of static list scheduling policies, we provide optimal schedules for problems with impatience. In the class of preemptive dynamic policies, we specify conditions under which a strict priority rule is optimal and we give a new heuristic, both extending previous results from the literature. We study variants and extensions of these problems, when several machines are available or when preemption is not authorized.
77

Improving MapReduce Performance on Clusters / Amélioration des performances de MapReduce sur grappe de calcul

Gault, Sylvain 23 March 2015 (has links)
Beaucoup de disciplines scientifiques s'appuient désormais sur l'analyse et la fouille de masses gigantesques de données pour produire de nouveaux résultats. Ces données brutes sont produites à des débits toujours plus élevés par divers types d'instruments tels que les séquenceurs d'ADN en biologie, le Large Hadron Collider (LHC) qui produisait en 2012, 25 pétaoctets par an, ou les grands télescopes tels que le Large Synoptic Survey Telescope (LSST) qui devrait produire 30 pétaoctets par nuit. Les scanners haute résolution en imagerie médicale et l'analyse de réseaux sociaux produisent également d'énormes volumes de données. Ce déluge de données soulève de nombreux défis en termes de stockage et de traitement informatique. L'entreprise Google a proposé en 2004 d'utiliser le modèle de calcul MapReduce afin de distribuer les calculs sur de nombreuses machines.Cette thèse s'intéresse essentiellement à améliorer les performances d'un environnement MapReduce. Pour cela, une conception modulaire et adaptable d'un environnement MapReduce est nécessaire afin de remplacer aisément les briques logicielles nécessaires à l'amélioration des performances. C'est pourquoi une approche à base de composants est étudiée pour concevoir un tel environnement de programmation. Afin d'étudier les performances d'une application MapReduce, il est nécessaire de modéliser la plate-forme, l'application et leurs performances. Ces modèles doivent être à la fois suffisamment précis pour que les algorithmes les utilisant produisent des résultats pertinents, mais aussi suffisamment simple pour être analysés. Un état de l'art des modèles existants est effectué et un nouveau modèle correspondant aux besoins d'optimisation est défini. De manière à optimiser un environnement MapReduce la première approche étudiée est une approche d'optimisation globale qui aboutit à une amélioration du temps de calcul jusqu'à 47 %. La deuxième approche se concentre sur la phase de shuffle de MapReduce où tous les nœuds envoient potentiellement des données à tous les autres nœuds. Différents algorithmes sont définis et étudiés dans le cas où le réseau est un goulet d'étranglement pour les transferts de données. Ces algorithmes sont mis à l'épreuve sur la plate-forme expérimentale Grid'5000 et montrent souvent un comportement proche de la borne inférieure alors que l'approche naïve en est éloignée. / Nowadays, more and more scientific fields rely on data mining to produce new results. These raw data are produced at an increasing rate by several tools like DNA sequencers in biology, the Large Hadron Collider (LHC) in physics that produced 25 petabytes per year as of 2012, or the Large Synoptic Survey Telescope (LSST) that should produce 30 petabyte of data per night. High-resolution scanners in medical imaging and social networks also produce huge amounts of data. This data deluge raise several challenges in terms of storage and computer processing. The Google company proposed in 2004 to use the MapReduce model in order to distribute the computation across several computers.This thesis focus mainly on improving the performance of a MapReduce environment. In order to easily replace the software parts needed to improve the performance, designing a modular and adaptable MapReduce environment is necessary. This is why a component based approach is studied in order to design such a programming environment. In order to study the performance of a MapReduce application, modeling the platform, the application and their performance is mandatory. These models should be both precise enough for the algorithms using them to produce meaningful results, but also simple enough to be analyzed. A state of the art of the existing models is done and a new model adapted to the needs is defined. On order to optimise a MapReduce environment, the first studied approach is a global optimization which result in a computation time reduced by up to 47 %. The second approach focus on the shuffle phase of MapReduce when all the nodes may send some data to every other node. Several algorithms are defined and studied when the network is the bottleneck of the data transfers. These algorithms are tested on the Grid'5000 experiment platform and usually show a behavior close to the lower bound while the trivial approach is far from it.
78

Conception d'un modèle de composants logiciels avec ordonnancement de tâches pour les architectures parallèles multi-coeurs, application au code Gysela / Conception of a software component model with task scheduling for many-core based parallel architecture, application to the Gysela5D code

Richard, Jérôme 06 December 2017 (has links)
Cette thèse vise à définir et à valider un modèle de programmation intégrant la description d'architectures logicielles et un ordonnancement dynamique de tâches dans un contexte de haute performance. Par exemple, il s'agit de combiner les avantages de modèles tels que L²C et StarPU. L'objectif final est de proposer un modèle capable de supporter des applications telles que Gysela5D sur les architectures parallèles actuelles et futures (tel que des clusters très variés et supercalculateurs comportant des accélérateurs). / This thesis aims to define and validate a programing model that combines the description of software architecture with dynamic task scheduling in a high performance context. For example by integrating the advantages of the L²C and StarPU models. The final goal is to propose a model that enables the description of applications such as Gysela5D on current and future parallel architectures (such as various clusters and supercomputers including accelerators).
79

Ordonnancement sous contraintes d'énergie / Scheduling under energy constraints

Nattaf, Margaux 18 October 2016 (has links)
Les problèmes d'ordonnancement à contraintes de ressource ont été largement étudiés dans la littérature. Cependant, dans la plupart des cas, il est supposé que les activités ont une durée fixe et nécessitent une quantité constante de la ressource durant toute leur exécution. Dans cette thèse, nous nous proposons de traiter un problème d'ordonnancement dans lequel les tâches ont une durée et un profil de consommation de ressource variables. Ce profil, qui peut varier en fonction du temps, est une variable de décision du problème dont dépend la durée de la tâche associée. Par ailleurs, la considération de fonctions de rendement linéaires et non linéaires pour la représentation de l'utilisa- tion des ressources complexifie le problème et permet de modéliser de manière réaliste les transferts de ressources énergétiques. Pour ce problème NP-complet, nous présentons plusieurs propriétés per- mettant de dériver des modèles et méthodes de résolution. Ces méthodes de résolution sont divisées en deux parties. La première partie visualise ce problème du point de vue de la Programmation Par Contraintes et plusieurs méthodes dérivées de ce paradigme sont détaillées dont le développement du raisonnement énergétique sur le problème étudié. La seconde partie de la thèse est dédiée à des approches de Programmation Linéaire Mixte et plusieurs modèles, notamment un modèle à temps continu basé sur les événements, ainsi que des analyses théoriques et des techniques d'amélioration de ces modèles sont présentés. Enfin, des expérimentations viennent appuyer les résultats présentés dans ce manuscrit. / Resource-constrained scheduling problems have been widely studied in the literature. However, in most cases, it is assumed that the activities have a fixed duration and require a constant amount of the resource throughout their execution. In this thesis, we propose to treat a scheduling problem in wich tasks have a variable duration and a variable resource consumption profile. This profile, which may vary over time, is a decision variable of the problem on wich depends the ruration of the associated task. Furthermore, we consider linear and nonlinear efficiency functions to represent resource usage, which makes more complex the problem and permits the modeling of energy transfers. For this NP-complete problem, we present several properties allowing us to derive models and solution methods. These solution methods are divided into two parts. The first part studies the problem from the perspective of Constraint Programmming and several methods derived from this paradigm are detailed, among which new developments on energetic reasoning for the considered problem. The second part of the thesis, dedicated to Mixed Integer Linear Programming approches, presents several models, including a novel continuous time model based on events as well theoretical analysis of the models and improvement of theses techniques. Finally, experiments show the relative effectiveness of the results presented in this thesis.
80

Ordonnancement des migrations à chaud de machines virtuelles / Live-migrations scheduling of virtual machines

Kherbache, Vincent 07 December 2016 (has links)
Migrer à chaud une machine virtuelle (VM) est une opération basique dans un centre de données. Tous les jours, des VM sont migrées pour répartir la charge, économiser de l'énergie ou préparer la maintenance de serveurs. Bien que les problèmes de placement des VM soient beaucoup étudiés, on observe que la gestion des migrations permettant de transiter vers ces nouveaux placements reste un domaine de second plan. Cette phase est cependant critique car chaque migration à un coût en terme de CPU, de bande passante et d'énergie. Des algorithmes de décision reposent alors sur des hypothèses irréalistes et calculent des ordonnancements conduisant à des migrations longues et incontrôlables qui réduisent les bénéfices attendus de la ré-organisation des VM.Dans cette thèse nous nous sommes fixé comme objectif d'améliorer la qualité des ordonnancements de migrations dans les centres de données. Pour cela, nous avons d'abord modélisé l'ordonnancement de migrations en considérant l'architecture réseau et l'activité mémoire des VM. Pour évaluer l'efficacité de notre modèle, nous avons ensuite implémenté un ordonnanceur de migrations au sein du gestionnaire de VM BtrPlace. Nous avons ensuite étendu notre ordonnanceur en développant des contraintes d'ordonnancement, des objectifs personnalisés, une heuristique de recherche ainsi qu'un modèle énergétique.Nous avons validé notre approche par l'étude pratique de scénarios d'ordonnancement réalisés en environnement réel. Nous avons ainsi pu analyser la précision de notre modèle de migration, valider la qualité des décisions prises par notre modèle d'ordonnancement et évaluer l'extensibilité ainsi que le passage à l'échelle de notre solution / A live-migration of a virtual machine (VM) is a basic operation in a data center. Every day, VMs are migrated to distribute the load, save energy or prepare maintenance operations on production servers. Although VM placement problems have been extensively studied, we observe that the migrations management needed to apply these new placements did not get much attention. This phase is however critical as each migration has a cost in terms of CPU, bandwidth and energy. Decision algorithms are thus based on unrealistic assumptions and compute schedules which can lead to unnecessarily long and uncontrollable migrations. This reduces the ultimate benefits expected from the VMs re-organization.In this thesis, our main ojective is to improve the efficiency of live-migrations scheduling within data centers. To achieve our goal, we have first modeled the scheduling of live migrations based on the network architecture and the VMs memory activity. To evaluate the efficiency of our model, we have then implemented and optimized a migrations scheduler within the VMs manager BtrPlace. We have then extended our scheduler by developing scheduling constraints, custom objectives, a search heuristic and an energy model.We have validated our approach by the practical study of many scheduling scenarios executed in a real environment. We have then analyzed the accuracy of our migration model, assessed the quality of the decisions taken by our scheduling model, and evaluated the extensibility and the scalability of our solution

Page generated in 0.0825 seconds