• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 379
  • 167
  • 50
  • 1
  • Tagged with
  • 592
  • 239
  • 177
  • 174
  • 119
  • 111
  • 100
  • 92
  • 91
  • 87
  • 86
  • 84
  • 83
  • 74
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Analyse des synchronisations dans un programme parallèle ordonnancé par vol de travail. Applications à la génération déterministe de nombres pseudo-aléatoires. / Analysis of Synchronizations In Greedy-Scheduled Executions - Application to Efficient Generation of Pseudorandom Numbers in Parallel

Mor, Stefano Drimon Kurz 26 October 2015 (has links)
Nous présentons deux contributions dans le domaine de la programmation parallèle.La première est théorique : nous introduisons l'analyse SIPS, une approche nouvelle pour dénombrer le nombre d'opérations de synchronisation durant l'exécution d'un algorithme parallèle ordonnancé par vol de travail.Basée sur le concept d'horloges logiques, elle nous permet,: d'une part de donner de nouvelles majorations de coût en moyenne; d'autre part de concevoir des programmes parallèles plus efficaces par adaptation dynamique de la granularité.La seconde contribution est pragmatique: nous présentons une parallélisation générique d'algorithmes pour la génération déterministe de nombres pseudo-aléatoires, indépendamment du nombre de processus concurrents lors de l'exécution.Alternative à l'utilisation d'un générateur pseudo-aléatoire séquentiel par processus, nous introduisons une API générique, appelée Par-R qui est conçue et analysée grâce à SIPS.Sa caractéristique principale est d'exploiter un générateur séquentiel qui peut "sauter" directement d'un nombre à un autre situé à une distance arbitraire dans la séquence pseudo-aléatoire.Grâce à l'analyse SIPS, nous montrons qu'en moyenne, lors d'une exécution par vol de travail d'un programme très parallèle (dont la profondeur ou chemin critique est très petite devant le travail ou nombre d'opérations), ces opérations de saut sont rares.Par-R est comparé au générateur pseudo-aléatoire DotMix, écrit pour Cilk Plus, une extension de C/C++ pour la programmation parallèle par vol de travail.Le surcout théorique de Par-R se compare favorablement au surcoput de DotMix, ce qui apparait aussi expériemntalement.De plus, étant générique, Par-R est indépendant du générateur séquentiel sous-jacent. / We present two contributions to the field of parallel programming.The first contribution is theoretical: we introduce SIPS analysis, a novel approach to estimate the number of synchronizations performed during the execution of a parallel algorithm.Based on the concept of logical clocks, it allows us: on one hand, to deliver new bounds for the number of synchronizations, in expectation; on the other hand, to design more efficient parallel programs by dynamic adaptation of the granularity.The second contribution is pragmatic: we present an efficient parallelization strategy for pseudorandom number generation, independent of the number of concurrent processes participating in a computation.As an alternative to the use of one sequential generator per process, we introduce a generic API called Par-R, which is designed and analyzed using SIPS.Its main characteristic is the use of a sequential generator that can perform a ``jump-ahead'' directly from one number to another on an arbitrary distance within the pseudorandom sequence.Thanks to SIPS, we show that, in expectation, within an execution scheduled by work stealing of a "very parallel" program (whose depth or critical path is subtle when compared to the work or number of operations), these operations are rare.Par-R is compared with the parallel pseudorandom number generator DotMix, written for the Cilk Plus dynamic multithreading platform.The theoretical overhead of Par-R compares favorably to DotMix's overhead, what is confirmed experimentally, while not requiring a fixed generator underneath.
342

Optimisation intégrée des décisions en planification et ordonnancement dans une chaîne logistique / Integrated optimization of planning and scheduling decisions in a supply chain

Gomez Urrutia, Edwin David 12 June 2014 (has links)
Dans cette thèse, nous étudions l’optimisation des problèmes de planification et d’ordonnancement des flux, dans une stratégie d’intégration des décisions, pour planifier la chaîne logistique au niveau tactique avec prise en compte de contraintes opérationnelles. Le but de ce travail est de répondre au besoin de cohérence entre les décisions de planification et d’ordonnancement, qui sont souvent prises de manière séquentielle ne garantissant pas la faisabilité des plans de production. Nous proposons une approche intégrée pour résoudre des problèmes mono-niveau et multi-niveaux, dans des systèmes multi-produits et multi-ressources dans des ateliers de type job-shop.Les problèmes de planification avec contraintes de capacité et les problèmes d’ordonnancement dans des systèmes complexes sont des problèmes NP-difficiles. Intégrer les contraintes propres aux deux problèmes engendre un nouveau problème qui est d’autant plus complexe. Nous proposons une décomposition du problème intégré en un ensemble de sous-problèmes de planification avec séquence fixée, résolus par relaxation Lagrangienne. L’amélioration de la séquence est guidée par une recherche taboue. L’efficacité de l’approche intégrée, par rapport à un solveur commercial, a été prouvée en termes de qualité des solutions et d’effort de calcul. Pour les problèmes multi-niveaux, nous proposons une nouvelle formulation basée sur la notion d’échelon stock, ainsi que de nouveaux algorithmes et stratégies de lissage de la production, pour construire des plans de production respectant les contraintes de capacité détaillées et de nomenclature / In this thesis, we study the optimization of flow planning and scheduling, within a strategy to integrate decisions for supply chain planning at tactical level, taking into account operational constraints. The goal of this work is to address the need for consistency between decisions arising from production planning and scheduling. These decisions are often taken in a sequential order, leading most of the time to unfeasible production plans. We propose an integrated approach to solve single-level and multi-level problems in multi-item multi-resource systems configured as job-shops.Both capacitated production planning and scheduling problems, in complex manufacturing systems, are NP-hard. Therefore, integrating constraints of both problems generates a new problem which is even more difficult to solve. We propose a decomposition of the integrated problem into a set of several sub-problems with fixed sequence, solved by Lagrangian Relaxation. The sequence improvement is guided by a Tabu Search. The efficiency of the integrated approach comparing to a standard solver is proved in terms of solution quality and computational effort. In case of multi-level problems, we propose a new mathematical model based on the concept of echelon stock, as well as new algorithms and smoothing strategies to build production plans respecting detailed capacity and bill-of-materials constraints.
343

Un modèle d'optimisation spatio-temporel pour l'évacuation de la population exposée aux catastrophes naturelles : projet ACCELL : évaluation spatio-temporelle de l'ACCessibilité d'Enjeux localisés en situation d'inondation sur le bassin de la Loire / A spatio-temporal optimization model for the evacuation of population exposed to natural disasters

Alaeddine, Houssein 03 July 2014 (has links)
L’importance de gérer la crise provoquée par une catastrophe naturelle, et plus particulièrement par les inondations, nécessite le développement de systèmes d’évacuation efficaces. Un système d’évacuation efficace doit tenir compte de certaines contraintes, notamment celles liées au trafic sur le réseau, à l’accessibilité, aux ressources humaines nécessaires et aux équipements matériels (véhicules, points de rassemblent, etc ..). L’objectif principal de ce travail est d’apporter une assistance aux services techniques et aux forces de secours en termes d’accessibilité en proposant des itinéraires relatifs aux opérations de secours et d’évacuation des biens et des personnes. Nous considérons dans cette thèse, l’évacuation d’une zone urbaine de taille moyenne, exposée à l’aléa d’inondation. En cas d’inondation, la plupart des habitants seront évacués en utilisant leurs propres véhicules. Deux sites d’étude sont sélectionnés dans le projet ACCELL 1, val de Tours (Fr, 37) et val de Gien (Fr, 45). Protégé de l’aléa d’inondation par un ensemble de digues, le site du val de Tours est doté d’un système de prévision de crues fournie par le SPC 2 (DREAL 3) et le SCHAPI 4 permettant aux décideurs d’anticiper une crise majeure par une évacuation préventive. Contrairement au site tourangeau, le val de Gien peut bénéficier d’une évacuation de la population avant et pendant la catastrophe. L’inondation sur ce second val est du type lente par débordement (site partiellement digué), les coupures de routes au cours du temps sont prises en compte lors d’une évacuation pendant la crise. Notre objectif est de construire, pour chacun de ces deux sites, un plan d’évacuation, i.e., fixer pour chaque individu la date de départ et le chemin pour atteindre le point de rassemblement associé. Le plan d’évacuation doit éviter la congestion sur le réseau routier. Nous présentons ici un modèle d’optimisation spatio-temporel (STOM5) dédié à l’évacuation de la population exposée à une catastrophe naturelle et plus particulièrement à un risque d’inondation. / The importance of managing an urban site threatened or affected by flooding requires the development of effective evacuation systems. An effective evacuation system has to take into account some constraints such as the transportation traffic which plays an important role as well as others such as the accessibility, necessary human resources and material equipment (vehicles, assembly points, etc...). The main objective of this work is to bring assistance to the technical services and brigade forces in terms of accessibility by providing itineraries with respect to rescue operations and the evacuation of people and goods.We consider the evacuation of a middle size area, exposed to a risk, and more precisely to a risk of flooding. In case of flooding event, the most of inhabitants will be evacuated by themselves, ie., using their personal vehicles. Considered case here, the flooding can be forecast in advance, and then the population has few days (2-4) to evacuate. Our aimis to build an evacuation plan, ie., fixing for each individual the date of departure and the path to reach the assembly point (also called shelter) associated. Evacuation plan must avoid congestion on the roads of evacuation network.Here, we present a spatio-temporal optimization model for the evacuation of the population exposed to natural disasters, and more particularly to a flood risk.
344

Téléchargement de Contenus dans les réseaux véhiculaires / Content download in the Vehicular Networks

Astudillo Salinas, Darwin Fabián 27 September 2013 (has links)
L’évolution des systèmes de communications sans fil a permis d’envisager de très nombreuses applications pour les systèmes de transport intelligents (ITS). Elles peuvent ou non utiliser une infrastructure et iront de la sécurité routière aux applications de confort du conducteur ou aux jeux en réseaux. La mise à jour de cartes constitue de notre point de vue une application représentative dans la mesure où ce n’est pas une application de sécurité en tant que telle, mais qu’en revanche elle peut contribuer à réduire les embouteillages en améliorant l’efficacité dans la prise de décisions des conducteurs. Elle possède des caractéristiques facilement identifiables : volume élevé de données, faible contrainte de délai, possibilité de mise en œuvre par des communications d’infrastructure à véhicule, entre véhicules, et hybrides. L’objectif est que les contenus soient téléchargés intégralement par tous les véhicules en un temps minimal, en utilisant le moins de ressources possible et au moindre coût. Les solutions qui sont apparues comme les plus adaptées ont concerné l’utilisation de solutions 802.11p avec ou sans infrastructure. Dans le cas de solutions avec infrastructure, un certain nombre de points d’accès diffuseront des informations avec des zones de couverture le plus souvent disjointes. Vu les tailles de zone retenues et/ou le débit consacré à ce type d’applications, le passage devant un seul point d’accès ne suffira pas à télécharger de telles cartes. Il s’agit alors de définir des stratégies de diffusion d’information. Une première étude a consisté à comparer une stratégie unicast à du broadcast/multicast. Cette dernière se révèle largement meilleure. Une combinaison de ces principes n’améliore pas les performances du système, car le débit consacré à la transmission unicast ne compense pas le débit non utilisé par le broadcast. Le problème provient des doublons reçus par les véhicules en passant auprès de plusieurs points d’accès consécutifs. Afin d’atténuer le phénomène des doublons, nous avons eu recours au Codage Réseau linéaire pseudo-aléatoire. L’idée est que le point d’accès diffuse des combinaisons linéaires de morceaux de fichiers. Le grand nombre de ces combinaisons linéaires réduit de façon significative ce phénomène. De façon complémentaire, nous avons étudié l’utilisation de communications ad-hoc pour combler les morceaux de fichier manquants, en particulier dans le cas d’absence d’infrastructure. Nous avons vérifié que l’on pouvait atteindre de bons résultats dans ce contexte en fonction de la diversité des morceaux de fichiers appartenant aux véhicules rencontrés. / The evolution of wireless communications systems have enabled to consider many applications for Intelligent Transportation Systems (ITS). They may or may not use the infrastructure. They will consider from the traffic safety applications up to the driver’s comfort or network games. The map updates are, from our point of view, a representative application but in the other hand it can help to reduce congestion in improving efficiency in decision making. It has well-defined characteristics : high volume of data, low delay constraint, possibility of implementation of infrastructure-to-vehicle communications, between vehicles and hybrids. The objective is that the contents are fully downloaded by all vehicles in minimum time, using fewer resources and lower costs. The solutions that have emerged as the most suitable concerned the use of the technology 802.11p with or without infrastructure. In the case of solutions with infrastructure, a number of access points broadcast information with coverage areas most often disjointed. Given the size of area used and/or flow devoted to this type of applications, the transition to a single access point is not enough to download these maps. It is then to define strategies of information dissemination. A first study was to compare a unicast strategy face to broadcast/multicast strategy. The latter appears largely improved. A combination of these principles does not improve system performance, because the flow devoted to unicast transmission does not compensate for the flow not used by the broadcast. The problem is duplicate chunks received by vehicles passing from several consecutive access points. To mitigate the phenomenon of duplication, we used the linear network coding pseudorandom. The idea is that the access point broadcasts linear combinations of chunks of files. The large number of these linear combinations significantly reduces this phenomenon. In a complementary manner, we investigated the use of ad hoc communications to fill the missing chunks of file, particularly in the absence of infrastructure. We verified that we could achieve good results in this context based on the diversity of chunks of files which are owned by the encountered vehicles.
345

Ordonnancement et gestion des ressources pour un système de télécommunications haut débit : Optimisation de la bande passante satellite / Resource management and scheduling for a broadband telecommunications system : Optimization of satellite bandwidth

Dupe, Jean-Baptiste 01 October 2015 (has links)
Les télécommunications par satellite ont connu ces dernières années un regain d'intérêt important, du fait de leur capacité à permettre la réduction de la fracture numérique. En effet, un satellite en orbite géostationnaire peut s'appuyer sur une très grande couverture et une capacité importante pour atteindre des zones où le déploiement des réseaux terrestres n'est pas envisageable, comme les transports (bateau, avion), ou bien les zones blanches, où il serait difficilement rentable. Traditionnellement concentrés sur la diffusion de télévision numérique, les dernières générations de standards reflètent cet engouement en faisant une place de choix à la transmission de données bidirectionnelle, notamment en permettant une prise en charge simple des protocoles de l'Internet. Le problème de l'ordonnancement dans ces systèmes devient alors particulièrement important, puisqu'il doit prendre en compte deux processus évoluant de manière totalement décorrélée. D'un côté, l'évolution de la demande des utilisateurs, dépendante des applications (vidéo, voix, données). De l'autre, l'évolution de la capacité du système, celle-ci étant tributaire des conditions de transmission : les fréquences utilisées dans ces systèmes sont particulièrement sensibles à l'atténuation due à l'eau dans l'atmosphère. Cette thèse s'intéresse au problème de l'ordonnancement et de l'allocation de ressources, dans le but de fournir un service comparable aux réseaux terrestres en termes de services, en présentant les meilleures performances possibles. Si un certain nombre de propositions ont été faites sur le sujet, aucune ne prend en compte l'ensemble des contraintes d'un tel système. Outre le caractère variable de la capacité, la variabilité de la demande, conjuguée avec les contraintes de qualité de service constitue une difficulté supplémentaire. Enfin, il nous faut considérer la faisabilité de notre solution dans un contexte temps réel, nécessaire dans l'optique d'une implantation dans un système réel. Nous avons ainsi développé une architecture d'ordonnanceur pour la voie Aller, reposant sur des fonctions d'utilité, permettant ainsi une formulation simple du compromis entre demande et capacité. Nous montrons comment cet algorithme pourrait être utilisable dans un système complet, à travers une implantation détaillée, de faible complexité, ainsi que des simulations de cas réels. Nous portons ensuite notre attention sur la voie Retour, où nous proposons une méthode d'allocation de ressources prenant en compte de manière conjointe la qualité de service et la qualité du support pour délivrer une allocation à la fois conforme et performante. Les simulations montrent que notre algorithme obtient une efficacité et une meilleure gestion du trafic que des solutions de référence présentées dans la littérature. / Satellite telecommunications have seen a tremendous increase in interest, due to its ability to reduce the digital divide. In fact, a geostationary satellite can take advantage of its very wide coverage and high capacity to reach areas where deployment of a terrestrial network would not be possible, such as transports, or too expensive to be profitable, as in remote areas. Traditionally focused on digital television broadcasting, the latest generation of standards have evolved to reflect those new needs, dealing extensively with the transmission of interactive data, particularly by natively supporting Internet protocols. Scheduling has arisen as a major issue of those modern systems, since it has to deal with to highly uncorrelated processes: demand and capacity. Demand, on one side, evolves with user's needs, and therefore with the applications they are using: video, voice or data. Capacity, on the other side, depends on meteorological conditions over the satellite's cover, as the frequencies used in such systems are very sensitive to wet atmosphere attenuation. This thesis aims to study the problem of scheduling and resource allocation, hoping to achieve a service that can match with terrestrial networks in terms of services, while showing the best possible performances. If numerous solutions were proposed on this topic, none is taking into account all of the current system's constraints. In addition to the variable nature of system's capacity, the conjunction of variable demand and quality of service constraints constitutes an additional issue. Furthermore, we have to consider the practicability of our solution in a real-time context, necessary if we aim for industrial use. We have first developed a scheduler architecture for the Forward link, based on utility functions, thus allowing a simple formulation of the capacity versus demand compromise. We show, through a detailed low-complexity implementation and accurate simulations, how our algorithm could be used efficiently in an industrial context. We then focus on the Return link, where we propose a resource allocation method, taking into account quality of service and quality of transmission jointly to deliver an efficient yet consistent resource allocation. Simulations show that our algorithm achieves a better efficiency and traffic handling than reference solutions presented in the literature.
346

Exécution prédictible sur processeurs pluri-coeurs / Predictable execution on many-core processors

Perret, Quentin 25 April 2017 (has links)
Dans cette thèse, nous étudions l’adéquation de l’architecture distribuée des processeurs pluricoeurs avec les besoins des concepteurs de systèmes temps réels avioniques. Nous proposons d’abord une analyse détaillée d’un processeur sur étagère (COTS), le KALRAY MPPA®-256, et nous identifions certaines de ses ressources partagées comme étant les goulots d’étranglement limitant à la fois la performance et la prédictibilité lorsque plusieurs applications s’exécutent. Pour limiter l’impact de ces ressources sur les WCETs, nous définissons formellement un modèle d’exécution isolant temporellement les applications concurrentes. Son implantation est réalisée au sein d’un hyperviseur offrant à chaque application un environnement d’exécution isolé et assurant le respect des comportements attendus en ligne. Sur cette base, nous formalisons la notion de partition comme l’association d’une application avec un budget de ressources matérielles. Dans notre approche, les applications s’exécutant au sein d’une partition sont garanties d’être temporellement isolées des autres applications. Ainsi, étant donné une application et son budget associé, nous proposons d’utiliser la programmation par contraintes pour vérifier automatiquement si les ressources allouées à l’application sont suffisantes pour permettre son exécution de manière satisfaisante. Dans le même temps, dans le cas où un budget est effectivement valide, notre approche fournit un ordonnancement et un placement complet de l’application sur le sous-ensemble des ressources du processeurallouées à sa partition. / In this thesis, we study the suitability of the distributed architecture of many-core processors for the design of highly constrained real-time systems as is the case in avionics. We firstly propose a thorough analysis of an existing COTS processor, namely the KALRAY MPPA®-256, and we identify some of its shared resources to be paths of interference when shared among several applications. We provide an execution model to restrict the access to these resources in order to mitigate their impact on WCETs and to temporally isolate co-running applications. We describe in detail how such an execution model can be implemented with a hypervisor which practically provides the expected property of temporal isolation at run-time. Based on this, we formalize a notion of partition which represents the association of an application with a resource budget. In our approach, an application placed in a partition is guaranteed to be temporally isolated from applications placed in other partitions. Then, assuming that applications and resource budgets are given,we propose to use constraint programming in order to verify automatically whether the amount of resources requested by a budget is sufficient to meet all of the application’s constraints. Simultaneously, when a budget is valid, our approach computes a schedule of the application on the subset of the processor’s resources allocated to it.
347

Modular Avionics Software Integration on Multi-Core COTS : certification-Compliant Methodology and Timing Analysis Metrics for Legacy Software Reuse in Modern Aerospace Systems / Intégration logicielle d'Applications Avioniques Modulaires Intégrées (IMA) sur COTS multicoeur : méthodologie d'intégration et métriques d'analyse temporelle conformes aux régulations de certification pour la réutilisation de logiciel dans les systèmes IMA

M'sirdi, Soukayna Raja 05 July 2017 (has links)
Les interférences apparaissant dans les multicoeurs sont indésirables dans les systèmes tempsréel critiques, en particulier dans le domaine de l'aéronautique, où le déterminisme du fonctionnement temporel de tout système doit être formellement prouvé lors de la conception du système de manière à pouvoir être certifié et considéré comme opérationnel. Le but de cette thèse est de proposer une approche pour l'intégration logicielle d'applications IMA sur processeur multicoeur, sans impliquer de modification des plateformes logicielle et matérielle, et en respectant un maximum d'exigences de certification et concepts clés de l'avionique actuels, comme le partitionnement spatial et temporel ou encore la certification incrémentale. L'un des objectifs de la thèse est de respecter au maximum les procédés industriels d'intégration actuels de manière à maximiser les chances des contributions résultantes de la thèse d'être réutilisées au sein des industries avioniques. Un second objectif mineur est de permettre de réduire au minimum la phase d'adaptation des différents profils impliqués dans le processus d'intégration logicielle. Enfin, un troisième objectif est d'aider à optimiser le temps passé à effectuer les vérifications temporelles qui peuvent s'avérer difficiles et coûteuses en temps, mais aussi les choix architecturaux, de manière à réduire le time-to-market mais aussi optimiser le design du système en cours de conception. La contribution majeure de cette thèse est la proposition de deux stratégies complètes d'intégration logicielle/matérielle sur multicoeur pour des applications IMA. L'un des deux processus respecte les contraintes majeures de certification actuelles, ce qui en fait une stratégie potentiellement exploitable pour les applications les plus critiques de DAL A de l'aérospatial; la seconde offre un design le plus optimisé possible en termes de réduction de poids masse et consommation énergétique embarqués. Chaque stratégie est dite complète car elle contient: - une analyse temporelle statique qui borne les interférences inter-coeurs et permet de dériver des bornes supérieures de WCETs de manière fiable; - une formulation de problème de programmation par contraintes (PPC) pour l'allocation automatique et optimisée de logiciel sur matériel; la configuration résultante est correcte par construction car le problème de PPC exprimé exploite l'analyse temporelle mentionnée précédemment pour effectuer une vérification temporelle sur chaque configuration testée. - une formulation de problème de PPC pour la génération d'ordonnancement automatique et optimisé; la configuration résultante est correcte par construction car le processus exploite l'analyse temporelle mentionnée précédemment pour effectuer une vérification temporelle sur chaque configuration testée. / Interference in multicores is undesirable for hard real-time systems and especially in the aerospace industry, for which it is mandatory to ensure beforehand timing predictability and deadlines enforcement in a system runtime behavior, in order to be granted acceptance by certification authorities. The goal of this thesis is to propose an approach for multi-core integration of legacy IMA software, without any hardware nor software modification, and which complies as much as possible to current, incremental certification and IMA key concepts such as robust time and space partitioning. The motivations of this thesis are to stick as much as possible to the current IMA software integration process in order to maximize the chances of acceptation by avionics industries of the contributions of this thesis, but also because the current process has long been proven efficient on aerospace systems currently in usage. Another motivation is to minimize the extra effort needed to provide certification authorities with timing-related verification information required when seeking approval. As a secondary goal depending on the possibilities, the contributions should offer design optimization features, and help reduce the time-to-market by automating some steps of the design and verification process. This thesis proposes two complete methodologies for IMA integration on multi-core COTS. Each of them offers different advantages and has different drawbacks, and therefore each of them may correspond to its own, complementary situations. One fits all avionics and certification requirements of incremental verification and robust partitioning and therefore fits up to DAL A applications, while the other offers maximum Size, Weight and Power (SWaP) optimization and fits either up to DAL C applications, multipartition applications or non-IMA applications. The methodologies are said to be "complete" because this thesis provides all necessary metrics to go through all steps of the software integration process. More specifically, this includes, for each strategy: - a static timing analysis for safely upper-bounding inter-core interference, and deriving the corresponding WCET upper-bounds for each task. - a Constraint Programming (CP) formulation for automated software/hardware allocation; the resulting allocation is correct by construction since the CP process embraces the proposed timing analysis mentioned earlier. - a CP formulation for automated schedule generation; the resulting schedule is correct by construction since the CP process embraces the proposed timing analysis mentioned earlier.
348

Ordonnancement de graphes de tâches sur des plates-formes de calcul modernes / Scheduling task graphs on modern computing platforms

Simon, Bertrand 04 July 2018 (has links)
Cette thèse porte sur trois thématiques principales liées à l'ordonnancement de graphes de tâches sur des plates-formes de calcul modernes. Un graphe de tâches est une modélisation classique d'un programme à exécuter, par exemple une application de calcul scientifique. La décomposition d'une application en différentes tâches permet d'exploiter le parallélisme potentiel de cette application sans adapter le programme à la plate-forme de calcul visée. Le graphe décrit ces tâches ainsi que leurs dépendances, certaines tâches ne pouvant être exécutées avant que d'autres ne soient terminées. L'exécution d'une application est alors déterminée par un ordonnancement du graphe, calculé par un logiciel dédié, qui décrit entre autres quelles ressources sont allouées à chaque tâche et à quel moment. Les trois thèmes étudiés sont les suivants: exploiter le parallélisme intrinsèque des tâches, utiliser des accélérateurs tels que des GPU, et prendre en compte une mémoire limitée.Certaines applications présentent deux types de parallélisme que l'on peut exploiter: plusieurs tâches peuvent être exécutées simultanément, et chaque tâche peut être exécutée sur plusieurs processeurs afin de réduire son temps de calcul. Nous proposons et étudions deux modèles permettant de régir ce temps de calcul, afin d'exploiter ces deux types de parallélisme.Nous étudions ensuite comment utiliser efficacement des accélérateurs de calcul tels que des GPU, dans un contexte dynamique où les futures tâches à ordonnancer ne sont pas connues. La difficulté principale consiste à décider si une tâche doit être exécutée sur l'un des rares accélérateurs disponibles ou sur l'un des nombreux processeurs classiques. La dernière thématique abordée concerne le problème d'une mémoire principale limitée, et le recours à des transferts de données coûteux. Nous avons traité ce problème via deux scénarios. S'il est possible d'éviter de tels transferts, nous avons proposé de modifier le graphe afin de garantir que toute exécution ne dépasse pas la mémoire disponible, ce qui permet d'ordonnancemer les tâches dynamiquement au moment de l'exécution. Si tout ordonnancement nécessite des transferts, nous avons étudié le problème consistant à minimiser leur quantité.L'étude de ces trois thèmes a permis de mieux comprendre la complexité de ces problèmes. Les solutions proposées dans le cadre d'étude théorique pourront influencer de futures implémentations logicielles. / This thesis deals with three main themes linked to task graph scheduling on modern computing platforms. A graph of tasks is a classical model of a program to be executed, for instance a scientific application. The decomposition of an application into several tasks allows to exploit the potential parallelism of this application without adaptating the program to the computing platform. The graph describes the tasks as well as their dependences, some tasks cannot be initiated before others are completed. The execution of an application is then determined by a schedule of the graph, computed by a dedicated software, which in particular describes which resources should be allocated to each task at which time. The three studied themes are the following: exploit inner task parallelism, use accelerators such as GPUs, and cope with a limited memory.For some applications, two types of parallelism can be exploited: several tasks can be executed concurrently, and each task may be executed on several processors, which reduces its processing time. We propose and study two models allowing to describe this processing time acceleration, in order to efficiently exploit both types of parallelism.We then study how to efficiently use accelerators such as GPUs, in a dynamic context in which the future tasks to schedule are unknown. The main difficulty consists in deciding whether a task should be executed on one of the rare available accelerators or on one of the many classical processors. The last theme covered in this thesis deals with a available main memory of limited size, and the resort to expensive data transfers. We focused on two scenarios. If it is possible to avoid such transfers, we propose to modify the graph in order to guarantee that any execution fits in memory, which allows to dynamically schedule the graph at runtime. If every schedule needs transfers, we studied how to minimize their quantity.The work on these three themes has led to a better understanding of the underlying complexities. The proposed theoretical solutions will influence future software implementations.
349

Tolérance aux pannes dans des environnements de calcul parallèle et distribué : optimisation des stratégies de sauvegarde/reprise et ordonnancement / Fault tolerance in the parallel and distributed environments : optimizing the checkpoint restart strategy and scheduling

Bouguerra, Mohamed Slim 02 April 2012 (has links)
Le passage de l'échelle des nouvelles plates-formes de calcul parallèle et distribué soulève de nombreux défis scientifiques. À terme, il est envisageable de voir apparaître des applications composées d'un milliard de processus exécutés sur des systèmes à un million de coeurs. Cette augmentation fulgurante du nombre de processeurs pose un défi de résilience incontournable, puisque ces applications devraient faire face à plusieurs pannes par jours. Pour assurer une bonne exécution dans ce contexte hautement perturbé par des interruptions, de nombreuses techniques de tolérance aux pannes telle que l'approche de sauvegarde et reprise (checkpoint) ont été imaginées et étudiées. Cependant, l'intégration de ces approches de tolérance aux pannes dans le couple formé par l'application et la plate-forme d'exécution soulève des problématiques d'optimisation pour déterminer le compromis entre le surcoût induit par le mécanisme de tolérance aux pannes d'un coté et l'impact des pannes sur l'exécution d'un autre coté. Dans la première partie de cette thèse nous concevons deux modèles de performance stochastique (minimisation de l'impact des pannes et du surcoût des points de sauvegarde sur l'espérance du temps de complétion de l'exécution en fonction de la distribution d'inter-arrivées des pannes). Dans la première variante l'objectif est la minimisation de l'espérance du temps de complétion en considérant que l'application est de nature préemptive. Nous exhibons dans ce cas de figure tout d'abord une expression analytique de la période de sauvegarde optimale quand le taux de panne et le surcoût des points de sauvegarde sont constants. Par contre dans le cas où le taux de panne ou les surcoûts des points de sauvegarde sont arbitraires nous présentons une approche numérique pour calculer l'ordonnancement optimal des points de sauvegarde. Dans la deuxième variante, l'objectif est la minimisation de l'espérance de la quantité totale de temps perdu avant la première panne en considérant les applications de nature non-préemptive. Dans ce cas de figure, nous démontrons tout d'abord que si les surcoûts des points sauvegarde sont arbitraires alors le problème du meilleur ordonnancement des points de sauvegarde est NP-complet. Ensuite, nous exhibons un schéma de programmation dynamique pour calculer un ordonnancement optimal. Dans la deuxième partie de cette thèse nous nous focalisons sur la conception des stratégies d'ordonnancement tolérant aux pannes qui optimisent à la fois le temps de complétion de la dernière tâche et la probabilité de succès de l'application. Nous mettons en évidence dans ce cas de figure qu'en fonction de la nature de la distribution de pannes, les deux objectifs à optimiser sont tantôt antagonistes, tantôt congruents. Ensuite en fonction de la nature de distribution de pannes nous donnons des approches d'ordonnancement avec des ratios de performance garantis par rapport aux deux objectifs. / The parallel computing platforms available today are increasingly larger. Typically the emerging parallel platforms will be composed of several millions of CPU cores running up to a billion of threads. This intensive growth of the number of parallel threads will make the application subject to more and more failures. Consequently it is necessary to develop efficient strategies providing safe and reliable completion for HPC parallel applications. Checkpointing is one of the most popular and efficient technique for developing fault-tolerant applications on such a context. However, checkpoint operations are costly in terms of time, computation and network communications. This will certainly affect the global performance of the application. In the first part of this thesis, we propose a performance model that expresses formally the checkpoint scheduling problem. Two variants of the problem have been considered. In the first variant, the objective is the minimization of the expected completion time. Under this model we prove that when the failure rate and the checkpoint cost are constant the optimal checkpoint strategy is necessarily periodic. For the general problem when the failure rate and the checkpoint cost are arbitrary we provide a numerical solution for the problem. In the second variant if the problem, we exhibit the tradeoff between the impact of the checkpoints operations and the lost computation due to failures. In particular, we prove that the checkpoint scheduling problem is NP-hard even in the simple case of uniform failure distribution. We also present a dynamic programming scheme for determining the optimal checkpointing times in all the variants of the problem. In the second part of this thesis, we design several fault tolerant scheduling algorithms that minimize the application makespan and in the same time maximize the application reliability. Mainly, in this part we point out that the growth rate of the failure distribution determines the relationship between both objectives. More precisely we show that when the failure rate is decreasing the two objectives are antagonist. In the second hand when the failure rate is increasing both objective are congruent. Finally, we provide approximation algorithms for both failure rate cases.
350

Gestion de l'activité et de la consommation dans les architectures multi-coeurs massivement parallèles / Activity and Power Management in Massively Parallel Multi-core Architectures

Bizot, Gilles 25 October 2012 (has links)
Les variabilités du processus de fabrication des technologies avancées (typ. < 32nm) sont de plus en plus difficile à maîtriser. Elles impactent plus sévèrement la fréquence de fonctionnement et la consommation d'énergie, et induisent de plus en plus de défaillances dans le circuit. Ceci est particulièrement vrai pour les MPSoCs, où le nombre de coeurs de calculs est très important. Les besoins (performances, fonctionnalités, faible consommation, tolérance aux fautes) ne cessent de croître et les caractéristiques hétérogènes (fréquence, énergie, défaillances) rendent difficile la mise en oeuvre de systèmes répondant à ces exigences. Ces travaux s'inscrivent dans l'optique de traiter ces problèmes pour des systèmes MPSoCs massivement parallèles, basés sur une topologie en maille 2D. Cette thèse propose une méthodologie automatisée qui permet le placement et l'ordonnancement d'applications dans les systèmes ciblés. Les aspects variabilité, consommation et performance sont pris en compte. D'autre part, cette thèse propose une technique de placement adaptatif tolérant aux fautes basée sur une stratégie de recouvrement des erreurs. Cette stratégie permet de garantir la terminaison de l'application en présence de défaillances, sans avoir recours à la prise de « check-points ». Cette technique est complété par des algorithmes adaptatifs distribués, prenant en compte la variabilité et la consommation d'énergie. / With the advanced technologies (typ. < 32nm), it is more and more difficult to control the manufacturing variabilities. It impacts more severely the working frequency and the consumed energy, and induces more and more failure inside the device. This is particularly true for MPSoC with a large number of computing cores. With the increasing needs (performance, functionalities, low power, fault tolerance) and heterogeneous characteristics (frequency, energy, failures) it becomes difficult to apply to systems able to meet these requirements. This work focus on this perspective to deal with these issues for the massively parallel MPSoC, based on 2D mesh topology. This thesis proposes an automated methodology, allowing the mapping and scheduling of application on the targeted system. It takes into account the variability, energy and computing power. Furthermore, this thesis proposes a fault tolerant adaptive mapping technique, paired with an original failure recovering strategy. This strategy allows to guarantee the termination of the application in the presence of failures, without the check-point requirement. The technique has been extended with an adaptive distributed algorithm, taking into account the manufacturing variability and aimed at reducing the consumed energy.

Page generated in 0.2965 seconds