• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 15
  • 1
  • Tagged with
  • 45
  • 45
  • 30
  • 27
  • 11
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Optimisation bâtiment/système pour minimiser les consommations dues à la climatisation

Filfli, Sila 12 1900 (has links) (PDF)
La consommation annuelle totale moyenne en France dans le secteur tertiaire varie entre 300 et 380 kWh/m². Cette consommation se rapporte à l'ensemble des usages énergétiques du bâtiment: chauffage, climatisation, ventilation, éclairage, bureautique, auxiliaires et ECS. Ce travail a donné une méthode pour déterminer les meilleures combinaisons de solutions techniques existantes ou émergentes permettant de réduire les consommations énergétiques dans les bâtiments climatisés du secteur tertiaire. La réduction obtenue est d'un facteur 4 à 5. Une typologie représentative a été mise en place pour chaque secteur et les scénarios nécessaires pour effectuer les simulations définis. Une matrice de sélection du type de système par type de bâtiment a été fixée. Un niveau simplifié de modélisation des systèmes compatible avec les outils de prévision d'énergie a été employé. Vu le très grand nombre de variables à étudier, le nombre de simulations à effectuer et le traitement des résultats nécessite un temps énorme. Ce problème a été résolu par l'emploi de plans d'expériences fractionnaires. Cette méthode est nouvelle dans le domaine du bâtiment et répond à la question fréquente de réduction du nombre de simulation. Un modèle paramétrique de consommation a ainsi été élaboré. Il permet d'évaluer l'effet de chaque paramètre étudié sur les différentes postes consommateurs et la consommation annuelle totale. Ce modèle pourra servir à déduire la rentabilité des solutions et contribuer à une optimisation économique. La thèse traite la question d'un effet contradictoire possible de l'isolation sur la minimisation des consommations de refroidissement et de chauffage. Deux secteurs principaux du tertiaire sont étudiés: bâtiments de bureaux et bâtiments de santé. Le premier secteur est présenté dans l'intégralité de ses aspects tandis que le deuxième est traité brièvement. Le travail a permis d'élaborer une méthodologie complète pour minimiser les consommations énergétiques annuelles et pour étudier l'effet de chaque paramètre sur cette consommation.
2

Optimisation de la gestion des ressources sur une plate-forme informatique du type Big Data basée sur le logiciel Hadoop / Optimisation of the ressources management on "big data" platforms using the Hadoop software

Jlassi, Aymen 11 December 2017 (has links)
L'entreprise "Cyres-group" cherche à améliorer le temps de réponse de ses grappes Hadoop et la manière dont les ressources sont exploitées dans son centre de données. Les idées sous-jacentes à la réduction du temps de réponse sont de faire en sorte que (i) les travaux soumis se terminent au plus tôt et que (ii) le temps d'attente de chaque utilisateur du système soit réduit. Nous identifions deux axes d'amélioration : 1. nous décidons d'intervenir pour optimiser l'ordonnancement des travaux sur une plateforme Hadoop. Nous considérons le problème d'ordonnancement d'un ensemble de travaux du type MapReduce sur une plateforme homogène. 2. Nous décidons d'évaluer et proposer des outils capables (i) de fournir plus de flexibilité lors de la gestion des ressources dans le centre de données et (ii) d'assurer l'intégration d'Hadoop dans des infrastructures Cloud avec le minimum de perte de performance. Dans une première étude, nous effectuons une revue de la littérature. À la fin de cette étape, nous remarquons que les modèles mathématiques proposés dans la littérature pour le problème d'ordonnancement ne modélisent pas toutes les caractéristiques d'une plateforme Hadoop. Nous proposons à ce niveau un modèle plus réaliste qui prend en compte les aspects les plus importants tels que la gestion des ressources, la précédence entre les travaux, la gestion du transfert des données et la gestion du réseau. Nous considérons une première modélisation simpliste et nous considérons la minimisation de la date de fin du dernier travail (Cmax) comme critère à optimiser. Nous calculons une borne inférieure à l'aide de la résolution du modèle mathématique avec le solveur CPLEX. Nous proposons une heuristique (LocFirst) et nous l'évaluons. Ensuite, nous faisons évoluer notre modèle et nous considérons, comme fonction objective, la somme des deux critères identifiés depuis la première étape : la minimisation de la somme pondérée des dates de fin des travaux ( ∑ wjCj) et la minimisation du (Cmax). Nous cherchons à minimiser la moyenne pondérée des deux critères, nous calculons une borne inférieure et nous proposons deux heuristiques de résolution. / "Cyres-Group" is working to improve the response time of his clusters Hadoop and optimize how the resources are exploited in its data center. That is, the goals are to finish work as soon as possible and reduce the latency of each user of the system. Firstly, we decide to work on the scheduling problem in the Hadoop system. We consider the problem as the problem of scheduling a set of jobs on a homogeneous platform. Secondly, we decide to propose tools, which are able to provide more flexibility during the resources management in the data center and ensure the integration of Hadoop in Cloud infrastructures without unacceptable loss of performance. Next, the second level focuses on the review of literature. We conclude that, existing works use simple mathematical models that do not reflect the real problem. They ignore the main characteristics of Hadoop software. Hence, we propose a new model ; we take into account the most important aspects like resources management and the relations of precedence among tasks and the data management and transfer. Thus, we model the problem. We begin with a simplistic model and we consider the minimisation of the Cmax as the objective function. We solve the model with mathematical solver CPLEX and we compute a lower bound. We propose the heuristic "LocFirst" that aims to minimize the Cmax. In the third level, we consider a more realistic modelling of the scheduling problem. We aim to minimize the weighted sum of the following objectives : the weighted flow time ( ∑ wjCj) and the makespan (Cmax). We compute a lower bound and we propose two heuristics to resolve the problem.
3

Méthodes et outils pour l'ordonnancement d'ateliers avec prise en compte des contraintes additionnelles : énergétiques et environnementales / Methods and tools for scheduling shop floors with additional constraints : energetic and environmental

Lamy, Damien 04 December 2017 (has links)
Ce travail de doctorat aborde trois thématiques: (i) l’ordonnancement des systèmes de production à cheminements multiples et plus particulièrement le Job-shop soumis à un seuil de consommation énergétique ; (ii) la résolution d’un problème d’ordonnancement et d’affectation dans le contexte d’un système flexible de production sous la forme d’un Job-shop Flexible ; (iii) les méthodes de couplage entre la simulation et l’optimisation dans le cadre des problèmes de Job-shop avec incertitude. Différentes approches de résolutions sont appliquées pour chaque problème : une formalisation mathématique est proposée ainsi que plusieurs métaheuristiques (GRASP×ELS, VNS, MA, NSGA-II hybride et GRASP×ELS itéré) pour le Job-shop avec contrainte énergétique. Une extension du GRASP×ELS, notée GRASP-mELS, est ensuite proposée pour résoudre un problème de Job-shop Flexible ; différents systèmes de voisinages utilisés lors des phases de diversification et d’intensification des solutions sont également présentés. Les résultats montrent que les performances du GRASP-mELS sont comparables à celles de la littérature à la fois en terme de qualité et de temps de calcul. La dernière thématique concerne les méthodes de couplage entre optimisation et simulation avec deux problèmes étudiés : 1) un Job-shop Stochastique et 2) un Job-shop Flexible Réactif. Les méthodes de résolution reposent sur des métaheuristiques et sur le langage de simulation SIMAN intégré dans l’environnement ARENA. Les résultats montrent que les deux approches permettent de mieux prendre en compte les aspects aléatoires liés à la réalité des systèmes de production. / This doctoral work addresses three themes: (i) the scheduling of multi-path production systems and more specifically the Job-shop subjected to a power threshold; (ii) the resolution of a scheduling and assignment problem in the context of a flexible production system modelled as a Flexible Job-shop; (iii) the coupling methods between simulation and optimisation in the context of Job-shop problems with uncertainty. Different resolution approaches are applied for each problem: a mathematical formalisation is proposed as well as several metaheuristics (GRASP×ELS, VNS, MA, hybrid NSGA-II and iterated GRASP×ELS) for the Job-shop with power requirements. An extension of the GRASP×ELS, denoted GRASP-mELS, is then proposed to solve a Flexible Job-shop problem; different neighbourhood systems used during the diversification and intensification phases of solutions are also presented. The results show that the performances of the GRASP-mELS are comparable to the methods presented in the literature both in terms of quality of solutions and computation time. The last topic concerns the coupling methods between optimisation and simulation with two problems: 1) a Stochastic Job-shop and 2) a Reactive Flexible Job-shop. The resolution methods are based on metaheuristics and the SIMAN simulation language integrated in the ARENA environment. The results show that both approaches allow to better take into account the random aspects related to the reality of production systems.
4

Contrôleur intelligent multi-agent pour un système de chauffage électrique résidentiel intégrant des unités d'accumulation thermique

Devia, William January 2020 (has links) (PDF)
No description available.
5

Software-level analysis and optimization to mitigate the cost of write operations on non-volatile memories / Analyse logicielle et optimisation pour réduire le coût des opérations d'écriture sur les mémoires non volatiles

Bouziane, Rabab 07 December 2018 (has links)
La consommation énergétique est devenue un défi majeur dans les domaines de l'informatique embarquée et haute performance. Différentes approches ont été étudiées pour résoudre ce problème, entre autres, la gestion du système pendant son exécution, les systèmes multicœurs hétérogènes et la gestion de la consommation au niveau des périphériques. Cette étude cible les technologies de mémoire par le biais de mémoires non volatiles (NVMs) émergentes, qui présentent intrinsèquement une consommation statique quasi nulle. Cela permet de réduire la consommation énergétique statique, qui tend à devenir dominante dans les systèmes modernes. L'utilisation des NVMs dans la hiérarchie de la mémoire se fait cependant au prix d'opérations d'écriture coûteuses en termes de latence et d'énergie. Dans un premier temps, nous proposons une approche de compilation pour atténuer l'impact des opérations d'écriture lors de l'intégration de STT-RAM dans la mémoire cache. Une optimisation qui vise à réduire le nombre d'opérations d'écritures est implémentée en utilisant LLVM afin de réduire ce qu'on appelle les silent stores, c'est-à-dire les instances d'instructions d'écriture qui écrivent dans un emplacement mémoire une valeur qui s'y trouve déjà. Dans un second temps, nous proposons une approche qui s'appuie sur l'analyse des programmes pour estimer des pire temps d'exécution partiaux, dénommés δ-WCET. À partir de l'analyse des programmes, δ-WCETs sont déterminés et utilisés pour allouer en toute sécurité des données aux bancs de mémoire NVM avec des temps de rétention des données variables. L'analyse δ-WCET calcule le WCET entre deux endroits quelconques dans un programme, comme entre deux blocs de base ou deux instructions. Ensuite, les pires durées de vie des variables peuvent être déterminées et utilisées pour décider l'affectation des variables aux bancs de mémoire les plus appropriées. / Traditional memories such as SRAM, DRAM and Flash have faced during the last years, critical challenges related to what modern computing systems required: high performance, high storage density and low power. As the number of CMOS transistors is increasing, the leakage power consumption becomes a critical issue for energy-efficient systems. SRAM and DRAM consume too much energy and have low density and Flash memories have a limited write endurance. Therefore, these technologies can no longer ensure the needs in both embedded and high-performance computing domains. The future memory systems must respect the energy and performance requirements. Since Non Volatile Memories (NVMs) appeared, many studies have shown prominent features where such technologies can be a potential replacement of the conventional memories used on-chip and off-chip. NVMs have important qualities in storage density, scalability, leakage power, access performance and write endurance. Nevertheless, there are still some critical drawbacks of these new technologies. The main drawback is the cost of write operations in terms of latency and energy consumption. We propose a compiler-level optimization that reduces the number of write operations by elimination the execution of redundant stores, called silent stores. A store is silent if it’s writing in a memory address the same value that is already stored at this address. The LLVM-based optimization eliminates the identified silent stores in a program by not executing them. Furthermore, the cost of a write operation is highly dependent on the used NVM and its non-volatility called retention time; when the retention time is high then the latency and the energetic cost of a write operation are considerably high and vice versa. Based on that, we propose an approach applicable in a multi- bank NVM where each bank is designed with a specific retention time. We analysis a program and we compute the worst-case lifetime of a store instruction to allocate data to the most appropriate NVM bank.
6

Optimisation de consommation pour un véhicule de type voiture / Optimisation of energy consumption for a car-like vehicle

Oukacha, Ouazna 17 November 2017 (has links)
Cette thèse présente l’étude d’un problème de contrôle optimal dont le coût est non-différentiable pourcertaines valeurs du contrôle ou de l’état, tout en restant Lipschitz. Ce problème nous a été inspiré par laproblématique générale de la minimisation de l’énergie dépensée par un véhicule ou robot de type voiture lelong d’un trajet dont le profil de route est connu à l’avance. Cette problématique est formulée à l’aide d’unmodèle simple de la dynamique longitudinale du véhicule et une fonction coût qui englobe la notiond’efficacité du processus de conversion énergétique. Nous présentons un résultat de régularité des contrôles,valable pour la classe des systèmes non-linéaires, affines dans les contrôles, classe à laquelle appartient notreproblème. Ce résultat nous permet d’exclure les phénomènes de chattering de l’ensemble des solutions. Nousréalisons trois études de cas pour lesquelles les trajectoires optimales sont composées d’arcs bang,d’inactivations, d’arcs singuliers et, dans certains cas, de retours en arrière. / The present thesis is a study of an optimal control problem having a non-differentiable, but Lipschitz, costfunction. It is inspired by the minimization of the energy consumption of a car-like vehicle or robot along aroad which profile is known. This problem is stated by means of a simple model of the longitudinal dynamicsand a running cost that comprises both an absolute value function and a function that accounts for theefficiency of the energy conversion process. A regularity result that excludes chattering phenomena from theset of solutions is proven. It is valid for the class of control affine systems, which includes the consideredproblem. Three case studies are detailed and analysed. The optimal trajectories are shown to be made of bang,inactivated and backward arcs.
7

Analyse de l'impact des propriétés radiatives de façades pour la performance énergétique de bâtiments d'un environnement urbain dense

Doya, Maxime 08 July 2010 (has links) (PDF)
L'interaction des phénomènes de transfert de chaleur et de masse dans un tissu urbain avec les apports anthropiques participent à l'îlot de chaleur urbain et à la dégradation de la performance énergétique des bâtiments. L'objectif de cette étude est de définir l'impact de la modification des propriétés radiatives aux façades des bâtiments qui peut être réalisée par l'utilisation de revêtements sélectifs colorés récemment développés pour les toitures. Les flux sensibles et l'impact sur les bâtiments sont étudiés pour une morphologie caractéristique des milieux urbains denses, la rue canyon. Un suivi expérimental mené sur des surfaces élémentaires de propriétés radiatives différentes nous a permis de développer par une méthode d'optimisation un procédé de détermination simultané du coefficient de convection et des absorptivités solaires effectives sur la période de mesure. L'utilisation de peintures sélectives dans la configuration canyon retenue est ensuite analysée expérimentalement. Pour cela une maquette (1/10ème) de scène urbaine a été conçue sur la base de 5 rangées de cuves de béton creux qui ont fait l'objet de mesures de températures et de flux radiatifs. Dans un premier temps, le traitement de deux mois de mesures a permis de caractériser les évolutions de champs de températures liés à cette forme urbaine. Par la suite, trois configurations de propriétés radiatives aux façades ont été étudiées simultanément et ont permis d'analyser les modifications spécifiques sur les champs de température, de sur-faces et d'air. Afin d'estimer les économies d'énergie réalisables sur un bâtiment réel ainsi que l'impact sur son environnement proche, une étude paramétrique des revêtements de façade et de la chaussée a été effectuée par des simulations de l'interaction du bâti et du micro-climat. Les méthodes et expériences établies dans cette étude nous permettent d'envisager le développement du traitement des façades et de la caractérisation de leurs performances globales.
8

Étude et conception d'un procédé de séchage combiné de boues de stations d'épuration par énergie solaire et pompe à chaleur

Slim, Rayan 25 October 2007 (has links) (PDF)
La gestion des boues représente un véritable défi dû à sa consommation d'énergie et la pollution environnementale associée. L'objectif de ce mémoire est de concevoir et d'étudier un procédé de séchage de boues par énergie solaire et pompes à chaleur, et d'explorer les options techniques pour fournir l'appoint d'énergie aux boues. Un dispositif de séchage expérimental a été réalisé afin d'étudier le séchage conductif des boues et d'évaluer leurs caractéristiques. Une méthode analytique a été proposée pour évaluer la diffusivité de la vapeur d'eau dans les boues, modélisées en tant qu'ensemble d'agrégats poreux. Cette méthode, basée sur un modèle diffusif fickian, a permis de suivre l'évolution de facteur d'impédance de diffusion au cours d'un cycle de séchage. Les expériences ont souligné l'effet de la fréquence de retournements sur l'intensification du séchage. Les transferts de chaleur et de masse convectifs intervenant à l'interface de séchage air-boues ont été caractérisés expérimentalement. L'intensification de l'évaporation due à l'augmentation des vitesses d'air superficielles a été mise en évidence. Une corrélation a été établie pour rendre compte de l'écart entre les conductances latentes expérimentales et les conductances prévues par la théorie de Lewis, en fonction des siccités des boues. Le concept de soufflage d'air par fentes linéaires sur la largeur de la serre a été proposé comme moyen d'amélioration des conditions aérauliques dans une serre de séchage. A partir de ces développements, un modèle mathématique du procédé de séchage combiné a été établi afin d'évaluer ses performances et ses consommations énergétiques. Les données climatiques ont été intégrées afin d'évaluer les performances saisonnières du procédé et d'étudier l'influence des conditions climatiques sur les modes opératoires des pompes à chaleur. Les simulations ont permis de définir une logique de régulation optimale en termes de minimisation des consommations énergétiques marginales. En outre, le modèle a mis en évidence l'amélioration apportée par la réduction de l'épaisseur du lit de boues au cours d'un séchage combiné.
9

Méthode de prototypage virtuel permettant l'évaluation précoce de la consommation énergétique dans les systèmes intégrés sur puce / Early design power estimation method for multiprocessor system on chip, based on SystemC prototyping

Zine Elabidine, Khouloud 16 October 2014 (has links)
Depuis quelques années, les systèmes embarqués n’ont pas cessé d’évoluer. Cette évolution a conduit à des circuits de plus en plus complexes pouvant comporter plusieurs centaines de processeurs sur une même puce.Si la progression des techniques de fabrication des systèmes intégrés, a permis l’amélioration des performances de ces derniers en terme de temps et de capacité de traitement, elle a malheureusement amené une nouvelle contrainte de conception. En effet, cette nouvelle génération de systèmes consomme plus d’énergie et nécessite donc la prise en compte, pendant la phase de conception, des caractéristiques énergétiques dans le but de trouver le meilleur compromis (performance / énergie). Des études montrent qu’une estimation précoce de la consommation – i.e. au niveau comportemental – permet une meilleure diminution de l’énergie consommée par le système.L’outil EDPE (Early Design Power Estimation), objet de cette thèse, propose en réponse à ce besoin, une procédure permettant la caractérisation énergétique précoce d’une architecture de type MPSoC (MultiProcessor System on Chip) dans la phase de prototypage virtuel en System C. EDEP s’appuie sur des modèles de consommation par composant pour en déduire l’énergie dissipée par le système global lorsque le système est simulé au niveau CABA(Cycle Accurate Byte Accurate) ou encore TLM (Transaction Level Model). Les modèles proposés par EDPE, ont été intégrés dans la bibliothèque de prototypage virtuel SoClib. Ainsi, pendant la phase d’exploration architecturale, le concepteur dispose en plus des caractéristiques temporelles et spatiales de son circuit, d’une estimation précise de sa consommation énergétique.L’élaboration de modèles de consommation pour les différents composants matériels d’un système, à l’aide d’EDPE, est simple, homogène et facilement généralisable.Les résultats obtenus montrent la capacité d’EDPE à prédire la consommation énergétique de différentes applications logicielles déployées sur une même architecture matérielle de manière précise et rapide. / Technological trends towards high-level integration combined with the increasing operating frequencies, made embedded systems design become more and more complex.The increase in number of computing resources in integrated circuit (IC) led toover-constrained systems.In fact, SoC (System on Chip) designers must reduce overall system costs, including board space, power consumption and development time.Although many researches have developed methodologies to deal with the emerging requirements of IC design, few of these focused on the power consumption constraint.While the highest accuracy is achieved at the lowest level, estimation time increases significantly when we move down to lower levels.Early power estimation is interesting since it allows to widely explore the architectural design space during the system level partitioning and to early adjust architectural design choices.EDPE estimates power consumption at the system levels and especially CABA (Cycle Accurate Bit Accurate) and TLM (Transaction Level Modelling) levels.The EDPE have been integrated into SoCLib library.The main goal of EDPE (Early Design Power Estimation) is to compare the power consumption of different design partitioning alternatives and chooses the best trade-off power/ performance.Experimental results show that EDPE (Early Design Power Estimation) method provides fast, yet accurate, early power estimation for MPSoCs (MultiprocessorSystem on Chip).EDPE uses few parameters per hardware components and is based on homogeneous and easy characterization method.EDPE is easily generalized to any virtual prototyping library.
10

Système de fichiers scalable pour architectures many-cores à faible empreinte énergétique / Scalable file system for energy-efficient manycore architectures

Karaoui, Mohamed Lamine 28 June 2016 (has links)
Cette thèse porte sur l'étude des problèmes posés par l'implémentation d'un système de fichiers passant à l'échelle, pour un noyau de type UNIX sur une architecture manycore NUMA à cohérence de cache matérielle et à faible empreinte énergétique. Pour cette étude, nous prenons comme référence l'architecture manycore généraliste TSAR et le noyau de type UNIX ALMOS.L'architecture manycore visée pose trois problèmes pour lesquels nous apportons des réponses après avoir décrit les solutions existantes. L'un de ces problèmes est spécifique à l'architecture TSAR tandis que les deux autres sont généraux.Le premier problème concerne le support d'une mémoire physique plus grande que la mémoire virtuelle. Ceci est dû à l'espace d'adressage physique étendu de TSAR, lequel est 256 fois plus grand que l'espace d'adressage virtuel. Pour résoudre ce problème, nous avons profondément modifié la structure noyau pour le décomposer en plusieurs instances communicantes. La communication se fait alors principalement par passage de messages.Le deuxième problème concerne la stratégie de placement des structures du système de fichiers sur les nombreux bancs de mémoire. Pour résoudre ce problème nous avons implémenté une stratégie de distribution uniforme des données sur les différents bancs de mémoire.Le troisième problème concerne la synchronisation des accès concurrents. Pour résoudre ce problème, nous avons mis au point un mécanisme de synchronisation utilisant plusieurs mécanismes. En particulier, nous avons conçu un mécanisme lock-free efficace pour synchroniser les accès faits par plusieurs lecteurs et un écrivain. Les résultats expérimentaux montrent que : (1) l'utilisation d'une structure composée de plusieurs instances communicantes ne dégrade pas les performances du noyau et peut même les augmenter ; (2) l'ensemble des solutions utilisées permettent d'avoir des résultats qui passent mieux à l'échelle que le noyau NetBSD ; (3) la stratégie de placement la plus adaptée aux systèmes de fichiers pour les architectures manycore est celle distribuant uniformément les données. / In this thesis we study the problems of implementing a UNIX-like scalable file system on a hardware cache coherent NUMA manycore architecture. To this end, we use the TSAR manycore architecture and ALMOS, a UNIX-like operating system.The TSAR architecture presents, from the operating system point of view, three problems to which we offer a set of solutions. One of these problems is specific to the TSAR architecture while the others are common to existing coherent NUMA manycore.The first problem concerns the support of a physical memory that is larger than the virtual memory. This is due to the extended physical address space of TSAR, which is 256 times bigger than the virtual address space. To resolve this problem, we modified the structure of the kernel to decompose it into multiple communicating units.The second problem is the placement strategy to be used on the file system structures. To solve this problem, we implemented a strategy that evenly distributes the data on the different memory banks.The third problem is the synchronization of concurrent accesses to the file system. Our solution to resolve this problem uses multiple mechanisms. In particular, the solution uses an efficient lock-free mechanism that we designed, which synchronizes the accesses between several readers and a single writer.Experimental results show that: (1) structuring the kernel into multiple units does not deteriorate the performance and may even improve them; (2) our set of solutions allow us to give performances that scale better than NetBSD; (3) the placement strategy which distributes evenly the data is the most adapted for manycore architectures.

Page generated in 0.132 seconds