• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 504
  • 139
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 1643
  • 459
  • 446
  • 336
  • 328
  • 290
  • 262
  • 250
  • 234
  • 217
  • 203
  • 188
  • 178
  • 165
  • 162
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
411

Contribution à la prise en compte d'exigences dynamiques en conception préliminaire de systèmes complexes

Trabelsi, Hassen 16 January 2014 (has links) (PDF)
Cette thèse traite de problématique de dimensionnement d'un système technique complexe. L'objectif est de proposer et d'outiller un processus de conception selon lequel le dimensionnement statique de l'architecture initiale d'un système satisfait dès le début les exigences statiques et dynamiques sans nécessité de redimensionnement. Ainsi, nous avons proposé une nouvelle démarche de conception dans laquelle la prise en compte des exigences statiques et dynamiques est effectuée de maniéré simultanée et globale dans la phase de conception préliminaire. Cette démarche se base sur les exigences pour déterminer les solutions admissibles et utilise des méthodes de résolution ensemblistes telles que la méthode de calcul par intervalle et la méthode de propagation par contraintes. En effet, les variables de conception sont exprimées par intervalles et les exigences statiques et dynamiques sont implémentées dans un même modèle NCSP. Les exigences dynamiques sont plus difficiles à intégrer. Il s'agit des exigences fonctionnelles du système, de la résonance et des critères de stabilité, de commandabilité et de transmittance. Dans un premier temps, nous avons réussi à intégrer le comportement dynamique d'un système technique sous forme d'équation différentielle ordinaire par intervalles et dans un deuxième temps, nous avons traduit les exigences dynamiques sous forme de contraintes algébriques définies par un ensemble d'équations et inéquations. La solution générée représente les valeurs admissibles des variables de conception satisfaisant simultanément les exigences statiques et dynamiques imposées. Ce couplage entre le dimensionnement statique et dynamique dans l'approche de conception proposée permet d'éviter le sur-dimensionnement puisque les exigences dynamiques interviennent dans le choix des coefficients de sécurité, et d'éviter les boucles de redimensionnement en cas d'échec ce qui permet de gagner en temps de calcul et de réduire le coût de conception. La démarche de conception proposée est validée par application sur le cas de dimensionnement d'un système de suspension active MacPherson.
412

Influence de l'orientation des grains de ferrite sur l'oxydation sélective de l'acier

Chen, Si 07 March 2012 (has links) (PDF)
Le procédé de galvanisation en continu consiste à recouvrir les tôles d'aciers d'un revêtement de zinc en les immergeant dans un bain métallique fondu. Lors du recuit continu à 800°C sous atmosphère N2‐H2 qui précède l'immersion de la tôle dans le bain, la structure de l'acier est recristallisée et les oxydes de fer sont réduits. Il se produit en même temps la ségrégation et l'oxydation des éléments d'alliages moins nobles que le fer, les oxydes formés pouvant être à l'origine de défauts de revêtement. Afin de mieux comprendre les réactions d'oxydation sélective qui se produisent à la surface et en profondeur de l'acier, nous avons étudié la germination et la croissance d'oxydes sélectifs sur un acier ferritique. Des alliages binaires de FeMn ont été étudiés dans ce travail. Les particules d'oxyde sont composées de l'oxyde de manganèse MnO. L'oxydation externe dépend de l'orientation cristallographique du substrat. Des particules de différentes formes sont observées sur des grains de ferrite d'orientations différentes : des particules cubiques se trouvent sur la surface (100), des particules triangulaires sur la surface (110) et des particules hexagonales sur la surface (111). Une étude théorique plus approfondie a été réalisée à l'aide de simulation numérique par la méthode DFT et le code SIESTA. Aucune influence significative de la présence de manganèse n'a été trouvée sur l'énergie d'adsorption dissociative du dioxygène à l'échelle atomique. Cependant, la barrière de diffusion des atomes de Fe, Mn, et O est beaucoup plus faible sur la surface (110) que sur la surface (001). Ceci peut être une explication de la raison pour laquelle la taille des particules est plus grande sur la surface (110) que sur la surface (100).
413

Estimation du taux de mortalité sous contraintes d'ordre pour des données censurées ou tronquées /

Younes, Hassan, January 2005 (has links)
Thèse (D. en mathématiques)--Université du Québec à Montréal, 2005. / En tête du titre: Université du Québec à Montréal. Bibliogr.: f. [102]-107. Publié aussi en version électronique.
414

Etude d'un élastomère chargé, de la nanostructure au macro-comportement

Jean, Aurélie 19 February 2009 (has links) (PDF)
En mécanique des matériaux, la volonté actuelle est de chercher à mieux comprendre certains phénomènes macroscopiques en étudiant la microstructure et les phénomènes physiques à l'échelle microscopique. Cette approche est rendue possible par les nombreux développements dans les techniques d'homogénéisation en mécanique multi-échelles. Dans la présente thèse, on travaille sur les élastomères chargés pour lesquels de nombreuses propriétés mécaniques sont étroitement liées à l'arrangement des particules et agrégats de noir de carbone dans la matrice élastomère, à l'échelle microscopique. La démarche adoptée s'articule autour de deux objectifs principaux. Le premier consiste à modéliser la morphologie de la microstructure du matériau. Pour cela, on met en place un modèle aléatoire de morphologie mathématique décrivant chaque échelle de la microstructure. On propose une méthode d'identification de ce modèle à partir de l'exploitation d'images de microscopie à transmission. Cette méthode trouve son originalité dans le fait d'optimiser le modèle en simulant des images de microscopie à transmission, sur lesquelles on mesure les moments statistiques d'ordre deux et trois que l'on compare aux moments expérimentaux. Cette méthode permet finalement de simuler des microstructures dont la morphologie est très proche de celle du matériau réel. Le second objectif consiste, à partir des microstructures ainsi simulées, à déterminer les propriétés effectives du matériau par le calcul par éléments finis à travers la notion de Volume Elémentaire Représentatif (VER). L'idée est de déterminer la taille du VER par une méthode numérique et statistique en cherchant à estimer les propriétés effectives par une approche de type Monte-Carlo, pour des simulations de microstructures de tailles croissantes. La déterminaton du VER porte sur les modules élastiques et la conductitivité électrique. De nombreux outils tels que le maillage par éléments finis ou encore le calcul parallèle appliqué aux matériaux présentant un fort contraste sur les propriétés entre les phases, ont été explorés afin de mener à bien ce dernier objectif.
415

Les théories physiques face au calcul numérique : enjeux et conséquences de la mécanique discrète / Physical theories and numeral computation : studies and consequences of discrete mechanics

Ardourel, Vincent 10 December 2013 (has links)
Avec le développement des ordinateurs, la résolution numérique des équations de la physique est devenue un outil de calcul puissant pour établir des prédictions physiques. Mais le recours au calcul numérique entraîne des changements plus profonds pour les théories physiques. Le but de cette thèse est de montrer que le calcul numérique sur machine conduit à une véritable reformulation des théories physiques. Les lois et les principes fondamentaux formulés à l'aide d'équations différentielles sont reformulés de manière discrète. Pour cela, je me concentre sur le cas d'une théorie physique: la mécanique classique. Je montre que depuis les années 1980 une mécanique discrète a été développée. J'analyse cette approche et j'examine en particulier ce qu'elle nous apprend sur la représentation du temps comme continu dans les théories physiques. Dans une première partie, j'examine la résolution numérique sur machine en tant qu'outil pour la prédiction quantitative en physique. Je montre la nécessité pour les scientifiques d'y recourir et je propose une analyse des concepts fondamentaux de ce type de résolution. Dans une deuxième partie, j'examine dans quelle mesure le calcul numérique est un élément constitutif des théories physiques. Je défends la thèse selon laquelle la mécanique discrète est une nouvelle théorie du mouvement classique. Dans une troisième partie, je soutiens une thèse sur la représentation du temps comme continu dans les théories physiques. C'est une représentation dont les scientifiques peuvent se passer. J'examine ensuite en quel sens la représentation traditionnelle du temps comme continu est plus simple que la représentation discrète. / The numerical computation of the solutions of equations in physical theories enables scientists to make powerful predictions. But numerical computation also challenges physical theories in a more fundamental way. The aim of this dissertation is to show how numerical computation leads to a reformulation of physical theories. Fundamental laws and first principles usually formulated with differential equations are reformulated with discrete equations. To fulfill this goal, I focus on the case of classical mechanics. I study a discrete approach called discrete mechanics developed since the 1980's and I discuss its consequences on the usual continuous representation of time in physics. First, I study numerical computation as a means to make predictions in physics. The fundamental concepts of exact and numerical computations of differential equations are discussed. In the second part, I examine how numerical computation changes the fundamental principles of physical theories. I claim that discrete mechanics has to be considered as a new theory of classical motion. In a third part, I investigate the consequences of discrete mechanics on the continuous representation of time in physics. I claim that physicists do not have to necessarily represent time as continuous in their theories. The discrete representation is another possible choice. Finally, I compare the continuous representation of time and the discrete one according to criteria of simplicity.
416

Road to exascale : improving scheduling performances and reducing energy consumption with the help of end-users / Route vers l'exaflops : amélioration des performances d'ordonnancement et réduction de la consommation énergétique avec l'aide des utilisateurs finaux

Glesser, David 18 October 2016 (has links)
Le domaine du calcul haute performance (i.e. la science des super-calculateurs)est caractérisé par l’évolution continuelle des architectures de calcul, la proliférationdes ressources de calcul et la complexité croissante des problèmes que les utilisateursveulent résoudre. Un des logiciels les plus importants de la pile logicielle dessupercalculateurs est le Système de Gestion des Ressources et des Tâches. Il est lelien entre la charge de travail donnée par les utilisateurs et la plateforme de calcul. Cetype de logiciels spécialisés fournit des fonctions pour construire, soumettre, planifieret surveiller les tâches dans un environnent de calcul complexe et dynamique.Pour pouvoir atteindre des supercalculateurs exaflopiques, de nouvelles con-traintes et objectifs ont été inventés. Cette thèse développe et teste l’idée que lesutilisateurs de ces systèmes peuvent aider à atteindre l’échelle exaflopique. Spé-cifiquement, nous montrons des techniques qui utilisent les comportements desutilisateurs pour améliorer la consommation énergétique et les performances glob-ales des supercalculateurs.Pour tester ces nouvelles techniques, nous avons besoin de nouveaux outils etméthodes qui sont capables d’aller jusqu’à l’échelle exaflopique. Nous proposonsdonc des outils qui permettent de tester de nouveaux algorithmes capables des’exécuter sur ces systèmes. Ces outils sont capables de fonctionner sur de petitssupercalculateurs en émulant ou simulant des systèmes plus puissants. Après avoirévalué différentes techniques pour mesurer l’énergie dans les supercalculateurs, nousproposons une nouvelle heuristique, basée sur un algorithme répandu (Easy Backfill-ing), pour pouvoir contrôler la puissance électrique de ces énormes systèmes. Nousmontrons aussi comment, en utilisant la même méthode, contrôler la consommationénergétique pendant une période de temps. Le mécanisme proposé peut limiterla consommation énergétique tout en gardant des performances satisfaisantes. Sil’énergie est une ressource limitée, il faut la partager équitablement. Nous présen-tons de plus un mécanisme permettant de partager la consommation énergétiqueentre les utilisateurs. Nous soutenons que cette méthode va motiver les utilisateursà réduire la consommation énergétique de leurs calculs. Finalement, nous analysonsle comportement actuel et passé des utilisateurs pour améliorer les performancesdes supercalculateurs. Cette approche non seulement surpasse les performances destravaux existants, mais aussi ouvre la voie à l’utilisation de méthodes semblablesdans d’autres aspects des Systèmes de Gestion des Ressources et des Tâches. / The field of High Performance Computing (HPC) is characterized by the contin-uous evolution of computing architectures, the proliferation of computing resourcesand the increasing complexity of applications users wish to solve. One of the mostimportant software of the HPC stack is the Resource and Job Management System(RJMS) which stands between the user workloads and the platform, the applica-tions and the resources. This specialized software provides functions for building,submitting, scheduling and monitoring jobs in a dynamic and complex computingenvironment.In order to reach exaflops HPC systems, new constraints and objectives havebeen introduced. This thesis develops and tests the idea that the users of suchsystems can help reaching the exaflopic scale. Specifically, we show and introducenew techniques that employ users behaviors to improve energy consumption andoverall cluster performances.To test the proposed techniques, we need to develop new tools and method-ologies that scale up to large HPC clusters. Thus, we designed adequate tools thatassess new RJMS scheduling algorithms of such large systems. These tools areable to run on small clusters by emulating or simulating bigger platforms. Afterevaluating different techniques to measure the energy consumption of HPC clusters,we propose a new heuristic, based on the popular Easy Backfilling algorithm, inorder to control the power consumption of such huge systems. We also demonstrate,using the same idea, how to control the energy consumption during a time period.The proposed mechanism is able to limit the energy consumption while keepingsatisfying performances. If energy is a limited resource, it has to be shared fairly.We also present a mechanism which shares energy consumption among users. Weargue that sharing fairly the energy among users should motivate them to reducethe energy consumption of their applications. Finally, we analyze past and presentbehaviors of users using learning algorithms in order to improve the performancesof the parallel platforms. This approach does not only outperform state of the artmethods, it also shows promising insight on how such method can improve otheraspects of RJMS.
417

Conception de machines probabilistes dédiées aux inférences bayésiennes / Theory and hardware implementation of probabilistic machines

Faix, Marvin 12 December 2016 (has links)
Ces travaux de recherche ont pour but de concevoir des ordinateurs baséssur une organisation du calcul mieux adaptée au raisonnement probabiliste.Notre intérêt s’est porté sur le traitement des données incertaines et lescalculs à réaliser sur celles-ci. Pour cela, nous proposons des architectures demachines se soustrayant au modèle Von Neumann, supprimant notammentl’utilisation de l’arithmétique en virgule fixe ou flottante. Les applicationscomme le traitement capteurs ou la robotique en générale sont des exemplesd’utilisation des architectures proposées.Plus spécifiquement, ces travaux décrivent deux types de machines probabilistes, radicalement différentes dans leur conception, dédiées aux problèmesd’inférences bayésiennes et utilisant le calcul stochastique. La première traiteles problèmes d’inférence de faibles dimensions et utilise le calcul stochas-tique pour réaliser les opérations nécessaires au calcul de l’inférence. Cettemachine est basée sur le concept de bus probabiliste et possède un très fortparallélisme. La deuxième machine permet de traiter les problèmes d’infé-rence en grandes dimensions. Elle implémente une méthode MCMC sous laforme d’un algorithme de Gibbs au niveau binaire. Dans ce cas, le calculstochastique est utilisé pour réaliser l’échantillonnage, bit à bit, du modèle.Une importante caractéristique de cette machine est de contourner les pro-blèmes de convergence généralement attribués au calcul stochastique. Nousprésentons en fin de manuscrit une extension de ce second type de machine :une machine générique et programmable permettant de trouver une solutionapprochée à n’importe quel problème d’inférence. / The aim of this research is to design computers best suited to do probabilistic reasoning. The focus of the research is on the processing of uncertain data and on the computation of probabilistic distribution. For this, new machine architectures are presented. The concept they are designed on is different to the one proposed by Von Neumann, without any fixed or floating point arithmetic. These architectures could replace the current processors in sensor processing and robotic fields.In this thesis, two types of probabilistic machines are presented. Their designs are radically different, but both are dedicated to Bayesian inferences and use stochastic computing. The first deals with small-dimension inference problems and uses stochastic computing to perform the necessary operations to calculate the inference. This machine is based on the concept of probabilistic bus and has a strong parallelism.The second machine can deal with intractable inference problems. It implements a particular MCMC method: the Gibbs algorithm at the binary level. In this case, stochastic computing is used for sampling the distribution of interest. An important feature of this machine is the ability to circumvent the convergence problems generally attributed to stochastic computing. Finally, an extension of this second type of machine is presented. It consists of a generic and programmable machine designed to approximate solution to any inference problem.
418

Transport optimal et ondelettes : nouveaux algorithmes et applications à l'image / Optimal transportation and wavelets : new algorithms and application to image

Henry, Morgane 08 April 2016 (has links)
Le transport optimal trouve un nombre grandissant d’applications, dont celle qui nous intéresse dans ce travail, l'interpolation d’images. Malgré cet essor, la résolution numérique de ce transport soulève des difficultés et le développement d’algorithmes efficaces reste un problème d'actualité, en particulier pour des images de grande taille, comme on en trouve dans certains domaines (météorologie,...).Nous nous intéressons dans ce travail à la formulation de Benamou et Brenier, qui ont placé le problème dans un contexte de mécanique des milieux continus en ajoutant une dimension temporelle. Leur formulation consiste en la minimisation d’une fonctionnelle sur un espace des contraintes contenant une condition de divergence nulle, et les algorithmes existants utilisent une projection sur cet espace.A l'opposé, dans cette thèse, nous définissons et mettons en oeuvre des algorithmes travaillant directement dans cet espace.En effet, nous montrons que la fonctionnelle a de meilleures propriétés de convexité sur celui-ci.Pour travailler dans cet espace, nous considérons trois représentations des champs de vecteurs à divergence nulle. La première est une base d’ondelettes à divergence nulle. Cette formulation a été implémentée numériquement dans le cas des ondelettes périodiques à l'aide d'une descente de gradient, menant à un algorithme de convergence lente mais validant la faisabilité de la méthode. La deuxième approche consiste à représenter les vecteurs à divergence nulle par leur fonction de courant munie d'un relèvement des conditions au bord et la troisième à utiliser la décomposition de Helmholtz-Hodge.Nous montrons de plus que dans le cas unidimensionnel en espace, en utilisant l’une ou l'autre de ces deux dernières représentations, nous nous ramenons à la résolution d’une équation de type courbure minimale sur chaque ligne de niveau du potentiel, munie des conditions de Dirichlet appropriées.La minimisation de la fonctionnelle est alors assurée par un algorithme primal-dual pour problèmes convexes de Chambolle-Pock, qui peut aisément être adapté à nos différentes formulations et est facilement parallèlisable, menant à une implémentation performante et simple.En outre, nous démontrons les gains significatifs de nos algorithmes par rapport à l’état de l’art et leur application sur des images de taille réelle. / Optimal transport has an increasing number of applications, including image interpolation, which we study in this work. Yet, numerical resolution is still challenging, especially for real size images found in applications.We are interested in the Benamou and Brenier formulation, which rephrases the problem in the context of fluid mechanics by adding a time dimension.It is based on the minimization of a functional on a constraint space, containing a divergence free constraint and the existing algorithms require a projection onto the divergence-free constraint at each iteration.In this thesis, we propose to work directly in the space of constraints for the functional to minimize.Indeed, we prove that the functional we consider has better convexity properties on the set of constraints.To work in this space, we use three different divergence-free vector decompositions. The first in which we got interested is a divergence-free wavelet base. This formulation has been implemented numerically using periodic wavelets and a gradient descent, which lead to an algorithm with a slow convergence but validating the practicability of the method.First, we represented the divergence-free vector fields by their stream function, then we studied the Helmholtz-Hodge decompositions. We prove that both these representations lead to a new formulation of the problem, which in 1D + time, is equivalent to the resolution of a minimal surface equation on every level set of the potential, equipped with appropriate Dirichlet boundary conditions.We use a primal dual algorithm for convex problems developed by Chambolle and Pock, which can be easily adapted to our formulations and can be easily sped up on parallel architectures. Therefore our method will also provide a fast algorithm, simple to implement.Moreover, we show numerical experiments which demonstrate that our algorithms are faster than state of the art methods and efficient with real-sized images.
419

Sémantique et implantation d'une extension de ML pour la preuve de programmes / Semantics and implementation of an extension of ML for proving programs

Lepigre, Rodolphe 18 July 2017 (has links)
Au cours des dernières années, les assistants de preuves on fait des progrès considérables et ont atteint un grand niveau de maturité. Ils ont permit la certification de programmes complexes tels que des compilateurs et même des systèmes d'exploitation. Néanmoins, l'utilisation d'un assistant de preuve requiert des compétences techniques très particulières, qui sont très éloignées de celles requises pour programmer de manière usuelle. Pour combler cet écart, nous entendons concevoir un langage de programmation de style ML supportant la preuve de programmes. Il combine au sein d'un même outil la flexibilité de ML et le fin niveau de spécification offert par un assistant de preuve. Autrement dit, le système peut être utilisé pour programmer de manière fonctionnelle et fortement typée tout en autorisant l'obtention de nouvelles garanties au besoin.On étudie donc un langage en appel par valeurs dont le système de type étend une logique d'ordre supérieur. Il comprend un type égalité entre les programmes non typés, un type de fonction dépendant, la logique classique et du sous-typage. La combinaison de l'appel par valeurs,des fonctions dépendantes et de la logique classique est connu pour poser des problèmes de cohérence. Pour s'assurer de la correction du système (cohérence logique et sûreté à l'exécution), on propose un cadre théorique basé sur la réalisabilité classique de Krivine. La construction du modèle repose sur une propriété essentielle qui lie les différent niveaux d'interprétation des types d'une manière novatrice.On démontre aussi l'expressivité de notre système en se basant sur son implantation dans un prototype. Il peut être utilisé pour prouver des propriétés de programmes standards tels que la fonction « map »sur les listes ou le tri par insertion. / In recent years, proof assistant have reached an impressive level of maturity. They have led to the certification of complex programs such as compilers and operating systems. Yet, using a proof assistant requires highly specialised skills and it remains very different from standard programming. To bridge this gap, we aim at designing an ML-style programming language with support for proofs of programs, combining in a single tool the flexibility of ML and the fine specification features of a proof assistant. In other words, the system should be suitable both for programming (in the strongly-typed, functional sense) and for gradually increasing the level of guarantees met by programs, on a by-need basis.We thus define and study a call-by-value language whose type system extends higher-order logic with an equality type over untyped programs, a dependent function type, classical logic and subtyping. The combination of call-by-value evaluation, dependent functions and classical logic is known to raise consistency issues. To ensure the correctness of the system (logical consistency and runtime safety), we design a theoretical framework based on Krivine's classical realisability. The construction of the model relies on an essential property linking the different levels of interpretation of types in a novel way.We finally demonstrate the expressive power of our system using our prototype implementation, by proving properties of standard programs like the map function on lists or the insertion sort.
420

De la localité logicielle à la localité matérielle sur les architectures à mémoire partagée, hétérogène et non-uniforme / From Software Locality to Hardware Locality in Shared Memory Systems with NUMA and Heterogenous Memory

Denoyelle, Nicolas 05 November 2018 (has links)
La hiérarchie mémoire des serveurs de calcul est de plus en plus complexe. Les machines disposent de plusieurs niveaux de caches plus ou moins partagés et d’une mémoire distribuée. Plus récemment le paysage du Calcul Haute Performance (CHP) a vu apparaître des mémoires adressables embarquées dans le processeur ainsi que de nouvelles mémoires non-volatiles (périphérique mémoire sur le bus d’entrées sorties et prochainement de la mémoire non-volatile directement sur le bus mémoire). Cette hiérarchie est nécessaire pour espérer obtenir de bonnes performances de calcul, au prix d’une gestion minutieuse du placement des données et des tâches de calcul. Là où la gestion des caches était entièrement matérielle et masquée au développeur, le choix du placement des données dans telle ou telle zone de mémoire, plus ou moins rapide, volatile ou non, volumineuse ou non, est maintenant paramétrable logiciellement. Cette nouvelle flexibilité donne une grande liberté aux développeurs mais elle complexifie surtout leur travail quand il s’agit de choisir les stratégies d’allocation, de communication, de placement, etc. En effet, les caractéristiques des nombreux niveaux de hiérarchie impliqués varient significativement en vitesse, taille et fonctionnalités. Dans cette thèse, co-encadrée entre Atos Bull Technologies et Inria Bordeaux– Sud-Ouest, nous détaillons la structure des plates-formes contemporaines et caractérisons la performance des accès à la mémoire selon plusieurs scénarios de localité des tâches de calcul et des données accédées. Nous expliquons comment la sémantique du langage de programmation impacte la localité des données dans la machine et donc la performance des applications. En collaboration avec le laboratoire INESC-ID de Lisbonne, nous proposons une extension au célèbre modèle Roofline pour exposer de manière intelligible les compromis de performance et de localité aux développeurs d’applications. Nous proposons par ailleurs un outil de synthèse de métriques de localité mettant en lien les évènements de performance de l’application et de la machine avec la topologie de cette dernière. Enfin, nous proposons une approche statistique pour sélectionner automatiquement la meilleure politique de placement des tâches de calcul sur les coeurs de la machine et des données sur les mémoires. / Through years, the complexity of High Performance Computing (HPC) systems’ memory hierarchy has increased. Nowadays, large scale machines typically embed several levels of caches and a distributed memory. Recently, on-chip memories and non-volatile PCIe based flash have entered the HPC landscape. This memory architecture is a necessary pain to obtain high performance, but at the cost of a thorough task and data placement. Hardware managed caches used to hide the tedious locality optimizations. Now, data locality, in local or remote memories, in fast or slow memory, in volatile or non-volatile memory, with small or wide capacity, is entirely software manageable. This extra flexibility grants more freedom to application designers but with the drawback of making their work more complex and expensive. Indeed, when managing tasks and data placement, one has to account for several complex trade-offs between memory performance, size and features. This thesis has been supervised between Atos Bull Technologies and Inria Bordeaux – Sud-Ouest. In the hereby document, we detail contemporary HPC systems and characterize machines performance for several locality scenarios. We explain how the programming language semantics affects data locality in the hardware, and thus applications performance. Through a joint work with the INESC-ID laboratory in Lisbon, we propose an insightful extension to the famous Roofline performance model in order to provide locality hints and improve applications performance. We also present a modeling framework to map platform and application performance events to the hardware topology, in order to extract synthetic locality metrics. Finally, we propose an automatic locality policy selector, on top of machine learning algorithms, to easily improve applications tasks and data placement.

Page generated in 0.0284 seconds