Spelling suggestions: "subject:"boucle""
61 |
Discrétisation des modèles sigma invariants conformes sur des supersphères et superespaces projectifsCandu, Constantin 31 October 2008 (has links) (PDF)
Le but de cette thèse a été l'étude de quelques représentants des modèles sigma en deux dimensions invariants conformes et avec symétrie continue qui sortent du cadre traditionnel, établie par la recherche des dernières décennies dans le domaine des théories conformes, des modèles sigma de Wess-Zumino-Witten ou des modèles gaussiens. Les modèles sigma sur des superespaces symétriques, définis par une action métrique standard, offrent de tels exemples. La difficulté de résoudre ces modèles sigma est relié au fait qu'ils ne possèdent pas de symétrie de Kac-Moody, qui est normalement nécessaire pour intégrer les théories conformes nongaussiennes avec symétrie continue. Dans cette thèse on considère les modèles sigma sur les supersphères S^(2S+1/2S) et sur les superespaces projectifs). Les deux modèles continus admettent une discrétisation par un gaz de boucles denses qui s'intersectent et dont l'algèbre des matrices de transfert est une algèbre de type Brauer. La stratégie principale qu'on a adoptée dans la recherche des résultats exacts sur ces modèles sigma est l'étude détaillée des symétries de la théorie continue, d'un coté, et du modèle discret, de l'autre. Cette analyse permet de faire le pont entre le comportement du modèle discret et la théorie continue. L'analyse détaillée des symétries discrètes - en particulier la structure des blocs de l'algèbre de Brauer - combinée à des calculs perturbatifs donne lieu à une proposition pour, selon les cas, le spectre partiel ou complet de la théorie conforme. Une dualité exacte du type couplage faible/couplage fort est également conjecturée dans les cas des modèles sigma sur les supersphères.
|
62 |
Edge states and supersymmetric sigma modelsBondesan, Roberto 14 September 2012 (has links) (PDF)
Une propriété fondamentale de l'effet Hall quantique est la présence des états de bord. Ils résistent á la localisation et sont responsables de la quantification parfaite de la conductance de Hall. La transition entre les plateaux d'effet Hall quantique entier est une transition de délocalisation, qui peut être identifiée comme un point fixe de couplage fort d'un modèle sigma supersymétrique en 1+1-dimensions avec terme topologique theta. La théorie conforme décrivant cette transition présente des caractéristiques inhabituelles telles que la non-unitarité, et a résisté á toute tentative de résolution jusqu'á présent. Dans cette thèse, nous étudions le rôle des états de bord dans les transitions d'effet Hall, en utilisant des discrétisations sur réseau de modèles sigma. Les états de bord correspondent aux conditions aux bord pour les champs des modèles sigma, et peuvent être discrétisés en terme de chaînes de spins quantiques ou de modèles géométriques (de boucles). Pour l'effet Hall de spin, un équivalent de l'effet Hall entier pour le transport de spin (classe C), nos techniques permettent le calcul exact des exposants critiques des théories conformes avec bord décrivant les transitions entre plateaux élevés. Nos prédictions pour la moyenne de la conductance de spin sont validées par des simulations numériques des problèmes de localisation correspondant. Dans cette thèse, envisageant des applications au transport dans les modèles sur réseau des électrons désordonnés en 2+1-dimensions, et aux trempes dans des systèmes quantiques á une dimension, nous avons également développé un nouveau formalisme pour calculer des fonctions de partition de systèmes critiques sur un rectangle. Comme application, nous dérivons des formules de probabilités pour les marches auto-évitantes.
|
63 |
Etude de la synchronisation et de la stabilité d'un réseau d'oscillateurs non linéaires. Application à la conception d'un système d'horlogerie distribuée pour un System-on-Chip (projet HODISS).Akre, Niamba Jean-Michel 11 January 2013 (has links) (PDF)
Le projet HODISS dans le cadre duquel s'effectue nos travaux adresse la problématique de la synchronisation globale des systèmes complexes sur puce (System-on-Chip ou SOCs, par exemple un multiprocesseur monolithique). Les approches classiques de distribution d'horloges étant devenues de plus en plus obsolètes à cause de l'augmentation de la fréquence d'horloge, l'accroissement des temps de propagation, l'accroissement de la complexité des circuits et les incertitudes de fabrication, les concepteurs s'intéressent (pour contourner ces difficultés) à d'autres techniques basées entre autres sur les oscillateurs distribués. La difficulté majeure de cette dernière approche réside dans la capacité d'assurer le synchronisme global du système. Nous proposons un système d'horlogerie distribuée basé sur un réseau d'oscillateurs couplés en phase. Pour synchroniser ces oscillateurs, chacun d'eux est en fait une boucle à verrouillage de phase qui permet ainsi d'assurer un couplage en phase avec les oscillateurs des zones voisines. Nous analysons la stabilité de l'état synchrone dans des réseaux cartésiens identiques de boucles à verrouillage de phase entièrement numériques (ADPLLs). Sous certaines conditions, on montre que l'ensemble du réseau peut synchroniser à la fois en phase et en fréquence. Un aspect majeur de cette étude réside dans le fait que, en l'absence d'une horloge de référence absolue, le filtre de boucle dans chaque ADPLL est piloté par les fronts montants irréguliers de l'oscillateur local et, par conséquent, n'est pas régi par les mêmes équations d'état selon que l'horloge locale est avancée ou retardée par rapport au signal considéré comme référence. Sous des hypothèses simples, ces réseaux d'ADPLLs dits "auto-échantillonnés" peuvent être décrits comme des systèmes linéaires par morceaux dont la stabilité est notoirement difficile à établir. L'une des principales contributions que nous présentons est la définition de règles de conception simples qui doivent être satisfaites sur les coefficients de chaque filtre de boucle afin d'obtenir une synchronisation dans un réseau cartésien de taille quelconque. Les simulations transitoires indiquent que cette condition nécessaire de synchronisation peut également être suffisante pour une classe particulière d'ADPLLs "auto-échantillonnés".
|
64 |
Les connaissances mobilisées par les enseignants dans l'enseignement des sciences : analyse de l'organisation de l'activité et de ses évolutionsJameau, Alain 05 December 2012 (has links) (PDF)
Notre travail porte sur le thème des connaissances professionnelles mobilisées par les enseignants pendant la préparation et lors de la mise en œuvre de leur enseignement. Notre étude se déroule dans le contexte de l'enseignement des sciences expérimentales. Nous y étudions les connaissances des enseignants et leurs évolutions. Notre approche théorique articule la didactique des sciences et la didactique professionnelle avec comme cadre d'analyse des connaissances des enseignants, le concept de PCK (Pedagogical Content Knowledge), les connaissances pédagogiques liées au contenu. Nous avons élaboré une méthodologie spécifique, associant le chercheur et des binômes de professeurs, afin notamment de saisir l'écart entre la préparation des enseignements et leur mise en œuvre. A partir de cet écart nous définissons des incidents critiques qui sont la base du corpus que nous analysons. Nous identifions les connaissances en jeu, et indiquons comment le concept de PCK s'articule avec celui de schème. Lorsque les enseignants traitent d'un sujet au moyen des démarches d'investigation, ils mobilisent des types de connaissances spécifiques, et mettent en place des pratiques différentes, selon qu'ils travaillent au premier ou second degré. Nous montrons qu'il y a une relation entre ces connaissances et la régulation rétroactive de l'activité qui permet à l'enseignant d'ajuster sa préparation. Nous modélisons une forme d'acquisition d'expérience.
|
65 |
The Chiral Structure of Loop Quantum GravityWieland, Wolfgang Martin 12 December 2013 (has links) (PDF)
La gravité quantique à boucles est une théorie candidate à la description unifiée de la relativité générale et de la mécanique quantique à l'échelle de Planck. Cette théorie peut être formulée de deux manières. L'approche canonique, d'une part, cherche à résoudre l'équation de Wheeler--DeWitt et à définir les états physiques. L'approche par les écumes de spins, d'autre part, a pour but de calculer les amplitudes de transition de la gravité quantique via une intégrale de chemin covariante. Ces deux approches s'appuient sur a même structure d'espace de Hilbert, mais la question de leur correspondance exacte reste un important problème ouvert à ce jour. Dans ce travail de thèse, nous présentons quatre résultats en rapport avec ces deux approches. Après un premier chapitre introductif, le second chapitre concerne l'étude de la théorie classique. Historiquement, l'introduction des variables d'Ashtekar complexes (self-duales) dans la formulation hamiltonienne de la relativité générale fut motivée par l'obtention d'une contrainte scalaire polynomiale. Cette simplification drastique est à la base du programme de la gravité quantique à boucles. Pour un certain nombre de raisons techniques, ces variables complexes furent ensuite abandonnées au profit des variables d'Ashtekar-Barbero, pour lesquelles le groupe de jauge est SU(2). Avec ce choix de variables réelles, la contrainte hamiltonienne n'est malheureusement plus polynomiale. La formulation en terme des variables SU(2) réelles peut être obtenue à partir de l'action de Holst, qui contient le paramètre dit de Barbero-Immirzi comme constante de couplage additionnelle. Dans un premier temps, nous allons utiliser les variables d'Ashtekar complexes pour effectuer l'analyse canonique de l'action de Holst avec un paramètre de Barbero-Immirzi réel. Les contraintes qui découlent de cette analyse canonique dépendent de ce paramètre libre, et ont l'avantage d'être polynomiales. Afin de garantir que la métrique soit une quantité réelle, un ensemble de contraintes de réalité doivent être imposées. Il s'avère que ces conditions de réalité correspondent aux contraintes de simplicité linéaires utilisées pour la construction des modèles d'écumes de spins. Ces contraintes sont préservées par l'évolution hamiltonienne si et seulement si la connexion est sans torsion. Cette condition sur l'absence de torsion est en fait une contrainte secondaire de l'analyse canonique. La second chapitre concerne également la théorie classique, mais s'intéresse à sa discrétisation en terme des variables de premier ordre dites holonomie-flux. L'espace des phases qui résulte de cette construction possède une structure non-linéaire. Le formalisme des twisteurs permet d'accommoder cette non-linéarité en travaillant sur un espace des phases linéaire paramétré par les coordonnées canoniques de Darboux. Ce formalisme fut introduit par Freidel et Speziale, mais uniquement dans le cas des variables SU(2) d'Ashtekar-Barbero. Nous généralisons ce résultat au cas du groupe de Lorentz. Nous étudions ensuite la dynamique en terme d'écumes de spins obtenue à partir de ces variables, et développons une nouvelle formulation hamiltonienne de la gravité discrétisée. Ce nouveau formalisme est obtenu en écrivant l'action de la théorie continue sur une discrétisation simpliciale de l'espace-temps fixée. L'action discrète ainsi obtenue est la somme de l'analogue en terme de spineurs d'une action topologique de type BF et des contraintes de réalité qui garantissent l'existence d'une métrique réelle. Cette action est polynomiale en terme des spineurs, ce qui permet de procéder à sa quantification canonique de manière relativement aisée. Le dernier chapitre s'intéresse à la théorie quantique obtenue suivant cette procédure. Les amplitudes de transition reproduisent celles du modèle d'écume de spins EPRL (Engle Pereira Rovelli Livine). Ce résultat est intéressant car il démontre que la formulation de la gravité quantique en termes d'écumes de spins peut être obtenue à partir d'une action classique écrite en terme de spineurs.
|
66 |
Methodes tensorielles et renormalization appliquées aux théories GFTCarrozza, Sylvain 19 September 2013 (has links) (PDF)
Cette thèse présente une étude détaillée de la structure de théories appelées GFT ("Group Field Theory" en anglais),à travers le prisme de la renormalisation. Ce sont des théories des champs issues de divers travaux en gravité quantique, parmi lesquels la gravité quantique à boucles et les modèles de matrices ou de tenseurs. Elles sont interprétées comme desmodèles d'espaces-temps quantiques, dans le sens où elles génèrent des amplitudes de Feynman indexées par des triangulations,qui interpolent les états spatiaux de la gravité quantique à boucles. Afin d'établir ces modèles comme des théories deschamps rigoureusement définies, puis de comprendre leurs conséquences dans l'infrarouge, il est primordial de comprendre leur renormalisation. C'est à cette tâche que cette thèse s'attèle, grâce à des méthodes tensorielles développées récemment,et dans deux directions complémentaires. Premièrement, de nouveaux résultats sur l'expansion asymptotique (en le cut-off) des modèles colorés de Boulatov-Ooguri sont démontrés, donnant accès à un régime non-perturbatif dans lequel une infinité de degrés de liberté contribue. Secondement, un formalisme général pour la renormalisation des GFTs dites tensorielles (TGFTs) et avec invariance de jauge est mis au point. Parmi ces théories, une TGFT en trois dimensions et basée sur le groupe de jauge SU(2) se révèle être juste renormalisable, ce qui ouvre la voie à l'application de ce formalisme à la gravité quantique.
|
67 |
Aspects géométriques et intégrables des modèles de matrices aléatoiresMarchal, Olivier 12 1900 (has links)
Cette thèse traite des aspects géométriques et d'intégrabilité associés aux modèles de matrices aléatoires. Son but est de présenter diverses applications des modèles de matrices aléatoires allant de la géométrie algébrique aux équations aux dérivées partielles des systèmes intégrables. Ces différentes applications permettent en particulier de montrer en quoi les modèles de matrices possèdent une grande richesse d'un point de vue mathématique.
Ainsi, cette thèse abordera d'abord l'étude de la jonction de deux intervalles du support de la densité des valeurs propres au voisinage d'un point singulier. On montrera plus précisément en quoi ce régime limite particulier aboutit aux équations universelles de la hiérarchie de Painlevé II des systèmes intégrables. Ensuite, l'approche des polynômes (bi)-orthogonaux, introduite par Mehta pour le calcul des fonctions de partition, permettra d'énoncer des problèmes de Riemann-Hilbert et d'isomonodromies associés aux modèles de matrices, faisant ainsi le lien avec la théorie de Jimbo-Miwa-Ueno. On montrera en particulier que le cas des modèles à deux matrices hermitiens se transpose à un cas dégénéré de la théorie isomonodromique de Jimbo-Miwa-Ueno qui sera alors généralisé. La méthode des équations de boucles avec ses notions centrales de courbe spectrale et de développement topologique permettra quant à elle de faire le lien avec les invariants symplectiques de géométrie algébrique introduits récemment par Eynard et Orantin. Ce dernier point fera également l'objet d'une généralisation aux modèles de matrices non-hermitien (beta quelconque) ouvrant ainsi la voie à la ``géométrie algébrique quantique'' et à la généralisation de ces invariants symplectiques pour des courbes ``quantiques''. Enfin, une dernière partie sera consacrée aux liens étroits entre les modèles de matrices et les problèmes de combinatoire. En particulier, l'accent sera mis sur les aspects géométriques de la théorie des cordes topologiques avec la construction explicite d'un modèle de matrices aléatoires donnant le dénombrement des invariants de Gromov-Witten pour les variétés de Calabi-Yau toriques de dimension complexe trois utilisées en théorie des cordes topologiques.
L'étendue des domaines abordés étant très vaste, l'objectif de la thèse est de présenter de façon la plus simple possible chacun des domaines mentionnés précédemment et d'analyser en quoi les modèles de matrices peuvent apporter une aide précieuse dans leur résolution. Le fil conducteur étant les modèles matriciels, chaque partie a été conçue pour être abordable pour un spécialiste des modèles de matrices ne connaissant pas forcément tous les domaines d'application présentés ici. / This thesis deals with the geometric and integrable aspects associated with random matrix models. Its purpose is to provide various applications of random matrix theory, from algebraic geometry to partial differential equations of integrable systems. The variety of these applications shows why matrix models are important from a mathematical point of view.
First, the thesis will focus on the study of the merging of two intervals of the eigenvalues density near a singular point. Specifically, we will show why this special limit gives universal equations from the Painlevé II hierarchy of integrable systems theory. Then, following the approach of (bi) orthogonal polynomials introduced by Mehta to compute partition functions, we will find Riemann-Hilbert and isomonodromic problems connected to matrix models, making the link with the theory of Jimbo, Miwa and Ueno. In particular, we will describe how the hermitian two-matrix models provide a degenerate case of Jimbo-Miwa-Ueno's theory that we will generalize in this context. Furthermore, the loop equations method, with its central notions of spectral curve and topological expansion, will lead to the symplectic invariants of algebraic geometry recently proposed by Eynard and Orantin. This last point will be generalized to the case of non-hermitian matrix models (arbitrary beta) paving the way to ``quantum algebraic geometry'' and to the generalization of symplectic invariants to ``quantum curves''. Finally, this set up will be applied to combinatorics in the context of topological string theory, with the explicit computation of an hermitian random matrix model enumerating the Gromov-Witten invariants of a toric Calabi-Yau threefold.
Since the range of the applications encountered is large, we try to present every domain in a simple way and explain how random matrix models can bring new insights to those fields. The common element of the thesis being matrix models, each part has been written so that readers unfamiliar with the domains of application but familiar with matrix models should be able to understand it. / Travail réalisé en cotutelle avec l'université Paris-Diderot et le Commissariat à l'Energie Atomique sous la direction de John Harnad et Bertrand Eynard.
|
68 |
Lien entre les matrices de transfert de spins et de boucles du modèle de Potts sur le toreGenest, Vincent 10 1900 (has links)
Le lien entre le spectre de la matrice de transfert de la formulation de spins du modèle de Potts critique et celui de la matrice de transfert double-ligne de la formulation de boucles est établi. La relation entre la trace des deux opérateurs est obtenue dans deux représentations de l'algèbre de Temperley-Lieb cyclique, dont la matrice de transfert de boucles est un élément. Le résultat est exprimé en termes des traces modifiées, qui correspondent à des traces effectuées dans le sous-espace de l'espace de représentation des N-liens se transformant selon la m ième représentation irréductible du groupe cyclique. Le mémoire comporte trois chapitres. Dans le premier chapitre, les résultats essentiels concernant les formulations de spins et de boucles du modèle de Potts sont rappelés. Dans le second chapitre, les propriétés de l'algèbre de Temperley-Lieb cyclique et de ses représentations sont étudiées. Enfin, le lien entre les deux traces est construit dans le troisième chapitre. Le résultat final s'apparente à celui obtenu par Richard et Jacobsen en 2007, mais une nouvelle représentation n'ayant pas été étudiée est aussi investiguée. / The link between the spectrum of the spin transfer matrix of the critical Potts model and that of the double-row transfer matrix of the loop model is established. The relationship between the two operators is obtained in two different representations of the cyclic Temperley-Lieb algebra, whereof the transfer matrix is an element. The result is given in terms of the modified traces that correspond to tracing out the subspace of the N-link representation space that transforms according to the m th representation of the cyclic group. The thesis consists of three chapters. In the first chapter, basic results about the Potts model in the spin and loop pictures are recalled. In the second chapter, the properties of the cyclic Temperley-Lieb algebra and of some of its representations are studied. Finally, the relationship between the traces of the two operators is constructed in the third chapter. The final result is similar to the one obtained by Jacobsen and Richard in 2007, but a new representation that has not been studied is investigated.
|
69 |
Optimisation de la localité des données sur architectures manycœurs / Data locality on manycore architecturesAmstel, Duco van 18 July 2016 (has links)
L'évolution continue des architectures des processeurs a été un moteur important de la recherche en compilation. Une tendance dans cette évolution qui existe depuis l'avènement des ordinateurs modernes est le rapport grandissant entre la puissance de calcul disponible (IPS, FLOPS, ...) et la bande-passante correspondante qui est disponible entre les différents niveaux de la hiérarchie mémoire (registres, cache, mémoire vive). En conséquence la réduction du nombre de communications mémoire requis par un code donnée a constitué un sujet de recherche important. Un principe de base en la matière est l'amélioration de la localité temporelle des données: regrouper dans le temps l'ensemble des accès à une donnée précise pour qu'elle ne soit requise que pendant peu de temps et pour qu'elle puisse ensuite être transféré vers de la mémoire lointaine (mémoire vive) sans communications supplémentaires.Une toute autre évolution architecturale a été l'arrivée de l'ère des multicoeurs et au cours des dernières années les premières générations de processeurs manycoeurs. Ces architectures ont considérablement accru la quantité de parallélisme à la disposition des programmes et algorithmes mais ceci est à nouveau limité par la bande-passante disponible pour les communications entres coeurs. Ceci a amené dans le monde de la compilation et des techniques d'optimisation des problèmes qui étaient jusqu'à là uniquement connus en calcul distribué.Dans ce texte nous présentons les premiers travaux sur une nouvelle technique d'optimisation, le pavage généralisé qui a l'avantage d'utiliser un modèle abstrait pour la réutilisation des données et d'être en même temps utilisable dans un grand nombre de contextes. Cette technique trouve son origine dans le pavage de boucles, une techniques déjà bien connue et qui a été utilisée avec succès pour l'amélioration de la localité des données dans les boucles imbriquées que ce soit pour les registres ou pour le cache. Cette nouvelle variante du pavage suit une vision beaucoup plus large et ne se limite pas au cas des boucles imbriquées. Elle se base sur une nouvelle représentation, le graphe d'utilisation mémoire, qui est étroitement lié à un nouveau modèle de besoins en termes de mémoire et de communications et qui s'applique à toute forme de code exécuté itérativement. Le pavage généralisé exprime la localité des données comme un problème d'optimisation pour lequel plusieurs solutions sont proposées. L'abstraction faite par le graphe d'utilisation mémoire permet la résolution du problème d'optimisation dans différents contextes. Pour l'évaluation expérimentale nous montrons comment utiliser cette nouvelle technique dans le cadre des boucles, imbriquées ou non, ainsi que dans le cas des programmes exprimés dans un langage à flot-de-données. En anticipant le fait d'utiliser le pavage généralisé pour la distribution des calculs entre les cœurs d'une architecture manycoeurs nous donnons aussi des éléments de réponse pour modéliser les communications et leurs caractéristiques sur ce genre d'architectures. En guise de point final, et pour montrer l'étendue de l'expressivité du graphe d'utilisation mémoire et le modèle de besoins en mémoire et communications sous-jacent, nous aborderons le sujet du débogage de performances et l'analyse des traces d'exécution. Notre but est de fournir un retour sur le potentiel d'amélioration en termes de localité des données du code évalué. Ce genre de traces peut contenir des informations au sujet des communications mémoire durant l'exécution et a de grandes similitudes avec le problème d'optimisation précédemment étudié. Ceci nous amène à une brève introduction dans le monde de l'algorithmique des graphes dirigés et la mise-au-point de quelques nouvelles heuristiques pour le problème connu de joignabilité mais aussi pour celui bien moins étudié du partitionnement convexe. / The continuous evolution of computer architectures has been an important driver of research in code optimization and compiler technologies. A trend in this evolution that can be traced back over decades is the growing ratio between the available computational power (IPS, FLOPS, ...) and the corresponding bandwidth between the various levels of the memory hierarchy (registers, cache, DRAM). As a result the reduction of the amount of memory communications that a given code requires has been an important topic in compiler research. A basic principle for such optimizations is the improvement of temporal data locality: grouping all references to a single data-point as close together as possible so that it is only required for a short duration and can be quickly moved to distant memory (DRAM) without any further memory communications.Yet another architectural evolution has been the advent of the multicore era and in the most recent years the first generation of manycore designs. These architectures have considerably raised the bar of the amount of parallelism that is available to programs and algorithms but this is again limited by the available bandwidth for communications between the cores. This brings some issues thatpreviously were the sole preoccupation of distributed computing to the world of compiling and code optimization techniques.In this document we present a first dive into a new optimization technique which has the promise of offering both a high-level model for data reuses and a large field of potential applications, a technique which we refer to as generalized tiling. It finds its source in the already well-known loop tiling technique which has been applied with success to improve data locality for both register and cache-memory in the case of nested loops. This new "flavor" of tiling has a much broader perspective and is not limited to the case of nested loops. It is build on a new representation, the memory-use graph, which is tightly linked to a new model for both memory usage and communication requirements and which can be used for all forms of iterate code.Generalized tiling expresses data locality as an optimization problem for which multiple solutions are proposed. With the abstraction introduced by the memory-use graph it is possible to solve this optimization problem in different environments. For experimental evaluations we show how this new technique can be applied in the contexts of loops, nested or not, as well as for computer programs expressed within a dataflow language. With the anticipation of using generalized tiling also to distributed computations over the cores of a manycore architecture we also provide some insight into the methods that can be used to model communications and their characteristics on such architectures.As a final point, and in order to show the full expressiveness of the memory-use graph and even more the underlying memory usage and communication model, we turn towards the topic of performance debugging and the analysis of execution traces. Our goal is to provide feedback on the evaluated code and its potential for further improvement of data locality. Such traces may contain information about memory communications during an execution and show strong similarities with the previously studied optimization problem. This brings us to a short introduction to the algorithmics of directed graphs and the formulation of some new heuristics for the well-studied topic of reachability and the much less known problem of convex partitioning.
|
70 |
Profile guided hybrid compilation / Compilation hybride guidée pour profilageNunes Sampaio, Diogo 14 December 2016 (has links)
L'auteur n'a pas fourni de résumé en français / The end of chip frequency scaling capacity, due heat dissipation limitations, made manufacturers search for an alternative to sustain the processing capacity growth. The chosen solution was to increase the hardware parallelism, by packing multiple independent processors in a single chip, in a Multiple-Instruction Multiple-Data (MIMD) fashion, each with special instructions to operate over a vector of data, in a Single-Instruction Multiple-Data (SIMD) manner. Such paradigm change, brought to software developer the convoluted task of producing efficient and scalable applications. Programming languages and associated tools evolved to aid such task for new developed applications. But automated optimizations capable of coping with such a new complex hardware, from legacy, single threaded applications, is still lacking.To apply code transformations, either developers or compilers, require to assert that, by doing so, they are not changing the expected comportment of the application producing unexpected results. But syntactically poor codes, such as use of pointer parameters with multiple possible indirections, complex loop structures, or incomplete codes, make very hard to extract application behavior solely from the source code in what is called a static analyses. To cope with the lack of information extracted from the source code, many tools and research has been done in, how to use dynamic analyses, that does application profiling based on run-time information, to fill the missing information. The combination of static and dynamic information to characterize an application are called hybrid analyses. This works advocates for the use of hybrid analyses to be able to optimizations on loops, regions where most of computations are done. It proposes a framework capable of statically applying some complex loop transformations, that previously would be considered unsafe, by assuring their safe use during run-time with a lightweight test.The proposed framework uses application execution profiling to help the static loop optimizer to: 1) identify and classify program hot-spots, so as to focus only on regions vital for the execution time; 2) guide the optimizer in understanding the overall loop behavior, so as to reduce the valid loop transformations search space; 3) using instruction's memory access functions, it statically builds a lightweight run-time test that determine, based on the program parameters values, if a given optimization is safe to be used or not. It's applicability is shown by performing complex loop transformations into a variety of loops, obtained from applications of different fields, and demonstrating that the run-time overhead is insignificant compared to the loop execution time or gained performance, in the vast majority of cases.
|
Page generated in 0.0468 seconds