• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 337
  • 189
  • 134
  • 56
  • 45
  • 44
  • 4
  • 4
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 922
  • 922
  • 922
  • 404
  • 394
  • 351
  • 351
  • 329
  • 325
  • 320
  • 319
  • 316
  • 314
  • 313
  • 313
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
551

Numerical simulation of acoustic propagation in a turbulent channel flow with an acoustic liner / Simulation numérique de la propagation acoustique en canal turbulent avec traitement acoustique

Sebastian, Robin 26 November 2018 (has links)
Les matériaux absorbants acoustiques, qui sont d’un intérêt stratégique en aéronautique pour la diminution passive du bruit des réacteurs d’avion, conduisent à une physique complexe où l’écoulement turbulent, des ondes acoustiques, et l’absorbant interagissent. Cette thèse porte sur la simulation de cette interaction dans le problème modèle d’un écoulement de canal turbulent avec des parois impédantes, par le biais de simulations numériques aux grandes échelles implicites, dans un contexte de calcul haute performance.Une étude est d’abord faite des grandes échelles dans un canal turbulent avec des parois rigides, en s’intéressant plus particulièrement à l’effet d’une faible compressibilité (Mach <3) sur les caractéristiques de ces échelles.Un canal turbulent avec une paroi de type impédance est ensuite simulé, avec une condition habituelle de périodicité dans le sens de l’écoulement. On observe que pour des faibles valeurs de la résistance et des fréquences de résonance basses, l’écoulement est instable, ce qui engendre une onde le long de l’absorbant, qui modifie la turbulence et augmente la trainée.Enfin, on se tourne vers une simulation de canal spatial en levant la condition de périodicité dans la direction de l’écoulement, ce qui permet d’introduire une onde acoustique en entrée de domaine. L’atténuation de l’onde dans l’écoulement turbulent est étudiée avec des parois rigides, puis un absorbant acoustique est introduit. Dans cette configuration plus réaliste, il est confirmé que l’écoulement peut devenir instable au bord amont de l’absorbant, ce qui empêche l’atténuation de l’onde acoustique incidente. / Acoustic liners are a key technology in aeronautics for the passive reduction of the noise generated by aircraft engines. They are employed in a complex flow scenario in which the acoustic waves, the turbulent flow, and the acoustic liner are interacting.During this thesis, in a context of high performance computing, a compressible Navier-Stokes solver has been developed to perform implicit large eddy simulations of a model problem of this interaction: a turbulent plane channel flow with one wall modeled as an impedance condition.As a preliminary step the wall-turbulence in rigid channel flows and associated large-scale motions are investigated. A straightforward algorithm to detect these flow features is developed and the effect of compressibility on the flow structures and their contribution to the drag are studied. Then, the interaction between the acoustic liner and turbulent flow is investigated assuming periodicity in the streamwise direction. It is shown that low resistance and low resonance frequency tend to trigger flow instability, which modifies the conventional wall-turbulence and also results in drag increase.Finally, the simulation of a spatial channel flow was addressed. In this case no periodicity is assumed and an acoustic wave can be injected at the inlet of the domain. The effect of turbulence on sound attenuation is studied without liner, before a liner is introduced on a part of the channel bottom wall. In this more realistic case, it is confirmed that low resistance acoustic liners trigger an instability at the leading edge of the liner, resulting in drag increase and excess noise generation.
552

[en] TOWARD GPU-BASED GROUND STRUCTURES FOR LARGE SCALE TOPOLOGY OPTIMIZATION / [pt] OTIMIZAÇÃO TOPOLÓGICA DE ESTRUTURAS DE GRANDE PORTE UTILIZANDO O MÉTODO DE GROUND STRUCTURES EM GPU

ARTURO ELI CUBAS RODRIGUEZ 14 May 2019 (has links)
[pt] A otimização topológica tem como objetivo encontrar a distribuição mais eficiente de material em um domínio especificado sem violar as restrições de projeto definidas pelo usuário. Quando aplicada a estruturas contínuas, a otimização topológica é geralmente realizada por meio de métodos de densidade, conhecidos na literatura técnica. Neste trabalho, daremos ênfase à aplicação de sua formulação discreta, na qual um determinado domínio é discretizado na forma de uma estrutura base, ou seja, uma distribuição espacial finita de nós conectados entre si por meio de barras de treliça. O método de estrutura base fornece uma aproximação para as estruturas de Michell, que são compostas por um número infinito de barras, por meio de um número reduzido de elementos de treliça. O problema de determinar a estrutura final com peso mínimo, para um único caso de carregamento, considerando um comportamento linear elástico do material e restrições de tensão, pode ser formulado como um problema de programação linear. O objetivo deste trabalho é fornecer uma implementação escalável para o problema de otimização de treliças com peso mínimo, considerando domínios com geometrias arbitrárias. O método remove os elementos que são desnecessários, partindo de uma treliça cujo grau de conectividade é definido pelo usuário, mantendo-se fixos os pontos nodais. Propomos uma implementação escalável do método de estrutura base, utilizando um algoritmo de pontos interiores eficiente e robusto, em um ambiente de computação paralela (envolvendo unidades de processamento gráfico ou GPUs). Os resultados apresentados, em estruturas bi e tridimensionais com milhões de barras, ilustram a viabilidade e a eficiência computacional da implementação proposta. / [en] Topology optimization aims to find the most efficient material distribution in a specified domain without violating user-defined design constraints. When applied to continuum structures, topology optimization is usually performed by means of the well-known density methods. In this work we focus on the application of its discrete formulation where a given domain is discretized into a ground structure, i.e., a finite spatial distribution of nodes connected using truss members. The ground structure method provides an approximation to optimal Michell-type structures, composed of an infinite number of members, by using a reduced number of truss members. The optimal least weight truss for a single load case, under linear elastic conditions, subjected to stress constraints can be posed as a linear programming problem. The aim of this work is to provide a scalable implementation for the optimization of least weight trusses embedded in any domain geometry. The method removes unnecessary members from a truss that has a user-defined degree of connectivity while keeping the nodal locations fixed. We discuss in detail the scalable implementation of the ground structure method using an efficient and robust interior point algorithm within a parallel computing environment (involving Graphics Processing Units or GPUs). The capabilities of the proposed implementation is illustrated by means of large scale applications on practical problems with millions of members in both 2D and 3D structures.
553

Sequential/parallel reusability study on solving Hamilton-Jacobi-Bellman equations / Etude de la réutilisabilité séquentielle/parallèle pour la résolution des équations Hamilton-Jacobi-Bellman

Dang, Florian 22 July 2015 (has links)
La simulation numérique est indissociable du calcul haute performance. Ces vingt dernières années,l'informatique a connu l'émergence d'architectures parallèles multi-niveaux. Exploiter efficacement lapuissance de calcul de ces machines peut s'avérer être une tâche délicate et requérir une expertise à la foistechnologique sur des notions avancées de parallélisme ainsi que scientifique de part la nature même desproblèmes traités.Le travail de cette thèse est pluri-disciplinaire s'appuyant sur la conception d'une librairie de calculparallèle réutilisable pour la résolution des équations Hamilton-Jacobi-Bellman. Ces équations peuventse retrouver dans des domaines diverses et variés tels qu'en biomédical, géophysique, ou encore robotiqueen l'occurence sur les applications de planification de mouvement et de reconstruction de formestri-dimensionnelles à partir d'images bi-dimensionnelles. Nous montrons que les principaux algorithmesnumériques amenant a résoudre ces équations telles que les méthodes de type fast marching, ne sont pasappropriés pour être efficaces dans un contexte parallèle. Nous proposons la méthode buffered fast iterativequi permet d'obtenir une scalabilité parallèle non obtenue jusqu'alors. Un des points sensibles relevésdans cette thèse est de parvenir à trouver une recette de compromis entre abstraction, performance etmaintenabilité afin de garantir non seulement une réutilisabilitédans le sens classique du domaine de génielogiciel mais également en terme de réutilisabilité séquentielle/parallèle / Numerical simulation is strongly bound with high performance computing. Programming scientificsoftwares requires at the same time good knowledge on the mathematical numerical models and alsoon the techniques to make them efficient on today's computers. Indeed, these last twenty years, wehave experienced the rising of multi-level parallel architectures. The work in this thesis dissertation ismultidisciplinary by designing a reusable parallel numerical library for solving Hamilton-Jacobi-Bellmanequations. Such equations are involved in various fields such as in biomedical, geophysics or robotics. Inparticular, we will show interests in path planning and shape from shading applications. We show thatthe methods to solve these equations such as the widely used fast marching method, are not designedto be used effciently in a parallel context. We propose a buffered fast iterative method which givesan interesting parallel scalability. This dissertation takes interest in the challenge to find compromisesbetween abstraction, performance and maintainability in order to combine both software reusability andalso sequential/parallel reusability. We propose code abstraction allowing algorithmic and data genericitywhile trying to keep a maintainable and performant code potentially parallelizable
554

Contribution à l'ordre dominant de la polarisation hadronique du vide au moment magnétique anomal du muon en QCD sur réseau avec quatre saveurs de quarks à leur masse physique / Leading-order hadronic vacuum polarization contribution to the anomalous magnetic moment of the muon in lattice QCD with four flavors of quarks at their physical masses

Malak, Rehan 12 December 2016 (has links)
Les moments magnétiques anomaux des leptons ont joué un rôle important dans le développement du modèle standard de la physique des particules. Aujourd’hui, celui du muon est mesuré très précisément et le sera avec une precision encore plus grande par une expérience qui débutera en 2017. Dans la mesure où la prédiction théorique pourra être faite avec des incertitudes comparables, un test rigoureux du modèle standard sera possible. Nous étudions ici le facteur limitant de cette prédiction, la contribution de la polarisation hadronique du vide à l’ordre dominant (HVP-LO). Nous calculons cette contribution numériquement à l’aide d’une version discrétisée de la théorie de l’interaction forte, la chromodynamique quantique sur réseau. Le calcul haute-performance permet de résoudre la théorie dans son régime hautement non-linéaire qui est le plus pertinent ici. Les algorithmes de simulation et les méthodes utilisées pour obtenir la polarisation hadronique, ainsi que les incertitudes associées, sont décrits. Ces méthodes sont ensuite appliquées à des simulations réalisées avec la collaboration Budapest-Marseille-Wuppertal. Dans un premier temps, elles sont implémentées dans une étude dédiée des effets de volume fini. Les méthodes les plus robustes sont ensuite utilisées pour calculer la polarisation hadronique avec des simulations qui comprennent N_f=2+1+1 saveurs de quarks. Celles-ci sont réalisées directement à la valeur physique des masses de quarks u, d, s et c, avec six tailles de maille et dans de gros volumes de 6 fm^3. Elles nous permettent de calculer la contribution HVP-LO au moment magnétique anomal du muon avec des erreurs contrôlées d’environ 3%. / The anomalous magnetic moments of leptons have played an important role in the development of the Standard Model of particle physics. Today, that of the muon is measured very precisely and will be so with even higher precision in an experiment that will begin in 2017. To the extent that the theoretical prediction can be made with comparable uncertainties, a rigorous test of the Standard Model will be possible. Here we study the limiting factor in this prediction, the leading-order hadronic vacuum polarization contribution (HVP-LO). We compute this contribution numerically with a discretized version of the theory of the strong interaction: lattice Quantum Chromodynamics. High-performance computing allows to solve the theory in its highly nonlinear regime, which is the one most relevant here. The simulation algorithms and the methods used to obtain the HVP, as well as the associated statistical and systematic uncertainties, are described. These methods are then applied to simulations performed with the Budapest-Marseille-Wuppertal collaboration. First they are implemented in a dedicated study of finite-volume effects. The most robust methods are then used to compute the HVP with simulations which include N_f=2+1+1 flavors of quarks. These are performed directly at the physical values of the u, d, s and c quark masses, with six lattice spacings and in large volumes of 6 fm^3. They allow us to compute the HVP-LO contribution to the anomalous magnetic moment of the muon with controlled errors of around 3%.
555

Maximally twisted mass lattice QCD at the physical pion mass

Kostrzewa, Bartosz 13 March 2017 (has links)
In der Gitterquantenchromodynamik sind der Einsatz von unphysikalisch großen Quarkmassen und die Extrapolation von Ergebnissen zu physikalischen Massen signifikante systematische Fehlerquellen. In dieser Arbeit wird die praktische Durchführbarkeit numerischer Simulationen der Quantenchromodynamik mit physikalisch leichten up und down Quarkmassen unter Verwendung der Wilson twisted mass Diskretisierung untersucht. Simulationen im Regime physikalisch leichter Quarkmassen sind jedoch einerseits numerisch sehr aufwendig, können andererseits aber auch durch das Auftreten großer Diskretisierungsartefakte nicht praktikabel sein. Anhand von Simulationen mit massendegenerierten dynamischen up und down Quarks wird dargestellt dass die Erweiterung der twisted mass Fermionwirkung durch den Sheikholeslami-Wohlert Term es ermöglicht physikalisch leichte Quarkmassen zu erreichen. Es wird gezeigt, dass die Simulationen stabil sind und dass die Parameter der diskretisierten Theorie so gewählt werden können, dass das geladene Pion seine physikalische Masse annimmt. Ferner wird dargestellt, dass auch die Parameter für eine Simulation mit dynamischen massendegenerierten up und down quarks sowie nichtdegenerierten strange und charm Quarks schrittweise auf ihre physkalischen Werte gesetzt werden können. Um das Verhalten von Observablen bei physikalischer Quarkmasse zu untersuchen, werden Massen und Zerfallskonstanten von pseudoskalaren Mesonen mit up, down sowie strange und charm Valenzquarks berechnet. Die Ergebnisse stimmen größtenteils überein mit den phänomenologischen Werten, obwohl weder Kontinuumslimes noch die Extrapolation zu unendlichem Volumen durchgeführt werden. Renormierte leichte, strange und charm Quarkmassen werden über Interpolationen in hadronischen Observablen berechnet und stimmen ebenso größtenteils mit phänomenologischen Werten und anderen Ergebnissen aus der Gitter-QCD überein. / In computer simulations of Lattice Quantum Chromodynamics, the usage of unphysically large quark masses and the subsequent extrapolation of results to the physical value of the quark masses are major sources of systematic uncertainty. In this thesis, the feasibility and practicality of numerical simulations of Quantum Chromodynamics with physically light up and down quarks using the Wilson twisted mass quark discretisation are explored. Working in this regime is complicated firstly by the numerical expense of these simulations and secondly by the presence of potentially large lattice artefacts. The twisted mass discretisation is affected by an unphysical mass difference between the charged and neutral pions, rendering simulations at the physical charged pion mass infeasible if this mass splitting is too large. With the aim of reducing it, the Sheikholeslami-Wohlert term is added to the twisted mass fermion action and simulations with mass degenerate up and down quarks are then performed as a proof of concept. It is demonstrated that these simulations are stable and that the parameters of the lattice theory can be successfully tuned to correspond to the physical charged pion mass. Subsequently, the parameter tuning for simulations with mass degenerate up and down quarks as well as strange and charm quarks is explored and it is shown that it can be carried out in steps. As benchmark observables, the masses and decay constants of pseudoscalar mesons with light, strange and charm valence quarks are calculated and seen to largely reproduce their phenomenological values, even though continuum and infinite volume extrapolations are not performed. Light, strange and charm quark mass estimates are determined based on this data and also seen to coincide with phenomenological and other lattice determinations.
556

Contributions à la modélisation mathématique et à l'algorithmique parallèle pour l'optimisation d'un propagateur d'ondes élastiques en milieu anisotrope / Contributions to the mathematical modeling and to the parallel algorithmic for the optimization of an elastic wave propagator in anisotropic media

Boillot, Lionel 12 December 2014 (has links)
La méthode d’imagerie la plus répandue dans l’industrie pétrolière est la RTM (Reverse Time Migration) qui repose sur la simulation de la propagation des ondes dans le sous-sol. Nous nous sommes concentrés sur un propagateur d'ondes élastiques 3D en milieu anisotrope de type TTI (Tilted Transverse Isotropic). Nous avons directement travaillé dans le code de recherche de Total DIVA (Depth Imaging Velocity Analysis), basé sur une discrétisation par la méthode de Galerkin Discontinue et le schéma Leap-Frog, et développé pour le calcul parallèle intensif – HPC (High Performance Computing). Nous avons ciblé plus particulièrement deux contributions possibles qui, si elles supposent des compétences très différentes, ont la même finalité : réduire les coûts de calculs requis pour la simulation. D'une part, les conditions aux limites classiques de type PML (Perfectly Matched Layers) ne sont pas stables dans des milieux TTI. Nous avons proposé de formuler une CLA (Conditions aux Limites Absorbantes) stable dans des milieux anisotropes. La méthode de construction repose sur les propriétés des courbes de lenteur, ce qui donne à notre approche un caractère original. D'autre part, le parallélisme initial, basé sur une décomposition de domaine et des communications par passage de messages à l'aide de la bibliothèque MPI, conduit à un déséquilibrage de charge qui détériore son efficacité parallèle. Nous avons corrigé cela en remplaçant le paradigme parallélisme par l'utilisation de la programmation à base de tâches sur support d'exécution. Cette thèse a été réalisée dans le cadre de l'action de recherche DIP (Depth Imaging Partnership) qui lie la compagnie pétrolière Total et Inria. / The most common method of Seismic Imaging is the RTM (Reverse Time Migration) which depends on wave propagation simulations in the subsurface. We focused on a 3D elastic wave propagator in anisotropic media, more precisely TTI (Tilted Transverse Isotropic). We directly worked in the Total code DIVA (Depth Imaging Velocity Analysis) which is based on a discretization by the Discontinuous Galerkin method and the Leap-Frog scheme, and developed for intensive parallel computing – HPC (High Performance Computing). We choose to especially target two contributions. Although they required very different skills, they share the same goal: to reduce the computational cost of the simulation. On one hand, classical boundary conditions like PML (Perfectly Matched Layers) are unstable in TTI media. We have proposed a formulation of a stable ABC (Absorbing Boundary Condition) in anisotropic media. The technique is based on slowness curve properties, giving to our approach an original side. On the other hand, the initial parallelism, which is based on a domain decomposition and communications by message passing through the MPI library, leads to load-imbalance and so poor parallel efficiency. We have fixed this issue by replacing the paradigm for parallelism by the use of task-based programming through runtime system. This PhD thesis have been done in the framework of the research action DIP (Depth Imaging Partnership) between the Total oil company and Inria.
557

Optimisation multi-niveau d’une application de traitement d’images sur machines parallèles / Multi-level optimisation of an image processing application on parallel machines

Saidani, Tarik 06 November 2012 (has links)
Cette thèse vise à définir une méthodologie de mise en œuvre d’applications performantes sur les processeurs embarqués du futur. Ces architectures nécessitent notamment d’exploiter au mieux les différents niveaux de parallélisme (grain fin, gros grain) et de gérer les communications et les accès à la mémoire. Pour étudier cette méthodologie, nous avons utilisé un processeur cible représentatif de ces architectures émergentes, le processeur CELL. Le détecteurde points d’intérêt de Harris est un exemple de traitement régulier nécessitant des unités de calcul intensif. En étudiant plusieurs schémas de mise en oeuvre sur le processeur CELL, nous avons ainsi pu mettre en évidence des méthodes d’optimisation des calculs en adaptant les programmes aux unités spécifiques de traitement SIMD du processeur CELL. L’utilisation efficace de la mémoire nécessite par ailleurs, à la fois une bonne exploitation des transferts et un arrangement optimal des données en mémoire. Nous avons développé un outil d’abstraction permettant de simplifier et d’automatiser les transferts et la synchronisation, CELL MPI. Cette expertise nous a permis de développer une méthodologie permettant de simplifier la mise en oeuvre parallèle optimisée de ces algorithmes. Nous avons ainsi conçu un outil de programmation parallèle à base de squelettes algorithmiques : SKELL BE. Ce modèle de programmation propose une solution originale de génération d’applications à base de métaprogrammation. Il permet, de manière automatisée, d’obtenir de très bonnes performances et de permettre une utilisation efficace de l’architecture, comme le montre la comparaison pour un ensemble de programmes test avec plusieurs autres outils dédiés à ce processeur. / This thesis aims to define a design methodology for high performance applications on future embedded processors. These architectures require an efficient usage of their different level of parallelism (fine-grain, coarse-grain), and a good handling of the inter-processor communications and memory accesses. In order to study this methodology, we have used a target processor which represents this type of emerging architectures, the Cell BE processor.We have also chosen a low level image processing application, the Harris points of interest detector, which is representative of a typical low level image processing application that is highly parallel. We have studied several parallelisation schemes of this application and we could establish different optimisation techniques by adapting the software to the specific SIMD units of the Cell processor. We have also developped a library named CELL MPI that allows efficient communication and synchronisation over the processing elements, using a simplified and implicit programming interface. This work allowed us to develop a methodology that simplifies the design of a parallel algorithm on the Cell processor.We have designed a parallel programming tool named SKELL BE which is based on algorithmic skeletons. This programming model providesan original solution of a meta-programming based code generator. Using SKELL BE, we can obtain very high performances applications that uses the Cell architecture efficiently when compared to other tools that exist on the market.
558

Méthodes non-conformes de décomposition de domaine à grande échelle / Large scale nonconforming domain decomposition methods

Samaké, Abdoulaye 08 December 2014 (has links)
Cette thèse étudie les méthodes de décomposition de domaine généralement classées soit comme des méthodes de Schwarz avec recouvrement ou des méthodes par sous-structuration s'appuyant sur des sous-domaines sans recouvrement. Nous nous focalisons principalement sur la méthode des éléments finis joints, aussi appelée la méthode mortar, une approche non conforme des méthodes par sous-structuration impliquant des contraintes de continuité faible sur l'espace d'approximation. Nous introduisons un framework élément fini pour la conception et l'analyse des préconditionneurs par sous-structuration pour une résolution efficace du système linéaire provenant d'une telle méthode de discrétisation. Une attention particulière est accordée à la construction du préconditionneur grille grossière, notamment la principale variante proposée dans ce travailutilisant la méthode de Galerkin Discontinue avec pénalisation intérieure comme problème grossier. D'autres méthodes de décomposition de domaine, telles que les méthodes de Schwarz et la méthode dite three-field sont étudiées dans l'objectif d'établir un environnement de programmation générique d'enseignement et de recherche pour une large gamme de ces méthodes. Nous développons un framework de calcul avancé et dédié à la mise en oeuvre parallèle des méthodesnumériques et des préconditionneurs introduits dans cette thèse. L'efficacité et la scalabilité des préconditionneurs, ainsi que la performance des algorithmes parallèles sont illustrées par des expériences numériques effectuées sur des architectures parallèles à très grande échelle. / This thesis investigates domain decomposition methods, commonly classified as either overlapping Schwarz methods or iterative substructuring methods relying on nonoverlapping subdomains. We mainly focus on the mortar finite element method, a nonconforming approach of substructuring method involving weak continuity constraints on the approximation space. We introduce a finiteelement framework for the design and the analysis of the substructuring preconditioners for an efficient solution of the linear system arising from such a discretization method. Particular consideration is given to the construction of the coarse grid preconditioner, specifically the main variantproposed in this work, using a Discontinuous Galerkin interior penalty method as coarse problem. Other domain decomposition methods, such as Schwarz methods and the so-called three-field method are surveyed with the purpose of establishing a generic teaching and research programming environment for a wide range of these methods. We develop an advanced computational framework dedicated to the parallel implementation of numerical methods and preconditioners introduced in this thesis. The efficiency and the scalability of the preconditioners, and the performance of parallel algorithms are illustrated by numerical experiments performed on large scale parallel architectures.
559

On the Solution Phase of Direct Methods for Sparse Linear Systems with Multiple Sparse Right-hand Sides / De la phase de résolution des méthodes directes pour systèmes linéaires creux avec multiples seconds membres creux

Moreau, Gilles 10 December 2018 (has links)
Cette thèse se concentre sur la résolution de systèmes linéaires creux dans le contexte d’applications massivement parallèles. Ce type de problèmes s’exprime sous la forme AX=B, où A est une matrice creuse d’ordre n x n, i.e. qui possède un nombre d’entrées nulles suffisamment élevé pour pouvoir être exploité, et B et X sont respectivement la matrice de seconds membres et la matrice de solution de taille n x nrhs. Cette résolution par des méthodes dites directes est effectuée grâce à une étape de factorisation qui réduit A en deux matrices triangulaires inférieure et supérieure L et U, suivie de deux résolutions triangulaires pour calculer la solution.Nous nous intéressons à ces résolutions avec une attention particulière apportée à la première, LY=B. Dans beaucoup d’applications, B possède un grand nombre de colonnes (nrhs >> 1) transformant la phase de résolution en un goulot d’étranglement. Elle possède souvent aussi une structure creuse, donnant l’opportunité de réduire la complexité de cette étape.Cette étude aborde sous des angles complémentaires la résolution triangulaire de systèmes linéaires avec seconds membres multiples et creux. Nous étudions dans un premier temps la complexité asymptotique de cette étape dans différents contextes (2D, 3D, facteurs compressés ou non). Nous considérons ensuite l’exploitation de cette structure et présentons de nouvelles approches s’appuyant sur une modélisation du problème par des graphes qui permettent d’atteindre efficacement le nombre minimal d’opérations. Enfin, nous donnons une interprétation concrète de son exploitation sur une application d’électromagnétisme pour la géophysique. Nous adaptons aussi des algorithmes parallèles aux spécificités de la phase de résolution.Nous concluons en combinant l'ensemble des résultats précédents et en discutant des perspectives de ce travail. / We consider direct methods to solve sparse linear systems AX = B, where A is a sparse matrix of size n x n with a symmetric structure and X and B are respectively the solution and right-hand side matrices of size n x nrhs. A is usually factorized and decomposed in the form LU, where L and U are respectively a lower and an upper triangular matrix. Then, the solve phase is applied through two triangular resolutions, named respectively the forward and backward substitutions.For some applications, the very large number of right-hand sides (RHS) in B, nrhs >> 1, makes the solve phase the computational bottleneck. However, B is often sparse and its structure exhibits specific characteristics that may be efficiently exploited to reduce this cost. We propose in this thesis to study the impact of the exploitation of this structural sparsity during the solve phase going through its theoretical aspects down to its actual implications on real-life applications.First, we investigate the asymptotic complexity, in the big-O sense, of the forward substitution when exploiting the RHS sparsity in order to assess its efficiency when increasing the problem size. In particular, we study on 2D and 3D regular problems the asymptotic complexity both for traditional full-rank unstructured solvers and for the case when low-rank approximation is exploited. Next, we extend state-of-the-art algorithms on the exploitation of RHS sparsity, and also propose an original approach converging toward the optimal number of operations while preserving performance. Finally, we show the impact of the exploitation of sparsity in a real-life electromagnetism application in geophysics that requires the solution of sparse systems of linear equations with a large number of sparse right-hand sides. We also adapt the parallel algorithms that were designed for the factorization to solve-oriented algorithms.We validate and combine the previous improvements using the parallel solver MUMPS, conclude on the contributions of this thesis and give some perspectives.
560

Optimization and parallelization of the boundary element method for the wave equation in time domain / Optimisation et parallèlisation de la méthode des élements frontières pour l’équation des ondes dans le domaine temporel

Bramas, Bérenger 15 February 2016 (has links)
La méthode des éléments frontières pour l’équation des ondes (BEM) est utilisée en acoustique eten électromagnétisme pour simuler la propagation d’une onde avec une discrétisation en temps(TD). Elle permet d’obtenir un résultat pour plusieurs fréquences à partir d’une seule résolution.Dans cette thèse, nous nous intéressons à l’implémentation efficace d’un simulateur TD-BEM sousdifférents angles. Nous décrivons le contexte de notre étude et la formulation utilisée qui s’exprimesous la forme d’un système linéaire composé de plusieurs matrices d’interactions/convolutions.Ce système est naturellement calculé en utilisant l’opérateur matrice/vecteur creux (SpMV). Nousavons travaillé sur la limite du SpMV en étudiant la permutation des matrices et le comportementde notre implémentation aidé par la vectorisation sur CPU et avec une approche par bloc surGPU. Nous montrons que cet opérateur n’est pas approprié pour notre problème et nous proposonsde changer l’ordre de calcul afin d’obtenir une matrice avec une structure particulière.Cette nouvelle structure est appelée une matrice tranche et se calcule à l’aide d’un opérateur spécifique.Nous décrivons des implémentations optimisées sur architectures modernes du calculhaute-performance. Le simulateur résultant est parallélisé avec une approche hybride (mémoirespartagées/distribuées) sur des noeuds hétérogènes, et se base sur une nouvelle heuristique pouréquilibrer le travail entre les processeurs. Cette approche matricielle a une complexité quadratiquesi bien que nous avons étudié son accélération par la méthode des multipoles rapides (FMM). Nousavons tout d’abord travaillé sur la parallélisation de l’algorithme de la FMM en utilisant différentsparadigmes et nous montrons comment les moteurs d’exécution sont adaptés pour relâcher le potentielde la FMM. Enfin, nous présentons des résultats préliminaires d’un simulateur TD-BEMaccéléré par FMM . / The time-domain BEM for the wave equation in acoustics and electromagnetism is used to simulatethe propagation of a wave with a discretization in time. It allows to obtain several frequencydomainresults with one solve. In this thesis, we investigate the implementation of an efficientTD-BEM solver using different approaches. We describe the context of our study and the TD-BEMformulation expressed as a sparse linear system composed of multiple interaction/convolutionmatrices. This system is naturally computed using the sparse matrix-vector product (SpMV). Wework on the limits of the SpMV kernel by looking at the matrix reordering and the behavior of ourSpMV kernels using vectorization (SIMD) on CPUs and an advanced blocking-layout on NvidiaGPUs. We show that this operator is not appropriate for our problem, and we then propose toreorder the original computation to get a special matrix structure. This new structure is called aslice matrix and is computed with a custom matrix/vector product operator. We present an optimizedimplementation of this operator on CPUs and Nvidia GPUs for which we describe advancedblocking schemes. The resulting solver is parallelized with a hybrid strategy above heterogeneousnodes and relies on a new heuristic to balance the work among the processing units. Due tothe quadratic complexity of this matrix approach, we study the use of the fast multipole method(FMM) for our time-domain BEM solver. We investigate the parallelization of the general FMMalgorithm using several paradigms in both shared and distributed memory, and we explain howmodern runtime systems are well-suited to express the FMM computation. Finally, we investigatethe implementation and the parametrization of an FMM kernel specific to our TD-BEM, and weprovide preliminary results.

Page generated in 0.388 seconds