• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Résolution directe rapide pour les éléments finis de frontière en électromagnétisme et acoustique : ℋ-Matrices. Parallélisme et applications industrielles / Fast direct solver for the boundary element method in electromagnetism and acoustics : ℋ-Matrices. Parallelism and industrial applications

Lizé, Benoît 17 June 2014 (has links)
La méthode des éléments finis de frontière (BEM) requiert la résolution de systèmes linéaires pleins, mal conditionnés de grande dimension avec un nombre imp ortant de seconds membres ; la difficulté de résolution est le principal obstacle pratique à son utilisation. Une matrice hiérarchique (ℋ-Matrice) est un format de stockage hiérarchique, creux et approché de matrices dont la manipulation permet la réalisation d’un solveur linéaire direct avec une complexité asymptotique en O(N log α2 (N)) en espace et en temps. On s’intéresse aux ℋ-Matrices pour les BEM, avec l’évaluation et la mise en œuvre des ℋ-Matrices sur des cas académiques et industriels complexes d’une part ; et la parallélisation efficace de ces algorithmes d’autre part. Une étude paramétrique rigoureuse et détaillée sur des cas modèles et industriels est présentée. On précise le domaine d’application des ℋ-Matrices pour les BEM, donne des recommendations sur les paramètres des algorithmes, et décrit des optimisations réalisables. Nous montrons la pertinence des ℋMatrices en termes de précision et temps de calcul, en comparaison avec un solveur direct classique et avec un solveur itératif basé sur la méthode multipôle rapide. La parallélisation des algorithmes, en mémoire partagée puis distribuée, repose sur l’expression des calculs sous forme de graphes de tâches composables, dont l’ordonnancement est effectué dynamiquement à l’aide d’un moteur d’exécution. Nous donnons une expression permettant de contrôler la granularité des opérations au travers d’une coupe paramétrable des ℋ-Matrices, et exposons diverses optimisations et extensions de ce formalisme. Une efficacité parallèle quasi-optimale est obtenue en mémoire partagée, ainsi que des résultats prometteurs en mémoire distribuée. / The Boundary Element Method (BEM) requires the solving of large, ill-conditionned, dense linear systems with a large number of righ-hand sides ; the solving difficulty is the main practical obstacle to its use. A hierarchical matrix (ℋ´Matrix) is a hierachical, approximate, data-sparse storage format for matrices that can be manipulated to produce a direct linear solver with an asymptotic space and time complexity of O(N log α2 (N)). We consider the ℋ´Matrices for the BEM, with the assessment and application of ℋ´Matrices to complex academic and industrial test cases on the one hand ; and the efficient parallelization of these algorithms on the other hand. A rigorous and detailed parametric study on model and industrial test cases is shown. We define the working range of ℋ-Matrices for the BEM, provide recommendations for the algorithm parameters, and describe some practical optimizations. We show the relevance of the ℋ-Matrices in terms of precision and computation time, in comparison with a classical direct solver and with an iterative solver based on the Fast Multipole Method. The parallelization of the algorithms, in shared and distributed memory, relies on the expression of the computations with composable task graphs, dynamically scheduled with the help of a runtime system. We give an expression controlling the operations granularity through a configurable cut of the ℋ-Matrices, and present various optimizations and extensions of this expression. An almost optimal parallel efficiency is achieved in shared memory, along with promising results in distributed memory.

Page generated in 0.0439 seconds