• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 18
  • 4
  • Tagged with
  • 50
  • 33
  • 12
  • 10
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

On the Solution Phase of Direct Methods for Sparse Linear Systems with Multiple Sparse Right-hand Sides / De la phase de résolution des méthodes directes pour systèmes linéaires creux avec multiples seconds membres creux

Moreau, Gilles 10 December 2018 (has links)
Cette thèse se concentre sur la résolution de systèmes linéaires creux dans le contexte d’applications massivement parallèles. Ce type de problèmes s’exprime sous la forme AX=B, où A est une matrice creuse d’ordre n x n, i.e. qui possède un nombre d’entrées nulles suffisamment élevé pour pouvoir être exploité, et B et X sont respectivement la matrice de seconds membres et la matrice de solution de taille n x nrhs. Cette résolution par des méthodes dites directes est effectuée grâce à une étape de factorisation qui réduit A en deux matrices triangulaires inférieure et supérieure L et U, suivie de deux résolutions triangulaires pour calculer la solution.Nous nous intéressons à ces résolutions avec une attention particulière apportée à la première, LY=B. Dans beaucoup d’applications, B possède un grand nombre de colonnes (nrhs >> 1) transformant la phase de résolution en un goulot d’étranglement. Elle possède souvent aussi une structure creuse, donnant l’opportunité de réduire la complexité de cette étape.Cette étude aborde sous des angles complémentaires la résolution triangulaire de systèmes linéaires avec seconds membres multiples et creux. Nous étudions dans un premier temps la complexité asymptotique de cette étape dans différents contextes (2D, 3D, facteurs compressés ou non). Nous considérons ensuite l’exploitation de cette structure et présentons de nouvelles approches s’appuyant sur une modélisation du problème par des graphes qui permettent d’atteindre efficacement le nombre minimal d’opérations. Enfin, nous donnons une interprétation concrète de son exploitation sur une application d’électromagnétisme pour la géophysique. Nous adaptons aussi des algorithmes parallèles aux spécificités de la phase de résolution.Nous concluons en combinant l'ensemble des résultats précédents et en discutant des perspectives de ce travail. / We consider direct methods to solve sparse linear systems AX = B, where A is a sparse matrix of size n x n with a symmetric structure and X and B are respectively the solution and right-hand side matrices of size n x nrhs. A is usually factorized and decomposed in the form LU, where L and U are respectively a lower and an upper triangular matrix. Then, the solve phase is applied through two triangular resolutions, named respectively the forward and backward substitutions.For some applications, the very large number of right-hand sides (RHS) in B, nrhs >> 1, makes the solve phase the computational bottleneck. However, B is often sparse and its structure exhibits specific characteristics that may be efficiently exploited to reduce this cost. We propose in this thesis to study the impact of the exploitation of this structural sparsity during the solve phase going through its theoretical aspects down to its actual implications on real-life applications.First, we investigate the asymptotic complexity, in the big-O sense, of the forward substitution when exploiting the RHS sparsity in order to assess its efficiency when increasing the problem size. In particular, we study on 2D and 3D regular problems the asymptotic complexity both for traditional full-rank unstructured solvers and for the case when low-rank approximation is exploited. Next, we extend state-of-the-art algorithms on the exploitation of RHS sparsity, and also propose an original approach converging toward the optimal number of operations while preserving performance. Finally, we show the impact of the exploitation of sparsity in a real-life electromagnetism application in geophysics that requires the solution of sparse systems of linear equations with a large number of sparse right-hand sides. We also adapt the parallel algorithms that were designed for the factorization to solve-oriented algorithms.We validate and combine the previous improvements using the parallel solver MUMPS, conclude on the contributions of this thesis and give some perspectives.
12

Modélisation, analyse mathématique et numérique de divers écoulements compressibles ou incompressibles en couche mince.

Ersoy, Mehmet 10 September 2010 (has links) (PDF)
Dans la première partie, on dérive formellement les équations \PFS (\textbf{P}ressurised and \textbf{F}ree \textbf{S}urface) pour les écoulements mixtes en conduite fermée avec variation de géométrie. On écrit l'approximation de ces équations à l'aide d'un solveur VFRoe et d'un solveur cinétique en décentrant les termes sources aux interfaces. En particulier, on propose le décentrement d'un terme de friction, donnée par la loi de Manning-Strickler, en introduisant la notion de \emph{pente dynamique}. Enfin, on construit un schéma bien équilibré préservant les états stationnaires au repos en définissant une matrice à profil stationnaire conçue pour le schéma VFRoe. Suivant cette idée, on construit, en toute généralité, un schéma bien équilibré préservant tous les états stationnaires. Pour traiter les points de transitions (i.e. le changement de type d'écoulement surface libre vers charge et vice et versa), on étend la méthode des \og ondes fantômes\fg~ dans ce contexte et on propose un traitement complètement cinétique. Dans la deuxième partie, on étudie des équations primitives compressibles simplifiées dans le cadre de la modélisation de la dynamique de l'atmosphère. En particulier, on obtient un résultat d'existence de solutions faibles globales en temps en dimension $2$ d'espace. On établit également un résultat de stabilité de solutions faibles pour le modèle en dimension $3$ d'espace. À cet égard, on introduit un changement de variables convenable qui permet de transformer les équations initiales en un modèle plus simple à étudier. Dans la troisième et dernière partie, on présente une courte introduction à la cavitation. En particulier, on rappelle les différents types de cavitation et les modèles mathématiques de Rayleigh-Plesset pour l'étude d'une bulle isolée et un modèle de mélange plus complexe. En vue de modéliser la cavitation dans les conduites fermées, on introduit un modèle à deux couches pour prendre en compte, dans un premier temps, l'effet d'une poche d'air comprimée par la surface libre et les bords de la conduite. En particulier, le système obtenu, à $4$ équations, est généralement non hyperbolique et ses valeurs propres ne sont pas calculables explicitement. On propose alors une approximation numérique basée sur un schéma cinétique mono-couche. Dans le dernier chapitre, on dérive formellement un modèle de transport de sédiments basé sur l'équation de Vlasov couplée à des équations de Navier-Stokes compressibles avec un tenseur de viscosité anisotrope. Ce modèle est ensuite obtenu par le biais de deux analyses asymptotiques.
13

Schémas de type Godunov pour la modélisation hydrodynamique et magnétohydrodynamique / Godunov-type schemes for hydrodynamic and magnetohydrodynamic modeling

Vides Higueros, Jeaniffer 21 October 2014 (has links)
L’objectif principal de cette thèse concerne l’étude, la conception et la mise en œuvre numérique de schémas volumes finis associés aux solveurs de type Godunov. On s’intéresse à des systèmes hyperboliques de lois de conservation non linéaires, avec une attention particulière sur les équations d’Euler et les équations MHD idéale. Tout d’abord, nous dérivons un solveur de Riemann simple et véritablement multidimensionnelle, pouvant s’appliquer à tout système de lois de conservation. Ce solveur peut être considéré comme une généralisation 2D de l’approche HLL. Les ingrédients de base de la dérivation sont : la consistance avec la formulation intégrale et une utilisation adéquate des relations de Rankine-Hugoniot. Au final nous obtenons des expressions assez simples et applicables dans les contextes des maillages structurés et non structurés. Dans un second temps, nous nous intéressons à la préservation, au niveau discret, de la contrainte de divergence nulle du champ magnétique pour les équations de la MHD idéale. Deux stratégies sont évaluées et nous montrons comment le solveur de Riemann multidimensionnelle peut être utilisé pour obtenir des simulations robustes à divergence numérique nulle. Deux autres points sont abordés dans cette thèse : la méthode de relaxation pour un système Euler-Poisson pour des écoulements gravitationnels en astrophysique, la formulation volumes finis en coordonnées curvilignes. Tout au long de la thèse, les choix numériques sont validés à travers de nombreux résultats numériques. / The main objective of this thesis concerns the study, design and numerical implementation of finite volume schemes based on the so-Called Godunov-Type solvers for hyperbolic systems of nonlinear conservation laws, with special attention given to the Euler equations and ideal MHD equations. First, we derive a simple and genuinely two-Dimensional Riemann solver for general conservation laws that can be regarded as an actual 2D generalization of the HLL approach, relying heavily on the consistency with the integral formulation and on the proper use of Rankine-Hugoniot relations to yield expressions that are simple enough to be applied in the structured and unstructured contexts. Then, a comparison between two methods aiming to numerically maintain the divergence constraint of the magnetic field for the ideal MHD equations is performed and we show how the 2D Riemann solver can be employed to obtain robust divergence-Free simulations. Next, we derive a relaxation scheme that incorporates gravity source terms derived from a potential into the hydrodynamic equations, an important problem in astrophysics, and finally, we review the design of finite volume approximations in curvilinear coordinates, providing a fresher view on an alternative discretization approach. Throughout this thesis, numerous numerical results are shown.
14

On the use of low-rank arithmetic to reduce the complexity of parallel sparse linear solvers based on direct factorization techniques / Utilisation de la compression low-rank pour réduire la complexité des solveurs creux parallèles basés sur des techniques de factorisation directes.

Pichon, Grégoire 29 November 2018 (has links)
La résolution de systèmes linéaires creux est un problème qui apparaît dans de nombreuses applications scientifiques, et les solveurs creux sont une étape coûteuse pour ces applications ainsi que pour des solveurs plus avancés comme les solveurs hybrides direct-itératif. Pour ces raisons, optimiser la performance de ces solveurs pour les architectures modernes est un problème critique. Cependant, les contraintes mémoire et le temps de résolution limitent l’utilisation de ce type de solveur pour des problèmes de très grande taille. Pour les approches concurrentes, par exemple les méthodes itératives, des préconditionneurs garantissant une bonne convergence pour un large ensemble de problèmes sont toujours inexistants. Dans la première partie de cette thèse, nous présentons deux approches exploitant la compression Block Low-Rank (BLR) pour réduire la consommation mémoire et/ou le temps de résolution d’un solveur creux. Ce format de compression à plat, sans hiérarchie, permet de tirer profit du caractère low-rank des blocs apparaissant dans la factorisation de systèmes linéaires creux. La solution proposée peut être utilisée soit en tant que solveur direct avec une précision réduite, soit comme un préconditionneur très robuste. La première approche, appelée Minimal Memory, illustre le meilleur gain mémoire atteignable avec la compression BLR, alors que la seconde approche, appelée Just-In-Time, est dédiée à la réduction du nombre d’opérations, et donc du temps de résolution. Dans la seconde partie, nous présentons une stratégie de reordering qui augmente la granularité des blocs pour tirer davantage profit de la localité dans l’utilisation d’architectures multi-coeurs et pour fournir de tâches plus volumineuses aux GPUs. Cette stratégie s’appuie sur la factorisation symbolique par blocs pour raffiner la numérotation produite par des outils de partitionnement comme Metis ou Scotch, et ne modifie pas le nombre d’opérations nécessaires à la résolution du problème. A partir de cette approche, nous proposons dans la troisième partie de ce manuscrit une technique de clustering low-rank qui a pour objectif de former des clusters d’inconnues au sein d’un séparateur. Nous démontrons notamment les intérêts d’une telle approche par rapport aux techniques de clustering classiquement utilisées. Ces deux stratégies ont été développées pour le format à plat BLR, mais sont également une première étape pour le passage à un format hiérarchique. Dans la dernière partie de cette thèse, nous nous intéressons à une modification de la technique de dissection emboîtée afin d’aligner les séparateurs par rapport à leur père pour obtenir des structures de données plus régulières. / Solving sparse linear systems is a problem that arises in many scientific applications, and sparse direct solvers are a time consuming and key kernel for those applications and for more advanced solvers such as hybrid direct-iterative solvers. For those reasons, optimizing their performance on modern architectures is critical. However, memory requirements and time-to-solution limit the use of direct methods for very large matrices. For other approaches, such as iterative methods, general black-box preconditioners that can ensure fast convergence for a wide range of problems are still missing. In the first part of this thesis, we present two approaches using a Block Low-Rank (BLR) compression technique to reduce the memory footprint and/or the time-to-solution of a supernodal sparse direct solver. This flat, non-hierarchical, compression method allows to take advantage of the low-rank property of the blocks appearing during the factorization of sparse linear systems. The proposed solver can be used either as a direct solver at a lower precision or as a very robust preconditioner. The first approach, called Minimal Memory, illustrates the maximum memory gain that can be obtained with the BLR compression method, while the second approach, called Just-In-Time, mainly focuses on reducing the computational complexity and thus the time-to-solution. In the second part, we present a reordering strategy that increases the block granularity to better take advantage of the locality for multicores and provide larger tasks to GPUs. This strategy relies on the block-symbolic factorization to refine the ordering produced by tools such as Metis or Scotch, but it does not impact the number of operations required to solve the problem. From this approach, we propose in the third part of this manuscript a new low-rank clustering technique that is designed to cluster unknowns within a separator to obtain the BLR partition, and demonstrate its assets with respect to widely used clustering strategies. Both reordering and clustering where designed for the flat BLR representation but are also a first step to move to hierarchical formats. We investigate in the last part of this thesis a modified nested dissection strategy that aligns separators with respect to their father to obtain more regular data structure.
15

SIMULATION NUMERIQUE DES COUCHES CISAILLEES PLANES A GRAND RAPPORT INITIAL DE MASSE VOLUMIQUE

Silvani, Xavier 27 February 2001 (has links) (PDF)
On peut constater une analogie étroite entre les mécanismes d'atomisation primaire dans une couche cisaillée diphasique et ceux précédant la transition au mélange dans une couche monophasique : l'instabilité primaire et la cinétique d'étirement des ligaments de fluide dense dans le courant rapide sont similaires dans les cas monophasiques et diphasiques si les vitesses d'injection et le rapport initial des masses volumiques sont les mêmes. L'atomisation primaire s'apparente au mélange turbulent de deux fluides pris dans la même phase pour les grands nombres de Reynolds et de Weber, comme dans le cas d'une injection LOx-H2 dans Vulcain. On choisit alors d'étudier l'influence du rapport initial de masse volumique sur la dynamique prétransitionnelle d'une couche monophasique plane au moyen de simulations numériques. A ce stade, la raideur des fonctions manipulées implique le recours aux solveurs hyperboliques de type solveur de Roe associés à des schémas Essentiellement Non Oscillants d'ordre élevé (WENO) et ce, pour la discrétisation des flux convectifs. Une fois établies les limites du compromis précision-robustesse des solveurs développés, deux directions d'étude sont privilégiées : tout d'abord des calculs Navier-Stokes, destinés à la compréhension des mécanismes fondamentaux de mélange, avant la transition à la turbulence 3D. L'étude révèle que, lorsque le rapport des masses volumiques entre les courants lents et rapides est supérieur à 1, la dynamique non-linéaire de la couche est gouvernée par un champ tourbillonaire asymétrique, au bilan duquel contribue fortement la distribution des gradients de masse volumique via le couple barocline. La possibilité de prendre en compte à la fois de forts rapports de masse volumique et des effets diffusifs variables permet d'établir les échelles intégrales de temps de mélange. Ensuite, des calculs conduits dans l'approche MILES, autorisant des nombres de Reynolds plus élevés, produisent des bases de données statistiques desquelles on peut estimer les composants des modèles de mélange pour les écoulements à masse volumiques très variables. Cette dernière étape sert la modélisation eulérienne de l'atomisation primaire.
16

Méthodes de Galerkin stochastiques adaptatives pour la propagation d'incertitudes paramétriques dans les modèles hyperboliques

Tryoen, Julie 21 November 2011 (has links) (PDF)
On considère des méthodes de Galerkin stochastiques pour des systèmes hyperboliques faisant intervenir des données en entrée incertaines de lois de distribution connues paramétrées par des variables aléatoires. On s'intéresse à des problèmes où un choc apparaît presque sûrement en temps fini. Dans ce cas, la solution peut développer des discontinuités dans les domaines spatial et stochastique. On utilise un schéma de Volumes Finis pour la discrétisation spatiale et une projection de Galerkin basée sur une approximation polynomiale par morceaux pour la discrétisation stochastique. On propose un solveur de type Roe avec correcteur entropique pour le système de Galerkin, utilisant une technique originale pour approcher la valeur absolue de la matrice de Roe et une adaptation du correcteur entropique de Dubois et Mehlmann. La méthode proposée reste coûteuse car une discrétisation stochastique très fine est nécessaire pour représenter la solution au voisinage des discontinuités. Il est donc nécessaire de faire appel à des stratégies adaptatives. Comme les discontinuités sont localisées en espace et évoluent en temps, on propose des représentations stochastiques dépendant de l'espace et du temps. On formule cette méthodologie dans un contexte multi-résolution basé sur le concept d'arbres binaires pour décrire la discrétisation stochastique. Les étapes d'enrichissement et d'élagage adaptatifs sont réalisées en utilisant des critères d'analyse multi-résolution. Dans le cas multidimensionnel, une anisotropie de la procédure adaptative est proposée. La méthodologie est évaluée sur le système des équations d'Euler dans un tube à choc et sur l'équation de Burgers en une et deux dimensions stochastiques
17

Méthodes de décomposition de domaine et méthodes d'accélération pour les problèmes multichamps en mécanique non-linéaire

Gosselet, Pierre 11 December 2003 (has links) (PDF)
Nous développons des algorithmes parallèles pour la résolution de problèmes non-linéaires de grande taille. Les cadres d'application sont la simulation de matériaux hyperélastiques incompressibles en grandes déformations et l'étude des milieux poreux, dont les modélisations choisies font apparaître des inconnues en déplacement et en pression.<br /><br />Nous retenons une stratégie éléments-finis associée à un solveur Newton-Raphson et une décomposition de domaine sans recouvrement combinée à un solveur de Krylov. <br /><br />Nous proposons des améliorations pour adapter ces approches à nos problèmes, puis pour des cas plus exigeants nous définissons une nouvelle approche de décomposition de domaine, appelée approche hybride, permettant de mieux respecter la physique des phénomènes et unifiant les approches classiques. Nous proposons également des stratégies d'accélération du processus non-linéaire. Enfin un cadre orienté objet est exposé pour la mise en oeuvre de l'ensemble des méthodes proposées.
18

Méthodes de Galerkin stochastiques adaptatives pour la propagation d'incertitudes paramétriques dans les modèles hyperboliques / Adaptive stochastic Galerkin methods for parametric uncertainty propagation in hyperbolic systems

Tryoen, Julie 21 November 2011 (has links)
On considère des méthodes de Galerkin stochastiques pour des systèmes hyperboliques faisant intervenir des données en entrée incertaines de lois de distribution connues paramétrées par des variables aléatoires. On s'intéresse à des problèmes où un choc apparaît presque sûrement en temps fini. Dans ce cas, la solution peut développer des discontinuités dans les domaines spatial et stochastique. On utilise un schéma de Volumes Finis pour la discrétisation spatiale et une projection de Galerkin basée sur une approximation polynomiale par morceaux pour la discrétisation stochastique. On propose un solveur de type Roe avec correcteur entropique pour le système de Galerkin, utilisant une technique originale pour approcher la valeur absolue de la matrice de Roe et une adaptation du correcteur entropique de Dubois et Mehlmann. La méthode proposée reste coûteuse car une discrétisation stochastique très fine est nécessaire pour représenter la solution au voisinage des discontinuités. Il est donc nécessaire de faire appel à des stratégies adaptatives. Comme les discontinuités sont localisées en espace et évoluent en temps, on propose des représentations stochastiques dépendant de l'espace et du temps. On formule cette méthodologie dans un contexte multi-résolution basé sur le concept d'arbres binaires pour décrire la discrétisation stochastique. Les étapes d'enrichissement et d'élagage adaptatifs sont réalisées en utilisant des critères d'analyse multi-résolution. Dans le cas multidimensionnel, une anisotropie de la procédure adaptative est proposée. La méthodologie est évaluée sur le système des équations d'Euler dans un tube à choc et sur l'équation de Burgers en une et deux dimensions stochastiques / This work is concerned with stochastic Galerkin methods for hyperbolic systems involving uncertain data with known distribution functions parametrized by random variables. We are interested in problems where a shock appears almost surely in finite time. In this case, the solution exhibits discontinuities in the spatial and in the stochastic domains. A Finite Volume scheme is used for the spatial discretization and a Galerkin projection based on piecewise poynomial approximation is used for the stochastic discretization. A Roe-type solver with an entropy correction is proposed for the Galerkin system, using an original technique to approximate the absolute value of the Roe matrix and an adaptation of the Dubois and Mehlman entropy corrector. Although this method deals with complex situations, it remains costly because a very fine stochastic discretization is needed to represent the solution in the vicinity of discontinuities. This fact calls for adaptive strategies. As discontinuities are localized in space and time, stochastic representations depending on space and time are proposed. This methodology is formulated in a multiresolution context based on the concept of binary trees for the stochastic discretization. The adaptive enrichment and coarsening steps are based on multiresolution analysis criteria. In the multidimensional case, an anisotropy of the adaptive procedure is proposed. The method is tested on the Euler equations in a shock tube and on the Burgers equation in one and two stochastic dimensions
19

Methode multigrilles parallèle pour les simulations 3D de mise en forme de matériaux / Methode multigrilles parallèle pour les simulations 3D de mise en forme de matériaux

Vi, Frédéric 16 June 2017 (has links)
Cette thèse porte sur le développement d’une méthode multigrilles parallèle visant à réduire les temps de calculs des simulations éléments finis dans le domaine de la mise en forme de pièces forgées en 3D. Ces applications utilisent une méthode implicite, caractérisées par une formulation mixte en vitesse/pression et une gestion du contact par pénalisation. Elles impliquent de grandes déformations qui rendent nécessaires des remaillages fréquents sur les maillages tétraédriques non structurés utilisés. La méthode multigrilles développée suit une approche hybride, se basant sur une construction géométrique des niveaux grossiers par déraffinement de maillage non emboîtés et sur une construction algébrique des systèmes linéaires intermédiaires et grossiers. Un comportement asymptotique quasi-linéaire et une bonne efficacité parallèle sont attendus afin de permettre la réalisation de simulations à grand nombre de degrés de liberté dans des temps plus raisonnables qu’aujourd’hui. Pour cela, l’algorithme de déraffinement de maillages est compatible avec le calcul parallèle, ainsi que les opérateurs permettant les transferts de champs entre les différents niveaux de maillages partitionnés. Les spécificités des problèmes à traiter ont mené à la sélection d'un lisseur plus complexe que ceux utilisés plus fréquemment dans la littérature. Sur la grille la plus grossière, une méthode de résolution directe est utilisée, en séquentiel comme en calcul parallèle. La méthode multigrilles est utilisée en tant que préconditionneur d’une méthode de résidu conjugué et a été intégrée au logiciel FORGE NxT et montre un comportement asymptotique et une efficacité parallèle proches de l’optimal. Le déraffinement automatique de maillages permet une compatibilité avec les remaillages fréquents et permet à la méthode multigrilles de simuler un procédé du début à la fin. Les temps de calculs sont significativement réduits, même sur des simulations avec des écoulements particuliers, sur lesquelles la méthode multigrilles ne peut être utilisée de manière optimale. Cette robustesse permet, par exemple, de réduire de 4,5 à 2,5 jours le temps de simulation d’un procédé. / A parallel multigrid method is developed to reduce large computational costs involved by the finite element simulation of 3D metal forming applications. These applications are characterized by a mixed velocity/pressure implicit formulation with a penalty formulation to enforce contact and lead to large deformations, handled by frequent remeshings of unstructured meshes of tetrahedral. The developed multigrid method follows a hybrid approach where the different levels of non-nested meshes are geometrically constructed by mesh coarsening, while the linear systems of the intermediate and coarse levels result from the algebraic approach. A close to linear asymptotical behavior is expected along with parallel efficiency in order to allow simulations with large number of degrees of freedom under reasonable computation times. These objectives lead to a parallel mesh coarsening algorithm and parallel transfer operators allowing fields transfer between the different levels of partitioned meshes. Physical specificities of metal forming applications lead to select a more complex multigrid smoother than those classically used in literature. A direct resolution method is used on the coarsest mesh, in sequential and in parallel computing. The developed multigrid method is used as a preconditioner for a Conjugate Residual algorithm within FORGE NxT software and shows an asymptotical behavior and a parallel efficiency close to optimal. The automatic mesh coarsening algorithm enables compatibility with frequent remeshings and allows the simulation of a forging process from beginning to end with the multigrid method. Computation times are significantly reduced, even on simulations with particular material flows on which the multigrid method is not optimal. This robustness allows, for instance, reducing from 4.5 to 2.5 days the computation of a forging process.
20

Une étude du rang du noyau de l'équation de Helmholtz : application des H-matrices à l'EFIE / A study of the rank of the nucleus of the Helmholtz equation : application of H-matrices to EFIE.

Delamotte, Kieran 05 October 2016 (has links)
La résolution de problèmes d’onde par une méthode d’éléments finis de frontière (BEM) conduit à des systèmes d’équations linéaires pleins dont la taille augmente très vite pour les applications pratiques. Il est alors impératif d’employer des méthodes de résolution dites rapides. La méthode des multipôles rapides (FMM) accélère la résolution de ces systèmes par des algorithmes itératifs. La méthode des H-matrices permet d’accélérer les solveurs directs nécessaires aux cas d’application massivement multi-seconds membres. Elle a été introduite et théoriquement justifiée dans le cas de l’équation de Laplace.Néanmoins elle s’avère performante au-delà de ce qui est attendu pour des problèmes d’onde relativement haute fréquence. L’objectif de cette thèse est de comprendre pourquoi la méthode fonctionne et proposer des améliorations pour des fréquences plus élevées.Une H-matrice est une représentation hiérarchique par arbre permettant un stockage compressé des données grâce à une séparation des interactions proches (ou singulières)et lointaines (dites admissibles). Un bloc admissible a une représentation de rang faible de type UVT tandis que les interactions singulières sont représentées par des blocs pleins de petites tailles. Cette méthode permet une approximation rapide d’une matrice BEM par une H-matrice ainsi qu’une méthode de factorisation rapide de type Cholesky dont les facteurs sont également de type H-matrice.Nous montrons la nécessité d’un critère d’admissibilité dépendant de la fréquence et introduisons un critère dit de Fresnel basé sur la zone de diffraction de Fresnel. Ceci permet de contrôler la croissance du rang d’un bloc et nous proposons une estimation précise de celui-ci à haute fréquence à partir de résultats sur les fonctions d’onde sphéroïdales.Nous en déduisons une méthode de type HCA-II, robuste et fiable, d’assemblage rapide compressé à la précision voulue.Nous étudions les propriétés de cet algorithme en fonction de divers paramètres et leur influence sur le contrôle et la croissance du rang en fonction de la fréquence.Nous introduisons la notion de section efficace d’interaction entre deux clusters vérifiant le critère de Fresnel. Si celle-ci n’est pas dégénérée, le rang du bloc croît au plus linéairement avec la fréquence ; pour une interaction entre deux clusters coplanaires nous montrons une croissance comme la racine carrée de la fréquence. Ces développements sont illustrés sur des maillages représentatifs des interactions à haute fréquence. / The boundary elements method (BEM) leads to dense linear systemswhose size growsrapidly in pratice ; hence the use of so-called fast methods. The fast multipole method(FMM) accelerates the resolution of BEM systems within an iterative scheme. The H-matrix method speeds up a direct resolution which is needed in massively multiple righthandsides problems. It has been provably introduced in the context of the Laplace equation.However, the use ofH-matrices for relatively high-frequency wave problems leadsto results above expectations. This thesis main goal is to provide an explanation of thesegood results and thus improve the method for higher frequencies.A H-matrix is a compressed tree-based hierarchical representation of the data associated with an admissibility criterion to separate the near (or singular) and far (or compres-sed) fields. An admissible block reads as a UVT rank deficient matrix while the singularblocks are dense with small dimensions. BEM matrices are efficiently represented byH-matrices and this method also allows for a fast Cholesky factorization whose factors arealsoH-matrices.Our work on the admissibility condition emphasizes the necessity of a frequency dependantadmissibility criterion. This new criterion is based on the Fresnel diffraction areathus labelled Fresnel admissibility condition. In that case a precise estimation of the rankof a high-frequency block is proposed thanks to the spheroidal wave functions theory.Consequently, a robust and reliable HCA-II type algorithm has been developed to ensurea compressed precision-controlled assembly. The influence of various parameters on thisnew algorithm behaviour is discussed ; in particular their influence on the control andthe growth of the rank according to the frequency.We define the interaction cross sectionfor two Fresnel-admissible clusters and show in the non-degenerate case that the rankgrowth is linear according to the frequency in the high-frequency regime ; interaction ofcoplanar clusters results in growth like the square root of the frequency. All these resultsare presented on meshes adapted to high-frequency interactions.

Page generated in 0.4524 seconds