• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 61
  • 30
  • 17
  • 5
  • 3
  • 2
  • 2
  • 2
  • 1
  • Tagged with
  • 140
  • 140
  • 49
  • 38
  • 38
  • 35
  • 27
  • 24
  • 22
  • 22
  • 19
  • 19
  • 18
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Interaction entre un fluide à haute température et un béton : contribution à la modélisation des échanges de masse et de chaleur / Interaction between a fluid at high temperature and a concrete : contribution to the modeling of heat and mass transfer

Introïni, Clément 19 November 2010 (has links)
Lors d'un hypothétique accident grave de réacteur à eau sous pression, un mélange de matériaux fondus, appelé corium, issu de la fusion du cœur peut se relocaliser dans le puits de cuve constitué par un radier en béton. Les codes d'évaluation réacteur pour simuler la phénoménologie de l'interaction corium-béton sont basés sur une description à grande échelle des échanges qui soulève de nombreuses questions, tant sur la prise en compte des phénomènes multi-échelles mis en jeu que sur la structure adoptée de la couche limite au voisinage du front d'ablation. Dans ce contexte, l'objectif principal de ce travail consiste à aborder le problème de la structure de la couche limite par simulation numérique directe. Ce travail s'inscrit dans le cadre plus général d'une description et d'une modélisation multi-échelle des échanges, c'est-à-dire de l'échelle locale associée au voisinage du front d'ablation jusqu'à l'échelle du code d'évaluation réacteur. Une telle description multi-échelle des échanges soulève le problème de la description locale de l'écoulement multiphasique multiconstituant mais aussi le problème du changement d'échelle et en particulier le passage de l'échelle locale à l'échelle de description supérieure dite macroscopique associée aux mouvements convectifs dans le bain de corium. Parmi les difficultés associées au changement d'échelle, nous nous intéressons à la problématique de la construction de conditions aux limites effectives ou lois de parois pour les modèles macroscopiques. Devant la complexité du problème multiphasique multiconstituant posé au voisinage du front, cette contribution a été abordée sur un problème modèle. Des conditions aux limites dites effectives ont été construites dans le cadre d'une méthode de décomposition de domaine puis testées pour un problème d'écoulement laminaire de convection naturelle sur parois rugueuses. Mˆeme si le problème traité reste encore éloigné des applications visées, cette contribution offre de nombreuses perspectives et constitue une première étape d'une modélisation multiéchelle des échanges pour la problématique de l'interaction corium-béton. Dans le cas plus complexe des écoulements multiphasiques multiconstituants et devant les difficultés expérimentales associées, le développement de lois de parois pour les outils existants aux échelles de description supérieures nécessite, au préalable, de disposer d'un outil de simulation numérique directe de l'écoulement au voisinage du front d'ablation. L'outil développé dans ce travail correspond à un modèle de Cahn-Hilliard/Navier-Stokes pour un mélange diphasique (liquide-gaz) compositionnel (corium-béton fondu) s'appuyant sur une description du système selon trois paramètres d'ordre associés respectivement aux fractions volumiques du gaz et aux deux espèces miscibles de la phase liquide ainsi que sur une décomposition de l'énergie libre selon une contribution diphasique et compositionnelle. Les équations de transport sont dérivées dans le cadre de la thermodynamique des processus irréversibles et résolues sur la base d'une application éléments finis de la plate-forme PELICANS. Plusieurs expériences numériques illustrent la validité et les potentialités d'application de cet outil sur des problèmes diphasiques et/ou compositionnels. Enfin, à partir de l'outil développé, nous abordons par simulation numérique directe une étude de la structure de la couche limite au voisinage du front d'ablation pour des bétons siliceux et silico-calcaire. / In the late phases of some scenario of hypothetical severe accident in Pressurized Water Reactors, a molten mixture of core and vessel structures, called corium, comes to interact with the concrete basemat. The safety numerical tools are lumped parameter codes. They are based on a large averaged description of heat and mass transfers which raises some uncertainties about the multi-scale description of the exchanges but also about the adopted boundary layer structure in the vicinity of the ablation front. In this context, the aim of this work is to tackle the problem of the boundary layer structure by means of direct numerical simulation. This work joins within the more general framework of a multi-scale description and a multi-scale modeling, namely from the local scale associated with the vicinity of the ablation front to the scale associated with the lumped parameter codes. Such a multi-scale description raises not only the problem of the local description of the multiphase multicomponent flow but also the problem of the upscaling between the local- and the macro-scale which is associated with the convective structures within the pool of corium. Here, we are particularly interested in the building of effective boundary conditions or wall laws for macro-scale models. The difficulty of the multiphase multicomponent problem at the local scale leads us to consider a relatively simplified problem. Effective boundary conditions are built in the frame of a domain decomposition method and numerical experiments are performed for a natural convection problem in a stamp shaped cavity to assess the validity of the proposed wall laws. Even if the treated problem is still far from the target applications, this contribution can be viewed as a first step of a multi-scale modeling of the exchanges for the molten core concrete issue. In the more complicated case of multiphase multicomponent flows, it is necessary to have a direct numerical simulation tool of the flow at the local scale to build wall laws for macro-scale models. Here, the developed tool corresponds to a Cahn-Hilliard/Navier-Stokes model for a two-phase compositional system. It relies on a description of the system by three volume fractions and on a free energy composed by a two-phase part and a compositional part. The governing equations are derived in the frame of the thermodynamic of irreversible processes. They are solved on the basis of a finite element application of the object-oriented software component library PELICANS. Several numerical experiments illustrate the validity and the potentialities of application of this tool on two-phase compositional problems. Finally, using the developed tool, we tackle by means of direct numerical simulation the problem boundary layer structure in the vicinity of the ablation front for limestone-sand and siliceous concretes.
132

Conception d’un solveur linéaire creux parallèle hybride direct-itératif

Gaidamour, Jérémie 08 December 2009 (has links)
Cette thèse présente une méthode de résolution parallèle de systèmes linéaires creux qui combine efficacement les techniques de résolutions directes et itératives en utilisant une approche de type complément de Schur. Nous construisons une décomposition de domaine. L'intérieur des sous-domaines est éliminé de manière directe pour se ramener à un problème sur l'interface. Ce problème est résolu grâce à une méthode itérative préconditionnée par une factorisation incomplète. Un réordonnancement de l'interface permet la construction d'un préconditionneur global du complément de Schur. Des algorithmes minimisant le pic mémoire de la construction du préconditionneur sont proposés. Nous exploitons un schéma d'équilibrage de charge utilisant une répartition de multiples sous-domaines sur les processeurs. Les méthodes sont implémentées dans le solveur HIPS et des résultats expérimentaux parallèles sont présentés sur de grands cas tests industriels. / This thesis presents a parallel resolution method for sparse linear systems which combines effectively techniques of direct and iterative solvers using a Schur complement approach. A domain decomposition is built ; the interiors of the subdomains are eliminated by a direct method in order to use an iterative method only on the interface unknowns. The system on the interface (Schur complement) is solved thanks to an iterative method preconditioned by a global incomplete factorization. A special ordering on the Schur complement allows to build a scalable preconditioner. Algorithms minimizing the memory peak that appears during the construction of the preconditioner are presented. The memory is balanced thanks to a multiple domains per processors parallelization scheme. The methods are implemented in the HIPS solver and parallel experimental results are presented on large industrial test cases.
133

Amélioration des méthodes de calcul de cœurs de réacteurs nucléaires dans APOLLO3 : décomposition de domaine en théorie du transport pour des géométries 2D et 3D avec une accélération non linéaire par la diffusion / Contribution to the development of methods for nuclear reactor core calculations with APOLLO3 code : domain decomposition in transport theory for 2D and 3D geometries with nonlinear diffusion acceleration

Lenain, Roland 15 September 2015 (has links)
Ce travail de thèse est consacré à la mise en œuvre d’une méthode de décomposition de domaine appliquée à l’équation du transport. L’objectif de ce travail est l’accès à des solutions déterministes haute-fidélité permettant de correctement traiter les hétérogénéités des réacteurs nucléaires, pour des problèmes dont la taille varie d’un motif d’assemblage en 3 dimensions jusqu’à celle d’un grand cœur complet en 3D. L’algorithme novateur développé au cours de la thèse vise à optimiser l’utilisation du parallélisme et celle de la mémoire. La démarche adoptée a aussi pour but la diminution de l’influence de l’implémentation parallèle sur les performances. Ces objectifs répondent aux besoins du projet APOLLO3, développé au CEA et soutenu par EDF et AREVA, qui se doit d’être un code portable (pas d’optimisation sur une architecture particulière) permettant de réaliser des modélisations haute-fidélité (best estimate) avec des ressources allant des machines de bureau aux calculateurs disponibles dans les laboratoires d’études. L’algorithme que nous proposons est un algorithme de Jacobi Parallèle par Bloc Multigroupe. Chaque sous domaine est un problème multigroupe à sources fixes ayant des sources volumiques (fission) et surfaciques (données par les flux d’interface entre les sous domaines). Le problème multigroupe est résolu dans chaque sous domaine et une seule communication des flux d’interface est requise par itération de puissance. Le rayon spectral de l’algorithme de résolution est rendu comparable à celui de l’algorithme de résolution classique grâce à une méthode d’accélération non linéaire par la diffusion bien connue nommée Coarse Mesh Finite Difference. De cette manière une scalabilité idéale est atteignable lors de la parallélisation. L’organisation de la mémoire, tirant parti du parallélisme à mémoire partagée, permet d’optimiser les ressources en évitant les copies de données redondantes entre les sous domaines. Les architectures de calcul à mémoire distribuée sont rendues accessibles par un parallélisme hybride qui combine le parallélisme à mémoire partagée et à mémoire distribuée. Pour des problèmes de grande taille, ces architectures permettent d’accéder à un plus grand nombre de processeurs et à la quantité de mémoire nécessaire aux modélisations haute-fidélité. Ainsi, nous avons réalisé plusieurs exercices de modélisation afin de démontrer le potentiel de la réalisation : calcul de cœur et de motifs d’assemblages en 2D et 3D prenant en compte les contraintes de discrétisation spatiales et énergétiques attendues. / This thesis is devoted to the implementation of a domain decomposition method applied to the neutron transport equation. The objective of this work is to access high-fidelity deterministic solutions to properly handle heterogeneities located in nuclear reactor cores, for problems’ size ranging from colorsets of assemblies to large reactor cores configurations in 2D and 3D. The innovative algorithm developed during the thesis intends to optimize the use of parallelism and memory. The approach also aims to minimize the influence of the parallel implementation on the performances. These goals match the needs of APOLLO3 project, developed at CEA and supported by EDF and AREVA, which must be a portable code (no optimization on a specific architecture) in order to achieve best estimate modeling with resources ranging from personal computer to compute cluster available for engineers analyses. The proposed algorithm is a Parallel Multigroup-Block Jacobi one. Each subdomain is considered as a multi-group fixed-source problem with volume-sources (fission) and surface-sources (interface flux between the subdomains). The multi-group problem is solved in each subdomain and a single communication of the interface flux is required at each power iteration. The spectral radius of the resolution algorithm is made similar to the one of a classical resolution algorithm with a nonlinear diffusion acceleration method: the well-known Coarse Mesh Finite Difference. In this way an ideal scalability is achievable when the calculation is parallelized. The memory organization, taking advantage of shared memory parallelism, optimizes the resources by avoiding redundant copies of the data shared between the subdomains. Distributed memory architectures are made available by a hybrid parallel method that combines both paradigms of shared memory parallelism and distributed memory parallelism. For large problems, these architectures provide a greater number of processors and the amount of memory required for high-fidelity modeling. Thus, we have completed several modeling exercises to demonstrate the potential of the method: 2D full core calculation of a large pressurized water reactor and 3D colorsets of assemblies taking into account the constraints of space and energy discretization expected for high-fidelity modeling.
134

Ein Konzept zur numerischen Berechnung inkompressibler Strömungen auf Grundlage einer diskontinuierlichen Galerkin-Methode in Verbindung mit nichtüberlappender Gebietszerlegung

Müller, Hannes 12 September 1999 (has links) (PDF)
A new combination of techniques for the numerical computation of incompressible flow is presented. The temporal discretization bases on the discontinuous Galerkin-formulation. Both constant (DG(0)) and linear approximation (DG(1)) in time is discussed. In case of DG(1) an iterative method reduces the problem to a sequence of problems each with the dimension of the DG(0) approach. For the semi-discrete problems a Galerkin/least-squares method is applied. Furthermore a non-overlapping domain decomposition method can be used for a parallelized computation. The main advantage of this approach is the low amount of information which must be exchanged between the subdomains. Due to the slight bandwidth a workstation-cluster is a suitable platform. Otherwise this method is efficient only for a small number of subdomains. The interface condition is of the Robin/Robin-type and for the Navier-Stokes equation a formulation introducing a further pressure interface condition is used. Additionally a suggestion for the implementation of the standard k-epsilon turbulence model with special wall function is done in this context. All the features mentioned above are implemented in a code called ParallelNS. Using this code the verification of this approach was done on a large number of examples ranging from simple advection-diffusion problems to turbulent convection in a closed cavity.
135

Optimisations des solveurs linéaires creux hybrides basés sur une approche par complément de Schur et décomposition de domaine / Optimizations of hybrid sparse linear solvers relying on Schur complement and domain decomposition approaches

Casadei, Astrid 19 October 2015 (has links)
Dans cette thèse, nous nous intéressons à la résolution parallèle de grands systèmes linéaires creux. Nous nous focalisons plus particulièrement sur les solveurs linéaires creux hybrides directs itératifs tels que HIPS, MaPHyS, PDSLIN ou ShyLU, qui sont basés sur une décomposition de domaine et une approche « complément de Schur ». Bien que ces solveurs soient moins coûteux en temps et en mémoire que leurs homologues directs, ils ne sont néanmoins pas exempts de surcoûts. Dans une première partie, nous présentons les différentes méthodes de réduction de la consommation mémoire déjà existantes et en proposons une nouvelle qui n’impacte pas la robustesse numérique du précondionneur construit. Cette technique se base sur une atténuation du pic mémoire par un ordonnancement spécifique des tâches de calcul, d’allocation et de désallocation des blocs, notamment ceux se trouvant dans les parties « couplage » des domaines.Dans une seconde partie, nous nous intéressons à la question de l’équilibrage de la charge que pose la décomposition de domaine pour le calcul parallèle. Ce problème revient à partitionner le graphe d’adjacence de la matrice en autant de parties que de domaines désirés. Nous mettons en évidence le fait que pour avoir un équilibrage correct des temps de calcul lors des phases les plus coûteuses d’un solveur hybride tel que MaPHyS, il faut à la fois équilibrer les domaines en termes de nombre de noeuds et de taille d’interface locale. Jusqu’à aujourd’hui, les partitionneurs de graphes tels que Scotch et MeTiS ne s’intéressaient toutefois qu’au premier critère (la taille des domaines) dans le contexte de la renumérotation des matrices creuses. Nous proposons plusieurs variantes des algorithmes existants afin de prendre également en compte l’équilibrage des interfaces locales. Toutes nos modifications sont implémentées dans le partitionneur Scotch, et nous présentons des résultats sur de grands cas de tests industriels. / In this thesis, we focus on the parallel solving of large sparse linear systems. Our main interestis on direct-iterative hybrid solvers such as HIPS, MaPHyS, PDSLIN or ShyLU, whichrely on domain decomposition and Schur complement approaches. Althrough these solvers arenot as time and space consuming as direct methods, they still suffer from serious overheads. Ina first part, we thus present the existing techniques for reducing the memory consumption, andwe present a new method which does not impact the numerical robustness of the preconditioner.This technique reduces the memory peak by doing a special scheduling of computation, allocation,and freeing tasks in particular in the Schur coupling blocks of the matrix. In a second part,we focus on the load balancing of the domain decomposition in a parallel context. This problemconsists in partitioning the adjacency graph of the matrix in as many domains as desired. Wepoint out that a good load balancing for the most expensive steps of an hybrid solver such asMaPHyS relies on the balancing of both interior nodes and interface nodes of the domains.Through, until now, graph partitioners such as MeTiS or Scotch used to optimize only thefirst criteria (i.e., the balancing of interior nodes) in the context of sparse matrix ordering. Wepropose different variations of the existing algorithms to improve the balancing of interface nodesand interior nodes simultaneously. All our changes are implemented in the Scotch partitioner.We present our results on large collection of matrices coming from real industrial cases.
136

Efficient Parallel Monte-Carlo Simulations for Large-Scale Studies of Surface Growth Processes

Kelling, Jeffrey 21 August 2018 (has links)
Lattice Monte Carlo methods are used to investigate far from and out-of-equilibrium systems, including surface growth, spin systems and solid mixtures. Applications range from the determination of universal growth or aging behaviors to palpable systems, where coarsening of nanocomposites or self-organization of functional nanostructures are of interest. Such studies require observations of large systems over long times scales, to allow structures to grow over orders of magnitude, which necessitates massively parallel simulations. This work addresses the problem of parallel processing introducing correlations in Monte Carlo updates and proposes a virtually correlation-free domain decomposition scheme to solve it. The effect of correlations on scaling and dynamical properties of surface growth systems and related lattice gases is investigated further by comparing results obtained by correlation-free and intrinsically correlated but highly efficient simulations using a stochastic cellular automaton (SCA). Efficient massively parallel implementations on graphics processing units (GPUs) were developed, which enable large-scale simulations leading to unprecedented precision in the final results. The primary subject of study is the Kardar–Parisi–Zhang (KPZ) surface growth in (2 + 1) dimensions, which is simulated using a dimer lattice gas and the restricted solid-on-solid model (RSOS) model. Using extensive simulations, conjectures regard- ing growth, autocorrelation and autoresponse properties are tested and new precise numerical predictions for several universal parameters are made.:1. Introduction 1.1. Motivations and Goals 1.2. Overview 2. Methods and Models 2.1. Estimation of Scaling Exponents and Error Margins 2.2. From Continuum- to Atomistic Models 2.3. Models for Phase Ordering and Nanostructure Evolution 2.3.1. The Kinetic Metropolis Lattice Monte-Carlo Method 2.3.2. The Potts Model 2.4. The Kardar–Parisi–Zhang and Edwards–Wilkinson Universality Classes 2.4.0.1. Physical Aging 2.4.1. The Octahedron Model 2.4.2. The Restricted Solid on Solid Model 3. Parallel Implementation: Towards Large-Scale Simulations 3.1. Parallel Architectures and Programming Models 3.1.1. CPU 3.1.2. GPU 3.1.3. Heterogeneous Parallelism and MPI 3.1.4. Bit-Coding of Lattice Sites 3.2. Domain Decomposition for Stochastic Lattice Models 3.2.1. DD for Asynchronous Updates 3.2.1.1. Dead border (DB) 3.2.1.2. Double tiling (DT) 3.2.1.3. DT DD with random origin (DTr) 3.2.1.4. Implementation 3.2.2. Second DD Layer on GPUs 3.2.2.1. Single-Hit DT 3.2.2.2. Single-Hit dead border (DB) 3.2.2.3. DD Parameters for the Octahedron Model 3.2.3. Performance 3.3. Lattice Level DD: Stochastic Cellular Automaton 3.3.1. Local Approach for the Octahedron Model 3.3.2. Non-Local Approach for the Octahedron Model 3.3.2.1. Bit-Vectorized GPU Implementation 3.3.3. Performance of SCA Implementations 3.4. The Multi-Surface Coding Approach 3.4.0.1. Vectorization 3.4.0.2. Scalar Updates 3.4.0.3. Domain Decomposition 3.4.1. Implementation: SkyMC 3.4.1.1. 2d Restricted Solid on Solid Model 3.4.1.2. 2d and 3d Potts Model 3.4.1.3. Sequential CPU Reference 3.4.2. SkyMC Benchmarks 3.5. Measurements 3.5.0.1. Measurement Intervals 3.5.0.2. Measuring using Heterogeneous Resources 4. Monte-Carlo Investigation of the Kardar–Parisi–Zhang Universality Class 4.1. Evolution of Surface Roughness 4.1.1. Comparison of Parallel Implementations of the Octahedron Model 4.1.1.1. The Growth Regime 4.1.1.2. Distribution of Interface Heights in the Growth Regime 4.1.1.3. KPZ Ansatz for the Growth Regime 4.1.1.4. The Steady State 4.1.2. Investigations using RSOS 4.1.2.1. The Growth Regime 4.1.2.2. The Steady State 4.1.2.3. Consistency of Fine-Size Scaling with Respect to DD 4.1.3. Results for Growth Phase and Steady State 4.2. Autocorrelation Functions 4.2.1. Comparison of DD Methods for RS Dynamics 4.2.1.1. Device-Layer DD 4.2.1.2. Block-Layer DD 4.2.2. Autocorrelation Properties under RS Dynamics 4.2.3. Autocorrelation Properties under SCA Dynamics 4.2.3.1. Autocorrelation of Heights 4.2.3.2. Autocorrelation of Slopes 4.2.4. Autocorrelation in the SCA Steady State 4.2.5. Autocorrelation in the EW Case under SCA 4.2.5.1. Autocorrelation of Heights 4.2.5.2. Autocorrelations of Slopes 4.3. Autoresponse Functions 4.3.1. Autoresponse Properties 4.3.1.1. Autoresponse of Heights 4.3.1.2. Autoresponse of Slopes 4.3.1.3. Self-Averaging 4.4. Summary 5. Further Topics 5.1. Investigations of the Potts Model 5.1.1. Testing Results from the Parallel Implementations 5.1.2. Domain Growth in Disordered Potts Models 5.2. Local Scale Invariance in KPZ Surface Growth 6. Conclusions and Outlook Acknowledgements A. Coding Details A.1. Bit-Coding A.2. Packing and Unpacking Signed Integers A.3. Random Number Generation / Gitter-Monte-Carlo-Methoden werden zur Untersuchung von Systemen wie Oberflächenwachstum, Spinsystemen oder gemischten Feststoffen verwendet, welche fern eines Gleichgewichtes bleiben oder zu einem streben. Die Anwendungen reichen von der Bestimmung universellen Wachstums- und Alterungsverhaltens hin zu konkreten Systemen, in denen die Reifung von Nanokompositmaterialien oder die Selbstorganisation von funktionalen Nanostrukturen von Interesse sind. In solchen Studien müssen große Systemen über lange Zeiträume betrachtet werden, um Strukturwachstum über mehrere Größenordnungen zu erlauben. Dies erfordert massivparallele Simulationen. Diese Arbeit adressiert das Problem, dass parallele Verarbeitung Korrelationen in Monte-Carlo-Updates verursachen und entwickelt eine praktisch korrelationsfreie Domänenzerlegungsmethode, um es zu lösen. Der Einfluss von Korrelationen auf Skalierungs- und dynamische Eigenschaften von Oberflächenwachtums- sowie verwandten Gittergassystemen wird weitergehend durch den Vergleich von Ergebnissen aus korrelationsfreien und intrinsisch korrelierten Simulationen mit einem stochastischen zellulären Automaten untersucht. Effiziente massiv parallele Implementationen auf Grafikkarten wurden entwickelt, welche großskalige Simulationen und damit präzedenzlos genaue Ergebnisse ermöglichen. Das primäre Studienobjekt ist das (2 + 1)-dimensionale Kardar–Parisi–Zhang- Oberflächenwachstum, welches durch ein Dimer-Gittergas und das Kim-Kosterlitz-Modell simuliert wird. Durch massive Simulationen werden Thesen über Wachstums-, Autokorrelations- und Antworteigenschaften getestet und neue, präzise numerische Vorhersagen zu einigen universellen Parametern getroffen.:1. Introduction 1.1. Motivations and Goals 1.2. Overview 2. Methods and Models 2.1. Estimation of Scaling Exponents and Error Margins 2.2. From Continuum- to Atomistic Models 2.3. Models for Phase Ordering and Nanostructure Evolution 2.3.1. The Kinetic Metropolis Lattice Monte-Carlo Method 2.3.2. The Potts Model 2.4. The Kardar–Parisi–Zhang and Edwards–Wilkinson Universality Classes 2.4.0.1. Physical Aging 2.4.1. The Octahedron Model 2.4.2. The Restricted Solid on Solid Model 3. Parallel Implementation: Towards Large-Scale Simulations 3.1. Parallel Architectures and Programming Models 3.1.1. CPU 3.1.2. GPU 3.1.3. Heterogeneous Parallelism and MPI 3.1.4. Bit-Coding of Lattice Sites 3.2. Domain Decomposition for Stochastic Lattice Models 3.2.1. DD for Asynchronous Updates 3.2.1.1. Dead border (DB) 3.2.1.2. Double tiling (DT) 3.2.1.3. DT DD with random origin (DTr) 3.2.1.4. Implementation 3.2.2. Second DD Layer on GPUs 3.2.2.1. Single-Hit DT 3.2.2.2. Single-Hit dead border (DB) 3.2.2.3. DD Parameters for the Octahedron Model 3.2.3. Performance 3.3. Lattice Level DD: Stochastic Cellular Automaton 3.3.1. Local Approach for the Octahedron Model 3.3.2. Non-Local Approach for the Octahedron Model 3.3.2.1. Bit-Vectorized GPU Implementation 3.3.3. Performance of SCA Implementations 3.4. The Multi-Surface Coding Approach 3.4.0.1. Vectorization 3.4.0.2. Scalar Updates 3.4.0.3. Domain Decomposition 3.4.1. Implementation: SkyMC 3.4.1.1. 2d Restricted Solid on Solid Model 3.4.1.2. 2d and 3d Potts Model 3.4.1.3. Sequential CPU Reference 3.4.2. SkyMC Benchmarks 3.5. Measurements 3.5.0.1. Measurement Intervals 3.5.0.2. Measuring using Heterogeneous Resources 4. Monte-Carlo Investigation of the Kardar–Parisi–Zhang Universality Class 4.1. Evolution of Surface Roughness 4.1.1. Comparison of Parallel Implementations of the Octahedron Model 4.1.1.1. The Growth Regime 4.1.1.2. Distribution of Interface Heights in the Growth Regime 4.1.1.3. KPZ Ansatz for the Growth Regime 4.1.1.4. The Steady State 4.1.2. Investigations using RSOS 4.1.2.1. The Growth Regime 4.1.2.2. The Steady State 4.1.2.3. Consistency of Fine-Size Scaling with Respect to DD 4.1.3. Results for Growth Phase and Steady State 4.2. Autocorrelation Functions 4.2.1. Comparison of DD Methods for RS Dynamics 4.2.1.1. Device-Layer DD 4.2.1.2. Block-Layer DD 4.2.2. Autocorrelation Properties under RS Dynamics 4.2.3. Autocorrelation Properties under SCA Dynamics 4.2.3.1. Autocorrelation of Heights 4.2.3.2. Autocorrelation of Slopes 4.2.4. Autocorrelation in the SCA Steady State 4.2.5. Autocorrelation in the EW Case under SCA 4.2.5.1. Autocorrelation of Heights 4.2.5.2. Autocorrelations of Slopes 4.3. Autoresponse Functions 4.3.1. Autoresponse Properties 4.3.1.1. Autoresponse of Heights 4.3.1.2. Autoresponse of Slopes 4.3.1.3. Self-Averaging 4.4. Summary 5. Further Topics 5.1. Investigations of the Potts Model 5.1.1. Testing Results from the Parallel Implementations 5.1.2. Domain Growth in Disordered Potts Models 5.2. Local Scale Invariance in KPZ Surface Growth 6. Conclusions and Outlook Acknowledgements A. Coding Details A.1. Bit-Coding A.2. Packing and Unpacking Signed Integers A.3. Random Number Generation
137

Ein Gebietszerlegungsverfahren für parabolische Probleme im Zusammenhang mit Finite-Volumen-Diskretisierung / A Domain Decomposition Method for Parabolic Problems in connexion with Finite Volume Methods

Held, Joachim 21 December 2006 (has links)
No description available.
138

Méthodes d'ordre élevé et méthodes de décomposition de domaine efficaces pour les équations de Maxwell en régime harmonique / Efficient high order and domain decomposition methods for the time-harmonic Maxwell's equations

Bonazzoli, Marcella 11 September 2017 (has links)
Les équations de Maxwell en régime harmonique comportent plusieurs difficultés lorsque la fréquence est élevée. On peut notamment citer le fait que leur formulation variationnelle n’est pas définie positive et l’effet de pollution qui oblige à utiliser des maillages très fins, ce qui rend problématique la construction de solveurs itératifs. Nous proposons une stratégie de solution précise et rapide, qui associe une discrétisation par des éléments finis d’ordre élevé à des préconditionneurs de type décomposition de domaine. La conception, l’implémentation et l’analyse des deux méthodes sont assez difficiles pour les équations de Maxwell. Les éléments finis adaptés à l’approximation du champ électrique sont les éléments finis H(rot)-conformes ou d’arête. Ici nous revisitons les degrés de liberté classiques définis par Nédélec, afin d’obtenir une expression plus pratique par rapport aux fonctions de base d’ordre élevé choisies. De plus, nous proposons une technique pour restaurer la dualité entre les fonctions de base et les degrés de liberté. Nous décrivons explicitement une stratégie d’implémentation qui a été appliquée dans le langage open source FreeFem++. Ensuite, nous nous concentrons sur les techniques de préconditionnement du système linéaire résultant de la discrétisation par éléments finis. Nous commençons par la validation numérique d’un préconditionneur à un niveau, de type Schwarz avec recouvrement, avec des conditions de transmission d’impédance entre les sous-domaines. Enfin, nous étudions comment des préconditionneurs à deux niveaux, analysés récemment pour l’équation de Helmholtz, se comportent pour les équations de Maxwell, des points de vue théorique et numérique. Nous appliquons ces méthodes à un problème à grande échelle qui découle de la modélisation d’un système d’imagerie micro-onde, pour la détection et le suivi des accidents vasculaires cérébraux. La précision et la vitesse de calcul sont essentielles dans cette application. / The time-harmonic Maxwell’s equations present several difficulties when the frequency is large, such as the sign-indefiniteness of the variational formulation, the pollution effect and the problematic construction of iterative solvers. We propose a precise and efficient solution strategy that couples high order finite element (FE) discretizations with domain decomposition (DD) preconditioners. High order FE methods make it possible for a given precision to reduce significantly the number of unknowns of the linear system to be solved. DD methods are then used as preconditioners for the iterative solver: the problem defined on the global domain is decomposed into smaller problems on subdomains, which can be solved concurrently and using robust direct solvers. The design, implementation and analysis of both these methods are particularly challenging for Maxwell’s equations. FEs suited for the approximation of the electric field are the curl-conforming or edge finite elements. Here, we revisit the classical degrees of freedom (dofs) defined by Nédélec to obtain a new more friendly expression in terms of the chosen high order basis functions. Moreover, we propose a general technique to restore duality between dofs and basis functions. We explicitly describe an implementation strategy, which we embedded in the open source language FreeFem++. Then we focus on the preconditioning of the linear system, starting with a numerical validation of a one-level overlapping Schwarz preconditioner, with impedance transmission conditions between subdomains. Finally, we investigate how two-level preconditioners recently analyzed for the Helmholtz equation work in the Maxwell case, both from the theoretical and numerical points of view. We apply these methods to the large scale problem arising from the modeling of a microwave imaging system, for the detection and monitoring of brain strokes. In this application accuracy and computing speed are indeed of paramount importance.
139

Etude de techniques de calculs multi-domaines appliqués à la compatibilité électromagnétique / Study of multi-domain computation techniques applied to electromagnetic compatibility

Patier, Laurent 17 November 2010 (has links)
Le contexte d’étude est celui de la Compatibilité ÉlectroMagnétique (CEM). L’objectif de la CEM est, comme son nom l’indique, d’assurer la compatibilité entre une source de perturbation électromagnétique et un système électronique victime. Or, la prédiction de ces niveaux de perturbation ne peut pas s’effectuer à l’aide d’un simple calcul analytique, en raison de la géométrie qui est généralement complexe pour le système que l’on étudie, tel que le champ à l’intérieur d’un cockpit d’avion par exemple. En conséquence, nous sommes contraints d’employer des méthodes numériques, dans le but de prédire ce niveau de couplage entre les sources et les victimes. Parmi les nombreuses méthodes numériques existantes à ce jour, les méthodes Multi-Domaines (MD) sont très prisées. En effet, elles offrent la liberté aux utilisateurs de choisir la méthode numérique la plus adaptée, en fonction de la zone géométrique à calculer. Au sein de ces méthodes MD, la « Domain Decomposition Method » (DDM) présente l’avantage supplémentaire de découpler chacun de ces domaines. En conséquence, la DDM est particulièrement intéressante, vis-à-vis des méthodes concurrentes, en particulier sur l’aspect du coût numérique. Pour preuve, l’ONERA continue de développer cette méthode qui ne cesse de montrer son efficacité depuis plusieurs années, notamment pour le domaine des Surfaces Équivalentes Radar (SER) et des antennes. L’objectif de l’étude est de tirer profit des avantages de cette méthode pour des problématiques de CEM. Jusqu’à maintenant, de nombreuses applications de CEM, traitées par le code DDM, fournissaient des résultats fortement bruités. Même pour des problématiques électromagnétiques très simples, des problèmes subsistaient, sans explication convaincante. Ceci justifie cette étude. Le but de cette thèse est de pouvoir appliquer ce formalisme DDM à des problématiques de CEM. Dans cette optique, nous avons été amenés à redéfinir un certain nombre de conventions, qui interviennent au sein de la DDM. Par ailleurs, nous avons développé un modèle spécifique pour les ouvertures, qui sont des voies de couplage privilégiées par les ondes, à l’intérieur des cavités que représentent les blindages. Comme les ouvertures sont, en pratique, de petites dimensions devant la longueur d’onde, on s’est intéressé à un modèle quasi-statique. Nous proposons alors un modèle, qui a été implémenté, puis validé. Suite à ce modèle, nous avons développé une méthode originale, basée sur un calcul en deux étapes, permettant de ne plus discrétiser le support des ouvertures dans les calculs 3D. / The context of the study is the ElectroMagnetic Compatibility (EMC). Principal aim of the EMC is to ensure the compatibility between an electromagnetic perturbance source and an electronic device victim. Unfortunately, the perturbation levels prediction can not be made using an analytic formula, because the geometry which is generally complex for the interesting system, for example the field inside an aircraft’s cockpit. Therefore, we are contrained to use numerical methods, to be able to evaluate this coupling level between sources and victims. Among several existing numerical methods, Multi-Domains (MD) methods are very interesting. They offer to users the freedom to choose the most powerfull numerical method, in terms of the geometrical zone evaluated. With the MD methods, « Domain Decomposition Method » (DDM) has the avantage of decouplingeach of theses areas. Therefore, DDM is very interesting, compared to other methods, in particular on the numerical cost. ONERA keeps on developing this method, which has not stop showing his efficiency since several years, in particular in Radar Cross Section (RCS) and antennas. The objective of this study is to take the benefits of this method for EMC problems. Up to now, several EMC applications treated by the DDM code provided results strongly noisy. Even for with very simple electromagnetic cases, some problems remained without convincing explanations. This justifies this study. The aim of this thesis is to can be able to apply DDM formalism to EMC problems. Then, we have been induced to redefine a number of conventions which are involved in the DDM. Otherwise, we have developed a specific model for the apertures which are privilegied tracts of the coupling by the penetration of waves inside cavities (shieldings). As the apertures have in practice smaller dimensions compared to the wavelength, we have been interested to a quasistatic model which was developped, implemented and validated. Following this model, we have developed an original method, based on a two step calculation, able to do not discretize the apertures support in 3D computations.
140

Generic Programming and Algebraic Multigrid for Stabilized Finite Element Methods / Generisches Programmieren und Algebraische Mehrgitterverfahren für Stabilisierte Finite Elemente Methoden

Klimanis, Nils 10 March 2006 (has links)
No description available.

Page generated in 0.0442 seconds