111 |
Massively Parallel, Fast Fourier Transforms and Particle-Mesh Methods / Massiv parallele schnelle Fourier-Transformationen und Teilchen-Gitter-MethodenPippig, Michael 08 March 2016 (has links) (PDF)
The present thesis provides a modularized view on the structure of fast numerical methods for computing Coulomb interactions between charged particles in three-dimensional space. Thereby, the common structure is given in terms of three self-contained algorithmic frameworks that are built on top of each other, namely fast Fourier transform (FFT), nonequispaced fast Fourier transform (NFFT) and NFFT based particle-mesh methods (P²NFFT). For each of these frameworks algorithmic enhancement and parallel implementations are presented with special emphasis on scalability up to hundreds of thousands of parallel processes.
In the context of FFT massively parallel algorithms are composed from hardware adaptive low level modules provided by the FFTW software library. The new algorithmic NFFT concepts include pruned NFFT, interlacing, analytic differentiation, and optimized deconvolution in Fourier space with respect to a mean square aliasing error. Enabled by these generalized concepts it is shown that NFFT provides a unified access to particle-mesh methods. Especially, mixed-periodic boundary conditions are handled in a consistent way and interlacing can be incorporated more efficiently. Heuristic approaches for parameter tuning are presented on the basis of thorough error estimates. / Die vorliegende Dissertation beschreibt einen modularisierten Blick auf die Struktur schneller numerischer Methoden für die Berechnung der Coulomb-Wechselwirkungen zwischen Ladungen im dreidimensionalen Raum. Die gemeinsame Struktur ist geprägt durch drei selbstständige und auf einander aufbauenden Algorithmen, nämlich der schnellen Fourier-Transformation (FFT), der nicht äquidistanten schnellen Fourier-Transformation (NFFT) und der NFFT-basierten Teilchen-Gitter-Methode (P²NFFT). Für jeden dieser Algorithmen werden Verbesserungen und parallele Implementierungen vorgestellt mit besonderem Augenmerk auf massiv paralleler Skalierbarkeit.
Im Kontext der FFT werden parallele Algorithmen aus den Hardware adaptiven Modulen der FFTW Softwarebibliothek zusammengesetzt. Die neuen NFFT-Konzepte beinhalten abgeschnittene NFFT, Versatz, analytische Differentiation und optimierte Entfaltung im Fourier-Raum bezüglich des mittleren quadratischen Aliasfehlers. Mit Hilfe dieser Verallgemeinerungen bietet die NFFT einen vereinheitlichten Zugang zu Teilchen-Gitter-Methoden. Insbesondere gemischt periodische Randbedingungen werden einheitlich behandelt und Versatz wird effizienter umgesetzt. Heuristiken für die Parameterwahl werden auf Basis sorgfältiger Fehlerabschätzungen angegeben.
|
112 |
Optimal Control Problems in Finite-Strain Elasticity by Inner Pressure and Fiber TensionGünnel, Andreas, Herzog, Roland 01 September 2016 (has links) (PDF)
Optimal control problems for finite-strain elasticity are considered. An inner pressure or an inner fiber tension is acting as a driving force. Such internal forces are typical, for instance, for the motion of heliotropic plants, and for muscle tissue. Non-standard objective functions relevant for elasticity problems are introduced. Optimality conditions are derived on a formal basis, and a limited-memory quasi-Newton algorithm for their solution is formulated in function space. Numerical experiments confirm the expected mesh-independent performance.
|
113 |
Parameter Tuning for the NFFT Based Fast Ewald SummationNestler, Franziska 14 September 2016 (has links) (PDF)
The computation of the Coulomb potentials and forces in charged particle systems under 3d-periodic boundary conditions is possible in an efficient way by utilizing the Ewald summation formulas and applying the fast Fourier transform (FFT). In this paper we consider the particle-particle NFFT (P2NFFT) approach, which is based on the fast Fourier transform for nonequispaced data (NFFT) and compare the error behaviors regarding different window functions, which are used in order to approximate the given continuous charge distribution by a mesh based charge density. Typically B-splines are applied in the scope of particle mesh methods, as for instance within the well-known particle-particle particle-mesh (P3M) algorithm. The publicly available P2NFFT algorithm allows the application of an oversampled FFT as well as the usage of different window functions. We consider for the first time also an approximation by Bessel functions and show how the resulting root mean square errors in the forces can be predicted precisely and efficiently. The results show that, if the parameters are tuned appropriately, the Bessel window function is in many cases even the better choice in terms of computational costs. Moreover, the results indicate that it is often advantageous in terms of efficiency to spend some oversampling within the NFFT while using a window function with a smaller support.
|
114 |
Möglichkeiten zur Steuerung von Trust-Region Verfahren im Rahmen der ParameteridentifikationClausner, André 05 June 2013 (has links) (PDF)
Zur Simulation technischer Prozesse ist eine hinreichend genaue Beschreibung des Materialverhaltens notwendig. Die hierfür häufig verwendeten phänomenologischen Ansätze, wie im vorliegenden Fall die HILLsche Fließbedingung, enthalten materialspezifische Parameter, welche nicht direkt messbar sind. Die Identifikation dieser Materialparameter erfolgt in der Regel durch Minimierung eines Fehlerquadratfunktionals, welches Differenzen von Messwerten und zugehörigen numerisch berechneten Vergleichswerten enthält. In diesem Zusammenhang haben sich zur Lösung dieser Minimierungsaufgabe die Trust-Region Verfahren als gut geeignet herausgestellt. Die Aufgabe besteht darin, die verschiedenen Möglichkeiten zur Steuerung eines Trust-Region Verfahrens, im Hinblick auf die Eignung für das vorliegende Identifikationsproblem, zu untersuchen. Dazu werden die Quadratmittelprobleme und deren Lösungsverfahren überblicksmäßig betrachtet. Danach wird näher auf die Trust-Region Verfahren eingegangen, wobei sich im Weiteren auf Verfahren mit positiv definiten Ansätzen für die Hesse-Matrix, den Levenberg-Marquardt Verfahren, beschränkt wird. Danach wird ein solcher Levenberg-Marquardt Algorithmus in verschiedenen Ausführungen implementiert und an dem vorliegenden Identifikationsproblem getestet. Als Ergebnis stellt sich eine gute Kombination aus verschiedenen Teilalgorithmen des Levenberg-Marquardt Algorithmus mit einer hohen Konvergenzgeschwindigkeit heraus, welche für das vorliegende Problem gut geeignet ist.
|
115 |
Anwendung von Line-Search-Strategien zur Formoptimierung und ParameteridentifikationClausner, André 05 June 2013 (has links) (PDF)
Die kontinuierliche Weiterentwicklung und Verbesserung technischer Prozesse erfolgt heute auf der Basis stochastischer und deterministischer Optimierungsstrategien in Kombination mit der numerischen Simulation dieser Abläufe. Da die FE-Simulation von Umformvorgängen in der Regel sehr zeitintensiv ist, bietet sich für die Optimierung solcher Prozesse der Einsatz deterministischer Methoden an, da hier weniger Optimierungsschritte und somit auch weniger FE-Simulationen notwendig sind. Eine wichtige Anforderung an solche Optimierungsverfahren ist globale Konvergenz zu lokalen Minima, da die optimalen Parametersätze nicht immer näherungsweise bekannt sind. Die zwei wichtigsten Strategien zum Ausdehnen des beschränkten Konvergenzradius der natürlichen Optimierungsverfahren (newtonschrittbasierte Verfahren und Gradientenverfahren) sind die Line-Search-Strategie und die Trust-Region-Strategie. Die Grundlagen der Line-Search-Strategie werden aufgearbeitet und die wichtigsten Teilalgorithmen implementiert. Danach wird dieses Verfahren auf eine effiziente Kombination der Teilalgorithmen und Verfahrensparameter hin untersucht. Im Anschluss wird die Leistung eines Optimierungsverfahrens mit Line-Search-Strategie verglichen mit der eines ebenfalls implementierten Optimierungsverfahrens mit skalierter Trust-Region-Strategie. Die Tests werden nach Einfügen der implementierten Verfahren in das Programm SPC-Opt anhand der Lösung eines Quadratmittelproblems aus der Materialparameteridentifikation sowie der Formoptimierung eines Umformwerkzeugs vorgenommen.
|
116 |
Eigenvalue Algorithms for Symmetric Hierarchical Matrices / Eigenwert-Algorithmen für Symmetrische Hierarchische MatrizenMach, Thomas 05 April 2012 (has links) (PDF)
This thesis is on the numerical computation of eigenvalues of symmetric hierarchical matrices. The numerical algorithms used for this computation are derivations of the LR Cholesky algorithm, the preconditioned inverse iteration, and a bisection method based on LDLT factorizations.
The investigation of QR decompositions for H-matrices leads to a new QR decomposition. It has some properties that are superior to the existing ones, which is shown by experiments using the HQR decompositions to build a QR (eigenvalue) algorithm for H-matrices does not progress to a more efficient algorithm than the LR Cholesky algorithm.
The implementation of the LR Cholesky algorithm for hierarchical matrices together with deflation and shift strategies yields an algorithm that require O(n) iterations to find all eigenvalues. Unfortunately, the local ranks of the iterates show a strong growth in the first steps. These H-fill-ins makes the computation expensive, so that O(n³) flops and O(n²) storage are required.
Theorem 4.3.1 explains this behavior and shows that the LR Cholesky algorithm is efficient for the simple structured Hl-matrices.
There is an exact LDLT factorization for Hl-matrices and an approximate LDLT factorization for H-matrices in linear-polylogarithmic complexity. This factorizations can be used to compute the inertia of an H-matrix. With the knowledge of the inertia for arbitrary shifts, one can compute an eigenvalue by bisectioning. The slicing the spectrum algorithm can compute all eigenvalues of an Hl-matrix in linear-polylogarithmic complexity. A single eigenvalue can be computed in O(k²n log^4 n).
Since the LDLT factorization for general H-matrices is only approximative, the accuracy of the LDLT slicing algorithm is limited. The local ranks of the LDLT factorization for indefinite matrices are generally unknown, so that there is no statement on the complexity of the algorithm besides the numerical results in Table 5.7.
The preconditioned inverse iteration computes the smallest eigenvalue and the corresponding eigenvector. This method is efficient, since the number of iterations is independent of the matrix dimension.
If other eigenvalues than the smallest are searched, then preconditioned inverse iteration can not be simply applied to the shifted matrix, since positive definiteness is necessary. The squared and shifted matrix (M-mu I)² is positive definite. Inner eigenvalues can be computed by the combination of folded spectrum method and PINVIT. Numerical experiments show that the approximate inversion of (M-mu I)² is more expensive than the approximate inversion of M, so that the computation of the inner eigenvalues is more expensive.
We compare the different eigenvalue algorithms. The preconditioned inverse iteration for hierarchical matrices is better than the LDLT slicing algorithm for the computation of the smallest eigenvalues, especially if the inverse is already available. The computation of inner eigenvalues with the folded spectrum method and preconditioned inverse iteration is more expensive. The LDLT slicing algorithm is competitive to H-PINVIT for the computation of inner eigenvalues.
In the case of large, sparse matrices, specially tailored algorithms for sparse matrices, like the MATLAB function eigs, are more efficient.
If one wants to compute all eigenvalues, then the LDLT slicing algorithm seems to be better than the LR Cholesky algorithm. If the matrix is small enough to be handled in dense arithmetic (and is not an Hl(1)-matrix), then dense eigensolvers, like the LAPACK function dsyev, are superior.
The H-PINVIT and the LDLT slicing algorithm require only an almost linear amount of storage. They can handle larger matrices than eigenvalue algorithms for dense matrices.
For Hl-matrices of local rank 1, the LDLT slicing algorithm and the LR Cholesky algorithm need almost the same time for the computation of all eigenvalues. For large matrices, both algorithms are faster than the dense LAPACK function dsyev.
|
117 |
Numerical Methods for Bayesian Inference in Hilbert Spaces / Numerische Methoden für Bayessche Inferenz in HilberträumenSprungk, Björn 15 February 2018 (has links) (PDF)
Bayesian inference occurs when prior knowledge about uncertain parameters in mathematical models is merged with new observational data related to the model outcome. In this thesis we focus on models given by partial differential equations where the uncertain parameters are coefficient functions belonging to infinite dimensional function spaces. The result of the Bayesian inference is then a well-defined posterior probability measure on a function space describing the updated knowledge about the uncertain coefficient.
For decision making and post-processing it is often required to sample or integrate wit resprect to the posterior measure. This calls for sampling or numerical methods which are suitable for infinite dimensional spaces. In this work we focus on Kalman filter techniques based on ensembles or polynomial chaos expansions as well as Markov chain Monte Carlo methods.
We analyze the Kalman filters by proving convergence and discussing their applicability in the context of Bayesian inference. Moreover, we develop and study an improved dimension-independent Metropolis-Hastings algorithm. Here, we show geometric ergodicity of the new method by a spectral gap approach using a novel comparison result for spectral gaps. Besides that, we observe and further analyze the robustness of the proposed algorithm with respect to decreasing observational noise. This robustness is another desirable property of numerical methods for Bayesian inference.
The work concludes with the application of the discussed methods to a real-world groundwater flow problem illustrating, in particular, the Bayesian approach for uncertainty quantification in practice. / Bayessche Inferenz besteht daraus, vorhandenes a-priori Wissen über unsichere Parameter in mathematischen Modellen mit neuen Beobachtungen messbarer Modellgrößen zusammenzuführen. In dieser Dissertation beschäftigen wir uns mit Modellen, die durch partielle Differentialgleichungen beschrieben sind. Die unbekannten Parameter sind dabei Koeffizientenfunktionen, die aus einem unendlich dimensionalen Funktionenraum kommen. Das Resultat der Bayesschen Inferenz ist dann eine wohldefinierte a-posteriori Wahrscheinlichkeitsverteilung auf diesem Funktionenraum, welche das aktualisierte Wissen über den unsicheren Koeffizienten beschreibt.
Für Entscheidungsverfahren oder Postprocessing ist es oft notwendig die a-posteriori Verteilung zu simulieren oder bzgl. dieser zu integrieren. Dies verlangt nach numerischen Verfahren, welche sich zur Simulation in unendlich dimensionalen Räumen eignen. In dieser Arbeit betrachten wir Kalmanfiltertechniken, die auf Ensembles oder polynomiellen Chaosentwicklungen basieren, sowie Markowketten-Monte-Carlo-Methoden.
Wir analysieren die erwähnte Kalmanfilter, indem wir deren Konvergenz zeigen und ihre Anwendbarkeit im Kontext Bayesscher Inferenz diskutieren. Weiterhin entwickeln und studieren wir einen verbesserten dimensionsunabhängigen Metropolis-Hastings-Algorithmus. Hierbei weisen wir geometrische Ergodizität mit Hilfe eines neuen Resultates zum Vergleich der Spektrallücken von Markowketten nach. Zusätzlich beobachten und analysieren wir die Robustheit der neuen Methode bzgl. eines fallenden Beobachtungsfehlers. Diese Robustheit ist eine weitere wünschenswerte Eigenschaft numerischer Methoden für Bayessche Inferenz.
Den Abschluss der Arbeit bildet die Anwendung der diskutierten Methoden auf ein reales Grundwasserproblem, was insbesondere den Bayesschen Zugang zur Unsicherheitsquantifizierung in der Praxis illustriert.
|
118 |
Numerical Analysis and Simulation of Coupled Systems of Stochastic Partial Differential Equations with Algebraic ConstraintsSchade, Maximilian 20 September 2023 (has links)
Diese Dissertation befasst sich mit der Analyse von semi-expliziten Systemen aus stochastischen Differentialgleichungen (SDEs) gekoppelt mit stochastischen partiellen Differentialgleichungen (SPDEs) und algebraischen Gleichungen (AEs) mit möglicherweise stochastischen Anteilen in den Operatoren.
Diese Systeme spielen eine entscheidende Rolle bei der Modellierung von realen Anwendungen, wie zum Beispiel elektrischen Schaltkreisen und Gasnetzwerken. Der Hauptbeitrag dieser Arbeit besteht darin, einen Rahmen bereitzustellen, in dem diese semiexpliziten Systeme auch bei stochastischen Einflüssen in den algebraischen Randbedingungen eine eindeutige Lösung haben.
Wir führen einen numerischen Ansatz für solche Systeme ein und schlagen eine neue Möglichkeit vor, um Konvergenzergebnisse von driftimpliziten Methoden für SDEs auf stochastische Differential-Algebraische Gleichungen (SDAEs) zu erweitern. Dies ist wichtig, da viele Methoden für SDEs gut entwickelt sind, aber im Allgemeinen nicht für SDAEs in Betracht gezogen werden.
Darüber hinaus untersuchen wir praktische Anwendungen in der Schaltkreis- und Gasnetzwerksimulation und diskutieren die dabei auftretenden Herausforderungen und Einschränkungen. Insbesondere stellen wir dabei auch einen Modellierungsansatz für Gasnetzwerke bestehend aus Rohren und algebraischen Komponenten vor. Abschließend testen wir in beiden Anwendungsfeldern die numerische Konvergenz anhand konkreter Beispiele mit verschiedenen Arten von stochastischer Modellierung. / This dissertation delves into the analysis of semi-explicit systems of stochastic differential equations (SDEs) coupled with stochastic partial differential equations (SPDEs) and algebraic equations (AEs) with possibly noise-driven operators.
These systems play a crucial role in modeling real-world applications, such as electrical circuits and gas networks. The main contribution of this work is to provide a setting in which these semi-explicit systems have a unique solution even with stochastic influences in the algebraic constraints.
We introduce a numerical approach for such systems and propose a new approach for extending convergence results of drift-implicit methods for SDEs to stochastic differential-algebraic equations (SDAEs). This is important, as many methods are well-developed for SDEs but generally not considered for SDAEs.
Furthermore, we examine practical applications in circuit and gas network simulation, discussing the challenges and limitations encountered. In particular, we provide a modeling approach for gas networks consisting of pipes and algebraic components. To conclude, we test numerical convergence in both application settings on concrete examples with different types of stochastic modeling.
|
119 |
Influence of Molecular Diffusion on the Transport of Passive Tracers in 2D Laminar FlowsPöschke, Patrick 05 November 2018 (has links)
In dieser Arbeit betrachten wir das Strömungs-Diffusions-(Reaktions)-Problem für
passive Markerteilchen, die in zweidimensionalen laminaren Strömungsmustern mit
geringem thermischem Rauschen gelöst sind. Der deterministische Fluss umfasst Zellen
in Form von Quadraten oder Katzenaugen. In ihnen tritt Rotationsbewegung auf.
Einige der Strömungen bestehen aus wellenförmigen Bereichen mit gerader Vorwärtsbewegung.
Alle Systeme sind entweder periodisch oder durch Wände begrenzt. Eine
untersuchte Familie von Strömungen interpoliert kontinuierlich zwischen Reihen von
Wirbeln und Scherflüssen. Wir analysieren zahlreiche numerische Simulationen, die
bisherige theoretische Vorhersagen bestätigen und neue Phänomene offenbaren. Ohne
Rauschen sind die Teilchen in einzelnen Bestandteilen des Flusses für immer gefangen.
Durch Hinzufügen von schwachem thermischen Rauschen wird die normale Diffusion
für lange Zeiten stark verstärkt und führt zu verschiedenen Diffusionsarten für
mittlere Zeiten. Mit Continuous-Time-Random-Walk-Modellen leiten wir analytische
Ausdrücke in Übereinstimmung mit den numerischen Ergebnissen her, die je nach
Parametern, Anfangsbedingungen und Alterungszeiten von subdiffusiver bis superballistischer
anomaler Diffusion für mittlere Zeiten reichen. Wir sehen deutlich, dass
einige der früheren Vorhersagen nur für Teilchen gelten, die an der Separatrix des
Flusses starten - der einzige Fall, der in der Vergangenheit ausführlich betrachtet wurde
- und dass das System zu vollkommen anderem Verhalten in anderen Situationen
führen kann, einschließlich einem Schwingenden beim Start im Zentrum einesWirbels
nach einer gewissen Alterungszeit. Darüber hinaus enthüllen die Simulationen, dass
Teilchenreaktionen dort häufiger auftreten, wo sich die Geschwindigkeit der Strömung
stark ändert, was dazu führt, dass langsame Teilchen von schnelleren getroffen werden,
die ihnen folgen.
Die umfangreichen numerischen Simulationen, die für diese Arbeit durchgeführt
wurden, mussten jetzt durchgeführt werden, da wir die Rechenleistung dafür besitzen. / In this thesis, we consider the advection-diffusion-(reaction) problem for passive tracer
particles suspended in two-dimensional laminar flow patterns with small thermal noise.
The deterministic flow comprises cells in the shape of either squares or cat’s eyes. Rotational
motion occurs inside them. Some of the flows consist of sinusoidal regions of
straight forward motion. All systems are either periodic or are bounded by walls. One
examined family of flows continuously interpolates between arrays of eddies and shear
flows. We analyse extensive numerical simulations, which confirm previous theoretical
predictions as well as reveal new phenomena. Without noise, particles are trapped
forever in single building blocks of the flow. Adding small thermal noise, leads to
largely enhanced normal diffusion for long times and several kinds of diffusion for
intermediate times. Using continuous time random walk models, we derive analytical
expressions in accordance with numerical results, ranging from subdiffusive to superballistic
anomalous diffusion for intermediate times depending on parameters, initial
conditions and aging time. We clearly see, that some of the previous predictions are
only true for particles starting at the separatrix of the flow - the only case considered in
depth in the past - and that the system might show a vastly different behavior in other
situations, including an oscillatory one, when starting in the center of an eddy after a
certain aging time. Furthermore, simulations reveal that particle reactions occur more
frequently at positions where the velocity of the flow changes the most, resulting in
slow particles being hit by faster ones following them.
The extensive numerical simulations performed for this thesis had to be done now
that we have the computational means to do so. Machines are powerful tools in order
to gain a deeper and more detailed insight into the dynamics of many complicated dynamical
and stochastic systems.
|
120 |
Efficient Algorithms for the Computation of Optimal Quadrature Points on Riemannian ManifoldsGräf, Manuel 05 August 2013 (has links) (PDF)
We consider the problem of numerical integration, where one aims to approximate an integral of a given continuous function from the function values at given sampling points, also known as quadrature points. A useful framework for such an approximation process is provided by the theory of reproducing kernel Hilbert spaces and the concept of the worst case quadrature error. However, the computation of optimal quadrature points, which minimize the worst case quadrature error, is in general a challenging task and requires efficient algorithms, in particular for large numbers of points.
The focus of this thesis is on the efficient computation of optimal quadrature points on the torus T^d, the sphere S^d, and the rotation group SO(3). For that reason we present a general framework for the minimization of the worst case quadrature error on Riemannian manifolds, in order to construct numerically such quadrature points. Therefore, we consider, for N quadrature points on a manifold M, the worst case quadrature error as a function defined on the product manifold M^N. For the optimization on such high dimensional manifolds we make use of the method of steepest descent, the Newton method, and the conjugate gradient method, where we propose two efficient evaluation approaches for the worst case quadrature error and its derivatives. The first evaluation approach follows ideas from computational physics, where we interpret the quadrature error as a pairwise potential energy. These ideas allow us to reduce for certain instances the complexity of the evaluations from O(M^2) to O(M log(M)). For the second evaluation approach we express the worst case quadrature error in Fourier domain. This enables us to utilize the nonequispaced fast Fourier transforms for the torus T^d, the sphere S^2, and the rotation group SO(3), which reduce the computational complexity of the worst case quadrature error for polynomial spaces with degree N from O(N^k M) to O(N^k log^2(N) + M), where k is the dimension of the corresponding manifold. For the usual choice N^k ~ M we achieve the complexity O(M log^2(M)) instead of O(M^2). In conjunction with the proposed conjugate gradient method on Riemannian manifolds we arrive at a particular efficient optimization approach for the computation of optimal quadrature points on the torus T^d, the sphere S^d, and the rotation group SO(3).
Finally, with the proposed optimization methods we are able to provide new lists with quadrature formulas for high polynomial degrees N on the sphere S^2, and the rotation group SO(3). Further applications of the proposed optimization framework are found due to the interesting connections between worst case quadrature errors, discrepancies and potential energies. Especially, discrepancies provide us with an intuitive notion for describing the uniformity of point distributions and are of particular importance for high dimensional integration in quasi-Monte Carlo methods. A generalized form of uniform point distributions arises in applications of image processing and computer graphics, where one is concerned with the problem of distributing points in an optimal way accordingly to a prescribed density function. We will show that such problems can be naturally described by the notion of discrepancy, and thus fit perfectly into the proposed framework. A typical application is halftoning of images, where nonuniform distributions of black dots create the illusion of gray toned images. We will see that the proposed optimization methods compete with state-of-the-art halftoning methods.
|
Page generated in 0.0368 seconds