• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Adaptive Netzverfeinerung in der Formoptimierung mit der Methode der Diskreten Adjungierten

Günnel, Andreas 15 April 2010 (has links) (PDF)
Formoptimierung bezeichnet die Bestimmung der Geometrischen Gestalt eines Gebietes auf dem eine partielle Differentialgleichung (PDE) wirkt, sodass bestimmte gegebene Zielgrößen, welche von der Lösung der PDE abhängen, Extrema annehmen. Bei der Diskret Adjungierten Methode wird der Gradient einer Zielgröße bezüglich einer beliebigen Anzahl von Formparametern mit Hilfe der Lösung einer adjungierten Gleichung der diskretisierten PDE effizient ermittelt. Dieser Gradient wird dann in Verfahren der numerischen Optimierung verwendet um eine optimale Lösung zu suchen. Da sowohl die Zielgröße als auch der Gradient für die diskretisierte PDE ermittelt werden, sind beide zunächst vom verwendeten Netz abhängig. Bei groben Netzen sind sogar Unstetigkeiten der diskreten Zielfunktion zu erwarten, wenn bei Änderungen der Formparameter sich das Netz unstetig ändert (z.B. Änderung Anzahl Knoten, Umschalten der Konnektivität). Mit zunehmender Feinheit der Netze verschwinden jedoch diese Unstetigkeiten aufgrund der Konvergenz der Diskretisierung. Da im Zuge der Formoptimierung Zielgröße und Gradient für eine Vielzahl von Iterierten der Lösung bestimmt werden müssen, ist man bestrebt die Kosten einer einzelnen Auswertung möglichst gering zu halten, z.B. indem man mit nur moderat feinen oder adaptiv verfeinerten Netzen arbeitet. Aufgabe dieser Diplomarbeit ist es zu untersuchen, ob mit gängigen Methoden adaptiv verfeinerte Netze hinreichende Genauigkeit der Auswertung von Zielgröße und Gradient erlauben und ob eventuell Anpassungen der Optimierungsstrategie an die adaptive Vernetzung notwendig sind. Für die Untersuchungen sind geeignete Modellprobleme aus der Festigkeitslehre zu wählen und zu untersuchen. / Shape optimization describes the determination of the geometric shape of a domain with a partial differential equation (PDE) with the purpose that a specific given performance function is minimized, its values depending on the solution of the PDE. The Discrete Adjoint Method can be used to evaluate the gradient of a performance function with respect to an arbitrary number of shape parameters by solving an adjoint equation of the discretized PDE. This gradient is used in the numerical optimization algorithm to search for the optimal solution. As both function value and gradient are computed for the discretized PDE, they both fundamentally depend on the discretization. In using the coarse meshes, discontinuities in the discretized objective function can be expected if the changes in the shape parameters cause discontinuous changes in the mesh (e.g. change in the number of nodes, switching of connectivity). Due to the convergence of the discretization these discontinuities vanish with increasing fineness of the mesh. In the course of shape optimization, function value and gradient require evaluation for a large number of iterations of the solution, therefore minimizing the costs of a single computation is desirable (e.g. using moderately or adaptively refined meshes). Overall, the task of the diploma thesis is to investigate if adaptively refined meshes with established methods offer sufficient accuracy of the objective value and gradient, and if the optimization strategy requires readjustment to the adaptive mesh design. For the investigation, applicable model problems from the science of the strength of materials will be chosen and studied.
2

Adaptive Netzverfeinerung in der Formoptimierung mit der Methode der Diskreten Adjungierten

Günnel, Andreas 22 January 2010 (has links)
Formoptimierung bezeichnet die Bestimmung der Geometrischen Gestalt eines Gebietes auf dem eine partielle Differentialgleichung (PDE) wirkt, sodass bestimmte gegebene Zielgrößen, welche von der Lösung der PDE abhängen, Extrema annehmen. Bei der Diskret Adjungierten Methode wird der Gradient einer Zielgröße bezüglich einer beliebigen Anzahl von Formparametern mit Hilfe der Lösung einer adjungierten Gleichung der diskretisierten PDE effizient ermittelt. Dieser Gradient wird dann in Verfahren der numerischen Optimierung verwendet um eine optimale Lösung zu suchen. Da sowohl die Zielgröße als auch der Gradient für die diskretisierte PDE ermittelt werden, sind beide zunächst vom verwendeten Netz abhängig. Bei groben Netzen sind sogar Unstetigkeiten der diskreten Zielfunktion zu erwarten, wenn bei Änderungen der Formparameter sich das Netz unstetig ändert (z.B. Änderung Anzahl Knoten, Umschalten der Konnektivität). Mit zunehmender Feinheit der Netze verschwinden jedoch diese Unstetigkeiten aufgrund der Konvergenz der Diskretisierung. Da im Zuge der Formoptimierung Zielgröße und Gradient für eine Vielzahl von Iterierten der Lösung bestimmt werden müssen, ist man bestrebt die Kosten einer einzelnen Auswertung möglichst gering zu halten, z.B. indem man mit nur moderat feinen oder adaptiv verfeinerten Netzen arbeitet. Aufgabe dieser Diplomarbeit ist es zu untersuchen, ob mit gängigen Methoden adaptiv verfeinerte Netze hinreichende Genauigkeit der Auswertung von Zielgröße und Gradient erlauben und ob eventuell Anpassungen der Optimierungsstrategie an die adaptive Vernetzung notwendig sind. Für die Untersuchungen sind geeignete Modellprobleme aus der Festigkeitslehre zu wählen und zu untersuchen. / Shape optimization describes the determination of the geometric shape of a domain with a partial differential equation (PDE) with the purpose that a specific given performance function is minimized, its values depending on the solution of the PDE. The Discrete Adjoint Method can be used to evaluate the gradient of a performance function with respect to an arbitrary number of shape parameters by solving an adjoint equation of the discretized PDE. This gradient is used in the numerical optimization algorithm to search for the optimal solution. As both function value and gradient are computed for the discretized PDE, they both fundamentally depend on the discretization. In using the coarse meshes, discontinuities in the discretized objective function can be expected if the changes in the shape parameters cause discontinuous changes in the mesh (e.g. change in the number of nodes, switching of connectivity). Due to the convergence of the discretization these discontinuities vanish with increasing fineness of the mesh. In the course of shape optimization, function value and gradient require evaluation for a large number of iterations of the solution, therefore minimizing the costs of a single computation is desirable (e.g. using moderately or adaptively refined meshes). Overall, the task of the diploma thesis is to investigate if adaptively refined meshes with established methods offer sufficient accuracy of the objective value and gradient, and if the optimization strategy requires readjustment to the adaptive mesh design. For the investigation, applicable model problems from the science of the strength of materials will be chosen and studied.
3

Adaptive Discontinuous Petrov-Galerkin Finite-Element-Methods

Hellwig, Friederike 12 June 2019 (has links)
Die vorliegende Arbeit "Adaptive Discontinuous Petrov-Galerkin Finite-Element-Methods" beweist optimale Konvergenzraten für vier diskontinuierliche Petrov-Galerkin (dPG) Finite-Elemente-Methoden für das Poisson-Modell-Problem für genügend feine Anfangstriangulierung. Sie zeigt dazu die Äquivalenz dieser vier Methoden zu zwei anderen Klassen von Methoden, den reduzierten gemischten Methoden und den verallgemeinerten Least-Squares-Methoden. Die erste Klasse benutzt ein gemischtes System aus konformen Courant- und nichtkonformen Crouzeix-Raviart-Finite-Elemente-Funktionen. Die zweite Klasse verallgemeinert die Standard-Least-Squares-Methoden durch eine Mittelpunktsquadratur und Gewichtsfunktionen. Diese Arbeit verallgemeinert ein Resultat aus [Carstensen, Bringmann, Hellwig, Wriggers 2018], indem die vier dPG-Methoden simultan als Spezialfälle dieser zwei Klassen charakterisiert werden. Sie entwickelt alternative Fehlerschätzer für beide Methoden und beweist deren Zuverlässigkeit und Effizienz. Ein Hauptresultat der Arbeit ist der Beweis optimaler Konvergenzraten der adaptiven Methoden durch Beweis der Axiome aus [Carstensen, Feischl, Page, Praetorius 2014]. Daraus folgen dann insbesondere die optimalen Konvergenzraten der vier dPG-Methoden. Numerische Experimente bestätigen diese optimalen Konvergenzraten für beide Klassen von Methoden. Außerdem ergänzen sie die Theorie durch ausführliche Vergleiche beider Methoden untereinander und mit den äquivalenten dPG-Methoden. / The thesis "Adaptive Discontinuous Petrov-Galerkin Finite-Element-Methods" proves optimal convergence rates for four lowest-order discontinuous Petrov-Galerkin methods for the Poisson model problem for a sufficiently small initial mesh-size in two different ways by equivalences to two other non-standard classes of finite element methods, the reduced mixed and the weighted Least-Squares method. The first is a mixed system of equations with first-order conforming Courant and nonconforming Crouzeix-Raviart functions. The second is a generalized Least-Squares formulation with a midpoint quadrature rule and weight functions. The thesis generalizes a result on the primal discontinuous Petrov-Galerkin method from [Carstensen, Bringmann, Hellwig, Wriggers 2018] and characterizes all four discontinuous Petrov-Galerkin methods simultaneously as particular instances of these methods. It establishes alternative reliable and efficient error estimators for both methods. A main accomplishment of this thesis is the proof of optimal convergence rates of the adaptive schemes in the axiomatic framework [Carstensen, Feischl, Page, Praetorius 2014]. The optimal convergence rates of the four discontinuous Petrov-Galerkin methods then follow as special cases from this rate-optimality. Numerical experiments verify the optimal convergence rates of both types of methods for different choices of parameters. Moreover, they complement the theory by a thorough comparison of both methods among each other and with their equivalent discontinuous Petrov-Galerkin schemes.
4

Direct guaranteed lower eigenvalue bounds with quasi-optimal adaptive mesh-refinement

Puttkammer, Sophie Louise 19 January 2024 (has links)
Garantierte untere Eigenwertschranken (GLB) für elliptische Eigenwertprobleme partieller Differentialgleichungen sind in der Theorie sowie in praktischen Anwendungen relevant. Auf Grund des Rayleigh-Ritz- (oder) min-max-Prinzips berechnen alle konformen Finite-Elemente-Methoden (FEM) garantierte obere Schranken. Ein Postprocessing nichtkonformer Methoden von Carstensen und Gedicke (Math. Comp., 83.290, 2014) sowie Carstensen und Gallistl (Numer. Math., 126.1, 2014) berechnet GLB. In diesen Schranken ist die maximale Netzweite ein globaler Parameter, das kann bei adaptiver Netzverfeinerung zu deutlichen Unterschätzungen führen. In einigen numerischen Beispielen versagt dieses Postprocessing für lokal verfeinerte Netze komplett. Diese Dissertation präsentiert, inspiriert von einer neuen skeletal-Methode von Carstensen, Zhai und Zhang (SIAM J. Numer. Anal., 58.1, 2020), einerseits eine modifizierte hybrid-high-order Methode (m=1) und andererseits ein allgemeines Framework für extra-stabilisierte nichtkonforme Crouzeix-Raviart (m=1) bzw. Morley (m=2) FEM. Diese neuen Methoden berechnen direkte GLB für den m-Laplace-Operator, bei denen eine leicht überprüfbare Bedingung an die maximale Netzweite garantiert, dass der k-te diskrete Eigenwert eine untere Schranke für den k-ten Dirichlet-Eigenwert ist. Diese GLB-Eigenschaft und a priori Konvergenzraten werden für jede Raumdimension etabliert. Der neu entwickelte Ansatz erlaubt adaptive Netzverfeinerung, die für optimale Konvergenzraten auch bei nichtglatten Eigenfunktionen erforderlich ist. Die Überlegenheit der neuen adaptiven FEM wird durch eine Vielzahl repräsentativer numerischer Beispiele illustriert. Für die extra-stabilisierte GLB wird bewiesen, dass sie mit optimalen Raten gegen einen einfachen Eigenwert konvergiert, indem die Axiome der Adaptivität von Carstensen, Feischl, Page und Praetorius (Comput. Math. Appl., 67.6, 2014) sowie Carstensen und Rabus (SIAM J. Numer. Anal., 55.6, 2017) verallgemeinert werden. / Guaranteed lower eigenvalue bounds (GLB) for elliptic eigenvalue problems of partial differential equation are of high relevance in theory and praxis. Due to the Rayleigh-Ritz (or) min-max principle all conforming finite element methods (FEM) provide guaranteed upper eigenvalue bounds. A post-processing for nonconforming FEM of Carstensen and Gedicke (Math. Comp., 83.290, 2014) as well as Carstensen and Gallistl (Numer. Math., 126.1,2014) computes GLB. However, the maximal mesh-size enters as a global parameter in the eigenvalue bound and may cause significant underestimation for adaptive mesh-refinement. There are numerical examples, where this post-processing on locally refined meshes fails completely. Inspired by a recent skeletal method from Carstensen, Zhai, and Zhang (SIAM J. Numer. Anal., 58.1, 2020) this thesis presents on the one hand a modified hybrid high-order method (m=1) and on the other hand a general framework for an extra-stabilized nonconforming Crouzeix-Raviart (m=1) or Morley (m=2) FEM. These novel methods compute direct GLB for the m-Laplace operator in that a specific smallness assumption on the maximal mesh-size guarantees that the computed k-th discrete eigenvalue is a lower bound for the k-th Dirichlet eigenvalue. This GLB property as well as a priori convergence rates are established in any space dimension. The novel ansatz allows for adaptive mesh-refinement necessary to recover optimal convergence rates for non-smooth eigenfunctions. Striking numerical evidence indicates the superiority of the new adaptive eigensolvers. For the extra-stabilized nonconforming methods (a generalization of) known abstract arguments entitled as the axioms of adaptivity from Carstensen, Feischl, Page, and Praetorius (Comput. Math. Appl., 67.6, 2014) as well as Carstensen and Rabus (SIAM J. Numer. Anal., 55.6, 2017) allow to prove the convergence of the GLB towards a simple eigenvalue with optimal rates.
5

Adaptive least-squares finite element method with optimal convergence rates

Bringmann, Philipp 29 January 2021 (has links)
Die Least-Squares Finite-Elemente-Methoden (LSFEMn) basieren auf der Minimierung des Least-Squares-Funktionals, das aus quadrierten Normen der Residuen eines Systems von partiellen Differentialgleichungen erster Ordnung besteht. Dieses Funktional liefert einen a posteriori Fehlerschätzer und ermöglicht die adaptive Verfeinerung des zugrundeliegenden Netzes. Aus zwei Gründen versagen die gängigen Methoden zum Beweis optimaler Konvergenzraten, wie sie in Carstensen, Feischl, Page und Praetorius (Comp. Math. Appl., 67(6), 2014) zusammengefasst werden. Erstens scheinen fehlende Vorfaktoren proportional zur Netzweite den Beweis einer schrittweisen Reduktion der Least-Squares-Schätzerterme zu verhindern. Zweitens kontrolliert das Least-Squares-Funktional den Fehler der Fluss- beziehungsweise Spannungsvariablen in der H(div)-Norm, wodurch ein Datenapproximationsfehler der rechten Seite f auftritt. Diese Schwierigkeiten führten zu einem zweifachen Paradigmenwechsel in der Konvergenzanalyse adaptiver LSFEMn in Carstensen und Park (SIAM J. Numer. Anal., 53(1), 2015) für das 2D-Poisson-Modellproblem mit Diskretisierung niedrigster Ordnung und homogenen Dirichlet-Randdaten. Ein neuartiger expliziter residuenbasierter Fehlerschätzer ermöglicht den Beweis der Reduktionseigenschaft. Durch separiertes Markieren im adaptiven Algorithmus wird zudem der Datenapproximationsfehler reduziert. Die vorliegende Arbeit verallgemeinert diese Techniken auf die drei linearen Modellprobleme das Poisson-Problem, die Stokes-Gleichungen und das lineare Elastizitätsproblem. Die Axiome der Adaptivität mit separiertem Markieren nach Carstensen und Rabus (SIAM J. Numer. Anal., 55(6), 2017) werden in drei Raumdimensionen nachgewiesen. Die Analysis umfasst Diskretisierungen mit beliebigem Polynomgrad sowie inhomogene Dirichlet- und Neumann-Randbedingungen. Abschließend bestätigen numerische Experimente mit dem h-adaptiven Algorithmus die theoretisch bewiesenen optimalen Konvergenzraten. / The least-squares finite element methods (LSFEMs) base on the minimisation of the least-squares functional consisting of the squared norms of the residuals of first-order systems of partial differential equations. This functional provides a reliable and efficient built-in a posteriori error estimator and allows for adaptive mesh-refinement. The established convergence analysis with rates for adaptive algorithms, as summarised in the axiomatic framework by Carstensen, Feischl, Page, and Praetorius (Comp. Math. Appl., 67(6), 2014), fails for two reasons. First, the least-squares estimator lacks prefactors in terms of the mesh-size, what seemingly prevents a reduction under mesh-refinement. Second, the first-order divergence LSFEMs measure the flux or stress errors in the H(div) norm and, thus, involve a data resolution error of the right-hand side f. These difficulties led to a twofold paradigm shift in the convergence analysis with rates for adaptive LSFEMs in Carstensen and Park (SIAM J. Numer. Anal., 53(1), 2015) for the lowest-order discretisation of the 2D Poisson model problem with homogeneous Dirichlet boundary conditions. Accordingly, some novel explicit residual-based a posteriori error estimator accomplishes the reduction property. Furthermore, a separate marking strategy in the adaptive algorithm ensures the sufficient data resolution. This thesis presents the generalisation of these techniques to three linear model problems, namely, the Poisson problem, the Stokes equations, and the linear elasticity problem. It verifies the axioms of adaptivity with separate marking by Carstensen and Rabus (SIAM J. Numer. Anal., 55(6), 2017) in three spatial dimensions. The analysis covers discretisations with arbitrary polynomial degree and inhomogeneous Dirichlet and Neumann boundary conditions. Numerical experiments confirm the theoretically proven optimal convergence rates of the h-adaptive algorithm.

Page generated in 0.0801 seconds