• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 7
  • 4
  • 1
  • Tagged with
  • 21
  • 13
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Optimalstrukturen aus funktional gradierten Betonbauteilen – Entwurf, Berechnung und automatisierte Herstellung

Wörner, Mark, Schmeer, Daniel, Garrecht, Harald, Sawodny, Oliver, Sobek, Werner 21 July 2022 (has links)
aus der Einführung: „Infolge des stetigen Bevölkerungswachstums und zunehmender Migrationsbewegungen wird die Baubranche zukünftig mit einer hohen zu bewältigenden Bautätigkeit konfrontiert sein. Dies geht einher mit einer Verknappung endlicher Ressourcen. In Anbetracht dieser Situation werden neue Technologien, die auf ein möglichst leichtes Bauen, die Minimierung des Verbrauchs an fossil erzeugter Energie sowie die vollständige Rezyklierbarkeit der Bauteile abzielen, zwingend notwendig [1]. Insbesondere beim Bauen mit Beton, der neben Wasser der meistverbrauchte Stoff weltweit ist [2], besteht ein dringender Handlungsbedarf, gewichtsreduzierte, emissionsminimierte und sortenrein rezyklierbare Bauteile zu entwickeln....” / from the introduction: „Owing to the steady population growth and increasing migration, the construction industry will be faced with the need to deal with a high level of construction activity coinciding with a global scarcity of fi nite resources. In view of this situation, new construction methods will become imperative in order to make construction as light as possible, while minimizing the consumption of fossil based energy and ensuring the fully recyclability of the components [1]. Most of all, when the construction material being used is concrete – which, together with water, is the material most frequently used around the globe [2] – an urgent need for action exists with regard to the development of components that are weight-reduced, energy-minimized and recyclable....”
12

Ein Sequenzdesign-Algorithmus für verzweigte DNA-Strukturen / A Sequence Design Algorithm for Branched DNA Structures

Seiffert, Jan 28 November 2008 (has links) (PDF)
Aufgrund ihrer Selbstorganisationseigenschaften besitzt DNA ein großes Potential für den Einsatz in Bottom-up-Techniken der Nanotechnologie. So erlaubt DNA eine genau definierte Anordnung von Bauelementen im Abstand von nur wenigen Nanometern. Zum Beispiel kann ein regelmäßig mit Metallclustern oder Proteinen bestücktes DNA-Netz als Katalysator oder in Sensoren eingesetzt werden. DNA wird außerdem als Templat für Nanodrähte benutzt und kann deshalb eine wichtige Rolle in einer zukünftigen Nanoelektronik spielen. DNA-Strukturen entstehen meist durch Selbsassemblierung von Einzelstrangmolekülen während einer Hybridisierung. Die Assemblierung wird dabei durch die Basensequenzen der beteiligten Einzelstränge gesteuert. Das bedeutet: Die Basensequenzen der Einzelstränge definieren die Gestalt der entstehenden Struktur. Diese Dissertation stellt Regeln für Sequenzkonfigurationen vor, welche DNA-Einzelstränge erfüllen müssen, damit die erfolgreiche Selbstassemblierung einer gewünschten Zielstruktur erfolgreich sein kann. Das Grundprinzip dieser Regeln ist eine Minimierung der Länge von Basenfehlpaarungen. Es wird ein Algorithmus entwickelt, welcher diese Regeln umsetzt und für beliebige Zielstrukturen passende Sequenzkonfigurationen erzeugt. Der Algorithmus arbeitet vollautomatisch und ist für die meisten Strukturgrößen sehr schnell. Eine Java-Implementierung des Algorithmus mit Namen Seed ist unter http://nano.tu-dresden.de/~jseiffert/Seed/ frei erhältlich. Abschließend präsentiert diese Arbeit ein Experiment, in welchem eine Reihe von Double-Crossover-(DX)-Molekülen zu einer langen Kette verbunden werden. Die Sequenzkonfiguration für dieses Experiment wurde mit Seed erstellt und zeigt die Anwendungsfähigkeit des vorgestellten Algorithmus. / Due to its self-recognition abilities, DNA has a great potential to disclose new bottom-up routes towards nanofabrication. DNA allows well-defined arrangements of building blocks with only a few nanometer distance. For example, a DNA network with regulary attached metal beeds or proteins can be placed on a surface to act as a catalyst or a sensor. DNA can also be used as template for nanowires and, therefore, might play a major role in future nanoelectronics. DNA structures mostly assemble themselves by hybridization of single stranded DNA molecules. The self-assemby process is controlled by the base sequences of the single strands: The sequence configuration defines the shape of the resulting structure. This thesis introduces rules for sequence configuration that DNA strands must fullfill to produce a desired target structure in a hybridazation process. The basic principle of these rules is a mismatch minimization. An algorithm is presented, which generates suitable sequence configurations according to the introduced rules. The algorithm can handle any DNA structures, works full-automatically, and for most structure dimensions, is very fast. A Java-implementation of the algorithm called Seed is freely available at http://nano.tu-dresden.de/~jseiffert/Seed/. Finally, this work describes a structure building experiment, where a number of double crossover (DX) molecules were concatenated into a long chain. The sequence configuration for this experiment was generated by the developed program Seed showing the use of the presented algorithm.
13

Ein Sequenzdesign-Algorithmus für verzweigte DNA-Strukturen

Seiffert, Jan 07 November 2008 (has links)
Aufgrund ihrer Selbstorganisationseigenschaften besitzt DNA ein großes Potential für den Einsatz in Bottom-up-Techniken der Nanotechnologie. So erlaubt DNA eine genau definierte Anordnung von Bauelementen im Abstand von nur wenigen Nanometern. Zum Beispiel kann ein regelmäßig mit Metallclustern oder Proteinen bestücktes DNA-Netz als Katalysator oder in Sensoren eingesetzt werden. DNA wird außerdem als Templat für Nanodrähte benutzt und kann deshalb eine wichtige Rolle in einer zukünftigen Nanoelektronik spielen. DNA-Strukturen entstehen meist durch Selbsassemblierung von Einzelstrangmolekülen während einer Hybridisierung. Die Assemblierung wird dabei durch die Basensequenzen der beteiligten Einzelstränge gesteuert. Das bedeutet: Die Basensequenzen der Einzelstränge definieren die Gestalt der entstehenden Struktur. Diese Dissertation stellt Regeln für Sequenzkonfigurationen vor, welche DNA-Einzelstränge erfüllen müssen, damit die erfolgreiche Selbstassemblierung einer gewünschten Zielstruktur erfolgreich sein kann. Das Grundprinzip dieser Regeln ist eine Minimierung der Länge von Basenfehlpaarungen. Es wird ein Algorithmus entwickelt, welcher diese Regeln umsetzt und für beliebige Zielstrukturen passende Sequenzkonfigurationen erzeugt. Der Algorithmus arbeitet vollautomatisch und ist für die meisten Strukturgrößen sehr schnell. Eine Java-Implementierung des Algorithmus mit Namen Seed ist unter http://nano.tu-dresden.de/~jseiffert/Seed/ frei erhältlich. Abschließend präsentiert diese Arbeit ein Experiment, in welchem eine Reihe von Double-Crossover-(DX)-Molekülen zu einer langen Kette verbunden werden. Die Sequenzkonfiguration für dieses Experiment wurde mit Seed erstellt und zeigt die Anwendungsfähigkeit des vorgestellten Algorithmus. / Due to its self-recognition abilities, DNA has a great potential to disclose new bottom-up routes towards nanofabrication. DNA allows well-defined arrangements of building blocks with only a few nanometer distance. For example, a DNA network with regulary attached metal beeds or proteins can be placed on a surface to act as a catalyst or a sensor. DNA can also be used as template for nanowires and, therefore, might play a major role in future nanoelectronics. DNA structures mostly assemble themselves by hybridization of single stranded DNA molecules. The self-assemby process is controlled by the base sequences of the single strands: The sequence configuration defines the shape of the resulting structure. This thesis introduces rules for sequence configuration that DNA strands must fullfill to produce a desired target structure in a hybridazation process. The basic principle of these rules is a mismatch minimization. An algorithm is presented, which generates suitable sequence configurations according to the introduced rules. The algorithm can handle any DNA structures, works full-automatically, and for most structure dimensions, is very fast. A Java-implementation of the algorithm called Seed is freely available at http://nano.tu-dresden.de/~jseiffert/Seed/. Finally, this work describes a structure building experiment, where a number of double crossover (DX) molecules were concatenated into a long chain. The sequence configuration for this experiment was generated by the developed program Seed showing the use of the presented algorithm.
14

Unstabilized hybrid high-order method for a class of degenerate convex minimization problems

Tran, Ngoc Tien 02 November 2021 (has links)
Die Relaxation in der Variationsrechnung führt zu Minimierungsaufgaben mit einer quasi-konvexen Energiedichte. In der nichtlinearen Elastizität, Topologieoptimierung, oder bei Mehrphasenmodellen sind solche Energiedichten konvex mit einer zusätzlichen Kontrolle in der dualen Variablen und einem beidseitigem Wachstum der Ordnung $p$. Diese Minimierungsprobleme haben im Allgemeinen mehrere Lösungen, welche dennoch eine eindeutige Spannung $\sigma$ definieren. Die Approximation mit der „hybrid high-order“ (HHO) Methode benutzt eine Rekonstruktion des Gradienten in dem Raum der stückweisen Raviart-Thomas Finiten Elemente ohne Stabilisierung auf einer Triangulierung in Simplexen. Die Anwendung dieser Methode auf die Klasse der degenerierten, konvexen Minimierungsprobleme liefert eine eindeutig bestimmte, $H(\div)$ konforme Approximation $\sigma_h$ der Spannung. Die a priori Abschätzungen in dieser Arbeit gelten für gemischten Randbedingungen ohne weitere Voraussetzung an der primalen Variablen und erlauben es, Konvergenzraten bei glatten Lösungen vorherzusagen. Die a posteriori Analysis führt auf garantierte obere Fehlerschranken, eine berechenbare untere Energieschranke, sowie einen konvergenten adaptiven Algorithmus. Die numerischen Beispiele zeigen höhere Konvergenzraten mit zunehmenden Polynomgrad und bestätigen empirisch die superlineare Konvergenz der unteren Energieschranke. Obwohl der Fokus dieser Arbeit auf die nicht stabilisierte HHO Methode liegt, wird eine detaillierte Fehleranalysis für die stabilisierte Version mit einer Gradientenrekonstruktion im Raum der stückweisen Polynome präsentiert. / The relaxation procedure in the calculus of variations leads to minimization problems with a quasi-convex energy density. In some problems of nonlinear elasticity, topology optimization, and multiphase models, the energy density is convex with some convexity control plus two-sided $p$-growth. The minimizers may be non-unique in the primal variable, but define a unique stress variable $\sigma$. The approximation by hybrid high-order (HHO) methods utilizes a reconstruction of the gradients in the space of piecewise Raviart-Thomas finite element functions without stabilization on a regular triangulation into simplices. The application of the HHO methodology to this class of degenerate convex minimization problems allows for a unique $H(\div)$ conform stress approximation $\sigma_h$. The a priori estimates for the stress error $\sigma - \sigma_h$ in the Lebesgue norm are established for mixed boundary conditions without additional assumptions on the primal variable and lead to convergence rates for smooth solutions. The a posteriori analysis provides guaranteed error control, including a computable lower energy bound, and a convergent adaptive scheme. Numerical benchmarks display higher convergence rates for higher polynomial degrees and provide empirical evidence for the superlinear convergence of the lower energy bound. Although the focus is on the unstabilized HHO method, a detailed error analysis is provided for the stabilized version with a gradient reconstruction in the space of piecewise polynomials.
15

Entwicklung eines effizienten Montageplanungssystems auf Basis von Funktionsfolgen

Nguyen Dang, Tan 09 May 2019 (has links)
Die gängige Methodik zum Konzipieren automatisierter Montagesysteme umfasst die Planung der Montage und die physische Entwicklung der technischen Gesamtlösung. Zur Abbildung der konkreten Aufgabe werden standardisierte Symbole in einem Ablaufplan miteinander verknüpft. Die Hauptaufgabe des Konstrukteurs ist die Auswahl und die Zusammenstellung einer optimalen Konfiguration der Funktionsträger sowie deren Implementierung in einer Gesamtlösung unter Berücksichtigung der vorgegebenen Randbedingungen. Das Problem ist der fehlende Informationsgehalt der bisher eingesetzten Handhabungssymbole und Symbole zur Ermittlung der Funktionsträger zur Beschreibung der Montage- und Handhabungsplanung sowie die fehlende Vorgehensweise zur Auswahl der Funktionsträger aus den verschiedenen Varianten nach minimaler Taktzeit und Gesamtanschaffungskosten. Zur Realisierung eines effizienten Montageplanungssystems leitet sich daher die Zielstellung ab, den Informationsgehalt der standardisierten Symbole zu erweitern und mit logischen Schnittstellen für eine automatisierte Verknüpfung in der Funktionsfolge auszustatten. Diese neuen Symbole beinhalten die Definition der Funktionen sowie alle Randbedingungen und Parameter zur eindeutigen Beschreibung der Handhabungsaufgabe. Mithilfe dieser Parameter werden Anforderungslisten erstellt und nach passenden Anlagenkomponenten gesucht. Zur Auswahl der optimalen Komponenten des Montagesystems wird das lineare Optimierungsproblem hinsichtlich der Kombination aus Taktzeit und Gesamtanschaffungskosten gelöst. / The common methodology for designing automated assembly systems involves the assembly planning and the physical development of overall technical solution. To illustrate the concrete task, standardized symbols are connected together in a flowchart. The designer's main task is the selection and the composition of an optimal configuration of the functional carriers as well as their implementation in an overall solution in consideration of the predetermined boundary conditions. One problem is the lack of information content of the previously used handling symbols and the symbols for determining the functional carriers, which describe the assembly and handling planning. The other is the insufficient methods for selecting the functional carriers from the different variants based on minimum cycle time and total acquisition cost. In order to realize an efficient assembly planning system, the objective is therefore to expand the information content of the standardized symbols and equip them with logical interfaces for automated connection in the functional sequence. These new symbols contain the definition of the functions as well as all boundary conditions and parameters for the unambiguous description of the handling task. These parameters are utilised to create requirement lists and search for suitable plant components. In order to select the optimal components of the assembly system, the linear optimization problem regarding the combination of cycle time and total acquisition costs is solved.
16

Möglichkeiten zur Steuerung von Trust-Region Verfahren im Rahmen der Parameteridentifikation

Clausner, André 05 June 2013 (has links) (PDF)
Zur Simulation technischer Prozesse ist eine hinreichend genaue Beschreibung des Materialverhaltens notwendig. Die hierfür häufig verwendeten phänomenologischen Ansätze, wie im vorliegenden Fall die HILLsche Fließbedingung, enthalten materialspezifische Parameter, welche nicht direkt messbar sind. Die Identifikation dieser Materialparameter erfolgt in der Regel durch Minimierung eines Fehlerquadratfunktionals, welches Differenzen von Messwerten und zugehörigen numerisch berechneten Vergleichswerten enthält. In diesem Zusammenhang haben sich zur Lösung dieser Minimierungsaufgabe die Trust-Region Verfahren als gut geeignet herausgestellt. Die Aufgabe besteht darin, die verschiedenen Möglichkeiten zur Steuerung eines Trust-Region Verfahrens, im Hinblick auf die Eignung für das vorliegende Identifikationsproblem, zu untersuchen. Dazu werden die Quadratmittelprobleme und deren Lösungsverfahren überblicksmäßig betrachtet. Danach wird näher auf die Trust-Region Verfahren eingegangen, wobei sich im Weiteren auf Verfahren mit positiv definiten Ansätzen für die Hesse-Matrix, den Levenberg-Marquardt Verfahren, beschränkt wird. Danach wird ein solcher Levenberg-Marquardt Algorithmus in verschiedenen Ausführungen implementiert und an dem vorliegenden Identifikationsproblem getestet. Als Ergebnis stellt sich eine gute Kombination aus verschiedenen Teilalgorithmen des Levenberg-Marquardt Algorithmus mit einer hohen Konvergenzgeschwindigkeit heraus, welche für das vorliegende Problem gut geeignet ist.
17

Anwendung von Line-Search-Strategien zur Formoptimierung und Parameteridentifikation

Clausner, André 05 June 2013 (has links) (PDF)
Die kontinuierliche Weiterentwicklung und Verbesserung technischer Prozesse erfolgt heute auf der Basis stochastischer und deterministischer Optimierungsstrategien in Kombination mit der numerischen Simulation dieser Abläufe. Da die FE-Simulation von Umformvorgängen in der Regel sehr zeitintensiv ist, bietet sich für die Optimierung solcher Prozesse der Einsatz deterministischer Methoden an, da hier weniger Optimierungsschritte und somit auch weniger FE-Simulationen notwendig sind. Eine wichtige Anforderung an solche Optimierungsverfahren ist globale Konvergenz zu lokalen Minima, da die optimalen Parametersätze nicht immer näherungsweise bekannt sind. Die zwei wichtigsten Strategien zum Ausdehnen des beschränkten Konvergenzradius der natürlichen Optimierungsverfahren (newtonschrittbasierte Verfahren und Gradientenverfahren) sind die Line-Search-Strategie und die Trust-Region-Strategie. Die Grundlagen der Line-Search-Strategie werden aufgearbeitet und die wichtigsten Teilalgorithmen implementiert. Danach wird dieses Verfahren auf eine effiziente Kombination der Teilalgorithmen und Verfahrensparameter hin untersucht. Im Anschluss wird die Leistung eines Optimierungsverfahrens mit Line-Search-Strategie verglichen mit der eines ebenfalls implementierten Optimierungsverfahrens mit skalierter Trust-Region-Strategie. Die Tests werden nach Einfügen der implementierten Verfahren in das Programm SPC-Opt anhand der Lösung eines Quadratmittelproblems aus der Materialparameteridentifikation sowie der Formoptimierung eines Umformwerkzeugs vorgenommen.
18

Möglichkeiten zur Steuerung von Trust-Region Verfahren im Rahmen der Parameteridentifikation

Clausner, André 10 May 2006 (has links)
Zur Simulation technischer Prozesse ist eine hinreichend genaue Beschreibung des Materialverhaltens notwendig. Die hierfür häufig verwendeten phänomenologischen Ansätze, wie im vorliegenden Fall die HILLsche Fließbedingung, enthalten materialspezifische Parameter, welche nicht direkt messbar sind. Die Identifikation dieser Materialparameter erfolgt in der Regel durch Minimierung eines Fehlerquadratfunktionals, welches Differenzen von Messwerten und zugehörigen numerisch berechneten Vergleichswerten enthält. In diesem Zusammenhang haben sich zur Lösung dieser Minimierungsaufgabe die Trust-Region Verfahren als gut geeignet herausgestellt. Die Aufgabe besteht darin, die verschiedenen Möglichkeiten zur Steuerung eines Trust-Region Verfahrens, im Hinblick auf die Eignung für das vorliegende Identifikationsproblem, zu untersuchen. Dazu werden die Quadratmittelprobleme und deren Lösungsverfahren überblicksmäßig betrachtet. Danach wird näher auf die Trust-Region Verfahren eingegangen, wobei sich im Weiteren auf Verfahren mit positiv definiten Ansätzen für die Hesse-Matrix, den Levenberg-Marquardt Verfahren, beschränkt wird. Danach wird ein solcher Levenberg-Marquardt Algorithmus in verschiedenen Ausführungen implementiert und an dem vorliegenden Identifikationsproblem getestet. Als Ergebnis stellt sich eine gute Kombination aus verschiedenen Teilalgorithmen des Levenberg-Marquardt Algorithmus mit einer hohen Konvergenzgeschwindigkeit heraus, welche für das vorliegende Problem gut geeignet ist.:1 Einleitung 8 2 Nichtlineare Quadratmittelprobleme 9 2.1 Herkunft der Residuen: Das Prinzip der kleinsten Fehlerquadrate 10 2.2 Auftretende Differentialmatrizen 11 2.2.1 Lipschitzbedingung für die Unterscheidung der Aufgabenklasse im Hinblick auf die Residuen 12 2.3 Aufgabenklassen 13 2.3.1 Kleine und Null-Residuen 13 2.3.2 Große Residuen 13 2.3.3 Große Probleme 14 2.4 Modellstufen für f(x) um eine lokale Konstellation xk 15 2.5 Eigenschaften der Gauß-Newton Approximation der Hesse-Matrix 16 3 Identifikation der Materialparameter der HILLschen Fließbedingung für die plastische Verformung anisotroper Werkstoffe 17 4 ¨Ubersicht über monoton fallende Optimierungsverfahren für nichtlineare Funktionen 19 4.1 Die Idee der Line-Search Verfahren 19 4.2 Die Idee der Trust-Region Verfahren 20 4.3 Übersichtstabelle Über die Verfahren zur unrestringierten Optimierung 21 4.4 Ermittlungsmethoden fÜr die Suchrichtung sk bei Line-Search Methoden 22 4.4.1 Gradientenverfahren 22 4.4.2 Das Newton Verfahren 22 4.4.3 Quasi-Newton Verfahren 23 4.4.4 Gauß-Newton Verfahren 24 4.4.5 Methode der konjugierten Gradienten 25 4.4.6 Koordinatenabstiegsmethode nach Ahlers,Schwartz,Waldmann [1] 25 4.5 Modelle für die Trust-Region Verfahren 26 4.5.1 Der Cauchy Punkt 26 4.5.2 Das Newton Trust-Region Verfahren 27 4.5.3 Quasi-Newton Trust-Region Verfahren 27 4.5.4 Gauß-Newton Trust-Region: Levenberg-Marquardt Verfahren 27 4.6 Vergleich der Hauptstrategien 27 5 Die Trust-Region Verfahren 29 5.1 Die Konvergenz des Trust-Region Algorithmus zu stationären Punkten 34 5.2 Die Berechnung des Trust-Region Schrittes 35 5.3 Der Cauchy Punkt 37 5.4 Die Lösungsverfahren 38 5.5 Nahezu exakte Lösung des Trust-Region Problems, Regularisierung . 38 5.6 Struktur und Lösung der nahezu exakten Methode für den Normalfall 42 5.6.1 Ermitteln des Minimums s( lambda) des aktuellen Modells 46 5.6.1.1 Lösung mittels Cholesky Faktorisierung 47 5.6.1.2 Lösung mittels QR-Faktorisierung 47 5.6.1.3 Lösung mittels Singulärwertzerlegung 47 5.6.2 Das Ermitteln des Regularisierungsparameters 48 5.6.3 Ermitteln der Ableitung 0i( ) 51 5.6.4 Abbruch der -Iteration 52 5.6.5 Absichern der -Iteration 52 5.6.6 Ermitteln des Verhältnisses k 52 5.6.7 Auffrischen der Schrittnebenbedingung k 53 5.6.8 Startwerte für den Trust-Region Algorithmus 56 5.6.8.1 Startwerte 0 für den Trust-Region Radius 56 5.6.8.2 Startwerte für den Regularisierungsparameter 0 56 5.6.9 Konvergenz von Algorithmen, basierend auf nahezu exakten Lösungen 57 5.7 Approximation des Trust-Region Problems 57 5.7.1 Die Dogleg Methode 58 5.7.2 Die zweidimensionale Unterraumminimierung 60 5.7.3 Das Steihaug Vorgehen 61 5.7.4 Konvergenz der Approximationsverfahren 62 6 Trust-Region Verfahren mit positiv definiter Approximation der Hesse-Matrix: Das Levenberg-Marquardt Verfahren 63 6.1 Vorhandene Matrizen und durchführbare Methoden 64 6.2 Lösen des Levenberg-Marquardt Problems 66 6.2.1 Ermitteln von s( ) 68 6.2.1.1 Cholesky Faktorisierung 68 6.2.1.2 QR-Faktorisierung 68 6.2.1.3 Singulärwertzerlegung 68 6.2.2 Ermittlung des Regularisierungsparameter 69 6.2.3 Absichern der -Iteration 71 6.2.3.1 Absichern für die Strategie von Hebden 71 6.2.3.2 Absichern für die Newtonmethode 72 6.2.4 Weitere Teilalgorithmen 73 6.3 Ein prinzipieller Levenberg-Marquardt Algorithmus 73 7 Skalierung der Zielparameter 74 8 Abbruchkriterien für die Optimierungsalgorithmen 76 8.1 Abbruchkriterien bei Erreichen eines lokalen Minimums 76 8.2 Abbruchkriterien bei Erreichen der Maschinengenauigkeit für Trust-Region Verfahren 77 9 Test der Implementation des Levenberg-Marquardt Verfahrens 78 9.1 Test der Leistung für einzelne Parameter 79 9.2 Test der Leistung für Optimierungen mit mehreren Parametern 80 9.3 Test des Moduls 1 80 9.4 Test Modul 2 und Modul 3 81 9.5 Test des Moduls 4 81 9.6 Test des Moduls 5 81 9.7 Test des Modul 6 82 9.8 Test des Modul 7 83 9.9 Test des Modul 8 84 9.10 Modul 9 und Modul 10 84 9.11 Test mit verschiedenen Verfahrensparametern 85 9.12 Optimale Konfiguration 86 10 Zusammenfassung 87 11 Ausblick 88 11.1 Weiterführendes zu dem bestehenden Levenberg-Marquardt Verfahren 88 11.2 Weiterführendes zu den Trust-Region Verfahren 88 11.3 Weiterführendes zu den Line-Search Verfahren 89 11.4 Weiterführendes zu den Gradientenverfahren 89 Literaturverzeichnis 93 A Implementation: Das skalierte Levenberg-Marquardt Verfahren 95 A.1 Modul 1.x: 0-Wahl 95 A.1.1 Modul 1.1 95 A.1.2 Modul 1.2 96 A.1.3 Modul 1.3 96 A.1.4 Programmtechnische Umsetzung Modul 1 96 A.2 Modul 2.x: Wahl der Skalierungsmatrix 96 A.2.1 Modul 2.1 96 A.2.2 Modul 2.2 97 A.2.3 Programmtechnische Umsetzung Modul 2 97 A.3 Modul 3.x: Wahl der oberen und unteren Schranke l0, u0 für die - Iteration 97 A.3.1 Modul 3.1 97 A.3.2 Modul 3.2 97 A.3.3 Programmtechnische Umsetzung Modul 3 98 A.4 Modul 4.x: Wahl des Startwertes für den Regularisierungsparameter 0 98 A.4.1 Modul 4.1 98 A.4.2 Modul 4.2 99 A.4.3 Modul 4.3 99 A.4.4 Modul 4.4 99 A.4.5 Programmtechnische Umsetzung Modul 4 100 A.5 Modul 5.x: Die abgesicherte -Iteration 100 A.5.1 Modul 5.1 Die Iteration nach dem Schema von Hebden für 1 101 A.5.2 Modul 5.2 Die abgesicherte Iteration mit dem Newtonverfahren für 2 101 A.5.3 Die abgesicherte Iteration mit dem Newtonverfahren für 2 mittels Cholesky Zerlegung 102 A.5.4 Programmtechnische Umsetzung Modul 5 102 A.6 Modul 6.x: Die Ermittlung des Verhältnisses k 103 A.6.1 Modul 6.1: Herkömmliche Ermittlung 103 A.6.2 Modul 6.2: Numerisch stabile Ermittlung 104 A.6.3 Programmtechnische Umsetzung Modul 6 104 A.7 Modul 7.x: Auffrischen der Schrittnebenbedingung 105 A.7.1 Modul 7.1: Einfache Wahl 105 A.7.2 Modul 7.2: Wahl mit Berücksichtigung von Werten k < 0 105 A.7.3 Modul 7.3: Wahl mit Approximation von ffl 105 A.7.4 Programmtechnische Umsetzung Modul 7 106 A.8 Modul 8.x: Entscheidung über Akzeptanz des nächsten Schrittes sk . 107 A.8.1 Modul 8.1: Eine Akzeptanzbedingung 107 A.8.2 Modul 8.2: Zwei Akzeptanzbedingungen 107 A.8.3 Programmtechnische Umsetzung Modul 8 107 A.9 Modul 9.x: Abbruchbedingungen für den gesamten Algorithmus 107 A.9.1 Programmtechnische Umsetzung Modul 9 108 A.10 Modul 10.x: Berechnung des Schrittes s( ) 108 A.10.1 Modul 10.1 108 A.10.2 Modul 10.2 108 A.10.3 Programmtechnische Umsetzung Modul 10 108 A.11 Benötigte Prozeduren 109 A.11.1 Vektormultiplikation 109 A.11.2 Matrixmultiplikation 109 A.11.3 Matrixaddition 109 A.11.4 Cholesky Faktorisierung 110 A.11.5 Transponieren einer Matrix 111 A.11.6 Invertieren einer Matrix 111 A.11.6.1 Determinante einer Matrix 111 A.11.7 Normen 112 A.11.7.1 Euklidische Vektornorm 112 A.11.7.2 Euklidische Matrixnorm 112 A.11.8 Ermittlung von 1 112 A.11.9 Ermittlung von 2 112 A.11.10Ermittlung von 01 112 A.11.11Ermittlung von 02 .112 A.11.12Ermittlung von mk(s) 113 A.12 Programmablauf 113 A.13 Fehlercodes 114 B Weiterführendes: Allgemeines 116 B.1 Total Least Squares, Orthogonal distance regression 116 B.2 Lipschitz Konstante und Lipschitz Stetigkeit in nichtlinearen Quadratmittelproblemen 116 B.3 Beweis für das Prinzip der kleinsten Fehlerquadrate als beste Möglichkeit der Anpassung von Modellgleichungen an Messwerte 117 B.4 Konvergenzraten 119 B.5 Betrachtung der Normalengleichung als äquivalente Extremalbedingung 119 B.6 Der Cauchy Punkt 120 B.7 Minimumbedingungen 122 C Weiterführendes: Matrizen 123 C.1 Reguläre und singuläre Matrizen 123 C.2 Rang einer Matrix 123 C.3 Definitheit von quadratischen Matrizen 124 C.4 Kondition einer Matrix 125 C.5 Spaltenorthonormale und orthogonale Matrizen 125 C.6 Singulärwertzerlegung einer Matrix, SVD 126 C.7 Der Lanczos Algorithmus 127 C.8 Die QR Zerlegung einer Matrix 127 C.8.1 Gram Schmidt Orthogonalisierung 127 C.8.2 Householder Orthogonalisierung 127 C.9 Die Cholesky Faktorisierung 130 C.10 Die LINPACK Technik 131 D Daten und Bilder zum Levenberg-Marquardt Verfahren 132 D.1 Wichtige Funktionsverläufe des LM-Verfahrens 134 D.2 Einzelne Parameteroptimierungen 136 D.3 Kombinierte Parameteroptimierungen, P1,P2,P3 139 D.4 Vergleich Ableitungsgüte, Konvergenzproblem 142 D.5 Test des Modul 1 145 D.6 Test Modul 4 und 5 146 D.7 Test des Modul 6 147 D.8 Test des Modul 7 148 D.9 Test des Modul 8 151 D.10 Test verschiedener Algorithmusparameter 152 D.11 Standartalgorithmus und Verbesserter 155
19

Anwendung von Line-Search-Strategien zur Formoptimierung und Parameteridentifikation

Clausner, André 17 September 2007 (has links)
Die kontinuierliche Weiterentwicklung und Verbesserung technischer Prozesse erfolgt heute auf der Basis stochastischer und deterministischer Optimierungsstrategien in Kombination mit der numerischen Simulation dieser Abläufe. Da die FE-Simulation von Umformvorgängen in der Regel sehr zeitintensiv ist, bietet sich für die Optimierung solcher Prozesse der Einsatz deterministischer Methoden an, da hier weniger Optimierungsschritte und somit auch weniger FE-Simulationen notwendig sind. Eine wichtige Anforderung an solche Optimierungsverfahren ist globale Konvergenz zu lokalen Minima, da die optimalen Parametersätze nicht immer näherungsweise bekannt sind. Die zwei wichtigsten Strategien zum Ausdehnen des beschränkten Konvergenzradius der natürlichen Optimierungsverfahren (newtonschrittbasierte Verfahren und Gradientenverfahren) sind die Line-Search-Strategie und die Trust-Region-Strategie. Die Grundlagen der Line-Search-Strategie werden aufgearbeitet und die wichtigsten Teilalgorithmen implementiert. Danach wird dieses Verfahren auf eine effiziente Kombination der Teilalgorithmen und Verfahrensparameter hin untersucht. Im Anschluss wird die Leistung eines Optimierungsverfahrens mit Line-Search-Strategie verglichen mit der eines ebenfalls implementierten Optimierungsverfahrens mit skalierter Trust-Region-Strategie. Die Tests werden nach Einfügen der implementierten Verfahren in das Programm SPC-Opt anhand der Lösung eines Quadratmittelproblems aus der Materialparameteridentifikation sowie der Formoptimierung eines Umformwerkzeugs vorgenommen.:1 Einleitung 7 2 Verfahren zur unrestringierten Optimierung 9 2.1 Vorbemerkungen 9 2.2 Der Schrittvektor sk 10 2.3 Natürliche Schrittweite und Konvergenz der Verfahren 11 2.4 Richtung des steilsten Abstiegs 12 2.5 Newtonschrittbasierte Verfahren 13 2.5.1 Newton-Verfahren 15 2.5.2 Quasi-Newton-Verfahren der Broyden-Klasse 15 2.5.3 Der BFGS-Auffrisch-Algorithmus 18 2.5.4 Die SR1-Auffrisch-Formel 19 2.5.5 Die DFP-Auffrisch-Formel 20 2.5.6 Gauß-Newton-Verfahren 20 2.6 Erzwingen der Bedingung der positiven Definitheit von Gk 21 3 Übersicht über die Verfahren zum Stabilisieren der natürlichen Schrittweiten 24 3.1 Das Prinzip der Line-Search-Verfahren 24 3.2 Das Prinzip der Trust-Region-Verfahren 26 3.3 Vergleich der Trust-Region- und der Line-Search-Strategien 27 4 Line-Search-Strategien 30 4.1 Vorbemerkungen 30 4.2 Ein prinzipieller Line-Search-Algorithmus 33 5 Die Akzeptanzkriterien für die Line-Search-Strategien 36 5.1 Die exakte Schrittweite 37 5.2 Das Armijo-Kriterium, ein Abstiegskriterium 39 5.2.1 Das klassische Armijo-Kriterium 39 5.2.2 Armijo-Kriterium mit unterer Schranke fflo > 0 40 5.3 Die Goldstein-Kriterien 42 5.4 Die Wolfe-Kriterien 44 5.4.1 Die einfachen Wolfe-Kriterien 44 5.4.2 Die starken Wolfe-Kriterien 46 5.5 Näherungsweiser Line-Search basierend auf Armijo, ff-Methode 47 6 Ermittlung der nächsten Testschrittweite ffj+1 49 6.1 Die Startschrittweite ffj=1 51 6.2 Verfahren mit konstanten Faktoren 52 6.3 Verfahren mit konstanten Summanden 53 6.4 Verfahren mit quadratischen Polynomen 54 6.5 Verfahren mit kubischen Polynomen 56 6.6 Sektionssuche mit goldenem Schnitt 58 7 Absicherung und Abbruchbedingungen des Line-Search-Verfahrens 60 7.1 Die drei Konvergenzpunkte eines Line-Search-Verfahrens 60 7.1.1 Lokales Minimum in f 60 7.1.2 Algorithmus konvergiert gegen −1 61 7.1.3 Der Winkel zwischen sk und −rfk wird 90° 61 7.2 Weitere Absicherungen 62 7.2.1 Abstiegsrichtung 62 7.2.2 Der gradientenbezogene Schrittvektor 62 7.2.3 Zulässige Schrittweiten in der Extrapolationsphase 63 7.2.4 Intervalle bei der Interpolation 63 7.2.5 Maximale Durchlaufzahlen 63 8 Implementierung 65 8.1 Grundlegende Struktur der Implementierung 65 8.2 Anwendungsgebiete 67 8.2.1 Identifikation der Materialparameter der isotropen Verfestigung und der HILLschen Fließbedingung 67 8.2.2 Optimierung der Form eines Umformwerkzeugs 70 8.3 Test des Programms anhand der Identifikation der Parameter der isotropen Verfestigung und der HILLschen Fließbedingung 71 8.3.1 Einfluss der Funktionsumgebung 71 8.3.2 Test der Line-Search-Verfahrensparameter 74 8.3.3 Einfluss der Startwerte und der Qualität der Ableitungsermittlung 77 8.3.4 Test der Quasi-Newton-Strategien 77 8.3.5 Test der Trust-Region-Skalierung 79 8.3.6 Vergleich der Trust-Region- und der Line-Search-Strategie 80 8.3.7 Tests mit den HILLschen Anisotropieparametern und drei Vorwärtsrechnungen 81 9 Zusammenfassung und Ausblick 83 9.1 Zusammenfassung 83 9.2 Ausblick 84 Liste häufig verwendeter Formelzeichen 85 Literaturverzeichnis 88 A Zusätzliches zur Implementierung 90 A.1 Parametervorschläge für die Line-Search-Verfahren 90 A.2 Fehlercode-Liste 92 A.3 Programmablaufpläne 94 A.3.1 Ablauf in main.cpp 94 A.3.2 Ablauf in OneOptLoop 95 A.3.3 Ablauf während des Trust-Region-Verfahrens 96 A.3.4 Ablauf während des Line-Search-Verfahrens 97 A.4 Steuerung der Optimierungsoptionen über OptInputData.dat 98 A.4.1 Übergeordnete Algorithmen 98 A.4.1.1 Quasi-Newton-Verfahren 98 A.4.1.2 Absichern der positiven Definitheit von Gk 99 A.4.1.3 Auswahl des Optimierungsverfahrens, Auswahl der Schrittweitensteuerung 100 A.4.1.4 Abbruchbedingungen für die Lösungsfindung 100 A.4.1.5 Wahl des Startvektors x0 101 A.4.2 Die Trust-Region-Algorithmen 102 A.4.2.1 Wahl des Anfangsradius 0 des Vertrauensbereichs 102 A.4.2.2 Wahl des Skalierungsverfahrens 102 A.4.2.3 Wahl des Startwertes l=0 für die Regularisierungsparameteriteration 103 A.4.2.4 Regularisierungsparameteriteration 103 A.4.2.5 Wahl des Verfahrens zum Auffrischen des Radius des Vertrauensbereichs 103 A.4.2.6 Bedingungen für einen akzeptablen Schritt 104 A.4.2.7 Absicherungen des Trust-Region-Verfahrens 104 A.4.3 Die Line-Search-Algorithmen 105 A.4.3.1 Die Akzeptanzkriterien 105 A.4.3.2 Die Verfahren zur Extrapolation 105 A.4.3.3 Die Verfahren zur Interpolation 106 A.4.3.4 Verfahren zur Wahl von ffj=2 106 A.4.3.5 Absicherung des Line-Search-Verfahrens 106 B Testrechnungen 107 B.1 Ausgewählte Versuchsreihen 107 B.2 Bilder der Funktionsumgebung der Materialparameteridentifikation 109 B.3 Beschreibung der digitalen Anlagen 112 Eidesstattliche Erklärung und Aufgabenstellung 113
20

Stabilised finite element approximation for degenerate convex minimisation problems

Boiger, Wolfgang Josef 19 August 2013 (has links)
Infimalfolgen nichtkonvexer Variationsprobleme haben aufgrund feiner Oszillationen häufig keinen starken Grenzwert in Sobolevräumen. Diese Oszillationen haben eine physikalische Bedeutung; Finite-Element-Approximationen können sie jedoch im Allgemeinen nicht auflösen. Relaxationsmethoden ersetzen die nichtkonvexe Energie durch ihre (semi)konvexe Hülle. Das entstehende makroskopische Modell ist degeneriert: es ist nicht strikt konvex und hat eventuell mehrere Minimalstellen. Die fehlende Kontrolle der primalen Variablen führt zu Schwierigkeiten bei der a priori und a posteriori Fehlerschätzung, wie der Zuverlässigkeits- Effizienz-Lücke und fehlender starker Konvergenz. Zur Überwindung dieser Schwierigkeiten erweitern Stabilisierungstechniken die relaxierte Energie um einen diskreten, positiv definiten Term. Bartels et al. (IFB, 2004) wenden Stabilisierung auf zweidimensionale Probleme an und beweisen dabei starke Konvergenz der Gradienten. Dieses Ergebnis ist auf glatte Lösungen und quasi-uniforme Netze beschränkt, was adaptive Netzverfeinerungen ausschließt. Die vorliegende Arbeit behandelt einen modifizierten Stabilisierungsterm und beweist auf unstrukturierten Netzen sowohl Konvergenz der Spannungstensoren, als auch starke Konvergenz der Gradienten für glatte Lösungen. Ferner wird der sogenannte Fluss-Fehlerschätzer hergeleitet und dessen Zuverlässigkeit und Effizienz gezeigt. Für Interface-Probleme mit stückweise glatter Lösung wird eine Verfeinerung des Fehlerschätzers entwickelt, die den Fehler der primalen Variablen und ihres Gradienten beschränkt und so starke Konvergenz der Gradienten sichert. Der verfeinerte Fehlerschätzer konvergiert schneller als der Fluss- Fehlerschätzer, und verringert so die Zuverlässigkeits-Effizienz-Lücke. Numerische Experimente mit fünf Benchmark-Tests der Mikrostruktursimulation und Topologieoptimierung ergänzen und bestätigen die theoretischen Ergebnisse. / Infimising sequences of nonconvex variational problems often do not converge strongly in Sobolev spaces due to fine oscillations. These oscillations are physically meaningful; finite element approximations, however, fail to resolve them in general. Relaxation methods replace the nonconvex energy with its (semi)convex hull. This leads to a macroscopic model which is degenerate in the sense that it is not strictly convex and possibly admits multiple minimisers. The lack of control on the primal variable leads to difficulties in the a priori and a posteriori finite element error analysis, such as the reliability-efficiency gap and no strong convergence. To overcome these difficulties, stabilisation techniques add a discrete positive definite term to the relaxed energy. Bartels et al. (IFB, 2004) apply stabilisation to two-dimensional problems and thereby prove strong convergence of gradients. This result is restricted to smooth solutions and quasi-uniform meshes, which prohibit adaptive mesh refinements. This thesis concerns a modified stabilisation term and proves convergence of the stress and, for smooth solutions, strong convergence of gradients, even on unstructured meshes. Furthermore, the thesis derives the so-called flux error estimator and proves its reliability and efficiency. For interface problems with piecewise smooth solutions, a refined version of this error estimator is developed, which provides control of the error of the primal variable and its gradient and thus yields strong convergence of gradients. The refined error estimator converges faster than the flux error estimator and therefore narrows the reliability-efficiency gap. Numerical experiments with five benchmark examples from computational microstructure and topology optimisation complement and confirm the theoretical results.

Page generated in 0.0487 seconds