• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 11
  • 4
  • 1
  • Tagged with
  • 39
  • 27
  • 12
  • 12
  • 12
  • 10
  • 10
  • 9
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Pure Measures, Traces and a General Theorem of Gauß

Schönherr, Moritz 11 December 2017 (has links)
In this thesis, the structure of pure measures is investigated. These are elements of the dual of the space of essentially bounded functions. A more precise representation of the dual space of the space of essentially bounded functions is given, leading to the definition and analysis of density measurs which constitute a new large class and yield numerous new examples of pure measures which are well-suited for applications in very general Divergence Theorems. The existence of pure normal measures for sets of finite perimeter is demonstrated. These yield Gauß formulas for essentially bounded vector fields having divergence measure. Furthermore, a result of Silhavy is extended. In particular, it is shown that a Gauß-Green Theorem for unbounded vector fields having divergence measure necessitates the use of pure measures acting on the gradient of the scalar field.
22

Direct calculation of parton distribution functions (PDFs) on the lattice

Manigrasso, Floriano 05 September 2022 (has links)
In dieser Arbeit befassen wir uns mit einer Reihe von entscheidenden Schritten, um die unpolarisierten Helizitäts- und Trasversitäts-Parton-Verteilungsfunktionen der Nukleonen im Rahmen der Gitter-QCD zu bewerten. Diskretisierungsartefakte werden unter Verwendung eines N_f=2+1+1 Eichensembles von Fermionen mit verdrillter Wilson-Masse untersucht, die bei einer Pionenmasse von ungefähr M=37 MeV simuliert werden. Die unpolarisierten und Helizitäts Partonverteilungsfunktionen weisen eine nicht vernachlässigbare Abhängigkeit vom Gitterabstand auf, und die Kontinuumsextrapolation ergibt eine bessere Übereinstimmung mit Phänomenologie. Die direkte Berechnung der Fourier-Transformation mit diskreten Gitterdaten kann Artefakte verursachen. Daher arbeiten wir mit einer neuen datengesteuerten Methode, die auf Gauß-Prozess-Regression basiert, die sogenannte Bayes-Gauß-Fourier-Transformation, um die Einschränkungen der diskreten Fourier-Transformation zu überwinden. Wir sind der Meinung, dass dieser datengesteuerte Ansatz die durch die Diskretisierung der Fourier-Transformation eingeführten Artefakte drastisch reduzieren kann, jedoch ist der endgültige Effekt auf die Lichtkegel-PDFs gering. Darüber hinaus präsentieren wir die Ergebnisse der ersten ab initio Berechnung der individuellen up, down und strange unpolarisierten, Helizitäts- und Transversitäts-Partonverteilungsfunktionen für das Proton. Die Analyse wird an einem durch N_f=2+1+1 verdrillten Kleeblatt-verbesserten Fermionen-Ensemble durchgeführt, das bei einer Pionenmasse von 260 MeV simuliert wird. Wir verwenden den hierarchischen Sondierungsalgorithmus, um die unzusammenhängenden Quarkschleifen auszuwerten. Dadurch erhalten wir Ergebnisse ungleich Null für den unbegundenen isoskalaren Beitrag und die strange Quark-Matrixelemente. / In this work, we address a number of crucial steps in order to evaluate the nucleon unpolarized helicity and trasversity parton distribution functions within the framework of lattice QCD. Discretization artifacts are investigated using an N_f=2+1+1 gauge ensemble of Wilson twisted mass fermions simulated at a pion mass of approximately M=370 MeV. The unpolarized and helicity parton distribution functions show a non-negligible dependence on the lattice spacing, with the continuum extrapolation producing a better agreement with phenomenology. The direct computation of the Fourier transform using discrete lattice data may introduce artifacts and we, therefore, use a new data-driven method based on Gaussian process regression, the so-called Bayes-Gauss Fourier transform to overcome the limitations of the discrete Fourier transform. We find that this data-driven approach can drastically reduce the artifacts introduced by the discretization of the Fourier transform, however, the final effect on the light-cone PDFs is small. Furthermore, we present results of the first ab initio calculation of the individual up, down, and strange unpolarized, helicity, and transversity parton distribution functions for the proton. The analysis is performed on an N_f=2+1+1 twisted mass clover-improved fermion ensemble simulated at a pion mass of 260 MeV. We employ the hierarchical probing algorithm to evaluate the disconnected quark loops, allowing us to obtain non-zero results for the disconnected isoscalar contribution and the strange quark matrix elements.
23

Möglichkeiten zur Steuerung von Trust-Region Verfahren im Rahmen der Parameteridentifikation

Clausner, André 05 June 2013 (has links) (PDF)
Zur Simulation technischer Prozesse ist eine hinreichend genaue Beschreibung des Materialverhaltens notwendig. Die hierfür häufig verwendeten phänomenologischen Ansätze, wie im vorliegenden Fall die HILLsche Fließbedingung, enthalten materialspezifische Parameter, welche nicht direkt messbar sind. Die Identifikation dieser Materialparameter erfolgt in der Regel durch Minimierung eines Fehlerquadratfunktionals, welches Differenzen von Messwerten und zugehörigen numerisch berechneten Vergleichswerten enthält. In diesem Zusammenhang haben sich zur Lösung dieser Minimierungsaufgabe die Trust-Region Verfahren als gut geeignet herausgestellt. Die Aufgabe besteht darin, die verschiedenen Möglichkeiten zur Steuerung eines Trust-Region Verfahrens, im Hinblick auf die Eignung für das vorliegende Identifikationsproblem, zu untersuchen. Dazu werden die Quadratmittelprobleme und deren Lösungsverfahren überblicksmäßig betrachtet. Danach wird näher auf die Trust-Region Verfahren eingegangen, wobei sich im Weiteren auf Verfahren mit positiv definiten Ansätzen für die Hesse-Matrix, den Levenberg-Marquardt Verfahren, beschränkt wird. Danach wird ein solcher Levenberg-Marquardt Algorithmus in verschiedenen Ausführungen implementiert und an dem vorliegenden Identifikationsproblem getestet. Als Ergebnis stellt sich eine gute Kombination aus verschiedenen Teilalgorithmen des Levenberg-Marquardt Algorithmus mit einer hohen Konvergenzgeschwindigkeit heraus, welche für das vorliegende Problem gut geeignet ist.
24

Möglichkeiten zur Steuerung von Trust-Region Verfahren im Rahmen der Parameteridentifikation

Clausner, André 10 May 2006 (has links)
Zur Simulation technischer Prozesse ist eine hinreichend genaue Beschreibung des Materialverhaltens notwendig. Die hierfür häufig verwendeten phänomenologischen Ansätze, wie im vorliegenden Fall die HILLsche Fließbedingung, enthalten materialspezifische Parameter, welche nicht direkt messbar sind. Die Identifikation dieser Materialparameter erfolgt in der Regel durch Minimierung eines Fehlerquadratfunktionals, welches Differenzen von Messwerten und zugehörigen numerisch berechneten Vergleichswerten enthält. In diesem Zusammenhang haben sich zur Lösung dieser Minimierungsaufgabe die Trust-Region Verfahren als gut geeignet herausgestellt. Die Aufgabe besteht darin, die verschiedenen Möglichkeiten zur Steuerung eines Trust-Region Verfahrens, im Hinblick auf die Eignung für das vorliegende Identifikationsproblem, zu untersuchen. Dazu werden die Quadratmittelprobleme und deren Lösungsverfahren überblicksmäßig betrachtet. Danach wird näher auf die Trust-Region Verfahren eingegangen, wobei sich im Weiteren auf Verfahren mit positiv definiten Ansätzen für die Hesse-Matrix, den Levenberg-Marquardt Verfahren, beschränkt wird. Danach wird ein solcher Levenberg-Marquardt Algorithmus in verschiedenen Ausführungen implementiert und an dem vorliegenden Identifikationsproblem getestet. Als Ergebnis stellt sich eine gute Kombination aus verschiedenen Teilalgorithmen des Levenberg-Marquardt Algorithmus mit einer hohen Konvergenzgeschwindigkeit heraus, welche für das vorliegende Problem gut geeignet ist.:1 Einleitung 8 2 Nichtlineare Quadratmittelprobleme 9 2.1 Herkunft der Residuen: Das Prinzip der kleinsten Fehlerquadrate 10 2.2 Auftretende Differentialmatrizen 11 2.2.1 Lipschitzbedingung für die Unterscheidung der Aufgabenklasse im Hinblick auf die Residuen 12 2.3 Aufgabenklassen 13 2.3.1 Kleine und Null-Residuen 13 2.3.2 Große Residuen 13 2.3.3 Große Probleme 14 2.4 Modellstufen für f(x) um eine lokale Konstellation xk 15 2.5 Eigenschaften der Gauß-Newton Approximation der Hesse-Matrix 16 3 Identifikation der Materialparameter der HILLschen Fließbedingung für die plastische Verformung anisotroper Werkstoffe 17 4 ¨Ubersicht über monoton fallende Optimierungsverfahren für nichtlineare Funktionen 19 4.1 Die Idee der Line-Search Verfahren 19 4.2 Die Idee der Trust-Region Verfahren 20 4.3 Übersichtstabelle Über die Verfahren zur unrestringierten Optimierung 21 4.4 Ermittlungsmethoden fÜr die Suchrichtung sk bei Line-Search Methoden 22 4.4.1 Gradientenverfahren 22 4.4.2 Das Newton Verfahren 22 4.4.3 Quasi-Newton Verfahren 23 4.4.4 Gauß-Newton Verfahren 24 4.4.5 Methode der konjugierten Gradienten 25 4.4.6 Koordinatenabstiegsmethode nach Ahlers,Schwartz,Waldmann [1] 25 4.5 Modelle für die Trust-Region Verfahren 26 4.5.1 Der Cauchy Punkt 26 4.5.2 Das Newton Trust-Region Verfahren 27 4.5.3 Quasi-Newton Trust-Region Verfahren 27 4.5.4 Gauß-Newton Trust-Region: Levenberg-Marquardt Verfahren 27 4.6 Vergleich der Hauptstrategien 27 5 Die Trust-Region Verfahren 29 5.1 Die Konvergenz des Trust-Region Algorithmus zu stationären Punkten 34 5.2 Die Berechnung des Trust-Region Schrittes 35 5.3 Der Cauchy Punkt 37 5.4 Die Lösungsverfahren 38 5.5 Nahezu exakte Lösung des Trust-Region Problems, Regularisierung . 38 5.6 Struktur und Lösung der nahezu exakten Methode für den Normalfall 42 5.6.1 Ermitteln des Minimums s( lambda) des aktuellen Modells 46 5.6.1.1 Lösung mittels Cholesky Faktorisierung 47 5.6.1.2 Lösung mittels QR-Faktorisierung 47 5.6.1.3 Lösung mittels Singulärwertzerlegung 47 5.6.2 Das Ermitteln des Regularisierungsparameters 48 5.6.3 Ermitteln der Ableitung 0i( ) 51 5.6.4 Abbruch der -Iteration 52 5.6.5 Absichern der -Iteration 52 5.6.6 Ermitteln des Verhältnisses k 52 5.6.7 Auffrischen der Schrittnebenbedingung k 53 5.6.8 Startwerte für den Trust-Region Algorithmus 56 5.6.8.1 Startwerte 0 für den Trust-Region Radius 56 5.6.8.2 Startwerte für den Regularisierungsparameter 0 56 5.6.9 Konvergenz von Algorithmen, basierend auf nahezu exakten Lösungen 57 5.7 Approximation des Trust-Region Problems 57 5.7.1 Die Dogleg Methode 58 5.7.2 Die zweidimensionale Unterraumminimierung 60 5.7.3 Das Steihaug Vorgehen 61 5.7.4 Konvergenz der Approximationsverfahren 62 6 Trust-Region Verfahren mit positiv definiter Approximation der Hesse-Matrix: Das Levenberg-Marquardt Verfahren 63 6.1 Vorhandene Matrizen und durchführbare Methoden 64 6.2 Lösen des Levenberg-Marquardt Problems 66 6.2.1 Ermitteln von s( ) 68 6.2.1.1 Cholesky Faktorisierung 68 6.2.1.2 QR-Faktorisierung 68 6.2.1.3 Singulärwertzerlegung 68 6.2.2 Ermittlung des Regularisierungsparameter 69 6.2.3 Absichern der -Iteration 71 6.2.3.1 Absichern für die Strategie von Hebden 71 6.2.3.2 Absichern für die Newtonmethode 72 6.2.4 Weitere Teilalgorithmen 73 6.3 Ein prinzipieller Levenberg-Marquardt Algorithmus 73 7 Skalierung der Zielparameter 74 8 Abbruchkriterien für die Optimierungsalgorithmen 76 8.1 Abbruchkriterien bei Erreichen eines lokalen Minimums 76 8.2 Abbruchkriterien bei Erreichen der Maschinengenauigkeit für Trust-Region Verfahren 77 9 Test der Implementation des Levenberg-Marquardt Verfahrens 78 9.1 Test der Leistung für einzelne Parameter 79 9.2 Test der Leistung für Optimierungen mit mehreren Parametern 80 9.3 Test des Moduls 1 80 9.4 Test Modul 2 und Modul 3 81 9.5 Test des Moduls 4 81 9.6 Test des Moduls 5 81 9.7 Test des Modul 6 82 9.8 Test des Modul 7 83 9.9 Test des Modul 8 84 9.10 Modul 9 und Modul 10 84 9.11 Test mit verschiedenen Verfahrensparametern 85 9.12 Optimale Konfiguration 86 10 Zusammenfassung 87 11 Ausblick 88 11.1 Weiterführendes zu dem bestehenden Levenberg-Marquardt Verfahren 88 11.2 Weiterführendes zu den Trust-Region Verfahren 88 11.3 Weiterführendes zu den Line-Search Verfahren 89 11.4 Weiterführendes zu den Gradientenverfahren 89 Literaturverzeichnis 93 A Implementation: Das skalierte Levenberg-Marquardt Verfahren 95 A.1 Modul 1.x: 0-Wahl 95 A.1.1 Modul 1.1 95 A.1.2 Modul 1.2 96 A.1.3 Modul 1.3 96 A.1.4 Programmtechnische Umsetzung Modul 1 96 A.2 Modul 2.x: Wahl der Skalierungsmatrix 96 A.2.1 Modul 2.1 96 A.2.2 Modul 2.2 97 A.2.3 Programmtechnische Umsetzung Modul 2 97 A.3 Modul 3.x: Wahl der oberen und unteren Schranke l0, u0 für die - Iteration 97 A.3.1 Modul 3.1 97 A.3.2 Modul 3.2 97 A.3.3 Programmtechnische Umsetzung Modul 3 98 A.4 Modul 4.x: Wahl des Startwertes für den Regularisierungsparameter 0 98 A.4.1 Modul 4.1 98 A.4.2 Modul 4.2 99 A.4.3 Modul 4.3 99 A.4.4 Modul 4.4 99 A.4.5 Programmtechnische Umsetzung Modul 4 100 A.5 Modul 5.x: Die abgesicherte -Iteration 100 A.5.1 Modul 5.1 Die Iteration nach dem Schema von Hebden für 1 101 A.5.2 Modul 5.2 Die abgesicherte Iteration mit dem Newtonverfahren für 2 101 A.5.3 Die abgesicherte Iteration mit dem Newtonverfahren für 2 mittels Cholesky Zerlegung 102 A.5.4 Programmtechnische Umsetzung Modul 5 102 A.6 Modul 6.x: Die Ermittlung des Verhältnisses k 103 A.6.1 Modul 6.1: Herkömmliche Ermittlung 103 A.6.2 Modul 6.2: Numerisch stabile Ermittlung 104 A.6.3 Programmtechnische Umsetzung Modul 6 104 A.7 Modul 7.x: Auffrischen der Schrittnebenbedingung 105 A.7.1 Modul 7.1: Einfache Wahl 105 A.7.2 Modul 7.2: Wahl mit Berücksichtigung von Werten k < 0 105 A.7.3 Modul 7.3: Wahl mit Approximation von ffl 105 A.7.4 Programmtechnische Umsetzung Modul 7 106 A.8 Modul 8.x: Entscheidung über Akzeptanz des nächsten Schrittes sk . 107 A.8.1 Modul 8.1: Eine Akzeptanzbedingung 107 A.8.2 Modul 8.2: Zwei Akzeptanzbedingungen 107 A.8.3 Programmtechnische Umsetzung Modul 8 107 A.9 Modul 9.x: Abbruchbedingungen für den gesamten Algorithmus 107 A.9.1 Programmtechnische Umsetzung Modul 9 108 A.10 Modul 10.x: Berechnung des Schrittes s( ) 108 A.10.1 Modul 10.1 108 A.10.2 Modul 10.2 108 A.10.3 Programmtechnische Umsetzung Modul 10 108 A.11 Benötigte Prozeduren 109 A.11.1 Vektormultiplikation 109 A.11.2 Matrixmultiplikation 109 A.11.3 Matrixaddition 109 A.11.4 Cholesky Faktorisierung 110 A.11.5 Transponieren einer Matrix 111 A.11.6 Invertieren einer Matrix 111 A.11.6.1 Determinante einer Matrix 111 A.11.7 Normen 112 A.11.7.1 Euklidische Vektornorm 112 A.11.7.2 Euklidische Matrixnorm 112 A.11.8 Ermittlung von 1 112 A.11.9 Ermittlung von 2 112 A.11.10Ermittlung von 01 112 A.11.11Ermittlung von 02 .112 A.11.12Ermittlung von mk(s) 113 A.12 Programmablauf 113 A.13 Fehlercodes 114 B Weiterführendes: Allgemeines 116 B.1 Total Least Squares, Orthogonal distance regression 116 B.2 Lipschitz Konstante und Lipschitz Stetigkeit in nichtlinearen Quadratmittelproblemen 116 B.3 Beweis für das Prinzip der kleinsten Fehlerquadrate als beste Möglichkeit der Anpassung von Modellgleichungen an Messwerte 117 B.4 Konvergenzraten 119 B.5 Betrachtung der Normalengleichung als äquivalente Extremalbedingung 119 B.6 Der Cauchy Punkt 120 B.7 Minimumbedingungen 122 C Weiterführendes: Matrizen 123 C.1 Reguläre und singuläre Matrizen 123 C.2 Rang einer Matrix 123 C.3 Definitheit von quadratischen Matrizen 124 C.4 Kondition einer Matrix 125 C.5 Spaltenorthonormale und orthogonale Matrizen 125 C.6 Singulärwertzerlegung einer Matrix, SVD 126 C.7 Der Lanczos Algorithmus 127 C.8 Die QR Zerlegung einer Matrix 127 C.8.1 Gram Schmidt Orthogonalisierung 127 C.8.2 Householder Orthogonalisierung 127 C.9 Die Cholesky Faktorisierung 130 C.10 Die LINPACK Technik 131 D Daten und Bilder zum Levenberg-Marquardt Verfahren 132 D.1 Wichtige Funktionsverläufe des LM-Verfahrens 134 D.2 Einzelne Parameteroptimierungen 136 D.3 Kombinierte Parameteroptimierungen, P1,P2,P3 139 D.4 Vergleich Ableitungsgüte, Konvergenzproblem 142 D.5 Test des Modul 1 145 D.6 Test Modul 4 und 5 146 D.7 Test des Modul 6 147 D.8 Test des Modul 7 148 D.9 Test des Modul 8 151 D.10 Test verschiedener Algorithmusparameter 152 D.11 Standartalgorithmus und Verbesserter 155
25

Sobol'-Sensitivitätsanalyse der Untergrundparameter bei der Simulation von oberflächennaher Geothermie mithilfe von Gauß-Prozess-Emulatoren

Lubashevsky, Katrin 03 May 2023 (has links)
Um den Planungsprozess von oberflächennahen Geothermieanlagen verbessern zu können, ist es von Vorteil, die Parameter zu kennen, welche besonders großen Einfluss auf die Leistung einer solchen Anlage haben. Um dies zu untersuchen, können globale Sensitivitätsanalysen durchgeführt werden. Die in dieser Arbeit vorgestellte Sensitivitätsanalyse beinhaltet ein Parameterscreening mit der One-Variable-At-a-Time-Methode und eine anschließend durchgeführte globale Sensitivitätsanalyse mithilfe von Sobol‘-Indizes. Hierbei werden die Eingabeparameter des verwendeten Berechnungsmodells innerhalb vorher definierter Wertebereiche und gemäß festgelegter Verteilungen variiert, was in einer großen Anzahl an Modelldurchläufen resultiert. Daher kommen bei Sensitivitätsanalysen oftmals approximierte Modelle zum Einsatz, welche das Verhalten des ursprünglichen Berechnungsmodells nachahmen sollen, um auf diese Weise eine geringere Rechenzeit zu erzielen. Hierfür werden in der vorliegenden Arbeit sogenannte Gauß-Prozess-Emulatoren verwendet. In dieser Arbeit werden die genannten Methoden aus mathematischer Sicht vorgestellt und eingeordnet und abschließend an einem analytischen Modell für die Untergrundparameter einer Geothermieanlage vorgeführt.
26

An index theorem for operators with horn singularities

Lapp, Frank 05 November 2013 (has links)
Die abgeschlossenen Erweiterungen der sogenannten geometrischen Operatoren (Spin-Dirac, Gauß-Bonnet und Signatur-Operator) auf Mannigfaltigkeiten mit metrischen Hörnern sind Fredholm-Operatoren und ihr Index wurde von Matthias Lesch, Norbert Peyerimhoff und Jochen Brüning berechnet. Es wurde gezeigt, dass die Einschränkungen dieser drei Operatoren auf eine punktierte Umgebung des singulären Punkts unitär äquivalent zu irregulär singulären Operator-wertigen Differentialoperatoren erster Ordnung sind. Die Lösungsoperatoren der dazugehörigen Differentialgleichungen definierten eine Parametrix, mit deren Hilfe die Fredholmeigenschaft bewiesen wurde. In der vorliegenden Doktorarbeit wird eine Klasse von irregulären singulären Differentialoperatoren erster Ordnung, genannt Horn-Operatoren, eingeführt, die die obigen Beispiele verallgemeinern. Es wird bewiesen, dass ein elliptischer Differentialoperator erster Ordnung, dessen Einschränkung auf eine punktierte Umgebung des singulären Punkts unitär äquivalent zu einem Horn-Operator ist, Fredholm ist, und sein Index wird berechnet. Schließlich wird dieser abstrakte Index-Satz auf geometrische Operatoren auf Mannigfaltigkeiten mit "multiply warped product"-Singularitäten angewendet, welche eine wesentliche Verallgemeinerung der metrischen Hörner darstellen. / The closed extensions of geometric operators (Spin-Dirac, Gauss-Bonnet and Signature operator) on a manifold with metric horns are Fredholm operators, and their indices were computed by Matthias Lesch, Norbert Peyerimhoff and Jochen Brüning. It was shown that the restrictions of all three operators to a punctured neighbourhood of the singular point are unitary equivalent to a class of irregular singular operator-valued differential operators of first order. The solution operators of the corresponding differential equations defined a parametrix which was applied to prove the Fredholm property. In this thesis a class of irregular singular differential operators of first order - called horn operators - is introduced that extends the examples mentioned above. It is proved that an elliptic differential operator of first order whose restriction to the neighbourhood of the singular point is unitary equivalent to a horn operator is Fredholm and its index is computed. Finally, this abstract index theorem is applied to compute the indices of geometric operators on manifolds with multiply warped product singularities that extend the notion of metric horns considerably.
27

Störungssystematikbestimmte Instandhaltung in einem Wafertransportsystem / Trouble Systematic Based Maintenance in a wafer transport system

Niekisch, Torsten 13 November 2001 (has links) (PDF)
Störungssystematikbestimmte Instandhaltung (SSBIH) in einem Wafertransportsystem In der vorliegenden Arbeit wird eine Instandhaltungsmethode beschrieben, mit welcher es im Wafertransportsystem von Infineon Dresden gelungen ist, die Anzahl sogenannter Traktionsprobleme innerhalb kürzester Zeit und mit minimalem Aufwand zu halbieren. Neben der Beschreibung der Umsetzung der Methode, wird vertiefend auf die theoretischen Grundlagen und die Voraussetzungen für die Anwendbarkeit eingegangen. Des weiteren wird anhand der Besonderheiten komplexer Logistiksyteme in der Halbleiterfertigung erläutert, weshalb diese zustandsbestimmte Instandhaltungsstrategie bisher nicht zum allgemeinen Stand der Technik gehörte. Es werden Beispiele für eine Übertragbarkeit angeführt. Eine solche ist insbesondere dann gegeben, wenn das Störungsverhalten auf Toleranzsystemen basiert, in welchen vollständige Austauschbarkeit nicht nur gefordert, sondern ein Großteil der möglichen Elementepaarungen auch tatsächlich getestet wird. Im hier beschriebenen Fall fanden pro Tag ca. 750 000 Ereignisse zwischen ca. 4500 Conveyorelementen und mehr als 10 000 Transportcarriern statt. (Anlagen: Carriertraktionsprobleme, Microsoft-Access-DB, 29,4 MB ; Conveyorstörungen, Microsoft-Access-DB, 22,9 MB ; Stockerstörungen, Microsoft-Access-DB, 22,6 MB ; Verteilungsfunktion, Microsoft-Access-DB, 514 KB ; Störungsentwicklung, Microsoft Excel-Tabelle, 2,03 MB -- Nutzung: Referat Informationsvermittlung der SLUB)
28

Testing the compatibility of constraints for parameters of a geodetic adjustment model

Lehmann, Rüdiger, Neitzel, Frank 06 August 2014 (has links) (PDF)
Geodetic adjustment models are often set up in a way that the model parameters need to fulfil certain constraints. The normalized Lagrange multipliers have been used as a measure of the strength of constraint in such a way that if one of them exceeds in magnitude a certain threshold then the corresponding constraint is likely to be incompatible with the observations and the rest of the constraints. We show that these and similar measures can be deduced as test statistics of a likelihood ratio test of the statistical hypothesis that some constraints are incompatible in the same sense. This has been done before only for special constraints (Teunissen in Optimization and Design of Geodetic Networks, pp. 526–547, 1985). We start from the simplest case, that the full set of constraints is to be tested, and arrive at the advanced case, that each constraint is to be tested individually. Every test is worked out both for a known as well as for an unknown prior variance factor. The corresponding distributions under null and alternative hypotheses are derived. The theory is illustrated by the example of a double levelled line. / Geodätische Ausgleichungsmodelle werden oft auf eine Weise formuliert, bei der die Modellparameter bestimmte Bedingungsgleichungen zu erfüllen haben. Die normierten Lagrange-Multiplikatoren wurden bisher als Maß für den ausgeübten Zwang verwendet, und zwar so, dass wenn einer von ihnen betragsmäßig eine bestimmte Schwelle übersteigt, dann ist davon auszugehen, dass die zugehörige Bedingungsgleichung nicht mit den Beobachtungen und den restlichen Bedingungsgleichungen kompatibel ist. Wir zeigen, dass diese und ähnliche Maße als Teststatistiken eines Likelihood-Quotiententests der statistischen Hypothese, dass einige Bedingungsgleichungen in diesem Sinne inkompatibel sind, abgeleitet werden können. Das wurde bisher nur für spezielle Bedingungsgleichungen getan (Teunissen in Optimization and Design of Geodetic Networks, pp. 526–547, 1985). Wir starten vom einfachsten Fall, dass die gesamte Menge der Bedingungsgleichungen getestet werden muss, und gelangen zu dem fortgeschrittenen Problem, dass jede Bedingungsgleichung individuell zu testen ist. Jeder Test wird sowohl für bekannte, wie auch für unbekannte a priori Varianzfaktoren ausgearbeitet. Die zugehörigen Verteilungen werden sowohl unter der Null- wie auch unter der Alternativhypthese abgeleitet. Die Theorie wird am Beispiel einer Doppelnivellementlinie illustriert.
29

Algorithmen zur effizienten Simulation großer Mehrkörpersysteme für Modelica

Schubert, Christian 20 January 2015 (has links) (PDF)
In der vorliegenden Arbeit werden mithilfe von Methoden zur numerischen Behandlung schwach besetzter Matrizen O(n³)- und O(n)-Berechnungsalgorithmen für Mehrkörpersysteme aus deren Bewegungsgleichungen abgeleitet. Durch Verwendung von Dualen Basen kann gezeigt werden, dass sich die bezüglich der Berechnungszeit effizienten Algorithmen sowohl auf Systeme mit explizit als auch implizit formulierten Bindungsgleichungen anwenden lassen. Mit diesen gewonnen Erkenntnissen wird die derzeitige Implementierung der vorgestellten Algorithmen im Sprachstandard Modelica untersucht. Es werden Ansatzmöglichkeiten aufgezeigt, mit denen ausgewählte Modelica Compiler große Mehrkörpersysteme effizienter lösen können. Zum einen wird durch eine graphentheoretische Verallgemeinerung des O(n)-Algorithmus dieser direkt in dem freien Modelica Werkzeug OpenModelica umgesetzt. Zum anderen wird die Methode der Subsysteme für den O(n)-Algorithmus vorgestellt. Sie ermöglicht es, beliebig komplexe Teilsysteme als eigenständige Modellelemente zu erstellen. Die Berechnung von kinematischen Schleifen kann auf diese Weise wesentlich beschleunigt werden. Ferner wird gezeigt, dass sich mit der Methode der Subsysteme Modellgleichungen eines idealen homokinetischen Gelenks ableiten lassen, die frei von Zwangsbedingungen sind. Dies führt ebenfalls zu einer schnelleren und robusteren Berechnung. / Using methods from sparse matrice theory, O(n³)- and O(n)-algorithms for multibody systems are derived from the equations of motion. The concept of Dual Bases reveals that efficient algorithms for explicit joint descriptions, regarding calculation time, may also be applied to systems which use implicit joint constraints. Consequently, the feasibility of implementing these results in Modelica is examined. This leads to new approaches which enable selected Modelica compilers to solve large multibody systems more efficiently. On the one hand side a graph-theoretic generalization of the O(n)-algorithm has been implemented into the OpenModelica compiler. On the other hand, a method of subsystems for the O(n)-algorithm has been devised. It allows to derive the model equations for arbitrary complex sub-systems which can be implemented as new model elements for an O(n)-algorithm library. This has been carried out for recurring kinematic loops of Mobile Machinery improving simulation speed considerably. Furthermore, it is shown that a fast and robust model of an ideal constant velocity joint can be derived that way.
30

Identification of material parameters in mechanical models

Meyer, Marcus 04 June 2010 (has links)
Die Dissertation beschäftigt sich mit Parameteridentifikationsproblemen, wie sie häufig in Fragestellungen der Festkörpermechanik zu finden sind. Hierbei betrachten wir die Identifikation von Materialparametern -- die typischerweise die Eigenschaften der zugrundeliegenden Materialien repräsentieren -- aus gemessenen Verformungen oder Belastungen eines Testkörpers. In mathematischem Sinne entspricht dies der Lösung von Identifikationsproblemen, die eine spezielle Klasse von inversen Problemen bilden. Der Inhalt der Dissertation ist folgendermaßen gegliedert. Nach dem einführenden Abschnitt 1 wird in Abschnitt 2 ein Überblick von Optimierungs- und Regularisierungsverfahren zur stabilen Lösung nichtlinearer inverser Probleme diskutiert. In Abschnitt 3 betrachten wir die Identifikation von skalaren und stückweise konstanten Parametern in linearen elliptischen Differentialgleichungen. Hierbei werden zwei Testprobleme erörtert, die Identifikation von Diffusions- und Reaktionsparameter in einer allgemeinen elliptischen Differentialgleichung und die Identifikation der Lame-Konstanten in einem Modell der linearisierten Elastizität. Die zugrunde liegenden PDE-Modelle und Lösungszugänge werden erläutert. Insbesondere betrachten wir hier Newton-artige Algorithmen, Gradientenmethoden, Multi-Parameter Regularisierung and den evolutionären Algorithmus CMAES. Abschließend werden Ergebnisse einer numerischen Studie präsentiert. Im Abschnitt 4 konzentrieren wir uns auf die Identifikation von verteilten Parametern in hyperelastischen Materialmodellen. Das nichtlineare Elastizitätsproblem wird detailiert erläutert und verschiedene Materialmodelle werden diskutiert (linear elastisches St.-Venant-Kirchhoff Material und nichtlineare Neo-Hooke, Mooney-Rivlin und Modified-Fung Materialien. Zur Lösung des resultierenden Parameteridentifikationsproblems werden Lösungsansätze aus der optimalen Steuerung in Form eines Newton-Lagrange SQP Algorithmus verwendet. Die Resultate einer numerischen Studie werden präsentiert, basierend auf einem zweidimensionales Testproblem mit einer sogenannten Cook-Mebran. Abschließend wird im Abschnitt 5 die Verwendung adaptiver FEM für die Lösung von Parameteridentifikationsproblems kurz erörtert. / The dissertation is focussed on parameter identification problems arising in the context of structural mechanics. At this, we consider the identification of material parameters - which typically represent the properties of an underlying material - from given measured displacements and forces of a loaded test body. In mathematical terms such problems denote identification problems as a special case of general inverse problems. The dissertation is organized as follows. After the introductive section 1, section 2 is devoted to a survey of optimization and regularization methods for the stable solution of nonlinear inverse problems. In section 3 we consider the identification of scalar and piecewise constant parameters in linear elliptic differential equations and examine two test problems, namely the identification of diffusion and reaction parameters in a generalized linear elliptic differential equation of second order and the identification of the Lame constants in the linearized elasticity model. The underlying PDE models are introduced and solution approaches are discussed in detail. At this, we consider Newton-type algorithms, gradient methods, multi-parameter regularization, and the evolutionary algorithm CMAES. Consequently, numerical studies for a two-dimensional test problem are presented. In section 4 we point out the identification of distributed material parameters in hyperelastic deformation models. The nonlinear elasticity boundary value problem for large deformations is introduced. We discuss several material laws for linear elastic (St.-Venant-Kirchhoff) materials and nonlinear Neo-Hooke, Mooney-Rivlin, and Modified-Fung materials. For the solution of the corresponding parameter identification problem, we focus on an optimal control solution approach and introduce a regularized Newton-Lagrange SQP method. The Newton-Lagrange algorithm is demonstrated within a numerical study. Therefore, a simplified two-dimensional Cook membrane test problem is solved. Additionally, in section 5 the application of adaptive methods for the solution of parameter identification problems is discussed briefly.

Page generated in 0.0323 seconds