1 |
Identifikation schädigungsmechanischer Materialparameter mit Hilfe nichtlinearer Optimierungsverfahren am Beispiel des Rousselier ModellsSpringmann, Marcel, Kuna, Meinhard 05 April 2006 (has links) (PDF)
Der vorliegende Beitrag befasst sich mit der
Identifikation von Parametern schädigungsmechanischer
Materialgesetze. In diesem Zusammenhang wird für
die Lösung des nichtlinearen Rand- und Anfangswertproblems
das finite Element System SPC-PMHP verwendet.
Die duktile Schädigung wird durch das Modell von
Rousselier beschrieben. Neben den Materialgleichungen
wird der Algorithmus zur numerischen Integration des
Materialgesetzes vorgestellt. Die zur
Materialparameteridentifikation erforderliche Lösung
der inversen Aufgabenstellung wird mit einem
nichtlinearen Optimierungsverfahren realisiert.
Die quadratische Abweichung zwischen gemessenen
und simulierten Verschiebungsfeldern wird als
Zielfunktion gewählt, deren Minimierung auf die
gesuchten Parameter führt. Im Rahmen der
deterministischen Optimierungsprozeduren wird zur
Bestimmung des Gradienten der Zielfunktion ein
impliziter Algorithmus - die sogenannte
semianalytische Sensitivitätsanalyse - angewandt.
Synthetisch erzeugte inhomogene Verschiebungsfelder
dienen als Messwerte und werden den berechneten
Verschiebungen gegenübergestellt. Mit verschiedenen
numerischen Experimenten wird am Beispiel einer
Scheibe mit Loch die Anwendbarkeit des Verfahrens
getestet.
|
2 |
Strategische Einbindung der Umformsimulation in die Entwicklungsprozesskette KarosserieMaaß, Lena 20 April 2017 (has links) (PDF)
Die Bauteileigenschaften von Bauteilen und Baugruppen im Karosseriebau werden maßgeblich durch die während des Tiefziehprozesses auftretenden Formänderungen und Verfestigungen beeinflusst. In der vorliegenden Arbeit wird daher die Umformsimulation in eine repräsentative virtuelle Prozesskette des Karosseriebaus integriert. Dazu wird zunächst die Datenübertragung zwischen den einzelnen Simulationsprogrammen in der Prozesskette Umformen - Fügen - Crash realisiert. Mit der anschließend durchgeführten Sensitivitätsanalyse wird festgestellt, welche Größen einen signifikanten Einfluss auf die Folgesimulationen haben. Aufbauend auf den Ergebnissen der Sensitivitätsanalyse wird eine Methode zur Gestaltung von einfachen Ankonstruktionen zur Verbesserung der Qualität der Ergebnisse der inversen Umformsimulation entwickelt und an einem Bauteil aus dem Karosseriebau validiert. Mit den durch die einfache Ankonstruktion erzielten Verbesserungen in den Ergebnissen der inversen Umformsimulation kann die entwickelte Methode einen Beitrag zur Erhöhung der Qualität der nachfolgenden Prozesssimulationen in der Prozesskette leisten.
|
3 |
Entwicklung einer End-of-Line Körperschallprüfmethodik für hochintegrierte elektrifizierte AntriebstopologienBonart, Jakob Andreas Erasmus 14 February 2024 (has links)
Die rasant ansteigenden Produktionsvolumina von elektrifizierten Fahrzeugen stellen für die jeweiligen Hersteller ein ungemein hohes Risiko dar, da neu industrialisierte Antriebstopologien innerhalb kürzester Zeit in großvolumigen Prozessketten gefertigt werden müssen. Neben der notwendigen produzierten Quantität muss jedoch auch die ausgelieferte Qualität höchsten Ansprüchen genügen. Im Gegensatz zu konventionellen Antrieben kann hierfür nicht auf jahrzehntelange Erfahrungsschätze von möglichen Fehlerfällen im Produktionssystem zurückgegriffen werden. Daher befasst sich diese Arbeit
mit der Entwicklung einer körperschallbasierten Prüfmethodik am Bandende (End-of-Line, EOL) zur Identifikation und Benennung von fehlerhaften Antriebseinheiten. Durch die hochintegrierte Bauweise ergibt sich eine hohe Anzahl an kompetierenden Anregungsmechanismen, welche traditionellen Analysen keine eindeutige Fehlerzuordnung erlaubt. Zum Verständnis der gesamten Prüfkette werden die einzelnen Komponenten (Sensorik, Drehzahlprofile, Verarbeitung der Rohdaten, etc.) beleuchtet und ein taktzeittaugliches Prüfprofil vorgestellt. Hierauf basierend werden Sensitivitäten hinsichtlich toleranzbehafteter Merkmale wie Lagersitzpositionen oder Unwuchten bestimmt und Fehlermechanismen von Grund auf hergeleitet. Die resultierende Überbestimmung von praktisch jeder Maschinenordnung wird mithilfe der in dieser Arbeit entwickelten reduzierten Differenzkoinzidenz-Metrik (RDKM) signifikant reduziert. Die erarbeiteten Analysatoren werden zu einem allgemeinen Fehlerkatalog zusammengefasst und auf Validität mittels realer Fehlerfälle erfolgreich überprüft. Die RDKM-Methodik wird mittels Grenzmusteraufbauten auf die Separationseigenschaft gegenüber einer normalen Serienstreuung untersucht und allgemein anwendbare Grenzwerte hergeleitet. Abschließend befasst sich diese Arbeit mit der Produktionsskalierbarkeit durch weitere End-of-Line-Prüfstände und mit der notwendigen Adaptionsfähigkeit aufgrund von Chargenwechseln oder Produktanpassungen über Zeit.:1 Einleitung 11
2 Stand der Technik 15
2.1 Körperschall-Anregungsmechanismen 15
2.1.1 Exzentrizitätsanregungen 15
2.1.2 Getriebeanregungen 16
2.1.3 Magnetfeldanregungen 17
2.1.4 Wälzlageranregungen 20
2.2 Fehleridentifikationsverfahren 22
2.2.1 Maschinenüberwachung 22
2.2.2 EOL-Prüfstände 24
2.2.3 Unterschiede zwischen End-of-Line und Maschinenüberwachung 26
2.3 EOL-Körperschallprüfung bei Antriebsaggregaten 27
2.4 Messreplikation 27
2.5 Mathematische Methoden 28
3 Zielsetzung 33
4 Beschreibung der Prüflingstopologie und Prüfstände 37
4.1 Elektrische Antriebstopologie 37
4.2 Beschreibung der Prüfstände 38
4.2.1 Inline Prüfstand (IL) 38
4.2.2 End-of-Line Prüfstand (EOL) 40
5 Messkonzeption und Sensorik 43
5.1 Sensorik 43
5.1.1 Beschreibung taktiler Sensorik 43
5.1.2 Bewertung relevanter Restriktionen 45
5.2 Drehzahlprofil 46
5.2.1 Evaluation notwendiger Drehzahlgradienten 46
5.2.2 Nichtlineare Drehzahländerungen 50
5.3 Vorverarbeitung der Rohdaten 50
5.4 Wahl der Fourierparameter 51
5.4.1 Einfluss Fensterung 52
5.4.2 Mittelung der Messwerte 53
5.5 Resultierende Messgenauigkeiten 55
6 Körperschallanregungsmechanismen 57
6.1 Identifikation von Normanregungen 57
6.1.1 Dominante Pegel 57
6.1.2 Normalisierung über Box-Cox Transformation 57
6.1.3 Evaluation 58
6.2 Sensitivitätsanalyse 61
6.2.1 Vorgehen 61
6.2.2 Zusammenfassung von Sensitivitäten 66
6.3 Vervollständigung theoretischer Anregungen 66
6.3.1 Lagerhochharmonische Anregung 66
6.3.2 Asymmetrische Seitenbänder 69
6.4 Bestimmungsgrad von Ordnungen 72
7 Fehleridentifikation 77
7.1 Ansatz und Methodik 77
7.1.1 Motivation 77
7.1.2 Mathematische Beschreibung des Ansatzes 78
7.1.3 Erweiterung um IL-Prüfstandsinformationen 81
7.2 Auswirkung auf Bestimmtheitsgrad 81
7.3 Fehlerkatalogisierung 82
7.3.1 Instanzierung von Fehlern 82
7.3.2 Fehlerlokalisation 85
7.4 Evaluation 86
7.4.1 Exemplarische Evaluation 86
7.4.2 Statistische Evaluation 89
8 Fehlerdetektion 93
8.1 Grenzfindung 93
8.1.1 Allgemeine Grenze 93
8.1.2 Spezifische Grenzen 94
8.1.3 Spezifierte allgemeine Prüfgrenzen 98
9 Skalierbarkeit der Prüfmethodik 101
9.1 Kapazitätsskalierbarkeit 101
9.1.1 Direkter Grenzübertrag 101
9.1.2 Statistischer Grenzübertrag 102
9.1.3 Evaluation der Übertragsmethodiken 104
9.2 Zeitskalierbarkeit 105
10 Zusammenfassung und Ausblick 109
10.1 Zusammenfassung 109
10.2 Ausblick 110
|
4 |
Combining smart model diagnostics and effective data collection for snow catchmentsReusser, Dominik E. January 2011 (has links)
Complete protection against flood risks by structural measures is impossible. Therefore flood prediction is important for flood risk management. Good explanatory power of flood models requires a meaningful representation of bio-physical processes. Therefore great interest exists to improve the process representation. Progress in hydrological process understanding is achieved through a learning cycle including critical assessment of an existing model for a given catchment as a first step. The assessment will highlight deficiencies of the model, from which useful additional data requirements are derived, giving a guideline for new measurements. These new measurements may in turn lead to improved process concepts. The improved process concepts are finally summarized in an updated hydrological model.
In this thesis I demonstrate such a learning cycle, focusing on the advancement of model evaluation methods and more cost effective measurements. For a successful model evaluation, I propose that three questions should be answered: 1) when is a model reproducing observations in a satisfactory way? 2) If model results deviate, of what nature is the difference? And 3) what are most likely the relevant model components affecting these differences? To answer the first two questions, I developed a new method to assess the temporal dynamics of model performance (or TIGER - TIme series of Grouped Errors). This method is powerful in highlighting recurrent patterns of insufficient model behaviour for long simulation periods. I answered the third question with the analysis of the temporal dynamics of parameter sensitivity (TEDPAS). For calculating TEDPAS, an efficient method for sensitivity analysis is necessary. I used such an efficient method called Fourier Amplitude Sensitivity Test, which has a smart sampling scheme. Combining the two methods TIGER and TEDPAS provided a powerful tool for model assessment.
With WaSiM-ETH applied to the Weisseritz catchment as a case study, I found insufficient process descriptions for the snow dynamics and for the recession during dry periods in late summer and fall. Focusing on snow dynamics, reasons for poor model performance can either be a poor representation of snow processes in the model, or poor data on snow cover, or both.
To obtain an improved data set on snow cover, time series of snow height and temperatures were collected with a cost efficient method based on temperature measurements on multiple levels at each location. An algorithm was developed to simultaneously estimate snow height and cold content from these measurements. Both, snow height and cold content are relevant quantities for spring flood forecasting.
Spatial variability was observed at the local and the catchment scale with an adjusted sampling design. At the local scale, samples were collected on two perpendicular transects of 60 m length and analysed with geostatistical methods. The range determined from fitted theoretical variograms was within the range of the sampling design for 80% of the plots. No patterns were found, that would explain the random variability and spatial correlation at the local scale.
At the watershed scale, locations of the extensive field campaign were selected according to a stratified sample design to capture the combined effects of elevation, aspect and land use. The snow height is mainly affected by the plot elevation. The expected influence of aspect and land use was not observed.
To better understand the deficiencies of the snow module in WaSiM-ETH, the same approach, a simple degree day model was checked for its capability to reproduce the data. The degree day model was capable to explain the temporal variability for plots with a continuous snow pack over the entire snow season, if parameters were estimated for single plots. However, processes described in the simple model are not sufficient to represent multiple accumulation-melt-cycles, as observed for the lower catchment. Thus, the combined spatio-temporal variability at the watershed scale is not captured by the model. Further tests on improved concepts for the representation of snow dynamics at the Weißeritz are required. From the data I suggest to include at least rain on snow and redistribution by wind as additional processes to better describe spatio-temporal variability. Alternatively an energy balance snow model could be tested.
Overall, the proposed learning cycle is a useful framework for targeted model improvement. The advanced model diagnostics is valuable to identify model deficiencies and to guide field measurements. The additional data collected throughout this work helps to get a deepened understanding of the processes in the Weisseritz catchment. / Modelle zur Hochwasservorhersage und –warnung basieren auf einer bio-physikalisch Repräsentation der relevanten hydrologischen Prozesse. Eine Verbesserungen der Beschreibung dieser Prozesse kann zuverlässigere Vorhersagen ermöglichen. Dazu wird die Benutzung eines Lernzykluses bestehend aus einer kritische Beurteilung eines existierenden Modells, der Erhebung zusätzlicher Daten, der Bildung eines vertieften Verständnis und einer Überarbeitung des Modells vorgeschlagen.
In dieser Arbeit wird ein solcher Lernzyklus aufgegriffen, wobei der Schwerpunkt auf einer verbesserten Modellanalyse und kosteneffizientere Messungen liegt. Für eine erfolgreiche Modellbeurteilung sind drei Fragen zu beantworten: 1) Wann reproduziert ein Modell die beobachteten Werte in einer zufriedenstellenden Weise (nicht)? 2) Wie lassen sich die Abweichungen charakterisieren? und 3) welches sind die Modellkomponenten, die diese Abweichungen bedingen? Um die ersten beiden Fragen zu beantworten, wird eine neue Methode zur Beurteilung des zeitlichen Verlaufs der Modellgüte vorgestellt. Eine wichtige Stärke ist, dass wiederholende Muster ungenügender Modellgüte auch für lange Simulationsläufe einfach identifiziert werden können. Die dritte Frage wird durch die Analyse des zeitlichen Verlaufs der Parametersensitivität beantwortet. Eine Kombination der beiden Methoden zur Beantwortung aller drei Fragen stellt ein umfangreiches Werkzeug für die Analyse hydrologischer Modelle zur Verfügung.
Als Fallstudie wurde WaSiM-ETH verwendet, um das Einzugsgebiet der wilden Weißeritz zu modellieren. Die Modellanalyse von WaSiM-ETH hat ergeben, dass die Schneedynamik und die Rezession während trockener Perioden im Spätsommer und Herbst, für eine Beschreibung der Prozesse an der Weißeritz nicht geeignet sind. Die Erhebung zusätzlicher Daten zum besseren Verständnis der Schneedynamik bildet den nächste Schritt im Lernzyklus.
Daten über Schneetemperaturen und Schneehöhen wurden mit Hilfe eines neuen, preisgünstigen Verfahrens erhoben. Dazu wurde die Temperatur an jedem Standort mit unterschiedlichen Abständen zum Boden gemessen und mit einem neuen Algorithmus in Schneehöhe und Kältegehalt umgerechnet. Die Schneehöhe und Kältegehalt sind wichtige Größen für die Vorhersage von Frühjahrshochwassern.
Die räumliche Variabilität der Schneedecke auf der Einzugsgebietsskala wurde entsprechend der Landnutzung, der Höhenzone und der Ausrichtung stratifiziert untersucht, wobei lediglich der Einfluss der Höhe nachgewiesen werden konnte, während Ausrichtung und Landnutzung keinen statistisch signifikanten Einfluss hatten.
Um die Defizite des WaSiM-ETH Schneemodules für die Beschreibung der Prozesse im Weißeritzeinzugsgebiets besser zu verstehen, wurde der gleiche konzeptionelle Ansatz als eigenständiges, kleines Modell benutzt, um die Dynamik in den Schneedaten zu reproduzieren. Während dieses Grad-Tag-Modell in der Lage war, den zeitlichen Verlauf für Flächen mit einer kontinuierlichen Schneedecke zu reproduzieren, konnte die Dynamik für Flächen mit mehreren Akkumulations- und Schmelzzyklen im unteren Einzugsgebiet vom Modell nicht abgebildet werden. Vorschläge zur Verbesserung des Modells werden in der Arbeit gemacht.
Zusammenfassend hat sich das Lernzyklus-Konzept als nützlich erwiesen, um gezielt an einer Modellverbesserung zu arbeiten. Die differenzierte Modelldiagnose ist wertvoll, um Defizite im Modellkonzept zu identifizieren. Die während dieser Studie erhobenen Daten sind geeignet, um ein verbessertes Verständnis der Schnee-Prozesse an der Weißeritz zu erlangen.
|
5 |
Ein Beitrag zur Synthese sechsgliedriger MechanismenHeinrich, Stefan 24 June 2013 (has links) (PDF)
Erzeugung sechsgliedriger Mechanismen auf Basis der Stephenson-Kette
Analyse und Optimierung der Strukturen mit Hilfe von Sensitivitässtudien
|
6 |
Parameterschätzung für elastisch-plastische Deformationsgesetze bei Berücksichtigung lokaler und globaler VergleichsgrößenBenedix, Ulrich 18 August 2000 (has links) (PDF)
Der Begriff ¨Parameteridentifikation¨ bedeutet die Berechnung von Parametern eines (i. a. nichtlinearen) Modells eines physikalischen Prozesses durch Minimierung eines Fehlerquadratfunktionals aus gemessenen und mit Hilfe des Modells berechneten Vergleichswerten. Unter einer ¨Parameterschätzung¨ wird zusätzlich die Bestimmung von Konfidenzintervallen der optimalen Parameter und von Korrelationskoeffizienten der Parameter untereinander verstanden.
In der vorliegenden Untersuchung wurde eine Parameterschätzung am Beispiel elastisch-plastischer Deformationsgesetze für kleine Verzerrungen vorgenommen, wobei als experimentelle Vergleichswerte sowohl lokale Größen (Spannungen) als auch globale Größen (Biegemoment und Längskraft) zur Verfügung standen.
Die Integration des nichtlinearen Deformationsgesetzes erfolgte mit Hilfe des impliziten Euler-Verfahrens. Die Sensitivitätsanalyse zur Bestimmung der für die anschließende Optimierung benötigten Ableitungen der Vergleichsgrößen nach den Parametern ist eingebettet in den Integrationsalgorithmus. Zur Optimierung der Zielfunktion wurde das Levenberg-Marquardt-Verfahren verwendet.
Anhand von Berechnungsergebnissen für unterschiedliche Modellfunktionen bei Einbeziehung verschiedenartiger Versuche werden Beispiele für erfolgreiche Parameterschätzungen sowie für das Auftreten systematischer Fehler und überparametrisierter Modelle angegeben. / The aim of the ``parameter identification'' is the calculation of parameters of a (generally nonlinear) model of a physical process by minimization of a least squares functional containing differences between measured and numerical calculated comparative quantities. ``Parameter estimation'' includes additionally the determination of confidence intervals of the optimal parameters and the calculation of correlation coefficients of the parameters to each other.
The present investigation deals with the parameter estimation in case of an elastic-plastic deformation law for small strains considering both local quantities (stresses) and global quantities (bending moment and longitudinal force) as experimental values.
The integration of the nonlinear deformation law has been done by the implicit Euler method. The sensitivity analysis to determine the derivatives of the comparative quantities with respect to the parameters needed for the optimization process is embedded into the integration algorithm.The optimization of the objective function has been carried out using the Levenberg-Marquardt algorithm.
Numerical results of the successful parameter estimation in case of different models and analyzing various experiments are presented. Some examples detecting the occurance of systematic errors and overparameterized models are given.
|
7 |
Zur Numerik der inversen Aufgabe für gemischte (u/p) Formulierungen am Beispiel der nahezu inkompressiblen Elastizität bei großen VerzerrungenGörke, Uwe-Jens, Bucher, Anke, Kreißig, Reiner 28 November 2007 (has links) (PDF)
In dieser Publikation werden ein numerisches
Verfahren zur Kalibrierung von Materialmodellen
für die Simulation großer, nahezu inkompressibler
hyperelastischer Verzerrungen sowie dessen
numerische Realiserung im Rahmen einer gemischten
Finite Elemente Formulierung vorgestellt.
Dabei werden die Parameter der konstitutiven
Beziehungen auf der Grundlage experimentell erfasster
Verschiebungsfelder (vorzugsweise inhomogener)
bzw. globaler Informationen ermittelt. Dieses
inkorrekte, inverse Problem wird mit Hilfe eines
deterministischen Optimierungsverfahrens vom
trust-region-Typ gelöst. Wesentlicher Bestandteil
ist dabei die halbanalytische Sensitivitätsanalyse,
die ein effizientes und hochgenaues Verfahren zur
Ermittlung des Gradienten der Zielfunktion darstellt.
Sie erfordert die einmalige Lösung eines zur direkten
Aufgabe analogen Gleichungssystems pro Parameter und
Lastschritt und basiert auf der impliziten
Differentiation der schwachen Formulierung des
gemischten Randwertproblems nach den
Materialparametern. Genauigkeit und Konvergenzverhalten
der numerischen Algorithmen werden an illustrativen
Beispielen mit synthetischen Messwerten demonstriert.
Im Mittelpunkt stehen dabei Untersuchungen zur
Abhängigkeit des Optimierungsergebnisses von den
Startwerten für unterschiedliche konstitutive
Ansätze der kompressiblen und nahezu
inkompressiblen Elastizität.
|
8 |
Identifikation schädigungsmechanischer Materialparameter mit Hilfe nichtlinearer Optimierungsverfahren am Beispiel des Rousselier ModellsSpringmann, Marcel, Kuna, Meinhard 05 April 2006 (has links)
Der vorliegende Beitrag befasst sich mit der
Identifikation von Parametern schädigungsmechanischer
Materialgesetze. In diesem Zusammenhang wird für
die Lösung des nichtlinearen Rand- und Anfangswertproblems
das finite Element System SPC-PMHP verwendet.
Die duktile Schädigung wird durch das Modell von
Rousselier beschrieben. Neben den Materialgleichungen
wird der Algorithmus zur numerischen Integration des
Materialgesetzes vorgestellt. Die zur
Materialparameteridentifikation erforderliche Lösung
der inversen Aufgabenstellung wird mit einem
nichtlinearen Optimierungsverfahren realisiert.
Die quadratische Abweichung zwischen gemessenen
und simulierten Verschiebungsfeldern wird als
Zielfunktion gewählt, deren Minimierung auf die
gesuchten Parameter führt. Im Rahmen der
deterministischen Optimierungsprozeduren wird zur
Bestimmung des Gradienten der Zielfunktion ein
impliziter Algorithmus - die sogenannte
semianalytische Sensitivitätsanalyse - angewandt.
Synthetisch erzeugte inhomogene Verschiebungsfelder
dienen als Messwerte und werden den berechneten
Verschiebungen gegenübergestellt. Mit verschiedenen
numerischen Experimenten wird am Beispiel einer
Scheibe mit Loch die Anwendbarkeit des Verfahrens
getestet.
|
9 |
Zur Numerik der inversen Aufgabe für gemischte (u/p) Formulierungen am Beispiel der nahezu inkompressiblen Elastizität bei großen VerzerrungenGörke, Uwe-Jens, Bucher, Anke, Kreißig, Reiner 28 November 2007 (has links)
In dieser Publikation werden ein numerisches
Verfahren zur Kalibrierung von Materialmodellen
für die Simulation großer, nahezu inkompressibler
hyperelastischer Verzerrungen sowie dessen
numerische Realiserung im Rahmen einer gemischten
Finite Elemente Formulierung vorgestellt.
Dabei werden die Parameter der konstitutiven
Beziehungen auf der Grundlage experimentell erfasster
Verschiebungsfelder (vorzugsweise inhomogener)
bzw. globaler Informationen ermittelt. Dieses
inkorrekte, inverse Problem wird mit Hilfe eines
deterministischen Optimierungsverfahrens vom
trust-region-Typ gelöst. Wesentlicher Bestandteil
ist dabei die halbanalytische Sensitivitätsanalyse,
die ein effizientes und hochgenaues Verfahren zur
Ermittlung des Gradienten der Zielfunktion darstellt.
Sie erfordert die einmalige Lösung eines zur direkten
Aufgabe analogen Gleichungssystems pro Parameter und
Lastschritt und basiert auf der impliziten
Differentiation der schwachen Formulierung des
gemischten Randwertproblems nach den
Materialparametern. Genauigkeit und Konvergenzverhalten
der numerischen Algorithmen werden an illustrativen
Beispielen mit synthetischen Messwerten demonstriert.
Im Mittelpunkt stehen dabei Untersuchungen zur
Abhängigkeit des Optimierungsergebnisses von den
Startwerten für unterschiedliche konstitutive
Ansätze der kompressiblen und nahezu
inkompressiblen Elastizität.
|
10 |
Ein Beitrag zur Synthese sechsgliedriger MechanismenHeinrich, Stefan 24 June 2013 (has links)
Erzeugung sechsgliedriger Mechanismen auf Basis der Stephenson-Kette
Analyse und Optimierung der Strukturen mit Hilfe von Sensitivitässtudien
|
Page generated in 0.0902 seconds