• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 23
  • 14
  • 9
  • Tagged with
  • 46
  • 43
  • 25
  • 25
  • 23
  • 23
  • 23
  • 15
  • 14
  • 11
  • 11
  • 9
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Identifikation schädigungsmechanischer Materialparameter mit Hilfe nichtlinearer Optimierungsverfahren am Beispiel des Rousselier Modells

Springmann, Marcel, Kuna, Meinhard 05 April 2006 (has links) (PDF)
Der vorliegende Beitrag befasst sich mit der Identifikation von Parametern schädigungsmechanischer Materialgesetze. In diesem Zusammenhang wird für die Lösung des nichtlinearen Rand- und Anfangswertproblems das finite Element System SPC-PMHP verwendet. Die duktile Schädigung wird durch das Modell von Rousselier beschrieben. Neben den Materialgleichungen wird der Algorithmus zur numerischen Integration des Materialgesetzes vorgestellt. Die zur Materialparameteridentifikation erforderliche Lösung der inversen Aufgabenstellung wird mit einem nichtlinearen Optimierungsverfahren realisiert. Die quadratische Abweichung zwischen gemessenen und simulierten Verschiebungsfeldern wird als Zielfunktion gewählt, deren Minimierung auf die gesuchten Parameter führt. Im Rahmen der deterministischen Optimierungsprozeduren wird zur Bestimmung des Gradienten der Zielfunktion ein impliziter Algorithmus - die sogenannte semianalytische Sensitivitätsanalyse - angewandt. Synthetisch erzeugte inhomogene Verschiebungsfelder dienen als Messwerte und werden den berechneten Verschiebungen gegenübergestellt. Mit verschiedenen numerischen Experimenten wird am Beispiel einer Scheibe mit Loch die Anwendbarkeit des Verfahrens getestet.
2

Strategische Einbindung der Umformsimulation in die Entwicklungsprozesskette Karosserie

Maaß, Lena 20 April 2017 (has links) (PDF)
Die Bauteileigenschaften von Bauteilen und Baugruppen im Karosseriebau werden maßgeblich durch die während des Tiefziehprozesses auftretenden Formänderungen und Verfestigungen beeinflusst. In der vorliegenden Arbeit wird daher die Umformsimulation in eine repräsentative virtuelle Prozesskette des Karosseriebaus integriert. Dazu wird zunächst die Datenübertragung zwischen den einzelnen Simulationsprogrammen in der Prozesskette Umformen - Fügen - Crash realisiert. Mit der anschließend durchgeführten Sensitivitätsanalyse wird festgestellt, welche Größen einen signifikanten Einfluss auf die Folgesimulationen haben. Aufbauend auf den Ergebnissen der Sensitivitätsanalyse wird eine Methode zur Gestaltung von einfachen Ankonstruktionen zur Verbesserung der Qualität der Ergebnisse der inversen Umformsimulation entwickelt und an einem Bauteil aus dem Karosseriebau validiert. Mit den durch die einfache Ankonstruktion erzielten Verbesserungen in den Ergebnissen der inversen Umformsimulation kann die entwickelte Methode einen Beitrag zur Erhöhung der Qualität der nachfolgenden Prozesssimulationen in der Prozesskette leisten.
3

Entwicklung einer End-of-Line Körperschallprüfmethodik für hochintegrierte elektrifizierte Antriebstopologien

Bonart, Jakob Andreas Erasmus 14 February 2024 (has links)
Die rasant ansteigenden Produktionsvolumina von elektrifizierten Fahrzeugen stellen für die jeweiligen Hersteller ein ungemein hohes Risiko dar, da neu industrialisierte Antriebstopologien innerhalb kürzester Zeit in großvolumigen Prozessketten gefertigt werden müssen. Neben der notwendigen produzierten Quantität muss jedoch auch die ausgelieferte Qualität höchsten Ansprüchen genügen. Im Gegensatz zu konventionellen Antrieben kann hierfür nicht auf jahrzehntelange Erfahrungsschätze von möglichen Fehlerfällen im Produktionssystem zurückgegriffen werden. Daher befasst sich diese Arbeit mit der Entwicklung einer körperschallbasierten Prüfmethodik am Bandende (End-of-Line, EOL) zur Identifikation und Benennung von fehlerhaften Antriebseinheiten. Durch die hochintegrierte Bauweise ergibt sich eine hohe Anzahl an kompetierenden Anregungsmechanismen, welche traditionellen Analysen keine eindeutige Fehlerzuordnung erlaubt. Zum Verständnis der gesamten Prüfkette werden die einzelnen Komponenten (Sensorik, Drehzahlprofile, Verarbeitung der Rohdaten, etc.) beleuchtet und ein taktzeittaugliches Prüfprofil vorgestellt. Hierauf basierend werden Sensitivitäten hinsichtlich toleranzbehafteter Merkmale wie Lagersitzpositionen oder Unwuchten bestimmt und Fehlermechanismen von Grund auf hergeleitet. Die resultierende Überbestimmung von praktisch jeder Maschinenordnung wird mithilfe der in dieser Arbeit entwickelten reduzierten Differenzkoinzidenz-Metrik (RDKM) signifikant reduziert. Die erarbeiteten Analysatoren werden zu einem allgemeinen Fehlerkatalog zusammengefasst und auf Validität mittels realer Fehlerfälle erfolgreich überprüft. Die RDKM-Methodik wird mittels Grenzmusteraufbauten auf die Separationseigenschaft gegenüber einer normalen Serienstreuung untersucht und allgemein anwendbare Grenzwerte hergeleitet. Abschließend befasst sich diese Arbeit mit der Produktionsskalierbarkeit durch weitere End-of-Line-Prüfstände und mit der notwendigen Adaptionsfähigkeit aufgrund von Chargenwechseln oder Produktanpassungen über Zeit.:1 Einleitung 11 2 Stand der Technik 15 2.1 Körperschall-Anregungsmechanismen 15 2.1.1 Exzentrizitätsanregungen 15 2.1.2 Getriebeanregungen 16 2.1.3 Magnetfeldanregungen 17 2.1.4 Wälzlageranregungen 20 2.2 Fehleridentifikationsverfahren 22 2.2.1 Maschinenüberwachung 22 2.2.2 EOL-Prüfstände 24 2.2.3 Unterschiede zwischen End-of-Line und Maschinenüberwachung 26 2.3 EOL-Körperschallprüfung bei Antriebsaggregaten 27 2.4 Messreplikation 27 2.5 Mathematische Methoden 28 3 Zielsetzung 33 4 Beschreibung der Prüflingstopologie und Prüfstände 37 4.1 Elektrische Antriebstopologie 37 4.2 Beschreibung der Prüfstände 38 4.2.1 Inline Prüfstand (IL) 38 4.2.2 End-of-Line Prüfstand (EOL) 40 5 Messkonzeption und Sensorik 43 5.1 Sensorik 43 5.1.1 Beschreibung taktiler Sensorik 43 5.1.2 Bewertung relevanter Restriktionen 45 5.2 Drehzahlprofil 46 5.2.1 Evaluation notwendiger Drehzahlgradienten 46 5.2.2 Nichtlineare Drehzahländerungen 50 5.3 Vorverarbeitung der Rohdaten 50 5.4 Wahl der Fourierparameter 51 5.4.1 Einfluss Fensterung 52 5.4.2 Mittelung der Messwerte 53 5.5 Resultierende Messgenauigkeiten 55 6 Körperschallanregungsmechanismen 57 6.1 Identifikation von Normanregungen 57 6.1.1 Dominante Pegel 57 6.1.2 Normalisierung über Box-Cox Transformation 57 6.1.3 Evaluation 58 6.2 Sensitivitätsanalyse 61 6.2.1 Vorgehen 61 6.2.2 Zusammenfassung von Sensitivitäten 66 6.3 Vervollständigung theoretischer Anregungen 66 6.3.1 Lagerhochharmonische Anregung 66 6.3.2 Asymmetrische Seitenbänder 69 6.4 Bestimmungsgrad von Ordnungen 72 7 Fehleridentifikation 77 7.1 Ansatz und Methodik 77 7.1.1 Motivation 77 7.1.2 Mathematische Beschreibung des Ansatzes 78 7.1.3 Erweiterung um IL-Prüfstandsinformationen 81 7.2 Auswirkung auf Bestimmtheitsgrad 81 7.3 Fehlerkatalogisierung 82 7.3.1 Instanzierung von Fehlern 82 7.3.2 Fehlerlokalisation 85 7.4 Evaluation 86 7.4.1 Exemplarische Evaluation 86 7.4.2 Statistische Evaluation 89 8 Fehlerdetektion 93 8.1 Grenzfindung 93 8.1.1 Allgemeine Grenze 93 8.1.2 Spezifische Grenzen 94 8.1.3 Spezifierte allgemeine Prüfgrenzen 98 9 Skalierbarkeit der Prüfmethodik 101 9.1 Kapazitätsskalierbarkeit 101 9.1.1 Direkter Grenzübertrag 101 9.1.2 Statistischer Grenzübertrag 102 9.1.3 Evaluation der Übertragsmethodiken 104 9.2 Zeitskalierbarkeit 105 10 Zusammenfassung und Ausblick 109 10.1 Zusammenfassung 109 10.2 Ausblick 110
4

Combining smart model diagnostics and effective data collection for snow catchments

Reusser, Dominik E. January 2011 (has links)
Complete protection against flood risks by structural measures is impossible. Therefore flood prediction is important for flood risk management. Good explanatory power of flood models requires a meaningful representation of bio-physical processes. Therefore great interest exists to improve the process representation. Progress in hydrological process understanding is achieved through a learning cycle including critical assessment of an existing model for a given catchment as a first step. The assessment will highlight deficiencies of the model, from which useful additional data requirements are derived, giving a guideline for new measurements. These new measurements may in turn lead to improved process concepts. The improved process concepts are finally summarized in an updated hydrological model. In this thesis I demonstrate such a learning cycle, focusing on the advancement of model evaluation methods and more cost effective measurements. For a successful model evaluation, I propose that three questions should be answered: 1) when is a model reproducing observations in a satisfactory way? 2) If model results deviate, of what nature is the difference? And 3) what are most likely the relevant model components affecting these differences? To answer the first two questions, I developed a new method to assess the temporal dynamics of model performance (or TIGER - TIme series of Grouped Errors). This method is powerful in highlighting recurrent patterns of insufficient model behaviour for long simulation periods. I answered the third question with the analysis of the temporal dynamics of parameter sensitivity (TEDPAS). For calculating TEDPAS, an efficient method for sensitivity analysis is necessary. I used such an efficient method called Fourier Amplitude Sensitivity Test, which has a smart sampling scheme. Combining the two methods TIGER and TEDPAS provided a powerful tool for model assessment. With WaSiM-ETH applied to the Weisseritz catchment as a case study, I found insufficient process descriptions for the snow dynamics and for the recession during dry periods in late summer and fall. Focusing on snow dynamics, reasons for poor model performance can either be a poor representation of snow processes in the model, or poor data on snow cover, or both. To obtain an improved data set on snow cover, time series of snow height and temperatures were collected with a cost efficient method based on temperature measurements on multiple levels at each location. An algorithm was developed to simultaneously estimate snow height and cold content from these measurements. Both, snow height and cold content are relevant quantities for spring flood forecasting. Spatial variability was observed at the local and the catchment scale with an adjusted sampling design. At the local scale, samples were collected on two perpendicular transects of 60 m length and analysed with geostatistical methods. The range determined from fitted theoretical variograms was within the range of the sampling design for 80% of the plots. No patterns were found, that would explain the random variability and spatial correlation at the local scale. At the watershed scale, locations of the extensive field campaign were selected according to a stratified sample design to capture the combined effects of elevation, aspect and land use. The snow height is mainly affected by the plot elevation. The expected influence of aspect and land use was not observed. To better understand the deficiencies of the snow module in WaSiM-ETH, the same approach, a simple degree day model was checked for its capability to reproduce the data. The degree day model was capable to explain the temporal variability for plots with a continuous snow pack over the entire snow season, if parameters were estimated for single plots. However, processes described in the simple model are not sufficient to represent multiple accumulation-melt-cycles, as observed for the lower catchment. Thus, the combined spatio-temporal variability at the watershed scale is not captured by the model. Further tests on improved concepts for the representation of snow dynamics at the Weißeritz are required. From the data I suggest to include at least rain on snow and redistribution by wind as additional processes to better describe spatio-temporal variability. Alternatively an energy balance snow model could be tested. Overall, the proposed learning cycle is a useful framework for targeted model improvement. The advanced model diagnostics is valuable to identify model deficiencies and to guide field measurements. The additional data collected throughout this work helps to get a deepened understanding of the processes in the Weisseritz catchment. / Modelle zur Hochwasservorhersage und –warnung basieren auf einer bio-physikalisch Repräsentation der relevanten hydrologischen Prozesse. Eine Verbesserungen der Beschreibung dieser Prozesse kann zuverlässigere Vorhersagen ermöglichen. Dazu wird die Benutzung eines Lernzykluses bestehend aus einer kritische Beurteilung eines existierenden Modells, der Erhebung zusätzlicher Daten, der Bildung eines vertieften Verständnis und einer Überarbeitung des Modells vorgeschlagen. In dieser Arbeit wird ein solcher Lernzyklus aufgegriffen, wobei der Schwerpunkt auf einer verbesserten Modellanalyse und kosteneffizientere Messungen liegt. Für eine erfolgreiche Modellbeurteilung sind drei Fragen zu beantworten: 1) Wann reproduziert ein Modell die beobachteten Werte in einer zufriedenstellenden Weise (nicht)? 2) Wie lassen sich die Abweichungen charakterisieren? und 3) welches sind die Modellkomponenten, die diese Abweichungen bedingen? Um die ersten beiden Fragen zu beantworten, wird eine neue Methode zur Beurteilung des zeitlichen Verlaufs der Modellgüte vorgestellt. Eine wichtige Stärke ist, dass wiederholende Muster ungenügender Modellgüte auch für lange Simulationsläufe einfach identifiziert werden können. Die dritte Frage wird durch die Analyse des zeitlichen Verlaufs der Parametersensitivität beantwortet. Eine Kombination der beiden Methoden zur Beantwortung aller drei Fragen stellt ein umfangreiches Werkzeug für die Analyse hydrologischer Modelle zur Verfügung. Als Fallstudie wurde WaSiM-ETH verwendet, um das Einzugsgebiet der wilden Weißeritz zu modellieren. Die Modellanalyse von WaSiM-ETH hat ergeben, dass die Schneedynamik und die Rezession während trockener Perioden im Spätsommer und Herbst, für eine Beschreibung der Prozesse an der Weißeritz nicht geeignet sind. Die Erhebung zusätzlicher Daten zum besseren Verständnis der Schneedynamik bildet den nächste Schritt im Lernzyklus. Daten über Schneetemperaturen und Schneehöhen wurden mit Hilfe eines neuen, preisgünstigen Verfahrens erhoben. Dazu wurde die Temperatur an jedem Standort mit unterschiedlichen Abständen zum Boden gemessen und mit einem neuen Algorithmus in Schneehöhe und Kältegehalt umgerechnet. Die Schneehöhe und Kältegehalt sind wichtige Größen für die Vorhersage von Frühjahrshochwassern. Die räumliche Variabilität der Schneedecke auf der Einzugsgebietsskala wurde entsprechend der Landnutzung, der Höhenzone und der Ausrichtung stratifiziert untersucht, wobei lediglich der Einfluss der Höhe nachgewiesen werden konnte, während Ausrichtung und Landnutzung keinen statistisch signifikanten Einfluss hatten. Um die Defizite des WaSiM-ETH Schneemodules für die Beschreibung der Prozesse im Weißeritzeinzugsgebiets besser zu verstehen, wurde der gleiche konzeptionelle Ansatz als eigenständiges, kleines Modell benutzt, um die Dynamik in den Schneedaten zu reproduzieren. Während dieses Grad-Tag-Modell in der Lage war, den zeitlichen Verlauf für Flächen mit einer kontinuierlichen Schneedecke zu reproduzieren, konnte die Dynamik für Flächen mit mehreren Akkumulations- und Schmelzzyklen im unteren Einzugsgebiet vom Modell nicht abgebildet werden. Vorschläge zur Verbesserung des Modells werden in der Arbeit gemacht. Zusammenfassend hat sich das Lernzyklus-Konzept als nützlich erwiesen, um gezielt an einer Modellverbesserung zu arbeiten. Die differenzierte Modelldiagnose ist wertvoll, um Defizite im Modellkonzept zu identifizieren. Die während dieser Studie erhobenen Daten sind geeignet, um ein verbessertes Verständnis der Schnee-Prozesse an der Weißeritz zu erlangen.
5

Ein Beitrag zur Synthese sechsgliedriger Mechanismen

Heinrich, Stefan 24 June 2013 (has links) (PDF)
Erzeugung sechsgliedriger Mechanismen auf Basis der Stephenson-Kette Analyse und Optimierung der Strukturen mit Hilfe von Sensitivitässtudien
6

Parameterschätzung für elastisch-plastische Deformationsgesetze bei Berücksichtigung lokaler und globaler Vergleichsgrößen

Benedix, Ulrich 18 August 2000 (has links) (PDF)
Der Begriff ¨Parameteridentifikation¨ bedeutet die Berechnung von Parametern eines (i. a. nichtlinearen) Modells eines physikalischen Prozesses durch Minimierung eines Fehlerquadratfunktionals aus gemessenen und mit Hilfe des Modells berechneten Vergleichswerten. Unter einer ¨Parameterschätzung¨ wird zusätzlich die Bestimmung von Konfidenzintervallen der optimalen Parameter und von Korrelationskoeffizienten der Parameter untereinander verstanden. In der vorliegenden Untersuchung wurde eine Parameterschätzung am Beispiel elastisch-plastischer Deformationsgesetze für kleine Verzerrungen vorgenommen, wobei als experimentelle Vergleichswerte sowohl lokale Größen (Spannungen) als auch globale Größen (Biegemoment und Längskraft) zur Verfügung standen. Die Integration des nichtlinearen Deformationsgesetzes erfolgte mit Hilfe des impliziten Euler-Verfahrens. Die Sensitivitätsanalyse zur Bestimmung der für die anschließende Optimierung benötigten Ableitungen der Vergleichsgrößen nach den Parametern ist eingebettet in den Integrationsalgorithmus. Zur Optimierung der Zielfunktion wurde das Levenberg-Marquardt-Verfahren verwendet. Anhand von Berechnungsergebnissen für unterschiedliche Modellfunktionen bei Einbeziehung verschiedenartiger Versuche werden Beispiele für erfolgreiche Parameterschätzungen sowie für das Auftreten systematischer Fehler und überparametrisierter Modelle angegeben. / The aim of the ``parameter identification'' is the calculation of parameters of a (generally nonlinear) model of a physical process by minimization of a least squares functional containing differences between measured and numerical calculated comparative quantities. ``Parameter estimation'' includes additionally the determination of confidence intervals of the optimal parameters and the calculation of correlation coefficients of the parameters to each other. The present investigation deals with the parameter estimation in case of an elastic-plastic deformation law for small strains considering both local quantities (stresses) and global quantities (bending moment and longitudinal force) as experimental values. The integration of the nonlinear deformation law has been done by the implicit Euler method. The sensitivity analysis to determine the derivatives of the comparative quantities with respect to the parameters needed for the optimization process is embedded into the integration algorithm.The optimization of the objective function has been carried out using the Levenberg-Marquardt algorithm. Numerical results of the successful parameter estimation in case of different models and analyzing various experiments are presented. Some examples detecting the occurance of systematic errors and overparameterized models are given.
7

Zur Numerik der inversen Aufgabe für gemischte (u/p) Formulierungen am Beispiel der nahezu inkompressiblen Elastizität bei großen Verzerrungen

Görke, Uwe-Jens, Bucher, Anke, Kreißig, Reiner 28 November 2007 (has links) (PDF)
In dieser Publikation werden ein numerisches Verfahren zur Kalibrierung von Materialmodellen für die Simulation großer, nahezu inkompressibler hyperelastischer Verzerrungen sowie dessen numerische Realiserung im Rahmen einer gemischten Finite Elemente Formulierung vorgestellt. Dabei werden die Parameter der konstitutiven Beziehungen auf der Grundlage experimentell erfasster Verschiebungsfelder (vorzugsweise inhomogener) bzw. globaler Informationen ermittelt. Dieses inkorrekte, inverse Problem wird mit Hilfe eines deterministischen Optimierungsverfahrens vom trust-region-Typ gelöst. Wesentlicher Bestandteil ist dabei die halbanalytische Sensitivitätsanalyse, die ein effizientes und hochgenaues Verfahren zur Ermittlung des Gradienten der Zielfunktion darstellt. Sie erfordert die einmalige Lösung eines zur direkten Aufgabe analogen Gleichungssystems pro Parameter und Lastschritt und basiert auf der impliziten Differentiation der schwachen Formulierung des gemischten Randwertproblems nach den Materialparametern. Genauigkeit und Konvergenzverhalten der numerischen Algorithmen werden an illustrativen Beispielen mit synthetischen Messwerten demonstriert. Im Mittelpunkt stehen dabei Untersuchungen zur Abhängigkeit des Optimierungsergebnisses von den Startwerten für unterschiedliche konstitutive Ansätze der kompressiblen und nahezu inkompressiblen Elastizität.
8

Identifikation schädigungsmechanischer Materialparameter mit Hilfe nichtlinearer Optimierungsverfahren am Beispiel des Rousselier Modells

Springmann, Marcel, Kuna, Meinhard 05 April 2006 (has links)
Der vorliegende Beitrag befasst sich mit der Identifikation von Parametern schädigungsmechanischer Materialgesetze. In diesem Zusammenhang wird für die Lösung des nichtlinearen Rand- und Anfangswertproblems das finite Element System SPC-PMHP verwendet. Die duktile Schädigung wird durch das Modell von Rousselier beschrieben. Neben den Materialgleichungen wird der Algorithmus zur numerischen Integration des Materialgesetzes vorgestellt. Die zur Materialparameteridentifikation erforderliche Lösung der inversen Aufgabenstellung wird mit einem nichtlinearen Optimierungsverfahren realisiert. Die quadratische Abweichung zwischen gemessenen und simulierten Verschiebungsfeldern wird als Zielfunktion gewählt, deren Minimierung auf die gesuchten Parameter führt. Im Rahmen der deterministischen Optimierungsprozeduren wird zur Bestimmung des Gradienten der Zielfunktion ein impliziter Algorithmus - die sogenannte semianalytische Sensitivitätsanalyse - angewandt. Synthetisch erzeugte inhomogene Verschiebungsfelder dienen als Messwerte und werden den berechneten Verschiebungen gegenübergestellt. Mit verschiedenen numerischen Experimenten wird am Beispiel einer Scheibe mit Loch die Anwendbarkeit des Verfahrens getestet.
9

Zur Numerik der inversen Aufgabe für gemischte (u/p) Formulierungen am Beispiel der nahezu inkompressiblen Elastizität bei großen Verzerrungen

Görke, Uwe-Jens, Bucher, Anke, Kreißig, Reiner 28 November 2007 (has links)
In dieser Publikation werden ein numerisches Verfahren zur Kalibrierung von Materialmodellen für die Simulation großer, nahezu inkompressibler hyperelastischer Verzerrungen sowie dessen numerische Realiserung im Rahmen einer gemischten Finite Elemente Formulierung vorgestellt. Dabei werden die Parameter der konstitutiven Beziehungen auf der Grundlage experimentell erfasster Verschiebungsfelder (vorzugsweise inhomogener) bzw. globaler Informationen ermittelt. Dieses inkorrekte, inverse Problem wird mit Hilfe eines deterministischen Optimierungsverfahrens vom trust-region-Typ gelöst. Wesentlicher Bestandteil ist dabei die halbanalytische Sensitivitätsanalyse, die ein effizientes und hochgenaues Verfahren zur Ermittlung des Gradienten der Zielfunktion darstellt. Sie erfordert die einmalige Lösung eines zur direkten Aufgabe analogen Gleichungssystems pro Parameter und Lastschritt und basiert auf der impliziten Differentiation der schwachen Formulierung des gemischten Randwertproblems nach den Materialparametern. Genauigkeit und Konvergenzverhalten der numerischen Algorithmen werden an illustrativen Beispielen mit synthetischen Messwerten demonstriert. Im Mittelpunkt stehen dabei Untersuchungen zur Abhängigkeit des Optimierungsergebnisses von den Startwerten für unterschiedliche konstitutive Ansätze der kompressiblen und nahezu inkompressiblen Elastizität.
10

Ein Beitrag zur Synthese sechsgliedriger Mechanismen

Heinrich, Stefan 24 June 2013 (has links)
Erzeugung sechsgliedriger Mechanismen auf Basis der Stephenson-Kette Analyse und Optimierung der Strukturen mit Hilfe von Sensitivitässtudien

Page generated in 0.0902 seconds