• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 27
  • 11
  • 1
  • Tagged with
  • 68
  • 45
  • 25
  • 25
  • 25
  • 22
  • 18
  • 15
  • 13
  • 10
  • 10
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Untersuchungen zur inneren Struktur von Hydrogelen aus N-Isopropylacrylamid mittels statischer Lichtstreuung

Brunner, Birgit M. January 2005 (has links)
Stuttgart, Univ., Diss., 2005.
22

Untersuchung von Wechselwirkungen zwischen verschiedenen für die Papierherstellung eingesetzten Polymeren in wässrigen Lösungen

Köth, Melanie. Unknown Date (has links)
Techn. Universiẗat, Diss., 2001--Darmstadt.
23

Software verification for programmable logic controllers

Huuck, Ralf. Unknown Date (has links) (PDF)
University, Diss., 2003--Kiel.
24

Set based failure diagnosis for concurrent constraint programming

Müller, Martin Ludwig. Unknown Date (has links) (PDF)
University, Diss., 1998--Saarbrücken.
25

A uniform framework for the formal specification and verification of information flow security

Mantel, Heiko. Unknown Date (has links) (PDF)
University, Diss., 2003--Saarbrücken.
26

Numerische Simulation und experimentelle Validierung statischer Mischelemente

Anders, Denis 05 July 2019 (has links)
Statische Mischelemente spielen in der Verfahrenstechnik eine wichtige Rolle. Anwendungsbeispiele finden sich in der Lebens- und Nahrungsmittelindustrie (Homogenisieren von Milch, Teigwarenherstellung, Mischen von Pasten, etc.), bei pharmazeutischen Herstellprozessen (z.B. Pulvermischungen bei der Produktion von Tabletten, homogene Verteilung der Bestandteile ist Voraussetzung für die exakte Dosierung von Arzneimitteln) sowie Mischprozessen in der chemischen Industrie (Beeinflussung der Reaktionskinetik, Vermeidung unerwünschter Zwischenprodukte, etc.). Der aktuelle Beitrag beschäftigt sich mit der numerischen Strömungsberechnung (CFD) von Wendelmischern bestehend aus 2, 4 oder 6 Mischelementen. Die erzielten Ergebnisse werden mit experimentellen Untersuchungen an der Rohrmessstrecke des Labors für Strömungslehre an der TH Köln validiert.
27

Ein HPC-tauglicher Spektralelemente-Löser auf der Grundlage von statischer Kondensation und Mehrgittermethoden

Haupt, Lars 19 June 2019 (has links)
Arbeitstitel: Erweiterte mathematische Methoden zur Simulation von turbulenten Strömungsvorgängen auf parallelen Rechnern:Inhaltsverzeichnis 1 Einleitung 3 2 Numerische Simulation physikalischer Prozesse 6 2.1 Königsdisziplin - Turbulente Strömungssimulation 6 2.2 Vom mathematischen Modell zur numerischen Lösung 9 2.2.1 Räumliche und zeitliche Diskretisierung 9 2.2.2 Allgemeine Reduktion auf Poisson- und Helmholtz-Gleichungen 11 2.3 Anforderungen an effiziente Lösungsverfahren 12 3 Basiskomponenten des entwickelten Verfahrens 16 3.1 Spektralelemente-Methode 16 3.1.1 Grundlagen 17 3.1.2 Gewählte Ansatzfunktionen und Stützstellen 20 3.1.3 Struktur des linearen Operators 24 3.2 Statische Kondensation 25 3.3 Geometrisches Mehrgitterverfahren 26 4 Das Spektralelemente basierte Mehrgitterverfahren auf kondensierten Gittern 31 4.1 Stand der Forschung 31 4.2 Mehrgitterverfahren auf kondensierten Gittern 32 4.2.1 Konzeption wirkungsvoller Glätter 34 4.3 Nachweis optimaler Eigenschaften 41 4.3.1 Lineare Komplexität 41 4.3.2 Ausgezeichnete Konvergenzgeschwindigkeit 43 4.3.3 Robustheit gegenüber Gitterverfeinerung 46 5 Konzeption des parallelen Mehrgitterlösers 49 5.1 Parallelrechner und Leistungsbewertungskriterien 49 5.2 Stand der Forschung 52 5.3 Grundlegende Struktur und Parallelisierung 54 5.3.1 Analyse des Speicherbedarfs 54 5.3.2 Zwei- und dreidimensionale Zerlegung 58 5.3.3 Parallelisierung und Kommunikation 62 6 Ergebnisse 65 6.1 Implementierung des Lösers 65 6.2 Hardwarespezifikation des Testsystems 66 6.3 Bewertung der Implementierung 68 6.3.1 Sequentieller Anwendungsfall 68 6.3.2 Nachweis der Skalierbarkeit im parallelen Anwendungsfall 76 6.3.3 Vergleich mit etablierten Lösungsansätzen bzw. Lösern 87 7 Zusammenfassung und Ausblick 89 Abbildungsverzeichnis 92 Tabellenverzeichnis 94 Abkürzungsverzeichnis 95 Symbolverzeichnis 96 Literaturverzeichnis 98 A Weiterführende Messergebnisse 106 A.1 Relative Mehrkosten der parallelen Implementierung 106 A.2 Sequentielle Lösungszeiten ohne Nachglättung im 2D-Fall 107 A.3 Sequentielle Lösungszeiten ohne Nachglättung im 3D-Fall 108 / Die rechnergestützte Simulation physikalischer Prozesse ist ein fester Bestandteil im Alltag von Wissenschaftlern aus den unterschiedlichsten Wissensbereichen. Unabhängig davon, ob das Ziel die Vorhersage des Wetters von morgen, die Konzentrationsbestimmung von Fluidteilchen in Mischprozessen oder die Erschaffung von Werkstoffen mit optimalen Materialeigenschaften ist, ohne den Einsatz von leistungsfähigen Rechnern ist dieses Ziel nicht zu erreichen. Aus dieser inhärenten Kopplung lässt sich eine grundlegende Aussage bzgl. der Laufzeit durchzuführender Simulationen ableiten. Schnellere Rechentechnik reduziert automatisch die Laufzeit einer bereits bestehenden Simulation und somit auch die Wartezeit auf die potentiell zu erwartenden Erkenntnisse. Zeitgleich ist die so erreichte Reduktion der Berechnungszeit auch ein Maß für die mögliche Erhöhung des Detailgrades einer bestehenden Simulation und somit auch ein Indikator für den zusätzlich zu erwartenden Erkenntnisgewinn. Ein Blick auf die seit 1993 herausgegebene Top500-Liste der schnellsten Supercomputer zeigt ein annähernd gleichbleibend exponentielles Wachstum der Rechenleistung. Dieser durch eine Interpretation von „Moores-Law“ beschriebene Sachverhalt wird laut aktuellen Prognosen auch in den nächsten Jahren bestehen bleiben. Für die im Bereich der Simulation tätigen Wissenschaftler gleicht dies einem Versprechen, dass ohne deren Zutun auch in Zukunft mit stetig kürzeren Simulationszeiten zu rechnen ist. Immer vorausgesetzt, es können genug finanzielle Mittel für die neue Hardware akquiriert werden. Doch dieser Schein trügt. Eine genauere Analyse der Entwicklung der Rechentechnik der letzten Jahre zeigt zwei maßgebliche Veränderungen. Zum einen stagniert die maximale Taktrate einer einzelnen CPU seit Erreichen der 4 GHz Grenze im Jahr 2004 und zum anderen wird, insbesondere seit der Einführung der ersten Dual Core CPU’s 2005, gesteigerte Rechenleistung fast gänzlich durch die Verwendung einer Vielzahl von Rechenkernen erreicht. Das aktuell mit mehr als zehn Millionen Rechenkernen an Position 1 der Top500-Liste geführte System TaihuLight (deu. Licht der Göttlichkeit) verdeutlicht die Dimensionen dieser Entwicklung. Die für dieses System in Aussicht gestellte maximale Rechenleistung von circa 125 Billiarden gleitkommaoperationen pro Sekunde, kann dabei nur von einer perfekt parallelisierten Simulationsrechnung erreicht werden. „Amdahls-Law“ zeigt jedoch, dass dieser perfekte Zustand, aufgrund von unvermeidlichen sequentiellen Abschnitten in den einzelnen im Programm verwendeten Algorithmen, nicht zu erreichen ist. Die genaue Abweichung vom vollparallelisierten Idealzustand wird dabei durch die sogenannte parallele Effizienz quantifiziert. Deren Wert muss hierbei per Definition zwischen Null und Eins liegen. Dem Paradigma „eine hohe parallele Effizienz ergibt eine hohe Rechenleistung und dies führt zur kürzestmöglichen Simulationslaufzeit“ folgend, wurden in den letzten Jahren die unterschiedlichsten Simulationsprogramme auf eben diese Effizienz getrimmt. In den meisten Fällen wurden hierfür Codes verwendet, die auf eine sehr lange Historie zurückgreifen, so dass alte bestehende Strukturen und Algorithmen unabhängig von deren wirklicher Eignung parallelisiert wurden. Diese Entwicklung führt jedoch mehr und mehr dazu, dass die Entwickler den Blick für die Vielseitigkeit der Faktoren, die zu einer akzeptablen Simulationslaufzeit führen, verlieren. Werden zum Beispiel Methoden niederer Ordnung, wie dies etwa bei den Standard Finite-Differenzen-Verfahren der Fall ist, zur Diskretisierung des Simulationsgebietes eingesetzt, steigt die Zahl der für kleine Lösungsfehler benötigten Gitterpunkte so schnell an, dass jedweder Arbeitsspeicher vor Erreichen der benötigten Genauigkeit aufgebraucht ist. Im Gegensatz dazu sind Methoden höherer Ordnung, wie dies etwa bei den Standard Finite-Elemente-Verfahren der Fall ist, aufgrund ihrer suboptimalen numerischen Komplexität kaum besser geeignet. Ein ähnliches Bild ergibt sich bei den Algorithmen, mit denen die Gleichungssysteme in den einzelnen Simulationsschritten gelöst werden. Stellvertretend sei hier das Jacobi-Verfahren genannt, welches sich zwar durch eine parallele Effizienz nahe Eins auszeichnet, jedoch zum einen eine nicht optimale quadratische numerische Komplexität und zum anderen eine von der Auflösung des Simulationsgitters abhängige maximale Iterationszahl besitzt. Sofern die Anwender der etablierten Simulationsprogramme keine Kosten für den Zugang zu Hochleistungsrechnern zu erwarten haben und diese Rechner immer wieder massiv ausgebaut werden, stellen die genannten Einschränkungen fürs Erste nur bedingt ein Problem dar. Denn, eine Simulation die nach Hinzunahme einer bestimmten Zahl von Rechenkernen um annähernd diesen Faktor beschleunigt wird ist etwas Ausgezeichnetes. Werden den Anwendern jedoch, wie bereits von immer mehr Universitätsrechenzentren diskutiert und in der Industrie bereits gängige Praxis, die Kosten für den Energieverbrauch in Rechnung gestellt, ergibt sich ein gänzlich anderes Bild. Ein Bild, in dem der Effizienz, die die angewandten Methoden bzw. die eingesetzten Algorithmen erreichen, die größte Bedeutung zufällt. Die Effizienz einer Methode wird hierbei ungenauerweise oft nur anhand deren Implementierung als Algorithmus bestimmt. Jedoch kann eine effizient implementierte Methode mit numerisch ungünstigen Eigenschaften einer nicht effizient implementierten Methode mit numerisch optimalen Eigenschaften deutlich unterlegen sein. Demnach ist es offensichtlich, dass nur für eine effizient implementierte Methode mit optimalen numerischen Eigenschaften die kürzestmögliche Simulationslaufzeit erreicht werden kann. Der Fokus der vorliegenden Arbeit liegt deshalb zu allererst auf dem Nachweis der optimalen numerisch/mathematischen Eigenschaften der entwickelten Methode. Diese Eigenschaften sind: lineare numerische Komplexität, Robustheit des Verfahrens gegenüber Gitterverfeinerungen im Simulationsgebiet und eine bisher unerreichte Konvergenzrate. Abschließend wird zusätzlich die Eignung der Methoden bzgl. deren Verwendung auf aktuellen Hochleistungsrechnern unter Verwendung von Zehntausenden von Rechenkernen belegt und auch deren effiziente Implementierung bzw. Umsetzung dargelegt. Ziel dieser Arbeit ist die Entwicklung effizienter mathematischer Methoden zur numerischen Simulation von physikalischen Prozessen und deren hochskalierende Implementierung auf Hochleistungsrechnern. Unter allen denkbaren Aufgabenstellungen zählen hierbei insbesondere diejenigen zu den herausforderndsten, die der Strömungsmechanik zugeordnet sind. Besonders die direkte numerische Simulation (DNS), welche zur Analyse von turbulenten Strömungsphänomenen eingesetzt wird, stellt hierbei höchste Ansprüche an die eingesetzten numerischen Verfahren. Die Entwicklung und Umsetzung der im Rahmen dieser Arbeit vorgestellten Methoden ist deshalb auf die Anwendung im Rahmen der turbulenten Strömungssimulation ausgerichtet. Diese Fokussierung dient jedoch allein dem Beleg der Leistungsfähigkeit und stellt keine prinzipielle Einschränkung der Methode dar.:Inhaltsverzeichnis 1 Einleitung 3 2 Numerische Simulation physikalischer Prozesse 6 2.1 Königsdisziplin - Turbulente Strömungssimulation 6 2.2 Vom mathematischen Modell zur numerischen Lösung 9 2.2.1 Räumliche und zeitliche Diskretisierung 9 2.2.2 Allgemeine Reduktion auf Poisson- und Helmholtz-Gleichungen 11 2.3 Anforderungen an effiziente Lösungsverfahren 12 3 Basiskomponenten des entwickelten Verfahrens 16 3.1 Spektralelemente-Methode 16 3.1.1 Grundlagen 17 3.1.2 Gewählte Ansatzfunktionen und Stützstellen 20 3.1.3 Struktur des linearen Operators 24 3.2 Statische Kondensation 25 3.3 Geometrisches Mehrgitterverfahren 26 4 Das Spektralelemente basierte Mehrgitterverfahren auf kondensierten Gittern 31 4.1 Stand der Forschung 31 4.2 Mehrgitterverfahren auf kondensierten Gittern 32 4.2.1 Konzeption wirkungsvoller Glätter 34 4.3 Nachweis optimaler Eigenschaften 41 4.3.1 Lineare Komplexität 41 4.3.2 Ausgezeichnete Konvergenzgeschwindigkeit 43 4.3.3 Robustheit gegenüber Gitterverfeinerung 46 5 Konzeption des parallelen Mehrgitterlösers 49 5.1 Parallelrechner und Leistungsbewertungskriterien 49 5.2 Stand der Forschung 52 5.3 Grundlegende Struktur und Parallelisierung 54 5.3.1 Analyse des Speicherbedarfs 54 5.3.2 Zwei- und dreidimensionale Zerlegung 58 5.3.3 Parallelisierung und Kommunikation 62 6 Ergebnisse 65 6.1 Implementierung des Lösers 65 6.2 Hardwarespezifikation des Testsystems 66 6.3 Bewertung der Implementierung 68 6.3.1 Sequentieller Anwendungsfall 68 6.3.2 Nachweis der Skalierbarkeit im parallelen Anwendungsfall 76 6.3.3 Vergleich mit etablierten Lösungsansätzen bzw. Lösern 87 7 Zusammenfassung und Ausblick 89 Abbildungsverzeichnis 92 Tabellenverzeichnis 94 Abkürzungsverzeichnis 95 Symbolverzeichnis 96 Literaturverzeichnis 98 A Weiterführende Messergebnisse 106 A.1 Relative Mehrkosten der parallelen Implementierung 106 A.2 Sequentielle Lösungszeiten ohne Nachglättung im 2D-Fall 107 A.3 Sequentielle Lösungszeiten ohne Nachglättung im 3D-Fall 108
28

CORFU - An Extended Model-Driven Framework for Small Satellite Software with Code Feedback / CORFU - Ein erweitertes modellgetriebenes Framework für Satellitensoftware mit Code-Rückinformation

Flederer, Frank January 2021 (has links) (PDF)
Corfu is a framework for satellite software, not only for the onboard part but also for the ground. Developing software with Corfu follows an iterative model-driven approach. The basis of the process is an engineering model. Engineers formally describe the basic structure of the onboard software in configuration files, which build the engineering model. In the first step, Corfu verifies the model at different levels. Not only syntactically and semantically but also on a higher level such as the scheduling. Based on the model, Corfu generates a software scaffold, which follows an application-centric approach. Software images onboard consist of a list of applications connected through communication channels called topics. Corfu’s generic and generated code covers this fundamental communication, telecommand, and telemetry handling. All users have to do is inheriting from a generated class and implement the behavior in overridden methods. For each application, the generator creates an abstract class with pure virtual methods. Those methods are callback functions, e.g., for handling telecommands or executing code in threads. However, from the model, one can not foresee the software implementation by users. Therefore, as an innovation compared to other frameworks, Corfu introduces feedback from the user code back to the model. In this way, we extend the engineering model with information about functions/methods, their invocations, their stack usage, and information about events and telemetry emission. Indeed, it would be possible to add further information extraction for additional use cases. We extract the information in two ways: assembly and source code analysis. The assembly analysis collects information about the stack usage of functions and methods. On the one side, Corfu uses the gathered information to accomplished additional verification steps, e.g., checking if stack usages exceed stack sizes of threads. On the other side, we use the gathered information to improve the performance of onboard software. In a use case, we show how the compiled binary and bandwidth towards the ground is reducible by exploiting source code information at run-time. / Corfu ist ein Framework für Satelliten-Software für beide Seiten: Space und Boden. Mit Corfu folgt die Softwareentwicklung einem iterativen modellgetriebenen Ansatz. Grundlage der Software-Entwicklung ist ein technisches Modell, das formell die grundlegende Struktur der Onboard-Software beschreibt. EntwicklerInnen beschreiben dieses Modell in Konfigurationsdateien, die von Corfu in verschiedenen Aspekten automatisch verifiziert werden, z.B. im Bereich des Scheduling. Anhand des definierten Modells erstellt Corfu ein Quellcode-Gerüst. Die Onboard-Software ist in einzelne Applikationen aufgeteilt, die durch Kommunikationskanäle miteinander kommunizieren (Topics genannt). Generischer Code und der generierte Code implementieren bereits die Behandlung und Verwaltung der Topic-Kommunikation, Telekommandos, Telemetrie und Threads. Der generierte Code definiert pur-virtuelle Callback-Methoden, die BenutzerInnen in erbenden Klassen implementieren. Das vordefinierte Modell kann allerdings nicht alle Implementierungsdetails der BenutzerInnen enthalten. Daher führt Corfu als Neuerung ein Code-Feedback ein. Hierbei werden anhand von statischer Analyse Informationen aus dem BenutzerInnen-Quellcode extrahiert und in einem zusätzlichen Modell gespeichert. Dieses extrahierte Modell enthält u.a. Informationen zu Funktionsaufrufen, Anomalien, Events und Stackspeicherverbrauch von Funktionen. Corfu extrahiert diese Informationen durch Quellcode- und Assembler-Analyse. Das extrahierte Modell erweitert das vordefinierte Modell, da es Elemente aus dem vordefinierten Modell referenziert. Auf der einen Seite nutzt Corfu die gesammelten Informationen, um weitere Verifikationsschritte durchführen zu können, z.B. Überprüfen der Stack-Größen von Threads. Auf der anderen Seite kann die Nutzung von Quellcode-Informationen auch die Leistung verbessern. In einem Anwendungsfall zeigen wir, wie die Größe des kompilierten Programms sowie die genutzte Bandbreite für die Übertragung von Log-Event-Nachrichten durch das erweiterte Modell verringert werden kann.
29

Entwicklung Statischer Analysen für AUTOSAR Steuergerätesoftware

Mittag, Roland 08 February 2018 (has links) (PDF)
Durch die Einführung der Systemarchitektur AUTOSAR im automobilen Umfeld, können Applikationen unabhängig von der verwendeten Hardware oder der genutzten Kommunikationssysteme entwickelt werden. Dadurch können Funktionen wieder verwendet werden, was Zeit und Ressourcen einsparen kann. So können Funktionen, die sich etabliert haben, in späteren Entwicklungen durch Anpassung in der Konfiguration genutzt werden ohne dabei den Quellcode zu ändern. Jedoch stellt die große Zahl an Parametern in der AUTOSAR Architektur große Herausforderungen an die Absicherung eines Steuergerätes. Dieser Aspekt wird durch eine meist heterogene Toollandschaft verstärkt. Umso wichtiger ist es, dass während der Entwicklung von AUTOSAR Steuergeräten statische Analysen die Software und die Konfiguration überprüfen, um so die Softwarequalität sicherstellen zu können. In der Masterarbeit werden eine Menge von AUTOSAR spezifischen statischen Analysen für die einzelnen Schichten eines AUTOSAR Steuergerätes entwickelt. Für die Analyse werden Einstellungsdateien (nach Standard und Firmenspezifische) und der Quellcode an sich genutzt. Die Analysen geben optional Korrekturvorschläge an den Entwickler. Die Umsetzung erfolgt in einem C# Prototyp und wird an der Lichtsteuerung des Automotive Demonstrator YellowCar angewendet werden.
30

Ein Beitrag zur statischen Aeroelastik des Windkraftanlagenrotorblattes

Khadjavi, Armin Fazlollah 10 April 2007 (has links)
Hauptziel dieser Arbeit ist die Klärung der in der Praxis oft getroffenen Annahme, dass die statischen Torsionseffekte eines Windturbinenrotorblatts keinen Einfluss auf die aerodynamische Leistungsbilanz nehmen. Auf dem Markt findet sich ein breites Angebot an Software, mit der die Aeroelastizität von Windturbinenblättern und deren dynamische Stabilität berechnet und geprüft werden kann. Mit diesen Programmen können üblicherweise Schwingungsformen, die dazugehörigen Frequenzen sowie die Überlagerung der Schwingungen, das Flattern und die Stabilität des Rotorblattes berechnet werden [1, 2, 3 und 4]. Konstruktive Maßnahmen in diesem Zusammenhang sind auf die Schwingungstechnik fokussiert [5]. Die dynamische Stabilität ist jedoch nicht maßgebend für die statische Deformation des Windturbinenblattes, bei deren Auslegung auf die Vermeidung von Kollisionen mit dem Turm geachtet werden muss. In diesem Zusammenhang gewinnt die statische Aeroelastizität der Windturbinenblätter an Wichtigkeit. Die zur Verfügung stehenden Berechnungsprogramme ziehen zwar sowohl die dynamische als auch die statische Aeroelastizität in Betracht. Da jedoch in der Regel die dynamischen Torsionsschwingungen der Windturbinenblätter wesentlich höhere Frequenzwerte aufweisen als die Schlag- und Schwenkschwingungen, wird als plausibel angenommen, dass die Rotorblätter grundsätzlich torsionssteif sind. Daher werden bei den handelsüblichen Berechnungsprogrammen sowohl für die Aerodynamik als auch für die Strukturmechanik Vereinfachungen vorgenommen, in denen die statischen Torsionsberechnungen wegfallen. Als Stand der Technik bei den kommerziell erhältlichen Programmen wird die Aerodynamik des Rotors zunächst an einem Modell untersucht, in welchem der Rotor in viele zweidimensionale Profilpolare (mit angenommenen Interpolationsmöglichkeiten) unterteilt ist, wobei die Profilpolare 2DWindkanalmessungen entnommen werden. Die Strukturmechanik bezieht sich in der Regel auf eindimensionale Balkenelemente, die für Biege- und Zuglasten, aber nicht für Torsionsbetrachtungen um die Rotorlängsachse berechnet werden, da die Torsionseffekte als sehr gering und vernachlässigbar eingeschätzt werden. Beim torsionselastischen Windturbinenblatt ist zu erwarten, dass die Last der lokalen Auftriebskräfte und Nickmomente das Rotorblatt um die eigene Längsachse tordieren lässt [6]. Durch den Torsionswinkel nimmt der Auftrieb und somit die Schubkraft des Rotorblattes zu. Da der Torsionswinkel an der Windturbinenblattspitze am größten ist, wird folglich die größte Schlagdeformation ebenfalls im äußeren Bereich des Rotorblattes auftreten. Mit zunehmender Größe des Rotordurchmessers von der Größenordnung 100 m wird erwartet, 10 dass die Torsionslasten einen zunehmenden, nicht mehr vernachlässigbaren Einfluss auf die Wechselwirkung der Aerodynamik und Strukturmechanik einnehmen und somit die Zunahme der Schlagdeformation begünstigen. Daher ist die Aufgabe dieser Arbeit die Klärung der Annahme, dass die statischen Torsionseffekte eines Windturbinenrotorblatts Einfluss auf die aerodynamische Leistungsbilanz nehmen. In den Kapiteln 4 und 5 dieser Arbeit werden daher die Größenordnung der Drehwinkel und die sich daraus ergebende Schlagdeformation mit einem besonderen Augenmerk auf die Torsionseffekte des Rotorblattes ermittelt. Weiterhin werden in der aeroelastischen Berechnung dieser Arbeit die lokalen Deformationen berücksichtigt, da die flexible Haut des Windturbinenprofils durch die aerodynamischen Lasten eine Verformung erfährt, die einen beachtenswerten Einfluss auf die Aerodynamik des Windturbinenprofils hat. Bei immer größer werdenden Profiltiefen wird die Zunahme der lokalen Deformationen der flexiblen Haut des Windturbinenprofils begünstigt, welche durch die aerodynamischen Lasten und Torsion verursacht wird, die ihrerseits die Aerodynamik beeinflussen. Da der Fokus auf den lokalen Deformationen und Torsionseffekten liegt, wird hier auf sonst wichtige Parameter wie z.B. Windgeschwindigkeitsgradient, und Rotorebenenneigung verzichtet und somit eine stationäre Strömung angenommen. In einem iterativen Verfahren wird zunächst die aerodynamische Lastverteilung des Rotorblatts ermittelt. Die Ergebnisse werden in einem strukturmechanischen Programm auf das Rotorblattmodell übertragen. Die aerodynamischen Lasten und die Zentrifugalkräfte erzeugen einen Gleichgewichtszustand und eine neue Deformation des Rotorblattes. Der neue Gleichgewichtszustand wird für die Ermittlung der Aerodynamik für den nächsten Berechnungsschritt benutzt. Das iterative Verfahren wird so lange fortgesetzt, bis sich eine Konvergenz eingestellt hat. Hierzu sollen die Konvergenzkriterien berücksichtigt und dokumentiert werden, um somit die Berechnungsgenauigkeit des Antriebsmoments der Turbinenwelle beurteilen zu können. Für die Untersuchungen werden sowohl ein Balkenmodell als auch ein Schalenmodell benutzt.

Page generated in 0.067 seconds