• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 172
  • 121
  • 32
  • 3
  • 1
  • Tagged with
  • 327
  • 124
  • 63
  • 57
  • 57
  • 57
  • 32
  • 32
  • 30
  • 29
  • 29
  • 26
  • 25
  • 18
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Neue Untersuchungen zu Wachstum und Struktur von Fluorapatit-Gelatine-Nanokompositen

Tlatlik, Harald 03 April 2009 (has links)
Die vorliegende Dissertation beschäftigt sich mit Wachstum und Aufbau von Fluorapatit-Gelatine-Nanokompositaggregaten. Diese Aggregate werden im sogenannten Doppeldiffusionsversuch biomimetisch erzeugt und ihre äußere Form bzw. Formentwicklung lässt sich anhand eines fraktalen Modells bis ins Detail nachvollziehen. Sie zeigen einen komplexen inneren Aufbau, in dem die Makromoleküle der organischen Komponente einerseits im Zentrum jeder Nanoeinheit und andererseits zu Strängen, den sogenannten Fibrillen, zusammengelagert am Aufbau der Kompositaggregate beteiligt sind. Im Fall des Kompositkeims ist die innere Architektur in hoher Detailstufe verstanden, auch wenn -- insbesondere bezüglich der späteren Wachstumsphasen -- eine Reihe ungeklärter Fragestellungen verbleibt. Ein zentrales Ergebnis der vorliegenden Arbeit bildet die Entdeckung eines weiteren Wachstumstypen, der im Vergleich zu den bekannten, fraktalen Kompositaggregaten grundsätzliche Unterschiede bezüglich des inneren und äußeren Aufbaus zeigt. Der Grund für die andersartige Formentwicklung liegt in der Versteifung der organischen Komponente durch eine vorangegangene Einlagerung von Calciumionen, wie sowohl experimentell als auch mit atomistischen Computersimulationen gezeigt werden konnte. Aufgrund der hohen Komplexität des Systems ist es bislang allerdings nicht möglich, lokale Ionen-Konzentrationen und pH-Werte vor bzw. während Nukleation und Wachstum der Kompositaggregate im Doppeldiffusionsversuch zu bestimmen. Deshalb wurde ein Ersatzversuch -- der sehr ähnlich strukturierte Aggregate erzeugt, sich aber mit rechnerischen Methoden analysieren lässt -- entworfen und untersucht. Anhand dieser Ergebnisse konnte erstmals die "Geschichte" von Fluorapatit-Gelatine-Nanokompositaggregaten detailliert nachvollzogen werden. Da über die Rolle der Gelatine beim Wachstum der Kompositaggregate nur wenig bekannt ist, wurde eine Reihe von Versuchen durchgeführt, in denen Gelatinen mit verschiedenen Molekülmassenverteilungen eingesetzt wurden. Es stellte sich heraus, dass für selbstorganisiertes und insbesondere fraktales Wachstum der Kompositaggregate lange, möglichst wenig gestörte Makromoleküle von zentraler Wichtigkeit sind. Um die Funktion der organischen Komponente für das Kompositwachstum näher zu untersuchen, wurden Oberflächen von Kompositkeimen mit rasterkraftmikroskopischen Methoden studiert. Durch Säuberung der Oberflächen konnten Austrittsstellen der organischen Komponente durch die Oberfläche der Kompositkeime identifiziert werden. Damit konnte gezeigt werden, dass die organische Komponente aus dem Inneren des Festkörpers teilweise durch die Oberfläche dringt und somit während des Wachstums weit in das Gel hineinreichen sollte. Für die mesoskopische Strukturbildung der Kompositaggregate spielen intrinsische elektrische Felder eine essenzielle Rolle. Deshalb wurde bislang eine Wirkung externer elektrischer Felder auf das Wachstum der Kompositaggregate vermutet. Im Rahmen der vorliegenden Arbeit wurde herausgearbeitet, dass es zwar zu keiner direkten Beeinflussung kommen kann, jedoch in den elektrodennahen Bereichen des Gels eine Ordnung der organischen Moleküle durch externe elektrische Felder zu erwarten ist. Dies könnte eine Wirkung auf wachsende Kompositaggregate zeigen. Da diese Effekte auch aufgrund der elektrischen Felder um die dipolaren Kompositaggregate zu erwarten sind, könnte eine ähnliche Strukturierung der Gelatine in der Nähe der wachsenden Kompositaggregate stattfinden. Insgesamt wurden in dieser Arbeit eine Reihe grundlegender Beiträge zur Erforschung der biomimetisch erzeugten Fluorapatit-Gelatine-Nanokompositaggregate geleistet. Es konnten neue Erkenntnisse zur inneren und äußeren Architektur der Kompositaggregate, zu Mechanismen der Morphogenese und deren wichtigsten Einflussgrößen sowie zum Verständnis der chemisch-physikalischen Vorgänge auf atomarer Größenskala gewonnen werden. Als besonders fruchtbar erwies sich die Verbindung von Experimenten mit theoretischen Untersuchungen, so dass dieser Weg auch in Zukunft grundlegende Erkenntnisse bei der Erforschung der Biomineralisation verspricht und weiterhin verfolgt werden sollte.
272

The Motions of Guest Water Molecules and Cations in Chabazite

Chanajaree, Rungroj 19 May 2011 (has links)
The translational self-diffusion, the librations, and the reorientational motions of guest water molecules in the zeolite chabazite are examined by Molecular Dynamics (MD) computer simulations at different temperatures and loadings, including at room temperature, at which the experiments are carried out. Satisfactory agreement is found between the computed and measured translational self-diffusion coefficients. It is, however, furthermore found that the way in which the long-range electrostatic interactions are computed has an effect on the self-diffusion at high loadings and temperatures. The spectral densities of the librational motions of water are found to be similar to those in aqueous salt solutions. The reorientations of the water molecules, on the other hand, are much slower than in the liquids, and very anisotropic. The vector in direction of the molecular dipole moment reorients only very slowly, at the time scale of the simulations, due to the attraction to the almost immobile Ca++-ions and the walls of the zeolite. The other two vectors seem to undergo jump-reorientations rather than reorientations by a diffusion process. Hyper dynamics boost potential method has been applied to the MD simulations to estimate the self-diffusion coefficients of Ca++ ions in dehydrated chabazite. Because of our system is very complicated, the self-diffusion of Ca++ ions can only be roughly estimated. The Ca++ ions diffusion is small enough to confirm that the cation motion can be neglected in the normal MD simulation.
273

ESR-Spektroskopie kombiniert mit weiteren theoretischen und experimentellen Methoden der Biophysik: ESR-Spektrensimulation an Bakteriorhodopsin, Temperatursprung-ESR an Reverser Transkriptase / EPR-Spectroscopy in combination with additional theoretical and experimental biophysical methods: EPR spectra simulation on Bacteriorhodopsin, Temperature-jump EPR on Reverse Transcriptase

Beier, Christian 09 October 2008 (has links)
Diese Dissertation befaßt sich mit kinetischen und dynamischen Analysen an spinmarkierten Proteinen mittels Elektronenspinresonanz-Spektroskopie (ESR-S) in Kombination mit weiteren biophysikalischen Methoden. Die Spinmarkierung der hier untersuchten Proteine (z.B. Bakteriorhodopsin (EF-loop) bzw. Reverse Transkriptase) erfolgt durch spezifische Substitution ausgewählter Aminosäure-Seitenketten durch eine radikalische Seitenkette ("R1", MTS-Spinlabel an Cystein gebunden). Der Schwerpunkt dieser Arbeit liegt in der Methodenentwicklung eines neuen Simulationsverfahrens für ESR-Spektren basierend auf einer speziellen Molekulardynamik-Simulation (MD-S). Das Verfahren nutzt den von Robinson et al. (J.Chem.Phys.96:2609-2616) vorgeschlagenen Trajektorien-basierten Berechnungsalgorithmus für ESR-Spektren. Hierfür sind zahlreiche Trajektorien der umgebungsabhängigen Umorientierungsdynamik von R1 mit Längen von jeweils über 700 ns erforderlich. Diese Trajektorien werden im hier präsentierten Simulationsverfahren mit minimalem Zeitaufwand in drei Stufen generiert: i) statistisch korrekte Erfassung des gesamten verfügbaren Konformationsraums von R1 in positionsspezifischer Proteinumgebung mittels einer kurzen (ca. 10 ns) speziellen MD-S (in-vacuo, 600 Kelvin); ii) Berechnung eines Potentials im Eulerwinkelraum welches das spezifische Umorientierungsverhalten der radikalischen R1-Kopfgruppe widerspiegelt; iii) Trajektorienberechnung mittels Simulation der potentialabhängigen Brownschen Umorientierungsdynamik eines virtuellen Teilchens bei 300 Kelvin (Einteilchen-Simulation). Die Statistiken wichtiger dynamischer Prozesse während der speziellen MD-S werden analysiert und mit Langzeit-Dynamiken aus herkömmlichen MD-S unter physiologischen Bedingungen verglichen. Zusätzlich wird ein Simulationsverfahren zur Identifikation von Wasserstoff-Brücken vorgestellt. In einem weiteren Kapitel dieser Arbeit werden Konzeption, Aufbau und Test einer Temperatursprung-ESR-Anlage beschrieben.
274

Računarska simulacija i analiza novih oblika mernih blendi / Computer simulation and analysis of new forms orifice plates

Halas Dragan 12 August 2020 (has links)
<p>U mnogim granama tehnike javljaju se problemi<br />merenja protoka fluida. Merne blende, zbog svojih<br />mnogih prednosti predstavljaju najzastupljeniji<br />instrument za merenje protoka fluida kroz cevovode. Sa<br />druge strane njihova upotreba povećava tro&scaron;kove rada<br />industrijskih postrojenja. Jedan od ciljeva ove<br />doktorske disertacije bio je ispitivanje novih oblika<br />mernih blendi u cilju u&scaron;tede energije pri njihovom radu.<br />U ovoj doktorskoj disertaciji predložen je algoritam<br />ispitivanja novih oblika mernih blendi. Takođe je<br />konstruisana i izrađena laboratorijska aparatura za<br />njihovo ispitivanje kao i diferncijalni &quot;U&quot; manometar<br />za merenje malih razlika pritisaka. U okviru ove<br />doktorske disertacije dizajnirana su i ispitana tri nova<br />oblika mernih blendi. U&scaron;teda energije je postignuta<br />dizajnom koji smanjuje otpor merne blende kao<br />elementa cevovoda. Novi oblici mernih blendi, kao i<br />jedna standardnog oblika koja je poslužila kao<br />referentna, ispitani su prema predloženom algoritmu. U<br />prvom koraku merne blende su dizajnirane u<br />programskom paketu Solid Works. Zatim su, prema<br />predloženom algoritmu, ispitane pomoću računarske simulacije u programskom paketu COMSOL Multiphysics. Po dobijanju zadovoljavajućih rezultata računarske simulacije, merne blende su izrađene na 3D &scaron;tampaču, FDM postupkom i ispitane na laboratorijskoj aparaturi. Rezultati laboratorijskih ispitivanja su upoređeni sa rezultatima računarske simulacije. Upoređeni rezultati računarske simulacije i laboratorijskih ispitivanja su pokazali da je računarska simulacija dobro opisivala situaciju. Rezultati laboratorijskog ispitivanja su pokazali znatan efekat u&scaron;tede energije. Takođe je utvrđeno da se pomoću računarske simulacije mogu dobiti podaci na osnovu kojih se može doneti odluka da li novi oblik merne blende treba korigovati ili ima smisla pristupiti laboratorijskom ispitivanju. Algoritam ispitivanja koji je predložen u ovoj doktorskoj disertaciji se pokazao efikasnim.</p><p>&nbsp;</p> / <p>In many domains of technology, there are problems<br />with the measurement of fluid flow. Orifice plates,<br />because of their many advantages, represent the most<br />common instrument for measuring fluid flow through<br />pipelines. On the other hand, their use increases the<br />operating cost of industrial plants. One of the goals of<br />this doctoral dissertation was to test new forms of<br />orifice plates for a reason to save energy during their<br />work. An algorithm for testing new forms of orifice<br />plates is proposed. Also, the laboratory equipment for<br />testing them was designed and made, as well as a<br />differential &quot;U&quot; manometer for measuring small<br />pressure differences. As part of this doctoral<br />dissertation are designed and tested three new forms of<br />orifice plates. Energy-saving was achieved by a design<br />that reduces the resistance of the orifice plate as an<br />element of the pipeline. New forms of orifice plates, as well as a standard shape, which served as a reference, were tested according to the present algorithm. In the first step, orifice plates are designed in the Solid Works software package. Then, according to the proposed algorithm, they were tested using computer simulation in COMSOL Multiphysics software package. After achieving satisfactory results of computer simulation, orifice plates are made on a 3D printer, using the FDM process and tested in the laboratory apparatus. The results of laboratory tests were compared with the results of computer simulations. Compared results of computer simulation and laboratory testing showed that computer simulation described the situation well. The results of the laboratory test showed a significant energy-saving effect. It was also found that computer simulation can obtain data that can decide whether a new form of orifice plate must be corrected or it makes sense to access laboratory testing. The algorithm proposed in this doctoral dissertation has proven effective.</p>
275

Visualization and modeling of evaporation from pore networks by representative 2D micromodels

Ding, Yi 19 May 2023 (has links)
Evaporation is a key process for the water exchange between soil and atmosphere, it is controlled by the internal water fluxes and surface vapor fluxes. The focus of this thesis is to visualize and quantify the multiphase flow processes during evaporation from porous media. The retained liquid films in surface roughness (thick-film flow) and angular corners (corner flow) have been found to facilitate and dominate evaporation. Using the representative 2D micromodels (artificial pore networks) with different surface roughness and pore structures, this thesis gives visualizations of the corner and thick-film flow during the evaporation process, presents the enhanced hydraulic continuity by corner and thick-film flow, and tests the validity of the SSC-model which assumes corner flow is dominant for the mass transport during evaporation. Surface roughness and wettability are proved both experimentally and theoretically to play a key role for the time and temperature behaviors of the evaporation process, besides, this thesis shows that for a consistent description of the time-dependent mass loss and the geometry of the corner/thick-film flow region, the fractality of the evaporation front must be taken into account.
276

AGENT–BASED KEYNESIAN MACROECONOMICS - An Evolutionary Model Embedded in an Agent–Based Computer Simulation / AGENTEN-BASIERTE KEYNESIANISCHE MAKROÖKONOMIK - Ein Evolutorisches Modell Eingebettet in eine Agenten-Basierte Computersimualtion

Oeffner, Marc January 2008 (has links) (PDF)
Subject of the present study is the agent-based computer simulation of Agent Island. Agent Island is a macroeconomic model, which belongs to the field of monetary theory. Agent-based modeling is an innovative tool that made much progress in other scientific fields like medicine or logistics. In economics this tool is quite new, and in monetary theory to this date virtual no agent-based simulation model has been developed. It is therefore the topic of this study to close this gap to some extend. Hence, the model integrates in a straightforward way next to the common private sectors (i.e. households, consumer goods firms and capital goods firms) and as an innovation a banking system, a central bank and a monetary circuit. Thereby, the central bank controls the business cycle via an interest rate policy; the according mechanism builds on the seminal idea of Knut Wicksell (natural rate of interest vs. money rate of interest). In addition, the model contains also many Keynesian features and a flow-of-funds accounting system in the tradition of Wolfgang Stützel. Importantly, one objective of the study is the validation of Agent Island, which means that the individual agents (i.e. their rules, variables and parameters) are adjusted in such a way that on the aggregate level certain phenomena emerge. The crucial aspect of the modeling and the validation is therefore the relation between the micro and macro level: Every phenomenon on the aggregate level (e.g. some stylized facts of the business cycle, the monetary transmission mechanism, the Phillips curve relationship, the Keynesian paradox of thrift or the course of the business cycle) emerges out of individual actions and interactions of the many thousand agents on Agent Island. In contrast to models comprising a representative agent, we do not apply a modeling on the aggregate level; and in contrast to orthodox GE models, true interaction between heterogeneous agents takes place (e.g. by face-to-face-trading). / Gegenstand der vorliegenden makroökonomischen Untersuchung ist Agent Island. Agent Island ist eine agentenbasierte Computersimulation, welche im Gebiet der Geldtheorie anzusiedeln ist. Agentenbasierte Computersimulationen sind innovative Werkzeuge, die bereits in vielen anderen Forschungsfeldern, wie der Medizinforschung oder der Erforschung komplexer Logistiksysteme, Verwendung finden. Im Fach Volkswirtschaftslehre ist der Einsatz dieser Technik allerdings noch recht neu, und im Gebiet der monetären Makroökonomik ist bis heute praktisch noch kein agentenbasiertes Simulationsmodell entwickelt worden. Diese Lücke soll durch die vorliegende Arbeit zumindest ein Stück weit geschlossen werden. Angestrebt wird deshalb die Ausarbeitung eines validierten Simulationsmodells für geldpolitische Anwendungen. Zu diesem Zweck wird als Innovation in einem agentenbasierten Makro-Modell – neben den Sektoren der privaten Haushalte, der Konsum- und Kapitalgüterunternehmen – ein Bankensystem, die Notenbank und ein Geldkreislauf (auf einfache Weise) integriert. Die Notenbank kontrolliert dabei die Konjunktur durch Zinspolitik; der entsprechende Transmissionsmechanismus knüpft an die Arbeiten Knut Wicksells im Bereich der Geldtheorie an. Darüber hinaus beinhaltet das Modell viele Keynesianische Elemente sowie eine Geldvermögensrechnung in der Tradition von Wolfgang Stützel. Im Rahmen der Validierung spielt insbesondere der Zusammenhang zwischen Mikro- und Makroebene eine besondere Rolle, wobei wir einen Bottom-Up-Ansatz wählen. Die Idee der Validierung, wie wir sie anwenden, besteht demnach darin, die individuellen Regeln der Agenten so einzustellen, dass auf der aggregierten Ebene Ergebnisse entstehen, die für ein monetäres Makro-Modell sinnvoll erscheinen. Im Ergebnis des validierten Modells sind alle Phänomene auf der aggregierten Ebene (z. B. einige stilisierte Fakten, die Wirkung des Transmissionsmechanismus, der Phillips-Kurven-Zusammenhang, das Spar-Paradoxon oder der Konjunkturverlauf von Agent Island) alleine durch die Handlungen und Interaktionen der vielen tausend Agenten auf der Mikroebene erzeugt. Es erfolgt – im Gegensatz zu Modellen mit einem repräsentativen Agenten – keine Modellierung auf der aggregierten Ebene. Im Rahmen der Mikrostruktur von Agent Island gilt es, die drei vorkommenden Typen von Agenten, d.h. die private Haushalte, Unternehmen sowie die Notenbank, mit einem geeigneten Regelwerk auszustatten. Dementsprechend ist die Arbeit so aufgebaut, dass im ersten Kapitel der methodischen Rahmen für die Entwicklung des Modells (d.h. der Regeln) sowie für die Validierung des Modells (d.h. die Einstellung der Regeln) dargestellt wird. Außerdem erfolgt eine Ausarbeitung der Vorteile des agentenbasierten Ansatzes gegenüber den Allgemeinen Gleichgewichts-Modellen. Im darauffolgenden zweiten Kapitel erfolgt die Darstellung des Modells, welche die Beschreibung aller Regeln und Variablen umfasst. Da es bis heute keine vergleichbare Arbeit auf dem Gebiet der Geldtheorie gibt, musste sich das Modell von Agent Island an verwandte, bereits existierende agentenbasierte Modelle orientieren, sowie in vielen Bereichen an nicht-agentenbasierten Ansätze. Im zweiten Kapitel erfolgt ebenfalls die Verknüpfung des Modells mit der relevanten Literatur. Es liegt in der Natur der Sache, dass die Darstellung von Agent Island zunächst auf der Mikroebene erfolgt. Somit befasst sich der größte Teil von Kapitel 2 mit der Ausarbeitung der Regeln auf der Mikroebene. Erst am Ende des Kapitels wechselt die Darstellung auf die Makroebene – und legt hierbei auch die Grundlagen für den späteren Validierungsprozess. Dort werden makroökonomische Zusammenhänge erläutert, die für Agent Island relevant sein sollten und die im darauffolgenden dritten Kapitel dann auch untersucht bzw. angewandt werden. In Kapitel 3 erfolgt die Validierung des Modells. Hier erfolgen Sensitivitäts-Analysen, Kalibrierungen sowie weitere (z.T. statistische) Untersuchungen des Modells bzw. der Modellergebnisse. Ziel ist es dabei, sinnvolle Ergebnisse auf der Makroebene für verschiedene Zeitreihen zu generieren. Am Ende von Kapitel 3 liegt ein vernünftig validiertes Modell vor. Dies könnte beispielsweise als Ausgangsbasis für die Fortentwicklung eines weiter verfeinerten Modells dienen.
277

Nonlinear optical interactions in focused beams and nanosized structures

Amber, Zeeshan H., Spychala, Kai J., Eng, Lukas M., Rüsing, Michael 02 February 2024 (has links)
Thin-film materials from μm thickness down to single-atomic-layered 2D materials play a central role in many novel electronic and optical applications. Coherent, nonlinear optical (NLO) μ-spectroscopy offers insight into the local thickness, stacking order, symmetry, or electronic and vibrational properties. Thin films and 2D materials are usually supported on multi-layered substrates leading to (multi-) reflections, interference, or phase jumps at interfaces during μ-spectroscopy, which all can make the interpretation of experiments particularly challenging. The disentanglement of the influence parameters can be achieved via rigorous theoretical analysis. In this work, we compare two self-developed modeling approaches, a semi-analytical and a fully vectorial model, to experiments carried out in thin-film geometry for two archetypal NLO processes, second-harmonic and third-harmonic generation. In particular, we demonstrate that thin-film interference and phase matching do heavily influence the signal strength. Furthermore, we work out key differences between three and four photon processes, such as the role of the Gouy-phase shift and the focal position. Last, we can show that a relatively simple semi-analytical model, despite its limitations, is able to accurately describe experiments at a significantly lower computational cost as compared to a full vectorial modeling. This study lays the groundwork for performing quantitative NLO μ-spectroscopy on thin films and 2D materials, as it identifies and quantifies the impact of the corresponding sample and setup parameters on the NLO signal, in order to distinguish them from genuine material properties.
278

Effektivität von Kleingruppenunterricht im Vergleich zu einer Computersimulation in einem ‚Blended learning‘- Szenario im Medizinstudium / Training of clinical reasoning with a game versus small-group problem-based learning: A prospective study

Middeke, Angélina-Charline 31 December 1100 (has links)
No description available.
279

Modellbildung dynamischer Systeme mittels Leistungsfluß / Power flow based modelling of dynamical systems

Geitner, Gert-Helge 23 October 2012 (has links) (PDF)
Im Beitrag wird zunächst die konventionelle auf Signalflüssen basierte Modellbildung mit modernen leistungsflussbasierten Methoden, die auf dem Prinzip von Aktion und Reaktion aufbauen, verglichen. BG (Bond Graph), POG (Power Oriented Graph) und EMR (Energetic Macroscopic representation) sind solche modernen Methoden die den Leistungsaustausch zwischen Teilsystemen als Grundlage für den Modellbildungsansatz nutzen. Diese Werkzeuge erhalten die physikalische Struktur, erlauben es in das dynamische System hineinzuschauen und unterstützen das Verständnis des Leistungsflusses. Unterschiede werden anhand verschiedener Eigenschaften in einer Tabelle angegeben. Nach Erläuterung der Grundlagen zu POG und BG erfolgt die Vorstellung einer Freeware Zusatzbibliothek zur Simulation von Bondgraphen. Spezielle Eigenschaften werden kurz umrissen. Diese Blockbibliothek läuft unter Simulink, besteht aus nur 9 mittels Menü konfigurierbaren Blöcken und realisiert bidirektionale Verbindungen. Die Beispiele Gleichstrommotor, Pulssteller und elastische Welle demonstrieren die Vorteile der leistungsflussorientierten Modellbildung. Zustandsregelung, Energieeffizienz und Simulink LTI Analysewerkzeuge führen in die Anwendung der vorgestellten Simulink Zusatzbibliothek für Bondgraphen ein. / The paper starts with a comparison of the conventional modelling method based on signal flow and modern power flow oriented modelling methods based on the principle of action and reaction. BG (Bond Graph), POG (Power Oriented Graph) and EMR (Energetic Macroscopic representation) are such modern methods based on the power exchange between partial systems as a key element for the basic modelling approach. These tools preserve the physical structure, enable a view inside dynamical systems and support understanding the power flow. Relationships between these graphical representations will be given. After the explanation of basics for POG and BG an overview and special features of a freeware add-on library for simulation of BGs will be outlined. The block library runs under Simulink, consists of nine menu-driven customised blocks only and realises bidirectional connections. Examples DC motor, chopper and elastic shaft demonstrate the advantages of power flow oriented modelling. State space control, energy efficiency and Simulink LTI analysis tools exemplify the application of the presented Simulink add-on BG library.
280

Effiziente parallele Sortier- und Datenumverteilungsverfahren für Partikelsimulationen auf Parallelrechnern mit verteiltem Speicher / Efficient Parallel Sorting and Data Redistribution Methods for Particle Codes on Distributed Memory Systems

Hofmann, Michael 16 April 2012 (has links) (PDF)
Partikelsimulationen repräsentieren eine Klasse von daten- und rechenintensiven Simulationsanwendungen, die in unterschiedlichen Bereichen der Wissenschaft und der industriellen Forschung zum Einsatz kommen. Der hohe Berechnungsaufwand der eingesetzten Lösungsmethoden und die großen Datenmengen, die zur Modellierung realistischer Probleme benötigt werden, machen die Nutzung paralleler Rechentechnik hierfür unverzichtbar. Parallelrechner mit verteiltem Speicher stellen dabei eine weit verbreitete Architektur dar, bei der eine Vielzahl an parallel arbeitenden Rechenknoten über ein Verbindungsnetzwerk miteinander Daten austauschen können. Die Berechnung von Wechselwirkungen zwischen Partikeln stellt oft den Hauptaufwand einer Partikelsimulation dar und wird mit Hilfe schneller Lösungsmethoden, wie dem Barnes-Hut-Algorithmus oder der Schnellen Multipolmethode, durchgeführt. Effiziente parallele Implementierungen dieser Algorithmen benötigen dabei eine Sortierung der Partikel nach ihren räumlichen Positionen. Die Sortierung ist sowohl notwendig, um einen effizienten Zugriff auf die Partikeldaten zu erhalten, als auch Teil von Optimierungen zur Erhöhung der Lokalität von Speicherzugriffen, zur Minimierung der Kommunikation und zur Verbesserung der Lastbalancierung paralleler Berechnungen. Die vorliegende Dissertation beschäftigt sich mit der Entwicklung eines effizienten parallelen Sortierverfahrens und der dafür benötigten Kommunikationsoperationen zur Datenumverteilung in Partikelsimulationen. Hierzu werden eine Vielzahl existierender paralleler Sortierverfahren für verteilten Speicher analysiert und mit den Anforderungen von Seiten der Partikelsimulationsanwendungen verglichen. Besondere Herausforderungen ergeben sich dabei hinsichtlich der Aufteilung der Partikeldaten auf verteilten Speicher, der Gewichtung zu sortierender Daten zur verbesserten Lastbalancierung, dem Umgang mit doppelten Schlüsselwerten sowie der Verfügbarkeit und Nutzung speichereffizienter Kommunikationsoperationen. Um diese Anforderungen zu erfüllen, wird ein neues paralleles Sortierverfahren entwickelt und in die betrachteten Anwendungsprogramme integriert. Darüber hinaus wird ein neuer In-place-Algorithmus für der MPI_Alltoallv-Kommunikationsoperation vorgestellt, mit dem der Speicherverbrauch für die notwendige Datenumverteilung innerhalb der parallelen Sortierung deutlich reduziert werden kann. Das Verhalten aller entwickelten Verfahren wird jeweils isoliert und im praxisrelevanten Einsatz innerhalb verschiedener Anwendungsprogramme und unter Verwendung unterschiedlicher, insbesondere auch hochskalierbarer Parallelrechner untersucht.

Page generated in 0.1289 seconds