Spelling suggestions: "subject:"statistische"" "subject:"etatistische""
161 |
The Cumulant MethodSeeger, Steffen 09 September 2003 (has links)
In dieser Arbeit wird eine neue Methode zur
Reduktion der Boltzmann-Gleichung auf ein System
partieller Differentialgleichungen diskutiert.
Nach einer kurzen Einführung in die kinetische
Theorie einer Mischung inerter Gase wird ein
Überblick in die aus der Literatur bekannten
Momentenmethoden gegeben. Der anschließend
vorgestellten Kumulantenmethode liegt die
Annahme zugrunde, daß durch Stoßprozesse in
einem Gas Korrelationen höherer Ordnung
schneller abgebaut werden als solche
niedrigerer Ordnung. Basierend auf dieser
Annahme werden die Bewegungsgleichungen für
die Kumulanten und die Produktionsterme der
resultierenden Bilanzgleichungen für eine
Mischung inerter Maxwell-Gase berechnet.
Die Untersuchung der Relaxation zum
Gleichgewicht erlaubt den Bezug zu bekannten
Modellen der Kontinuumsmechanik und untermauert
die Gültigkeit der Annahme für die Begründung
des o.g. Ansatzes in diesem Fall. Im zweiten
Teil der Arbeit werden die Ergebnisse
numerischer Untersuchungen vorgestellt,
wobei Simulationen mit verschiedenen
Randbedingungen für Couette- und Poiseulle-
Strömungen durchgeführt wurden.
Es werden verschiedene Eigenschaften von
Modellen für verdünnte Gase als auch des
Navier-Stokes-Modells beobachtet. Dabei ist
jedoch eine sehr starke Abhängigkeit von den
angewendeten Randbedingungen festzustellen.
Abschließend werden Momentenmethoden als
eine besondere Form von Diskretisierungen
der Boltzmann-Gleichung nach der Methode der
gewichteten Residuen diskutiert, was einen
Ausblick auf zukünftige Arbeiten erlaubt.
|
162 |
Prozessnahes Qualitätsmanagement beim SpritzgießenHaman, Soromo 04 June 2004 (has links)
Wachsende Anforderungen an die Qualität von Formteilen sowie die Globalisierung der
Märkte für Kunststoffprodukte zwingen die kunststoffverarbeitenden Unternehmen, neue
moderne Methoden zur Qualitätsverbesserung und zur Kostensenkung einzusetzen. Eine
Untersuchung zum Stand der Forschung ergab, dass eine Null-Fehler-Produktion beim
Spritzgießen bisher nicht gegeben ist.
Die vorliegende Arbeit beschreibt einen Beitrag zur Qualitätssicherung durch ein
prozessnahes Qualitätsmanagement mit dem Ziel, eine kontinuierliche Qualitätsüberwachung
und eine Qualitätsregelung für jedes produzierte Formteil zu ermöglichen.
Durch den Einsatz von statistischen Versuchsplänen werden die Herstellungsbedingungen
beim Spritzgießen optimiert und Modelle zur Einstellung der Maschine sowie zur
Überwachung der Qualitätseigenschaften gebildet. Aufbauend auf diesen Modellen wird ein
adaptives Regelungssystem entworfen, um Qualitätsabweichungen zu verhindern.
|
163 |
The State Space of Complex SystemsHeilmann, Frank 14 October 2005 (has links)
In dieser Arbeit wird eine Beschreibung von Monte-Carlo-Verfahren zur
Lösung komplexer Optimierungsaufgaben mit Hilfe von Markov-Ketten
durchgeführt. Nach einer kurzen Einführung werden Lösungsmenge solcher
Aufgaben und der physikalische Zustandsraum komplexer Systeme
identifiziert.
Zunächst wird die Dynamik von Zufallswanderern im Zustandsraum mit Hilfe
von Master-Gleichungen modelliert. Durch Einführung von Performanzkriterien
können verschiedene Optimierungsstrategien quantitativ miteinander
verglichen werden. Insbesondere wird das Verfahren Extremal
Optimization vorgestellt, dass ebenfalls als Markov-Prozess
verstanden werden kann. Es wird bewiesen, dass eine im Sinne der
genannten Kriterien beste Implementierung existiert. Da diese von einem
sogenannten Fitness Schedule abhängt, wird dieser für kleine
Beispielsysteme explizit berechnet.
Daran anschließend wird die Zustandsdichte komplexer Systeme betrachtet.
Nach einem kurzen Überblick über vorhandene Methoden folgt eine
detaillierte Untersuchung des Verfahrens von Wang und Landau.
Numerische und analytische Hinweise werden gegeben, nach denen dieser
Algorithmus innerhalb seiner Klasse wahrscheinlich der Optimale ist. Eine
neue Methode zur Approximation der Zustandsdichte wird vorgestellt, die
insbesondere für die Untersuchung komplexer Systeme geeignet ist.
Abschließend wird ein Ausblick auf zukünftige Arbeiten gegeben.
|
164 |
Modelling Complex Systems: Tree StructuresFischer, Andreas 08 January 2008 (has links)
Der Zustandsraum ist ein sehr wichtiges und grundlegendes Konzept für die
Untersuchung komplexer Systeme. Alle Eigenschaften des Systems können anhand
der Struktur dieses Raumes verstanden werden. Aufgrund der immensen Größe des
Zustandsraumes eines realen komplexen Systems ist eine vergröberte
Beschreibung unumgänglich für dessen Analyse.
In dieser Arbeit werden, aufbauend auf dem lang etablierten Modell der
hierarchischen Bäume, spezielle Aspekte komplexer Systeme untersucht.
Gleichzeitig wird das verwendete Modell in geeigneter Weise erweitert und
verbessert. Im ersten Teil der Forschungsarbeit werden die Besonderheiten des
Wahrscheinlichkeitsflusses an einem einzelnen Sattelpunkt einer
Energielandschaft detailliert betrachtet. Die Einflüsse verschiedener
Parameter wie Energietiefe, Zustandsdichte und Konnektivität werden unabhängig
voneinander und im Zusammenspiel untersucht. Im zweiten Teil wird ein
vollständiges System, das komplexes Verhalten zeigt, untersucht, wobei
besonderes Gewicht auf seine Wechselwirkung, d.h. seinen Energieaustausch mit
der Umgebung, gelegt wird. Es kann gezeigt werden, daß das hierarchische
Relaxationsverhalten, welches bei anderen Varianten komplexer Systeme
beobachtet werden konnte, im Baummodell bereits enthalten ist. Neben den
bisher untersuchten, auf Energielandschaften basierenden Systemen besitzen
auch turbulente Diffusionsprozesse hierarchische Strukturen. Im dritten Teil
der Arbeit wird die Baumstruktur verwendet, um turbulente
Superdiffusionsprozesse zu modellieren. Das dabei beobachtete
Diffusionsverhalten wird mit vier bekannten mathematischen Modellen
verglichen. Die Ergebnisse zeigen, daß nur eines der untersuchten Modelle den
vom Baummodell beschriebenen turbulenten Transport in akzeptabler Weise
nachbildet. / The state space is a very important and fundamental concept for the treatment
of complex systems. All the system's properties can be understood by means of
its structure. Due to the gigantic extent of a real system's state space, a
coarse grained approach is inevitable for the analysis.
In this work, based on the well established model of hierarchical trees,
particular aspects of complex systems have been studied, while at the same
time several extensions to the model have been made. In the first part of this
research work the features of the probability flow are treated in detail at a
single saddle point in the energy landscape. Influences of various parameters
like energetic depth, density of states and connectivity are studied isolated
and in their interaction. In the second part a whole system showing complex
behavior is being considered, especially its energy exchange with the
surroundings. It can be demonstrated that the hierarchical relaxation behavior
observed in other realizations of complex systems is intrinsically covered by
the tree model. Beside energy landscape based systems turbulent diffusion
processes possess hierarchical structures, too. In the third part the tree
structure has been used to model a turbulent superdiffusion process. The
diffusion behavior observed there has been compared with four well known
diffusion equation approaches. The results show that only one of the discussed
continuum diffusion equations can model the turbulent transport based on the
tree model in acceptable fashion.
|
165 |
Prozessregelungen durch piezoelektrisch erweiterte UmformwerkzeugeBäume, Tobias 06 January 2020 (has links)
Um immer strengere Umweltauflagen zu erfüllen, wird zur Gewichtsreduzierung bei Automobilen auf Leichtbau gesetzt. Infolgedessen findet auch beim Herstellen von Karosserieblechteilen ein verstärktes Ausreizen des Werkstoffes statt. Erschwert wird dies durch den Trend zu komplexeren Bauteilgeometrien und markanterer Designsprache. Daher wird der Herstellungsprozess mehr und mehr an den Grenzbereichen der Stabilität betrieben. Piezoelektrische Aktoren (PA) können dabei so eingesetzt werden, dass der Umformprozess um zusätzliche Einflussparameter erweitert wird. Sie beeinflussen dabei die Materialbewegung
lokal und können dadurch zu einer Steigerung der Effizienz beitragen. Im Rahmen der Dissertation wurden PA in die Matrize eines Großserien-Umformwerkzeugs (Karosseriebauteil einer Reserveradmulde) implementiert und hinsichtlich der Eignung für die Prozessregelung untersucht. Dabei wurden verschiedene Sensoren berücksichtigt, wobei sich Triangulationslaser zur Messung der Materialbewegung an der Platinenkante am besten eigneten. Es wurde die Wechselwirkung der PA auf die Materialbewegung empirisch und unter Verwendung statistischer Versuchsplanung ermittelt. Ein FE-Modell unterstützte die Prozessbeschreibung. Aus den Versuchsergebnissen wurde mittels Regressionsanalyse ein Polynomialmodell zur weiteren Untersuchung berechnet. Ausgehend von den Erkenntnissen über das Prozessverhalten wurden unter Verwendung der getesteten Sensoren Regelkreise aufgebaut. Zum einen wurde ein iterativer Ansatz untersucht, der nach jedem Umformvorgang die Regelabweichung ermittelt und durch Einsetzen der PA versucht, diese im Folgehub zu minimieren. Es konnte nachgewiesen werden, dass der Prozess auf diese Weise stabilisiert werden kann. Des Weiteren wurde eine In-Prozess-Regelung implementiert, welche die Regelabweichung kontinuierlich über den Prozess minimierte. Als Führungsgröße wurde eine Referenzkurve aus einer Schar von Gutteilen verwendet. Es zeigten sich eine verbesserte Bauteilqualität und ein Ausgleichen von Störgrößen.:Abbildungsverzeichnis
Tabellenverzeichnis
1 Einleitung
2 Wissenschaftlicher Erkenntnisstand
2.1 Grundlagen der Blechumformung
2.2 Prozessregelung eines Umformvorgangs
2.3 Messeinrichtungen in Umformprozessen
2.4 Piezoelektrische Aktoren in Umformwerkzeugen
2.5 Diskussion zum wissenschaftlichen Erkenntnisstand
3 Auswahl großserientauglicher Sensorik zum Aufbau der Prozessregelung
3.1 Anforderungen an großserientaugliche Sensorik
3.2 Bewertungsmatrix einer Auswahl großserientauglicher Sensoren
4 Forschungsschwerpunkte und -hypothesen
5 Voruntersuchungen
5.1 Vorstellung des Versuchswerkzeug sowie der -geometrie
5.2 Untersuchung potenzieller Sensoren auf Beobachtbarkeit des Prozesses
5.3 Untersuchung der piezoelektrischen Aktoren
5.3.1 Prozessbeschreibung mit integrierten piezoelektrischen Aktoren
5.3.2 Versuchsaufbau mit integrierten piezoelektrischen Aktoren
5.3.3 Untersuchung der piezoelektrischen Aktoren auf Eignung im Prozess
5.3.4 Untersuchung der piezoelektrischen Aktoren auf Steuerbarkeit des Prozesses
6 Modellbildung
6.1 Versuchsplanung
6.2 Modellarten
6.3 Versuchsergebnisse und Modellvorstellung
6.4 Modellvergleich der Ziehkissenarten auf den Einfluss der PA
7 Prozessregelungsansätze
7.1 Iterative Regelung der Materialbewegung
7.1.1 Aufbau und Grundlagen der iterativen Regelung
7.1.2 Verifikation 1: Konvergenzverhalten bei gesetzten Zielen
7.1.3 Verifikation 2: Prozessregelung bei Prozessgrenzenüberschreitung
7.1.4 Diskussion der iterativen Prozessregelung
7.2 In-Prozess-Regelung der Materialbewegung
7.2.1 Aufbau und Grundlagen der In-Prozess-Regelung
7.2.2 Verifikation der In-Prozess-Regelung anhand empirischer Versuche
7.3 Ergebnisdiskussion und Gegenüberstellung der Regelungsansätze
8 Zusammenfassung und Ausblick
Literaturverzeichnis
Allgemeine Ergänzungen
|
166 |
Der Statistische Atlas: Untersuchungen zu klassifikatorischen, inhaltlichen, gestalterischen, technischen und kommunikativen AspektenSchulz, Thomas 26 June 2014 (has links)
Seit über 150 Jahren erscheinen in den statistischen Institutionen thematische Atlanten – bis heute über 2500 Werke. Als «Reiseführer» durch Gesellschaften erzählen sie spannende und vielfältige Geschichten über den Staat, die Menschen und deren Zusammenleben. Gerade im Kontext der Informationsgesellschaft nehmen solche Atlaswerke wieder sprunghaft zu und sprechen dabei ein außerordentlich breites Nutzerspektrum aus allen Berufskreisen an.
Ziel der vorliegenden Dissertation war es, durch theoretische und empirische Methoden das Wesen, die geschichtliche Entwicklung und die prägenden Merkmale des «Statistischen Atlas» eingehend zu untersuchen und damit Forschungslücken in der Thematischen Kartographie, der Atlaskartographie und der Statistik zu schließen. Mit Hilfe einer neu entwickelten Definition sowie einer aktuellen Atlasklassifikation können statistische Atlanten eindeutig bestimmt und von verwandten Atlastypen – etwa dem National-, dem Regional- oder dem Planungsatlas – im Hinblick auf die korrekte Einordnung in Bibliographien und Atlassammlungen abgegrenzt werden.
Weiterhin sind die gewonnenen Erkenntnisse für die Herausgeber neuer Atlaswerke und Atlasplattformen von großem Nutzen. Sie können in der Praxis als redaktionelle Grundlagen im Sinne eines Leitfadens zur erfolgreichen Produktion neuer, nutzergerechter Atlanten eingesetzt werden. Im beigefügten Atlasverzeichnis sind zudem 735 statistische Atlanten mit bibliographischen Angaben dargestellt.
|
167 |
Disk Storage and File Systems with Quality-of-Service GuaranteesReuther, Lars 18 May 2006 (has links)
Modern disk-storage systems have to accomplish the requirements of a variety of application classes. Applications that process continuous-media data such as video and audio streams require the storage system to guarantee sustained bandwidths. Interactive applications demand the storage system to ensure bounded response times, posing timing constraints on the execution of individual disk requests. Traditional timesharing applications may require both high throughput or overall short response times. With the described applications being more and more used together in todays computing systems, the disk-storage subsystems have to efficiently combine the different requirements of this application mix. In this thesis, I develop the design of a storage system that comprehensively addresses the various challenges posed by including the support for quality-of-service guarantees in disk-storage systems. The presented storage system provides three main properties. First, the admission control includes the support for statistical guarantees to increase the share of the disk bandwidth that can be utilized by the admission control. Second, the disk-request scheduling clearly separates the enforcement of real-time guarantees from the task to establish the optimal execution order of the requests, and it provides a flexible mechanism to combine the execution of requests with different quality-of-service requirements. Finally, the file system addresses both the needs of the former two elements of the storage system and of the various file types used by the applications by providing a flexible block-allocation policy and customized client interfaces. I show the implementation of the presented designs with the DROPS Disk-Storage System and I provide a detailed evaluation based on this implementation.
|
168 |
Sequence Dependent Elasticity of DNABecker, Nils B. 27 July 2007 (has links)
The DNA contained in every living cell not only stores the genetic information; it functions in a complex molecular network that can condense, transcribe, replicate and repair genes. The essential role played by the sequence dependent structure and deformability of DNA in these basic processes of life, has received increasing attention over the past years. The present work aims at better understanding sequence dependent elasticity of double stranded DNA elasticity, across biologically relevant length scales. A theoretical description is developed that makes is possible to relate structural, biochemical and biophysical experiments and simulation. It is based on the rigid base–pair chain (rbc) model which captures all basic deformation modes on the scale of individual base–pair (bp) steps. Existing microscopic parametrizations of the rbc model rely on indirect methods. A way to relate them to biochemical experiments is provided by the indirect readout mechanism, where DNA elasticity determines protein–DNA complexation affinities. By correlating theoretical affinity predictions with in vitro measurements in a well–studied test case, different parameter sets were evaluated. As a result a new, hybrid parameter set is proposed which greatly reduces prediction errors. Indirect readout occurs mostly at particular binding subsites in a complex. A statistical marker is developed which localizes indirect readout subsites, by detecting elastically optimized sub-sequences. By a systematic coarse–graining of the rbc to the well–characterized worm–like chain (wlc) model, a quantitative connection between microscopic and kbp scale elasticity is established. The general helical rbc geometry is mapped to an effective, linear ‘on-axis’ version, yielding the full set of wlc elastic parameters for any given sequence repeat. In the random sequence case, structural variability adds conformational fluctuations which are correlated by sequence continuity. The sequence disorder correction to entropic elasticity in the rbc model is shown to coincide with the conformational correction. The results show remarkable overall agree- ment of the coarse–grained with the mesoscale wlc parameters, lending support to the model and to the microscopic parameter sets. A continuum version of the rbc is formulated as Brownian motion on the rigid motion group. Analytic expressions for angular correlation functions and moments of the end–to–end distance distribution are given. In an equivalent Lagrangian approach, conserved quantities along, and the linear response around, a general equilibrium shape are explored. / Die in jeder lebenden Zelle enthaltene DNS speichert nicht nur die genetische Information; Sie funktioniert innerhalb eines komplexen molekularen Netzwerks, das in der Lage ist, Gene zu kondensieren, transkribieren, replizieren und reparieren. Die zentrale Rolle, welche der sequenzabhängigen Struktur und Deformierbarkeit von DNS in diesen grundlegenden Lebensprozessen zukommt, erregte in den letzten Jahren zunehmendes Interesse. Die vorliegende Arbeit hat ein besseres Verständnis der sequenzabhängigen elastischen Eigenschaften von DNS auf biologisch relevanten Längenskalen zum Ziel. Es wird eine theoretische Beschreibung entwickelt, die es ermöglicht, strukturbiologische, biochemische und biophysikalische Experimente und Simulationen in Beziehung zu setzen. Diese baut auf dem Modell einer Kette aus starren Basenpaaren (rbc) auf, das alle wichtigen Deformationsmoden von DNS auf der Ebene von einzelnen Basenpaar (bp)–Schritten abbildet. Bestehende Parametersätze des rbc-Modells beruhen auf indirekten Methoden. Eine direkte Beziehung zu biochemischen Experimenten kann mithilfe des indirekten Auslese-Mechanismus hergestellt werden. Hierbei bestimmt die DNS– Elastizität Komplexierungsaffinitäten von Protein–DNS–Komplexen. Durch eine Korrelation von theoretischen Vorhersagen mit in vitro Messungen in einem gut untersuchten Beispielfall werden verschiedene Parametersätze bewertet. Als Resultat wird ein neuer Hybrid–Parametersatz vorgeschlagen, der die Vorhersagefehler stark reduziert. Indirektes Auslesen tritt meistens an speziellen Teilbindungsstellen innerhalb eines Komplexes auf. Es wird eine statistische Kenngröße entwickelt, die indirektes Auslesen durch Detektion elastisch optimierter Subsequenzen erkennt. Durch ein systematisches Coarse–Graining des rbc-Modells auf das gut charakterisierte Modell der wurmartigen Kette (wlc) wird eine quantitative Beziehung zwischen der mikroskopischen und der Elastizität auf einer kbp-Skala hergestellt. Die allgemeine helikale Geometrie wird auf eine effektive, lineare Version der Kette ‘auf der Achse’ abgebildet. Dies führt zur Berechnung des vollen Satzes von wlc-elastischen Parameters für eine beliebig vorgegebene periodische Sequenz. Im Fall zufälliger Sequenz führt die Strukturvariabilität zu zusätzlichen Konformationsfluktuationen, die durch die Kontinuität der Sequenz kurzreichweitig korreliert sind. Es wird gezeigt, daß die Sequenzunordnungs-Korrektur zur entropischen Elastizität im rbc-Modell identisch ist zur Korrektur der Konformationsstatistik. Die Ergebnisse zeigen eine bemerkenswerte Übereinstimmung der hochskalierten mikroskopischen mit den mesoskopischen wlc-Parameter und bestätigen so die Wahl des Modells und seiner mikroskopischen Parametrisierung. Eine Kontinuumsversion des rbc-Modells wird formuliert als Brownsche Bewegung auf der Gruppe der Starrkörpertransformationen. Analytische Ausdrücke für Winkelkorrelationsfunktionen und Momente der Verteilung des End-zu-End–Vektors werden angegeben. In einem äquivalenten Lagrange-Formalismus werden Erhaltungsgrößen entlang von Gleichgewichtskonformationen und die lineare Antwort in ihrer Umgebung untersucht.
|
169 |
Beitrag zur Entwicklung von Störstrahlungstests im Nahfeld großer PrüflingeSorge, Wolfram 14 August 2009 (has links)
In dieser Arbeit wird das Verhalten der Störstrahlung großer Prüflinge untersucht mit dem
Ziel, vorhandene Standards für Störstrahlungstests wie CISPR 16 zu verbessern.
Diese Arbeit sieht als Standardtestumgebung einen reflektierenden, ausgedehnten Grund
vor, auf dem sich der Prüfling befindet. Die Strahlung, die dieser aussendet, wird durch
die Verteilung der elektrischen Feldstärke auf einer Testhalbkugel oberhalb des Grunds bewertet.
Ihr Zentrum befindet sich am Fußpunkt des Prüflings. Eine solche Halbkugel stellt
nahezu gleiche Abstände von etwa der Länge des Kugelradius' zwischen dem Prüfling und
den auf ihr definierten Meßpunkten her. Da die Halbkugel geschlossen ist, kann auf ihr das
gesamte vom Prüfling nach außen gestrahlte Feld nachgewiesen werden.
Meßabstände mit in Normen vorgegebenen Längen sind in der Praxis nicht immer einzuhalten,
vor allem dann, wenn sich Prüflinge in einer normalen Betriebsumgebung befinden.
In beengten Umgebungen ist es hilfreich, Meßabstände zu verkürzen. Hieraus ergibt sich
eine kleinere Testhalbkugel, die sich leichter abtasten läßt.
Bei kurzen Meßabständen jedoch können Meßsonden in das Nahfeld des Prüflings ragen.
Für diesen Fall werden in dieser Arbeit Feldeigenschaften in Prüflingsnähe untersucht. Aus
denen ergeben sich Mindestabstände zum Prüfling, jenseits derer sich gemessene Feldstärkewerte
zu größeren, in Normen vorgegebenen Abständen extrapolieren lassen.
Um die Verteilung der Feldstärke auf einer Testfläche zu beschreiben, wird der Begriff der
Halbwertsfläche eingeführt: Die Halbwertsfläche definiert jenen Teil der Testfläche, auf dem
die Dichte der abgestrahlten Leistung mindestens die Hälfte ihres Maximums beträgt. Die
Halbwertsfläche ergibt sich aus der Richtwirkung des Prüflings als Strahler. Sie ist somit
ein Maß für die Wahrscheinlichkeit, auf der Testfläche das Strahlungsmaximum zu finden.
Aus der Größe der Halbwertsfläche ergibt sich die nötige Anzahl an gleichmäßig auf der
Testfläche verteilten Meßpunkten, um das Strahlungsmaximum mit gegebener Wahrscheinlichkeit
zu finden. Wird an den Meßpunkten die Größe der Feldstärke berücksichtigt, läßt
sich die Anzahl der Meßpunkte optimieren und das Vertrauen in den Test erhöhen.
Als ein erster Schritt zur Entwicklung einer praktikablen Strahlungstestmethode wird die
Testdrahtmethode untersucht. Bei dieser Methode wird Strahlung mit einem langen, um
den Prüfling herum gespannten Draht erfaßt. Die Strahlung induziert in dem Draht einen
Strom, der an den Drahtabschlüssen gemessen werden kann. Weil der Draht i. allg. lang
ist, ist er sehr meßempfindlich. Ist er jedoch länger als eine Wellenlänge des abgestrahlten
Felds, sind sein Übertragungsfaktor und damit die Meßergebnisse schwer zu bestimmen.
Statistische Methoden der Auswertung werden hierzu untersucht.
Ein System aus kleinen Meßsonden kann denselben Teil des Prüflings abdecken wie ein
Testdraht. Weil als Übertragungsfaktor eines solchen Systems der einer Einzelsonde wirksam
ist, lassen sich Ergebnisse aus Messungen mit einem solchen System leichter auswerten.
Jedoch ist die Empfindlichkeit kleiner Sonden i. allg. gering. Der Weg zu einer praktischen
Anwendung führt somit vorerst in die Richtung herkömmlicher Meßantennen, die in einem
beweglichen System geeignete Testflächen abtasten. - (Die Dissertation ist veröffentlicht im Jörg Vogt Verlag, Dresden, Deutschland, http://www.vogtverlag.de, ISBN: 978-3-938860-25-0) / In this work the behavior of radiation emitted by large equipment is investigated. The aim
of investigation is to improve existing standardized radiation tests.
The radiation from an EUT (equipment under test) placed on reflecting ground is described
by the distribution of the electric field strength on a hemispheric test area, which encloses
the EUT placed in its center. This kind of area guarantees a nearly equal measurement
distance to the EUT from every point defined on it. This distance is
defined by the radius
of the hemisphere. However, measurement distances according to standards are difficult to
realize. Because of practical constraints shorter distances will become useful. This requires
a smaller test area, to be scanned more easily.
At shorter measurement distances field probes are possibly located in the near field of the
EUT. Therefore this work investigates the behavior of the field in the vicinity of the EUT to
find an adequate transition point, beyond which, field strength values can be extrapolated
to distances instructed by standards with confident results.
An important parameter of the field strength distribution is the half-power area. It defines
that part of the test area where the radiated power exceeds the half of its maximum. The
half-power area is related to the directivity of the EUT, which can be approximated by
antenna theory or statistics. If the directivity of the EUT is high, the half-power area is
small, and the probability to find the field maximum on the test area is low.
The size of the half-power area yields to a least number of observation points, equally
distributed on the test area, to find the field maximum with a high level of confidence. If
the field strength measured at any observation point is considered, the distance to other
observation points can be optimized, and the level of confidence in the test can be increased.
As a first step in developing a practicable field scanning method is highlighted: the test
wire method. This method establishes a measurement executed by a long wire which covers
the EUT. At its terminations current can be measured induced by the radiation. Because
the wire is long it is very sensitive. However, if it is longer than one wave length of the
radiation, the evaluation of results is difficult because of an uncertain transmission factor.
Therefore, some statistic methods are applied to describe the behavior of results and their
maxima.
Also a system of small probes, e. g. short dipoles, can cover the same part of the EUT as
a test wire. The measurement with small probes can be evaluated more easily because of
a unique transmission factor. However, their sensitivity is lower.
|
170 |
Adaptive-network models of collective dynamicsZschaler, Gerd 15 May 2012 (has links)
Complex systems can often be modelled as networks, in which their basic units are represented by abstract nodes and the interactions among them by abstract links. This network of interactions is the key to understanding emergent collective phenomena in such systems. In most cases, it is an adaptive network, which is defined by a feedback loop between the local dynamics of the individual units and the dynamical changes of the network structure itself. This feedback loop gives rise to many novel phenomena. Adaptive networks are a promising concept for the investigation of collective phenomena in different systems. However, they also present a challenge to existing modelling approaches and analytical descriptions due to the tight coupling between local and topological degrees of freedom.
In this thesis, I present a simple rule-based framework for the investigation of adaptive networks, using which a wide range of collective phenomena can be modelled and analysed from a common perspective. In this framework, a microscopic model is defined by the local interaction rules of small network motifs, which can be implemented in stochastic simulations straightforwardly. Moreover, an approximate emergent-level description in terms of macroscopic variables can be derived from the microscopic rules, which we use to analyse the system\'s collective and long-term behaviour by applying tools from dynamical systems theory.
We discuss three adaptive-network models for different collective phenomena within our common framework. First, we propose a novel approach to collective motion in insect swarms, in which we consider the insects\' adaptive interaction network instead of explicitly tracking their positions and velocities. We capture the experimentally observed onset of collective motion qualitatively in terms of a bifurcation in this non-spatial model. We find that three-body interactions are an essential ingredient for collective motion to emerge. Moreover, we show what minimal microscopic interaction rules determine whether the transition to collective motion is continuous or discontinuous.
Second, we consider a model of opinion formation in groups of individuals, where we focus on the effect of directed links in adaptive networks. Extending the adaptive voter model to directed networks, we find a novel fragmentation mechanism, by which the network breaks into distinct components of opposing agents. This fragmentation is mediated by the formation of self-stabilizing structures in the network, which do not occur in the undirected case. We find that they are related to degree correlations stemming from the interplay of link directionality and adaptive topological change.
Third, we discuss a model for the evolution of cooperation among self-interested agents, in which the adaptive nature of their interaction network gives rise to a novel dynamical mechanism promoting cooperation. We show that even full cooperation can be achieved asymptotically if the networks\' adaptive response to the agents\' dynamics is sufficiently fast.
|
Page generated in 0.075 seconds