• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 171
  • 83
  • 13
  • 9
  • 2
  • Tagged with
  • 274
  • 127
  • 94
  • 75
  • 66
  • 64
  • 64
  • 62
  • 40
  • 40
  • 32
  • 23
  • 21
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

The Cumulant Method

Seeger, Steffen 09 September 2003 (has links)
In dieser Arbeit wird eine neue Methode zur Reduktion der Boltzmann-Gleichung auf ein System partieller Differentialgleichungen diskutiert. Nach einer kurzen Einführung in die kinetische Theorie einer Mischung inerter Gase wird ein Überblick in die aus der Literatur bekannten Momentenmethoden gegeben. Der anschließend vorgestellten Kumulantenmethode liegt die Annahme zugrunde, daß durch Stoßprozesse in einem Gas Korrelationen höherer Ordnung schneller abgebaut werden als solche niedrigerer Ordnung. Basierend auf dieser Annahme werden die Bewegungsgleichungen für die Kumulanten und die Produktionsterme der resultierenden Bilanzgleichungen für eine Mischung inerter Maxwell-Gase berechnet. Die Untersuchung der Relaxation zum Gleichgewicht erlaubt den Bezug zu bekannten Modellen der Kontinuumsmechanik und untermauert die Gültigkeit der Annahme für die Begründung des o.g. Ansatzes in diesem Fall. Im zweiten Teil der Arbeit werden die Ergebnisse numerischer Untersuchungen vorgestellt, wobei Simulationen mit verschiedenen Randbedingungen für Couette- und Poiseulle- Strömungen durchgeführt wurden. Es werden verschiedene Eigenschaften von Modellen für verdünnte Gase als auch des Navier-Stokes-Modells beobachtet. Dabei ist jedoch eine sehr starke Abhängigkeit von den angewendeten Randbedingungen festzustellen. Abschließend werden Momentenmethoden als eine besondere Form von Diskretisierungen der Boltzmann-Gleichung nach der Methode der gewichteten Residuen diskutiert, was einen Ausblick auf zukünftige Arbeiten erlaubt.
162

Prozessnahes Qualitätsmanagement beim Spritzgießen

Haman, Soromo 04 June 2004 (has links)
Wachsende Anforderungen an die Qualität von Formteilen sowie die Globalisierung der Märkte für Kunststoffprodukte zwingen die kunststoffverarbeitenden Unternehmen, neue moderne Methoden zur Qualitätsverbesserung und zur Kostensenkung einzusetzen. Eine Untersuchung zum Stand der Forschung ergab, dass eine Null-Fehler-Produktion beim Spritzgießen bisher nicht gegeben ist. Die vorliegende Arbeit beschreibt einen Beitrag zur Qualitätssicherung durch ein prozessnahes Qualitätsmanagement mit dem Ziel, eine kontinuierliche Qualitätsüberwachung und eine Qualitätsregelung für jedes produzierte Formteil zu ermöglichen. Durch den Einsatz von statistischen Versuchsplänen werden die Herstellungsbedingungen beim Spritzgießen optimiert und Modelle zur Einstellung der Maschine sowie zur Überwachung der Qualitätseigenschaften gebildet. Aufbauend auf diesen Modellen wird ein adaptives Regelungssystem entworfen, um Qualitätsabweichungen zu verhindern.
163

The State Space of Complex Systems

Heilmann, Frank 14 October 2005 (has links)
In dieser Arbeit wird eine Beschreibung von Monte-Carlo-Verfahren zur Lösung komplexer Optimierungsaufgaben mit Hilfe von Markov-Ketten durchgeführt. Nach einer kurzen Einführung werden Lösungsmenge solcher Aufgaben und der physikalische Zustandsraum komplexer Systeme identifiziert. Zunächst wird die Dynamik von Zufallswanderern im Zustandsraum mit Hilfe von Master-Gleichungen modelliert. Durch Einführung von Performanzkriterien können verschiedene Optimierungsstrategien quantitativ miteinander verglichen werden. Insbesondere wird das Verfahren Extremal Optimization vorgestellt, dass ebenfalls als Markov-Prozess verstanden werden kann. Es wird bewiesen, dass eine im Sinne der genannten Kriterien beste Implementierung existiert. Da diese von einem sogenannten Fitness Schedule abhängt, wird dieser für kleine Beispielsysteme explizit berechnet. Daran anschließend wird die Zustandsdichte komplexer Systeme betrachtet. Nach einem kurzen Überblick über vorhandene Methoden folgt eine detaillierte Untersuchung des Verfahrens von Wang und Landau. Numerische und analytische Hinweise werden gegeben, nach denen dieser Algorithmus innerhalb seiner Klasse wahrscheinlich der Optimale ist. Eine neue Methode zur Approximation der Zustandsdichte wird vorgestellt, die insbesondere für die Untersuchung komplexer Systeme geeignet ist. Abschließend wird ein Ausblick auf zukünftige Arbeiten gegeben.
164

Modelling Complex Systems: Tree Structures

Fischer, Andreas 08 January 2008 (has links)
Der Zustandsraum ist ein sehr wichtiges und grundlegendes Konzept für die Untersuchung komplexer Systeme. Alle Eigenschaften des Systems können anhand der Struktur dieses Raumes verstanden werden. Aufgrund der immensen Größe des Zustandsraumes eines realen komplexen Systems ist eine vergröberte Beschreibung unumgänglich für dessen Analyse. In dieser Arbeit werden, aufbauend auf dem lang etablierten Modell der hierarchischen Bäume, spezielle Aspekte komplexer Systeme untersucht. Gleichzeitig wird das verwendete Modell in geeigneter Weise erweitert und verbessert. Im ersten Teil der Forschungsarbeit werden die Besonderheiten des Wahrscheinlichkeitsflusses an einem einzelnen Sattelpunkt einer Energielandschaft detailliert betrachtet. Die Einflüsse verschiedener Parameter wie Energietiefe, Zustandsdichte und Konnektivität werden unabhängig voneinander und im Zusammenspiel untersucht. Im zweiten Teil wird ein vollständiges System, das komplexes Verhalten zeigt, untersucht, wobei besonderes Gewicht auf seine Wechselwirkung, d.h. seinen Energieaustausch mit der Umgebung, gelegt wird. Es kann gezeigt werden, daß das hierarchische Relaxationsverhalten, welches bei anderen Varianten komplexer Systeme beobachtet werden konnte, im Baummodell bereits enthalten ist. Neben den bisher untersuchten, auf Energielandschaften basierenden Systemen besitzen auch turbulente Diffusionsprozesse hierarchische Strukturen. Im dritten Teil der Arbeit wird die Baumstruktur verwendet, um turbulente Superdiffusionsprozesse zu modellieren. Das dabei beobachtete Diffusionsverhalten wird mit vier bekannten mathematischen Modellen verglichen. Die Ergebnisse zeigen, daß nur eines der untersuchten Modelle den vom Baummodell beschriebenen turbulenten Transport in akzeptabler Weise nachbildet. / The state space is a very important and fundamental concept for the treatment of complex systems. All the system's properties can be understood by means of its structure. Due to the gigantic extent of a real system's state space, a coarse grained approach is inevitable for the analysis. In this work, based on the well established model of hierarchical trees, particular aspects of complex systems have been studied, while at the same time several extensions to the model have been made. In the first part of this research work the features of the probability flow are treated in detail at a single saddle point in the energy landscape. Influences of various parameters like energetic depth, density of states and connectivity are studied isolated and in their interaction. In the second part a whole system showing complex behavior is being considered, especially its energy exchange with the surroundings. It can be demonstrated that the hierarchical relaxation behavior observed in other realizations of complex systems is intrinsically covered by the tree model. Beside energy landscape based systems turbulent diffusion processes possess hierarchical structures, too. In the third part the tree structure has been used to model a turbulent superdiffusion process. The diffusion behavior observed there has been compared with four well known diffusion equation approaches. The results show that only one of the discussed continuum diffusion equations can model the turbulent transport based on the tree model in acceptable fashion.
165

Prozessregelungen durch piezoelektrisch erweiterte Umformwerkzeuge

Bäume, Tobias 06 January 2020 (has links)
Um immer strengere Umweltauflagen zu erfüllen, wird zur Gewichtsreduzierung bei Automobilen auf Leichtbau gesetzt. Infolgedessen findet auch beim Herstellen von Karosserieblechteilen ein verstärktes Ausreizen des Werkstoffes statt. Erschwert wird dies durch den Trend zu komplexeren Bauteilgeometrien und markanterer Designsprache. Daher wird der Herstellungsprozess mehr und mehr an den Grenzbereichen der Stabilität betrieben. Piezoelektrische Aktoren (PA) können dabei so eingesetzt werden, dass der Umformprozess um zusätzliche Einflussparameter erweitert wird. Sie beeinflussen dabei die Materialbewegung lokal und können dadurch zu einer Steigerung der Effizienz beitragen. Im Rahmen der Dissertation wurden PA in die Matrize eines Großserien-Umformwerkzeugs (Karosseriebauteil einer Reserveradmulde) implementiert und hinsichtlich der Eignung für die Prozessregelung untersucht. Dabei wurden verschiedene Sensoren berücksichtigt, wobei sich Triangulationslaser zur Messung der Materialbewegung an der Platinenkante am besten eigneten. Es wurde die Wechselwirkung der PA auf die Materialbewegung empirisch und unter Verwendung statistischer Versuchsplanung ermittelt. Ein FE-Modell unterstützte die Prozessbeschreibung. Aus den Versuchsergebnissen wurde mittels Regressionsanalyse ein Polynomialmodell zur weiteren Untersuchung berechnet. Ausgehend von den Erkenntnissen über das Prozessverhalten wurden unter Verwendung der getesteten Sensoren Regelkreise aufgebaut. Zum einen wurde ein iterativer Ansatz untersucht, der nach jedem Umformvorgang die Regelabweichung ermittelt und durch Einsetzen der PA versucht, diese im Folgehub zu minimieren. Es konnte nachgewiesen werden, dass der Prozess auf diese Weise stabilisiert werden kann. Des Weiteren wurde eine In-Prozess-Regelung implementiert, welche die Regelabweichung kontinuierlich über den Prozess minimierte. Als Führungsgröße wurde eine Referenzkurve aus einer Schar von Gutteilen verwendet. Es zeigten sich eine verbesserte Bauteilqualität und ein Ausgleichen von Störgrößen.:Abbildungsverzeichnis Tabellenverzeichnis 1 Einleitung 2 Wissenschaftlicher Erkenntnisstand 2.1 Grundlagen der Blechumformung 2.2 Prozessregelung eines Umformvorgangs 2.3 Messeinrichtungen in Umformprozessen 2.4 Piezoelektrische Aktoren in Umformwerkzeugen 2.5 Diskussion zum wissenschaftlichen Erkenntnisstand 3 Auswahl großserientauglicher Sensorik zum Aufbau der Prozessregelung 3.1 Anforderungen an großserientaugliche Sensorik 3.2 Bewertungsmatrix einer Auswahl großserientauglicher Sensoren 4 Forschungsschwerpunkte und -hypothesen 5 Voruntersuchungen 5.1 Vorstellung des Versuchswerkzeug sowie der -geometrie 5.2 Untersuchung potenzieller Sensoren auf Beobachtbarkeit des Prozesses 5.3 Untersuchung der piezoelektrischen Aktoren 5.3.1 Prozessbeschreibung mit integrierten piezoelektrischen Aktoren 5.3.2 Versuchsaufbau mit integrierten piezoelektrischen Aktoren 5.3.3 Untersuchung der piezoelektrischen Aktoren auf Eignung im Prozess 5.3.4 Untersuchung der piezoelektrischen Aktoren auf Steuerbarkeit des Prozesses 6 Modellbildung 6.1 Versuchsplanung 6.2 Modellarten 6.3 Versuchsergebnisse und Modellvorstellung 6.4 Modellvergleich der Ziehkissenarten auf den Einfluss der PA 7 Prozessregelungsansätze 7.1 Iterative Regelung der Materialbewegung 7.1.1 Aufbau und Grundlagen der iterativen Regelung 7.1.2 Verifikation 1: Konvergenzverhalten bei gesetzten Zielen 7.1.3 Verifikation 2: Prozessregelung bei Prozessgrenzenüberschreitung 7.1.4 Diskussion der iterativen Prozessregelung 7.2 In-Prozess-Regelung der Materialbewegung 7.2.1 Aufbau und Grundlagen der In-Prozess-Regelung 7.2.2 Verifikation der In-Prozess-Regelung anhand empirischer Versuche 7.3 Ergebnisdiskussion und Gegenüberstellung der Regelungsansätze 8 Zusammenfassung und Ausblick Literaturverzeichnis Allgemeine Ergänzungen
166

Der Statistische Atlas: Untersuchungen zu klassifikatorischen, inhaltlichen, gestalterischen, technischen und kommunikativen Aspekten

Schulz, Thomas 26 June 2014 (has links)
Seit über 150 Jahren erscheinen in den statistischen Institutionen thematische Atlanten – bis heute über 2500 Werke. Als «Reiseführer» durch Gesellschaften erzählen sie spannende und vielfältige Geschichten über den Staat, die Menschen und deren Zusammenleben. Gerade im Kontext der Informationsgesellschaft nehmen solche Atlaswerke wieder sprunghaft zu und sprechen dabei ein außerordentlich breites Nutzerspektrum aus allen Berufskreisen an. Ziel der vorliegenden Dissertation war es, durch theoretische und empirische Methoden das Wesen, die geschichtliche Entwicklung und die prägenden Merkmale des «Statistischen Atlas» eingehend zu untersuchen und damit Forschungslücken in der Thematischen Kartographie, der Atlaskartographie und der Statistik zu schließen. Mit Hilfe einer neu entwickelten Definition sowie einer aktuellen Atlasklassifikation können statistische Atlanten eindeutig bestimmt und von verwandten Atlastypen – etwa dem National-, dem Regional- oder dem Planungsatlas – im Hinblick auf die korrekte Einordnung in Bibliographien und Atlassammlungen abgegrenzt werden. Weiterhin sind die gewonnenen Erkenntnisse für die Herausgeber neuer Atlaswerke und Atlasplattformen von großem Nutzen. Sie können in der Praxis als redaktionelle Grundlagen im Sinne eines Leitfadens zur erfolgreichen Produktion neuer, nutzergerechter Atlanten eingesetzt werden. Im beigefügten Atlasverzeichnis sind zudem 735 statistische Atlanten mit bibliographischen Angaben dargestellt.
167

Disk Storage and File Systems with Quality-of-Service Guarantees

Reuther, Lars 18 May 2006 (has links)
Modern disk-storage systems have to accomplish the requirements of a variety of application classes. Applications that process continuous-media data such as video and audio streams require the storage system to guarantee sustained bandwidths. Interactive applications demand the storage system to ensure bounded response times, posing timing constraints on the execution of individual disk requests. Traditional timesharing applications may require both high throughput or overall short response times. With the described applications being more and more used together in todays computing systems, the disk-storage subsystems have to efficiently combine the different requirements of this application mix. In this thesis, I develop the design of a storage system that comprehensively addresses the various challenges posed by including the support for quality-of-service guarantees in disk-storage systems. The presented storage system provides three main properties. First, the admission control includes the support for statistical guarantees to increase the share of the disk bandwidth that can be utilized by the admission control. Second, the disk-request scheduling clearly separates the enforcement of real-time guarantees from the task to establish the optimal execution order of the requests, and it provides a flexible mechanism to combine the execution of requests with different quality-of-service requirements. Finally, the file system addresses both the needs of the former two elements of the storage system and of the various file types used by the applications by providing a flexible block-allocation policy and customized client interfaces. I show the implementation of the presented designs with the DROPS Disk-Storage System and I provide a detailed evaluation based on this implementation.
168

Sequence Dependent Elasticity of DNA

Becker, Nils B. 27 July 2007 (has links)
The DNA contained in every living cell not only stores the genetic information; it functions in a complex molecular network that can condense, transcribe, replicate and repair genes. The essential role played by the sequence dependent structure and deformability of DNA in these basic processes of life, has received increasing attention over the past years. The present work aims at better understanding sequence dependent elasticity of double stranded DNA elasticity, across biologically relevant length scales. A theoretical description is developed that makes is possible to relate structural, biochemical and biophysical experiments and simulation. It is based on the rigid base–pair chain (rbc) model which captures all basic deformation modes on the scale of individual base–pair (bp) steps. Existing microscopic parametrizations of the rbc model rely on indirect methods. A way to relate them to biochemical experiments is provided by the indirect readout mechanism, where DNA elasticity determines protein–DNA complexation affinities. By correlating theoretical affinity predictions with in vitro measurements in a well–studied test case, different parameter sets were evaluated. As a result a new, hybrid parameter set is proposed which greatly reduces prediction errors. Indirect readout occurs mostly at particular binding subsites in a complex. A statistical marker is developed which localizes indirect readout subsites, by detecting elastically optimized sub-sequences. By a systematic coarse–graining of the rbc to the well–characterized worm–like chain (wlc) model, a quantitative connection between microscopic and kbp scale elasticity is established. The general helical rbc geometry is mapped to an effective, linear ‘on-axis’ version, yielding the full set of wlc elastic parameters for any given sequence repeat. In the random sequence case, structural variability adds conformational fluctuations which are correlated by sequence continuity. The sequence disorder correction to entropic elasticity in the rbc model is shown to coincide with the conformational correction. The results show remarkable overall agree- ment of the coarse–grained with the mesoscale wlc parameters, lending support to the model and to the microscopic parameter sets. A continuum version of the rbc is formulated as Brownian motion on the rigid motion group. Analytic expressions for angular correlation functions and moments of the end–to–end distance distribution are given. In an equivalent Lagrangian approach, conserved quantities along, and the linear response around, a general equilibrium shape are explored. / Die in jeder lebenden Zelle enthaltene DNS speichert nicht nur die genetische Information; Sie funktioniert innerhalb eines komplexen molekularen Netzwerks, das in der Lage ist, Gene zu kondensieren, transkribieren, replizieren und reparieren. Die zentrale Rolle, welche der sequenzabhängigen Struktur und Deformierbarkeit von DNS in diesen grundlegenden Lebensprozessen zukommt, erregte in den letzten Jahren zunehmendes Interesse. Die vorliegende Arbeit hat ein besseres Verständnis der sequenzabhängigen elastischen Eigenschaften von DNS auf biologisch relevanten Längenskalen zum Ziel. Es wird eine theoretische Beschreibung entwickelt, die es ermöglicht, strukturbiologische, biochemische und biophysikalische Experimente und Simulationen in Beziehung zu setzen. Diese baut auf dem Modell einer Kette aus starren Basenpaaren (rbc) auf, das alle wichtigen Deformationsmoden von DNS auf der Ebene von einzelnen Basenpaar (bp)–Schritten abbildet. Bestehende Parametersätze des rbc-Modells beruhen auf indirekten Methoden. Eine direkte Beziehung zu biochemischen Experimenten kann mithilfe des indirekten Auslese-Mechanismus hergestellt werden. Hierbei bestimmt die DNS– Elastizität Komplexierungsaffinitäten von Protein–DNS–Komplexen. Durch eine Korrelation von theoretischen Vorhersagen mit in vitro Messungen in einem gut untersuchten Beispielfall werden verschiedene Parametersätze bewertet. Als Resultat wird ein neuer Hybrid–Parametersatz vorgeschlagen, der die Vorhersagefehler stark reduziert. Indirektes Auslesen tritt meistens an speziellen Teilbindungsstellen innerhalb eines Komplexes auf. Es wird eine statistische Kenngröße entwickelt, die indirektes Auslesen durch Detektion elastisch optimierter Subsequenzen erkennt. Durch ein systematisches Coarse–Graining des rbc-Modells auf das gut charakterisierte Modell der wurmartigen Kette (wlc) wird eine quantitative Beziehung zwischen der mikroskopischen und der Elastizität auf einer kbp-Skala hergestellt. Die allgemeine helikale Geometrie wird auf eine effektive, lineare Version der Kette ‘auf der Achse’ abgebildet. Dies führt zur Berechnung des vollen Satzes von wlc-elastischen Parameters für eine beliebig vorgegebene periodische Sequenz. Im Fall zufälliger Sequenz führt die Strukturvariabilität zu zusätzlichen Konformationsfluktuationen, die durch die Kontinuität der Sequenz kurzreichweitig korreliert sind. Es wird gezeigt, daß die Sequenzunordnungs-Korrektur zur entropischen Elastizität im rbc-Modell identisch ist zur Korrektur der Konformationsstatistik. Die Ergebnisse zeigen eine bemerkenswerte Übereinstimmung der hochskalierten mikroskopischen mit den mesoskopischen wlc-Parameter und bestätigen so die Wahl des Modells und seiner mikroskopischen Parametrisierung. Eine Kontinuumsversion des rbc-Modells wird formuliert als Brownsche Bewegung auf der Gruppe der Starrkörpertransformationen. Analytische Ausdrücke für Winkelkorrelationsfunktionen und Momente der Verteilung des End-zu-End–Vektors werden angegeben. In einem äquivalenten Lagrange-Formalismus werden Erhaltungsgrößen entlang von Gleichgewichtskonformationen und die lineare Antwort in ihrer Umgebung untersucht.
169

Beitrag zur Entwicklung von Störstrahlungstests im Nahfeld großer Prüflinge

Sorge, Wolfram 14 August 2009 (has links)
In dieser Arbeit wird das Verhalten der Störstrahlung großer Prüflinge untersucht mit dem Ziel, vorhandene Standards für Störstrahlungstests wie CISPR 16 zu verbessern. Diese Arbeit sieht als Standardtestumgebung einen reflektierenden, ausgedehnten Grund vor, auf dem sich der Prüfling befindet. Die Strahlung, die dieser aussendet, wird durch die Verteilung der elektrischen Feldstärke auf einer Testhalbkugel oberhalb des Grunds bewertet. Ihr Zentrum befindet sich am Fußpunkt des Prüflings. Eine solche Halbkugel stellt nahezu gleiche Abstände von etwa der Länge des Kugelradius' zwischen dem Prüfling und den auf ihr definierten Meßpunkten her. Da die Halbkugel geschlossen ist, kann auf ihr das gesamte vom Prüfling nach außen gestrahlte Feld nachgewiesen werden. Meßabstände mit in Normen vorgegebenen Längen sind in der Praxis nicht immer einzuhalten, vor allem dann, wenn sich Prüflinge in einer normalen Betriebsumgebung befinden. In beengten Umgebungen ist es hilfreich, Meßabstände zu verkürzen. Hieraus ergibt sich eine kleinere Testhalbkugel, die sich leichter abtasten läßt. Bei kurzen Meßabständen jedoch können Meßsonden in das Nahfeld des Prüflings ragen. Für diesen Fall werden in dieser Arbeit Feldeigenschaften in Prüflingsnähe untersucht. Aus denen ergeben sich Mindestabstände zum Prüfling, jenseits derer sich gemessene Feldstärkewerte zu größeren, in Normen vorgegebenen Abständen extrapolieren lassen. Um die Verteilung der Feldstärke auf einer Testfläche zu beschreiben, wird der Begriff der Halbwertsfläche eingeführt: Die Halbwertsfläche definiert jenen Teil der Testfläche, auf dem die Dichte der abgestrahlten Leistung mindestens die Hälfte ihres Maximums beträgt. Die Halbwertsfläche ergibt sich aus der Richtwirkung des Prüflings als Strahler. Sie ist somit ein Maß für die Wahrscheinlichkeit, auf der Testfläche das Strahlungsmaximum zu finden. Aus der Größe der Halbwertsfläche ergibt sich die nötige Anzahl an gleichmäßig auf der Testfläche verteilten Meßpunkten, um das Strahlungsmaximum mit gegebener Wahrscheinlichkeit zu finden. Wird an den Meßpunkten die Größe der Feldstärke berücksichtigt, läßt sich die Anzahl der Meßpunkte optimieren und das Vertrauen in den Test erhöhen. Als ein erster Schritt zur Entwicklung einer praktikablen Strahlungstestmethode wird die Testdrahtmethode untersucht. Bei dieser Methode wird Strahlung mit einem langen, um den Prüfling herum gespannten Draht erfaßt. Die Strahlung induziert in dem Draht einen Strom, der an den Drahtabschlüssen gemessen werden kann. Weil der Draht i. allg. lang ist, ist er sehr meßempfindlich. Ist er jedoch länger als eine Wellenlänge des abgestrahlten Felds, sind sein Übertragungsfaktor und damit die Meßergebnisse schwer zu bestimmen. Statistische Methoden der Auswertung werden hierzu untersucht. Ein System aus kleinen Meßsonden kann denselben Teil des Prüflings abdecken wie ein Testdraht. Weil als Übertragungsfaktor eines solchen Systems der einer Einzelsonde wirksam ist, lassen sich Ergebnisse aus Messungen mit einem solchen System leichter auswerten. Jedoch ist die Empfindlichkeit kleiner Sonden i. allg. gering. Der Weg zu einer praktischen Anwendung führt somit vorerst in die Richtung herkömmlicher Meßantennen, die in einem beweglichen System geeignete Testflächen abtasten. - (Die Dissertation ist veröffentlicht im Jörg Vogt Verlag, Dresden, Deutschland, http://www.vogtverlag.de, ISBN: 978-3-938860-25-0) / In this work the behavior of radiation emitted by large equipment is investigated. The aim of investigation is to improve existing standardized radiation tests. The radiation from an EUT (equipment under test) placed on reflecting ground is described by the distribution of the electric field strength on a hemispheric test area, which encloses the EUT placed in its center. This kind of area guarantees a nearly equal measurement distance to the EUT from every point defined on it. This distance is defined by the radius of the hemisphere. However, measurement distances according to standards are difficult to realize. Because of practical constraints shorter distances will become useful. This requires a smaller test area, to be scanned more easily. At shorter measurement distances field probes are possibly located in the near field of the EUT. Therefore this work investigates the behavior of the field in the vicinity of the EUT to find an adequate transition point, beyond which, field strength values can be extrapolated to distances instructed by standards with confident results. An important parameter of the field strength distribution is the half-power area. It defines that part of the test area where the radiated power exceeds the half of its maximum. The half-power area is related to the directivity of the EUT, which can be approximated by antenna theory or statistics. If the directivity of the EUT is high, the half-power area is small, and the probability to find the field maximum on the test area is low. The size of the half-power area yields to a least number of observation points, equally distributed on the test area, to find the field maximum with a high level of confidence. If the field strength measured at any observation point is considered, the distance to other observation points can be optimized, and the level of confidence in the test can be increased. As a first step in developing a practicable field scanning method is highlighted: the test wire method. This method establishes a measurement executed by a long wire which covers the EUT. At its terminations current can be measured induced by the radiation. Because the wire is long it is very sensitive. However, if it is longer than one wave length of the radiation, the evaluation of results is difficult because of an uncertain transmission factor. Therefore, some statistic methods are applied to describe the behavior of results and their maxima. Also a system of small probes, e. g. short dipoles, can cover the same part of the EUT as a test wire. The measurement with small probes can be evaluated more easily because of a unique transmission factor. However, their sensitivity is lower.
170

Adaptive-network models of collective dynamics

Zschaler, Gerd 15 May 2012 (has links)
Complex systems can often be modelled as networks, in which their basic units are represented by abstract nodes and the interactions among them by abstract links. This network of interactions is the key to understanding emergent collective phenomena in such systems. In most cases, it is an adaptive network, which is defined by a feedback loop between the local dynamics of the individual units and the dynamical changes of the network structure itself. This feedback loop gives rise to many novel phenomena. Adaptive networks are a promising concept for the investigation of collective phenomena in different systems. However, they also present a challenge to existing modelling approaches and analytical descriptions due to the tight coupling between local and topological degrees of freedom. In this thesis, I present a simple rule-based framework for the investigation of adaptive networks, using which a wide range of collective phenomena can be modelled and analysed from a common perspective. In this framework, a microscopic model is defined by the local interaction rules of small network motifs, which can be implemented in stochastic simulations straightforwardly. Moreover, an approximate emergent-level description in terms of macroscopic variables can be derived from the microscopic rules, which we use to analyse the system\'s collective and long-term behaviour by applying tools from dynamical systems theory. We discuss three adaptive-network models for different collective phenomena within our common framework. First, we propose a novel approach to collective motion in insect swarms, in which we consider the insects\' adaptive interaction network instead of explicitly tracking their positions and velocities. We capture the experimentally observed onset of collective motion qualitatively in terms of a bifurcation in this non-spatial model. We find that three-body interactions are an essential ingredient for collective motion to emerge. Moreover, we show what minimal microscopic interaction rules determine whether the transition to collective motion is continuous or discontinuous. Second, we consider a model of opinion formation in groups of individuals, where we focus on the effect of directed links in adaptive networks. Extending the adaptive voter model to directed networks, we find a novel fragmentation mechanism, by which the network breaks into distinct components of opposing agents. This fragmentation is mediated by the formation of self-stabilizing structures in the network, which do not occur in the undirected case. We find that they are related to degree correlations stemming from the interplay of link directionality and adaptive topological change. Third, we discuss a model for the evolution of cooperation among self-interested agents, in which the adaptive nature of their interaction network gives rise to a novel dynamical mechanism promoting cooperation. We show that even full cooperation can be achieved asymptotically if the networks\' adaptive response to the agents\' dynamics is sufficiently fast.

Page generated in 0.075 seconds