Spelling suggestions: "subject:"statistische"" "subject:"etatistische""
111 |
The Approach to Equilibration in Closed Quantum Systems / Equilibrierung von abgeschlossenen QuantensystemenNiemeyer, Hendrik 03 July 2014 (has links)
The question whether and how closed quantum systems equilibrate is still debated today.
In this thesis a generic spin system is analysed and criteria to classify unique equilibration
dynamics are developed. Furthermore, the eigenstate thermalization hypothesis is
investigated as a possible cause for the unique equilibrium. For both problems novel
numerical methods for solving the time-dependent Schroedinger equation based on series
expansions and typicality are developed. Furthermore, the problem of markovian
dynamics on the level of single measurements is discussed.
|
112 |
Climatic and geomorphological controls of rock glaciers in the Andes of Central ChileBrenning, Alexander 23 September 2005 (has links)
Die Blockgletscher der trockenen Anden sind weitverbreitete Oberflächenformen sowie bedeutende Bodeneisvorkommen. In der vorliegenden Arbeit werden statistische Modellierungen und geomorphologische Kartierungen durchgeführt, um die Verbreitung dieser Formen in den Anden von Zentralchile (27-36° s.Br.) in ihrem Bezug zu Klima und Topographie zu quantifizieren und analysieren. Eine stichprobenbasierte statistische Erhebung und eine logistische Regressionsmodellierung wurden durchgeführt, um in den Anden von Santiago (33-34,5° s.Br.) Verbreitungsmuster quantitativ zu schätzen und die geomorphologische Nische von Blockgletschern unter Verwendung von digitalen Geländemodellen zu charakterisieren. Das in Blockgletschern der Anden von Santiago gespeicherte Wasseräquivalent von 0,7-1,1 km³ je 1000 km² Gebirgsfläche ist um eine Größenordnung größer als in den Schweizer Alpen. Mindestens ein Fünftel der Hochgebirgsfläche der Anden von Santiago wird durch Blockgletscher hindurch entwässert. Dies unterstreicht die Bedeutung von Blockgletschern im andinen hydrologischen System und Schutttransportsystem. Die optimale Blockgletschernische der Anden von Santiago besitzt ein konvergierendes Einzugsgebiet von etwa 0,5-1 km² Fläche sowie rezente mittlere Jahrestemperaturen von +1 bis -1°C in 3500-3800 m Höhe. Unter günstigen morphographischen und topoklimatischen Bedingungen reichen intakte Blockgletscher bis 3000 m Höhe hinab. Das überregionale Verbreitungsmuster wird gesteuert durch Niederschlag, Vergletscherung, Topographie und Vulkanismus. Diese Faktoren wirken in Kombination auch an der nördlichen und südlichen Verbreitungsgrenze der Blockgletscher des Winterregengebiets bei 27° bzw. 35° s.Br. Die Verwendung der Blockgletscher-Sedimentbilanzen zur Abschätzung von holozänen Denudationsraten sowie von Blockgletschern als Permafrostindikatoren vermittelt weitere Einblicke in die Umweltverhältnisse der zentralchilenischen Anden. / Rock glaciers are ubiquitous landforms in the dry Andes, and significant, but unheralded stores of frozen water. In this study, statistical modelling techniques and geomorphological mapping are applied to quantify and analyze the distribution of rock glaciers in the Andes of Central Chile (27-35°S) as related to climate and topography. A statistical sample survey and a logistic regression model were designed to quantitatively estimate distribution patterns and characterize the geomorphological niche of rock glaciers in the Andes of Santiago (33-34.5°S) based upon digital elevation models. The amount of water stored within rock glaciers of the Andes of Santiago per unit area is by one order of magnitude higher than in the Swiss Alps, reaching an average 0.7-1.1 km³ of water equivalent per 1000 km² in the Andes. At least one fifth of the high-mountain area of the Andes of Santiago drains through intact rock glaciers. This underlines the importance of rock glaciers within the Andean hydrological and debris-transport system. The optimal rock glacier niche in the Andes of Santiago has a convergent contributing area of 0.5-1 km² and modern mean annual air temperatures of +1 to -1°C, corresponding to 3500-3800 m a.s.l. Intact rock glaciers reach down to 3000 m a.s.l. under favorable topographic and topoclimatic conditions. The supra-regional distribution pattern is influenced by precipitation, glaciation, topography and volcanism. These act as combined controls at the northern (27°S) and southern (35°S) limit of rock glacier occurrence in the Chilean area of winter precipitation. Rock glacier sediment budgets revealing Holocene denudation rates, and the use of rock glaciers as permafrost indicators give further insight into the periglacial environment of the Andes of Central Chile.
|
113 |
Critical states of seismicity : modeling and data analysisZöller, Gert January 2005 (has links)
The occurrence of earthquakes is characterized by a high degree of
spatiotemporal complexity. Although numerous patterns, e.g. fore- and aftershock sequences, are well-known, the underlying mechanisms are not observable and thus not understood. Because the recurrence times of large earthquakes are usually decades or centuries, the number of such events in corresponding data sets is too small to draw conclusions with reasonable statistical significance. Therefore, the present study combines both, numerical modeling and analysis of real data in order to unveil the relationships between physical mechanisms and observational quantities. The key hypothesis is the validity of the so-called "critical point concept" for earthquakes, which assumes large earthquakes to occur as phase transitions in a spatially extended many-particle system, similar to percolation models. New concepts are developed to detect critical states in simulated and in natural data sets. The results indicate that important features of seismicity like the frequency-size distribution and the temporal clustering of earthquakes depend on frictional and structural fault parameters. In particular, the degree of quenched spatial disorder (the "roughness") of a fault zone determines whether large earthquakes occur quasiperiodically or more clustered. This illustrates the power of numerical models in order to identify regions in parameter space, which are relevant for natural seismicity. The critical point concept is verified for both, synthetic and natural seismicity, in terms of a critical state which precedes a large earthquake: a gradual roughening of the (unobservable) stress field leads to a scale-free (observable) frequency-size distribution. Furthermore, the growth of the spatial correlation length and the acceleration of the seismic energy release prior to large events is found. The predictive power of these precursors is, however, limited. Instead of forecasting time, location, and magnitude of individual events, a contribution to a broad multiparameter approach is encouraging. / Das Auftreten von Erdbeben zeichnet sich durch eine hohe raumzeitliche
Komplexität aus. Obwohl zahlreiche Muster, wie Vor- und Nachbeben bekannt
sind, weiß man wenig über die zugrundeliegenden Mechanismen, da diese sich
direkter Beobachtung entziehen. Die Zeit zwischen zwei starken Erdbeben in
einer seismisch aktiven Region beträgt Jahrzehnte bis Jahrhunderte. Folglich
ist die Anzahl solcher Ereignisse in einem Datensatz gering und es ist
kaum möglich, allein aus Beobachtungsdaten statistisch signifikante Aussagen
über deren Eigenschaften abzuleiten. Die vorliegende Arbeit nutzt daher
numerische Modellierungen einer Verwerfungszone in Verbindung mit
Datenanalyse, um die Beziehung zwischen physikalischen Mechanismen und
beobachteter Seismizität zu studieren. Die zentrale Hypothese ist die
Gültigkeit des sogenannten "kritischen Punkt Konzeptes" für Seismizität,
d.h. starke Erdbeben werden als Phasenübergänge in einem räumlich ausgedehnten
Vielteilchensystem betrachtet, ähnlich wie in Modellen aus der statistischen
Physik (z.B. Perkolationsmodelle). Es werden praktische Konzepte entwickelt,
die es ermöglichen, kritische Zustände in simulierten und in beobachteten
Daten sichtbar zu machen. Die Resultate zeigen, dass wesentliche
Eigenschaften von Seismizität, etwa die Magnitudenverteilung und das
raumzeitliche Clustern von Erdbeben, durch Reibungs- und
Bruchparameter bestimmt werden. Insbesondere der Grad räumlicher Unordnung
(die "Rauhheit") einer Verwerfungszone hat Einfluss darauf, ob starke
Erdbeben quasiperiodisch oder eher zufällig auftreten. Dieser Befund zeigt
auf, wie numerische Modelle genutzt werden können, um den Parameterraum für
reale Verwerfungen einzugrenzen.
Das kritische Punkt Konzept kann in synthetischer und in
beobachteter Seismizität verifiziert werden. Dies artikuliert sich auch in
Vorläuferphänomenen vor großen Erdbeben: Die Aufrauhung des
(unbeobachtbaren) Spannungsfeldes führt zu einer Skalenfreiheit der
(beobachtbaren) Größenverteilung; die räumliche Korrelationslänge
wächst und die seismische Energiefreisetzung wird beschleunigt. Ein starkes
Erdbeben kann in einem zusammenhängenden Bruch oder in einem unterbrochenen
Bruch (Vorbeben und Hauptbeben) stattfinden. Die beobachtbaren Vorläufer
besitzen eine
begrenzte Prognosekraft für die Auftretenswahrscheinlichkeit starker
Erdbeben - eine
präzise Vorhersage von Ort, Zeit, und Stärke eines
nahenden Erdbebens ist allerdings nicht möglich. Die
genannten Parameter erscheinen eher vielversprechend als Beitrag zu einem
umfassenden Multiparameteransatz für eine verbesserte zeitabhängige
Gefährdungsabschätzung.
|
114 |
The role of interfacial and 'entropic' enzymes in transitory starch degradation : a mathematical modeling approachKartal, Önder January 2011 (has links)
Plants and some unicellular algae store carbon in the form of transitory starch on a diurnal basis. The turnover of this glucose polymer is tightly regulated and timely synthesis as well as mobilization is essential to provide energy for heterotrophic growth. Especially for starch degradation, novel enzymes and mechanisms have been proposed recently. However, the catalytic properties of these enzymes and their coordination with metabolic regulation are still to be discovered.
This thesis develops theoretical methods in order to interpret and analyze enzymes and their role in starch degradation. In the first part, a novel description of interfacial enzyme catalysis is proposed. Since the initial steps of starch degradation involve reactions at the starch-stroma interface it is necessary to have a framework which allows the derivation of interfacial enzyme rate laws. A cornerstone of the method is the introduction of the available area function - a concept from surface physics - to describe the adsorption step in the catalytic cycle. The method is applied to derive rate laws for two hydrolases, the Beta-amylase (BAM3) and the Isoamylase (DBE/ISA3), as well as to the Glucan, water dikinase (GWD) and a Phosphoglucan phosphatase (DSP/SEX4).
The second part uses the interfacial rate laws to formulate a kinetic model of starch degradation. It aims at reproducing the stimulatory effect of reversible phosphorylation by GWD and DSP on the breakdown of the granule. The model can describe the dynamics of interfacial properties during degradation and suggests that interfacial amylopectin side-chains undergo spontaneous helix-coil transitions. Reversible phosphorylation has a synergistic effect on glucan release especially in the early phase dropping off during degradation. Based on the model, the hypothesis is formulated that interfacial phosphorylation is important for the rapid switch from starch synthesis to starch degradation.
The third part takes a broader perspective on carbohydrate-active enzymes (CAZymes) but is motivated by the organization of the downstream pathway of starch breakdown. This comprises Alpha-1,4-glucanotransferases (DPE1 and DPE2) and Alpha-glucan-phosphorylases (Pho or PHS) both in the stroma and in the cytosol. CAZymes accept many different substrates and catalyze numerous reactions and therefore cannot be characterized in classical enzymological terms. A concise characterization is provided by conceptually linking statistical thermodynamics and polymer biochemistry. Each reactant is interpreted as an energy level, transitions between which are constrained by the enzymatic mechanisms. Combinations of in vitro assays of polymer-active CAZymes essential for carbon metabolism in plants confirmed the dominance of entropic gradients. The principle of entropy maximization provides a generalization of the equilibrium constant. Stochastic simulations confirm the results and suggest that randomization of metabolites in the cytosolic pool of soluble heteroglycans (SHG) may contribute to a robust integration of fluctuating carbon fluxes coming from chloroplasts. / Stärke hat eine herausragende Bedeutung für die menschliche Ernährung. Sie ist ein komplexes, wasserunlösliches Glucosepolymer und dient - als eine der wichtigsten Speicherformen von Kohlenhydraten in Pflanzen - der Aufrechterhaltung des Energiestoffwechsels. Unterschiedliche Organe enthalten Stärke. In Knollen und Samen wird die sogenannte Speicherstärke über lange Zeiträume auf- und abgebaut. Die im Allgemeinen weniger bekannte transitorische Stärke in Blättern und einigen einzelligen Algen wird in einem täglichen Rhythmus umgesetzt: Sie wird während der Photosynthese aufgebaut und in der Nacht abgebaut. Experimentelle Studien haben nachgewiesen, dass die Fähigkeit der Pflanze, den Abbau transitorischer Stärke zu regeln, essentiell ist, um während der Nacht das Wachstum der Pflanze zu gewährleisten. Da die Geschwindigkeit von biochemischen Reaktionen über Enzyme reguliert wird, ist die Aufklärung ihrer Funktion im Stoffwechsel eine notwendige Voraussetzung, um den komplexen Prozess des Wachstums zu erklären.
Die vorliegende Arbeit stellt einen Versuch dar, die Funktion von Enzymen beim Stärkeabbau anhand von mathematischen Modellen und Computersimulationen besser zu verstehen. Dieser Ansatz erlaubt es, Eigenschaften des Systems durch Abstraktion anhand eines idealisierten Abbildes herzuleiten. Die mathematisch notwendigen Folgerungen dienen der Aufstellung von Hypothesen, die wiederum mit experimentellen Resultaten konfrontiert werden können. Stoffwechselsysteme sind
komplexe Untersuchungsobjekte, bei denen eine rein qualitative Argumentation schnell an Grenzen gerät, wo mathematische Methoden die Möglichkeit von Aussagen noch zulassen.
Der erste Teil der Arbeit entwickelt einen theoretischen Rahmen, um Gleichungen für die Geschwindigkeit oberflächenaktiver Enzyme herzuleiten. Dies ist notwendig, da die ersten Reaktionen, die dem Stärkeabbau zugeordnet werden, an ihrer Oberfläche stattfinden. Die Methode wird auf vier essentielle Enzyme angewandt: zwei abbauende Enzyme (Beta-Amylase und Isoamylase) und zwei den Abbau unterstützende Enzyme (Alpha-Glucan,Wasser-Dikinase und Phosphoglucan Phosphatase).
Der zweite Teil entwickelt ein kinetisches Modell des Stärkeabbaus unter Verwendung der hergeleiteten Ratengleichungen. Das Modell bildet die Dynamik des Systems realistisch ab und legt nahe, dass ein spontaner Phasenübergang an der Oberfläche von geordneten zu weniger geordneten Zuständen stattfindet. Ferner wird die Hypothese aufgestellt, dass die reversible Modifikation der Oberfläche durch Enzyme besonders in der Anfangsphase des Abbaus einen synergetischen Effekt hat, d.h. den Abbau enorm beschleunigt. Dies könnte beim
schnellen Umschalten von Stärkeaufbau zu Stärkeabbau regulatorisch relevant sein.
Im letzten Teil werden kohlenhydrataktive Enzyme betrachtet, die in der löslichen Phase die Produkte des Stärkeabbaus weiterverarbeiten. Da diese sogenannten Transferasen auch in vielen anderen Organismen und Stoffwechselwegen vorkommen, wird ein allgemeiner Standpunkt eingenommen. Anhand von Methoden aus der statistischen Physik wird theoretisch wie experimentell nachgewiesen, dass diese Enzyme spontan die Entropie innerhalb des Stoffwechselsystems erhöhen. Diese Neigung, "Unordnung" zu schaffen, wird vom Organismus aber paradoxerweise ausgenutzt, um die Weiterverarbeitung von Kohlenhydraten im Stärkestoffwechsel zu stabilisieren. Dieser Mechanismus eröffnet einen neuen Blick auf energie- und entropiegetriebene Prozesse in Zellen.
|
115 |
The use of weights to account for non-response and drop-outHöfler, Michael, Pfister, Hildegard, Lieb, Roselind, Wittchen, Hans-Ulrich 19 February 2013 (has links) (PDF)
Background: Empirical studies in psychiatric research and other fields often show substantially high refusal and drop-out rates. Non-participation and drop-out may introduce a bias whose magnitude depends on how strongly its determinants are related to the respective parameter of interest.
Methods: When most information is missing, the standard approach is to estimate each respondent’s probability of participating and assign each respondent a weight that is inversely proportional to this probability. This paper contains a review of the major ideas and principles regarding the computation of statistical weights and the analysis of weighted data.
Results: A short software review for weighted data is provided and the use of statistical weights is illustrated through data from the EDSP (Early Developmental Stages of Psychopathology) Study. The results show that disregarding different sampling and response probabilities can have a major impact on estimated odds ratios.
Conclusions: The benefit of using statistical weights in reducing sampling bias should be balanced against increased variances in the weighted parameter estimates.
|
116 |
Emergence and persistence of diversity in complex networksBöhme, Gesa Angelika 02 July 2013 (has links) (PDF)
Complex networks are employed as a mathematical description of complex systems in many different fields, ranging from biology to sociology, economy and ecology. Dynamical processes in these systems often display phase transitions, where the dynamics of the system changes qualitatively. In combination with these phase transitions certain components of the system might irretrievably go extinct. In this case, we talk about absorbing transitions. Developing mathematical tools, which allow for an analysis and prediction of the observed phase transitions is crucial for the investigation of complex networks.
In this thesis, we investigate absorbing transitions in dynamical networks, where a certain amount of diversity is lost. In some real-world examples, e.g. in the evolution of human societies or of ecological systems, it is desirable to maintain a high degree of diversity, whereas in others, e.g. in epidemic spreading, the diversity of diseases is worthwhile to confine. An understanding of the underlying mechanisms for emergence and persistence of diversity in complex systems is therefore essential. Within the scope of two different network models, we develop an analytical approach, which can be used to estimate the prerequisites for diversity.
In the first part, we study a model for opinion formation in human societies. In this model, regimes of low diversity and regimes of high diversity are separated by a fragmentation transition, where the network breaks into disconnected components, corresponding to different opinions. We propose an approach for the estimation of the fragmentation point. The approach is based on a linear stability analysis of the fragmented state close to the phase transition and yields much more accurate results compared to conventional methods.
In the second part, we study a model for the formation of complex food webs. We calculate and analyze coexistence conditions for several types of species in ecological communities. To this aim, we employ an approach which involves an iterative stability analysis of the equilibrium with respect to the arrival of a new species. The proposed formalism allows for a direct calculation of coexistence ranges and thus facilitates a systematic analysis of persistence conditions for food webs.
In summary, we present a general mathematical framework for the calculation of absorbing phase transitions in complex networks, which is based on concepts from percolation theory. While the specific implementation of the formalism differs from model to model, the basic principle remains applicable to a wide range of different models.
|
117 |
Adaptive-network models of collective dynamicsZschaler, Gerd 22 June 2012 (has links) (PDF)
Complex systems can often be modelled as networks, in which their basic units are represented by abstract nodes and the interactions among them by abstract links. This network of interactions is the key to understanding emergent collective phenomena in such systems. In most cases, it is an adaptive network, which is defined by a feedback loop between the local dynamics of the individual units and the dynamical changes of the network structure itself. This feedback loop gives rise to many novel phenomena. Adaptive networks are a promising concept for the investigation of collective phenomena in different systems. However, they also present a challenge to existing modelling approaches and analytical descriptions due to the tight coupling between local and topological degrees of freedom.
In this thesis, I present a simple rule-based framework for the investigation of adaptive networks, using which a wide range of collective phenomena can be modelled and analysed from a common perspective. In this framework, a microscopic model is defined by the local interaction rules of small network motifs, which can be implemented in stochastic simulations straightforwardly. Moreover, an approximate emergent-level description in terms of macroscopic variables can be derived from the microscopic rules, which we use to analyse the system\'s collective and long-term behaviour by applying tools from dynamical systems theory.
We discuss three adaptive-network models for different collective phenomena within our common framework. First, we propose a novel approach to collective motion in insect swarms, in which we consider the insects\' adaptive interaction network instead of explicitly tracking their positions and velocities. We capture the experimentally observed onset of collective motion qualitatively in terms of a bifurcation in this non-spatial model. We find that three-body interactions are an essential ingredient for collective motion to emerge. Moreover, we show what minimal microscopic interaction rules determine whether the transition to collective motion is continuous or discontinuous.
Second, we consider a model of opinion formation in groups of individuals, where we focus on the effect of directed links in adaptive networks. Extending the adaptive voter model to directed networks, we find a novel fragmentation mechanism, by which the network breaks into distinct components of opposing agents. This fragmentation is mediated by the formation of self-stabilizing structures in the network, which do not occur in the undirected case. We find that they are related to degree correlations stemming from the interplay of link directionality and adaptive topological change.
Third, we discuss a model for the evolution of cooperation among self-interested agents, in which the adaptive nature of their interaction network gives rise to a novel dynamical mechanism promoting cooperation. We show that even full cooperation can be achieved asymptotically if the networks\' adaptive response to the agents\' dynamics is sufficiently fast.
|
118 |
Statistical Equilibrium Behaviour of Finite Polymers Near Attractive Substrates / Statistisches Gleichgewichtsverhalten Endlicher Polymere in der Nähe Attraktiver OberflächenMöddel, Monika 05 October 2012 (has links) (PDF)
Untersuchungen zum statistischen Verhalten von Polymerketten auf anziehenden Oberflächen stellen ein spannendes Forschungsgebiet dar aufgrund des Wechselspiels zwischen dem Entropiegewinn bei Ablösung von der einschränkenden Oberfläche und dem Energiegewinn bei der Bildung von Oberflächenkontakten.
Für gute und Theta-Lösungen und lange Ketten ist dieses Gebiet recht alt und gut verstanden, doch gibt es immer noch eine Reihe von offenen Fragen, insbesondere zu endlich langen Polymeren, die gerade im Zeitalter zunehmender Miniaturisierung und experimenteller Auflösung Klärung bedürfen, aber nicht zuletzt auch von prinzipiellem Interesse sind.
Die vorliegende Arbeit beschäftigt sich mit dem Gleichgewichtsverhalten einer endlich langen Polymerkette in Lösung in der Nähe einer anziehenden Oberfläche. Die Anziehungsstärke wird dabei systematisch variiert und der Einfluss auf die Konformation des Homopolymers studiert. Dies geschieht im kanonischen und im mikrokanonischen Ensemble, die im betrachteten endlichen System nicht identisch sind.
Da die Lösungsmittelstärke des selbstwechselwirkenden Polymers durch die Temperatur variiert werden kann, gelang so eine systematische Studie einer Reihe von Konformationsübergängen. Ob das Polymer an einem Ende irreversibel mit der Oberfläche verbunden ist oder sich zu einem gewissen Grad von ihr entfernen kann, spielt für insbesondere den Adsorptionsübergang eine Rolle, die untersucht wird.
Anschließend wurde der Einfluss nicht homogener Oberflächenanziehung in Form von attraktiven Streifenpotentialen auf der Oberfläche auf die zuvor beschriebenen Konformationsübergänge studiert. Die Natur der so forcierten Mustererkennung konnte unter anderem abhängig von Streifenbreite und -stärke detailliert beleuchtet und mit dem Verhalten an homogenen Oberflächen in Bezug gesetzt werden.
Sämtliche Daten wurden mit Monte-Carlo-Computersimulationen in generalisierten Ensemblen und einem Polymermodell, das atomare Details vernachlässigt, gewonnen.
|
119 |
Beitrag zur Entwicklung von Störstrahlungstests im Nahfeld großer PrüflingeSorge, Wolfram 09 February 2010 (has links) (PDF)
In dieser Arbeit wird das Verhalten der Störstrahlung großer Prüflinge untersucht mit dem
Ziel, vorhandene Standards für Störstrahlungstests wie CISPR 16 zu verbessern.
Diese Arbeit sieht als Standardtestumgebung einen reflektierenden, ausgedehnten Grund
vor, auf dem sich der Prüfling befindet. Die Strahlung, die dieser aussendet, wird durch
die Verteilung der elektrischen Feldstärke auf einer Testhalbkugel oberhalb des Grunds bewertet.
Ihr Zentrum befindet sich am Fußpunkt des Prüflings. Eine solche Halbkugel stellt
nahezu gleiche Abstände von etwa der Länge des Kugelradius' zwischen dem Prüfling und
den auf ihr definierten Meßpunkten her. Da die Halbkugel geschlossen ist, kann auf ihr das
gesamte vom Prüfling nach außen gestrahlte Feld nachgewiesen werden.
Meßabstände mit in Normen vorgegebenen Längen sind in der Praxis nicht immer einzuhalten,
vor allem dann, wenn sich Prüflinge in einer normalen Betriebsumgebung befinden.
In beengten Umgebungen ist es hilfreich, Meßabstände zu verkürzen. Hieraus ergibt sich
eine kleinere Testhalbkugel, die sich leichter abtasten läßt.
Bei kurzen Meßabständen jedoch können Meßsonden in das Nahfeld des Prüflings ragen.
Für diesen Fall werden in dieser Arbeit Feldeigenschaften in Prüflingsnähe untersucht. Aus
denen ergeben sich Mindestabstände zum Prüfling, jenseits derer sich gemessene Feldstärkewerte
zu größeren, in Normen vorgegebenen Abständen extrapolieren lassen.
Um die Verteilung der Feldstärke auf einer Testfläche zu beschreiben, wird der Begriff der
Halbwertsfläche eingeführt: Die Halbwertsfläche definiert jenen Teil der Testfläche, auf dem
die Dichte der abgestrahlten Leistung mindestens die Hälfte ihres Maximums beträgt. Die
Halbwertsfläche ergibt sich aus der Richtwirkung des Prüflings als Strahler. Sie ist somit
ein Maß für die Wahrscheinlichkeit, auf der Testfläche das Strahlungsmaximum zu finden.
Aus der Größe der Halbwertsfläche ergibt sich die nötige Anzahl an gleichmäßig auf der
Testfläche verteilten Meßpunkten, um das Strahlungsmaximum mit gegebener Wahrscheinlichkeit
zu finden. Wird an den Meßpunkten die Größe der Feldstärke berücksichtigt, läßt
sich die Anzahl der Meßpunkte optimieren und das Vertrauen in den Test erhöhen.
Als ein erster Schritt zur Entwicklung einer praktikablen Strahlungstestmethode wird die
Testdrahtmethode untersucht. Bei dieser Methode wird Strahlung mit einem langen, um
den Prüfling herum gespannten Draht erfaßt. Die Strahlung induziert in dem Draht einen
Strom, der an den Drahtabschlüssen gemessen werden kann. Weil der Draht i. allg. lang
ist, ist er sehr meßempfindlich. Ist er jedoch länger als eine Wellenlänge des abgestrahlten
Felds, sind sein Übertragungsfaktor und damit die Meßergebnisse schwer zu bestimmen.
Statistische Methoden der Auswertung werden hierzu untersucht.
Ein System aus kleinen Meßsonden kann denselben Teil des Prüflings abdecken wie ein
Testdraht. Weil als Übertragungsfaktor eines solchen Systems der einer Einzelsonde wirksam
ist, lassen sich Ergebnisse aus Messungen mit einem solchen System leichter auswerten.
Jedoch ist die Empfindlichkeit kleiner Sonden i. allg. gering. Der Weg zu einer praktischen
Anwendung führt somit vorerst in die Richtung herkömmlicher Meßantennen, die in einem
beweglichen System geeignete Testflächen abtasten. - (Die Dissertation ist veröffentlicht im Jörg Vogt Verlag, Dresden, Deutschland, http://www.vogtverlag.de, ISBN: 978-3-938860-25-0) / In this work the behavior of radiation emitted by large equipment is investigated. The aim
of investigation is to improve existing standardized radiation tests.
The radiation from an EUT (equipment under test) placed on reflecting ground is described
by the distribution of the electric field strength on a hemispheric test area, which encloses
the EUT placed in its center. This kind of area guarantees a nearly equal measurement
distance to the EUT from every point defined on it. This distance is
defined by the radius
of the hemisphere. However, measurement distances according to standards are difficult to
realize. Because of practical constraints shorter distances will become useful. This requires
a smaller test area, to be scanned more easily.
At shorter measurement distances field probes are possibly located in the near field of the
EUT. Therefore this work investigates the behavior of the field in the vicinity of the EUT to
find an adequate transition point, beyond which, field strength values can be extrapolated
to distances instructed by standards with confident results.
An important parameter of the field strength distribution is the half-power area. It defines
that part of the test area where the radiated power exceeds the half of its maximum. The
half-power area is related to the directivity of the EUT, which can be approximated by
antenna theory or statistics. If the directivity of the EUT is high, the half-power area is
small, and the probability to find the field maximum on the test area is low.
The size of the half-power area yields to a least number of observation points, equally
distributed on the test area, to find the field maximum with a high level of confidence. If
the field strength measured at any observation point is considered, the distance to other
observation points can be optimized, and the level of confidence in the test can be increased.
As a first step in developing a practicable field scanning method is highlighted: the test
wire method. This method establishes a measurement executed by a long wire which covers
the EUT. At its terminations current can be measured induced by the radiation. Because
the wire is long it is very sensitive. However, if it is longer than one wave length of the
radiation, the evaluation of results is difficult because of an uncertain transmission factor.
Therefore, some statistic methods are applied to describe the behavior of results and their
maxima.
Also a system of small probes, e. g. short dipoles, can cover the same part of the EUT as
a test wire. The measurement with small probes can be evaluated more easily because of
a unique transmission factor. However, their sensitivity is lower.
|
120 |
The Cumulant Method / Die KumulantenmethodeSeeger, Steffen 24 September 2003 (has links) (PDF)
In dieser Arbeit wird eine neue Methode zur
Reduktion der Boltzmann-Gleichung auf ein System
partieller Differentialgleichungen diskutiert.
Nach einer kurzen Einführung in die kinetische
Theorie einer Mischung inerter Gase wird ein
Überblick in die aus der Literatur bekannten
Momentenmethoden gegeben. Der anschließend
vorgestellten Kumulantenmethode liegt die
Annahme zugrunde, daß durch Stoßprozesse in
einem Gas Korrelationen höherer Ordnung
schneller abgebaut werden als solche
niedrigerer Ordnung. Basierend auf dieser
Annahme werden die Bewegungsgleichungen für
die Kumulanten und die Produktionsterme der
resultierenden Bilanzgleichungen für eine
Mischung inerter Maxwell-Gase berechnet.
Die Untersuchung der Relaxation zum
Gleichgewicht erlaubt den Bezug zu bekannten
Modellen der Kontinuumsmechanik und untermauert
die Gültigkeit der Annahme für die Begründung
des o.g. Ansatzes in diesem Fall. Im zweiten
Teil der Arbeit werden die Ergebnisse
numerischer Untersuchungen vorgestellt,
wobei Simulationen mit verschiedenen
Randbedingungen für Couette- und Poiseulle-
Strömungen durchgeführt wurden.
Es werden verschiedene Eigenschaften von
Modellen für verdünnte Gase als auch des
Navier-Stokes-Modells beobachtet. Dabei ist
jedoch eine sehr starke Abhängigkeit von den
angewendeten Randbedingungen festzustellen.
Abschließend werden Momentenmethoden als
eine besondere Form von Diskretisierungen
der Boltzmann-Gleichung nach der Methode der
gewichteten Residuen diskutiert, was einen
Ausblick auf zukünftige Arbeiten erlaubt.
|
Page generated in 0.0666 seconds