Spelling suggestions: "subject:"integrierten""
91 |
Stochastic information in the assessment of climate changeKleinen, Thomas Christopher January 2005 (has links)
<p>Stochastic information, to be understood as "information gained
by the application of stochastic methods", is proposed as a tool
in the assessment of changes in climate.</p>
<p>This thesis aims at demonstrating that stochastic information can
improve the consideration and reduction of uncertainty in the assessment
of changes in climate. The thesis consists of three parts. In part
one, an indicator is developed that allows the determination of the
proximity to a critical threshold. In part two, the tolerable windows
approach (TWA) is extended to a probabilistic TWA. In part three,
an integrated assessment of changes in flooding probability due to
climate change is conducted within the TWA.</p>
<p>The thermohaline circulation (THC) is a circulation system in the
North Atlantic, where the circulation may break down in a saddle-node
bifurcation under the influence of climate change. Due to uncertainty
in ocean models, it is currently very difficult to determine the distance
of the THC to the bifurcation point. We propose a new indicator to
determine the system's proximity to the bifurcation point by considering
the THC as a stochastic system and using the information contained
in the fluctuations of the circulation around the mean state. As the
system is moved closer to the bifurcation point, the power spectrum
of the overturning becomes "redder", i.e. more energy is
contained in the low frequencies. Since the spectral changes are a
generic property of the saddle-node bifurcation, the method is not
limited to the THC, but it could also be applicable to other systems,
e.g. transitions in ecosystems. </p>
<p>In part two, a probabilistic extension to the tolerable windows approach
(TWA) is developed. In the TWA, the aim is to determine the complete
set of emission strategies that are compatible with so-called guardrails.
Guardrails are limits to impacts of climate change or to climate change
itself. Therefore, the TWA determines the "maneuvering space"
humanity has, if certain impacts of climate change are to be avoided.
Due to uncertainty it is not possible to definitely exclude the impacts
of climate change considered, but there will always be a certain probability
of violating a guardrail. Therefore the TWA is extended to a probabilistic
TWA that is able to consider "probabilistic uncertainty", i.e.
uncertainty that can be expressed as a probability distribution or
uncertainty that arises through natural variability.</p>
<p>As a first application, temperature guardrails are imposed, and the
dependence of emission reduction strategies on probability distributions
for climate sensitivities is investigated. The analysis suggests that
it will be difficult to observe a temperature guardrail of 2°C with
high probabilities of actually meeting the target.</p>
<p>In part three, an integrated assessment of changes in flooding probability
due to climate change is conducted. A simple hydrological model is
presented, as well as a downscaling scheme that allows the reconstruction
of the spatio-temporal natural variability of temperature and precipitation.
These are used to determine a probabilistic climate impact response
function (CIRF), a function that allows the assessment of changes
in probability of certain flood events under conditions of a changed
climate. </p>
<p>The assessment of changes in flooding probability is conducted in
83 major river basins. Not all floods can be considered: Events that
either happen very fast, or affect only a very small area can not
be considered, but large-scale flooding due to strong longer-lasting
precipitation events can be considered. Finally, the probabilistic
CIRFs obtained are used to determine emission corridors, where the
guardrail is a limit to the fraction of world population that is affected
by a predefined shift in probability of the 50-year flood event. This
latter analysis has two main results. The uncertainty about regional
changes in climate is still very high, and even small amounts of further
climate change may lead to large changes in flooding probability in
some river systems.</p> / <p>Stochastische Information, zu verstehen als "Information, die
durch die Anwendung stochastischer Methoden gewonnen wird", wird
als Hilfsmittel in der Bewertung von Klimaänderungen vorgeschlagen.</p>
<p>Das Ziel dieser Doktorarbeit ist es, zu zeigen, dass stochastische
Information die Berücksichtigung und Reduktion von Unsicherheit in
der Bewertung des Klimawandels verbessern kann. Die Arbeit besteht
aus drei Teilen. Im ersten Teil wird ein Indikator entwickelt, der
die Bestimmung des Abstandes zu einem kritischen Grenzwert ermöglicht.
Im zweiten Teil wird der "tolerable windows approach" (TWA)
zu einem probabilistischen TWA erweitert. Im dritten Teil wird eine
integrierte Abschätzung der Veränderung von Überflutungswahrscheinlichkeiten
im Rahmen des TWA durchgeführt.</p>
<p>Die thermohaline Zirkulation (THC) ist ein Zirkulationssystem im Nordatlantik,
in dem die Zirkulation unter Einfluss des Klimawandels in einer Sattel-Knoten
Bifurkation abreißen kann. Durch Unsicherheit in Ozeanmodellen ist
es gegenwärtig kaum möglich, den Abstand des Systems zum Bifurkationspunkt
zu bestimmen. Wir schlagen einen neuen Indikator vor, der es ermöglicht,
die Nähe des Systems zum Bifurkationspunkt zu bestimmen. Dabei wird
die THC als stochastisches System angenommen, und die Informationen,
die in den Fluktuationen der Zirkulation um den mittleren Zustand
enthalten sind, ausgenutzt. Wenn das System auf den Bifurkationspunkt
zubewegt wird, wird das Leistungsspektrum "roter", d.h.
die tiefen Frequenzen enthalten mehr Energie. Da diese spektralen
Veränderungen eine allgemeine Eigenschaft der Sattel-Knoten Bifurkation
sind, ist die Methode nicht auf die THC beschränkt, sondern weitere
Anwendungen könnten möglich sein, beispielsweise zur Erkennung von
Übergängen in Ökosystemen.</p>
<p>Im zweiten Teil wird eine probabilistische Erweiterung des "tolerable
windows approach" (TWA) entwickelt. Das Ziel des TWA ist die Bestimmung
der Menge der Emissionsreduktionsstrategien, die mit sogenannten Leitplanken
kompatibel sind. Diese Leitplanken sind Begrenzungen der Auswirkungen
des Klimawandels, oder des Klimawandels selber. Der TWA bestimmt daher
den Spielraum, den die Menschheit hat, wenn bestimmte Auswirkungen
des Klimawandels vermieden werden sollen. Durch den Einfluss von Unsicherheit
ist es aber nicht möglich, die betrachteten Auswirkungen des Klimawandels
mit Sicherheit auszuschließen, sondern es existiert eine gewisse Wahrscheinlichkeit,
dass die Leitplanke verletzt wird. Der TWA wird daher zu einem probabilistischen
TWA weiterentwickelt, der es ermöglicht, "probabilistische Unsicherheit",
also Unsicherheit, die durch eine Wahrscheinlichkeitsverteilung ausgedrückt
werden kann, oder die durch den Einfluß von natürlicher Variabilität
entsteht, zu berücksichtigen.</p>
<p>Als erste Anwendung werden Temperaturleitplanken betrachtet, und die
Abhängigkeit der Emissionsreduktionsstrategien von Wahrscheinlichkeitsverteilungen
über die Klimasensitivität wird bestimmt. Die Analyse ergibt, dass
die Einhaltung einer Temperaturleitplanke von 2°C sehr schwierig wird,
wenn man hohe Wahrscheinlichkeiten des Einhaltens der Leitplanke fordert.</p>
<p>Im dritten Teil wird eine integrierte Abschätzung der Änderungen von
Überflutungswahrscheinlichkeiten unter Einfluss des Klimawandels durchgeführt.
Ein einfaches hydrologisches Modell wird vorgestellt, sowie ein Skalierungsansatz,
der es ermöglicht, die raum-zeitliche natürliche Variabilität von
Temperatur und Niederschlag zu rekonstruieren. Diese werden zur Bestimmung
einer probabilistischen Klimawirkungsfunktion genutzt, einer Funktion,
die es erlaubt, die Veränderungen der Wahrscheinlichkeit bestimmter
Überflutungsereignisse unter Einfluss von Klimaänderungen abzuschätzen.</p>
<p>Diese Untersuchung der Veränderung von Überflutungswahrscheinlichkeiten
wird in 83 großen Flusseinzugsgebieten durchgeführt. Nicht alle Klassen
von Überflutungen können dabei berücksichtigt werden: Ereignisse,
die entweder sehr schnell vonstatten gehen, oder die nur ein kleines
Gebiet betreffen, können nicht berücksichtigt werden, aber großflächige
Überflutungen, die durch starke, langanhaltende Regenfälle hervorgerufen
werden, können berücksichtigt werden. Zuguterletzt werden die bestimmten
Klimawirkungsfunktion dazu genutzt, Emissionskorridore zu bestimmen,
bei denen die Leitplanken Begrenzungen des Bevölkerungsanteils, der
von einer bestimmten Veränderung der Wahrscheinlichkeit eines 50-Jahres-Flutereignisses
betroffen ist, sind. Letztere Untersuchung hat zwei Hauptergebnisse.
Die Unsicherheit von regionalen Klimaänderungen ist immer noch sehr
hoch, und außerdem können in einigen Flusssystemen schon kleine Klimaänderungen
zu großen Änderungen der Überflutungswahrscheinlichkeit führen.</p>
|
92 |
Direct Patterning of Optical Coupling Devices in Polymer WaveguidesFinn, Andreas 26 May 2014 (has links) (PDF)
The aim of the present work was to design and fabricate all purpose, positioning-tolerant and efficient interconnects between single-mode fibers and integrated waveguides out of polymers. The developed structures are part of the optical packaging of integrated optical chips. Integrated optics have gathered tremendous interest throughout recent years from research as well as from the industry, and most likely the demand will further grow in the future. Today’s trend is to establish optical data communication not only in far-distance transmission but also in end-user or so called fiber-to-home configurations, or, in the near future, also on board or even chip level. In addition, integrated optical sensors are gaining more and more importance. In the future, lab-on-a-chip systems may be able to simplify and accelerate analysis methods within health care or allow for a continuous monitoring of almost any environmental variable. All these applications call for robust optical packaging solutions. Many integrated optical chips are using a silicon-on-insulator design. Technologies which were originally intended for the manufacturing of integrated circuits can be utilized for the fabrication of such silicon-on-insulator chips. Point-of-care testing, which is a considerable part of bio-sensing, in some cases only allows the use of disposable transducer elements. The fabrication of these transducers, also including almost all other system parts, may be possible using polymers. Alternative fabrication methods like nanoimprint lithography can be applied for the patterning of polymers. With these, the extension of already known working principles or even entirely new device architectures become feasible for mass production.
The direct patterning of polymers by means of nanoimprint was used to fabricate interconnects for integrated waveguides. In contrast to conventional lithography approaches, where a patterned resist layer is used as a masking layer for subsequent process steps, direct patterning allows the immediate use of the structures as functional elements. Firstly, nanoimprint allows diffraction-unlimited patterning with nanometer resolutions as well as the replication of complex three-dimensional patterns. These unique properties were used within this work to pattern shallow gratings atop an integrated waveguide within only one single manufacturing step. The gratings are used as coupling elements and can be utilized either to couple light from external elements to the chip or vice versa. Considerations regarding the optical effects on single-mode polymer waveguides as well as grating couplers were obtained from simulation. They are specific to the chosen design and the used polymer and cannot be found elsewhere so far. Compared to similar designs and fabrication strategies proposed in literature, the ones followed here allow for a higher efficiency.
The dimensions and process windows obtained from simulation did serve as a basis for the subsequent fabrication of the grating couplers. All steps which are necessary to turn the calculated design into reality, ranging from master fabrication, to working mold cast and imprint, are shown in detail. The use of a working mold strategy is of crucial importance for the fabrication process and is discussed in detail. The use of a working mold preserves a costly master and further allows for a cost-efficient production. Parameters which are relevant for the production as well as for the final polymer patterns were analyzed and discussed. On the basis of the obtained data, a process optimization was performed. The optical characterization was also part of the presented work. A comparison with the results obtained from simulation is included and additional effects were revealed. Most of them may be subject to further improvement in future designs.
In summary, the present work contributes to the field of optical packaging. It shows a viable route for the design and fabrication of interconnects of single-mode polymer waveguides. The presented design can be used as a building block which can be placed at almost any positions within an integrated optical chip. The fabrication method includes a minimum number of process steps and is still able to increase performance compared to similar approaches. Moreover, all process steps allow for scaling and are potential candidates for mass production.
|
93 |
Design of a Dual Band Local Positioning SystemJoram, Niko 09 November 2015 (has links) (PDF)
This work presents a robust dual band local positioning system (LPS) working in the 2.4GHz and 5.8GHz industrial science medical (ISM) bands. Position measurement is based on the frequency-modulated continuous wave (FMCW) radar approach, which uses radio frequency (RF) chirp signals for propagation time and therefore distance measurements. Contrary to state of the art LPS, the presented system uses data from both bands to improve accuracy, precision and robustness. A complete system prototype is designed consisting of base stations and tags encapsulating most of the RF and analogue signal processing in custom integrated circuits. This design approach allows to reduce size and power consumption compared to a hybrid system using off-the-shelf components. Key components are implemented using concepts, which support operation in multiple frequency bands, namely, the receiver consisting of a low noise amplifier (LNA), mixer, frequency synthesizer with a wide band voltage-controlled oscillator (VCO) having broadband chirp generation capabilities and a dual band power amplifier.
System imperfections occurring in FMCW radar systems are modelled. Effects neglected in literature such as compression, intermodulation, the influence of automatic gain control, blockers and spurious emissions are modeled. The results are used to derive a specification set for the circuit design. Position estimation from measured distances is done using an enhanced version of the grid search algorithm, which makes use of data from multiple frequency bands. The algorithm is designed to be easily and efficiently implemented in embedded systems. Measurements show a coverage range of the system of at least 245m. Ranging accuracy in an outdoor scenario can be as low as 8.2cm. Comparative dual band position measurements prove an effective outlier filtering in indoor and outdoor scenarios compared to single band results, yielding in a large gain of accuracy.
Positioning accuracy in an indoor scenario with an area of 276m² can be improved from 1.27m at 2.4GHz and 1.86m at 5.8GHz to only 0.38m in the dual band case, corresponding to an improvement by at least a factor of 3.3. In a large outdoor scenario of 4.8 km², accuracy improves from 1.88m at 2.4GHz and 5.93m at 5.8GHz to 0.68m with dual band processing, which is a factor of at least 2.8. / Die vorliegende Arbeit befasst sich mit dem Entwurf eines robusten lokalen Positionierungssystems (LPS), welches in den lizenzfreien Frequenzbereichen für industrielle, wissenschaftliche und medizinische Zwecke (industrial, scientific, medical, ISM) bei 2,4GHz und 5,8GHz arbeitet. Die Positionsbestimmung beruht auf dem Prinzip des frequenzmodulierten Dauerstrichradars (frequency modulated continuous wave, FMCW-Radar), welches hochfrequente Rampensignale für Laufzeitmessungen und damit Abstandsmessungen benutzt. Im Gegensatz zu aktuellen Arbeiten auf diesem Gebiet benutzt das vorgestellte System Daten aus beiden Frequenzbändern zur Erhöhung der Genauigkeit und Präzision sowie Verbesserung der Robustheit. Ein Prototyp des kompletten Systems bestehend aus Basisstationen und mobilen Stationen wurde entworfen.
Fast die gesamte analoge hochfrequente Signalverarbeitungskette wurde als anwendungsspezifische integrierte Schaltung realisiert. Verglichen mit Systemen aus Standardkomponenten erlaubt dieser Ansatz die Miniaturisierung der Systemkomponenten und die Einsparung von Leistung. Schlüsselkomponenten wurden mit Konzepten für mehrbandige oder breitbandige Schaltungen entworfen. Dabei wurden Sender und Empfänger bestehend aus rauscharmem Verstärker, Mischer und Frequenzsynthesizer mit breitbandiger Frequenzrampenfunktion implementiert. Außerdem wurde ein Leistungsverstärker für die gleichzeitige Nutzung der beiden definierten Frequenzbänder entworfen.
Um Spezifikationen für den Schaltungsentwurf zu erhalten, wurden in der Fachliteratur vernachlässigte Nichtidealitäten von FMCW-Radarsystemen modelliert. Dazu gehören Signalverzerrungen durch Kompression oder Intermodulation, der Einfluss der automatischen Verstärkungseinstellung sowie schmalbandige Störer und Nebenschwingungen. Die Ergebnisse der Modellierung wurden benutzt, um eine Spezifikation für den Schaltungsentwurf zu erhalten.
Die Schätzung der Position aus gemessenen Abständen wurde über eine erweiterte Version des Gittersuchalgorithmus erreicht. Dieser nutzt die Abstandsmessdaten aus beiden Frequenzbändern. Der Algorithmus ist so entworfen, dass er effizient in einem eingebetteten System implementiert werden kann. Messungen zeigen eine maximale Reichweite des Systems von mindestens 245m. Die Genauigkeit von Abstandsmessungen im Freiland beträgt 8,2cm. Positionsmessungen wurden unter Verwendung beider Einzelbänder durchgeführt und mit den Ergebnissen des Zweiband-Gittersuchalgorithmus verglichen. Damit konnte eine starke Verbesserung der Positionsgenauigkeit erreicht werden. Die Genauigkeit in einem Innenraum mit einer Grundfläche von 276m² kann verbessert werden von 1,27m bei 2,4GHz und 1,86m bei 5,8GHz zu nur 0,38m im Zweibandverfahren. Das entspricht einer Verbesserung um einen Faktor von mindestens 3,3. In einem größeren Außenszenario mit einer Fläche von 4,8 km² verbessert sich die Genauigkeit um einen Faktor von mindestens 2,8 von 1,88m bei 2,4GHz und 5,93m bei 5,8GHz auf 0,68m bei Nutzung von Daten aus beiden Frequenzbändern.
|
94 |
Lernhandeln mit integrierter UnternehmenssoftwareHommel, Mandy 22 July 2019 (has links)
Die Dynamik der technologischen Veränderungen, die zunehmende Komplexität von Anforderungen, Automatisierungspotentiale im Zuge der fortschreitenden Digitalisierung und die Verringerung der durch den Menschen zu bewältigenden Routinetätigkeiten prägen die Arbeitswelt. Im Kontext der Digitalisierung sind Unternehmen zunehmend prozessorientiert ausgerichtet, d. h. betriebliche Kernprozesse werden konsequent an der Wertschöpfung und den Anforderungen der Kunden, an Qualität und an den dafür erforderlichen Prozessen orientiert. Unternehmen müssen dazu über die erforderliche informationstechnische Infrastruktur verfügen. Neben entsprechender Hardware ist die Software erforderlich, mit der Geschäftsprozesse in geeigneter Weise gesteuert und abgebildet werden können (Enterprise Resource Planning Software, ERP). Die Fähigkeit des adäquaten Umgangs mit betriebsnotwendiger Software ist dabei ein kardinales Erfolgskriterium. In der Praxis häufig anzutreffen sind Schulungen, die in Form von einfachen Klick- und Orientierungskursen mit der grundsätzlichen Funktionalität der Software vertraut machen. Fraglich ist allerdings, ob diese didaktische Ausrichtung zu Kenntnissen, Fähigkeiten und Fertigkeiten führt, die für das Handeln in Geschäftsprozessen erforderlich sind und einer ganzheitlichen Perspektive auf Geschäftsprozesse gerecht werden. In Bezug auf die angestrebte berufliche Handlungsfähigkeit sind bei diesen Klickschulungen Transferprobleme und träges Wissen zu erwarten.
Die Frage danach, wie zukünftige Anwenderinnen und Anwender qualifiziert werden sollten, um den Umgang mit einer ERP-Software so zu erlernen, dass sie über anwendungsbereites Wissen verfügen und handlungsfähig sind, stellt sich nicht nur für Unternehmen. Auch in der beruflichen Erstqualifizierung und der universitären Ausbildung ist diese Frage relevant. Bildungskontextübergreifend ist die Qualifizierung für den Umgang mit einer ERP-Software i. d. R. mit der Zielvorstellung verbunden, dass Lernende in Bezug auf die Steuerung von Geschäftsprozessen und die Pflege von Daten handlungsfähig werden.
Vor diesem Hintergrund geht diese Arbeit der Frage nach, wie potenzielle Anwenderinnen und Anwender für den Umgang mit ERP-Software qualifiziert werden sollten. Dazu werden das didaktisch-methodische Vorgehen funktionsorientierter Anwender-/Klickschulungen mit dem prozessorientierten Vorgehen problemorientierter Lernumgebungen sowie die daraus resultierenden Lernerfolge kontrastierend analysiert. Ergänzend werden verschiedene Sozialformen (einzeln und dyadisch Lernende) berücksichtigt. Mit Blick auf die Komplexität der Einflussfaktoren auf Lernprozesse werden zusätzlich mögliche Einflüsse durch generalisierte Lernstrategien, die Motivation der Lernenden, emotionale Aspekte während des Lernprozesses sowie die Reflexion des Lernhandelns berücksichtigt. Folgenden forschungsleitenden Fragen geht diese Arbeit nach: Ist das Lernen in geschäftsprozessorientierten Lernumgebungen (Prozessorientierung) dem Lernen in der klassischen Anwenderschulung (Funktionsorientierung) überlegen? Welcher Einfluss auf den Lernerfolg zeigt sich durch die Sozialform? Erreichen dyadisch Lernende einen höheren Lernerfolg als einzeln Lernende?
Die Ergebnisse dieses Forschungsprojekt implizieren Gestaltungskriterien für Lernumgebungen in der schulischen und universitären Berufsqualifizierung sowie für Schulungen und Workshops in diesem Kontext.:1 Einleitung
2 Funktions- und Prozessorientierung
2.1 Paradigmenwechsel von der Funktions- zur Prozessorientierung in der BWL
2.2 Prozesssteuerung mithilfe von ERP-Software am Beispiel von SAP ERP
2.3 Allgemeine Folgen des Paradigmenwechsels für die berufliche Qualifizierung
2.4 Funktionsorientiert-fachsystematisches und prozessorientierthandlungssystematisches Lernen
2.4.1 Funktionsorientiert-fachsystematisches Lernen
2.4.2 Prozessorientiert-handlungssystematisches Lernen
3 Handlungs- und tätigkeitstheoretische Grundlagen des Lernhandelns in ERPSoftware
3.1 Begriffliche Klärung: Tätigkeit – Handlung – Operation
3.2 Unternehmen als Tätigkeitssysteme in der Tätigkeitstheorie nach Engeström
3.3 Handeln in Geschäftsprozessen gemäß der Handlungstheorie nach Aebli
3.4 Individuelle Determinanten des Lernhandelns
3.4.1 Kognition, Motivation und Emotion als Komponenten der personalen Dimension im Person-Umwelt-Bezug
3.4.1.1 Kognition
3.4.1.2 Motivation
3.4.1.3 Emotion
3.4.2 Lernstrategien
3.4.3 Reflexion
3.4.3.1 Begriff der Reflexion und Abgrenzung
3.4.3.2 Stufen und Ebenen der Reflexion
3.4.3.3 Lernprozesse und Reflexion
3.4.4 Transfer
3.5 Soziale Aspekte des Lernhandelns
3.6 Konzeptionelle Synthese handlungs-/tätigkeitstheoretischer und psychophysischer Grundlagen
4 Präzisierte Forschungsfragen und Hypothesen für die empirische Untersuchung
5 Empirische Untersuchung
5.1 Design im engeren Sinne
5.2 Stichprobe
5.3 Untersuchungsablauf (Design im weiteren Sinne)
5.4 Operationalisierung der Variablen
5.4.1 Funktions- und prozessorientierte Konzeption der Lehrveranstaltung
5.4.1.1 Funktionsorientierte Konzeption
5.4.1.2 Prozessorientierte Konzeption
5.4.2 Wissenstests
5.4.3 Erfahrungen mit komplexen Lernumgebungen
5.4.4 Lernstrategieinventar
5.4.5 Fragebogen zur Motivation
5.4.6 Emotion im Lernprozess
5.4.7 Reflexion des eigenen Lernprozesses
6 Ergebnisse
6.1 Lernerfolg – Wissen und Handlungsfähigkeit
6.2 Erfahrungen mit komplexen Lernumgebungen
6.3 Lernstrategien
6.4 Motivation für den Lernprozess
6.5 Emotion im Lernprozess
6.6 Reflexion des eigenen Lernprozesses
7 Diskussion
7.1 Lernerfolg – Wissen und Handlungsfähigkeit
7.2 Erfahrungen mit offenen und komplexen Lernumgebungen
7.3 Lernstrategien
7.4 Motivation für den Lernprozess
7.5 Emotion im Lernprozess
7.6 Reflexion des eigenen Lernprozesses
7.7 Limitationen des Forschungsprojektes
8 Ausblick
|
95 |
Energieeffiziente integrierte Schaltungen zur Basisbandsignalverarbeitung und Zeitsynchronisation für drahtgebundene Ethernet-EchtzeitkommunikationBuhr, Simon 28 January 2022 (has links)
In dieser Arbeit wird eine genaue Zeitsynchronisation über kupferbasierte Ethernetsysteme sowie der Entwurf von Schaltungen für die Bitübertragungsschicht (Physical Layer, PHY) in solchen Ethernetsystemen untersucht. Dabei wird der Entwurf eines integrierten Schaltkreises für den Standard 100Base-TX vorgestellt. Dieser PHY-Chip ermöglicht die Datenübertragung mit einer Datenrate von 100 MBit/s über verdrillte Kupferkabel und stellt darüber hinaus eine genaue Uhr bereit, welche zwischen den verbundenen Netzknoten synchronisiert werden kann. Dieser Schaltkreis ist insbesondere für Industrieanwendungen gedacht, bei denen verschiedene Prozesse zeitlich synchronisiert werden müssen. Prinzipiell ist der PHY-Chip jedoch universell für verschiedenste Anwendungen zur Zeitsynchronisation einsetzbar.
Um die Genauigkeit der Zeitsynchronisation gegenüber herkömmlichen Ansätzen zu steigern, werden verschiedene Techniken untersucht und in dem entworfenen Schaltkreis eingesetzt. So wird die Phase der Taktsignale in feinen Schritten eingestellt und auch gemessen, sodass die Auflösung der Zeitstempel erheblich verbessert wird. Zu diesem Zweck wird ein sogenannter Digital-To-Phase Converter (DPC) eingesetzt, der 256 verschiedene Taktphasen des 125 MHz Systemtaktes bereitstellt. Für die eigentliche Zeitsynchronisation wird ein Proportional-Integral-Regler verwendet. Basierend auf einer theoretischen Rauschanalyse wird eine Methode vorgestellt, mit der die Parameter dieses Reglers so dimensioniert werden können, dass der Zeitfehler im eingeschwungenen Zustand möglichst klein wird. Darüber hinaus werden weitere Störeinflüsse analysiert und es werden geeignete Maßnahmen entwickelt, um diese zu kompensieren. So wird eine adaptive Kompensation eines Eintonstörers sowie eine Kalibrierung zur automatischen Kompensation von Asymmetrien im Kabel vorgestellt. All diese Punkte helfen, eine hervorragende Genauigkeit der Zeitsynchronisation zu ermöglichen, was durch umfangreiche Messungen verifiziert wird. Insgesamt weist der gemessene Zeitfehler in einem Punkt-zu-Punkt-Szenario eine Standardabweichung von 64 ps und einen Mittelwert unterhalb von 100 ps auf. Dies stellt eine erhebliche Verbesserung gegenüber konventionellen Lösungen zur Zeitsynchronisation über kupferbasiertes Ethernet dar, mit denen Genauigkeiten im Nanosekundenbereich erreicht werden.
Als zweites Ziel dieser Arbeit wird der PHY-Chip für eine möglichst niedrige Leistungsaufnahme optimiert. Um dies zu erreichen, werden insbesondere der Leitungstreiber im Sender und der Equalizer im Empfänger systematisch optimiert. So werden zwei verschiedene Topologien von Leitungstreibern untersucht und verglichen. Beide weisen eine Leistungsaufnahme von etwa 24 mW auf. Im Vergleich zum Stand der Technik sind dies die beiden niedrigsten Werte für Leitungstreiber für den Standard 100Base-TX. Der gesamte PHY-Chip, der in einer 180 nm Technologie implementiert wurde, weist durch die zahlreichen Optimierungen eine geringe Leistungsaufnahme von maximal 69 mW auf, was ebenfalls einen Rekordwert im Vergleich mit dem Stand der Technik darstellt (80 mW). Die einzelnen Schaltungen wurden sowohl simulativ als auch mit ausführlichen Messungen verifiziert. Für den gesamten Link wird eine Bitfehlerrate besser als 10⁻¹² bei verschiedenen Kabeln bis zu 120 m Länge erreicht.:Abbildungsverzeichnis
Tabellenverzeichnis
Abkürzungen
Symbole
1 Einleitung
1.1 Zeit und Zeitsynchronisation
1.2 Ziele dieser Arbeit
1.3 Gliederung
2 Grundlagen
2.1 100Base-TX Ethernet-Standard
2.1.1 Schnittstelle zur MAC-Schicht
2.1.2 4B5B-Kodierung
2.1.3 Scrambler und Descrambler
2.1.4 MLT-3-Kodierung
2.1.5 Bitfehlerrate und Signal-Rausch-Verhältnis
2.2 Kanalmodellierung
2.2.1 Dämpfung
2.2.2 Baseline-Wander
2.3 Zeitsynchronisierung
2.3.1 Bestimmung der Zeitdifferenz
2.3.2 Vergrößerung der Synchronisationsgenauigkeit
3 Schaltungsentwurf und Charakterisierung
3.1 Energieeffiziente Leitungstreiber
3.1.1 Vergleich von Leitungstreibern mit passiver Anpassung
3.1.2 Spannungstreiber
3.1.3 Leitungstreiber mit aktiver Anpassung
3.1.4 Vergleich der Leitungstreiber und Fazit
3.2 Takterzeugung
3.2.1 Ringoszillator
3.2.2 Phasenregelschleife
3.2.3 Phaseninterpolator
3.2.4 Messung
3.2.5 Verbesserter 10 Bit DPC
3.3 Takt- und Datenrückgewinnung
3.3.1 Phasendetektor
3.3.2 Modellierung des DPC
3.3.3 Dimensionierung des Schleifenfilters
3.3.4 Implementierung
3.4 Adaptiver Equalizer
3.4.1 Kompensation der Kabeldämpfung
3.4.2 Implementierung des analogen Filters
3.4.3 Digitale Regelung der Equalizer-Parameter
3.4.4 Messung des Equalizers
3.5 Zeitsynchronisation
3.5.1 Uhr und Steuerung der Frequenz
3.5.2 Digitale Schaltungen zur Zeitstempelung
3.5.3 Implementierung der Zeitsynchronisation
3.5.4 Adaptive Unterdrückung eines Eintonstörers
3.5.5 Automatische Kalibrierung von Asymmetrien
3.5.6 Vergleich mit dem Stand der Technik
3.6 Gesamter PHY-Schaltkreis
3.6.1 Leistungsaufnahme
3.6.2 Vergleich mit dem Stand der Technik
4 Zusammenfassung und Ausblick
Literaturverzeichnis
Eigene Veröffentlichungen / This work investigates accurate time synchronization over copper-based Ethernet systems as well as the design of circuits for the physical layer (PHY) in such Ethernet systems. The design of an integrated circuit (IC) for the 100Base-TX standard is presented. This PHY-IC enables data transmission at a data rate of 100 MBit/s over twisted pair copper cables and, additionally, provides an accurate clock which can be synchronized between connected network nodes. This circuit is designed for industrial applications where various processes need to be synchronized in time. In principle, however, the PHY-IC can be used universally for various time synchronization applications.
In order to increase the accuracy of the time synchronization compared to conventional approaches, various techniques are investigated and used in the designed circuit. For example, the phase of the clock signals is adjusted and measured in fine steps, such that the resolution of the timestamps is improved by a large amount. For this purpose, a digital-to-phase converter (DPC) is used, which provides 256 different clock phases of the 125 MHz system clock. A proportional integral controller is used for the actual time synchronization application. Based on a theoretical noise analysis, a method is presented to dimension the parameters of this controller to minimize the timing error in the steady state. Furthermore, other disturbing influences are analyzed and suitable measures are developed to compensate them. Thus, an adaptive compensation of a single-tone interferer is presented as well as a calibration to automatically compensate for asymmetries in the cable. All these points help to provide excellent accuracy of the time synchronization, which is verified by extensive measurements. Overall, the measured time error in a point-to-point scenario has a standard deviation of 64 ps and a mean value below 100 ps. This represents a significant improvement over conventional solutions for time synchronization over copper-based Ethernet, which achieve accuracies in the nanosecond range.
As a second goal of this work, the PHY-IC is optimized for lowest power consumption. In particular, the line driver in the transmitter and the equalizer in the receiver are systematically optimized to achieve this. Thus, two different topologies of line drivers are investigated and compared. Both have a power consumption of about 24 mW. These represent the two lowest values for line drivers for the 100Base-TX standard compared to the state of the art. The entire PHY-IC is implemented in a 180 nm technology and shows a power consumption below 69 mW due to the numerous optimizations. This also represents a record value compared to the state of the art (80 mW). The individual circuits were verified with simulations and with detailed measurements. For the entire link, a bit error rate better than 10⁻¹² is achieved for various cables up to 120 m length.:Abbildungsverzeichnis
Tabellenverzeichnis
Abkürzungen
Symbole
1 Einleitung
1.1 Zeit und Zeitsynchronisation
1.2 Ziele dieser Arbeit
1.3 Gliederung
2 Grundlagen
2.1 100Base-TX Ethernet-Standard
2.1.1 Schnittstelle zur MAC-Schicht
2.1.2 4B5B-Kodierung
2.1.3 Scrambler und Descrambler
2.1.4 MLT-3-Kodierung
2.1.5 Bitfehlerrate und Signal-Rausch-Verhältnis
2.2 Kanalmodellierung
2.2.1 Dämpfung
2.2.2 Baseline-Wander
2.3 Zeitsynchronisierung
2.3.1 Bestimmung der Zeitdifferenz
2.3.2 Vergrößerung der Synchronisationsgenauigkeit
3 Schaltungsentwurf und Charakterisierung
3.1 Energieeffiziente Leitungstreiber
3.1.1 Vergleich von Leitungstreibern mit passiver Anpassung
3.1.2 Spannungstreiber
3.1.3 Leitungstreiber mit aktiver Anpassung
3.1.4 Vergleich der Leitungstreiber und Fazit
3.2 Takterzeugung
3.2.1 Ringoszillator
3.2.2 Phasenregelschleife
3.2.3 Phaseninterpolator
3.2.4 Messung
3.2.5 Verbesserter 10 Bit DPC
3.3 Takt- und Datenrückgewinnung
3.3.1 Phasendetektor
3.3.2 Modellierung des DPC
3.3.3 Dimensionierung des Schleifenfilters
3.3.4 Implementierung
3.4 Adaptiver Equalizer
3.4.1 Kompensation der Kabeldämpfung
3.4.2 Implementierung des analogen Filters
3.4.3 Digitale Regelung der Equalizer-Parameter
3.4.4 Messung des Equalizers
3.5 Zeitsynchronisation
3.5.1 Uhr und Steuerung der Frequenz
3.5.2 Digitale Schaltungen zur Zeitstempelung
3.5.3 Implementierung der Zeitsynchronisation
3.5.4 Adaptive Unterdrückung eines Eintonstörers
3.5.5 Automatische Kalibrierung von Asymmetrien
3.5.6 Vergleich mit dem Stand der Technik
3.6 Gesamter PHY-Schaltkreis
3.6.1 Leistungsaufnahme
3.6.2 Vergleich mit dem Stand der Technik
4 Zusammenfassung und Ausblick
Literaturverzeichnis
Eigene Veröffentlichungen
|
96 |
AMC 2015 – Advanced Metallization Conference22 July 2016 (has links)
Since its inception as the Tungsten Workshop in 1984, AMC has served as the leading conference for the interconnect and contact metallization communities, and has remained at the leading edge of the development of tungsten, aluminum, and copper/low-K interconnects. As the semiconductor industry evolves, exciting new challenges in metallization are emerging, particularly in the areas of contacts to advanced devices, local interconnect solutions for highly-scaled devices, advanced memory device metallization, and 3D/packaging technology. While the conference content has evolved, the unique workshop environment of AMC fosters open discussion to create opportunities for cross-pollination between academia and industry.
Submissions are covering materials, process, integration and reliability challenges spanning a wide range of topics in metallization for interconnect/contact applications, especially in the areas of:
- Contacts to advanced devices (FinFET, Nanowire, III/V, and 2D materials)
- Highly-scaled local and global interconnects
- Beyond Cu interconnect
- Novel metallization schemes and advanced dielectrics
- Interconnect and device reliability
- Advanced memory (NAND/DRAM, 3D NAND, STT and RRAM)
- 3D and packaging (monolithic 3D, TSV, EMI)
- Novel and emerging interconnects
Executive Committee:
Sang Hoon Ahn (Samsung Electronics Co., Ltd.)
Paul R. Besser (Lam Research)
Robert S. Blewer (Blewer Scientific Consultants, LLC)
Daniel Edelstein (IBM)
John Ekerdt (The University of Texas at Austin)
Greg Herdt (Micron)
Chris Hobbs (Sematech)
Francesca Iacopi (Griffith University)
Chia-Hong Jan (Intel Corporation)
Rajiv Joshi (IBM)
Heinrich Koerner (Infineon Technologies)
Mehul Naik (Applied Materials Inc.)
Fabrice Nemouchi (CEA LETI MINATEC)
Takayuki Ohba (Tokyo Institute of Technology)
Noel Russell (TEL Technology Center, America)
Stefan E. Schulz (Chemnitz University of Technology)
Yosi Shacham-Diamand (Tel-Aviv University)
Roey Shaviv (Applied Materials Inc.)
Zsolt Tokei (IMEC)
|
97 |
Impacts analysis for inverse integrated assessments of climate changeFüssel, Hans-Martin January 2003 (has links)
Diese Dissertation beschreibt die Entwicklung und Anwendung des Klimawirkungsmoduls des ICLIPS-Modells, eines integrierten Modells des Klimawandels ('Integrated Assessment'-Modell). Vorangestellt ist eine Diskussion des gesellschaftspolitischen Kontexts, in dem modellbasiertes 'Integrated Assessment' stattfindet, aus der wichtige Anforderungen an die Spezifikation des Klimawirkungsmoduls abgeleitet werden. <br />
<br />
Das 'Integrated Assessment' des Klimawandels umfasst eine weiten Bereich von Aktivitäten zur wissenschaftsbasierten Unterstützung klimapolitischer Entscheidungen. Hierbei wird eine Vielzahl von Ansätzen verfolgt, um politikrelevante Informationen über die erwarteten Auswirkungen des Klimawandels zu berücksichtigen. Wichtige Herausforderungen in diesem Bereich sind die große Bandbreite der relevanten räumlichen und zeitlichen Skalen, die multifaktorielle Verursachung vieler 'Klimafolgen', erhebliche wissenschaftliche Unsicherheiten sowie die Mehrdeutigkeit unvermeidlicher Werturteile. Die Entwicklung eines hierarchischen Konzeptmodells erlaubt die Strukturierung der verschiedenen Ansätze sowie die Darstellung eines mehrstufigen Entwicklungsprozesses, der sich in der Praxis und der zu Grunde liegenden Theorie von Studien zur Vulnerabilität hinsichtlich des Klimawandels wiederspiegelt. <br />
<br />
'Integrated Assessment'-Modelle des Klimawandels sind wissenschaftliche Werkzeuge, welche eine vereinfachte Beschreibung des gekoppelten Mensch-Klima-Systems enthalten. Die wichtigsten entscheidungstheoretischen Ansätze im Bereich des modellbasierten 'Integrated Assessment' werden im Hinblick auf ihre Fähigkeit zur adäquaten Darstellung klimapolitischer Entscheidungsprobleme bewertet. Dabei stellt der 'Leitplankenansatz' eine 'inverse' Herangehensweise zur Unterstützung klimapolitischer Entscheidungen dar, bei der versucht wird, die Gesamtheit der klimapolitischen Strategien zu bestimmen, die mit einer Reihe von zuvor normativ bestimmten Mindestkriterien (den sogenannten 'Leitplanken') verträglich sind. Dieser Ansatz verbindet bis zu einem gewissen Grad die wissenschaftliche Strenge und Objektivität simulationsbasierter Ansätze mit der Fähigkeit von Optimierungsansätzen, die Gesamtheit aller Entscheidungsoptionen zu berücksichtigen. Das ICLIPS-Modell ist das erste 'Integrated Assessment'-Modell des Klimawandels, welches den Leitplankenansatz implementiert. <br />
<br />
Die Darstellung von Klimafolgen ist eine wichtige Herausforderung für 'Integrated Assessment'-Modelle des Klimawandels. Eine Betrachtung bestehender 'Integrated Assessment'-Modelle offenbart große Unterschiede in der Berücksichtigung verschiedener vom Klimawandel betroffenen Sektoren, in der Wahl des bzw. der Indikatoren zur Darstellung von Klimafolgen, in der Berücksichtigung nicht-klimatischer Entwicklungen einschließlich gezielter Anpassungsmaßnahmen an den Klimawandel, in der Behandlung von Unsicherheiten und in der Berücksichtigung von 'singulären' Ereignissen. 'Integrated Assessment'-Modelle, die auf einem Inversansatz beruhen, stellen besondere Anforderungen an die Darstellung von Klimafolgen. Einerseits muss der Detaillierungsgrad hinreichend sein, um Leitplanken für Klimafolgen sinnvoll definieren zu können; andererseits muss die Darstellung effizient genug sein, um die Gesamtheit der möglichen klimapolitischen Strategien erkunden zu können. Großräumige Singularitäten können häufig durch vereinfachte dynamische Modelle abgebildet werden. Diese Methode ist jedoch weniger geeignet für reguläre Klimafolgen, bei denen die Bestimmung relevanter Ergebnisse in der Regel die Berücksichtigung der Heterogenität von klimatischen, naturräumlichen und sozialen Faktoren auf der lokalen oder regionalen Ebene erfordert. <br />
<br />
Klimawirkungsfunktionen stellen sich als die geeignetste Darstellung regulärer Klimafolgen im ICLIPS-Modell heraus. Eine Klimawirkungsfunktion beschreibt in aggregierter Form die Reaktion eines klimasensitiven Systems, wie sie von einem geographisch expliziten Klimawirkungsmodell für eine repräsentative Teilmenge möglicher zukünftiger Entwicklungen simuliert wurde. Die in dieser Arbeit vorgestellten Klimawirkungsfunktionen nutzen die globale Mitteltemperatur sowie die atmosphärische CO2-Konzentration als Prädiktoren für global und regional aggregierte Auswirkungen des Klimawandels auf natürliche Ökosysteme, die landwirtschaftliche Produktion und die Wasserverfügbarkeit. Die Anwendung einer 'Musterskalierungstechnik' ermöglicht hierbei die Berücksichtigung der regionalen und saisonalen Muster des Klimaänderungssignals aus allgemeinen Zirkulationsmodellen, ohne die Effizienz der dynamischen Modellkomponenten zu beeinträchtigen. <br />
<br />
Bemühungen zur quantitativen Abschätzung zukünftiger Klimafolgen sehen sich bei der Wahl geeigneter Indikatoren in der Regel einem Zielkonflikt zwischen der Relevanz eines Indikators für Entscheidungsträger und der Zuverlässigkeit, mit der dieser bestimmt werden kann, gegenüber. Eine Reihe von nichtmonetären Indikatoren zur aggregierten Darstellung von Klimafolgen in Klimawirkungsfunktionen wird präsentiert, welche eine Balance zwischen diesen beiden Zielen anstreben und gleichzeitig die Beschränkungen berücksichtigen, die sich aus anderen Komponenten des ICLIPS-Modells ergeben. Klimawirkungsfunktionen werden durch verschiedene Typen von Diagrammen visualisiert, welche jeweils unterschiedliche Perspektiven auf die Ergebnismenge der Klimawirkungssimulationen erlauben.<br />
<br />
Die schiere Anzahl von Klimawirkungsfunktionen verhindert ihre umfassende Darstellung in dieser Arbeit. Ausgewählte Ergebnisse zu Veränderungen in der räumlichen Ausdehnung von Biomen, im landwirtschaftlichen Potential verschiedener Länder und in der Wasserverfügbarkeit in mehreren großen Einzugsgebieten werden diskutiert. Die Gesamtheit der Klimawirkungsfunktionen wird zugänglich gemacht durch das 'ICLIPS Impacts Tool', eine graphische Benutzeroberfläche, die einen bequemen Zugriff auf über 100.000 Klimawirkungsdiagramme ermöglicht. Die technischen Aspekte der Software sowie die zugehörige Datenbasis wird beschrieben. <br />
<br />
Die wichtigste Anwendung von Klimawirkungsfunktionen ist im 'Inversmodus', wo sie genutzt werden, um Leitplanken zur Begrenzung von Klimafolgen in gleichzeitige Randbedingungen für Variablen aus dem optimierenden ICLIPS-Klima-Weltwirtschafts-Modell zu übersetzen. Diese Übersetzung wird ermöglicht durch Algorithmen zur Bestimmung von Mengen erreichbarer Klimazustände ('reachable climate domains') sowie zur parametrisierten Approximation zulässiger Klimafenster ('admissible climate windows'), die aus Klimawirkungsfunktionen abgeleitet werden. Der umfassende Bestand an Klimawirkungsfunktionen zusammen mit diesen Algorithmen ermöglicht es dem integrierten ICLIPS-Modell, in flexibler Weise diejenigen klimapolitischen Strategien zu bestimmen, welche bestimmte in biophysikalischen Einheiten ausgedrückte Begrenzungen von Klimafolgen explizit berücksichtigen. Diese Möglichkeit bietet kein anderes intertemporal optimierendes 'Integrated Assessment'-Modell. Eine Leitplankenanalyse mit dem integrierten ICLIPS-Modell unter Anwendung ausgewählter Klimawirkungsfunktionen für Veränderungen natürlicher Ökosysteme wird beschrieben. In dieser Analyse werden so genannte 'notwendige Emissionskorridore' berechnet, die vorgegebene Beschränkungen hinsichtlich der maximal zulässigen globalen Vegetationsveränderungen und der regionalen Klimaschutzkosten berücksichtigen. Dies geschieht sowohl für eine 'Standardkombination' der drei gewählten Kriterien als auch für deren systematische Variation. <br />
<br />
Eine abschließende Diskussion aktueller Entwicklungen in der 'Integrated Assessment'-Modellierung stellt diese Arbeit mit anderen einschlägigen Bemühungen in Beziehung. / This thesis describes the development and application of the impacts module of the ICLIPS model, a global integrated assessment model of climate change. The presentation of the technical aspects of this model component is preceded by a discussion of the sociopolitical context for model-based integrated assessments, which defines important requirements for the specification of the model.<br />
<br />
Integrated assessment of climate change comprises a broad range of scientific efforts to support the decision-making about objectives and measures for climate policy, whereby many different approaches have been followed to provide policy-relevant information about climate impacts. Major challenges in this context are the large diversity of the relevant spatial and temporal scales, the multifactorial causation of many climate impacts', considerable scientific uncertainties, and the ambiguity associated with unavoidable normative evaluations. A hierarchical framework is presented for structuring climate impact assessments that reflects the evolution of their practice and of the underlying theory.<br />
<br />
Integrated assessment models of climate change (IAMs) are scientific tools that contain simplified representations of the relevant components of the coupled society-climate system. The major decision-analytical frameworks for IAMs are evaluated according to their ability to address important aspects of the pertinent social decision problem. The guardrail approach is presented as an inverse' framework for climate change decision support, which aims to identify the whole set of policy strategies that are compatible with a set of normatively specified constraints (guardrails'). This approach combines, to a certain degree, the scientific rigour and objectivity typical of predictive approaches with the ability to consider virtually all decision options that is at the core of optimization approaches. The ICLIPS model is described as the first IAM that implements the guardrail approach.<br />
<br />
The representation of climate impacts is a key concern in any IAM. A review of existing IAMs reveals large differences in the coverage of impact sectors, in the choice of the impact numeraire(s), in the consideration of non-climatic developments, including purposeful adaptation, in the handling of uncertainty, and in the inclusion of singular events. IAMs based on an inverse approach impose specific requirements to the representation of climate impacts. This representation needs to combine a level of detail and reliability that is sufficient for the specification of impact guardrails with the conciseness and efficiency that allows for an exploration of the complete domain of plausible climate protection strategies. Large-scale singular events can often be represented by dynamic reduced-form models. This approach, however, is less appropriate for regular impacts where the determination of policy-relevant results generally needs to consider the heterogeneity of climatic, environmental, and socioeconomic factors at the local or regional scale.<br />
<br />
Climate impact response functions (CIRFs) are identified as the most suitable reduced-form representation of regular climate impacts in the ICLIPS model. A CIRF depicts the aggregated response of a climate-sensitive system or sector as simulated by a spatially explicit sectoral impact model for a representative subset of plausible futures. In the CIRFs presented here, global mean temperature and atmospheric CO2 concentration are used as predictors for global and regional impacts on natural vegetation, agricultural crop production, and water availability. Application of a pattern scaling technique makes it possible to consider the regional and seasonal patterns in the climate anomalies simulated by several general circulation models while ensuring the efficiency of the dynamic model components.<br />
<br />
Efforts to provide quantitative estimates of future climate impacts generally face a trade-off between the relevance of an indicator for stakeholders and the exactness with which it can be determined. A number of non-monetary aggregated impact indicators for the CIRFs is presented, which aim to strike the balance between these two conflicting goals while taking into account additional constraints of the ICLIPS modelling framework. Various types of impact diagrams are used for the visualization of CIRFs, each of which provides a different perspective on the impact result space.<br />
<br />
The sheer number of CIRFs computed for the ICLIPS model precludes their comprehensive presentation in this thesis. Selected results referring to changes in the distribution of biomes in different biogeographical regions, in the agricultural potential of various countries, and in the water availability in selected major catchments are discussed. The full set of CIRFs is accessible via the ICLIPS Impacts Tool, a graphical user interface that provides convenient access to more than 100,000 impact diagrams developed for the ICLIPS model. The technical aspects of the software are described as well as the accompanying database of CIRFs.<br />
<br />
The most important application of CIRFs is in inverse' mode, where they are used to translate impact guardrails into simultaneous constraints for variables from the optimizing ICLIPS climate-economy model. This translation is facilitated by algorithms for the computation of reachable climate domains and for the parameterized approximation of admissible climate windows derived from CIRFs. The comprehensive set of CIRFs, together with these algorithms, enables the ICLIPS model to flexibly explore sets of climate policy strategies that explicitly comply with impact guardrails specified in biophysical units. This feature is not found in any other intertemporally optimizing IAM. A guardrail analysis with the integrated ICLIPS model is described that applies selected CIRFs for ecosystem changes. So-called necessary carbon emission corridors' are determined for a default choice of normative constraints that limit global vegetation impacts as well as regional mitigation costs, and for systematic variations of these constraints.<br />
<br />
A brief discussion of recent developments in integrated assessment modelling of climate change connects the work presented here with related efforts.
|
98 |
Integrierte Modellierung von Durchflussdynamik und salinarer Stofftransportprozesse unter Berücksichtigung anthropogener Steuerungen am Beispiel der Unstrut / Integrated modelling of flow discharge and saline solute transport processes under consideration of anthropogenic management strategies in the Unstrut river basinVoß, Frank January 2005 (has links)
Durch die Stilllegung der Kali-Gewinnung und -Produktion zwischen 1990 und
1993 sowie die begonnene Rekultivierung der Kali-Rückstandshalden haben sich
die Salzfrachteintragsbedingungen für die Fließgwewässer
im "Südharz-Kalirevier" in Thüringen zum Teil deutlich verändert.
Aufgrund erheblich geringerer Salzeinträge in die Vorfluter Wipper und
Bode ist es möglich geworden, zu einer ökologisch verträglichen Salzfrachtsteuerung
überzugehen.
Die Komplexität der zugrunde liegenden Stofftransportprozesse im Einzugsgebiet
der Wipper macht es jedoch unumgänglich, den Steuerungsvorgang nicht nur
durch reine Bilanzierungsvorgänge auf der betrachteten Steuerstrecke zu
erfassen (so wie bisher praktiziert), sondern auch die Abflussdynamik im
Fließgewässer und den Wasserhaushalt im Gebiet mit einzubeziehen.
<br><br>
Die Ergebnisse dieser Arbeit dienen zum einen einer Vertiefung der Prozessverständnisse
und der Interaktion von Wasserhaushalt, Abflussbildung sowie Stofftransport
in bergbaubeeinflussten Einzugsgebieten am Beispiel der Unstrut bzw.
ihrer relevanten Nebenflüsse.
Zum anderen sollen sie zur Analyse und Bewertung eines Bewirtschaftungsplanes
für die genannten Fließgewässer herangezogen werden können.
Ziel dieser Arbeit ist die Erstellung eines prognosetauglichen Steuerungsinstrumentes,
das für die Bewirtschaftung von Flusseinzugsgebieten unterschiedlicher
Größe genutzt und unter den Rahmenbedingungen der bergbaubedingten salinaren
Einträge effektiv zur Steuerung der anthropogenen Frachten eingesetzt werden
kann.
<br><br>
Die Quellen der anthropogen eingeleiteten Salzfracht sind vor allem die
Rückstandshalden der stillgelegten Kaliwerke.
Durch Niederschläge entstehen salzhaltige Haldenabwässer, die zum Teil
ungesteuert über oberflächennahe Ausbreitungsvorgänge direkt in die Vorfluter
gelangen, ein anderer Teil wird über die Speichereinrichtungen gefasst
und gezielt abgestoßen.
Durch Undichtigkeiten des Laugenstapelbeckens in Wipperdorf gelangen ebenfalls
ungesteuerte Frachteinträge in die Wipper.
Ein weiterer Eintragspfad ist zudem die geogene Belastung.
<br><br>
Mit Hilfe detaillierter Angaben zu den oben genannten Eintragspfaden konnten
Modellrechnungen im Zeitraum von 1992 bis 2003 durchgeführt werden.
Durch die Ausarbeitung eines neuartigen Steuerungskonzeptes für das Laugenstapelbecken
Wipperdorf, war es nun möglich, die gefasste Haldenlauge entsprechend
der aktuellen Abflusssituation gezielt abstoßen zu können.
Neben der modelltechnischen Erfassung der aktuellen hydrologischen Situation und der Vorgabe
eines Chlorid-Konzentrationssteuerzieles für den Pegel Hachelbich, mussten dabei
weitere Randbedingungen (Beckenkapazität, Beckenfüllstand, Mindestfüllstand,
Kapazität des Ableitungskanals, usw.) berücksichtigt werden.
<br><br>
Es zeigte sich, dass unter Anwendung des Steuerungskonzeptes die Schwankungsbreite
der Chloridkonzentration insgesamt gesehen deutlich verringert werden konnte.
Die Überschreitungshäufigkeiten bezüglich eines Grenzwertes von 2 g Chlorid/l
am Pegel Hachelbich fielen deutlich, und auch die maximale Dauer einer
solchen Periode konnte stark verkürzt werden.
Kritische Situationen bei der modelltechnischen Frachtzusteuerung traten nur dann auf, wenn
Niedrigwasserverhältnisse durch die Simulationsberechnungen noch unterschätzt wurden.
Dies hatte deutliche Überschreitungen der Zielvorgaben für den Pegel Hachelbich
zur Folge.
<br><br>
Mit Hilfe des Steuerungsalgorithmus konnten desweiteren auch Szenarienberechnungen
durchgeführt werden, um die Auswirkungen zukünftig zu erwartender Salzfrachten
näher spezifizieren zu können.
Dabei konnte festgestellt werden, dass Abdichtungsmaßnahmen der Haldenkörper
sich direkt positiv auf die Entwicklung der Konzentration in Hachelbich
auswirkten.
Durch zusätzlich durchgeführte Langzeitszenarien konnte darüber hinaus
nachgewiesen werden, dass langfristig eine Grenzwertfestlegung auf 1,5
g Chlorid/l in Hachelbich möglich ist, und die Stapelkapazitäten dazu ausreichend
bemessen sind. / As a consequence of general closure and conversion of potash-industries
between the years 1990 and 1993 and due to the beginning of recultivation activities on the potash stockpiles
the load of dissolved potassium salt of rivers in the "Südharz-Kalirevier" in the German federal state of
Thuringia has considerably changed. The extremely decreased salt inputs into the tributaries of Wipper and Bode
were accompanied by a change in salt load management towards a system controlled with respect to river ecology.
Due to the high complexity of salt transport processes in the Wipper catchment,
the existing operation rules cannot comply with the present requirements, so that a comprehensive knowledge of
water balance processes and river flow dynamics have to be included in management strategies.
<br><br>
On the one hand this investigation aims to analyse the processes and the interaction of water balance, runoff generation and solute transport
in catchment areas influenced by salt mining activities such as the case in the river Unstrut and its relevant tributaries. On the other hand
the results of this study can help to analyse and assess sustainable management plans for the above mentioned river basins. Thus the main
objective of this study is to develop an integrated, predictive management tool, that can be applied for catchment areas of different
spatial scales and for the effective use of controlled discharge of anthropogenic salt solution taking into account the basic input conditions
from salt mining activities.
<br><br>
The most important sources of anthropogenic salt inputs into the river stream are the salt loads from the potash stockpiles near the disused
mines. Due to usual precipitation salt solution leaches from the stockpiles, which partly reaches the river streams uncontrolled by lateral
interflow processes. Another part is being gathered in reservoirs and than discharged according to special system operation rules. As well
dissolved salt loads comes into the Wipper by leakage processes out of the reservoir in Wipperdorf. Furthermore geogenic input is another
important emission pathway.
<br><br>
With detailed information about these different emission pathways, model simulations were performed within the period from 1992 to 2003. After the
technical implementation of a new management strategy for the reservoir in Wipperdorf, now it was possible to push off the stored lye according
to the actual runoff situation in the river stream. Beside a fully modell aided description of the whole actual hydrological situtation and
provided control values for chloride concentration at the gauging station in Hachelbich, also other boundary conditions had to be considered
for this purpose (such as reservoir capacity, actual fill level, minimum fill level, drain capacity etc.).
<br><br>
It turned out, that the application of the new management strategy led to a clear decreased range in chloride concentration. Frequencies of
exceeding a critical value of 2 g chloride/l at gauging station in Hachelbich enormously declined and the maximum duration of such periods
could rigorously be shortened. Particluar critical situations in calculating potential lye discharge only occured when measured flow discharge
was underestimated through model simulations. In this case control values for the gauging station in Hachelbich could not be achieved.
<br><br>
With this new management tool scenario simulations were executed to analyse the effects of expected amounts of lye in future. These
theoretical studies showed the decreasing trend in chloride concentration if restorations measures at the stockpiles would be continued.
Longterm scenario runs also showed, that a threshold value of 1,5 g chloride/l in Hachelbich could be achieved and existing storage
capacities therefor will be sufficiently dimensioned.
|
99 |
Gefügeeinfluß auf das Elektromigrationsverhalten von Kupferleitbahnen für höchstintegrierte SchaltungenKötter, Thomas 23 August 2002 (has links) (PDF)
The increasing clock speed and the further reduction of the feature size in integrated circuits lead to increasing demands on the interconnecting material. Thus an increasing need for a metallization with low electrical resistance and high electromigration endurance exist. Copper can be count as a material with these properties. Since 1998 Copper interconnections are commercially manufactured for integrated circuits. Electromigration is the most lifetime limiting factor in modern integrated circuits. The main the electromigration behavior influencing parameter and especially the influence of the microstructure is unknown. In this work the influence of the grain boundaries and their properties on the electromigration is examined at sputtered (PVD) and electroplated (ECD) Copper interconnects. For this investigation microstructure mappings produced by electron backscatter diffraction (EBSD) are correlated to in-situ electromigration experiments inside the SEM to research the electromigration behavior and the diffusion paths. Microstructure analysis shows big a difference between the two investigated types of interconnects. In both a strong &lt;111&gt; fibre texture is observed, but the PVD Copper shows a stronger texture than the electroplated one. The texture index of the PVD interconnects is 15,9 whereas the ECD lines show an index of 3,9. The frequency densities of the grain boundary misorientation, which is important for the electromigration behavior, are very different for both films. The ECD lines show a fraction of 55% Sigma 3 twin boundaries and 40% high angle grain boundaries. In contrast the PVD interconnects show a fraction of 5% Sigma 3 twin boundaries, 75% high angle grain boundaries and 20% small angle grain boundaries. This shows that a reduction of the high angle grain boundaries is not related to a strong &lt;111&gt; fibre texture. With in-situ experiments correlated to microstructure analysis it is shown, that voiding at high angle grain boundaries occur in the down wind of blocking grains or sites where only Sigma 3 twin boundaries are present. Hillocks were formed at high angle grain boundaries in the upwind of blocking grains or sites where only small angle grain boundaries or Sigma 3 twin boundaries are found. By a statistical evaluation of the in-situ experiments it is shown that more than 50% of the observed electromigration damages could be ascribed clearly to a grain boundary related local mass flux divergence. At strings of high angle grain boundaries voiding at the cathode side and hillock growth at the anode side is shown. The distance between these voids and hillocks is always higher than the Blech length. As the current density increases the distance between these voids and hillocks decreases according to Blech´s law, whereby it´s valid for local divergence is shown. FIB cuts show, that hillocks on PVD lines grow non-epitaxial in contrast to hillocks on ECD lines, which show epitaxial growth. These differences of hillock´s growth may suggest different underlying growth mechanisms. Reliability testing performed on PVD Copper interconnects lead to an activation energy for electromigration of 0,77eV ± 0,07eV. The confidence interval includes reported values for surface and also grain boundary diffusion. This indicates that the electromigration in these experiments is mainly influenced by surface and grain boundary diffusion. In this work the nucleation of voids and hillocks related to the previous analysed microstructure is observed inside the SEM and correlated to high angle grain boundaries and their misorientation angle. The result of this work show that electromigration damage in Copper interconnects is mostly caused by inhomogeneities of the microstructure. In this process the high angle grain boundaries are the main diffusion path. / Mit steigender Taktrate u. weiter fortschreitender Integrationsdichte in mikroelektr. Schaltungen nehmen d. Anforderungen an d. Metallisierungsmaterial weiter zu. Es besteht d. zunehmende Forderung nach Metallisierungen mit geringem elektrischen Widerstand u. hoher Elektromigra- tionsfestigkeit. Kupfer kann als Material angesehen werden, welches d. Anforderungen erfüllt. Seit 1998 wird Kupfer als Metallisierungsmaterial in höchstintegr. Schaltun- gen eingesetzt. Die Elektromigration (EM) ist der d. Zuver- lässigkeit am meisten begrenzende Faktor in mod. mikro- elektron. Schaltungen. Die Haupteinflußgrößen auf d. Elektromigrationsverhalten u. insbes. d. Einfluß d. Gefüges ist unklar. In d. Arbeit wird an nichtpassivier- ten physikalisch (PVD) u. galvanisch (ECD) abgeschied. Kupferleitbahnen d. Einfluß d. Korngrenzen u. deren Eigenschaften auf d. Elektromigrationsverhalten untersucht. Dazu werden Gefügeanalysen mittels Kikuchi-Rückstreutechnik u. in-situ Elektromigrationsexperimente im Rasterelektron- enmikroskop gekoppelt, um d. Elektromigrationsverhalten u. d. Migrationspfade zu erforschen. Gefügeuntersuchungen zeigen, daß d. untersuchten Leitbahnen sich in ihren Gefügeeigenschaften deutl. unterscheiden. Beide Schichten zeigen e. &lt;111&gt; Fasertextur, wobei d. PVD-Leitbahnen e. deutl. schärfere Textur mit e. Texturfaktor von 15,9 gegenüber den ECD-Leitbahnen d. e. Texturfaktor von 3,9 aufweisen. Die Häufigkeitsverteilungen d. Korngrenz- Misorientierung, sind für d. beiden Schichten unterschiedl. Die ECD-Leitbahnen zeigen e. Anteil von 55% Sigma 3-Korngrenzen und 40% Großwinkelkorngrenzen. Die PVD- Leitbahnen hingegen weisen nur e. Anteil von 5% Sigma 3-Korngrenzen, 75% Großwinkelkorngrenzen u. 20% Kleinwin- kelkorngrenzen auf. Dadurch wird gezeigt, daß e. scharfe &lt;111&gt; Textur keine Reduzierung d. Großwinkelkorngrenzen zur Folge haben muß. Anhand von in-situ Experimenten gekoppelt mit Gefügeanalysen wird gezeigt, daß Porenbildung an Groß- winkelkorngrenzen hinter blockierenden Körnern oder hinter Bereichen auftritt, in d. nur Sigma 3-Korngrenzen o. Kleinwinkelkorngrenzen vorliegen. Hügelbildung tritt an Großwinkelkorngrenzen vor blockierenden Körnern o. Berei- chen auf, in denen nur Kleinwinkelkorngrenzen o. Sigma 3-Korngrenzen vorliegen. Mit e. statist. Auswertung d. in-situ Experimente wird gezeigt, daß mehr als d. Hälfte aller Elektromigrationsschädigungen bei beiden Herstellungsmethoden eindeutig auf e. korngrenzbedingte lokale Divergenz im Massenfluß zurückzuführen sind. An Ketten von Großwinkelkorngrenzen wird verdeutl., daß kathodenseitig Porenbildung und anodenseitig Hügelbildung auftritt. Der Abstand zw. Pore u. Hügel liegt hier immer oberh. d. Blechlänge. Mit zunehmender Stromdichte nimmt d. Pore-Hügel-Abstand entspr. d. Blechtheorie ab, wodurch gezeigt wird, daß d. Blechtheorie auch bei lokalen Flußdivergenzen gilt. FIB-Querschnittsanalysen zeigen, daß Hügel auf PVD-Leitbahnen nicht epitaktisch mit d. darunterliegenden Schicht verwachsen sind im Gegensatz zu Hügeln auf ECD-Leitbahnen, die teilw. e. epitaktische Verwachsung mit d. Leitbahn zeigen. Lebensdauermessungen an PVD-Leitbahnen ergeben e. Aktivierungsenergie von 0,77eV ± 0,07eV. Es ist davon auszugehen, daß das Elektromigrationsverhalten d. hier untersuchten unpassi- vierten Leitbahnen haupts. von Korngrenz- u. von Oberfläch- endiffusion beeinflußt wird. In d. Arbeit wurde zum ersten Mal an Kupferleitbahnen d. Entstehung von eit- bahnschädigungen im Zusammenhang mit dem vorher aufgenomme- nen Gefüge im Rasterelektronenmikroskop direkt beobachtet u. mit d. Korngrenzen u. d. Korngrenzwinkeln in Zusammenhang gebracht. Die Ergebnisse d. Arbeit zeigen, daß Schädigungen durch Elektromigration in Kupferleitbahnen vorw. durch Gefügeinhomogenitäten entstehen. Bei d. Prozeß sind Großwinkelkorngrenzen d. bevorzugte Diffusionspfad.
|
100 |
Conception of an integrated optical waveguide amplifier / Konzeption eines integriert-optischen WellenleiterverstärkersWächtler, Thomas 12 July 2004 (has links) (PDF)
The work provides an overview of different integrated optical amplifiers. Semiconductor optical amplifiers and fiber amplifiers are described, as well as devices that utilize non-linear effects, nanocrystalline materials, or photonic crystals.
Dielectric materials that are doped with rare-earth ions are considered more thoroughly. After a review of the principles of their optical activity the general mechanisms of excitation and emission are described. Materials aspects regarding the spectral range, their fabrication and the solubility of the dopants follow.
An erbium-doped alumina waveguide amplifier, reported earlier in the literature, is chosen as an example to demonstrate the feasibility of such components. A theoretical model of the population densities of the energy levels is derived for the simulation. By numerical methods the non-linear system of the rate equations is solved and the stability of the steady state is shown. The simulation of the amplifier demonstrates the dependence of the gain of both the excitation energy and the z-coordinate. Moreover, the superiority of an excitation wavelength of 980 nm compared to 1530 nm is shown. With the model the literature data could be reproduced. / Die Arbeit gibt einen Überblick über verschiedene Möglichkeiten der Realisierung integriert-optischer Wellenleiterverstärker. Ausgehend von optischen Halbleiter- und Faserverstärkern werden einführend ebenso Anordnungen beschrieben, die nichtlineare Effekte sowie nanokristalline Materialien und photonische Kristalle nutzen.
Besondere Bedeutung kommt dielektrischen Materialien zu, die mit optisch aktiven Dotanden, bevorzugt Seltenerdionen, versehen sind. Hierbei werden die Ursachen für die optische Aktivität der Lanthanide sowie die generellen Mechanismen der Anregungs- und Emissionsprozesse beschrieben. Aspekte der Materialauswahl, vor allem hinsichtlich des verwendeten Spektralbereiches sowie bezüglich ihrer Herstellung und der Löslichkeit der Dotanden schließen sich an.
Anhand eines Literaturbeispiels wird die Realisierbarkeit eines erbiumdotierten Aluminiumoxid-Wellenleiterverstärkers demonstriert. Hierfür wird ein Modell zur Simulation der Besetzungsdichten der angeregten Energieniveaus abgeleitet und mittels numerischer Methoden das sich ergebende, nichtlineare System der Ratengleichungen gelöst, wobei besonders die Stabilität des stationären Besetzungszustandes herausgearbeitet wird. Die Simulation der Verstärkeranordnung zeigt zum einen die Abhängigkeit der Verstärkung von der z-Koordinate sowie der Pumpleistung; zum anderen wird deutlich, dass die Anregung bei 980 nm der Variante bei 1530 nm überlegen ist. Mit dem verwendeten Modell konnten die Literaturdaten reproduziert werden.
|
Page generated in 0.2203 seconds