41 |
Acoustic Simulation and Characterization of Capacitive Micromachined Ultrasonic Transducers (CMUT)Klemm, Markus 25 July 2017 (has links) (PDF)
Ultrasonic transducers are used in many fields of daily life, e.g. as parking aids or medical devices. To enable their usage also for mass applications small and low- cost transducers with high performance are required. Capacitive, micro-machined ultrasonic transducers (CMUT) offer the potential, for instance, to integrate compact ultrasonic sensor systems into mobile phones or as disposable transducer for diverse medical applications.
This work is aimed at providing fundamentals for the future commercialization of CMUTs. It introduces novel methods for the acoustic simulation and characterization of CMUTs, which are still critical steps in the product development process. They allow an easy CMUT cell design for given application requirements. Based on a novel electromechanical model for CMUT elements, the device properties can be determined by impedance measurement already. Finally, an end-of-line test based on the electrical impedance of CMUTs demonstrates their potential for efficient mass production.
|
42 |
Compute-and-Forward in Multi-User Relay NetworksRichter, Johannes 25 July 2017 (has links) (PDF)
In this thesis, we investigate physical-layer network coding in an L × M × K relay network, where L source nodes want to transmit messages to K sink nodes via M relay nodes. We focus on the information processing at the relay nodes and the compute-and-forward framework. Nested lattice codes are used, which have the property that every linear combination of codewords is a valid codeword. This property is essential for physical-layer network coding.
Because the actual network coding occurs on the physical layer, the network coding coefficients are determined by the channel realizations. Finding the optimal network coding coefficients for given channel realizations is a non-trivial optimization problem. In this thesis, we provide an algorithm to find network coding coefficients that result in the highest data rate at a chosen relay. The solution of this optimization problem is only locally optimal, i.e., it is optimal for a particular relay. If we consider a multi-hop network, each potential receiver must get enough linear independent combinations to be able to decode the individual messages. If this is not the case, outage occurs, which results in data loss. In this thesis, we propose a new strategy for choosing the network coding coefficients locally at the relays without solving the optimization problem globally.
We thereby reduce the solution space for the relays such that linear independence between their decoded linear combinations is guaranteed. Further, we discuss the influence of spatial correlation on the optimization problem. Having solved the optimization problem, we combine physical-layer network coding with physical-layer secrecy. This allows us to propose a coding scheme to exploit untrusted relays in multi-user relay networks. We show that physical-layer network coding, especially compute-and-forward, is a key technology for simultaneous and secure communication of several users over an untrusted relay. First, we derive the achievable secrecy rate for the two-way relay channel. Then, we enhance this scenario to a multi-way relay channel with multiple antennas.
We describe our implementation of the compute-and-forward framework with software-defined radio and demonstrate the practical feasibility. We show that it is possible to use the framework in real-life scenarios and demonstrate a transmission from two users to a relay. We gain valuable insights into a real transmission using the compute-and-forward framework. We discuss possible improvements of the current implementation and point out further work. / In dieser Arbeit untersuchen wir Netzwerkcodierung auf der Übertragungsschicht in einem Relay-Netzwerk, in dem L Quellen-Knoten Nachrichten zu K Senken-Knoten über M Relay-Knoten senden wollen. Der Fokus dieser Arbeit liegt auf der Informationsverarbeitung an den Relay-Knoten und dem Compute-and-Forward Framework. Es werden Nested Lattice Codes eingesetzt, welche die Eigenschaft besitzen, dass jede Linearkombination zweier Codewörter wieder ein gültiges Codewort ergibt. Dies ist eine Eigenschaft, die für die Netzwerkcodierung von entscheidender Bedeutung ist.
Da die eigentliche Netzwerkcodierung auf der Übertragungsschicht stattfindet, werden die Netzwerkcodierungskoeffizienten von den Kanalrealisierungen bestimmt. Das Finden der optimalen Koeffizienten für gegebene Kanalrealisierungen ist ein nicht-triviales Optimierungsproblem. Wir schlagen in dieser Arbeit einen Algorithmus vor, welcher Netzwerkcodierungskoeffizienten findet, die in der höchsten Übertragungsrate an einem gewählten Relay resultieren. Die Lösung dieses Optimierungsproblems ist zunächst nur lokal, d. h. für dieses Relay, optimal. An jedem potentiellen Empfänger müssen ausreichend unabhängige Linearkombinationen vorhanden sein, um die einzelnen Nachrichten decodieren zu können. Ist dies nicht der Fall, kommt es zu Datenverlusten. Um dieses Problem zu umgehen, ohne dabei das Optimierungsproblem global lösen zu müssen, schlagen wir eine neue Strategie vor, welche den Lösungsraum an einem Relay soweit einschränkt, dass lineare Unabhängigkeit zwischen den decodierten Linearkombinationen an den Relays garantiert ist. Außerdem diskutieren wir den Einfluss von räumlicher Korrelation auf das Optimierungsproblem.
Wir kombinieren die Netzwerkcodierung mit dem Konzept von Sicherheit auf der Übertragungsschicht, um ein Übertragungsschema zu entwickeln, welches es ermöglicht, mit Hilfe nicht-vertrauenswürdiger Relays zu kommunizieren. Wir zeigen, dass Compute-and-Forward ein wesentlicher Baustein ist, um solch eine sichere und simultane Übertragung mehrerer Nutzer zu gewährleisten. Wir starten mit dem einfachen Fall eines Relay-Kanals mit zwei Nutzern und erweitern dieses Szenario auf einen Relay-Kanal mit mehreren Nutzern und mehreren Antennen.
Die Arbeit wird abgerundet, indem wir eine Implementierung des Compute-and-Forward Frameworks mit Software-Defined Radio demonstrieren. Wir zeigen am Beispiel von zwei Nutzern und einem Relay, dass sich das Framework eignet, um in realen Szenarien eingesetzt zu werden. Wir diskutieren mögliche Verbesserungen und zeigen Richtungen für weitere Forschungsarbeit auf.
|
43 |
Graphical Support for the Design and Evaluation of Configurable Logic BlocksErxleben, Fredo 15 January 2016 (has links) (PDF)
Developing a tool supporting humans to design and evaluate CLB-based circuits requires a lot of know-how and research from different fields of computer science.
In this work, the newly developed application q2d, especially its design and implementation will be introduced as a possible tool for approaching CLB circuit development with graphical UI support.
Design decisions and implementation will be discussed and a workflow example will be given.
|
44 |
Resource Allocation in Underlay and Overlay Spectrum SharingLv, Jing 20 January 2015 (has links) (PDF)
As the wireless communication technologies evolve and the demand of wireless services increases, spectrum scarcity becomes a bottleneck that limits the introduction of new technologies and services. Spectrum sharing between primary and secondary users has been brought up to improve spectrum efficiency.
In underlay spectrum sharing, the secondary user transmits simultaneously with the primary user, under the constraint that the interference induced at the primary receiver is below a certain threshold, or a certain primary rate requirement has to be satisfied. Specifically, in this thesis, the coexistence of a multiple-input single-output (MISO) primary link and a MISO/multiple-input multiple-output (MIMO) secondary link is studied. The primary transmitter employs maximum ratio transmission (MRT), and single-user decoding is deployed at the primary receiver. Three scenarios are investigated, in terms of the interference from the primary transmitter to the secondary receiver, namely, weak interference, strong interference and very strong interference, or equivalently three ranges of primary rate requirement. Rate splitting and successive decoding are deployed at the secondary transmitter and receiver, respectively, when it is feasible, and otherwise single-user decoding is deployed at the secondary receiver. For each scenario, optimal beamforming/precoding and power allocation at the secondary transmitter is derived, to maximize the achievable secondary rate while satisfying the primary rate requirement and the secondary power constraint. Numerical results show that rate splitting at the secondary transmitter and successive decoding at the secondary receiver does significantly increase the achievable secondary rate if feasible, compared with single-user decoding at the secondary receiver.
In overlay spectrum sharing, different from underlay spectrum sharing, the secondary transmitter can utilize the knowledge of the primary message, which is acquired non-causally (i.e., known in advance before transmission) or causally (i.e., acquired in the first phase of a two-phase transmission), to help transmit the primary message besides its own message. Specifically, the coexistence of a MISO primary link and a MISO/MIMO secondary link is studied. When the secondary transmitter has non-causal knowledge of the primary message, dirty-paper coding (DPC) can be deployed at the secondary transmitter to precancel the interference (when decoding the secondary message at the secondary receiver), due to the transmission of the primary message from both transmitters. Alternatively, due to the high implementation complexity of DPC, linear precoding can be deployed at the secondary transmitter. In both cases, the primary transmitter employs MRT, and single-user decoding is deployed at the primary receiver; optimal beamforming/precoding and power allocation at the secondary transmitter is obtained, to maximize the achievable secondary rate while satisfying the primary rate requirement and the secondary power constraint. Numerical results show that with non-causal knowledge of the primary message and the deployment of DPC at the secondary transmitter, overlay spectrum sharing can achieve a significantly higher secondary rate than underlay spectrum sharing, while rate loss occurs with the deployment of linear precoding instead of DPC at the secondary transmitter.
When the secondary transmitter does not have non-causal knowledge of the primary message, and still wants to help with the primary transmission in return for the access to the spectrum, it can relay the primary message in an amplify-and-forward (AF) or a decode-and-forward (DF) way in a two-phase transmission, while transmitting its own message. The primary link adapts its transmission strategy and cooperates with the secondary link to fulfill its rate requirement. To maximize the achievable secondary rate while satisfying the primary rate requirement and the primary and secondary power constraints, in the case of AF cooperative spectrum sharing, optimal relaying matrix and beamforming vector at the secondary transmitter is obtained; in the case of DF cooperative spectrum sharing, a set of parameters are optimized, including time duration of the two phases, primary transmission strategies in the two phases and secondary transmission strategy in the second phase. Numerical results show that with the cooperation from the secondary link, the primary link can avoid outage effectively, especially when the number of antennas at the secondary transceiver is large, while the secondary link can achieve a significant rate.
Power is another precious resource besides spectrum. Instead of spectrum efficiency, energy-efficient spectrum sharing focuses on the energy efficiency (EE) optimization of the secondary transmission. The EE of the secondary transmission is defined as the ratio of the achievable secondary rate and the secondary power consumption, which includes both the transmit power and the circuit power at the secondary transmitter. For simplicity, the circuit power is modeled as a constant. Specifically, the EE of a MIMO secondary link in underlay spectrum sharing is studied. Three transmission strategies are introduced based on the primary rate requirement and the channel conditions. Rate splitting and successive decoding are deployed at the secondary transmitter and receiver, respectively, when it is feasible, and otherwise single-user decoding is deployed at the secondary receiver. For each case, optimal transmit covariance matrices at the secondary transmitter are obtained, to maximize the EE of the secondary transmission while satisfying the primary rate requirement and the secondary power constraint. Based on this, an energy-efficient resource allocation algorithm is proposed. Numerical results show that MIMO underlay spectrum sharing with EE optimization can achieve a significantly higher EE compared with MIMO underlay spectrum sharing with rate optimization, at certain SNRs and with certain circuit power, at the cost of the achievable secondary rate, while saving the transmit power. With rate splitting at the secondary transmitter and successive decoding at the secondary receiver if feasible, a significantly higher EE can be achieved compared with the case when only single-user decoding is deployed at the secondary receiver.
Moreover, the EE of a MIMO secondary link in overlay spectrum sharing is studied, where the secondary transmitter has non-causal knowledge of the primary message and employs DPC to obtain an interference-free secondary link. Energy-efficient precoding and power allocation is obtained to maximize the EE of the secondary transmission while satisfying the primary rate requirement and the secondary power constraint. Numerical results show that MIMO overlay spectrum sharing with EE optimization can achieve a significantly higher EE compared with MIMO overlay spectrum sharing with rate optimization, at certain SNRs and with certain circuit power, at the cost of the achievable secondary rate, while saving the transmit power. MIMO overlay spectrum sharing with EE optimization can achieve a higher EE compared with MIMO underlay spectrum sharing with EE optimization. / Aufgrund der rasanten Entwicklung im Bereich der drahtlosen Kommunikation und der ständig steigenden Nachfrage nach mobilen Anwendungen ist die Knappheit von Frequenzbändern ein entscheidender Engpass, der die Einführung neuer Funktechnologien behindert. Die gemeinsame Benutzung von Frequenzen (Spektrum-Sharing) durch primäre und sekundäre Nutzer ist eine Möglichkeit, die Effizienz bei der Verwendung des Spektrums zu verbessern.
Bei der Methode des Underlay-Spektrum-Sharing sendet der sekundäre Nutzer zeitgleich mit dem primären Nutzer unter der Einschränkung, dass für den primären Nutzer die erzeugte Interferenz unterhalb eines Schwellwertes liegt oder gewisse Anforderungen an die Datenrate erfüllt werden. In diesem Zusammenhang wird in der Arbeit insbesondere die Koexistenz von Mehrantennensystemen untersucht. Dabei wird für die primäre Funkverbindung der Fall mit mehreren Sendeantennen und einer Empfangsantenne (MISO) angenommen. Für die sekundäre Funkverbindung werden mehrere Sendeantennen und sowohl eine als auch mehrere Empfangsantennen (MISO/MIMO) betrachtet. Der primäre Sender verwendet Maximum-Ratio-Transmission (MRT) und der primäre Empfänger Einzelnutzerdecodierung. Für den sekundären Nutzer werden außerdem am Sender eine Datenratenaufteilung (rate splitting) und am Empfänger entweder eine sukzessive Decodierung – sofern sinnvoll – oder andernfalls eine Einzelnutzerdecodierung verwendet.
Im Unterschied zur Methode des Underlay-Spektrum-Sharing kann der sekundäre Nutzer beim Verfahren des Overlay-Spektrum-Sharing die Kenntnis über die Nachrichten des primären Nutzers einsetzen, um die Übertragung sowohl der eigenen als auch der primären Nachrichten zu unterstützen. Das Wissen über die Nachrichten erhält er entweder nicht-kausal, d.h. vor der Übertragung, oder kausal, d.h. während der ersten Phase einer zweistufigen Übertragung. In der Arbeit wird speziell die Koexistenz von primären MISO-Funkverbindungen und sekundären MISO/MIMO-Funkverbindungen untersucht. Bei nicht-kausaler Kenntnis über die primären Nachrichten kann der sekundäre Sender beispielsweise das Verfahren der Dirty-Paper-Codierung (DPC) verwenden, welches es ermöglicht, die Interferenz durch die primären Nachrichten bei der Decodierung der sekundären Nachrichten am sekundären Empfänger aufzuheben. Da die Implementierung der DPC mit einer hohen Komplexität verbunden ist, kommt als Alternative auch eine lineare Vorcodierung zum Einsatz. In beiden Fällen verwendet der primäre Transmitter MRT und der primäre Empfänger Einzelnutzerdecodierung. Besitzt der sekundäre Nutzer keine nicht-kausale Kenntnis über die primären Nachrichten, so kann er als Gegenleistung für die Mitbenutzung des Spektrums dennoch die Übertragung der primären Nachrichten unterstützen. Hierfür leitet er die primären Nachrichten mit Hilfe der Amplify-And-Forward-Methode oder der Decode-And-Forward-Methode in einer zweitstufigen Übertragung weiter, währenddessen er seine eigenen Nachrichten sendet. Der primäre Nutzer passt seine Sendestrategie entsprechend an und kooperiert mit dem sekundären Nutzer, um die Anforderungen an die Datenrate zu erfüllen.
Nicht nur das Spektrum sondern auch die Sendeleistung ist eine wichtige Ressource. Daher wird zusätzlich zur Effizienz bei der Verwendung des Spektrums auch die Energieeffizienz (EE) einer sekundären MIMO-Funkverbindung für das Underlay-Spektrum-Sharing-Verfahren analysiert. Wie zuvor wird für den sekundären Nutzer am Sender eine Datenratenaufteilung (rate splitting) und am Empfänger entweder eine sukzessive Decodierung oder eine Einzelnutzerdecodierung betrachtet. Weiterhin wird die EE einer sekundären MIMO-Funkverbindung für das Overlay-Spektrum-Sharing-Verfahren untersucht. Dabei nutzt der sekundäre Nutzer die nicht-kausale Kenntnis über die primären Nachrichten aus, um mittels DPC eine interferenzfreie sekundäre Funkverbindung zu erhalten.
|
45 |
Vom Energiekonsum zur Energieeffizienz.Wölfel, Sylvia 19 May 2016 (has links) (PDF)
Aus der Einführung:
"Werbung für elektrische Haushaltsgroßgeräte spielte für die Durchsetzung und breite Akzeptanz von Elektrizität in den Privathaushalten der ersten Hälfte des 20. Jahrhunderts eine wichtige Rolle. Diese ist in zahlreichen Studien zur Technisierung des Haushaltes beschrieben worden.1 Im Zeichen einerbreitenwirksamen Ökologisierung von Politik und Alltag seit den 1970er Jahren entwickelte sich in den darauf folgenden Jahrzehnten eine neue Verbindung von Energieversorgung und Hausgerätekonsum. Standen bis 1970 Argumente der Arbeitserleichterung und Zeitersparnis durch elektrische Hausgeräte im Vordergrund von Werbebemühungen, so wurde dies in einem bis zur Gegenwart andauernden Prozess durch Hinweise auf einen besonders geringen Stromverbrauch von Kühlschränken oder Waschmaschinen ergänzt. Das Fortschrittsversprechen eines vollelektrischen Haushaltes sollte unter ökologischen Vorzeichen neu verhandelt werden und im Fortschrittsversprechen eines energieeffizienten Haushaltes seinen heutigen Ausdruck finden."
|
46 |
Entwurf eines Empfängers für die drahtlose Datenübertragung bei 60 GHzSchumann, Stefan 09 July 2013 (has links) (PDF)
Die vorliegende Arbeit befasst sich mit dem Entwurf eines monolithisch integrierten 60-GHz-Empfängerschaltkreises in einer modernen Silizium-Germanium-Halbleitertechnologie mit 190 GHz maximaler Transitfrequenz. Drei für die Entwicklung von MMIC-Empfängerschaltkreisen äußerst wichtige Prinzipien liegen dem Entwurf zugrunde: die Optimierung von Rauschverhalten und Bandbreite sowie die Betrachtung der maximal erreichbaren Ausgangsleistung. Diese Prinzipien werden detailliert untersucht und typische Schaltungen dahingehend analysiert. Insbesondere wird eine Methode vorgestellt, die es erlaubt, die maximale Ausgangsleistung für die häufig verwendete Kaskodestufe vorherzusagen. Dabei handelt es sich um eine Erweiterung der Methode der Lastkurve nach Cripps. Weiterhin werden Ansätze zur Modellierung von Leitungen vorgestellt und ihre Verwendbarkeit für die unterschiedlichen Simulationsarten diskutiert.
Der Hauptteil der Arbeit behandelt den Entwurf des Empfängerschaltkreises, welcher aus einem breitbandigen Eingangsverstärker mit niedrigem Rauschen und einstellbarer Verstärkung, einem Leistungsteiler, einem direkten Quadratur-Abwärtsmischer, einem Basisbandverstärker, einem Treiberverstärker für das Lokaloszillatorsignal sowie einem 90°-Phasenschieber besteht. Zusätzlich sind verschiedene Referenzstrom- und -spannungsquellen im Schaltkreis integriert. Die gefertigte Schaltung wurde messtechnisch vollständig charakterisiert, und alle Ergebnisse sind wiedergegeben. Der gemessene Mischgewinn beträgt bis zu 40 dB bei einer Bandbreite von mehr als 15 GHz. Die Zweiseitenbandrauschzahl liegt bei moderaten 7,5 dB. Die gemessene Phasen- und Amplitudenabweichung sind geringer als 5° und geringer als 0,15 dB. Die Gesamtschaltung nimmt 360 mW Leistung aus einer 2,2-V-Spannungsquelle auf. Insbesondere die Bandbreite des Empfängerschaltkreises stellt eine Verbesserung des aktuellen Standes der Technik dar. / The present work studies the development of a monolithic 60 GHz receiver IC in a modern 190 GHz-fT silicon-germanium semiconductor technology. The design is based on three fundamental principles, which are of great importance for MMIC receiver design: noise optimisation, bandwidth enhancement and output power considerations. Those principles are discussed in detail, and typical circuit examples are comprehensively analysed. Specifically, a method is presented that allows the prediction of output power for the frequently-used cascode stage. This method is an extension of Cripps’ load line theory. Furthermore, modelling approaches for transmission lines and their suitability for various types of simulations are discussed.
The main part focuses on the design process of the receiver IC, which consists of a broadband low noise amplifier with variable gain, a power divider, a zero-IF quadrature mixer, a baseband amplifier, an LO driver amplifier and a 90°-phase shifter. Additionally, several reference current and voltage sources are implemented in the IC. The manufactured circuit is characterised in detail, and all measurement results are presented. Over a bandwidth of more than 15 GHz, the measured conversion gain is up to 40 dB with a moderate double sideband noise figure of 7.5 dB. An I/Q imbalance measurement reveals a phase accuracy of better than 5° and an amplitude error of less than 0.15 dB. The total power consumption is 360 mW from a 2.2 V-source. Particularly in terms of bandwidth, the circuit performance exceeds the current state of the art.
|
47 |
Beiträge zur Dispersionskompensation basierend auf der Modenkonversion in höhere Moden und der Ausbreitung dieser Moden in Lichtwellenleitern / Investigation of dispersion compensation techniques based on mode conversion into higher order modes and propagation of these modes in optical wave guidesOtto, Michael 02 August 2007 (has links) (PDF)
Besides attenuation, dispersion is the major limiting factor in high data rate fiber optical transmission systems. Dispersion compensation techniques have to be deployed in order to increase the data bandwidth or the reach of fiber optical links. Typically fixed value dispersion compensators are used. However at channel bit rates of 40 GBit/s and beyond adjustable residual dispersion compensator modules (DCM) are needed to guarantee an error free transmission under changing environmental conditions. In this thesis dispersion techniques were investigated which exploit the special propagation properties of higher order modes in custom-designed optical fibers. After a short introduction of state-of-the-art dispersion techniques and their parameters (chapter 2) the modeling and calculation of propagation properties of a particular mode in an optical fiber with an arbitrary, rotation-symmetric refractive index profile is shown (chapter 3). A converter from the fundamental mode and back is needed in order to exploit the propagation properties of a higher order mode (HOM). In this work long-period gratings (LPG) were considered as mode converters (chapter 4) as they can excite selective and nearly lossless a higher order mode. The modeling und calculation of these gratings, based on the fiber calculation of chapter 3, is presented in the first part of chapter 4. Afterwards the manufacturing methods developed during this work are introduced. The spectral properties of realized long-period gratings are discussed and the influence of such factors as strain and temperature on tuning the mode conversion is shown. A dispersion compensator type utilizing only the waveguide dispersion of a certain mode in a custom few mode fiber (FMF) is the subject of chapter 5. The working principle, the fiber design process and first measurements of a realized HOM-DCM with almost completely coupling FMF-LPG are presented. Subsequently the principle of a novel dispersion compensator with an arbitrary dispersion function for a higher or the fundamental mode is explained. In chapter 6 another type of dispersion compensator is investigated consisting of equally distributed long-period gratings along an optical fiber. The fiber pieces between the gratings create a certain time delay between the fundamental mode and the considered higher order mode. It is shown in simulations and in an experiment, that by tuning the mode conversion of each grating and the optical phase relation between the two signal paths in each fiber piece this finite impulse filter structure is so adjusted to function as a tunable residual dispersion compensator.
|
48 |
Beitrag zur Entwicklung von Störstrahlungstests im Nahfeld großer PrüflingeSorge, Wolfram 09 February 2010 (has links) (PDF)
In dieser Arbeit wird das Verhalten der Störstrahlung großer Prüflinge untersucht mit dem
Ziel, vorhandene Standards für Störstrahlungstests wie CISPR 16 zu verbessern.
Diese Arbeit sieht als Standardtestumgebung einen reflektierenden, ausgedehnten Grund
vor, auf dem sich der Prüfling befindet. Die Strahlung, die dieser aussendet, wird durch
die Verteilung der elektrischen Feldstärke auf einer Testhalbkugel oberhalb des Grunds bewertet.
Ihr Zentrum befindet sich am Fußpunkt des Prüflings. Eine solche Halbkugel stellt
nahezu gleiche Abstände von etwa der Länge des Kugelradius' zwischen dem Prüfling und
den auf ihr definierten Meßpunkten her. Da die Halbkugel geschlossen ist, kann auf ihr das
gesamte vom Prüfling nach außen gestrahlte Feld nachgewiesen werden.
Meßabstände mit in Normen vorgegebenen Längen sind in der Praxis nicht immer einzuhalten,
vor allem dann, wenn sich Prüflinge in einer normalen Betriebsumgebung befinden.
In beengten Umgebungen ist es hilfreich, Meßabstände zu verkürzen. Hieraus ergibt sich
eine kleinere Testhalbkugel, die sich leichter abtasten läßt.
Bei kurzen Meßabständen jedoch können Meßsonden in das Nahfeld des Prüflings ragen.
Für diesen Fall werden in dieser Arbeit Feldeigenschaften in Prüflingsnähe untersucht. Aus
denen ergeben sich Mindestabstände zum Prüfling, jenseits derer sich gemessene Feldstärkewerte
zu größeren, in Normen vorgegebenen Abständen extrapolieren lassen.
Um die Verteilung der Feldstärke auf einer Testfläche zu beschreiben, wird der Begriff der
Halbwertsfläche eingeführt: Die Halbwertsfläche definiert jenen Teil der Testfläche, auf dem
die Dichte der abgestrahlten Leistung mindestens die Hälfte ihres Maximums beträgt. Die
Halbwertsfläche ergibt sich aus der Richtwirkung des Prüflings als Strahler. Sie ist somit
ein Maß für die Wahrscheinlichkeit, auf der Testfläche das Strahlungsmaximum zu finden.
Aus der Größe der Halbwertsfläche ergibt sich die nötige Anzahl an gleichmäßig auf der
Testfläche verteilten Meßpunkten, um das Strahlungsmaximum mit gegebener Wahrscheinlichkeit
zu finden. Wird an den Meßpunkten die Größe der Feldstärke berücksichtigt, läßt
sich die Anzahl der Meßpunkte optimieren und das Vertrauen in den Test erhöhen.
Als ein erster Schritt zur Entwicklung einer praktikablen Strahlungstestmethode wird die
Testdrahtmethode untersucht. Bei dieser Methode wird Strahlung mit einem langen, um
den Prüfling herum gespannten Draht erfaßt. Die Strahlung induziert in dem Draht einen
Strom, der an den Drahtabschlüssen gemessen werden kann. Weil der Draht i. allg. lang
ist, ist er sehr meßempfindlich. Ist er jedoch länger als eine Wellenlänge des abgestrahlten
Felds, sind sein Übertragungsfaktor und damit die Meßergebnisse schwer zu bestimmen.
Statistische Methoden der Auswertung werden hierzu untersucht.
Ein System aus kleinen Meßsonden kann denselben Teil des Prüflings abdecken wie ein
Testdraht. Weil als Übertragungsfaktor eines solchen Systems der einer Einzelsonde wirksam
ist, lassen sich Ergebnisse aus Messungen mit einem solchen System leichter auswerten.
Jedoch ist die Empfindlichkeit kleiner Sonden i. allg. gering. Der Weg zu einer praktischen
Anwendung führt somit vorerst in die Richtung herkömmlicher Meßantennen, die in einem
beweglichen System geeignete Testflächen abtasten. - (Die Dissertation ist veröffentlicht im Jörg Vogt Verlag, Dresden, Deutschland, http://www.vogtverlag.de, ISBN: 978-3-938860-25-0) / In this work the behavior of radiation emitted by large equipment is investigated. The aim
of investigation is to improve existing standardized radiation tests.
The radiation from an EUT (equipment under test) placed on reflecting ground is described
by the distribution of the electric field strength on a hemispheric test area, which encloses
the EUT placed in its center. This kind of area guarantees a nearly equal measurement
distance to the EUT from every point defined on it. This distance is
defined by the radius
of the hemisphere. However, measurement distances according to standards are difficult to
realize. Because of practical constraints shorter distances will become useful. This requires
a smaller test area, to be scanned more easily.
At shorter measurement distances field probes are possibly located in the near field of the
EUT. Therefore this work investigates the behavior of the field in the vicinity of the EUT to
find an adequate transition point, beyond which, field strength values can be extrapolated
to distances instructed by standards with confident results.
An important parameter of the field strength distribution is the half-power area. It defines
that part of the test area where the radiated power exceeds the half of its maximum. The
half-power area is related to the directivity of the EUT, which can be approximated by
antenna theory or statistics. If the directivity of the EUT is high, the half-power area is
small, and the probability to find the field maximum on the test area is low.
The size of the half-power area yields to a least number of observation points, equally
distributed on the test area, to find the field maximum with a high level of confidence. If
the field strength measured at any observation point is considered, the distance to other
observation points can be optimized, and the level of confidence in the test can be increased.
As a first step in developing a practicable field scanning method is highlighted: the test
wire method. This method establishes a measurement executed by a long wire which covers
the EUT. At its terminations current can be measured induced by the radiation. Because
the wire is long it is very sensitive. However, if it is longer than one wave length of the
radiation, the evaluation of results is difficult because of an uncertain transmission factor.
Therefore, some statistic methods are applied to describe the behavior of results and their
maxima.
Also a system of small probes, e. g. short dipoles, can cover the same part of the EUT as
a test wire. The measurement with small probes can be evaluated more easily because of
a unique transmission factor. However, their sensitivity is lower.
|
49 |
Bestimmung der Dienstgütezuverlässigkeit in zusammengesetzten Dienstleistungen im Internet der DiensteStrunk, Anja 29 December 2010 (has links) (PDF)
Das Anbieten, die Vermittlung und der Konsum von Softwarekomponenten nach dem Paradigma „Software-as-a-Service“ über das Internet wird zunehmend populärer. Diese so genannten elektronischen Dienstleistungen unterschiedlicher Komplexität werden auf Netzwerkservern zur Verfügung gestellt und können von anderen Anwendungen eingebunden werden. Damit können Ressourcen für die Entwicklung und das Betreiben eigener Dienste eingespart werden. Traditionelle Beispiele solcher Dienste sind Währungsumrechnungen oder Wettervorhersagen , aber auch komplexere Geschäftsprozesse, wie z.B. Rechnungsprüfdienste , werden vermehrt als elektronische Dienste bereitgestellt.
Voraussetzung für die Akzeptanz der elektronischen Dienstleistungen ist die Absicherung deren Dienstgüte (engl. Quality of Service). Die Dienstgüte gibt Auskunft darüber, wie gut ein Dienst seine Funktion erbringt. Klassische Parameter sind Antwortzeit oder Verfügbarkeit. Die Betrachtung der Dienstgüte hat für den Dienstnutzer als auch für den Dienstanbieter Vorteile: Durch die Angabe der Dienstgüte kann sich der Dienstanbieter von seiner Konkurrenz abgrenzen, während der zukünftige Dienstnutzer in der Lage ist, die Performanz seiner Systeme, welche den Dienst integrieren, abzuschätzen. Beide Parteien streben eine möglichst hohe Dienstgüte an.
Die Bestimmung der Dienstgüte in zusammengesetzten Dienstleistungen wurde in den letzten Jahren viel diskutiert. In diesem Zusammenhang ist besonders die Dienstgütezuverlässigkeit eines Dienstes wichtig. Die Dienstgütezuverlässigkeit gibt an, wie sicher es einem Dienst gelingt, seine Qualitätsversprechen einzuhalten. Je nach Kontext spricht man von relativer oder absoluter Dienstgütezuverlässigkeit. Die relative Dienstgütezuverlässigkeit bezieht sich auf die Fähigkeit eines Dienstes seine Dienstgütegarantien während der nächsten Interaktion einzuhalten, während sich die absolute Dienstgütezuverlässigkeit auf den Zeitraum der nächsten n Interaktionen bezieht. Verletzt ein Dienst eine Dienstgütegarantie, weil er beispielsweise nicht in der vorgegebenen Zeit antwortet, so gefährdet der Dienstnutzer die Performanz seiner Systeme, während der Dienstanbieter mit Strafzahlungen zu rechnen hat.
Die Bestimmung der Dienstgütezuverlässigkeit einer zusammengesetzten Dienstleistung hat verschiedene Vorteile. Sie gestattet dem Dienstanbieter z.B. drohende Qualitätsverschlechterungen vorherzusagen und auf diese geeignet zu reagieren. Auch der Dienstnutzer profitiert von der Existenz der Dienstgütezuverlässigkeit. Er kann z.B. das Risiko für seine Systeme besser kalkulieren.
Ziel dieser Arbeit ist die Bestimmung der Dienstgütezuverlässigkeit in zusammengesetzten Dienstleistungen. Zu diesem Zweck wird die Dienstgütezuverlässigkeit von Teildiensten auf Basis ihrer Monitoring-Historie vorhergesagt. Die Monitoring-Historie protokolliert für jeden Dienst und jede Dienstgütegarantie, ob in vergangenen Interaktionen Dienstgüteverletzungen stattgefundenen haben. Die Dienstgütezuverlässigkeit eines Teildienstes wird als Verletzungswahrscheinlichkeit gemessen, die angibt, wie wahrscheinlich eine Dienstgüteverletzung durch den Teildienst ist.
Für die Vorhersage der relativen Verletzungswahrscheinlichkeit kommt eine Markov-Kette erster Ordnung zum Einsatz. Die Bestimmung der absoluten Verletzungswahrscheinlichkeit beruht auf den Prinzipien der allgemeinen Stochastik. Die Berechnungszeit beträgt in beiden Fällen wenige Millisekunden. Beide Verfahren liefern äußerst zuverlässige Vorhersagewerte.
Auf Basis der Verletzungswahrscheinlichkeiten der Teildienste wird die Dienstgütezuverlässigkeit der zusammengesetzten Dienstleistung bestimmt. Sie kann detailliert in Form der Verletzungsmatrix oder als einfacher numerischer Wert in Form der Verletzungszahl angegeben werden. Die Verletzungsmatrix einer Dienstgütegarantie enthält die Eintrittswahrscheinlichkeit für jede mögliche Anzahl von Dienstgüteverletzungen. Ihre Aufstellung erfordert exponentiellen Aufwand. Demgegenüber besitzt die Verletzungszahl eine lineare Berechnungszeit. Sie gibt die Belastung einer Dienstleistung mit Dienstgüteverletzungen an. Die Dienstgütezuverlässig ist dabei umso geringer je kleiner die Werte der Verletzungsmatrix und Verletzungszahl sind.
|
50 |
Beeinflussung funktionaler Schichteigenschaften bei der thermischen Atomlagenabscheidung von Tantalnitrid sowie Ruthenium / Influence of functional layer properties at the atomic layer deposition of tantalnitride and rutheniumWalther, Tillmann 03 June 2015 (has links) (PDF)
Thermische TaN ALD mit den Präkursoren TBTDET und TBTEMT, NH3 als zweiten Reaktanten und Ar als inertes Spülgas ist untersucht worden. Als Messverfahren zur Bewertung ist zeitlich aufgelöste in-situ spektroskopische Ellipsometrie mit einer Datenerfassungsrate von 0,86 Datenpunkte/s, sowie in-vacuo XPS und AFM verwendet worden. Es konnten sehr glatte homogene geschlossene TaN-Dünnschichten mit einem Ta:N-Verhältnis von 0,6, -Verunreinigungen von ca. 5 at.% (TBTDET) bzw. 9 at.% (TBTEMT) und einem GPC von ca. 0,6 nm/Zyklus im linearen Wachstumsbereich hergestellt werden. Eine O3-Vorbehandlung einer SiO2-Oberfläche beschleunigt die initiale Phase der TaN-Abscheidung. Die abgeschiedenen TaN-Schichten zeigen sich sehr reaktiv auf O2. / Thermal ALD with the precursors TBTDET and TBTEMT, NH3 as the second reactant and Ar as inert purging gas was studied. For measuring purposes time-resolved in-situ spectroscopic ellipsometry with an data acquisition rate of 0,86 data points/s, in-vacuo XPS
and AFM was used. It was possible to deposit very smmoth homogenous closed TaN thin films with a Ta:N rate of about 0,6, contaminations of 5 at.% (TBTDET) and 9 at.% (TBTEMT), respectively, and a GPC of about 0,6 nm/Zyklus. An O3 pretreatment of a
SiO2 surface accelerated the initial phase of the TaN atomic layer deposition (ALD) deposition. These TaN-Schichten were very reactiv against O2.
|
Page generated in 0.0669 seconds