• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 9
  • 4
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 67
  • 67
  • 19
  • 13
  • 12
  • 12
  • 11
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Low complexity channel models for approximating flat Rayleigh fading in network simulations

McDougall, Jeffrey Michael 30 September 2004 (has links)
The intricate dependency of networking protocols upon the performance of the wireless channel motivates the investigation of network channel approximations for fading channels. Wireless networking protocols are increasingly being designed and evaluated with the assistance of networking simulators. While evaluating networking protocols such as medium access control, routing, and reliable transport, the network channel model, and its associated capacity, will drastically impact the achievable network throughput. Researcher relying upon simulation results must therefore use extreme caution to ensure the use of similar channel models when performing protocol comparisons. Some channel approximations have been created to mimic the behavior of a fading environment, however there exists little to no justification for these channel approximations. This dissertation addresses the need for a computationally efficient fading channel approximation for use in network simulations. A rigorous flat fading channel model was developed for use in accuracy measurements of channel approximations. The popular two-state Markov model channel approximation is analyzed and shown to perform poorly for low to moderate signal-to-noise ratios (SNR). Three novel channel approximations are derived, with multiple methods of parameter estimation. Each model is analyzed for both statistical performance and network performance. The final model is shown to achieve very accurate network throughput performance by achieving a very close matching of the frame run distributions. This work provides a rigorous evaluation of the popular two-state Markov model, and three novel low complexity channel models in both statistical accuracy and network throughput performance. The novel models are formed through attempts to match key statistical parameters of frame error run and good frame run statistics. It is shown that only matching key parameters is insufficient to achieve an acceptable channel approximation and that it is necessary to approximate the distribution of frame error duration and good frame run duration. The final novel channel approximation, the three-state run-length model, is shown to achieve a good approximation of the desired distributions when some key statistical parameters are matched.
12

Two-dimensional Barcodes for Mobile Phones

Lyons, Sarah 15 February 2010 (has links)
There are several potential applications for a high data density barcode that can be easily photographed and decoded by mobile phones, but no such symbology currently exists. As a result, a new barcode was designed to exploit the low-pass characteristic of a camera phone channel and is presented as a means of facilitating wireless optical communication with mobile phones. A channel model was established and subsequent simulation results led to the design of a colour barcode with encoding done in the Discrete Cosine Transform domain. A waterfilling process and a noise-shaping algorithm enhance performance, while a new fast acquisition method allows for rotational and size invariance. An outer Accumulate-Repeat-Accumulate code is employed, followed by an inner Reed Muller code with a rate varying according to spatial frequency. The final barcode data-density is 3.5 times greater than the leading symbology and has proven robust to various impediments imposed by camera phones.
13

Two-dimensional Barcodes for Mobile Phones

Lyons, Sarah 15 February 2010 (has links)
There are several potential applications for a high data density barcode that can be easily photographed and decoded by mobile phones, but no such symbology currently exists. As a result, a new barcode was designed to exploit the low-pass characteristic of a camera phone channel and is presented as a means of facilitating wireless optical communication with mobile phones. A channel model was established and subsequent simulation results led to the design of a colour barcode with encoding done in the Discrete Cosine Transform domain. A waterfilling process and a noise-shaping algorithm enhance performance, while a new fast acquisition method allows for rotational and size invariance. An outer Accumulate-Repeat-Accumulate code is employed, followed by an inner Reed Muller code with a rate varying according to spatial frequency. The final barcode data-density is 3.5 times greater than the leading symbology and has proven robust to various impediments imposed by camera phones.
14

DOCSIS 3.1 cable modem and upstream channel simulation in MATLAB

2015 December 1900 (has links)
The cable television (CATV) industry has grown significantly since its inception in the late 1940’s. Originally, a CATV network was comprised of several homes that were connected to community antennae via a network of coaxial cables. The only signal processing done was by an analogue amplifier, and transmission only occurred in one direction (i.e. from the antennae/head-end to the subscribers). However, as CATV grew in popularity, demand for services such as pay-per-view television increased, which lead to supporting transmission in the upstream direction (i.e. from subscriber to the head-end). This greatly increased the signal processing to include frequency diplexers. CATV service providers began to expand the bandwidth of their networks in the late 90’s by switching from analogue to digital technology. In an effort to regulate the manufacturing of new digital equipment and ensure interoperability of products from different manufacturers, several cable service providers formed a non-for-profit consortium to develop a data-over-cable service interface specification (DOCSIS). The consortium, which is named CableLabs, released the first DOCSIS standard in 1997. The DOCSIS standard has been upgraded over the years to keep up with increased consumer demand for large bandwidths and faster transmission speeds, particularly in the upstream direction. The latest version of the DOCSIS standard, DOCSIS 3.1, utilizes orthogonal frequency-division multiple access (OFDMA) technology to provide upstream transmission speeds of up to 1 Gbps. As cable service providers begin the process of upgrading their upstream receivers to comply with the new DOCSIS 3.1 standard, they require a means of testing the various functions that an upstream receiver may employ. It is convenient for service providers to employ cable modem (CM) plus channel emulator to perform these tests in-house during the product development stage. Constructing the emulator in digital technology is an attractive option for testing. This thesis approaches digital emulation by developing a digital model of the CMs and upstream channel in a DOCSIS 3.1 network. The first step in building the emulator is to simulate its operations in MATLAB, specifically upstream transmission over the network. The MATLAB model is capable of simulating transmission from multiple CMs, each of which transmits using a specific “transmission mode.” The three transmission modes described in the DOCSIS 3.1 standard are included in the model. These modes are “traffic mode,” which is used during regular data transmission; “fine ranging mode,” which is used to perform fine timing and power offset corrections; and “probing” mode, which is presumably used for estimating the frequency response of the channel, but also is used to further correct the timing and power offsets. The MATLAB model is also capable of simulating the channel impairments a signal may encounter when traversing the upstream channel. Impairments that are specific to individual CMs include integer and fractional timing offsets, micro-reflections, carrier phase offset (CPO), fractional carrier frequency offset (CFO), and network gain/attenuation. Impairments common to all CMs include carrier hum modulation, AM/FM ingress noise, and additive white Gaussian noise (AWGN). It is the hope that the MATLAB scripts that make up the simulation be translated to Verilog HDL to implement the emulator on a field-programmable gate array (FPGA) in the near future. In the event that an FPGA implementation is pursued, research was conducted into designing efficient fractional delay filters (FDFs), which are essential in the simulation of micro-reflections. After performing an FPGA implementation cost analysis between various FDF designs, it was determined that a Kaiser-windowed sinc function FDF with roll-off parameter β = 3.88 was the most cost-efficient choice, requiring at total of 24 multipliers when implemented using an optimized structure.
15

Pseudonáhodné posloupnosti v UWB systémech / Pseudo-random sequencies in UWB systems

Laška, Richard January 2008 (has links)
This master´s thesis deals with Ultra-wideband and reveals present stage of this technology and situation on marketplace. In this work I will mention the milestones of its history and describe main fundamentals of communication and modulation methods in UWB systems. This work provides an overview of methods in pseudo-noise code design. The practical part includes UWB system simulation based on BPSK modulation and Directsequence multi-access scenario. This work presents BPSK modulated signal behavior in UWB channel model, where AWGN noise and multi-path energy is taken into account. Only physical layer was tested. At the end of this thesis, the summary and conclusion simulation results will be discussed. Bit error rate characteristic is a product of this testing.
16

An Enhanced Channel Model for Spectrotemporal Integration and Masker Phase Effects

Oh, Yonghee January 2013 (has links)
No description available.
17

Ultra-Wideband Channel Modeling using Singularity Expansion Method

Joshi, Gaurav Gaurang 04 May 2006 (has links)
Ultra-wideband (UWB) communications is expected to revolutionize high data-rate, short-distance wireless communications, providing data-rates in excess of 100 Mbps. However, the wireless channel distorts the transmitted signal by dispersing the signal energy over time. This degrades the output signal-to-noise ratio (SNR) of a correlation based matched-filter receiver, limiting the achievable data-rate and user capacity. Most wideband channel models do not account for all the identified dispersion mechanisms namely the frequency dispersion, the resonant dispersion and the multipath dispersion. The objective of this research is to model resonant dispersion based on the Singularity Expansion Method (SEM) and provide guidelines for UWB receiver design to meet the data capacity. The original contribution of this research is a novel pole dispersion channel model that includes resonant dispersion characterization. An empirical investigation supports our claim that a correlation type matched-filter receiver using a template signal based on the pole dispersion channel model overcomes distortion related losses. Various physical mechanisms responsible for dispersion in UWB communication systems are described in detail. The applicability of the proposed dispersive channel model is evaluated using the optimal matched filter (OMF) receiver. The SEM approach, which was originally proposed for target identification using short pulse radars, offers limited benefits of due to its susceptibility to noise. A combined fuzzy-statistical approach is proposed to improve the robustness of resonant dispersion channel modeling in presence of noise. A natural extension of this doctoral research is to improve buried landmine detection as well as breast tumor detection by applying statistical and fuzzy analysis to the backscatter response. Moreover, radar target identification using UWB short pulses stands to gain tremendously from this research. / Ph. D.
18

Simulation of a Wireless Communication Channel to Determine a Best Topology for a Base Station Array Antenna

Wells, Derek A. 20 February 2003 (has links)
This thesis presents simulation data on array operation in wideband communication systems. It is shown that array structures with closer inter-element spacing outperform structures with much larger inter-element spacing. It is also shown that circular structures outperform linear structures. This performance difference between the classifications of arrays is due largely to the circular array's ability to handle high levels of interference. Even though a diversity combining scheme (MRC) was used in the simulator, the arrays provided interference rejection capabilities due to the closely spaced antenna elements. Though diversity does provide a gain in received signal, relative to the faded signal, realized diversity gain only comes about once interference has been mitigated. This thesis work showed that in an environment with a lot of interferers, the rejection of those interferers by an array is of utmost importance, even more than fading mitigation. / Master of Science
19

The Applicability of the Tap-Delay Line Channel Model to Ultra Wideband

Yang, Liu 30 September 2004 (has links)
Ultra-wideband (UWB) communication systems are highly promising because of their capabilities for high data rate information transmission with low power consumption and low interference and their immunity to multipath fading. More importantly, they have the potential to relieve the "spectrum drought" caused by the explosion of wireless systems in the past decade by operating in the same bands as existing narrowband systems. With the extremely large bandwidth of UWB signals, we need to revisit UWB channel modeling. Specifically we need to verify whether or not the traditional tap-line delay channel model is still applicable to UWB. One essential task involved in channel modeling is deconvolving the channel impulse response from the measurement data. Both frequency domain and time domain techniques were studied in this work. After a comparison, we examined a time domain technique known as the CLEAN algorithm for our channel modeling analysis. A detailed analysis of the CLEAN algorithm is given, as it is found that it is sufficient for our application. The impact of per-path pulse distortion due to various mechanisms on the tap-delay line channel model is discussed. It is shown that with cautious interpretation of the channel impulse response, the tap-line delay channel model is still applicable to UWB. / Master of Science
20

Informationstechnische Aspekte des Historical Text Re-use / Computational Aspects of Historical Text Re-use

BÜCHLER, Marco 29 April 2013 (has links) (PDF)
Gegenstand der Arbeit ----------------------- Was ist Text Re-use? Text Re-use beschreibt die mit unterschiedlichen Absichten mündliche und schriftliche Wiedergabe von Textinhalten. Diese können im Sinne einer Definition das Anerkennen einer Autorität aber auch das Wiedergeben einer besonders interessanten Information sein. Während der Fokus dieser Arbeit auf dem Erstellen eines Hypertextes durch eine Text Re-use Analysis liegt, sind die PageRanking-Technik oder auch bibliometrische Analysen weiterführende Anwendungen. Im Kontext derartiger Einsatzmöglichkeiten kann auf historischen Dokumenten, die dieser Arbeit zugrunde liegen, durch eine automatische Analyse eine noch nie zuvor erstellte Breite von Zitierabhängigkeiten erstellt werden, welche heutzutage Aufschluss darüber geben, was in früheren Zeiten als wichtig erachtet worden ist, auch wenn es in der Gegenwart für Sprachen, wie dem Altgriechischen oder dem Latein, keine Muttersprachler mehr gibt. Stand der Forschung ------------------- In der Plagiarismuserkennung, einer modernen Anwendung von Text Re-use, werden meist einfache Ngramm-Ansätze eingesetzt. Diese Form einer Abtastung eines Textes bietet in erster Linie den Vorteil, dass die benötigte Rechenzeit relativ klein bleibt. Ferner genügt dieser Ansatz, um ein einfaches Copy & Paste zu erkennen. Außerhalb des Plagiarismus stellt sich der Forschungsstand so dar, dass nahezu beliebig Daten und Algorithmen kombiniert werden. Die Ergebnisse geben datenspezifische Charakteristika wieder und sind somit oft nicht auf andere Daten reproduzierbar. Der Forschungsstand reflektiert somit mehr Insellösungen als eine ganzheitliche Sicht auf das Thema. Ganzheitliche Sicht auf Text Re-use ----------------------------------- In Kapitel 2 wird die derzeit vollständigste Systematisierung des Text Re-use vorgenommen. Dies umfasst zwei wesentliche Aspekte: - Es werden insgesamt 45 verschiedene Typisierungen von Textstellen, nachfolgend auch Meme im Sinne eines Gedanken oder Gedankensplitters genannt, eingeführt, welche in der Regel wiederverwendet werden. Entsprechende typisierte Meme reichen nur beispielhaft von Sprichwort, über Schlachtruf und Vers bis hin zur Legende. - Es wird eine Systematik zu verschiedenen Re-use Styles definiert, welche beschreibt, wie ein entsprechendes Meme wiederverwendet wird. Das kann zum Beispiel ein wortwörtliches Zitat aber auch eine Paraphrase oder Allusion sein. Das Ziel dieser ganzheitlichen Sicht besteht darin, grundlegende Eigenschaften der Meme sowie der Re-use Styles zu definieren. Während ein Meme, wie z. B. eine Redewendung, eher kurz und syntaktisch fest verwendet wird, ist es beim größeren Meme Legende üblich, dieses mündlich und damit wesentlich freier wiederzugeben. Während die Typisierung der verschiedenen Meme die Frage aufwirft, warum bestimmte Textinhalte wiederverwendet werden, gibt die zweite Systematik des Re-use Styles Aufschluss darüber, wie jeder persönlich andere Inhalte wiedergibt. Sowohl die Typisierung der verschiedenen Meme mit ihren unterschiedlichen Charakteristika als auch die Systematik der Re-use Styles reflektieren eine Data Diversity, welche eine Herausforderung sowohl für die Text Re-use Analysis aber auch für deren Evaluation aus ganzheitlicher Sicht bedeutet, da es keinen Gold Standard gibt, welcher sowohl alle möglichen Meme als auch die verschiedenen Re-use Styles adäquat repräsentiert. Forschungsfragen ---------------- Aus ganzheitlicher Sicht ergeben sich somit für diese Arbeit die folgenden Forschungsfragen: - Im Kontext der verschiedenen Re-use Styles muss die Frage danach gestellt werden, bis zu welchem Grad der Veränderung ein Text Re-use automatisch noch erkannt werden kann. - Wie kann eine Text Re-use Analysis so gestaltet werden, dass sie auch für unterschiedliche Meme mit verschiedenen Charakteristika gleich gut funktioniert? - Wie können Veränderungen eines wiederverwendenden Autors systematisch bestimmt und extrahiert werden? - Wie kann das Ergebnis einer Text Re-use Analysis in einer Digital Library in Anbetracht der Data Diversity ganzheitlich evaluiert werden? Untersuchungsmethodik und Lösungsansatz --------------------------------------- Da die Data Diversity aus informationstechnischer Sicht nicht mit einem einzelnen Algorithmus bzw. einer kleinen Menge von Ansätzen abgedeckt werden kann, wird in Kapitel 3 die 7-Level-Architektur des Historical Text Re-use vorgestellt. Diese Architektur kann als ein modulares Konzept verstanden werden, um die Text Re-use Analysis auf die verschiedenen Bedürfnisse, bedingt durch spezielle Eigenschaften von Meme, unterschiedlichen Re-use Styles aber auch verschiedenen Sprachvarianten, entsprechend anzupassen. Die einzelnen Level entsprechen den sieben Unteraufgaben Segmentation, Preprocessing, Featuring, Selection, Linking, Scoring und Postprocessing. In Kapitel 3 werden zu jedem Level in einem separaten Abschnitt entsprechende Implementierungen sowohl ausführlich vorgestellt als auch systematisiert. Zur Abgabe dieser Dissertation stehen in der TRACER-Implementierung, welche die 7-Level-Architektur umsetzt, insgesamt über eine Million Kombinationsmöglichkeiten der verschiedenen Ansätze der einzelnen Level zur Verfügung. Sowohl die drei genannten Forschungsfragen als auch die aufgezeigte Data Diversity des Historical Text Re-use werden im Rahmen der Dissertation als hinreichende Motivation verstanden, den Historical Text Re-use in Shannon\'s Noisy Channel Theorem einzubetten. In diesem Kontext kann ein Original- bzw. zitierter Autor als Source und ein wiederverwendender Autor als Target verstanden werden. Der Noisy Channel stellt ein unbekanntes Modell von Modifikationen, den äußeren Einflüssen, dar. In Kapitel 4 wird das Noisy Channel Model dazu eingesetzt, ein zufälliges und rein künstliches Störsignal zum Noisy Channel hinzuzufügen, so dass eine Randomised Digital Library entsteht. Es werden insgesamt fünf Klassen von Randomisierungstechniken, die künstlichen Störsignale, im Sinne eines Turingtests vorgestellt, welche unterschiedliche Schwierigkeitsgrade einer rein quantitativen Evaluierung mit sich bringen. Für diese quantitative Evaluierung, die Noisy Channel Evaluation, wird der neuartige Score der Mining Ability eingeführt. Die Mining Ability setzt hierbei das Ergebnis einer Text Re-use Analysis auf einer Digital Library mit dem Resultat einer durch ein künstliches Störsignal veränderten Randomised Digital Library ins Verhältnis, wodurch nicht nur Parameter optimiert sondern auch verschiedene Sprachmodelle vollautomatisch und bzgl. des Ergebnisses ganzheitlich sowie ohne Gold Standard evaluiert werden können. In Kapitel 5 wird der Noisy Channel als Modell eingesetzt, um historisch paradigmatische Relationen systematisch zu bestimmen. Das ist insbesondere unter Berücksichtigung der großen Zeitfenster von geisteswissenschaftlichen Texten von Interesse, da sich semantische Beziehungen von Konzepten im Laufe der Zeit verändert haben. Ergebnisse ---------- Die Ergebnisse dieser Arbeit sind sehr vielschichtig und umfassen neben Ergebnissen von Evaluierungen, auch Erfahrungen innerhalb der eHumanities sowie der entsprechenden Grundlagenarbeit. Im Detail können die Ergebnisse wie folgt zusammengefasst werden: Es wird im einführenden Kapitel der Dissertation das Paradigma ACID for the eHumanities vorgestellt. ACID ist hierbei eine Abkürzung für Acceptance, Complexity, Interoperability und Diversity. Diese vier Säulen werden als Aspekte vorgestellt, denen sich die Informatik in der Zusammenarbeit mit den Geisteswissenschaften stellen muss. Der Fokus der Arbeit liegt auf der Diversity aber auch Aspekte der Acceptance und Complexity werden ausführlich verdeutlicht. In Kapitel 4 wird neben der Einführung der Noisy Channel Evaluation auch aufgezeigt, welche statistischen Probleme probabilistische Sprachmodelle begleiten. Während probabilistische Sprachmodelle das Gesetz der großen Zahlen und somit eine hinreichend große Auftretenswahrscheinlichkeit voraussetzen, folgen verschiedene Charakteristika natürlicher Sprache einem Power Law, wie dem Zipfschen Gesetz, so dass für den Long Tail dieser Verteilung eine geringe Frequenz zugrunde liegt, woraus letztlich ein statistisches Problem resultiert. Im Detail kann so gezeigt werden, dass der eingeführte Score der Mining Ability bei zunehmender Größe einer Digital Library nach Erreichen eines Maximums wieder sinkt. Das resultiert daraus, dass mit zunehmender Größe der Digital Library vermehrt aus Rauschen als Neuem ``gelernt\'\' wird. Auch wenn Kapitel 4 das auf den Text Re-use einschränkt, so sind die Ergebnisse einfach auf andere probabilistische Sprachmodelle adaptierbar. Insbesondere wird der Widerspruch des Gesetzes der großen Zahlen, welches den auf Wahrscheinlichkeiten aufsetzenden Sprachmodellen implizit zugrunde liegt, und den oftmals sehr seltenen Ereignissen beim Umgang mit natürlichsprachlichen Texten deutlich. In Kapitel 5 wird weiterhin gezeigt, dass es kein Text Re-use Model gibt, welches in jedem Szenario optimale Ergebnisse liefert. Basierend auf sieben Bibelversionen mit unterschiedlichen Bezügen untereinander, wird verdeutlicht, dass sich nicht nur die Algorithmen der 7-Level-Architektur unterscheiden können, sondern auch entsprechende Schwellwerte. Im Rahmen der Arbeit werden zwei rein quantitative Evaluierungsgrößen, die Text Re-use Compression sowie die Noisy Channel Evaluation, eingeführt. In Kapitel 5 wird gezeigt, dass es eine signifikante Korrelation zu existierenden Evaluierungsgrößen gibt, welche jedoch einen Gold Standard oder zumindest eine Evaluierungsgrundlage benötigen. Einerseits gibt es eine nach Pearson sehr starke Korrelation zwischen dem Recall und der Text Re-use Compression. Andererseits wird auch gezeigt, dass das F-Measure sowie die im Rahmen dieser Arbeit eingeführte Noisy Channel Evaluation sehr vergleichbare Evaluierungsergebnisse erzeugen. Das wird im Rahmen einer System Evaluation in Kapitel 5 anhand der sieben Bibelversionen in insgesamt 504 verschiedenen Experimenten dargestellt. Beitrag zur Forschung --------------------- Neben den aufgezeigten Ergebnissen stellt diese Arbeit Grundlagenforschung sowohl in der Systematisierung des Text Re-use aber auch bei der Evaluierung von Ergebnissen dar. Wie eingangs zum Forschungsstand umrissen wurde, verlieren sich derzeit viele Arbeiten in der nahezu beliebigen Kombination aus Daten und Algorithmen. Mit dieser Arbeit wird ein Evaluierungsszenario vorgestellt, welches es ermöglicht, auch ohne Gold Standard das Ergebnis zu bewerten. Somit wird das Resultat nicht mehr durch unterschiedliche Überlappungsgrade zwischen Digital Library und Gold Standard verfälscht. Des Weiteren geht mit dieser Arbeit ein Paradigmenwechsel einher. Während in der Automatischen Sprachverarbeitung Text Re-use bisher aus einer ``1-Algorithmus-Sicht\'\' betrachtet wird, zeigen die Ergebnisse aus Kapitel 5 auf, dass zukünftig stärker der paarweise Vergleich zweier Werke im Forschungsvordergrund stehen sollte. Das geht damit einher, dass jeder Mensch einen eigenen Re-use Style besitzt, so dass durch das paarweise Vergleichen die menschlichen Individualitäten im Fokus der Text Re-use Analysis stehen. Deshalb wird vorgeschlagen, die Einzelergebnisse der werkweisen Vergleiche anschließend zu einem Hybrid Text Re-use Graph zusammenzusetzen. Mit der Noisy Channel Evaluation sowie der Text Re-use Compression stehen nun weiterführend auch vollautomatische Evaluierungstechniken zur Verfügung, so dass eine wesentlich präzisere Text Re-use Analysis möglich ist. Perspektive ----------- Entgegen modernen Anwendungen des Text Re-use, wie dem Plagiarismus, kann der Historical Text Re-use als ein nützliches Instrument verstanden werden, welches nicht nur Evidenzen von Transferwegen, sondern vielmehr auch einen fundamentalen Teil des sprachlich-kulturellen Erbes der Menschheit darstellt. Aus der Vielfalt des Historical Text Re-use ergeben sich für die Informatik im Rahmen der eHumanities vielschichtige Herausforderungen, die Gegenstand dieser Arbeit sind. Im Detail bedeutet das einen Paradigmenwechsel vom Pragmatismus im Vergleich von Sprachmodellen hin zur bestmöglichen Vollständigkeit.

Page generated in 0.1082 seconds