• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3204
  • 1385
  • 480
  • 24
  • 5
  • 4
  • 1
  • Tagged with
  • 5082
  • 3739
  • 2841
  • 2828
  • 2828
  • 1873
  • 1737
  • 1734
  • 1719
  • 1717
  • 1204
  • 713
  • 702
  • 688
  • 678
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Visualization and Analysis of Flow Fields based on Clifford Convolution

Ebling, Julia 19 October 2017 (has links)
Vector fields from flow visualization often containmillions of data values. It is obvious that a direct inspection of the data by the user is tedious. Therefore, an automated approach for the preselection of features is essential for a complete analysis of nontrivial flow fields. This thesis deals with automated detection, analysis, and visualization of flow features in vector fields based on techniques transfered from image processing. This work is build on rotation invariant template matching with Clifford convolution as developed in the diploma thesis of the author. A detailed analysis of the possibilities of this approach is done, and further techniques and algorithms up to a complete segmentation of vector fields are developed in the process. One of the major contributions thereby is the definition of a Clifford Fourier transform in 2D and 3D, and the proof of a corresponding convolution theorem for the Clifford convolution as well as other major theorems. This Clifford Fourier transform allows a frequency analysis of vector fields and the behavior of vectorvalued filters, as well as an acceleration of the convolution computation as a fast transform exists. The depth and precision of flow field analysis based on template matching and Clifford convolution is studied in detail for a specific application, which are flow fields measured in the wake of a helicopter rotor. Determining the features and their parameters in this data is an important step for a better understanding of the observed flow. Specific techniques dealing with subpixel accuracy and the parameters to be determined are developed on the way. To regard the flow as a superposition of simpler features is a necessity for this application as close vortices influence each other. Convolution is a linear system, so it is suited for this kind of analysis. The suitability of other flow analysis and visualization methods for this task is studied here as well. The knowledge and techniques developed for this work are brought together in the end to compute and visualize feature based segmentations of flow fields. The resulting visualizations display important structures of the flow and highlight the interesting features. Thus, a major step towards robust and automatic detection, analysis and visualization of flow fields is taken.
202

Weighted tree automata and quantitative logics with a focus on ambiguity

Paul, Erik 20 October 2017 (has links)
We relate various restrictions of a quantitative logic to subclasses of weighted tree automata. The subclasses are defined by the level of ambiguity allowed in the automata. This yields a generalization of the results by Stephan Kreutzer and Cristian Riveros, who considered the same problem for weighted automata over words. Along the way we also prove that a finitely ambiguous weighted tree automaton can be decomposed into unambiguous ones and define and analyze polynomial ambiguity for tree automata.
203

Versicherbarkeit von Internetrisiken: das Bedrohungspotenzial von Netzwerken durch widerrechtliche Handlungsweisen

Paul, Daniel 20 October 2017 (has links)
Das Internet und die mit ihm verbundenen lokalen Unternehmensnetzwerke spielen in der heutigen Zeit eine zentrale Rolle für den globalen Datenaustausch und die tägliche Informationsbeschaffung. Unternehmen nutzen das Internet, um über einen Webauftritt sich und ihre Produkte dem Kunden vorzustellen, ein hoher Prozentsatz betreibt über diesen Distributionskanal auch den Verkauf von Artikeln und die Bereitstellung von Unterstützungsleistungen. Ebenso bieten e-Mails eine schnelle und unkomplizierte Möglichkeit der Kommunikation und Koordination innerhalb der Unternehmung. Dabei bringt das Internet mit seinem unbeschränkten und unkontrollierbaren Charakter vielfältige erhebliche Sicherheitsrisiken mit sich, die häufig nur ungenügend Beachtung finden. Eine entsprechende technische, aber auch versicherungstechnische Absicherung, ist hier dringend erforderlich. Die vorliegende Arbeit zeigt diese oftmals unterschätzten Risiken und das durch sie entstehende Gefährdungspotenzial auf, wobei eine Fokussierung auf alle diejenigen Arten vorgenommen wird, die durch die sogenannte "widerrechtliche Nutzung" von Netzwerk-Infrastrukturen charakterisiert sind. In einem Abriss der bisherigen Bemühungen um die Versicherbarkeit derartiger Risiken werden herkömmliche Versicherungsprodukte vorgestellt sowie die mit der Versicherbarkeit verbundenen grundlegenden Probleme erläutert. Ebenso wird auf neu angebotene Versicherungslösungen eingegangen und alternative Möglichkeiten des Risikotransfers dargestellt.
204

Entwurf und Implementierung einer echtzeitfähigen Entwicklungsumgebung für Lern- und Evolutionsexperimente mit autonomen Roboter

Pantzer, Thomas 20 October 2017 (has links)
Bausteine auf dem Weg zur in-vivo Roboterevolution. Ein in unbekannter Umgebung agierender autonomer Roboter muss Probleme der Positionsbestimmung, Navigation, Rückkehr zur Basisstation etc. sicher lösen, um seine eigentliche Aufgabe durchführen zu können. In der Vergangenheit wurden verschiedene Ansätze entwickelt, um z.B. die Positionsbestimmung [HPG97][SG98] und Navigation [MLP+98][MM80] zu verbessern oder um effiziente Controller zu entwickeln. Dabei zeigte sich, dass viele Verfahren, die mit Computersimulation entwickelt wurden, nur nach starken Anpassungen für eine bestimmte Hardware ausreichend gut funktionierten. Die bei den meist vereinfachten Computermodellen weggelassenen Eigenschaften der Hardware und die Differenzen von simulierter und realer Welt verursachen oft unvorhergesehene Nebeneffekte. Deshalb ist es notwendig, die neuen Algorithmen und Verfahren auch an 'richtiger' Hardware zu erproben. Im folgenden wird eine Entwicklungsumgebung vorgestellt, mit der neue Algorithmen an konkreter Hardware getestet werden können.
205

Regionenbasierte Partitionierung bei fraktaler Bildkompression mit Quadtrees

Ochotta, Tilo 20 October 2017 (has links)
Fraktale Bildcodierung ist ein leistungsfähiges Verfahren zur Kompression von Bilddaten. In der vorliegenden Arbeit werden zwei verschiedene Ansätze zur notwendigen Partitionierung des zu codierenden Bildes untersucht. Beide Typen zählen zu den regionenbasierten, hochadaptiven Methoden zur Bildpartitionierung, wobei das Bild zunächst in Grundblöcke zerlegt wird, die anschließend geeignet zu Regionen zusammengefaßt werden. Bei der ersten, bereits in früheren Arbeiten eingehend untersuchten Methode bestehen die Grundpartitionen aus quadratischen Blöcken gleicher Größe. Bei der zweiten zu untersuchenden Methode werden die Grundblöcke durch eine Quadtree-Zerlegung gebildet und besitzen damit unterschiedliche Größen. Nach der Anwendung eines entsprechenden Regionen-Merging-Verfahrens ergeben sich Partitionen, die sich sowohl in Struktur als auch in der zur Abspeicherung benötigten Anzahl von Bits unterscheiden. Einerseits weisen die regionenbasierten Partitionen mit Quadtrees eine geradlinigere Struktur auf, weshalb sie sich mit arithmetischer Codierung besser komprimieren lassen als regionenbasierte Partitionen mit uniformen Grundblöcken. Andererseits liefert der Quadtree-basierte Ansatz eine meßbar schlechtere Qualität des decodierten Bildes bei gleicher Anzahl von Regionen. Diese Unterschiede werden in dieser Arbeit untersucht und erläutert. Dazu werden die in der Literatur vorhandenen Ansätze aufgegriffen und weitere Verfahren vorgestellt, die zu einer effizienteren Partitionsabspeicherung führen. Versuche haben gezeigt, daß der Quadtree-basierte Ansatz mit den vorgestellten Neuerungen zu leicht besseren Ergebnissen bezüglich des Rekonstruktionsfehlers als der uniforme Ansatz führt. Die erreichten Werte stellen die zur Zeit besten Resultate bei fraktaler Bildkompression im Ortsraum dar. Auch im Hinblick auf eine schnelle Codierung ist die Anwendung des Quadtree-Schemas im Vergleich zum uniformen Ansatz von Vorteil, es wird bessere Bildqualität bei kürzerer Codierungszeit erreicht.
206

Sicherheitsaspekte kryptographischer Verfahren beim Homebanking

Nöbel, Lars 20 October 2017 (has links)
In der vorliegenden Arbeit werden kryptographische Verfahren und Protokolle vorgestellt, die im HBCI-Standard zum Einsatz kommen. Das Hauptaugenmerk liegt hierbei auf den derzeit verwendeten Algorithmen DES und RSA sowie deren möglichen Nachfolgern Rijndael und ElGamal mit elliptischen Kurven. Die dafür notwendigen mathematischen Grundlagen werden ebenso wie die grundlegenden Begriffe der Kryptographie eingeführt. Es wird auf Sicherheitsaspekte der untersuchten Algorithmen und auf die zukünftige Entwicklung eingegangen. Dabei stellt sich heraus, daß mit den benutzten Verfahren die Sicherheit der Kommunikationspartner nur unwesentlich bis gar nicht beeinträchtigt werden kann. Beim praktischen Einsatz existieren aber noch Lücken, die für einen Angriff ausgenutzt werden können.
207

A 3-valued approach to disbelief

Nittka, Alexander 20 October 2017 (has links)
Es wird eine sprachliche Erweiterung der Aussagenlogik vorgeschlagen. Es handelt sich um eine Art von schwacher Negation ('disbelief'). Eine entsprechende Logik wird entwickelt. Diese wird semantisch charakterisiert. Weiterhin wird auf Schwierigkeiten hingewiesen, die bei der Axiomatisierung auftreten werden.
208

Implementierung und Test einer Emulationsplattform für die Hardware- Softwarepartitionierung eingebetteter Systeme

Nitsch, Carsten 20 October 2017 (has links)
Die steigenden Anforderungen an eingebettete Systeme bewirken eine stetig steigende Komplexität sowohl der Hardware- als auch der Softwarekomponenten eines solchen Systems. Zunehmend werden auch im Embedded-Bereich 32-Bit- Mikrocontroller und Echtzeitbetriebssysteme eingesetzt. Entwickler benötigen daher eine geeignete Emulationsumgebung für den Entwurf eines eingebetteten Systems. Inhalt dieser Arbeit ist die Untersuchung des Laufzeit- verhaltens von Echtzeitbetriebssystemen. Es werden Leistungsbeschränkungen dieser Systeme dargestellt sowie Möglichkeiten zur Umgehung dieser Schranken behandelt.
209

Modellierung und prototypische Implementierung eines Repository-Ansatzes für technische Metadaten in Data Warehouse-Umgebungen

Nguyen, Thi Minh Thu 20 October 2017 (has links)
In den letzten Jahren nimmt die Bedeutung des Data Warehousing für Entscheidungsprozesse stark zu. Für eine Data Warehouse-Umgebung, die mehrere heterogene Datenquellen sowie unterschiedliche Tools integriert, ist ein leistungsfähiges Metadaten-Management unerläßlich. Data Warehouse-Metadaten können in zwei Klassen unterteilt werden: technische und semantische Metadaten. Während semantische Metadaten den Endbenutzern beim Prozeß der Analyse, Abfrage und Navigation zur Verfügung stehen, unterstützen technische Metadaten Administratoren, Entwickler und Programmierer beim Extraktions-, Transformations- und Lade- (ETL-) Prozeß. Eine wesentliche Anforderung an ein mächtiges Metadaten-Management ist die Verwaltung der Metadaten in einem Repository, das die Integration von technischen und semantischen Metadaten, von unterschiedlichen Tools und Software einer Data Warehouse-Umgebung ermöglicht. Aufgrund der Komplexität der Problematik befaßt sich diese Arbeit vor allem mit technischen Metadaten. Mittels der Modellierungssprache UML wird ein Modell für technische Metadaten etabliert. Anschließend wird dieses Metamodells auf dem objektrelationalen DBMS Informix Universal Server Version 9.1 implementiert. Die Programmierung mit ODBC ermöglicht einen einheitlichen Zugriff auf unterschiedliche DBMS. Durch das entwickelte Repository können nicht nur Metadaten bezüglich Inhalt und Struktur verschiedener Datenhaltungssysteme aus den jeweiligen Data Dictionaries importiert, sondern auch Definitionen von Abbildungen zwischen diesen Systemen vorgenommen werden.
210

Fallbasiertes Lernen von Bewertungsfunktionen

Neumeister, Matthias 20 October 2017 (has links)
In der Arbeit wird das Konzept des fallbasierten Schließens zur Verwendung während der Minimax-Baumsuche in Spielbäumen vorgeschlagen. Die Auswirkungen von Änderungen an verschiedenen Parametern des Algorithmus werden anhand dazu durchgeführter Experimente dargestellt. Hervorzuheben sind besonders mehrere Auswahlstrategien, die den Lernprozess erheblich beschleunigen können.

Page generated in 0.0218 seconds