• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 40
  • 11
  • 1
  • 1
  • Tagged with
  • 95
  • 49
  • 40
  • 34
  • 28
  • 22
  • 22
  • 22
  • 20
  • 19
  • 16
  • 15
  • 15
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Netzorientierte Fuzzy-Pattern-Klassifikation nichtkonvexer Objektmengenmorphologien / Fuzzy pattern classification of nonconvex data inherent structures a classifier-network oriented approach

Hempel, Arne-Jens 29 September 2011 (has links) (PDF)
Die Arbeit ordnet sich in das Gebiet der unscharfen Klassifikation ein und stellt im Detail eine Weiterführung der Forschung zur Fuzzy-Pattern-Klassifikation dar. Es handelt sich dabei um eine leistungsfähige systemtheoretische Methodik zur klassifikatorischen Modellierung komplexer, hochdimensionaler, technischer oder nichttechnischer Systeme auf der Basis von metrischen Messgrößen und/oder nichtmetrischen Experten-Bewertungen. Die Beschreibung der Unschärfe von Daten, Zuständen und Strukturen wird hierbei durch einen einheitlichen Typ einer Zugehörigkeitsfunktion des Potentialtyps realisiert. Ziel der Betrachtungen ist die weiterführende Nutzung des bestehenden Klassenmodells zur unscharfen Beschreibung nichtkonvexer Objektmengenmorphologien. Ausgehend vom automatischen datengetriebenen Aufbau der konvexen Klassenbeschreibung, deren vorteilhaften Eigenschaften sowie Defiziten wird im Rahmen der Arbeit eine Methodik vorgestellt, die eine Modellierung beliebiger Objektmengenmorphologien erlaubt, ohne das bestehende Klassifikationskonzept zu verlassen. Kerngedanken des Vorgehens sind: 1.) Die Aggregation von Fuzzy-Pattern-Klassen auf der Basis so genannter komplementärer Objekte. 2.) Die sequentielle Verknüpfung von Fuzzy-Pattern-Klassen und komplementären Klassen im Sinne einer unscharfen Mengendifferenz. 3.) Die Strukturierung des Verknüpfungsprozesses durch die Clusteranalyse von Komplementärobjektmengen und damit der Verwendung von Konfigurationen aus komplementären Fuzzy-Pattern-Klassen. Das dabei gewonnene nichtkonvexe Fuzzy-Klassifikationsmodell impliziert eine Vernetzung von Fuzzy-Klassifikatoren in Form von Klassifikatorbäumen. Im Ergebnis entstehen Klassifikatorstrukturen mit hoher Transparenz, die - neben der üblichen zustandsorientierten klassifikatorischen Beschreibung in den Einzelklassifikatoren - zusätzliche Informationen über den Ablauf der Klassifikationsentscheidungen erfassen. Der rechnergestützte Entwurf und die Eigenschaften der entstehenden Klassifikatorstruktur werden an akademischen Teststrukturen und realen Daten demonstriert. Die im Rahmen der Arbeit dargestellte Methodik wird in Zusammenhang mit dem Fuzzy-Pattern-Klassifikationskonzept realisiert, ist jedoch aufgrund ihrer Allgemeingültigkeit auf eine beliebige datenbasierte konvexe Klassenbeschreibung übertragbar. / This work contributes to the field of fuzzy classification. It dedicates itself to the subject of "Fuzzy-Pattern-Classification", a versatile method applied for classificatory modeling of complex, high dimensional systems based on metric and nonmetric data, i.e. sensor readings or expert statements. Uncertainties of data, their associated morphology and therewith classificatory states are incorporated in terms of fuzziness using a uniform and convex type of membership function. Based on the properties of the already existing convex Fuzzy-Pattern-Class models and their automatic, data-driven setup a method for modeling nonconvex relations without leaving the present classification concept is introduced. Key points of the elaborated approach are: 1.) The aggregation of Fuzzy-Pattern-Classes with the help of so called complementary objects. 2.) The sequential combination of Fuzzy-Pattern-Classes and complementary Fuzzy-Pattern-Classes in terms of a fuzzy set difference. 3.) A clustering based structuring of complementary Fuzzy-Pattern-Classes and therewith a structuring of the combination process. A result of this structuring process is the representation of the resulting nonconvex fuzzy classification model in terms of a classifier tree. Such a nonconvex Fuzzy-Classifier features high transparency, which allows a structured understanding of the classificatory decision in working mode. Both the automatic data-based design as well as properties of such tree-like fuzzy classifiers will be illustrated with the help of academic and real word data. Even though the proposed method is introduced for a specific type of membership function, the underlying idea may be applied to any convex membership function.
42

Strukturelle Ansätze für die Stereorekonstruktion

Shlezinger, Dmytro 18 July 2005 (has links)
Die Dissertation beschäftigt sich mit Labeling Problemen. Dieses Forschungsgebiet bildet einen wichtigen Teil der strukturellen Mustererkennung, in der die Struktur des zu erkennenden Objektes explizit berücksichtigt wird. Die entwickelte Theorie wird auf die Aufgabe der Stereorekonstruktion angewendet. / The thesis studies the class of labeling problems. This theory contributes to the new stream in pattern recognition in which structure is explicitly taken into account. The developed theory is applied to practical problem of stereo reconstruction.
43

Evaluation of Automotive Data mining and Pattern Recognition Techniques for Bug Analysis

Gawande, Rashmi 25 January 2016 (has links)
In an automotive infotainment system, while analyzing bug reports, developers have to spend significant time on reading log messages and trying to locate anomalous behavior before identifying its root cause. The log messages need to be viewed in a Traceviewer tool to read in a human readable form and have to be extracted to text files by applying manual filters in order to further analyze the behavior. There is a need to evaluate machine learning/data mining methods which could potentially assist in error analysis. One such method could be learning patterns for “normal” messages. “Normal” could even mean that they contain keywords like “exception”, “error”, “failed” but are harmless or not relevant to the bug that is currently analyzed. These patterns could then be applied as a filter, leaving behind only truly anomalous messages that are interesting for analysis. A successful application of the filter would reduce the noise, leaving only a few “anomalous” messages. After evaluation of the researched candidate algorithms, two algorithms namely GSP and FP Growth were found useful and thus implemented together in a prototype. The prototype implementation overall includes processes like pre-processing, creation of input, executing algorithms, creation of training set and analysis of new trace logs. Execution of prototype resulted in reducing manual effort thus achieving the objective of this thesis work.
44

Recognition and investigation of temporal patterns in seismic wavefields using unsupervised learning techniques

Köhler, Andreas January 2009 (has links)
Modern acquisition of seismic data on receiver networks worldwide produces an increasing amount of continuous wavefield recordings. Hence, in addition to manual data inspection, seismogram interpretation requires new processing utilities for event detection, signal classification and data visualization. Various machine learning algorithms, which can be adapted to seismological problems, have been suggested in the field of pattern recognition. This can be done either by means of supervised learning using manually defined training data or by unsupervised clustering and visualization. The latter allows the recognition of wavefield patterns, such as short-term transients and long-term variations, with a minimum of domain knowledge. Besides classical earthquake seismology, investigations of temporal patterns in seismic data also concern novel approaches such as noise cross-correlation or ambient seismic vibration analysis in general, which have moved into focus within the last decade. In order to find records suitable for the respective approach or simply for quality control, unsupervised preprocessing becomes important and valuable for large data sets. Machine learning techniques require the parametrization of the data using feature vectors. Applied to seismic recordings, wavefield properties have to be computed from the raw seismograms. For an unsupervised approach, all potential wavefield features have to be considered to reduce subjectivity to a minimum. Furthermore, automatic dimensionality reduction, i.e. feature selection, is required in order to decrease computational cost, enhance interpretability and improve discriminative power. This study presents an unsupervised feature selection and learning approach for the discovery, imaging and interpretation of significant temporal patterns in seismic single-station or network recordings. In particular, techniques permitting an intuitive, quickly interpretable and concise overview of available records are suggested. For this purpose, the data is parametrized by real-valued feature vectors for short time windows using standard seismic analysis tools as feature generation methods, such as frequency-wavenumber, polarization, and spectral analysis. The choice of the time window length is dependent on the expected durations of patterns to be recognized or discriminated. We use Self-Organizing Maps (SOMs) for a data-driven feature selection, visualization and clustering procedure, which is particularly suitable for high-dimensional data sets. Using synthetics composed of Rayleigh and Love waves and three different types of real-world data sets, we show the robustness and reliability of our unsupervised learning approach with respect to the effect of algorithm parameters and data set properties. Furthermore, we approve the capability of the clustering and imaging techniques. For all data, we find improved discriminative power of our feature selection procedure compared to feature subsets manually selected from individual wavefield parametrization methods. In particular, enhanced performance is observed compared to the most favorable individual feature generation method, which is found to be the frequency spectrum. The method is applied to regional earthquake records at the European Broadband Network with the aim to define suitable features for earthquake detection and seismic phase classification. For the latter, we find that a combination of spectral and polarization features favor S wave detection at a single receiver. However, SOM-based visualization of phase discrimination shows that clustering applied to the records of two stations only allows onset or P wave detection, respectively. In order to improve the discrimination of S waves on receiver networks, we recommend to consider additionally the temporal context of feature vectors. The application to continuous recordings of seismicity close to an active volcano (Mount Merapi, Java, Indonesia) shows that two typical volcano-seismic events (VTB and Guguran) can be detected and distinguished by clustering. In contrast, so-called MP events cannot be discriminated. Comparable results are obtained for selected features and recognition rates regarding a previously implemented supervised classification system. Finally, we test the reliability of wavefield clustering to improve common ambient vibration analysis methods such as estimation of dispersion curves and horizontal to vertical spectral ratios. It is found, that in general, the identified short- and long-term patterns have no significant impact on those estimates. However, for individual sites, effects of local sources can be identified. Leaving out the corresponding clusters, yields reduced uncertainties or allows for improving estimation of dispersion curves. / Die Anzahl der weltweit kontinuierlich aufzeichnenden seismischen Messstationen ist in den vergangenen Jahren immer weiter angestiegen. Aus diesem Grund steht eine große Menge von seismischen Datensätzen zu Forschungszwecken zur Verfügung. Insbesondere betrifft dies passive Verfahren zur geologischen Strukturerkundung entweder mittels transienter Ereignisse wie Erdbeben oder unter der Verwendung der permanent vorhandenen natürlichen seismischen Bodenunruhe. Die Bearbeitung dieser Daten erfordert neben der klassischen manuellen Seismogrammanalyse verstärkt auch den Einsatz automatischer Detektionssysteme. Mit Hilfe von überwachten Lernverfahren, d.h. unter Verwendung von seismischen Signalen deren Auftreten bekannt ist, ist es möglich, unbekannte Muster zu klassifizieren. Im Gegensatz dazu hatte die vorliegende Arbeit zum Ziel, ein allgemeines, unüberwachtes Verfahren zur quantitativen Zerlegung seismischer Wellenfelder zu entwickeln. Dies wird mittels einer automatischen Clusterung von Seismogrammzeitfenstern bzw. über die Visualisierung von zeitlichen Mustern auf unterschiedlichen Zeitskalen erreicht. Als unüberwachtes Lernverfahren, das neben der Clusterung auch eine einfach interpretierbare Visualisierung hoch-dimensionaler Datensätze über eine zweidimensionale Darstellung ermöglicht, wurde der Self-organizing-map Algorithmus (SOM) gewählt. Für automatische Lernverfahren ist die Parametrisierung der Seismogramme mittels Merkmalsvektoren erforderlich. Im vorliegenden Fall wurden möglichst viele potentielle Wellenfeldmerkmale unter Verwendung von verschiedenen seismischen Einzel- und Mehrstationsanalyseverfahren für aufeinanderfolgende kurze Zeitfenster berechnet. Um eine datenadaptive und effiziente Parametrisierung zu erreichen, wurde darüberhinaus ein quantitatives Auswahlverfahren für geeignete Merkmale entwickelt, das über einen mehrstufigen Filter bestehend aus einem Signifikanztest und einer SOM-basierenden Korrelationsanalyse redundante und irrelevante Eigenschaften aussortiert. Mit den neu implementierten Techniken wurden verschiedene Arten von seismischen Datensätzen unter Berücksichtigung verschiedener seismologischer Fragestellungen bearbeitet. Die Algorithmen und deren Parameter wurden zunächst intensiv und quantitativ mit Hilfe synthetischer Daten getestet und optimiert. Anschließend wurden reale Aufzeichnungen regionaler Erdbeben und vulkanischer Seismizität verwendet. Im ersten Fall konnten geeignete Merkmale zur Detektion und Klassifizierung von Erdbebenwellenphasen gefunden und die Diskriminierung dieser Signale mit Hilfe der SOM-Darstellung untersucht werden. Unter Verwendung des zweiten Datensatzes wurden Cluster typischer vulkano-seismischer Signale am Vulkan Mount Merapi (Java, Indonesien) detektiert, die sich zur Vorhersage von Eruptionen eignen. Beide Anwendungen haben gezeigt, dass, verglichen mit einzelnen Methoden, automatisch gefundene Kombinationen von Merkmalen verschiedener Parametrisierungsverfahren deutlich bessere Klassifizierungsraten zur Folge haben. Zudem können die Erkenntnisse über die Clusterung von seismischen Signalen dazu verwendet werden, verbesserte automatische Klassifizierungssysteme zu entwickeln. Abschließend wurden Aufzeichnungen der natürlichen seismischen Bodenunruhe bearbeitet. Insbesondere konnte der Einfluss kurzzeitiger und längerfristiger Variationen im Wellenfeld auf Methoden zur passiven Strukturerkundung untersucht werden. Es hat sich gezeigt, dass in einzelnen Fällen tageszeitabhängige Muster und lokale seismische Quellen die Ergebnisse negativ beeinflussen können. Die Wellenfeldzerlegung mittels Clusterung hat es erlaubt, diese Signale zu identifizieren und somit von der Analyse auszuschließen.
45

Wissensbasierte Modellierung von Audio-Signal-Klassifikatoren : zur Bioakustik von Tursiops truncatus. - 2., überarb. Aufl. / Knowledge based engineering of audio-signal-classifiers : to the bioacoustics of Tursiops truncatus. - 2., überarb. Aufl.

Hübner, Sebastian Valentin January 2007 (has links)
Die vorliegende Arbeit befasst sich mit der wissensbasierten Modellierung von Audio-Signal-Klassifikatoren (ASK) für die Bioakustik. Sie behandelt ein interdisziplinäres Problem, das viele Facetten umfasst. Zu diesen gehören artspezifische bioakustische Fragen, mathematisch-algorithmische Details und Probleme der Repräsentation von Expertenwissen. Es wird eine universelle praktisch anwendbare Methode zur wissensbasierten Modellierung bioakustischer ASK dargestellt und evaluiert. Das Problem der Modellierung von ASK wird dabei durchgängig aus KDD-Perspektive (Knowledge Discovery in Databases) betrachtet. Der grundlegende Ansatz besteht darin, mit Hilfe von modifizierten KDD-Methoden und Data-Mining-Verfahren die Modellierung von ASK wesentlich zu erleichtern. Das etablierte KDD-Paradigma wird mit Hilfe eines detaillierten formalen Modells auf den Bereich der Modellierung von ASK übertragen. Neunzehn elementare KDD-Verfahren bilden die Grundlage eines umfassenden Systems zur wissensbasierten Modellierung von ASK. Methode und Algorithmen werden evaluiert, indem eine sehr umfangreiche Sammlung akustischer Signale des Großen Tümmlers mit ihrer Hilfe untersucht wird. Die Sammlung wurde speziell für diese Arbeit in Eilat (Israel) angefertigt. Insgesamt werden auf Grundlage dieses Audiomaterials vier empirische Einzelstudien durchgeführt: - Auf der Basis von oszillographischen und spektrographischen Darstellungen wird ein phänomenologisches Klassifikationssystem für die vielfältigen Laute des Großen Tümmlers dargestellt. - Mit Hilfe eines Korpus halbsynthetischer Audiodaten werden verschiedene grundlegende Verfahren zur Modellierung und Anwendung von ASK in Hinblick auf ihre Genauigkeit und Robustheit untersucht. - Mit einem speziell entwickelten Clustering-Verfahren werden mehrere Tausend natürliche Pfifflaute des Großen Tümmlers untersucht. Die Ergebnisse werden visualisiert und diskutiert. - Durch maschinelles mustererkennungsbasiertes akustisches Monitoring wird die Emissionsdynamik verschiedener Lauttypen im Verlaufe von vier Wochen untersucht. Etwa 2.5 Millionen Klicklaute werden im Anschluss auf ihre spektralen Charakteristika hin untersucht. Die beschriebene Methode und die dargestellten Algorithmen sind in vielfältiger Hinsicht erweiterbar, ohne dass an ihrer grundlegenden Architektur etwas geändert werden muss. Sie lassen sich leicht in dem gesamten Gebiet der Bioakustik einsetzen. Hiermit besitzen sie auch für angrenzende Disziplinen ein hohes Potential, denn exaktes Wissen über die akustischen Kommunikations- und Sonarsysteme der Tiere wird in der theoretischen Biologie, in den Kognitionswissenschaften, aber auch im praktischen Naturschutz, in Zukunft eine wichtige Rolle spielen. / The present thesis is dedicated to the problem of knowledge-based modeling of audio-signal-classifiers in the bioacoustics domain. It deals with an interdisciplinary problem that has many facets. To these belong questions of knowledge representation, bioacoustics and algorithmical issues. The main purpose of the work is to provide and evaluate a scientific method in which all these facets are taken into consideration. In addition, a number of algorithms, which implement all important steps of this method, are described. The problem of modeling audio-signal-classifiers is regarded from the KDD-perspective (Knowledge-Discovery in Databases). The fundamental idea is to use modified KDD- and Data-Mining-algorithms to facilitate the modeling of audio-signal-classifiers. A detailed mathematical formalism is presented and the KDD-paradigm is adopted to the problem of modeling audio-signal-classifiers. 19 new KDD-procedures form a comprehensive system for knowledge-based audio-signal-classifier design. An extensive collection of acoustic signals of the bottlenose-dolphin was recorded in Eilat (Israel). It forms the basis of four empirical studies: A phenomenological classification of acoustic phenomena, an experimental evaluation of accuracy and precision of classifiers, a cluster analysis of whistle sounds and a monitoring study to examine the nature of click sounds. Both, method and algorithms can be adopted to other branches in bioacoustics without changing their fundamental architecture.
46

Merkmalsextraktion für die Klassifikation von Bestandteilen in Dokument-Bildern

Poller, Andreas 20 November 2005 (has links) (PDF)
Am Institut für Print- und Medientechnik an der TU Chemnitz wird ein System entwickelt, welches gescannte Dokumente archivieren soll. Im Gegensatz zu bereits existierenden OCR-Systemen, sollen diese Dokumente hier jedoch nicht mittels einer Schrifterkennung verarbeitet werden. Vielmehr sind Textbereiche in den gescannten Vorlagen zu vektorisieren. Bereiche mit Grafiken und Illustrationen werden bei diesem Verfahren als ein Bildvektor gespeichert. Diese Vorgehensweise soll es ermöglichen, auch Dokumente mit Schriftsymbolen effizient zu archivieren, die keinen "herkömmlichen" Schriftsätzen zugehörig sind. Diese Studienarbeit stellt Merkmalsextraktionsverfahren vor, die aus einem gegebenen Teil (Segment) eines Dokumentenscans Merkmale extrahieren, die es ermöglichen sollen, diesen mittels eines Klassifikationsverfahrens einer Klasse Textblock oder einer Klasse Grafikblock zuzuordnen. Zusätzlich werden zwei Klassifikationsverfahren, ein Entscheidungsbaum und eine Fuzzy-Logik, auf die Nutzbarkeit für einen solchen Mustererkennungsprozess überprüft. Als Textblöcke erkannte Bereiche werden im zu entwickelnden Gesamtverfahren dann in nachfolgenden Verarbeitungsschritten einer Vektorisierung zugeführt.
47

Fremdstofferkennung in Baumwolle mittels Infrarot-Analyse

Böhmer, Stephan January 2009 (has links)
Zugl.: Dresden, Techn. Univ., Diss., 2009
48

Orientation Invariant Pattern Detection in Vector Fields with Clifford Algebra and Moment Invariants

Bujack, Roxana 14 December 2015 (has links) (PDF)
The goal of this thesis is the development of a fast and robust algorithm that is able to detect patterns in flow fields independent from their orientation and adequately visualize the results for a human user. This thesis is an interdisciplinary work in the field of vector field visualization and the field of pattern recognition. A vector field can be best imagined as an area or a volume containing a lot of arrows. The direction of the arrow describes the direction of a flow or force at the point where it starts and the length its velocity or strength. This builds a bridge to vector field visualization, because drawing these arrows is one of the fundamental techniques to illustrate a vector field. The main challenge of vector field visualization is to decide which of them should be drawn. If you do not draw enough arrows, you may miss the feature you are interested in. If you draw too many arrows, your image will be black all over. We assume that the user is interested in a certain feature of the vector field: a certain pattern. To prevent clutter and occlusion of the interesting parts, we first look for this pattern and then apply a visualization that emphasizes its occurrences. In general, the user wants to find all instances of the interesting pattern, no matter if they are smaller or bigger, weaker or stronger or oriented in some other direction than his reference input pattern. But looking for all these transformed versions would take far too long. That is why, we look for an algorithm that detects the occurrences of the pattern independent from these transformations. In the second part of this thesis, we work with moment invariants. Moments are the projections of a function to a function space basis. In order to compare the functions, it is sufficient to compare their moments. Normalization is the act of transforming a function into a predefined standard position. Moment invariants are characteristic numbers like fingerprints that are constructed from moments and do not change under certain transformations. They can be produced by normalization, because if all the functions are in one standard position, their prior position has no influence on their normalized moments. With this technique, we were able to solve the pattern detection task for 2D and 3D flow fields by mathematically proving the invariance of the moments with respect to translation, rotation, and scaling. In practical applications, this invariance is disturbed by the discretization. We applied our method to several analytic and real world data sets and showed that it works on discrete fields in a robust way.
49

Rapid-content-Integration : ein Ansatz zur schnellen Integration von Inhalten in Content-Management-Systeme /

Schmitz-Hofbauer, Kai. January 2009 (has links)
Zugl.: Bochum, Universiẗat, Diss., 2009.
50

PAC-Bayesian pattern classification with kernels theory, algorithms, and an application to the game of Go /

Graepel, Thore. Unknown Date (has links) (PDF)
Techn. University, Diss., 2002--Berlin.

Page generated in 0.078 seconds