• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 40
  • 11
  • 1
  • 1
  • Tagged with
  • 95
  • 49
  • 40
  • 34
  • 28
  • 22
  • 22
  • 22
  • 20
  • 19
  • 16
  • 15
  • 15
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

A software agent for adaptive navigation support in a restricted internet area

Kukulenz, Dirk. Unknown Date (has links) (PDF)
University, Diss., 2002--Kiel.
52

Auswerteverfahren für Gassensorarrays

Mitrovics, Jan. Unknown Date (has links) (PDF)
Universiẗat, Diss., 2004--Tübingen.
53

Learning to Predict Dense Correspondences for 6D Pose Estimation

Brachmann, Eric 06 June 2018 (has links) (PDF)
Object pose estimation is an important problem in computer vision with applications in robotics, augmented reality and many other areas. An established strategy for object pose estimation consists of, firstly, finding correspondences between the image and the object’s reference frame, and, secondly, estimating the pose from outlier-free correspondences using Random Sample Consensus (RANSAC). The first step, namely finding correspondences, is difficult because object appearance varies depending on perspective, lighting and many other factors. Traditionally, correspondences have been established using handcrafted methods like sparse feature pipelines. In this thesis, we introduce a dense correspondence representation for objects, called object coordinates, which can be learned. By learning object coordinates, our pose estimation pipeline adapts to various aspects of the task at hand. It works well for diverse object types, from small objects to entire rooms, varying object attributes, like textured or texture-less objects, and different input modalities, like RGB-D or RGB images. The concept of object coordinates allows us to easily model and exploit uncertainty as part of the pipeline such that even repeating structures or areas with little texture can contribute to a good solution. Although we can train object coordinate predictors independent of the full pipeline and achieve good results, training the pipeline in an end-to-end fashion is desirable. It enables the object coordinate predictor to adapt its output to the specificities of following steps in the pose estimation pipeline. Unfortunately, the RANSAC component of the pipeline is non-differentiable which prohibits end-to-end training. Adopting techniques from reinforcement learning, we introduce Differentiable Sample Consensus (DSAC), a formulation of RANSAC which allows us to train the pose estimation pipeline in an end-to-end fashion by minimizing the expectation of the final pose error.
54

Orientation Invariant Pattern Detection in Vector Fields with Clifford Algebra and Moment Invariants

Bujack, Roxana 19 December 2014 (has links)
The goal of this thesis is the development of a fast and robust algorithm that is able to detect patterns in flow fields independent from their orientation and adequately visualize the results for a human user. This thesis is an interdisciplinary work in the field of vector field visualization and the field of pattern recognition. A vector field can be best imagined as an area or a volume containing a lot of arrows. The direction of the arrow describes the direction of a flow or force at the point where it starts and the length its velocity or strength. This builds a bridge to vector field visualization, because drawing these arrows is one of the fundamental techniques to illustrate a vector field. The main challenge of vector field visualization is to decide which of them should be drawn. If you do not draw enough arrows, you may miss the feature you are interested in. If you draw too many arrows, your image will be black all over. We assume that the user is interested in a certain feature of the vector field: a certain pattern. To prevent clutter and occlusion of the interesting parts, we first look for this pattern and then apply a visualization that emphasizes its occurrences. In general, the user wants to find all instances of the interesting pattern, no matter if they are smaller or bigger, weaker or stronger or oriented in some other direction than his reference input pattern. But looking for all these transformed versions would take far too long. That is why, we look for an algorithm that detects the occurrences of the pattern independent from these transformations. In the second part of this thesis, we work with moment invariants. Moments are the projections of a function to a function space basis. In order to compare the functions, it is sufficient to compare their moments. Normalization is the act of transforming a function into a predefined standard position. Moment invariants are characteristic numbers like fingerprints that are constructed from moments and do not change under certain transformations. They can be produced by normalization, because if all the functions are in one standard position, their prior position has no influence on their normalized moments. With this technique, we were able to solve the pattern detection task for 2D and 3D flow fields by mathematically proving the invariance of the moments with respect to translation, rotation, and scaling. In practical applications, this invariance is disturbed by the discretization. We applied our method to several analytic and real world data sets and showed that it works on discrete fields in a robust way.
55

Online Recognition of Fuzzy Time Series Patterns

Herbst, Gernot 10 August 2009 (has links)
This article deals with the recognition of recurring multivariate time series patterns modelled sample-point-wise by parametric fuzzy sets. An efficient classification-based approach for the online recognition of incompleted developing patterns in streaming time series is being presented. Furthermore, means are introduced to enable users of the recognition system to restrict results to certain stages of a pattern’s development, e. g. for forecasting purposes, all in a consistently fuzzy manner.
56

Short-Time Prediction Based on Recognition of Fuzzy Time Series Patterns

Herbst, Gernot 05 July 2010 (has links)
This article proposes knowledge-based short-time prediction methods for multivariate streaming time series, relying on the early recognition of local patterns. A parametric, well-interpretable model for such patterns is presented, along with an online, classification-based recognition procedure. Subsequently, two options are discussed to predict time series employing the fuzzified pattern knowledge, accompanied by an example. Special emphasis is placed on comprehensible models and methods, as well as an easy interface to data mining algorithms.
57

Automatisierte Erkennung von Mentoring-Anlässen durch maschinelles Lernen auf Basis von Eye-Tracking Daten im Kontext von E-Learning

Jülg, Dominik 18 October 2023 (has links)
Im Rahmen dieser Arbeit wird untersucht, wie Daten der Eye-Tracking Brille Pupil Invisible genutzt werden können, um mit Methoden der Mustererkennung Mentoring-Anlässe zu erkennen. Die Arbeit ist Teil der Erforschung eines virtuellen Mentoring-Systems, welches Studierende bei der Bearbeitung von Online-Learnaufgaben auf der Lernplattform OPAL unterstützt. Als Mentoring-Anlass wird in erster Linie die Erkennung von mentaler Ermüdung untersucht, wobei Methoden der Psychologie zur Erkennung und Induktion ebendieser genutzt werden. Dabei werden im Rahmen einer Vorstudie Eye-Tracking Daten gesammelt, die anschließend von den Mustererkennungsalgorithmen Stützvektormaschine, Random Forest und künstlichem neuronalen Netz ausgewertet werden. Die Ergebnisse zeigen, dass die Erkennung von mentaler Ermüdung anhand der verwendeten Methodiken möglich ist. Zusätzlich wird ein Toolkit entwickelt, um die beschriebenen Prozesse zu automatisieren und die Einbindung in ein virtuelles Mentoring-System zu vereinfachen.:Kurzfassung, Abstract Selbständigkeitserklärung Vorwort Abkürzungsverzeichnis 1 Einführung 1.1 Motivation 1.2 Zielsetzung 2 Theoretische Grundlagen 2.1 Grundlagen des Eye-Trackings 2.1.1 Grundbegriffe und Charakteristiken des Eye-Trackings 2.1.2 Arten des Eye-Trackings 2.1.3 Wichtige Algorithmen 2.2 Grundlagen der Mustererkennung 2.2.1 Vorverarbeitung 2.2.2 Merkmalsextraktion und Auswahl 2.2.3 Klassifikation und Beurteilung 2.3 Grundlagen zu mentaler Ermüdung 2.3.1 Definition 2.3.2 Abgrenzung 3 Stand der Forschung 3.1 Pupil Invisible 3.2 Erkennung von mentaler Ermüdung 3.3 Einordnung 4 Methodik und Implementierung 4.1 Vorstudie 4.1.1 Sitzungsskript 4.1.2 Einarbeitung 4.2 Datenvorverarbeitung 4.2.1 Pistol-Framework 4.2.2 Verarbeitung der Rohdaten 4.2.3 Problemspezifische Merkmalserzeugung 4.3 Klassifikationsalgorithmen 4.3.1 Optimierung 4.3.2 Klassifikation mit künstlichen neuronalen Netzen 4.3.3 Auswertung 4.4 Toolkit 5 Ergebnisse 5.1 Vorstudie 5.2 Auswahl der Merkmale 5.3 Klassifikation 6 Diskussion 7 Zusammenfassung und Ausblick 7.1 Zusammenfassung 7.2 Ausblick Abbildungsverzeichnis Tabellenverzeichnis Literaturverzeichnis Anhang A.1 Tabellen A.1.1 Pearson und Spearman Korrelationstests (vollständig) A.2 Sitzungsskript A.2.1 Ablauf A.2.2 Durchzuführende Aufgaben / This thesis investigates how data from the eye-tracking glasses Pupil Invisible can be used to detect mentoring occasions using pattern recognition methods. The work is part of the research of a virtual mentoring system that supports students in completing online learning tasks on the OPAL learning platform. As a mentoring occasion, the detection of mental fatigue is primarily investigated, using methods from psychology for the detection and induction of just that. In this regard, eye-tracking data is collected as part of a preliminary study, which is then evaluated by the support vector machine, random forest and artificial neural network pattern recognition algorithms. The results show that the detection of mental fatigue is possible based on the methodologies used. In addition, a toolkit is developed to automate the described processes to facilitate their incorporation into a virtual mentoring system.:Kurzfassung, Abstract Selbständigkeitserklärung Vorwort Abkürzungsverzeichnis 1 Einführung 1.1 Motivation 1.2 Zielsetzung 2 Theoretische Grundlagen 2.1 Grundlagen des Eye-Trackings 2.1.1 Grundbegriffe und Charakteristiken des Eye-Trackings 2.1.2 Arten des Eye-Trackings 2.1.3 Wichtige Algorithmen 2.2 Grundlagen der Mustererkennung 2.2.1 Vorverarbeitung 2.2.2 Merkmalsextraktion und Auswahl 2.2.3 Klassifikation und Beurteilung 2.3 Grundlagen zu mentaler Ermüdung 2.3.1 Definition 2.3.2 Abgrenzung 3 Stand der Forschung 3.1 Pupil Invisible 3.2 Erkennung von mentaler Ermüdung 3.3 Einordnung 4 Methodik und Implementierung 4.1 Vorstudie 4.1.1 Sitzungsskript 4.1.2 Einarbeitung 4.2 Datenvorverarbeitung 4.2.1 Pistol-Framework 4.2.2 Verarbeitung der Rohdaten 4.2.3 Problemspezifische Merkmalserzeugung 4.3 Klassifikationsalgorithmen 4.3.1 Optimierung 4.3.2 Klassifikation mit künstlichen neuronalen Netzen 4.3.3 Auswertung 4.4 Toolkit 5 Ergebnisse 5.1 Vorstudie 5.2 Auswahl der Merkmale 5.3 Klassifikation 6 Diskussion 7 Zusammenfassung und Ausblick 7.1 Zusammenfassung 7.2 Ausblick Abbildungsverzeichnis Tabellenverzeichnis Literaturverzeichnis Anhang A.1 Tabellen A.1.1 Pearson und Spearman Korrelationstests (vollständig) A.2 Sitzungsskript A.2.1 Ablauf A.2.2 Durchzuführende Aufgaben
58

Netzorientierte Fuzzy-Pattern-Klassifikation nichtkonvexer Objektmengenmorphologien

Hempel, Arne-Jens 06 September 2011 (has links)
Die Arbeit ordnet sich in das Gebiet der unscharfen Klassifikation ein und stellt im Detail eine Weiterführung der Forschung zur Fuzzy-Pattern-Klassifikation dar. Es handelt sich dabei um eine leistungsfähige systemtheoretische Methodik zur klassifikatorischen Modellierung komplexer, hochdimensionaler, technischer oder nichttechnischer Systeme auf der Basis von metrischen Messgrößen und/oder nichtmetrischen Experten-Bewertungen. Die Beschreibung der Unschärfe von Daten, Zuständen und Strukturen wird hierbei durch einen einheitlichen Typ einer Zugehörigkeitsfunktion des Potentialtyps realisiert. Ziel der Betrachtungen ist die weiterführende Nutzung des bestehenden Klassenmodells zur unscharfen Beschreibung nichtkonvexer Objektmengenmorphologien. Ausgehend vom automatischen datengetriebenen Aufbau der konvexen Klassenbeschreibung, deren vorteilhaften Eigenschaften sowie Defiziten wird im Rahmen der Arbeit eine Methodik vorgestellt, die eine Modellierung beliebiger Objektmengenmorphologien erlaubt, ohne das bestehende Klassifikationskonzept zu verlassen. Kerngedanken des Vorgehens sind: 1.) Die Aggregation von Fuzzy-Pattern-Klassen auf der Basis so genannter komplementärer Objekte. 2.) Die sequentielle Verknüpfung von Fuzzy-Pattern-Klassen und komplementären Klassen im Sinne einer unscharfen Mengendifferenz. 3.) Die Strukturierung des Verknüpfungsprozesses durch die Clusteranalyse von Komplementärobjektmengen und damit der Verwendung von Konfigurationen aus komplementären Fuzzy-Pattern-Klassen. Das dabei gewonnene nichtkonvexe Fuzzy-Klassifikationsmodell impliziert eine Vernetzung von Fuzzy-Klassifikatoren in Form von Klassifikatorbäumen. Im Ergebnis entstehen Klassifikatorstrukturen mit hoher Transparenz, die - neben der üblichen zustandsorientierten klassifikatorischen Beschreibung in den Einzelklassifikatoren - zusätzliche Informationen über den Ablauf der Klassifikationsentscheidungen erfassen. Der rechnergestützte Entwurf und die Eigenschaften der entstehenden Klassifikatorstruktur werden an akademischen Teststrukturen und realen Daten demonstriert. Die im Rahmen der Arbeit dargestellte Methodik wird in Zusammenhang mit dem Fuzzy-Pattern-Klassifikationskonzept realisiert, ist jedoch aufgrund ihrer Allgemeingültigkeit auf eine beliebige datenbasierte konvexe Klassenbeschreibung übertragbar. / This work contributes to the field of fuzzy classification. It dedicates itself to the subject of "Fuzzy-Pattern-Classification", a versatile method applied for classificatory modeling of complex, high dimensional systems based on metric and nonmetric data, i.e. sensor readings or expert statements. Uncertainties of data, their associated morphology and therewith classificatory states are incorporated in terms of fuzziness using a uniform and convex type of membership function. Based on the properties of the already existing convex Fuzzy-Pattern-Class models and their automatic, data-driven setup a method for modeling nonconvex relations without leaving the present classification concept is introduced. Key points of the elaborated approach are: 1.) The aggregation of Fuzzy-Pattern-Classes with the help of so called complementary objects. 2.) The sequential combination of Fuzzy-Pattern-Classes and complementary Fuzzy-Pattern-Classes in terms of a fuzzy set difference. 3.) A clustering based structuring of complementary Fuzzy-Pattern-Classes and therewith a structuring of the combination process. A result of this structuring process is the representation of the resulting nonconvex fuzzy classification model in terms of a classifier tree. Such a nonconvex Fuzzy-Classifier features high transparency, which allows a structured understanding of the classificatory decision in working mode. Both the automatic data-based design as well as properties of such tree-like fuzzy classifiers will be illustrated with the help of academic and real word data. Even though the proposed method is introduced for a specific type of membership function, the underlying idea may be applied to any convex membership function.
59

Improving RDF data with data mining

Abedjan, Ziawasch January 2014 (has links)
Linked Open Data (LOD) comprises very many and often large public data sets and knowledge bases. Those datasets are mostly presented in the RDF triple structure of subject, predicate, and object, where each triple represents a statement or fact. Unfortunately, the heterogeneity of available open data requires significant integration steps before it can be used in applications. Meta information, such as ontological definitions and exact range definitions of predicates, are desirable and ideally provided by an ontology. However in the context of LOD, ontologies are often incomplete or simply not available. Thus, it is useful to automatically generate meta information, such as ontological dependencies, range definitions, and topical classifications. Association rule mining, which was originally applied for sales analysis on transactional databases, is a promising and novel technique to explore such data. We designed an adaptation of this technique for min-ing Rdf data and introduce the concept of “mining configurations”, which allows us to mine RDF data sets in various ways. Different configurations enable us to identify schema and value dependencies that in combination result in interesting use cases. To this end, we present rule-based approaches for auto-completion, data enrichment, ontology improvement, and query relaxation. Auto-completion remedies the problem of inconsistent ontology usage, providing an editing user with a sorted list of commonly used predicates. A combination of different configurations step extends this approach to create completely new facts for a knowledge base. We present two approaches for fact generation, a user-based approach where a user selects the entity to be amended with new facts and a data-driven approach where an algorithm discovers entities that have to be amended with missing facts. As knowledge bases constantly grow and evolve, another approach to improve the usage of RDF data is to improve existing ontologies. Here, we present an association rule based approach to reconcile ontology and data. Interlacing different mining configurations, we infer an algorithm to discover synonymously used predicates. Those predicates can be used to expand query results and to support users during query formulation. We provide a wide range of experiments on real world datasets for each use case. The experiments and evaluations show the added value of association rule mining for the integration and usability of RDF data and confirm the appropriateness of our mining configuration methodology. / Linked Open Data (LOD) umfasst viele und oft sehr große öffentlichen Datensätze und Wissensbanken, die hauptsächlich in der RDF Triplestruktur bestehend aus Subjekt, Prädikat und Objekt vorkommen. Dabei repräsentiert jedes Triple einen Fakt. Unglücklicherweise erfordert die Heterogenität der verfügbaren öffentlichen Daten signifikante Integrationsschritte bevor die Daten in Anwendungen genutzt werden können. Meta-Daten wie ontologische Strukturen und Bereichsdefinitionen von Prädikaten sind zwar wünschenswert und idealerweise durch eine Wissensbank verfügbar. Jedoch sind Wissensbanken im Kontext von LOD oft unvollständig oder einfach nicht verfügbar. Deshalb ist es nützlich automatisch Meta-Informationen, wie ontologische Abhängigkeiten, Bereichs-und Domänendefinitionen und thematische Assoziationen von Ressourcen generieren zu können. Eine neue und vielversprechende Technik um solche Daten zu untersuchen basiert auf das entdecken von Assoziationsregeln, welche ursprünglich für Verkaufsanalysen in transaktionalen Datenbanken angewendet wurde. Wir haben eine Adaptierung dieser Technik auf RDF Daten entworfen und stellen das Konzept der Mining Konfigurationen vor, welches uns befähigt in RDF Daten auf unterschiedlichen Weisen Muster zu erkennen. Verschiedene Konfigurationen erlauben uns Schema- und Wertbeziehungen zu erkennen, die für interessante Anwendungen genutzt werden können. In dem Sinne, stellen wir assoziationsbasierte Verfahren für eine Prädikatvorschlagsverfahren, Datenvervollständigung, Ontologieverbesserung und Anfrageerleichterung vor. Das Vorschlagen von Prädikaten behandelt das Problem der inkonsistenten Verwendung von Ontologien, indem einem Benutzer, der einen neuen Fakt einem Rdf-Datensatz hinzufügen will, eine sortierte Liste von passenden Prädikaten vorgeschlagen wird. Eine Kombinierung von verschiedenen Konfigurationen erweitert dieses Verfahren sodass automatisch komplett neue Fakten für eine Wissensbank generiert werden. Hierbei stellen wir zwei Verfahren vor, einen nutzergesteuertenVerfahren, bei dem ein Nutzer die Entität aussucht die erweitert werden soll und einen datengesteuerten Ansatz, bei dem ein Algorithmus selbst die Entitäten aussucht, die mit fehlenden Fakten erweitert werden. Da Wissensbanken stetig wachsen und sich verändern, ist ein anderer Ansatz um die Verwendung von RDF Daten zu erleichtern die Verbesserung von Ontologien. Hierbei präsentieren wir ein Assoziationsregeln-basiertes Verfahren, der Daten und zugrundeliegende Ontologien zusammenführt. Durch die Verflechtung von unterschiedlichen Konfigurationen leiten wir einen neuen Algorithmus her, der gleichbedeutende Prädikate entdeckt. Diese Prädikate können benutzt werden um Ergebnisse einer Anfrage zu erweitern oder einen Nutzer während einer Anfrage zu unterstützen. Für jeden unserer vorgestellten Anwendungen präsentieren wir eine große Auswahl an Experimenten auf Realweltdatensätzen. Die Experimente und Evaluierungen zeigen den Mehrwert von Assoziationsregeln-Generierung für die Integration und Nutzbarkeit von RDF Daten und bestätigen die Angemessenheit unserer konfigurationsbasierten Methodologie um solche Regeln herzuleiten.
60

Mining relations from the biomedical literature

Hakenberg, Jörg 05 February 2010 (has links)
Textmining beschäftigt sich mit der automatisierten Annotierung von Texten und der Extraktion einzelner Informationen aus Texten, die dann für die Weiterverarbeitung zur Verfügung stehen. Texte können dabei kurze Zusammenfassungen oder komplette Artikel sein, zum Beispiel Webseiten und wissenschaftliche Artikel, umfassen aber auch textuelle Einträge in sonst strukturierten Datenbanken. Diese Dissertationsschrift bespricht zwei wesentliche Themen des biomedizinischen Textmining: die Extraktion von Zusammenhängen zwischen biologischen Entitäten ---das Hauptaugenmerk liegt dabei auf der Erkennung von Protein-Protein-Interaktionen---, und einen notwendigen Vorverarbeitungsschritt, die Erkennung von Proteinnamen. Diese Schrift beschreibt Ziele, Herausforderungen, sowie typische Herangehensweisen für alle wesentlichen Komponenten des biomedizinischen Textmining. Wir stellen eigene Methoden zur Erkennung von Proteinnamen sowie der Extraktion von Protein-Protein-Interaktionen vor. Zwei eigene Verfahren zur Erkennung von Proteinnamen werden besprochen, eines basierend auf einem Klassifikationsproblem, das andere basierend auf Suche in Wörterbüchern. Für die Extraktion von Interaktionen entwickeln wir eine Methode zur automatischen Annotierung großer Mengen von Text im Bezug auf Relationen; diese Annotationen werden dann zur Mustererkennung verwendet, um anschließend die gefundenen Muster auf neuen Text anwenden zu können. Um Muster zu erkennen, berechnen wir Ähnlichkeiten zwischen zuvor gefundenen Sätzen, die denselben Typ von Relation/Interaktion beschreiben. Diese Ähnlichkeiten speichern wir als sogenannte `consensus patterns''. Wir entwickeln eine Alignmentstrategie, die mehrschichtige Annotationen pro Position im Muster erlaubt. In Versuchen auf bekannten Benchmarks zeigen wir empirisch, dass unser vollautomatisches Verfahren Resultate erzielt, die vergleichbar sind mit existierenden Methoden, welche umfangreiche Eingriffe von Experten voraussetzen. / Text mining deals with the automated annotation of texts and the extraction of facts from textual data for subsequent analysis. Such texts range from short articles and abstracts to large documents, for instance web pages and scientific articles, but also include textual descriptions in otherwise structured databases. This thesis focuses on two key problems in biomedical text mining: relationship extraction from biomedical abstracts ---in particular, protein--protein interactions---, and a pre-requisite step, named entity recognition ---again focusing on proteins. This thesis presents goals, challenges, and typical approaches for each of the main building blocks in biomedical text mining. We present out own approaches for named entity recognition of proteins and relationship extraction of protein-protein interactions. For the first, we describe two methods, one set up as a classification task, the other based on dictionary-matching. For relationship extraction, we develop a methodology to automatically annotate large amounts of unlabeled data for relations, and make use of such annotations in a pattern matching strategy. This strategy first extracts similarities between sentences that describe relations, storing them as consensus patterns. We develop a sentence alignment approach that introduces multi-layer alignment, making use of multiple annotations per word. For the task of extracting protein-protein interactions, empirical results show that our methodology performs comparable to existing approaches that require a large amount of human intervention, either for annotation of data or creation of models.

Page generated in 0.0615 seconds