• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 2
  • Tagged with
  • 5
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Detecting Anomalies in Transaction Data / Anomalieentdeckung in Transaktionsdaten

Schlör, Daniel January 2022 (has links) (PDF)
Detecting anomalies in transaction data is an important task with a high potential to avoid financial loss due to irregularities deliberately or inadvertently carried out, such as credit card fraud, occupational fraud in companies or ordering and accounting errors. With ongoing digitization of our world, data-driven approaches, including machine learning, can draw benefit from data with less manual effort and feature engineering. A large variety of machine learning-based anomaly detection methods approach this by learning a precise model of normality from which anomalies can be distinguished. Modeling normality in transactional data, however, requires to capture distributions and dependencies within the data precisely with special attention to numerical dependencies such as quantities, prices or amounts. To implicitly model numerical dependencies, Neural Arithmetic Logic Units have been proposed as neural architecture. In practice, however, these have stability and precision issues. Therefore, we first develop an improved neural network architecture, iNALU, which is designed to better model numerical dependencies as found in transaction data. We compare this architecture to the previous approach and show in several experiments of varying complexity that our novel architecture provides better precision and stability. We integrate this architecture into two generative neural network models adapted for transaction data and investigate how well normal behavior is modeled. We show that both architectures can successfully model normal transaction data, with our neural architecture improving generative performance for one model. Since categorical and numerical variables are common in transaction data, but many machine learning methods only process numerical representations, we explore different representation learning techniques to transform categorical transaction data into dense numerical vectors. We extend this approach by proposing an outlier-aware discretization, thus incorporating numerical attributes into the computation of categorical embeddings, and investigate latent spaces, as well as quantitative performance for anomaly detection. Next, we evaluate different scenarios for anomaly detection on transaction data. We extend our iNALU architecture to a neural layer that can model both numerical and non-numerical dependencies and evaluate it in a supervised and one-class setting. We investigate the stability and generalizability of our approach and show that it outperforms a variety of models in the balanced supervised setting and performs comparably in the one-class setting. Finally, we evaluate three approaches to using a generative model as an anomaly detector and compare the anomaly detection performance. / Die Erkennung von Anomalien in Transaktionsdaten ist eine wichtige Zielsetzung mit hohem Potenzial, finanzielle Verluste zu vermeiden, die auf absichtlich oder versehentlich begangenen Unregelmäßigkeiten wie beispielsweise Kreditkartenbetrug oder Bestell- und Abrechnungsfehlern gründen. Mit der fortschreitenden Digitalisierung können datengetriebene Ansätze einschließlich maschinellen Lernens mit immer weniger manuellem Aufwand Nutzen aus den Daten ziehen. Viele Methoden zur Erkennung von Anomalien, die auf maschinellem Lernen basieren, verfolgen diesen Ansatz, indem sie ein präzises Modell der normalen Daten erlernen, mit dem sich dann Anomalien davon unterscheiden lassen. Die Modellierung von normalen Transaktionsdaten erfordert jedoch eine genaue Erfassung von Verteilungen und Abhängigkeiten innerhalb der Daten mit besonderem Augenmerk auf numerischen Abhängigkeiten von beispielsweise Mengen oder Geldbeträgen. Zur impliziten Modellierung numerischer Abhängigkeiten wurden Neural Arithmetic Logic Units als neuronale Architektur vorgeschlagen. In der Praxis haben diese jedoch Stabilitäts- und Präzisionsprobleme. Daher entwickeln wir zunächst eine verbesserte neuronale Netzwerkarchitektur, iNALU, die darauf ausgelegt ist, numerische Abhängigkeiten, wie sie in Transaktionsdaten vorkommen, besser zu modellieren. Wir vergleichen diese Architektur mit ihrer Vorläuferarchitektur und zeigen in mehreren Experimenten, dass unsere Architektur höhere Präzision und Stabilität bietet. Wir integrieren unsere Architektur in zwei generative neuronale Netzmodelle, die für Transaktionsdaten angepasst wurden, und untersuchen, wie gut Normalverhalten modelliert wird. Wir zeigen, dass beide Architekturen normale Daten erfolgreich modellieren können, wobei die in dieser Arbeit vorgestellte neuronale Architektur die generativen Ergebnisse für ein Modell verbessert. Da kategorische und numerische Variablen in Transaktionsdaten häufig zusammen vorkommen, viele Methoden des maschinellen Lernens jedoch nur numerische Repräsentationen verarbeiten, untersuchen wir verschiedene Techniken des Repräsentationslernens, um kategorische Transaktionsdaten in dichte numerische Vektoren zu transformieren. Wir erweitern diese, indem wir einen Diskretisierungsansatz vorschlagen, der Ausreißer berücksichtigt. Damit werden Zusammenhänge numerischer Datentypen in die Berechnung kategorischer Einbettungen einbezogen, um die Anomalieerkennung insgesamt zu verbessern.
2

Feature Relevance Explainers in Tabular Anomaly Detection / Merkmal-Relevanz-Erklärer in tabellarischer Anomalie-Erkennung

Tritscher, Julian January 2024 (has links) (PDF)
Within companies, the ongoing digitization makes protection of data from unauthorized access and manipulation increasingly relevant. Here, artificial intelligence offers means to automatically detect such anomalous events. However, as the capabilities of these automated anomaly detection systems grow, so does their complexity, making it challenging to understand their decisions. Subsequently, many methods to explain these decisions have been proposed in recent research. The most popular techniques in this area are feature relevance explainers that explain a decision made by an artificial intelligence system by distributing relevance scores across the inputs given to the system, thus highlighting which given information had the most impact on the decision. These explainers, although present in anomaly detection, are not systematically and quantitatively evaluated. This is especially problematic, as explainers are inherently approximations that simplify the underlying artificial intelligence and thus may not always provide high-quality explanations. This thesis makes a contribution towards the systematic evaluation of feature relevance explainers in anomaly detection on tabular data. We first review the existing literature for available feature relevance explainers and suitable evaluation schemes. We find that multiple feature relevance explainers with different internal functioning are employed in anomaly detection, but that many existing evaluation schemes are not applicable to this domain. As a result, we construct a novel evaluation setup based on ground truth explanations. Since these ground truth explanations are not commonly available for anomaly detection data, we also provide methods to obtain ground truth explanations across different scenarios of data availability, allowing us to generate multiple labeled data sets with ground truth explanations. Multiple experiments across the aggregated data and explainers reveal that explanation quality varies strongly and that explainers can achieve both very high-quality and near-random explanations. Furthermore, high explanation quality does not transfer across different data and anomaly detection models, resulting in no best feature relevance explainer that can be applied without performance evaluations. As evaluation appears necessary to ensure high-quality explanations, we propose a framework that enables the optimization of explainers on unlabeled data through expert simulations. Further, to aid explainers in consistently achieving high-quality explanations in applications where expert simulations are not available, we provide two schemes for setting explainer hyperparameters specifically suitable for anomaly detection. / In Unternehmen wird durch die voranschreitende Digitalisierung der Schutz von Daten vor unberechtigtem Zugriff und Manipulation immer relevanter. Hier bietet Künstliche Intelligenz eine automatische Erkennung solcher anomaler Ereignisse. Mit der zunehmenden Leistungsfähigkeit dieser automatisierten Systeme zur Erkennung von Anomalien wächst jedoch auch deren Komplexität, so dass es schwierig ist, ihre Entscheidungen nachzuvollziehen. In der jüngsten Forschung wurden daher zahlreiche Methoden zur Erklärung solcher Entscheidungen vorgeschlagen. Die populärsten Techniken in diesem Bereich sind Merkmalsrelevanz-Erklärer, die eine von einer Künstlichen Intelligenz getroffene Entscheidung erklären, indem sie Relevanzwerte über die dem System gegebenen Eingaben verteilen und so hervorheben, welche Informationen den größten Einfluss auf die Entscheidung hatten. Diese Erklärer sind zwar in der Anomalieerkennung vorhanden, werden aber nicht systematisch und quantitativ ausgewertet. Dies ist besonders problematisch, da Erklärer inhärent die zugrundeliegende Künstliche Intelligenz vereinfachen, und daher nicht automatisch hochwertige Erklärungen liefern. Diese Arbeit leistet einen Beitrag zur systematischen Evaluierung von Merkmalsrelevanz-Erklärern im Bereich der Anomalieerkennung. Zunächst wird ein Überblick über die bestehende Literatur zu verfügbaren Merkmalsrelevanz-Erklärern und geeigneten Evaluationsschemata gegeben. Wir stellen fest, dass mehrere Merkmalsrelevanz-Erklärer mit unterschiedlicher interner Funktionsweise in der Anomalieerkennung eingesetzt werden, viele der bestehenden Evaluationsschemata dort aber nicht anwendbar sind. Deshalb konstruieren wir ein Evaluierungssystem auf Basis von Ground-Truth-Erklärungen. Da solche Ground-Truth-Erklärungen für Anomalie-Erkennungsdaten allgemein nicht verfügbar sind, liefern wir auch Methoden, um GroundTruth-Erklärungen bei unterschiedlicher Datenverfügbarkeit zu erhalten, was uns ermöglicht, gelabelte Datensätze mit Ground-Truth-Erklärungen zu generieren. Mehrere Experimente mit den aggregierten Daten und Erklärern zeigen, dass die Qualität der Erklärungen stark variiert und dass Erklärer sowohl hochwertige als auch nahezu zufällige Erklärungen liefern können. Darüber hinaus lässt sich eine hohe Erklärungsqualität nicht auf verschiedene Daten und Anomalieerkennungsmodelle übertragen, was dazu führt, dass kein hochperformante Erklärer existiert, der ohne Leistungsevaluierung eingesetzt werden kann. Da Evaluierungen notwendig erscheinen, um qualitativ hochwertige Erklärungen zu gewährleisten, schlagen wir ein Framework vor, das die Optimierung von Erklärern auf ungelabelten Daten durch Expertensimulationen ermöglicht. Um Erklärer dabei zu unterstützen, konsistent hochwertige Erklärungen in Anwendungen zu erzielen, in denen keine Expertensimulation verfügbar ist, schlagen wir zwei Verfahren zur Einstellung von Erklärer-Hyperparametern in der Anomalieerkennung vor.
3

DiggiTwin: ein interdisziplinäres Projekt zur Nutzung digitaler Zwillinge auf dem Weg zu einem klimaneutralen Gebäudebestand

Altherr, Lena, Döring, Bernd, Frauenrath, Tobias, Groß, Rolf, Mohan, Nijanthan, Oyen, Marc, Schnittcher, Lukas, Voß, Norbert 14 February 2024 (has links)
Im Hinblick auf die Klimaziele der Bundesrepublik Deutschland konzentriert sich das Projekt Diggi Twin auf die nachhaltige Gebäudeoptimierung. Grundlage für eine ganzheitliche Gebäudeüberwachung und -optimierung bildet dabei die Digitalisierung und Automation im Sinne eines Smart Buildings. Das interdisziplinäre Projekt der FH Aachen hat das Ziel, ein bestehendes Hochschulgebäude und einen Neubau an klimaneutrale Standards anzupassen. Im Rahmen des Projekts werden bekannte Verfahren, wie das Building Information Modeling (BIM), so erweitert, dass ein digitaler Gebäudezwilling entsteht. Dieser kann zur Optimierung des Gebäudebetriebs herangezogen werden, sowie als Basis für eine Erweiterung des Bewertungssystems Nachhaltiges Bauen (BNB) dienen. Mithilfe von Sensortechnologie und künstlicher Intelligenz kann so ein präzises Monitoring wichtiger Gebäudedaten erfolgen, um ungenutzte Energieeinsparpotenziale zu erkennen und zu nutzen. Das Projekt erforscht und setzt methodische Erkenntnisse zu BIM und digitalen Gebäudezwillingen praxisnah um, indem es spezifische Fragen zur Energie- und Ressourceneffizienz von Gebäuden untersucht und konkrete Lösungen für die Gebäudeoptimierung entwickelt.
4

Entwicklung eines Verfahrens für Monitoring und Klassifikation von Business Process Event Streams im Kontext des Online Process Mining

Krajsic, Philippe 25 January 2023 (has links)
Das stetige Wachstum von Datenmengen, besonders in Unternehmen, setzt die Neu- und Weiterentwicklung geeigneter datengetriebener Analysemethoden voraus, die die gesammelten Informationen in einen Kontext setzen und einen operativen Mehrwert für die Unternehmen erzeugen. Insbesondere die echtzeitnahe Analyse von Geschäftsprozessdaten, die in den Unternehmensinformationssystemen gespeichert werden, lassen sich mit Hilfe von Analysewerkzeugen, wie es das Process Mining zur Verfügung stellt, auswerten und generieren Einblicke in die Prozesse der Unternehmen. Für vertrauenswürdige Ergebnisse wird jedoch eine hohe Qualität der zu analysierenden Daten vorausgesetzt. Die vorliegende Arbeit befasst sich mit der Entwicklung eines Monitoring- und Klassifikationsverfahrens für Business Process Event-Streams zur Verwertung im Kontext des Online Process Mining. Zu den erarbeiteten Artefakten dieser Arbeit zählen ein auf den Bedarfen abzielender Anforderungskatalog, ein Konzept, das eine Streaming-Architektur, ein Klassifikationsmodell, eine rekonstruktionsbasierte Anomalieerkennung, einen Online Learning Workflow und Erklärungskomponenten umfasst sowie eine prototypische Umsetzung der Konzepte. Über technische Experimente auf Basis unterschiedlicher Datengrundlagen und optimierten Umgebungsparametern werden die Funktionsweise und Güte des erarbeiteten Monitoring- und Filterverfahrens überprüft. Durch die Einbettung des Event-Filters in eine Streaming-Architektur, die Kombination verschiedener Strukturen des maschinellen Lernens und der damit einhergehenden Generalisierungsfähigkeit des Modells sowie der Fähigkeit des Modells kontinuierlich zu Lernen gelingt es existierende Ansätze um Aspekte der echtzeitnahen Verarbeitung und dem Monitoring von Event-Streams zu erweitern und die Genauigkeit der Anomalieerkennung auf Event-Ebene zu verbessern. Durch Monitoring, Klassifikation und Filterung der eingehenden Event-Daten kann die Datenqualität für die Anwendung nachgelagerter Process Mining Aktivitäten erhöht werden.
5

Optische Inline-Überwachung umgeformter Blechteile mittels robuster Anomaliedetektion

Wiener, Thomas 14 May 2024 (has links)
In dieser Arbeit werden Methoden für die Inline-Überwachung umgeformter Blechteile mittels 2D-Bildverarbeitung entwickelt und deren Sensitivität hinsichtlich der Erkennung von Bauteilfehlern sowie deren Robustheit gegenüber den im Presswerk vorherrschenden lage-, umgebungs- und prozessbedingten Störeinflüssen untersucht. Um ein breites Spektrum möglicher Störeinflüsse abdecken zu können, wird ein repräsentativer Bauteiltyp ausgewählt. Dabei handelt es sich um ein PKW-Türinnenblech. Zur flächendeckenden Erfassung des ausgewählten Bauteiltyps wird ein Versuchsstand in Form eines über dem Auslaufband befindlichen Mehrkamerasystems in eine Pressenstraße integriert. Unter Berücksichtigung von Störeinflüssen werden die Methoden der nachbarschafts- und intensitätsbasierten Detektion systematisch erarbeitet. Beide Methoden basieren auf dem Prinzip der Anomaliedetektion, um die Erkennung neu auftretender Fehlervarianten zu ermöglichen. Als Datenbasis für die Evaluierung der Methoden dienen die mittels Versuchsstand aufgezeichneten Bilder von Bauteilen des ausgewählten Typs aus verschiedenen Produktionschargen.:Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis Formelzeichen 1 Einleitung 1.1 Motivation 1.2 Verfolgter Lösungsansatz und Eingrenzung der Arbeit 1.3 Aufbau der Arbeit 2 Grundlagen und Stand der Technik 2.1 Grundlagen zur Klassifizierung von Qualitätsfehlern 2.2 Grundlagen zu Anforderungen an Inline-Überwachungssysteme 2.3 Bestehende Verfahren zur optischen Überwachung mittels 3D-Formerfassung 2.3.1 Lichtschnittverfahren 2.3.2 Streifenprojektion und andere Methoden der strukturierten Beleuchtung 2.4 Grundlagen zur optischen Überwachung mittels 2D-Bildverarbeitung 2.4.1 Rechnergestützte Repräsentation von Bildern 2.4.2 Geometrische Transformationen von Bildern und Bildähnlichkeit 2.4.3 Bildakquisition und Beschreibung von Kameras 2.4.4 Beleuchtungsanordnungen 2.4.5 Zusammenspiel von Beleuchtung und Bildverarbeitung 2.5 Bestehende Verfahren zur optischen Überwachung mittels 2D Bildverarbeitung 2.5.1 Systeme mit bewegter Kamera 2.5.2 Systeme mit stationären Kameras 2.5.3 Lösungsansätze für verwandte Problemstellungen 2.6 Bestehende Verfahren zur Inline-Überwachung basierend auf weiteren Prinzipien 2.7 Fazit 3 Zielstellung 4 Anforderungsanalyse und Konzeptentwicklung 4.1 Testumgebung und Bauteilauswahl 4.2 Anforderungsanalyse 4.2.1 Sensitivität der Detektion von Bauteilfehlern 4.2.2 Robustheit der Inline-Überwachung 4.2.3 Inline-Fähigkeit, Skalierbarkeit und Transparenz 4.3 Versuchsstand 4.4 Aufbau der Datenbasis 4.5 Konzept für die Inline-Überwachung 4.6 Zusammenfassung 5 Methoden zur Vorverarbeitung 5.1 Kompensation von Lageabweichungen 5.1.1 Definition Lagevariation und -abweichung 5.1.2 Bildverarbeitungstechnische Repräsentation der Soll-Lage 5.1.3 Vorüberlegungen zur Lagekompensation 5.1.4 Eignung von Bildregistrierungsverfahren 5.1.5 Evaluierung und Optimierung 5.2 Vordergrund-/Hintergrundtrennung 5.2.1 Herausforderungen bei der V/H-Trennung 5.2.2 Lösungsansatz für die V/H-Trennung 5.2.3 Evaluierung der eingeschränkten V/H-Trennung 5.2.4 Vollständige V/H-Trennung 5.3 Zusammenfassung 6 Fehlererkennung mittels Anomaliedetektion 6.1 Lernprinzip und Umsetzung als Online-Algorithmus 6.2 Intensitätsbasierte Detektion 6.2.1 Verfahrensbeschreibung 6.2.2 Analyse des Verfahrens 6.3 Nachbarschaftsbasierte Detektion 6.3.1 Verfahrensbeschreibung 6.3.2 Analyse des Verfahrens 6.4 Zusammenfassung 7 Evaluierung und Optimierung 7.1 Versuchsvorbereitung 7.2 Optimierung von Parametern 7.3 Statistische Auswertung 7.4 Ergebnisse und Schlussfolgerungen 8 Zusammenfassung und Ausblick Literaturverzeichnis Anhang Anhang A Komponenten des Versuchsstandes und deren Interaktion Anhang B OpenCV-Methoden für die merkmalsbasierte Registrierung Anhang C Implementierung von ECC unter Nutzung von OpenCV Anhang D Parameter für die Evaluierung der Bildregistrierung Anhang E Beispielrechnung für mehrstufiges ECC-Verfahren Anhang F Algorithmen

Page generated in 0.0699 seconds