261 |
Improving drill-core hyperspectral mineral mapping using machine learningContreras Acosta, Isabel Cecilia 21 July 2022 (has links)
Considering the ever-growing global demand for raw materials and the complexity of the geological deposits that are still to be found, high-quality extensive mineralogical information is required. Mineral exploration remains a risk-prone process, with empirical approaches prevailing over data-driven strategy. Amongst the many ways to innovate, hyperspectral imaging sensors for drill-core mineral mapping are one of the disruptive technologies. This potential could be multiplied by implementing machine learning. This dissertation introduces a workflow that allows the use of supervised learning to map minerals by means of ancillary data commonly acquired during exploration campaigns (i.e., mineralogy, geochemistry and core photography). The fusion of hyperspectral with such ancillary data allows not only to upscale to complete boreholes information acquired locally, but also to enhance the spatial resolution of the mineral maps. Thus, the proposed approaches provide digitally archived objective maps that serve as vectors for exploration and support geologists in their decision making.:List of Figures xviii
List of Tables xix
List of Acronyms xxi
1 Introduction 1
1.1 Mineral resources and the need for innovation . . . . . . . . . . . . . 2
1.2 Spectroscopy and hyperspectral imaging . . . . . . . . . . . . . . . . 5
1.2.1 Imaging spectroscopy ....................... 6
1.2.2 Spectroscopy of minerals ..................... 8
1.2.3 Mineral mapping.......................... 12
1.2.4 Mineral mapping in exploration ................. 15
1.2.5 Drill-core mineral mapping.................... 16
1.3 Machine learning .............................. 19
1.3.1 Supervised learning for drill-core hyperspectral data . . . . . 20
1.4 Motivation and approach ......................... 22
2 Hyperspectral mineral mapping using supervised learning and mineralogical data 25
Preface ....................................... 25
Abstract....................................... 26
2.1 Introduction ................................. 27
2.2 Data acquisition............................... 30
2.2.1 Hyperspectral data......................... 30
2.2.2 High-resolution mineralogica ldata . . . . . . . . . . . . . . . 31
2.3 Proposed system architecture ....................... 33
2.3.1 Re-sampling and co-registration ................. 33
2.3.2 Classification ............................ 35
2.4 Experimental results ............................ 36
2.4.1 Data description .......................... 36
2.4.2 Experimental setup......................... 37
2.4.3 Quantitative and qualitative assessment . . . . . . . . . . . . . 37
2.5 Discussion.................................. 40
2.6 Conclusion.................................. 42
3 Geochemical and hyperspectral data integration 45
Preface ....................................... 45
Abstract....................................... 46
3.1 Introduction ................................. 47
3.2 Basis for the integration of geochemical and hyperspectral data . . . 50
3.3 Proposed approach ............................. 51
3.3.1 Geochemical data labeling..................... 51
3.3.2 Superpixel segmentation ..................... 53
3.3.3 Classification ............................ 53
3.4 Experimental results ............................ 54
3.4.1 Data description .......................... 54
3.4.2 Data acquisition........................... 55
3.4.3 Experimental setup......................... 55
3.4.4 Assessment of the geochemical data labeling . . . . . . . . . . 58
3.4.5 Quantitative and Qualitative Assessment . . . . . . . . . . . . 58
3.5 Discussion.................................. 61
3.6 Conclusion.................................. 63
4 Improved spatial resolution for mineral mapping 65
Preface ....................................... 65
Abstract....................................... 66
4.1 Introduction ................................. 67
4.2 Methods: Resolution Enhancement for Mineral Mapping . . . . . . . 69
4.2.1 Hyperspectral Resolution Enhancement . . . . . . . . . . . . . 69
4.2.2 Mineral Mapping.......................... 71
4.2.3 Supervised Classification ..................... 71
4.3 Case Study.................................. 72
4.3.1 Data Acquisition .......................... 72
4.3.2 Resolution Enhancement Application . . . . . . . . . . . . . . 74
4.3.3 Evaluation of the Resolution Enhancement . . . . . . . . . . . 75
4.4 Results .................................... 76
4.4.1 Mineral Mapping.......................... 76
4.4.2 Supervised Classification ..................... 77
4.4.3 Validation .............................. 80
4.5 Discussion.................................. 82
4.6 Conclusions ................................. 84
5 Bibliography 92
|
262 |
Vorhersage des in-game Status im Fußball mit Maschinellem Lernen basierend auf zeitkontinuierlichen SpielerpositionsdatenLang, Steffen, Wild, Raphael, Isenko, Alexander, Link, Daniel 14 October 2022 (has links)
Diese Studie beschäftigt sich mit der Vorhersage, ausschließlich auf Basis von Spielerpositionsdaten, ob ein Fußballspiel in einem Moment unterbrochen ist oder nicht. Hierfür wurden vier machine-learning Modelle mit Daten von 102 Spielen der Fußball Bundesliga trainiert und ihre Genauigkeit evaluiert. Dabei zeigte sich eine Genauigkeit von bis zu 92% für einen einzelnen Moment und eine Präzision von 81% für ganze Unterbrechungen. / This study deals with the prediction, based solely on player position data, whether a soccer match is interrupted at a moment or not. For this purpose, four machine-learning models were trained with data from 102 matches of the German Bundesliga and their accuracy was evaluated. The results showed an accuracy of up to 92% for a single moment and a precision of 81% for whole interruptions.
|
263 |
Exercise assessment in trampoline sport by automated jump classificationWoltmann, Lucas, Ferger, Katja, Hartmann, Claudio, Lehner, Wolfgang 14 October 2022 (has links)
The results of the presented work show that machine learning (ML) can be used to support correct training logging in order to improve technical performance in trampoline gymnastics. They indicate considerable potential for expanding mobile applications in a sport with complex movement requirements. / Die Ergebnisse der vorgestellten Arbeit zeigen, dass maschinelles Lernen (ML) zur Unterstützung einer korrekten Trainingsprotokollierung eingesetzt werden kann, um die technische Leistung im Trampolinturnen zu verbessern. Sie weisen auf ein erhebliches Potenzial für die Erweiterung mobiler Anwendungen in einer Sportart mit komplexen Bewegungsanforderungen hin.
|
264 |
Sports Scene Searching, Rating & Solving using AIMarzilger, Robert, Hirn, Fabian, Aznar Alvarez, Raul, Witt, Nicolas 14 October 2022 (has links)
This work shows the application of artificial intelligence (AI) on invasion game tracking data to realize a fast (sub-second) and adaptable search engine for sports scenes, scene ratings based on machine learning (ML) and computer-generated solutions using reinforcement learning (RL). We provide research results for all three areas. Benefits are expected for accelerated video analysis at professional sports clubs. / Diese Arbeit zeigt die Anwendung von künstlicher Intelligenz (KI) auf Invasionsspielverfolgungsdaten, um eine schnelle (unter einer Sekunde) und anpassungsfähige Suchmaschine für Sportszenen zu realisieren, Szenenbewertungen auf der Grundlage von maschinellem Lernen (ML) und computergenerierte Lösungen unter Verwendung von Verstärkungslernen (RL). Wir stellen Forschungsergebnisse für alle drei Bereiche vor. Es werden Vorteile für eine beschleunigte Videoanalyse in Profisportvereinen erwartet.
|
265 |
Bestimmung der Skigeschwindigkeit mittels IMU-Daten und maschinellen LernensCarqueville, Patrick, Hermann, Aljoscha, Senner, Veit 14 October 2022 (has links)
Diese Arbeit zeigt den explorativen Ansatz ein künstliches neuronales Netz (kNN) und Daten einer auf dem Ski befindlichen inertialen Messeinheit (IMU) zu verwenden, um auf die Fahrgeschwindigkeit zu schließen. Für das Training des kNN wird dabei die 3D Geschwindigkeit einer auf dem Ski befindlichen GNSS-Antenne als Zielwert verwendet. / This work shows the exploratory approach of using an artificial neural network (kNN) and data from an inertial measurement unit (IMU) located on the ski to infer the ski speed. For the training of the kNN, the 3D speed of a GNSS antenna on the ski is used as a target value.
|
266 |
Optimierung von Algorithmen zur Videoanalyse / Optimization of algorithms for video analysis : A framework to fit the demands of local television stationsRitter, Marc 02 February 2015 (has links) (PDF)
Die Datenbestände lokaler Fernsehsender umfassen oftmals mehrere zehntausend Videokassetten. Moderne Verfahren werden benötigt, um derartige Datenkollektionen inhaltlich automatisiert zu erschließen. Das Auffinden relevanter Objekte spielt dabei eine übergeordnete Rolle, wobei gesteigerte Anforderungen wie niedrige Fehler- und hohe Detektionsraten notwendig sind, um eine Korruption des Suchindex zu verhindern und erfolgreiche Recherchen zu ermöglichen. Zugleich müssen genügend Objekte indiziert werden, um Aussagen über den tatsächlichen Inhalt zu treffen.
Diese Arbeit befasst sich mit der Anpassung und Optimierung bestehender Detektionsverfahren. Dazu wird ein auf die hohen Leistungsbedürfnisse der Videoanalyse zugeschnittenes holistisches Workflow- und Prozesssystem mit der Zielstellung implementiert, die Entwicklung von Bilderkennungsalgorithmen, die Visualisierung von Zwischenschritten sowie deren Evaluation zu ermöglichen. Im Fokus stehen Verfahren zur strukturellen Zerlegung von Videomaterialien und zur inhaltlichen Analyse im Bereich der Gesichtsdetektion und Fußgängererkennung. / The data collections of local television stations often consist of multiples of ten thousand video tapes. Modern methods are needed to exploit the content of such archives. While the retrieval of objects plays a fundamental role, essential requirements incorporate low false and high detection rates in order to prevent the corruption of the search index. However, a sufficient number of objects need to be found to make assumptions about the content explored.
This work focuses on the adjustment and optimization of existing detection techniques. Therefor, the author develops a holistic framework that directly reflects on the high demands of video analysis with the aim to facilitate the development of image processing algorithms, the visualization of intermediate results, and their evaluation and optimization. The effectiveness of the system is demonstrated on the structural decomposition of video footage and on content-based detection of faces and pedestrians.
|
267 |
Analyse von Translationsstarts in prokaryotischen Genomen mit Methoden des Maschinellen Lernens / Analysis of translation initiation sites in prokaryotic genomes with machnine learning methodsTech, Maike 02 November 2007 (has links)
No description available.
|
268 |
Clustering of Distributed Word Representations and its Applicability for Enterprise SearchKorger, Christina 04 October 2016 (has links) (PDF)
Machine learning of distributed word representations with neural embeddings is a state-of-the-art approach to modelling semantic relationships hidden in natural language. The thesis “Clustering of Distributed Word Representations and its Applicability for Enterprise Search” covers different aspects of how such a model can be applied to knowledge management in enterprises. A review of distributed word representations and related language modelling techniques, combined with an overview of applicable clustering algorithms, constitutes the basis for practical studies. The latter have two goals: firstly, they examine the quality of German embedding models trained with gensim and a selected choice of parameter configurations. Secondly, clusterings conducted on the resulting word representations are evaluated against the objective of retrieving immediate semantic relations for a given term. The application of the final results to company-wide knowledge management is subsequently outlined by the example of the platform intergator and conceptual extensions."
|
269 |
Interpretable Approximation of High-Dimensional Data based on the ANOVA DecompositionSchmischke, Michael 08 July 2022 (has links)
The thesis is dedicated to the approximation of high-dimensional functions from scattered data nodes. Many methods in this area lack the property of interpretability in the context of explainable artificial intelligence. The idea is to address this shortcoming by proposing a new method that is intrinsically designed around interpretability. The multivariate analysis of variance (ANOVA) decomposition is the main tool to achieve this purpose. We study the connection between the ANOVA decomposition and orthonormal bases to obtain a powerful basis representation. Moreover, we focus on functions that are mostly explained by low-order interactions to circumvent the curse of dimensionality in its exponential form. Through the connection with grouped index sets, we can propose a least-squares approximation idea via iterative LSQR. Here, the proposed grouped transformations provide fast algorithms for multiplication with the appearing matrices. Through global sensitivity indices we are then able to analyze the approximation which can be used in improving it further. The method is also well-suited for the approximation of real data sets where the sparsity-of-effects principle ensures a low-dimensional structure. We demonstrate the applicability of the method in multiple numerical experiments with real and synthetic data.:1 Introduction
2 The Classical ANOVA Decomposition
3 Fast Multiplication with Grouped Transformations
4 High-Dimensional Explainable ANOVA Approximation
5 Numerical Experiments with Synthetic Data
6 Numerical Experiments with Real Data
7 Conclusion
Bibliography / Die Arbeit widmet sich der Approximation von hoch-dimensionalen Funktionen aus verstreuten Datenpunkten. In diesem Bereich leiden vielen Methoden darunter, dass sie nicht interpretierbar sind, was insbesondere im Kontext von Explainable Artificial Intelligence von großer Wichtigkeit ist. Um dieses Problem zu adressieren, schlagen wir eine neue Methode vor, die um das Konzept von Interpretierbarkeit entwickelt ist. Unser wichtigstes Werkzeug dazu ist die Analysis of Variance (ANOVA) Zerlegung. Wir betrachten insbesondere die Verbindung der ANOVA Zerlegung zu orthonormalen Basen und erhalten eine wichtige Reihendarstellung. Zusätzlich fokussieren wir uns auf Funktionen, die hauptsächlich durch niedrig-dimensionale Variableninteraktionen erklärt werden. Dies hilft uns, den Fluch der Dimensionen in seiner exponentiellen Form zu überwinden. Über die Verbindung zu Grouped Index Sets schlagen wir dann eine kleinste Quadrate Approximation mit dem iterativen LSQR Algorithmus vor. Dabei liefern die vorgeschlagenen Grouped Transformations eine schnelle Multiplikation mit den entsprechenden Matrizen. Unter Zuhilfenahme von globalen Sensitvitätsindizes können wir die Approximation analysieren und weiter verbessern. Die Methode ist zudem gut dafür geeignet, reale Datensätze zu approximieren, wobei das sparsity-of-effects Prinzip sicherstellt, dass wir mit niedrigdimensionalen Strukturen arbeiten. Wir demonstrieren die Anwendbarkeit der Methode in verschiedenen numerischen Experimenten mit realen und synthetischen Daten.:1 Introduction
2 The Classical ANOVA Decomposition
3 Fast Multiplication with Grouped Transformations
4 High-Dimensional Explainable ANOVA Approximation
5 Numerical Experiments with Synthetic Data
6 Numerical Experiments with Real Data
7 Conclusion
Bibliography
|
270 |
Increasing information transfer rates for brain-computer interfacingDornhege, Guido January 2006 (has links)
The goal of a Brain-Computer Interface (BCI) consists of the development of a unidirectional interface between a human and a computer to allow control of a device only via brain signals. While the BCI systems of almost all other groups require the user to be trained over several weeks or even months, the group of Prof. Dr. Klaus-Robert Müller in Berlin and Potsdam, which I belong to, was one of the first research groups in this field which used machine learning techniques on a large scale. The adaptivity of the processing system to the individual brain patterns of the subject confers huge advantages for the user. Thus BCI
research is considered a hot topic in machine learning and computer science. It requires interdisciplinary cooperation between disparate fields such as neuroscience, since only by combining machine learning and signal processing techniques based on neurophysiological knowledge will the largest progress be made.<br><br>
In this work I particularly deal with my part of this project, which lies mainly in the area of computer science. I have considered the following three main points:<br><br>
<b>Establishing a performance measure based on information theory:</b> I have critically illuminated the assumptions of Shannon's information transfer rate for application in a BCI context. By establishing suitable coding strategies I was able to show that this theoretical measure approximates quite well to what is practically achieveable.<br>
<b>Transfer and development of suitable signal processing and machine learning techniques:</b>
One substantial component of my work was to develop several machine learning
and signal processing algorithms to improve the efficiency of a BCI. Based on the neurophysiological knowledge that several independent EEG features can be observed for some mental states, I have developed a method for combining different and maybe independent features which improved performance. In some cases the performance of the combination algorithm outperforms the best single performance by more than 50 %. Furthermore, I have theoretically and practically addressed via the development of suitable algorithms the question of the optimal number of classes which should be used for a BCI. It transpired that with BCI performances reported so far, three or four different mental states are optimal.
For another extension I have combined ideas from signal processing with those of machine learning since a high gain can be achieved if the temporal filtering, i.e., the choice of frequency bands, is automatically adapted to each subject individually.<br>
<b>Implementation of the Berlin brain computer interface and realization of suitable experiments:</b>
Finally a further substantial component of my work was to realize an online BCI
system which includes the developed methods, but is also flexible enough to allow the simple realization of new algorithms and ideas. So far, bitrates of up to 40 bits per minute have been achieved with this system by absolutely untrained users which, compared to results of other groups, is highly successful. / Ein Brain-Computer Interface (BCI) ist eine unidirektionale Schnittstelle zwischen Mensch und Computer, bei der ein Mensch in der Lage ist, ein Gerät einzig und allein Kraft seiner Gehirnsignale zu steuern. In den BCI Systemen fast aller Forschergruppen wird der Mensch in Experimenten über Wochen oder sogar Monaten trainiert, geeignete Signale zu produzieren, die vordefinierten allgemeinen Gehirnmustern entsprechen. Die BCI Gruppe in Berlin und Potsdam, der ich angehöre, war in diesem Feld eine der ersten, die erkannt hat,
dass eine Anpassung des Verarbeitungssystems an den Menschen mit Hilfe der Techniken des Maschinellen Lernens große Vorteile mit sich bringt. In unserer Gruppe und mittlerweile auch in vielen anderen Gruppen wird BCI somit als aktuelles Forschungsthema im Maschinellen Lernen und folglich in der Informatik mit interdisziplinärer Natur in Neurowissenschaften und anderen Feldern verstanden, da durch die geeignete Kombination von Techniken des Maschinellen Lernens und der Signalverarbeitung basierend auf neurophysiologischem Wissen der größte Erfolg erzielt werden konnte.<br><br>
In dieser Arbeit gehe ich auf meinem Anteil an diesem Projekt ein, der vor allem im Informatikbereich der BCI Forschung liegt. Im Detail beschäftige ich mich mit den folgenden drei Punkten:<br><br>
<b>Diskussion eines informationstheoretischen Maßes für die Güte eines BCI's:</b> Ich habe kritisch die Annahmen von Shannon's Informationsübertragungsrate für die Anwendung im BCI Kontext beleuchtet. Durch Ermittlung von geeigneten Kodierungsstrategien konnte ich zeigen, dass dieses theoretische Maß den praktisch erreichbaren Wert ziemlich gut annähert.<br>
<b>Transfer und Entwicklung von geeigneten Techniken aus dem Bereich der Signalverarbeitung und des Maschinellen Lernens:</b> Eine substantielle Komponente meiner Arbeit war die Entwicklung von Techniken des Machinellen Lernens und der Signalverarbeitung, um die Effizienz eines BCI's zu erhöhen. Basierend auf dem neurophysiologischem Wissen, dass verschiedene unabhängige Merkmale in Gehirnsignalen für verschiedene mentale Zustände beobachtbar sind, habe ich eine Methode zur Kombination von verschiedenen und unter Umständen unabhängigen Merkmalen entwickelt, die sehr erfolgreich die Fähigkeiten eines BCI's verbessert. Besonders in einigen Fällen übertraf die Leistung des entwickelten Kombinationsalgorithmus die beste Leistung auf den einzelnen Merkmalen mit mehr als 50 %. Weiterhin habe ich theoretisch und praktisch durch Einführung geeigneter Algorithmen die Frage untersucht, wie viele Klassen man für ein BCI nutzen kann und sollte. Auch hier wurde ein relevantes Resultat erzielt, nämlich dass für BCI Güten, die bis heute berichtet sind, die Benutzung von 3 oder 4 verschiedenen mentalen Zuständen in der Regel optimal im Sinne von erreichbarer Leistung sind. Für eine andere Erweiterung wurden Ideen aus der Signalverarbeitung mit denen des Maschinellen Lernens kombiniert, da ein hoher Erfolg erzielt werden kann, wenn der temporale Filter, d.h. die Wahl des benutzten Frequenzbandes, automatisch und individuell für jeden Menschen angepasst wird.<br>
<b>Implementation des Berlin Brain-Computer Interfaces und Realisierung von geeigneten Experimenten:</b> Eine weitere wichtige Komponente meiner Arbeit war eine Realisierung eines online BCI Systems, welches die entwickelten Methoden umfasst, aber auch so flexibel ist, dass neue Algorithmen und Ideen einfach zu verwirklichen sind. Bis jetzt wurden mit diesem System Bitraten von bis zu 40 Bits pro Minute von absolut untrainierten Personen in ihren ersten BCI Experimenten erzielt. Dieses Resultat übertrifft die bisher
berichteten Ergebnisse aller anderer BCI Gruppen deutlich.
<br>
<hr>
Bemerkung:<br>
Der Autor wurde mit dem <i>Michelson-Preis</i> 2005/2006 für die beste Promotion des Jahrgangs der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam ausgezeichnet.
|
Page generated in 0.0734 seconds