• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 40
  • 11
  • 1
  • 1
  • Tagged with
  • 95
  • 49
  • 40
  • 34
  • 28
  • 22
  • 22
  • 22
  • 20
  • 19
  • 16
  • 15
  • 15
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Measuring Group Separability in Geometrical Space for Evaluation of Pattern Recognition and Dimension Reduction Algorithms

Acevedo, Aldo, Duran, Claudio, Kuo, Ming-Ju, Ciucci, Sara, Schroeder, Michael, Cannistraci, Carlo Vittorio 22 January 2024 (has links)
Evaluating group separability is fundamental to pattern recognition. A plethora of dimension reduction (DR) algorithms has been developed to reveal the emergence of geometrical patterns in a lowdimensional space, where high-dimensional sample similarities are approximated by geometrical distances. However, statistical measures to evaluate the group separability attained by DR representations are missing. Traditional cluster validity indices (CVIs) might be applied in this context, but they present multiple limitations because they are not specifically tailored for DR. Here, we introduce a new rationale called projection separability (PS), which provides a methodology expressly designed to assess the group separability of data samples in a DR geometrical space. Using this rationale, we implemented a new class of indices named projection separability indices (PSIs) based on four statistical measures: Mann-Whitney U-test p-value, Area Under the ROC-Curve, Area Under the Precision-Recall Curve, and Matthews Correlation Coeffcient. The PSIs were compared to six representative cluster validity indices and one geometrical separability index using seven nonlinear datasets and six different DR algorithms. The results provide evidence that the implemented statistical-based measures designed on the basis of the PS rationale are more accurate than the other indices and can be adopted not only for evaluating and comparing group separability of DR results but also for fine-tuning DR algorithms' hyperparameters. Finally, we introduce a second methodological innovation termed trustworthiness, a statistical evaluation that accounts for separability uncertainty and associates to the measure of each index a p-value that expresses the significance level in comparison to a null model.
82

Wiedererkennung ungefilterter und Fourier-gefilterter Schwarzweißmuster duch Honigbienen (Apis mellifera L.)

Efler, Daniela Margarete 02 July 2004 (has links)
Honigbienen (Apis mellifera L.) sind in der Lage mit ihren Komplexaugen visuelle Muster wahrzunehmen und die Musterinformation im Zentralen Nervensystem zu speichern und für Ähnlichkeitsbewertungen wieder abzurufen. Die vorliegende Arbeit zeigt klare Evidenz gegen eine ausschließliche Bewertung von Schwarzweißmustern mit Hilfe von Template-Matching-Mechanismen. Mit systematisch abgewandelten Dressurparadigmen trainierte Bienen bewerteten Muster unabhängig von der erfolgten Dressur stets bevorzugt gemäß eher grober Mustereigenschaften, wie zum Beispiel die Parameter "schwarzer Musterzentralbereich" und "Musterzerstreutheit". Veränderte man in einem weiteren Versuchansatz die Musterinformation der Schwarzweißmuster zudem gezielt durch geeignete Fourier-Filterung, zeigte sich, dass Bienen zur Musterdiskriminierung bereits die Frequenzinformation von 2 - 8 Schwingungen/Bildbreite genügte. Diese Unschärfe der bewerteten Bildinformation ließ sich nicht ausschließlich aus den optischen Eigenschaften des visuellen Apparates der Bienen ableiten. Videodokumentationen und Einzelbildanalyse des Flugverhaltens der Bienen vor den Mustern ergaben zudem keinerlei Hinweise für eine Nutzung des Flugverhaltens als Bewertungsgrundlage zur Musterdiskriminierung. Die erhaltenen Ergebnisse zur Musterdiskriminierung wurden vor dem Hintergrund eines ökonomischen Entscheidungsmodells für menschliches Verhalten, den Frugalheuristiken, diskutiert und Hinweise auf eine ökonomische Bewertungsstrategie der Bienen entsprechend einer Take-The-Best-Heuristik gefunden. / Honeybees (Apis mellifera L.) are able to perceive visual patterns through their compound eyes and store the visual information in the central nervous system for subsequent use in pattern discrimination tasks. This thesis provides clear evidence against the assumption that pattern discrimination relies exclusively on template matching mechanisms. Bees discriminated pairs of patterns preferential using extracted pattern parameters. Within this thesis the preferred parameters of the bees following the training paradigms were coarse parameters such as "black centre" and "pattern disruption". In experiments with Fourier filtered patterns the frequency information of the patterns were additionally reduced. The results showed that bees could discriminate patterns using only 2 - 8 cycles/pattern-width of the frequency information. The fuzziness of the exploited visual information could not be assigned to restrictions of the visual system of bees. Additional documentation and single picture analysis of the videotaped flight behaviour in front of the patterns provided no evidence for bees using their flight behaviour in order to enhance the pattern discrimination ability. Application of economic human decision models (frugal heuristics) to the behavioural results showed clues that bees'' decisions could be explained with the help of the Take-The-Best-heuristic.
83

Automatische Klassifizierung von Gebäudegrundrissen

Hecht, Robert 23 September 2014 (has links) (PDF)
Für die Beantwortung verschiedener Fragestellungen im Siedlungsraum werden kleinräumige Informationen zur Siedlungsstruktur (funktional, morphologisch und sozio-ökonomisch) benötigt. Der Gebäudebestand spielt eine besondere Rolle, da dieser die physische Struktur prägt und sich durch dessen Nutzung Verteilungsmuster von Wohnungen, Arbeitsstätten und Infrastrukturen ergeben. In amtlichen Geodaten, Karten und Diensten des Liegenschaftskatasters und der Landesvermessung sind die Gebäude in ihrem Grundriss modelliert. Diese besitzen allerdings nur selten explizite semantische Informationen zum Gebäudetyp. Es stellt sich die Frage, ob und wie genau eine automatische Erkennung von Gebäudetypen unter Nutzung von Methoden der Geoinformatik, der Mustererkennung und des maschinellen Lernens möglich ist. In diesem Buch werden methodische Bausteine zur automatischen Klassifizierung von Gebäudegrundrissen vorgestellt. Im Kern werden Fragen beantwortet zu den Datenanforderungen, der Gebäudetypologie, der Merkmalsgewinnung sowie zu geeigneten Klassifikationsverfahren und den Klassifikationsgenauigkeiten, die abhängig von Eingangsdaten, Siedlungstyp und Trainingsdatenmenge erzielt werden können. Der Random-Forest-Algorithmus zeigte die höchste Flexibilität, Generalisierungsfähigkeit und Effizienz und wurde als bestes Klassifikationsverfahren identifiziert. Die Arbeit leistet einen wichtigen Beitrag zur Gewinnung kleinräumiger Informationen zur Siedlungsstruktur. Die entwickelte Methodik ermöglicht ein breites Anwendungsspektrum in der Wissenschaft, Planung, Politik und Wirtschaft (u. a. Stadt- und Regionalplanung, Infrastrukturplanung, Risikomanagement, Energiebedarfsplanung oder dem Geomarketing). / Building data are highly relevant for the small-scale description of settlement structures. Spatial base data from National Mapping and Cadastral Agencies describe the buildings in terms of the geometry but often lack semantic information on the building type. Here, methods for the automatic classification of building footprints are presented and discussed. The work addresses issues of data integration, data processing, feature extraction, feature selection, and investigates the accuracy of various classification methods. The results are of scientific, planning, policy and business interest at various spatial levels.
84

Automatische Erkennung von Gebäudetypen auf Grundlage von Geobasisdaten

Hecht, Robert 10 February 2015 (has links) (PDF)
Für die kleinräumige Modellierung und Analyse von Prozessen im Siedlungsraum spielen gebäudebasierte Informationen eine zentrale Rolle. In amtlichen Geodaten, Karten und Diensten des Liegenschaftskatasters und der Landesvermessung werden die Gebäude in ihrem Grundriss modelliert. Semantische Informationen zur Gebäudefunktion, der Wohnform oder dem Baualter sind in den Geobasisdaten nur selten gegeben. In diesem Beitrag wird eine Methode zur automatischen Klassifizierung von Gebäudegrundrissen vorgestellt mit dem Ziel, diese für die Ableitung kleinräumiger Informationen zur Siedlungsstruktur zu nutzen. Dabei kommen Methoden der Mustererkennung und des maschinellen Lernens zum Einsatz. Im Kern werden Gebäudetypologie, Eingangsdaten, Merkmalsgewinnung sowie verschiedene Klassifikationsverfahren hinsichtlich ihrer Genauigkeit und Generalisierungsfähigkeit untersucht. Der Ensemble-basierte Random-Forest-Algorithmus zeigt im Vergleich zu 15 weiteren Lernverfahren die höchste Generalisierungsfähigkeit und Effizienz und wurde als bester Klassifikator zur Lösung der Aufgabenstellung identifiziert. Für Gebäudegrundrisse im Vektormodell, speziell den Gebäuden aus der ALK, dem ALKIS® oder dem ATKIS® Basis-DLM sowie den amtlichen Hausumringen und 3D-Gebäudemodellen, kann mit dem Klassifikator für alle städtischen Gebiete eine Klassifikationsgenauigkeit zwischen 90 % und 95 % erreicht werden. Die Genauigkeit bei Nutzung von Gebäudegrundrissen extrahiert aus digitalen topographischen Rasterkarten ist mit 76 % bis 88 % deutlich geringer. Die automatische Klassifizierung von Gebäudegrundrissen leistet einen wichtigen Beitrag zur Gewinnung von Informationen für die kleinräumige Beschreibung der Siedlungsstruktur. Neben der Relevanz in den Forschungs- und Anwendungsfeldern der Stadtgeographie und Stadtplanung sind die Ergebnisse auch für die kartographischen Arbeitsfelder der Kartengeneralisierung, der automatisierten Kartenerstellung sowie verschiedenen Arbeitsfeldern der Geovisualisierung relevant.
85

Adaptive sequential feature selection in visual perception and pattern recognition

Avdiyenko, Liliya 15 September 2014 (has links)
In the human visual system, one of the most prominent functions of the extensive feedback from the higher brain areas within and outside of the visual cortex is attentional modulation. The feedback helps the brain to concentrate its resources on visual features that are relevant for recognition, i. e. it iteratively selects certain aspects of the visual scene for refined processing by the lower areas until the inference process in the higher areas converges to a single hypothesis about this scene. In order to minimize a number of required selection-refinement iterations, one has to find a short sequence of maximally informative portions of the visual input. Since the feedback is not static, the selection process is adapted to a scene that should be recognized. To find a scene-specific subset of informative features, the adaptive selection process on every iteration utilizes results of previous processing in order to reduce the remaining uncertainty about the visual scene. This phenomenon inspired us to develop a computational algorithm solving a visual classification task that would incorporate such principle, adaptive feature selection. It is especially interesting because usually feature selection methods are not adaptive as they define a unique set of informative features for a task and use them for classifying all objects. However, an adaptive algorithm selects features that are the most informative for the particular input. Thus, the selection process should be driven by statistics of the environment concerning the current task and the object to be classified. Applied to a classification task, our adaptive feature selection algorithm favors features that maximally reduce the current class uncertainty, which is iteratively updated with values of the previously selected features that are observed on the testing sample. In information-theoretical terms, the selection criterion is the mutual information of a class variable and a feature-candidate conditioned on the already selected features, which take values observed on the current testing sample. Then, the main question investigated in this thesis is whether the proposed adaptive way of selecting features is advantageous over the conventional feature selection and in which situations. Further, we studied whether the proposed adaptive information-theoretical selection scheme, which is a computationally complex algorithm, is utilized by humans while they perform a visual classification task. For this, we constructed a psychophysical experiment where people had to select image parts that as they think are relevant for classification of these images. We present the analysis of behavioral data where we investigate whether human strategies of task-dependent selective attention can be explained by a simple ranker based on the mutual information, a more complex feature selection algorithm based on the conventional static mutual information and the proposed here adaptive feature selector that mimics a mechanism of the iterative hypothesis refinement. Hereby, the main contribution of this work is the adaptive feature selection criterion based on the conditional mutual information. Also it is shown that such adaptive selection strategy is indeed used by people while performing visual classification.:1. Introduction 2. Conventional feature selection 3. Adaptive feature selection 4. Experimental investigations of ACMIFS 5. Information-theoretical strategies of selective attention 6. Discussion Appendix Bibliography
86

Phonetische Transkription für ein multilinguales Sprachsynthesesystem

Hain, Horst-Udo 23 September 2004 (has links)
Die vorliegende Arbeit beschäftigt sich mit einem datengetriebenen Verfahren zur Graphem-Phonem-Konvertierung für ein Sprachsynthesesystem. Die Aufgabe besteht darin, die Aussprache für beliebige Wörter zu bestimmen, auch für solche Wörter, die nicht im Lexikon des Systems enthalten sind. Die Architektur an sich ist sprachenunabhängig, von der Sprache abhängig sind lediglich die Wissensquellen, die zur Laufzeit des Systems geladen werden. Die Erstellung von Wissensquellen für weitere Sprachen soll weitgehend automatisch und ohne Einsatz von Expertenwissen möglich sein. Expertenwissen kann verwendet werden, um die Ergebnisse zu verbessern, darf aber keine Voraussetzung sein. Für die Bestimmung der Transkription werden zwei neuronale Netze verwendet. Das erste Netz generiert aus der Buchstabenfolge des Wortes die zu realisierenden Laute einschließlich der Silbengrenzen, und das zweite bestimmt im Anschluß daran die Position der Wortbetonung. Diese Trennung hat den Vorteil, daß man für die Bestimmung des Wortakzentes das Wissen über die gesamte Lautfolge einbeziehen kann. Andere Verfahren, die die Transkription in einem Schritt bestimmen, haben das Problem, bereits zu Beginn des Wortes über den Akzent entscheiden zu müssen, obwohl die Aussprache des Wortes noch gar nicht feststeht. Zudem bietet die Trennung die Möglichkeit, zwei speziell auf die Anforderung zugeschnittene Netze zu trainieren. Die Besonderheit der hier verwendeten neuronalen Netze ist die Einführung einer Skalierungsschicht zwischen der eigentlichen Eingabe und der versteckten Schicht. Eingabe und Skalierungsschicht werden über eine Diagonalmatrix verbunden, wobei auf die Gewichte dieser Verbindung ein Weight Decay (Gewichtezerfall) angewendet wird. Damit erreicht man eine Bewertung der Eingabeinformation während des Trainings. Eingabeknoten mit einem großen Informationsgehalt werden verstärkt, während weniger interessante Knoten abgeschwächt werden. Das kann sogar soweit gehen, daß einzelne Knoten vollständig abgetrennt werden. Der Zweck dieser Verbindung ist, den Einfluß des Rauschens in den Trainingsdaten zu reduzieren. Durch das Ausblenden der unwichtigen Eingabewerte ist das Netz besser in der Lage, sich auf die wichtigen Daten zu konzentrieren. Das beschleunigt das Training und verbessert die erzielten Ergebnisse. In Verbindung mit einem schrittweisen Ausdünnen der Gewichte (Pruning) werden zudem störende oder unwichtige Verbindungen innerhalb der Netzwerkarchitektur gelöscht. Damit wird die Generalisierungsfähigkeit noch einmal erhöht. Die Aufbereitung der Lexika zur Generierung der Trainingsmuster für die neuronalen Netze wird ebenfalls automatisch durchgeführt. Dafür wird mit Hilfe der dynamischen Zeitanpassung (DTW) der optimale Pfad in einer Ebene gesucht, die auf der einen Koordinate durch die Buchstaben des Wortes und auf der anderen Koordinate durch die Lautfolge aufgespannt wird. Somit erhält man eine Zuordnung der Laute zu den Buchstaben. Aus diesen Zuordnungen werden die Muster für das Training der Netze generiert. Um die Transkriptionsergebnisse weiter zu verbessern, wurde ein hybrides Verfahren unter Verwendung der Lexika und der Netze entwickelt. Unbekannte Wörter werden zuerst in Bestandteile aus dem Lexikon zerlegt und die Lautfolgen dieser Teilwörter zur Gesamttranskription zusammengesetzt. Dabei werden Lücken zwischen den Teilwörtern durch die neuronalen Netze aufgefüllt. Dies ist allerdings nicht ohne weiteres möglich, da es zu Fehlern an den Schnittstellen zwischen den Teiltranskriptionen kommen kann. Dieses Problem wird mit Hilfe des Lexikons gelöst, das für die Generierung der Trainingsmuster aufbereitet wurde. Hier ist eine eindeutige Zuordnung der Laute zu den sie generierenden Buchstaben enthalten. Somit können die Laute an den Schnittstellen neu bewertet und Transkriptionsfehler vermieden werden. Die Verlagsausgabe dieser Dissertation erschien 2005 im w.e.b.-Universitätsverlag Dresden (ISBN 3-937672-76-1). / The topic of this thesis is a system which is able to perform a grapheme-to-phoneme conversion for several languages without changes in its architecture. This is achieved by separation of the language dependent knowledge bases from the run-time system. Main focus is an automated adaptation to new languages by generation of new knowledge bases without manual effort with a minimal requirement for additional information. The only source is a lexicon containing all the words together with their appropriate phonetic transcription. Additional knowledge can be used to improve or accelerate the adaptation process, but it must not be a prerequisite. Another requirement is a fully automatic process without manual interference or post-editing. This allows for the adaptation to a new language without even having a command of that language. The only precondition is the pronunciation dictionary which should be enough for the data-driven approach to learn a new language. The automatic adaptation process is divided into two parts. In the first step the lexicon is pre-processed to determine which grapheme sequence belongs to which phoneme. This is the basis for the generation of the training patterns for the data-driven learning algorithm. In the second part mapping rules are derived automatically which are finally used to create the phonetic transcription of any word, even if it not contained in the dictionary. Task is to have a generalisation process that can handle all words in a text that has to be read out by a text-to-speech system.
87

fAST Refresh using Mass Query Optimization

Lehner, Wolfgang, Cochrane, Bobbie, Pirahesh, Hamid, Zaharioudakis, Markos 02 June 2022 (has links)
Automatic summary tables (ASTs), more commonly known as materialized views, are widely used to enhance query performance, particularly for aggregate queries. Such queries access a huge number of rows to retrieve aggregated summary data while performing multiple joins in the context of a typical data warehouse star schema. To keep ASTs consistent with their underlying base data, the ASTs are either immediately synchronized or fully recomputed. This paper proposes an optimization strategy for simultaneously refreshing multiple ASTs, thus avoiding multiple scans of a large fact table (one pass for AST computation). A query stacking strategy detects common sub-expressions using the available query matching technology of DB2. Since exact common sub-expressions are rare, the novel query sharing approach systematically generates common subexpressions for a given set of 'related' queries, considering different predicates, grouping expressions, and sets of base tables. The theoretical framework, a prototype implementation of both strategies in the IBM DB2 UDB/UWO database system, and performance evaluations based on the TPC/R data schema are presented in this paper.
88

Processing reporting function views in a data warehouse environment

Lehner, Wolfgang, Hummer, W., Schlesinger, L. 02 June 2022 (has links)
Reporting functions reflect a novel technique to formulate sequence-oriented queries in SQL. They extend the classical way of grouping and applying aggregation functions by additionally providing a column-based ordering, partitioning, and windowing mechanism. The application area of reporting functions ranges from simple ranking queries (TOP(n)-analyses) over cumulative (Year-To-Date-analyses) to sliding window queries. We discuss the problem of deriving reporting function queries from materialized reporting function views, which is one of the most important issues in efficiently processing queries in a data warehouse environment. Two different derivation algorithms, including their relational mappings are introduced and compared in a test scenario.
89

Combinatorial Properties of Periodic Patterns in Compressed Strings

Pape-Lange, Julian 07 November 2023 (has links)
In this thesis, we study the following three types of periodic string patterns and some of their variants. Firstly, we consider maximal d-repetitions. These are substrings that are at least 2+d times as long as their minimum period. Secondly, we consider 3-cadences. These are arithmetic subsequence of three equal characters. Lastly, we consider maximal pairs. These are pairs of identical substrings. Maximal d-repetitions and maximal pairs of uncompressed strings are already well-researched. However, no non-trivial upper bound for distinct occurrences of these patterns that take the compressed size of the underlying strings into account were known prior to this research. We provide upper bounds for several variants of these two patterns that depend on the compressed size of the string, the logarithm of the string's length, the highest allowed power and d. These results also lead to upper bounds and new insights for the compacted directed acyclic word graph and the run-length encoded Burrows-Wheeler transform. We prove that cadences with three elements can be efficiently counted in uncompressed strings and can even be efficiently detected on grammar-compressed binary strings. We also show that even slightly more difficult variants of this problem are already NP-hard on compressed strings. Along the way, we extend the underlying geometry of the convolution from rectangles to arbitrary polygons. We also prove that this non-rectangular convolution can still be efficiently computed.:1 Introduction 2 Preliminaries 3 Non-Rectangular Convolution 4 Alphabet Reduction 39 5 Maximal (Sub-)Repetitions 6 Cadences 7 Maximal Pairs A Propositions
90

Cutting force component-based rock differentiation utilising machine learning

Grafe, Bruno 02 August 2023 (has links)
This dissertation evaluates the possibilities and limitations of rock type identification in rock cutting with conical picks. For this, machine learning in conjunction with features derived from high frequency cutting force measurements is used. On the basis of linear cutting experiments, it is shown that boundary layers can be identified with a precision of less than 3.7 cm when using the developed programme routine. It is further shown that rocks weakened by cracks can be well identified and that anisotropic rock behaviour may be problematic to the classification success. In a case study, it is shown that the supervised algorithms artificial neural network and distributed random forest perform relatively well while unsupervised k-means clustering provides limited accuracies for complex situations. The 3d-results are visualised in a web app. The results suggest that a possible rock classification system can achieve good results—that are robust to changes in the cutting parameters when using the proposed evaluation methods.:1 Introduction...1 2 Cutting Excavation with Conical Picks...5 2.1 Cutting Process...8 2.1.2 Cutting Parameters...11 2.1.3 Influences of Rock Mechanical Properties...17 2.1.4 Influences of the Rock Mass...23 2.2 Ratios of Cutting Force Components...24 3 State of the Art...29 3.1 Data Analysis in Rock Cutting Research...29 3.2 Rock Classification Systems...32 3.2.1 MWC – Measure-While-Cutting...32 3.2.2 MWD – Measuring-While-Drilling...34 3.2.3 Automated Profiling During Cutting...35 3.2.4 Wear Monitoring...36 3.3 Machine learning for Rock Classification...36 4 Problem Statement and Justification of Topic...38 5 Material and Methods...40 5.1 Rock Cutting Equipment...40 5.2 Software & PC...42 5.3 Samples and Rock Cutting Parameters...43 5.3.1 Sample Sites...43 5.3.2 Experiment CO – Zoned Concrete...45 5.3.3 Experiment GN – Anisotropic Rock Gneiss...47 5.3.4 Experiment GR – Uncracked and Cracked Granite...49 5.3.5 Case Study PB and FBA – Lead-Zinc and Fluorite-Barite Ores...50 5.4 Data Processing...53 5.5 Force Component Ratio Calculation...54 5.6 Procedural Selection of Features...57 5.7 Image-Based Referencing and Rock Boundary Modelling...60 5.8 Block Modelling and Gridding...61 5.9 Correlation Analysis...63 5.10 Regression Analysis of Effect...64 5.11 Machine Learning...65 5.11.2 K-Means Algorithm...66 5.11.3 Artificial Neural Networks...67 5.11.4 Distributed Random Forest...70 5.11.5 Classification Success...72 5.11.6 Boundary Layer Recognition Precision...73 5.12 Machine Learning Case Study...74 6 Results...75 6.1 CO – Zoned Concrete...75 6.1.1 Descriptive Statistics...75 6.1.2 Procedural Evaluation...76 6.1.3 Correlation of the Covariates...78 6.1.4 K-Means Cluster Analysis...79 6.2 GN – Foliated Gneiss...85 6.2.1 Cutting Forces...86 6.2.2 Regression Analysis of Effect...88 6.2.3 Details Irregular Behaviour...90 6.2.4 Interpretation of Anisotropic Behaviour...92 6.2.5 Force Component Ratios...92 6.2.6 Summary and Interpretations of Results...93 6.3 CR – Cracked Granite...94 6.3.1 Force Component Results...94 6.3.2 Spatial Analysis...97 6.3.3 Error Analysis...99 6.3.4 Summary...100 6.4 Case Study...100 6.4.1 Feature Distribution in Block Models...101 6.4.2 Distributed Random Forest...105 6.4.3 Artificial Neural Network...107 6.4.4 K-Means...110 6.4.5 Training Data Required...112 7 Discussion...114 7.1 Critical Discussion of Experimental Results...114 7.1.1 Experiment CO...114 7.1.2 Experiment GN...115 7.1.3 Experiment GR...116 7.1.4 Case Study...116 7.1.5 Additional Outcomes...117 7.2 Comparison of Machine Learning Algorithms...118 7.2.1 K-Means...118 7.2.2 Artificial Neural Networks and Distributed Random Forest...119 7.2.3 Summary...120 7.3 Considerations Towards Sensor System...121 7.3.1 Force Vectors and Data Acquisition Rate...121 7.3.2 Sensor Types...122 7.3.3 Computation Speed...123 8 Summary and Outlook...125 References...128 Annex A Fields of Application of Conical Tools...145 Annex B Supplements Cutting and Rock Parameters...149 Annex C Details Topic-Analysis Rock Cutting Publications...155 Annex D Details Patent Analysis...157 Annex E Details Rock Cutting Unit HSX-1000-50...161 Annex F Details Used Pick...162 Annex G Error Analysis Cutting Experiments...163 Annex H Details Photographic Modelling...166 Annex I Laser Offset...168 Annex J Supplements Experiment CO...169 Annex K Supplements Experiment GN...187 Annex L Supplements Experiment GR...191 Annex M Preliminary Artificial Neural Network Training...195 Annex N Supplements Case Study (CD)...201 Annex O R-Codes (CD)...203 Annex P Supplements Rock Mechanical Tests (CD)...204 / Die Dissertation evaluiert Möglichkeiten und Grenzen der Gebirgserkennung bei der schneidenden Gewinnung von Festgesteinen mit Rundschaftmeißeln unter Nutzung maschinellen Lernens – in Verbindung mit aus hochaufgelösten Schnittkraftmessungen abgeleiteten Kennwerten. Es wird auf linearen Schneidversuchen aufbauend gezeigt, dass Schichtgrenzen mit Genauigkeiten unter 3,7 cm identifiziert werden können. Ferner wird gezeigt, dass durch Risse geschwächte Gesteine gut identifiziert werden können und dass anisotropes Gesteinsverhalten möglicherweise problematisch auf den Klassifizierungserfolg wirkt. In einer Fallstudie wird gezeigt, dass die überwachten Algorithmen Künstliches Neurales Netz und Distributed Random Forest teils sehr gute Ergebnisse erzielen und unüberwachtes k-means-Clustering begrenzte Genauigkeiten für komplexe Situationen liefert. Die Ergebnisse werden in einer Web-App visualisiert. Aus den Ergebnissen wird abgeleitet, dass ein mögliches Sensorsystem mit den vorgeschlagenen Auswerteroutinen gute Ergebnisse erzielen kann, die gleichzeitig robust gegen Änderungen der Schneidparameter sind.:1 Introduction...1 2 Cutting Excavation with Conical Picks...5 2.1 Cutting Process...8 2.1.2 Cutting Parameters...11 2.1.3 Influences of Rock Mechanical Properties...17 2.1.4 Influences of the Rock Mass...23 2.2 Ratios of Cutting Force Components...24 3 State of the Art...29 3.1 Data Analysis in Rock Cutting Research...29 3.2 Rock Classification Systems...32 3.2.1 MWC – Measure-While-Cutting...32 3.2.2 MWD – Measuring-While-Drilling...34 3.2.3 Automated Profiling During Cutting...35 3.2.4 Wear Monitoring...36 3.3 Machine learning for Rock Classification...36 4 Problem Statement and Justification of Topic...38 5 Material and Methods...40 5.1 Rock Cutting Equipment...40 5.2 Software & PC...42 5.3 Samples and Rock Cutting Parameters...43 5.3.1 Sample Sites...43 5.3.2 Experiment CO – Zoned Concrete...45 5.3.3 Experiment GN – Anisotropic Rock Gneiss...47 5.3.4 Experiment GR – Uncracked and Cracked Granite...49 5.3.5 Case Study PB and FBA – Lead-Zinc and Fluorite-Barite Ores...50 5.4 Data Processing...53 5.5 Force Component Ratio Calculation...54 5.6 Procedural Selection of Features...57 5.7 Image-Based Referencing and Rock Boundary Modelling...60 5.8 Block Modelling and Gridding...61 5.9 Correlation Analysis...63 5.10 Regression Analysis of Effect...64 5.11 Machine Learning...65 5.11.2 K-Means Algorithm...66 5.11.3 Artificial Neural Networks...67 5.11.4 Distributed Random Forest...70 5.11.5 Classification Success...72 5.11.6 Boundary Layer Recognition Precision...73 5.12 Machine Learning Case Study...74 6 Results...75 6.1 CO – Zoned Concrete...75 6.1.1 Descriptive Statistics...75 6.1.2 Procedural Evaluation...76 6.1.3 Correlation of the Covariates...78 6.1.4 K-Means Cluster Analysis...79 6.2 GN – Foliated Gneiss...85 6.2.1 Cutting Forces...86 6.2.2 Regression Analysis of Effect...88 6.2.3 Details Irregular Behaviour...90 6.2.4 Interpretation of Anisotropic Behaviour...92 6.2.5 Force Component Ratios...92 6.2.6 Summary and Interpretations of Results...93 6.3 CR – Cracked Granite...94 6.3.1 Force Component Results...94 6.3.2 Spatial Analysis...97 6.3.3 Error Analysis...99 6.3.4 Summary...100 6.4 Case Study...100 6.4.1 Feature Distribution in Block Models...101 6.4.2 Distributed Random Forest...105 6.4.3 Artificial Neural Network...107 6.4.4 K-Means...110 6.4.5 Training Data Required...112 7 Discussion...114 7.1 Critical Discussion of Experimental Results...114 7.1.1 Experiment CO...114 7.1.2 Experiment GN...115 7.1.3 Experiment GR...116 7.1.4 Case Study...116 7.1.5 Additional Outcomes...117 7.2 Comparison of Machine Learning Algorithms...118 7.2.1 K-Means...118 7.2.2 Artificial Neural Networks and Distributed Random Forest...119 7.2.3 Summary...120 7.3 Considerations Towards Sensor System...121 7.3.1 Force Vectors and Data Acquisition Rate...121 7.3.2 Sensor Types...122 7.3.3 Computation Speed...123 8 Summary and Outlook...125 References...128 Annex A Fields of Application of Conical Tools...145 Annex B Supplements Cutting and Rock Parameters...149 Annex C Details Topic-Analysis Rock Cutting Publications...155 Annex D Details Patent Analysis...157 Annex E Details Rock Cutting Unit HSX-1000-50...161 Annex F Details Used Pick...162 Annex G Error Analysis Cutting Experiments...163 Annex H Details Photographic Modelling...166 Annex I Laser Offset...168 Annex J Supplements Experiment CO...169 Annex K Supplements Experiment GN...187 Annex L Supplements Experiment GR...191 Annex M Preliminary Artificial Neural Network Training...195 Annex N Supplements Case Study (CD)...201 Annex O R-Codes (CD)...203 Annex P Supplements Rock Mechanical Tests (CD)...204

Page generated in 0.1084 seconds