• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 213
  • 74
  • 14
  • 2
  • Tagged with
  • 302
  • 302
  • 210
  • 187
  • 178
  • 133
  • 123
  • 123
  • 61
  • 36
  • 35
  • 31
  • 29
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Landsat derived land surface phenology metrics for the characterization of natural vegetation in the Brazilian savanna

Schwieder, Marcel 30 August 2018 (has links)
Die Brasilianische Savanne, auch bekannt als der Cerrado, bedeckt ca. 24% der Landoberfläche Brasiliens. Der Cerrado ist von einer einzigartigen Biodiversität und einem starken Gradienten in der Vegetationsstruktur gekennzeichnet. Großflächige Landnutzungsveränderungen haben dazu geführt, dass annähernd die Hälfte der Cerrado in bewirtschaftetes Land umgewandelt wurde. Die Kartierung ökologischer Prozesse ist nützlich, um naturschutzpolitische Entscheidungen auf räumlich explizite Informationen zu stützen, sowie um das Verständnis der Ökosystemdynamik zu verbessern. Neue Erdbeobachtungssensoren, frei verfügbare Daten, sowie Fortschritte in der Datenverarbeitung ermöglichen erstmalig die großflächige Erfassung saisonaler Vegetationsdynamiken mit hohem räumlichen Detail. In dieser Arbeit wird der Mehrwert von Landsat-basierten Landoberflächenphänologischen (LSP) Metriken, für die Charakterisierung der Cerrado-Vegetation, hinsichtlich ihrer strukturellen und phänologischen Diversität, sowie zur Schätzung des oberirdischen Kohlenstoffgehaltes (AGC), analysiert. Die Ergebnisse zeigen, dass LSP-Metriken die saisonale Vegetatiosdynamik erfassen und für die Kartierung von Vegetationsphysiognomien nützlich sind, wobei hier die Grenzen der Einteilung von Vegetationsgradienten in diskrete Klassen erreicht wurden. Basierend auf Ähnlichkeiten in LSP wurden LSP Archetypen definiert, welche die Erfassung und Darstellung der phänologischen Diversität im gesamten Cerrado ermöglichten und somit zur Optimierung aktueller Kartierungskonzepte beitragen können. LSP-Metriken ermöglichten die räumlich explizite Quantifizierung von AGC in drei Untersuchungsgebieten und sollten bei zukünftigen Kohlenstoffschätzungen berücksichtigt werden. Die Erkenntnisse dieser Dissertation zeigen die Vorteile und Nutzungsmöglichkeiten von LSP Metriken im Bereich der Ökosystemüberwachung und haben demnach direkte Implikationen für die Entwicklung und Bewertung nachhaltiger Landnutzungsstrategien. / The Brazilian savanna, known as the Cerrado, covers around 24% of Brazil. It is characterized by a unique biodiversity and a strong gradient in vegetation structure. Land-use changes have led to almost half of the Cerrado being converted into cultivated land. The mapping of ecological processes is, therefore, an important prerequisite for supporting nature conservation policies based on spatially explicit information and for deepening our understanding of ecosystem dynamics. New sensors, freely available data, and advances in data processing allow the analysis of large data sets and thus for the first time to capture seasonal vegetation dynamics over large extents with a high spatial detail. This thesis aimed to analyze the benefits of Landsat based land surface phenological (LSP) metrics, for the characterization of Cerrado vegetation, regarding its structural and phenological diversity, and to assess their relation to above ground carbon. The results revealed that LSP metrics enable to capture the seasonal dynamics of photosynthetically active vegetation and are beneficial for the mapping of vegetation physiognomies. However, the results also revealed limitations of hard classification approaches for mapping vegetation gradients in complex ecosystems. Based on similarities in LSP metrics, which were for the first time derived for the whole extent of the Cerrado, LSP archetypes were proposed, which revealed the spatial patterns of LSP diversity at a 30 m spatial resolution and offer potential to enhance current mapping concepts. Further, LSP metrics facilitated the spatially explicit quantification of AGC in three study areas in the central Cerrado and should thus be considered as a valuable variable for future carbon estimations. Overall, the insights highlight that Landsat based LSP metrics are beneficial for ecosystem monitoring approaches, which are crucial to design sustainable land management strategies that maintain key ecosystem functions and services.
232

Interpretable Approximation of High-Dimensional Data based on the ANOVA Decomposition

Schmischke, Michael 08 July 2022 (has links)
The thesis is dedicated to the approximation of high-dimensional functions from scattered data nodes. Many methods in this area lack the property of interpretability in the context of explainable artificial intelligence. The idea is to address this shortcoming by proposing a new method that is intrinsically designed around interpretability. The multivariate analysis of variance (ANOVA) decomposition is the main tool to achieve this purpose. We study the connection between the ANOVA decomposition and orthonormal bases to obtain a powerful basis representation. Moreover, we focus on functions that are mostly explained by low-order interactions to circumvent the curse of dimensionality in its exponential form. Through the connection with grouped index sets, we can propose a least-squares approximation idea via iterative LSQR. Here, the proposed grouped transformations provide fast algorithms for multiplication with the appearing matrices. Through global sensitivity indices we are then able to analyze the approximation which can be used in improving it further. The method is also well-suited for the approximation of real data sets where the sparsity-of-effects principle ensures a low-dimensional structure. We demonstrate the applicability of the method in multiple numerical experiments with real and synthetic data.:1 Introduction 2 The Classical ANOVA Decomposition 3 Fast Multiplication with Grouped Transformations 4 High-Dimensional Explainable ANOVA Approximation 5 Numerical Experiments with Synthetic Data 6 Numerical Experiments with Real Data 7 Conclusion Bibliography / Die Arbeit widmet sich der Approximation von hoch-dimensionalen Funktionen aus verstreuten Datenpunkten. In diesem Bereich leiden vielen Methoden darunter, dass sie nicht interpretierbar sind, was insbesondere im Kontext von Explainable Artificial Intelligence von großer Wichtigkeit ist. Um dieses Problem zu adressieren, schlagen wir eine neue Methode vor, die um das Konzept von Interpretierbarkeit entwickelt ist. Unser wichtigstes Werkzeug dazu ist die Analysis of Variance (ANOVA) Zerlegung. Wir betrachten insbesondere die Verbindung der ANOVA Zerlegung zu orthonormalen Basen und erhalten eine wichtige Reihendarstellung. Zusätzlich fokussieren wir uns auf Funktionen, die hauptsächlich durch niedrig-dimensionale Variableninteraktionen erklärt werden. Dies hilft uns, den Fluch der Dimensionen in seiner exponentiellen Form zu überwinden. Über die Verbindung zu Grouped Index Sets schlagen wir dann eine kleinste Quadrate Approximation mit dem iterativen LSQR Algorithmus vor. Dabei liefern die vorgeschlagenen Grouped Transformations eine schnelle Multiplikation mit den entsprechenden Matrizen. Unter Zuhilfenahme von globalen Sensitvitätsindizes können wir die Approximation analysieren und weiter verbessern. Die Methode ist zudem gut dafür geeignet, reale Datensätze zu approximieren, wobei das sparsity-of-effects Prinzip sicherstellt, dass wir mit niedrigdimensionalen Strukturen arbeiten. Wir demonstrieren die Anwendbarkeit der Methode in verschiedenen numerischen Experimenten mit realen und synthetischen Daten.:1 Introduction 2 The Classical ANOVA Decomposition 3 Fast Multiplication with Grouped Transformations 4 High-Dimensional Explainable ANOVA Approximation 5 Numerical Experiments with Synthetic Data 6 Numerical Experiments with Real Data 7 Conclusion Bibliography
233

Increasing information transfer rates for brain-computer interfacing

Dornhege, Guido January 2006 (has links)
The goal of a Brain-Computer Interface (BCI) consists of the development of a unidirectional interface between a human and a computer to allow control of a device only via brain signals. While the BCI systems of almost all other groups require the user to be trained over several weeks or even months, the group of Prof. Dr. Klaus-Robert Müller in Berlin and Potsdam, which I belong to, was one of the first research groups in this field which used machine learning techniques on a large scale. The adaptivity of the processing system to the individual brain patterns of the subject confers huge advantages for the user. Thus BCI research is considered a hot topic in machine learning and computer science. It requires interdisciplinary cooperation between disparate fields such as neuroscience, since only by combining machine learning and signal processing techniques based on neurophysiological knowledge will the largest progress be made.<br><br> In this work I particularly deal with my part of this project, which lies mainly in the area of computer science. I have considered the following three main points:<br><br> <b>Establishing a performance measure based on information theory:</b> I have critically illuminated the assumptions of Shannon's information transfer rate for application in a BCI context. By establishing suitable coding strategies I was able to show that this theoretical measure approximates quite well to what is practically achieveable.<br> <b>Transfer and development of suitable signal processing and machine learning techniques:</b> One substantial component of my work was to develop several machine learning and signal processing algorithms to improve the efficiency of a BCI. Based on the neurophysiological knowledge that several independent EEG features can be observed for some mental states, I have developed a method for combining different and maybe independent features which improved performance. In some cases the performance of the combination algorithm outperforms the best single performance by more than 50 %. Furthermore, I have theoretically and practically addressed via the development of suitable algorithms the question of the optimal number of classes which should be used for a BCI. It transpired that with BCI performances reported so far, three or four different mental states are optimal. For another extension I have combined ideas from signal processing with those of machine learning since a high gain can be achieved if the temporal filtering, i.e., the choice of frequency bands, is automatically adapted to each subject individually.<br> <b>Implementation of the Berlin brain computer interface and realization of suitable experiments:</b> Finally a further substantial component of my work was to realize an online BCI system which includes the developed methods, but is also flexible enough to allow the simple realization of new algorithms and ideas. So far, bitrates of up to 40 bits per minute have been achieved with this system by absolutely untrained users which, compared to results of other groups, is highly successful. / Ein Brain-Computer Interface (BCI) ist eine unidirektionale Schnittstelle zwischen Mensch und Computer, bei der ein Mensch in der Lage ist, ein Gerät einzig und allein Kraft seiner Gehirnsignale zu steuern. In den BCI Systemen fast aller Forschergruppen wird der Mensch in Experimenten über Wochen oder sogar Monaten trainiert, geeignete Signale zu produzieren, die vordefinierten allgemeinen Gehirnmustern entsprechen. Die BCI Gruppe in Berlin und Potsdam, der ich angehöre, war in diesem Feld eine der ersten, die erkannt hat, dass eine Anpassung des Verarbeitungssystems an den Menschen mit Hilfe der Techniken des Maschinellen Lernens große Vorteile mit sich bringt. In unserer Gruppe und mittlerweile auch in vielen anderen Gruppen wird BCI somit als aktuelles Forschungsthema im Maschinellen Lernen und folglich in der Informatik mit interdisziplinärer Natur in Neurowissenschaften und anderen Feldern verstanden, da durch die geeignete Kombination von Techniken des Maschinellen Lernens und der Signalverarbeitung basierend auf neurophysiologischem Wissen der größte Erfolg erzielt werden konnte.<br><br> In dieser Arbeit gehe ich auf meinem Anteil an diesem Projekt ein, der vor allem im Informatikbereich der BCI Forschung liegt. Im Detail beschäftige ich mich mit den folgenden drei Punkten:<br><br> <b>Diskussion eines informationstheoretischen Maßes für die Güte eines BCI's:</b> Ich habe kritisch die Annahmen von Shannon's Informationsübertragungsrate für die Anwendung im BCI Kontext beleuchtet. Durch Ermittlung von geeigneten Kodierungsstrategien konnte ich zeigen, dass dieses theoretische Maß den praktisch erreichbaren Wert ziemlich gut annähert.<br> <b>Transfer und Entwicklung von geeigneten Techniken aus dem Bereich der Signalverarbeitung und des Maschinellen Lernens:</b> Eine substantielle Komponente meiner Arbeit war die Entwicklung von Techniken des Machinellen Lernens und der Signalverarbeitung, um die Effizienz eines BCI's zu erhöhen. Basierend auf dem neurophysiologischem Wissen, dass verschiedene unabhängige Merkmale in Gehirnsignalen für verschiedene mentale Zustände beobachtbar sind, habe ich eine Methode zur Kombination von verschiedenen und unter Umständen unabhängigen Merkmalen entwickelt, die sehr erfolgreich die Fähigkeiten eines BCI's verbessert. Besonders in einigen Fällen übertraf die Leistung des entwickelten Kombinationsalgorithmus die beste Leistung auf den einzelnen Merkmalen mit mehr als 50 %. Weiterhin habe ich theoretisch und praktisch durch Einführung geeigneter Algorithmen die Frage untersucht, wie viele Klassen man für ein BCI nutzen kann und sollte. Auch hier wurde ein relevantes Resultat erzielt, nämlich dass für BCI Güten, die bis heute berichtet sind, die Benutzung von 3 oder 4 verschiedenen mentalen Zuständen in der Regel optimal im Sinne von erreichbarer Leistung sind. Für eine andere Erweiterung wurden Ideen aus der Signalverarbeitung mit denen des Maschinellen Lernens kombiniert, da ein hoher Erfolg erzielt werden kann, wenn der temporale Filter, d.h. die Wahl des benutzten Frequenzbandes, automatisch und individuell für jeden Menschen angepasst wird.<br> <b>Implementation des Berlin Brain-Computer Interfaces und Realisierung von geeigneten Experimenten:</b> Eine weitere wichtige Komponente meiner Arbeit war eine Realisierung eines online BCI Systems, welches die entwickelten Methoden umfasst, aber auch so flexibel ist, dass neue Algorithmen und Ideen einfach zu verwirklichen sind. Bis jetzt wurden mit diesem System Bitraten von bis zu 40 Bits pro Minute von absolut untrainierten Personen in ihren ersten BCI Experimenten erzielt. Dieses Resultat übertrifft die bisher berichteten Ergebnisse aller anderer BCI Gruppen deutlich. <br> <hr> Bemerkung:<br> Der Autor wurde mit dem <i>Michelson-Preis</i> 2005/2006 für die beste Promotion des Jahrgangs der Mathematisch-Naturwissenschaftlichen Fakultät der Universität Potsdam ausgezeichnet.
234

PAC-Lernen zur Insolvenzvorhersage und Hotspot-Identifikation / PAC-Learning for insolvency-prediction and hotspot-identification

Brodag, Thomas 28 May 2008 (has links)
No description available.
235

Automatische Klassifizierung von Gebäudegrundrissen

Hecht, Robert 23 September 2014 (has links) (PDF)
Für die Beantwortung verschiedener Fragestellungen im Siedlungsraum werden kleinräumige Informationen zur Siedlungsstruktur (funktional, morphologisch und sozio-ökonomisch) benötigt. Der Gebäudebestand spielt eine besondere Rolle, da dieser die physische Struktur prägt und sich durch dessen Nutzung Verteilungsmuster von Wohnungen, Arbeitsstätten und Infrastrukturen ergeben. In amtlichen Geodaten, Karten und Diensten des Liegenschaftskatasters und der Landesvermessung sind die Gebäude in ihrem Grundriss modelliert. Diese besitzen allerdings nur selten explizite semantische Informationen zum Gebäudetyp. Es stellt sich die Frage, ob und wie genau eine automatische Erkennung von Gebäudetypen unter Nutzung von Methoden der Geoinformatik, der Mustererkennung und des maschinellen Lernens möglich ist. In diesem Buch werden methodische Bausteine zur automatischen Klassifizierung von Gebäudegrundrissen vorgestellt. Im Kern werden Fragen beantwortet zu den Datenanforderungen, der Gebäudetypologie, der Merkmalsgewinnung sowie zu geeigneten Klassifikationsverfahren und den Klassifikationsgenauigkeiten, die abhängig von Eingangsdaten, Siedlungstyp und Trainingsdatenmenge erzielt werden können. Der Random-Forest-Algorithmus zeigte die höchste Flexibilität, Generalisierungsfähigkeit und Effizienz und wurde als bestes Klassifikationsverfahren identifiziert. Die Arbeit leistet einen wichtigen Beitrag zur Gewinnung kleinräumiger Informationen zur Siedlungsstruktur. Die entwickelte Methodik ermöglicht ein breites Anwendungsspektrum in der Wissenschaft, Planung, Politik und Wirtschaft (u. a. Stadt- und Regionalplanung, Infrastrukturplanung, Risikomanagement, Energiebedarfsplanung oder dem Geomarketing). / Building data are highly relevant for the small-scale description of settlement structures. Spatial base data from National Mapping and Cadastral Agencies describe the buildings in terms of the geometry but often lack semantic information on the building type. Here, methods for the automatic classification of building footprints are presented and discussed. The work addresses issues of data integration, data processing, feature extraction, feature selection, and investigates the accuracy of various classification methods. The results are of scientific, planning, policy and business interest at various spatial levels.
236

Community based Question Answer Detection

Muthmann, Klemens 02 July 2014 (has links) (PDF)
Each day, millions of people ask questions and search for answers on the World Wide Web. Due to this, the Internet has grown to a world wide database of questions and answers, accessible to almost everyone. Since this database is so huge, it is hard to find out whether a question has been answered or even asked before. As a consequence, users are asking the same questions again and again, producing a vicious circle of new content which hides the important information. One platform for questions and answers are Web forums, also known as discussion boards. They present discussions as item streams where each item contains the contribution of one author. These contributions contain questions and answers in human readable form. People use search engines to search for information on such platforms. However, current search engines are neither optimized to highlight individual questions and answers nor to show which questions are asked often and which ones are already answered. In order to close this gap, this thesis introduces the \\emph{Effingo} system. The Effingo system is intended to extract forums from around the Web and find question and answer items. It also needs to link equal questions and aggregate associated answers. That way it is possible to find out whether a question has been asked before and whether it has already been answered. Based on these information it is possible to derive the most urgent questions from the system, to determine which ones are new and which ones are discussed and answered frequently. As a result, users are prevented from creating useless discussions, thus reducing the server load and information overload for further searches. The first research area explored by this thesis is forum data extraction. The results from this area are intended be used to create a database of forum posts as large as possible. Furthermore, it uses question-answer detection in order to find out which forum items are questions and which ones are answers and, finally, topic detection to aggregate questions on the same topic as well as discover duplicate answers. These areas are either extended by Effingo, using forum specific features such as the user graph, forum item relations and forum link structure, or adapted as a means to cope with the specific problems created by user generated content. Such problems arise from poorly written and very short texts as well as from hidden or distributed information.
237

Automatische Erkennung von Gebäudetypen auf Grundlage von Geobasisdaten

Hecht, Robert 10 February 2015 (has links) (PDF)
Für die kleinräumige Modellierung und Analyse von Prozessen im Siedlungsraum spielen gebäudebasierte Informationen eine zentrale Rolle. In amtlichen Geodaten, Karten und Diensten des Liegenschaftskatasters und der Landesvermessung werden die Gebäude in ihrem Grundriss modelliert. Semantische Informationen zur Gebäudefunktion, der Wohnform oder dem Baualter sind in den Geobasisdaten nur selten gegeben. In diesem Beitrag wird eine Methode zur automatischen Klassifizierung von Gebäudegrundrissen vorgestellt mit dem Ziel, diese für die Ableitung kleinräumiger Informationen zur Siedlungsstruktur zu nutzen. Dabei kommen Methoden der Mustererkennung und des maschinellen Lernens zum Einsatz. Im Kern werden Gebäudetypologie, Eingangsdaten, Merkmalsgewinnung sowie verschiedene Klassifikationsverfahren hinsichtlich ihrer Genauigkeit und Generalisierungsfähigkeit untersucht. Der Ensemble-basierte Random-Forest-Algorithmus zeigt im Vergleich zu 15 weiteren Lernverfahren die höchste Generalisierungsfähigkeit und Effizienz und wurde als bester Klassifikator zur Lösung der Aufgabenstellung identifiziert. Für Gebäudegrundrisse im Vektormodell, speziell den Gebäuden aus der ALK, dem ALKIS® oder dem ATKIS® Basis-DLM sowie den amtlichen Hausumringen und 3D-Gebäudemodellen, kann mit dem Klassifikator für alle städtischen Gebiete eine Klassifikationsgenauigkeit zwischen 90 % und 95 % erreicht werden. Die Genauigkeit bei Nutzung von Gebäudegrundrissen extrahiert aus digitalen topographischen Rasterkarten ist mit 76 % bis 88 % deutlich geringer. Die automatische Klassifizierung von Gebäudegrundrissen leistet einen wichtigen Beitrag zur Gewinnung von Informationen für die kleinräumige Beschreibung der Siedlungsstruktur. Neben der Relevanz in den Forschungs- und Anwendungsfeldern der Stadtgeographie und Stadtplanung sind die Ergebnisse auch für die kartographischen Arbeitsfelder der Kartengeneralisierung, der automatisierten Kartenerstellung sowie verschiedenen Arbeitsfeldern der Geovisualisierung relevant.
238

Algorithmen zur automatisierten Dokumentation und Klassifikation archäologischer Gefäße

Hörr, Christian 30 September 2011 (has links) (PDF)
Gegenstand der vorliegenden Dissertation ist die Entwicklung von Algorithmen und Methoden mit dem Ziel, Archäologen bei der täglichen wissenschaftlichen Arbeit zu unterstützen. Im Teil I werden Ideen präsentiert, mit denen sich die extrem zeitintensive und stellenweise stupide Funddokumentation beschleunigen lässt. Es wird argumentiert, dass das dreidimensionale Erfassen der Fundobjekte mittels Laser- oder Streifenlichtscannern trotz hoher Anschaffungskosten wirtschaftlich und vor allem qualitativ attraktiv ist. Mithilfe von nicht fotorealistischen Visualisierungstechniken können dann wieder aussagekräftige, aber dennoch objektive Bilder generiert werden. Außerdem ist speziell für Gefäße eine vollautomatische und umfassende Merkmalserhebung möglich. Im II. Teil gehen wir auf das Problem der automatisierten Gefäßklassifikation ein. Nach einer theoretischen Betrachtung des Typbegriffs in der Archäologie präsentieren wir eine Methodologie, in der Verfahren sowohl aus dem Bereich des unüberwachten als auch des überwachten Lernens zum Einsatz kommen. Besonders die letzteren haben sich dabei als überaus praktikabel erwiesen, um einerseits unbekanntes Material einer bestehenden Typologie zuzuordnen, andererseits aber auch die Struktur der Typologie selbst kritisch zu hinterfragen. Sämtliche Untersuchungen haben wir beispielhaft an den bronzezeitlichen Gräberfeldern von Kötitz, Altlommatzsch (beide Lkr. Meißen), Niederkaina (Lkr. Bautzen) und Tornow (Lkr. Oberspreewald-Lausitz) durchgeführt und waren schließlich sogar in der Lage, archäologisch relevante Zusammenhänge zwischen diesen Fundkomplexen herzustellen. / The topic of the dissertation at hand is the development of algorithms and methods aiming at supporting the daily scientific work of archaeologists. Part I covers ideas for accelerating the extremely time-consuming and often tedious documentation of finds. It is argued that digitizing the objects with 3D laser or structured light scanners is economically reasonable and above all of high quality, even though those systems are still quite expensive. Using advanced non-photorealistic visualization techniques, meaningful but at the same time objective pictures can be generated from the virtual models. Moreover, specifically for vessels a fully-automatic and comprehensive feature extraction is possible. In Part II, we deal with the problem of automated vessel classification. After a theoretical consideration of the type concept in archaeology we present a methodology, which employs approaches from the fields of both unsupervised and supervised machine learning. Particularly the latter have proven to be very valuable in order to assign unknown entities to an already existing typology, but also to challenge the typology structure itself. All the analyses have been exemplified by the Bronze Age cemeteries of Kötitz, Altlommatzsch (both district of Meißen), Niederkaina (district of Bautzen), and Tornow (district Oberspreewald-Lausitz). Finally, we were even able to discover archaeologically relevant relationships between these sites.
239

Learning OWL Class Expressions

Lehmann, Jens 24 June 2010 (has links) (PDF)
With the advent of the Semantic Web and Semantic Technologies, ontologies have become one of the most prominent paradigms for knowledge representation and reasoning. The popular ontology language OWL, based on description logics, became a W3C recommendation in 2004 and a standard for modelling ontologies on the Web. In the meantime, many studies and applications using OWL have been reported in research and industrial environments, many of which go beyond Internet usage and employ the power of ontological modelling in other fields such as biology, medicine, software engineering, knowledge management, and cognitive systems. However, recent progress in the field faces a lack of well-structured ontologies with large amounts of instance data due to the fact that engineering such ontologies requires a considerable investment of resources. Nowadays, knowledge bases often provide large volumes of data without sophisticated schemata. Hence, methods for automated schema acquisition and maintenance are sought. Schema acquisition is closely related to solving typical classification problems in machine learning, e.g. the detection of chemical compounds causing cancer. In this work, we investigate both, the underlying machine learning techniques and their application to knowledge acquisition in the Semantic Web. In order to leverage machine-learning approaches for solving these tasks, it is required to develop methods and tools for learning concepts in description logics or, equivalently, class expressions in OWL. In this thesis, it is shown that methods from Inductive Logic Programming (ILP) are applicable to learning in description logic knowledge bases. The results provide foundations for the semi-automatic creation and maintenance of OWL ontologies, in particular in cases when extensional information (i.e. facts, instance data) is abundantly available, while corresponding intensional information (schema) is missing or not expressive enough to allow powerful reasoning over the ontology in a useful way. Such situations often occur when extracting knowledge from different sources, e.g. databases, or in collaborative knowledge engineering scenarios, e.g. using semantic wikis. It can be argued that being able to learn OWL class expressions is a step towards enriching OWL knowledge bases in order to enable powerful reasoning, consistency checking, and improved querying possibilities. In particular, plugins for OWL ontology editors based on learning methods are developed and evaluated in this work. The developed algorithms are not restricted to ontology engineering and can handle other learning problems. Indeed, they lend themselves to generic use in machine learning in the same way as ILP systems do. The main difference, however, is the employed knowledge representation paradigm: ILP traditionally uses logic programs for knowledge representation, whereas this work rests on description logics and OWL. This difference is crucial when considering Semantic Web applications as target use cases, as such applications hinge centrally on the chosen knowledge representation format for knowledge interchange and integration. The work in this thesis can be understood as a broadening of the scope of research and applications of ILP methods. This goal is particularly important since the number of OWL-based systems is already increasing rapidly and can be expected to grow further in the future. The thesis starts by establishing the necessary theoretical basis and continues with the specification of algorithms. It also contains their evaluation and, finally, presents a number of application scenarios. The research contributions of this work are threefold: The first contribution is a complete analysis of desirable properties of refinement operators in description logics. Refinement operators are used to traverse the target search space and are, therefore, a crucial element in many learning algorithms. Their properties (completeness, weak completeness, properness, redundancy, infinity, minimality) indicate whether a refinement operator is suitable for being employed in a learning algorithm. The key research question is which of those properties can be combined. It is shown that there is no ideal, i.e. complete, proper, and finite, refinement operator for expressive description logics, which indicates that learning in description logics is a challenging machine learning task. A number of other new results for different property combinations are also proven. The need for these investigations has already been expressed in several articles prior to this PhD work. The theoretical limitations, which were shown as a result of these investigations, provide clear criteria for the design of refinement operators. In the analysis, as few assumptions as possible were made regarding the used description language. The second contribution is the development of two refinement operators. The first operator supports a wide range of concept constructors and it is shown that it is complete and can be extended to a proper operator. It is the most expressive operator designed for a description language so far. The second operator uses the light-weight language EL and is weakly complete, proper, and finite. It is straightforward to extend it to an ideal operator, if required. It is the first published ideal refinement operator in description logics. While the two operators differ a lot in their technical details, they both use background knowledge efficiently. The third contribution is the actual learning algorithms using the introduced operators. New redundancy elimination and infinity-handling techniques are introduced in these algorithms. According to the evaluation, the algorithms produce very readable solutions, while their accuracy is competitive with the state-of-the-art in machine learning. Several optimisations for achieving scalability of the introduced algorithms are described, including a knowledge base fragment selection approach, a dedicated reasoning procedure, and a stochastic coverage computation approach. The research contributions are evaluated on benchmark problems and in use cases. Standard statistical measurements such as cross validation and significance tests show that the approaches are very competitive. Furthermore, the ontology engineering case study provides evidence that the described algorithms can solve the target problems in practice. A major outcome of the doctoral work is the DL-Learner framework. It provides the source code for all algorithms and examples as open-source and has been incorporated in other projects.
240

Algorithmische Bestimmung der Alterungscharakteristik von Mittelspannungskabelmuffen basierend auf diagnostischen Messwerten und Betriebsmitteldaten / Algorithmic determination of the aging characteristics of medium voltage cable joints based on diagnostic measured values ​​and operating medium data

Hunold, Sven 21 March 2017 (has links) (PDF)
Bei der Zustandsbewertung von Kabeln steht derzeit das Mittelspannungsnetz im Fokus der Betrachtungen. Das Mittelspannungsnetz verbindet das Hochspannungsnetz mit dem Niederspannungsnetz und nimmt damit eine besondere Bedeutung ein. Störungen in diesem Netz wirken sich direkt als Versorgungsunterbrechung auf den Letztverbraucher aus. Rund 80 bis 85 % der Versorgungsunterbrechungen resultieren aus Problemen im Mittelspannungsnetz, sodass dortige Aktivitäten den größten Hebel bei der Steigerung der Versorgungsqualität entwickeln. Mittels Zustandsbewertung von Kabeln können verdeckte Fehler aufgedeckt oder deren Alterungszustand bestimmt werden. Nicht jeder diagnostizierte Fehler führt unmittelbar zum Ausfall. Er beschleunigt jedoch die Alterung, die letztendlich zum Ausfall führt. Die Arbeit beschäftigt sich mit der Identifizierung von Fehlern in Mittelspannungskabelmuffen im Zusammenhang mit der Alterung, um die Restlebensdauer auszunutzen und dem Ausfall zuvorzukommen. / By evaluating the status of cables, hidden errors can be detected or their aging condition can be determined. Not every diagnosed fault leads directly to failure. However, it accelerates aging, which ultimately leads to failure. The work deals with the identification of faults in medium-voltage cable joints in connection with aging in order to exploit the remaining life and to prevent the failure.

Page generated in 0.12 seconds