191 |
Prediction of designer-recombinases for DNA editing with generative deep learningSchmitt, Lukas Theo, Paszkowski-Rogacz, Maciej, Jug, Florian, Buchholz, Frank 04 June 2024 (has links)
Site-specific tyrosine-type recombinases are effective tools for genome engineering, with the first engineered variants having demonstrated therapeutic potential. So far, adaptation to new DNA target site selectivity of designerrecombinases has been achieved mostly through iterative cycles of directed molecular evolution. While effective, directed molecular evolution methods are laborious and time consuming. Here we present RecGen (Recombinase Generator), an algorithm for the intelligent generation of designerrecombinases. We gather the sequence information of over one million Crelike recombinase sequences evolved for 89 different target sites with whichwe train Conditional Variational Autoencoders for recombinase generation. Experimental validation demonstrates that the algorithm can predict recombinase sequences with activity on novel target-sites, indicating that RecGen is useful to accelerate the development of future designer-recombinases.
|
192 |
Aggregate-based Training Phase for ML-based Cardinality EstimationWoltmann, Lucas, Hartmann, Claudio, Lehner, Wolfgang, Habich, Dirk 22 April 2024 (has links)
Cardinality estimation is a fundamental task in database query processing and optimization. As shown in recent papers, machine learning (ML)-based approaches may deliver more accurate cardinality estimations than traditional approaches. However, a lot of training queries have to be executed during the model training phase to learn a data-dependent ML model making it very time-consuming. Many of those training or example queries use the same base data, have the same query structure, and only differ in their selective predicates. To speed up the model training phase, our core idea is to determine a predicate-independent pre-aggregation of the base data and to execute the example queries over this pre-aggregated data. Based on this idea, we present a specific aggregate-based training phase for ML-based cardinality estimation approaches in this paper. As we are going to show with different workloads in our evaluation, we are able to achieve an average speedup of 90 with our aggregate-based training phase and thus outperform indexes.
|
193 |
Der Einsatz unbemannter Flugsysteme zur Charakterisierung von gesprengtem HaufwerkTscharf, Alexander, Mostegel, Christian, Gaich, Andreas, Mayer, Gerhard, Fraundorfer, Friedrich, Bischof, Horst 28 September 2017 (has links)
Die erreichte Zerkleinerung und die Form des Haufwerks sind die beiden wichtigsten Ergebnisse einer Tagebausprengung. Schnelle Informationen über die Eigenschaften des gesprengten Haufwerks ermöglichen eine zielgerichtete und effiziente Produktionsplanung und Kenntnisse über die erreichte Zerkleinerung ermöglichen außerdem Anpassungen in der weiteren Zerkleinerungskette. Durch den Einsatz von UAVs (unmanned aerial vehicles) gemeinsam mit modernen Algorithmen aus dem Bereich Computer Vision und des maschinellen Lernens soll eine schnelle Erfassung und Interpretation der Daten bei gleichzeitiger Integration in die herkömmlichen betrieblichen Abläufe ermöglicht werden, und außerdem können Schwächen bodengebundener Systeme hinsichtlich Vollständigkeit
und Repräsentativität umgangen werden. Im vorliegenden Beitrag wird einerseits auf den relevanten Stand des Wissens und der Technik eingegangen und andererseits wird die verfolgte Stoßrichtung bei der Systementwicklung dargelegt sowie erste Arbeiten präsentiert. / The fragmentation and the shape of the muck pile are the two major outcomes of open pit mine and quarry blasts. Fast information about the muck pile properties will help to improve the production scheduling and furthermore this information could be used to optimize the blasting patterns of future production blasts. The combined use of unmanned aerial vehicles (UAVs) and modern machine learning and computer vision systems offers a new way of acquiring spatial data to determine on-site fragment size distribution, while at the same time enabling integration into common work flows and mitigating the weaknesses of ground-based systems with special regard to completeness and representativeness. In the present paper, we will discuss the relevant related work, present the planned path for system development and give examples of first work.
|
194 |
Diabatization via Gaussian Process RegressionRabe, Stefan Benjamin 07 August 2024 (has links)
Moderne Methoden für maschinelles Lernen (ML) spielen heutzutage eine wichtige Rolle in der Wissenschaft und Industrie. Viele umfangreiche ML-Modelle basieren auf tiefen künstlichen neuronalen Netzen (KNN), welche großartige Erfolge erzielen, wenn große Datenmengen zur Verfügung stehen. In Fällen von spärlichen Datenmengen werden KNNe übertroffen von ML-Methoden, welche auf Gaußschen Prozessen (GP) basieren, aufgrund ihrer Interpretierbarkeit, Widerständigkeit gegenüber Überanpassung (Overfitting) und der Bereitstellung von verlässlichen Fehlermaßen. GPe wurden bereits erfolgreich angewandt für Mustererkennung und deren Extrapolation. Letztere ist kontrollierbar aufgrund der kleinen Anzahl von interpretierbaren Hyperparametern.
In der vorliegenden Arbeit entwickeln wir eine Methode basierend auf GPen für die Extraktion von diabatischen Mustern aus Energiespektren, welche sich adiabatisch unter der Variation eines Parameters des Hamiltonoperators verhalten. Die resultierenden diabatischen Mannigfaltigkeiten (oder Energieflächen) weisen Kreuzungen auf, wohingegen die originalen (adiabatischen) Energiespektren Kreuzungen vermeiden.
Im Bezug auf hoch angeregte, klassisch chaotische Dynamik demonstrieren wir, dass unsere Methode vollständige diabatische Spektren generiert anhand von zwei Beispielsystemen: zwei gekoppelte Morse-Oszillatoren und Wasserstoff im Magnetfeld. In beiden Fällen werden GPe trainiert anhand weniger klassischer Trajektorien, um deren Wirkungen zu interund extrapolieren über den gesamten Energie- und Parameterraum, und Punkte identifiziert, an denen die semiklassische Einstein-Brillouin-Keller (EBK)-Quantisierungsbedingung erfüllt ist. Obwohl die EBK-Methode auf reguläre klassische Dynamik beschränkt ist, erlaubt die Interpretierbarkeit von GPen eine kontrollierte Extrapolation zu Regionen, in denen keine Regularität mehr vorhanden ist. Dadurch können semiklassische diabatische Spektren ins chaotische Regime fortgesetzt werden, in welchem diese nicht mehr wohldefiniert sind.
Des Weiteren untersuchen wir den Ursprung resonanter Dynamik im System zweier gekoppelter Morse-Oszillatoren und deren Beitrag zu den semiklassischen Spektren, welche Energien entlang stark abgestoßener adiabatischer Flächen liefern. Im Fall von Wasserstoff im Magnetfeld zeigen wir, dass eine geeignete Skalierung der Koordinaten durch die Feldstärke die Generierung einer unendlichen Folge von semiklassischen Energien mit nur einer EBK-quantisierten Trajektorie erlaubt. Die Implementierung von Randbedingungen in GPen, sowie Skaliermethoden für höhere Dimensionen und deren Eigenschaften werden diskutiert. / Modern supervised machine learning (ML) techniques have taken a prominent role in academia and industry due to their powerful predictive capabilities. While many large-scale ML models utilize deep artificial neural networks (ANNs), which have shown great success if large amounts of data are provided, ML methods employing Gaussian processes (GPs) outperform ANNs in cases with sparse training data due to their interpretability, resilience to overfitting, and provision of reliable uncertainty measures. GPs have already been successfully applied to pattern discovery and extrapolation. The latter can be done in a controlled manner due to their small numbers of interpretable hyperparameters.
In this work we develop an approach based on GPs to extract diabatic patterns from energy spectra, adiabatic under variation of a parameter of the Hamiltonian. The emerging diabatic manifolds (or energy surfaces) exhibit crossings where the original (adiabatic) energy spectra avoid to cross.
In the context of highly excited, classically chaotic dynamics, we demonstrate that our GP regression approach can generate complete diabatic energy spectra with two exemplary systems: two coupled Morse oscillators and hydrogen in a magnetic field. For both we train GPs with few classical trajectories in order to inter- and extrapolate actions throughout the whole energy and parameter range to identify all points where the semiclassical Einstein-Brillouin-Keller (EBK) quantization condition is fulfilled. While the direct EBK method is restricted to regular classical dynamics, the interpretability of the GPs allow for controlled extrapolation into regions where no more regular trajectories exist due to irregular motion. Hence, semiclassical diabatic spectra can be continued into chaotic regions, where such manifolds are no longer well-defined.
Further, we investigate the origin of resonant motion in the coupled Morse oscillator system and their contributions to the semiclassical spectra, which provide energies along strongly repelled adiabatic surfaces. For the hydrogen atom in a magnetic field we show that a proper scaling of the coordinates by the magnetic field strength allows for the extraction of an infinite series of semiclassical energies with one single trajectory which fulfills the EBK condition. The implementation of boundary conditions into GPs, as well as scaling techniques to higher dimensions and their properties are discussed.
|
195 |
Advancing Electron Ptychography for High-Resolution Imaging in Electron MicroscopySchloz, Marcel 13 May 2024 (has links)
In dieser Arbeit werden Fortschritte in der Elektronenptychographie vorgestellt, die ihre Vielseitigkeit als Technik in der Elektronen-Phasenkontrastmikroskopie verbessern. Anstatt sich auf eine hochauflösende Elektronenoptik zu stützen, rekonstruiert die Ptychographie die Proben auf der Grundlage ihrer kohärenten Beugungssignale mit Hilfe von Berechnungsalgorithmen. Dieser Ansatz ermöglicht es, die Grenzen der konventionellen, auf Optik basierenden Elektronenmikroskopie zu überwinden und eine noch nie dagewesene sub-Angstrom Auflösung in den resultierenden Bildern zu erreichen. In dieser Arbeit werden zunächst die theoretischen, experimentellen und algorithmischen Grundlagen der Elektronenptychographie vorgestellt und in den Kontext der bestehenden rastergestützten Elektronenmikroskopietechniken gestellt. Darüber hinaus wird ein alternativer ptychographischer Phasengewinnungsalgorithmus entwickelt und seine Leistungsfähigkeit sowie die Qualität und räumliche Auflösung der Rekonstruktionen analysiert. Weiterhin befasst sich die Arbeit mit der Integration von Methoden des maschinellen Lernens in die Elektronenptychographie und schlägt einen spezifischen Ansatz zur Verbesserung der Rekonstruktionsqualität unter suboptimalen Versuchsbedingungen vor. Außerdem wird die Kombination von Ptychographie mit Defokusserienmessungen hervorgehoben, die eine verbesserte Tiefenauflösung bei ptychographischen Rekonstruktionen ermöglicht und uns somit dem ultimativen Ziel näher bringt, quantitative Rekonstruktionen von beliebig dicker Proben mit atomarer Auflösung in drei Dimensionen zu erzeugen. Der letzte Teil der Arbeit stellt einen Paradigmenwechsel bei den Scananforderungen für die Ptychographie vor und zeigt Anwendungen dieses neuen Ansatzes unter Bedingungen niedriger Dosis. / This thesis presents advancements in electron ptychography, enhancing its versatility as an electron phase-contrast microscopy technique. Rather than relying on high-resolution electron optics, ptychography reconstructs specimens based on their coherent diffraction signals using computational algorithms. This approach allows us to surpass the limitations of conventional optics-based electron microscopy, achieving an unprecedented sub-Angstrom resolution in the resulting images. The thesis initially introduces the theoretical, experimental, and algorithmic principles of electron ptychography, contextualizing them within the landscape of existing scanning-based electron microscopy techniques. Additionally, it develops an alternative ptychographic phase retrieval algorithm, analyzing its performance and also the quality and the spatial resolution of its reconstructions. Moreover, the thesis delves into the integration of machine learning methods into electron ptychography, proposing a specific approach to enhance reconstruction quality under suboptimal experimental conditions. Furthermore, it highlights the fusion of ptychography with defocus series measurements, offering improved depth resolution in ptychographic reconstructions, which therefore brings us closer to the ultimate goal of quantitative reconstructions of arbitrarily thick specimens at atomic resolution in three dimensions. The final part of the thesis introduces a paradigm shift in scanning requirements for ptychography and showcases applications of this novel approach under low-dose conditions.
|
196 |
Segmentation and Tracking of Cells and Nuclei Using Deep LearningHirsch, Peter Johannes 27 September 2023 (has links)
Die Analyse von großen Datensätzen von Mikroskopiebilddaten, insbesondere Segmentierung und Tracking, ist ein sehr wichtiger Aspekt vieler biologischer Studien. Für die leistungsfähige und verlässliche Nutzung ist der derzeitige Stand der Wissenschaft dennoch noch nicht ausreichend. Die vorhandenen Methoden sind oft schwer zu benutzen für ungeübte Nutzer, die Leistung auf anderen Datensätzen ist häufig verbesserungswürdig und sehr große Mengen an Trainingsdaten werden benötigt. Ich ging dieses Problem aus verschiedenen Richtungen an: (i) Ich präsentiere klare Richtlinien wie Artefakte beim Arbeiten mit sehr großen Bilddaten verhindert werden können. (ii) Ich präsentiere eine Erweiterung für eine Reihe von grundlegenden Methoden zur Instanzsegmentierung von Zellkernen. Durch Verwendung einer unterstützenden Hilfsaufgabe ermöglicht die Erweiterung auf einfache und unkomplizierte Art und Weise Leistung auf dem aktuellen Stand der Wissenschaft. Dabei zeige ich zudem, dass schwache Label ausreichend sind, um eine effiziente Objekterkennung auf 3d Zellkerndaten zu ermöglichen. (iii) Ich stelle eine neue Methode zur Instanzsegmentierung vor, die auf eine große Auswahl von Objekten anwendbar ist, von einfachen Formen bis hin zu Überlagerungen und komplexen Baumstrukturen, die das gesamte Bild umfassen. (iv) Auf den vorherigen Arbeiten aufbauend präsentiere ich eine neue Trackingmethode, die auch mit sehr großen Bilddaten zurecht kommt, aber nur schwache und dünnbesetzte Labels benötigt und trotzdem besser als die bisherigen besten Methoden funktioniert. Die Anpassungsfähigkeit an neue Datensätze wird durch eine automatisierte Parametersuche gewährleistet. (v) Für Nutzer, die das Tracking von Objekten in ihrer Arbeit verwenden möchten, präsentiere ich zusätzlich einen detaillierten Leitfaden, der es ihnen ermöglicht fundierte Entscheidungen zu treffen, welche Methode am besten zu ihrem Projekt passt. / Image analysis of large datasets of microscopy data, in particular segmentation and tracking, is an important aspect of many biological studies. Yet, the current state of research is still not adequate enough for copious and reliable everyday use. Existing methods are often hard to use, perform subpar on new datasets and require vast amounts of training data. I approached this problem from multiple angles: (i) I present clear guidelines on how to operate artifact-free on huge images. (ii) I present an extension for existing methods for instance segmentation of nuclei. By using an auxiliary task, it enables state-of-the-art performance in a simple and straightforward way. In the process I show that weak labels are sufficient for efficient object detection for 3d nuclei data. (iii) I present an innovative method for instance segmentation that performs extremely well on a wide range of objects, from simple shapes to complex image-spanning tree structures and objects with overlaps. (iv) Building upon the above, I present a novel tracking method that operates on huge images but only requires weak and sparse labels. Yet, it outperforms previous state-of-the-art methods. An automated weight search method enables adaptability to new datasets. (v) For practitioners seeking to employ cell tracking, I provide a comprehensive guideline on how to make an informed decision about what methods to use for their project.
|
197 |
Reconstructing Dynamical Systems From Stochastic Differential Equations to Machine LearningHassanibesheli, Forough 28 March 2023 (has links)
Die Modellierung komplexer Systeme mit einer großen Anzahl von Freiheitsgraden ist in den letzten Jahrzehnten zu einer großen Herausforderung geworden. In der Regel werden nur einige wenige Variablen komplexer Systeme in Form von gemessenen Zeitreihen beobachtet, während die meisten von ihnen - die möglicherweise mit den beobachteten Variablen interagieren - verborgen bleiben. In dieser Arbeit befassen wir uns mit dem Problem der Rekonstruktion und Vorhersage der zugrunde liegenden Dynamik komplexer Systeme mit Hilfe verschiedener datengestützter Ansätze. Im ersten Teil befassen wir uns mit dem umgekehrten Problem der Ableitung einer unbekannten Netzwerkstruktur komplexer Systeme, die Ausbreitungsphänomene widerspiegelt, aus beobachteten Ereignisreihen. Wir untersuchen die paarweise statistische Ähnlichkeit zwischen den Sequenzen von Ereigniszeitpunkten an allen Knotenpunkten durch Ereignissynchronisation (ES) und Ereignis-Koinzidenz-Analyse (ECA), wobei wir uns auf die Idee stützen, dass funktionale Konnektivität als Stellvertreter für strukturelle Konnektivität dienen kann. Im zweiten Teil konzentrieren wir uns auf die Rekonstruktion der zugrunde liegenden Dynamik komplexer Systeme anhand ihrer dominanten makroskopischen Variablen unter Verwendung verschiedener stochastischer Differentialgleichungen (SDEs). In dieser Arbeit untersuchen wir die Leistung von drei verschiedenen SDEs - der Langevin-Gleichung (LE), der verallgemeinerten Langevin-Gleichung (GLE) und dem Ansatz der empirischen Modellreduktion (EMR). Unsere Ergebnisse zeigen, dass die LE bessere Ergebnisse für Systeme mit schwachem Gedächtnis zeigt, während sie die zugrunde liegende Dynamik von Systemen mit Gedächtniseffekten und farbigem Rauschen nicht rekonstruieren kann. In diesen Situationen sind GLE und EMR besser geeignet, da die Wechselwirkungen zwischen beobachteten und unbeobachteten Variablen in Form von Speichereffekten berücksichtigt werden. Im letzten Teil dieser Arbeit entwickeln wir ein Modell, das auf dem Echo State Network (ESN) basiert und mit der PNF-Methode (Past Noise Forecasting) kombiniert wird, um komplexe Systeme in der realen Welt vorherzusagen. Unsere Ergebnisse zeigen, dass das vorgeschlagene Modell die entscheidenden Merkmale der zugrunde liegenden Dynamik der Klimavariabilität erfasst. / Modeling complex systems with large numbers of degrees of freedom have become a grand challenge over the past decades. Typically, only a few variables of complex systems are observed in terms of measured time series, while the majority of them – which potentially interact with the observed ones - remain hidden. Throughout this thesis, we tackle the problem of reconstructing and predicting the underlying dynamics of complex systems using different data-driven approaches. In the first part, we address the inverse problem of inferring an unknown network structure of complex systems, reflecting spreading phenomena, from observed event series. We study the pairwise statistical similarity between the sequences of event timings at all nodes through event synchronization (ES) and event coincidence analysis (ECA), relying on the idea that functional connectivity can serve as a proxy for structural connectivity. In the second part, we focus on reconstructing the underlying dynamics of complex systems from their dominant macroscopic variables using different Stochastic Differential Equations (SDEs). We investigate the performance of three different SDEs – the Langevin Equation (LE), Generalized Langevin Equation (GLE), and the Empirical Model Reduction (EMR) approach in this thesis. Our results reveal that LE demonstrates better results for systems with weak memory while it fails to reconstruct underlying dynamics of systems with memory effects and colored-noise forcing. In these situations, the GLE and EMR are more suitable candidates since the interactions between observed and unobserved variables are considered in terms of memory effects. In the last part of this thesis, we develop a model based on the Echo State Network (ESN), combined with the past noise forecasting (PNF) method, to predict real-world complex systems. Our results show that the proposed model captures the crucial features of the underlying dynamics of climate variability.
|
198 |
Time Dynamic Topic ModelsJähnichen, Patrick 30 March 2016 (has links) (PDF)
Information extraction from large corpora can be a useful tool for many applications in industry and academia. For instance, political communication science has just recently begun to use the opportunities that come with the availability of massive amounts of information available through the Internet and the computational tools that natural language processing can provide. We give a linguistically motivated interpretation of topic modeling, a state-of-the-art algorithm for extracting latent semantic sets of words from large text corpora, and extend this interpretation to cover issues and issue-cycles as theoretical constructs coming from political communication science. We build on a dynamic topic model, a model whose semantic sets of words are allowed to evolve over time governed by a Brownian motion stochastic process and apply a new form of analysis to its result. Generally this analysis is based on the notion of volatility as in the rate of change of stocks or derivatives known from econometrics. We claim that the rate of change of sets of semantically related words can be interpreted as issue-cycles, the word sets as describing the underlying issue. Generalizing over the existing work, we introduce dynamic topic models that are driven by general (Brownian motion is a special case of our model) Gaussian processes, a family of stochastic processes defined by the function that determines their covariance structure. We use the above assumption and apply a certain class of covariance functions to allow for an appropriate rate of change in word sets while preserving the semantic relatedness among words. Applying our findings to a large newspaper data set, the New York Times Annotated corpus (all articles between 1987 and 2007), we are able to identify sub-topics in time, \\\\textit{time-localized topics} and find patterns in their behavior over time. However, we have to drop the assumption of semantic relatedness over all available time for any one topic. Time-localized topics are consistent in themselves but do not necessarily share semantic meaning between each other. They can, however, be interpreted to capture the notion of issues and their behavior that of issue-cycles.
|
199 |
Interpretable Binary and Multiclass Prediction Models for Insolvencies and Credit RatingsObermann, Lennart 10 May 2016 (has links)
Insolvenzprognosen und Ratings sind wichtige Aufgaben der Finanzbranche und dienen der Kreditwürdigkeitsprüfung von Unternehmen. Eine Möglichkeit dieses Aufgabenfeld anzugehen, ist maschinelles Lernen. Dabei werden Vorhersagemodelle aufgrund von Beispieldaten aufgestellt. Methoden aus diesem Bereich sind aufgrund Ihrer Automatisierbarkeit vorteilhaft. Dies macht menschliche Expertise in den meisten Fällen überflüssig und bietet dadurch einen höheren Grad an Objektivität. Allerdings sind auch diese Ansätze nicht perfekt und können deshalb menschliche Expertise nicht gänzlich ersetzen. Sie bieten sich aber als Entscheidungshilfen an und können als solche von Experten genutzt werden, weshalb interpretierbare Modelle wünschenswert sind. Leider bieten nur wenige Lernalgorithmen interpretierbare Modelle. Darüber hinaus sind einige Aufgaben wie z.B. Rating häufig Mehrklassenprobleme. Mehrklassenklassifikationen werden häufig durch Meta-Algorithmen erreicht, welche mehrere binäre Algorithmen trainieren. Die meisten der üblicherweise verwendeten Meta-Algorithmen eliminieren jedoch eine gegebenenfalls vorhandene Interpretierbarkeit.
In dieser Dissertation untersuchen wir die Vorhersagegenauigkeit von interpretierbaren Modellen im Vergleich zu nicht interpretierbaren Modellen für Insolvenzprognosen und Ratings. Wir verwenden disjunktive Normalformen und Entscheidungsbäume mit Schwellwerten von Finanzkennzahlen als interpretierbare Modelle. Als nicht interpretierbare Modelle werden Random Forests, künstliche Neuronale Netze und Support Vector Machines verwendet. Darüber hinaus haben wir einen eigenen Lernalgorithmus Thresholder entwickelt, welcher disjunktive Normalformen und interpretierbare Mehrklassenmodelle generiert.
Für die Aufgabe der Insolvenzprognose zeigen wir, dass interpretierbare Modelle den nicht interpretierbaren Modellen nicht unterlegen sind. Dazu wird in einer ersten Fallstudie eine in der Praxis verwendete Datenbank mit Jahresabschlüssen von 5152 Unternehmen verwendet, um die Vorhersagegenauigkeit aller oben genannter Modelle zu messen.
In einer zweiten Fallstudie zur Vorhersage von Ratings demonstrieren wir, dass interpretierbare Modelle den nicht interpretierbaren Modellen sogar überlegen sind. Die Vorhersagegenauigkeit aller Modelle wird anhand von drei in der Praxis verwendeten Datensätzen bestimmt, welche jeweils drei Ratingklassen aufweisen.
In den Fallstudien vergleichen wir verschiedene interpretierbare Ansätze bezüglich deren Modellgrößen und der Form der Interpretierbarkeit. Wir präsentieren exemplarische Modelle, welche auf den entsprechenden Datensätzen basieren und bieten dafür Interpretationsansätze an.
Unsere Ergebnisse zeigen, dass interpretierbare, schwellwertbasierte Modelle den Klassifikationsproblemen in der Finanzbranche angemessen sind. In diesem Bereich sind sie komplexeren Modellen, wie z.B. den Support Vector Machines, nicht unterlegen. Unser Algorithmus Thresholder erzeugt die kleinsten Modelle während seine Vorhersagegenauigkeit vergleichbar mit den anderen interpretierbaren Modellen bleibt.
In unserer Fallstudie zu Rating liefern die interpretierbaren Modelle deutlich bessere Ergebnisse als bei der zur Insolvenzprognose (s. o.). Eine mögliche Erklärung dieser Ergebnisse bietet die Tatsache, dass Ratings im Gegensatz zu Insolvenzen menschengemacht sind. Das bedeutet, dass Ratings auf Entscheidungen von Menschen beruhen, welche in interpretierbaren Regeln, z.B. logischen Verknüpfungen von Schwellwerten, denken. Daher gehen wir davon aus, dass interpretierbare Modelle zu den Problemstellungen passen und diese interpretierbaren Regeln erkennen und abbilden.
|
200 |
An Approach to Incremental Learning Good Classification TestsNaidenova, Xenia, Parkhomenko, Vladimir 28 May 2013 (has links) (PDF)
An algorithm of incremental mining implicative logical rules is pro-posed. This algorithm is based on constructing good classification tests. The in-cremental approach to constructing these rules allows revealing the interde-pendence between two fundamental components of human thinking: pattern recognition and knowledge acquisition.
|
Page generated in 0.0632 seconds