• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 212
  • 74
  • 14
  • 2
  • Tagged with
  • 301
  • 301
  • 209
  • 186
  • 177
  • 133
  • 123
  • 123
  • 61
  • 36
  • 35
  • 31
  • 29
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

An Approach to Incremental Learning Good Classification Tests

Naidenova, Xenia, Parkhomenko, Vladimir 28 May 2013 (has links)
An algorithm of incremental mining implicative logical rules is pro-posed. This algorithm is based on constructing good classification tests. The in-cremental approach to constructing these rules allows revealing the interde-pendence between two fundamental components of human thinking: pattern recognition and knowledge acquisition.
182

Understanding grassland dynamics in the steppe zone of Kazakhstan – a remote sensing analysis

Dara, Andrey 22 January 2020 (has links)
Die Steppen Kasachstans haben seit dem Zusammenbruch der Sowjetunion einen tiefgreifenden Wandel erfahren. Insbesondere die Veränderung der Landnutzung, welche traditionell von der Acker- und Weidenutzung geprägt ist, sowie die daraus resultierenden Effekte auf das Feuerregime sind aktuell noch nicht ausreichend verstanden. Das Hauptziel dieser Dissertation besteht daher in der Kartierung und Analyse der Veränderungen im Mensch-Umweltsystem des nördlichen Kasachstans seit den 1980er Jahren. Ein auf jährlichen Landsat-Zeitreihen basierender Ansatz wurde entwickelt, um den Zeitpunkt der Aufgabe und Rekultivierung von landwirtschaftlichen Flächen mit hoher räumlicher und zeitlicher Auflösung zu dokumentieren. Dieser Datensatz ermöglichte z.B. die Schätzung des Anteils organischer Kohlenstoffbindungen im Boden auf Basis der Nutzungsgeschichte der letzten Jahrzehnte. Eine Kartierung der Änderungen im Feuerregime zeigte eine siebenfache Zunahme an verbrannter Fläche und eine Verachtfachung von Bränden innerhalb des Untersuchungszeitraumes. Sowohl landwirtschaftliche Feuer als auch die Landaufgabe waren mit einem erhöhten Brandrisiko assoziiert. Darüber hinaus wurde mithilfe von Spektralindizes und einem Random Forest Modell quantifiziert, wie sich der Beweidungsdruck nach dem Zerfall der Sowjetunion verändert hat. Die Analyse ergab einen Rückgang des Beweidungsdrucks in der kasachischen Steppe nach 1992, meist in der Nähe von aufgegebenen Nutzviehhaltestationen. In dieser Dissertation konnte gezeigt werden, wie Landsat-Zeitreihen genutzt werden können, um den Einfluss von Landnutzungsänderungen auf die Ökologie von Steppen besser zu verstehen. Die entwickelten Datensätze ermöglichen es, die Prozesse, die zur Landaufgabe und den damit zusammenhängenden Auswirkungen auf die kasachische Steppe führten, zu entwirren und können zur Entscheidungsfindung in der Landnutzungs- und Naturschutzplanung verwendet werden. / The steppes of Kazakhstan are one of the world regions that experienced massive changes in land-use intensity and widespread land-use change after the breakdown of the Soviet Union. Cropping and grazing regime changes across the steppes of Kazakhstan are understudied, and related spatio-temporal changes, e.g. in fire regimes, are still poorly understood. The main research goal of this thesis was to develop a methodology to map related change at appropriate scales and to provide novel datasets to enhance our understanding of how the coupled human-environment in Northern Kazakhstan has changed since the 1980s. An approach was developed to identify the timing of post-Soviet cropland abandonment and recultivation in northern Kazakhstan. Knowing the timing of abandonment allowed for deeper insights into what drives these dynamics: for example, recultivation after 2007 happened mainly on land that had been abandoned latest. Knowing the timing of abandonment allowed for substantially more precise estimates of soil organic carbon sequestration. Mapping changes in fire regimes highlighted a sevenfold increase in burnt area and an eightfold increase in number of fires after the breakdown of the Soviet Union. Agricultural burning and abandonment were associated with increased fire risk. Grazing probabilities, derived from Landsat using a random forest, were found to provide the best metrics to capture grazing pressure. The analysis revealed a general decline in grazing pressure in the Kazakh steppe after 1992, especially near abandoned livestock stations. Collectively, the dissertation highlights how dense records of Landsat images can be utilized to better understand land use changes and the ecology of steppes across large areas. The datasets developed within this thesis allow to disentangle the processes leading to and the impacts of agricultural abandonment in the temperate Kazakh steppes, and may be used to support decision-making in land-use and conservation planning.
183

Machine Learning for Credit Risk Analytics

Kozodoi, Nikita 03 June 2022 (has links)
Der Aufstieg des maschinellen Lernens (ML) und die rasante Digitalisierung der Wirtschaft haben die Entscheidungsprozesse in der Finanzbranche erheblich verändert. Finanzinstitute setzen zunehmend auf ML, um die Entscheidungsfindung zu unterstützen. Kreditscoring ist eine der wichtigsten ML-Anwendungen im Finanzbereich. Die Aufgabe von Kreditscoring ist die Unterscheidung ob ein Antragsteller einen Kredit zurückzahlen wird. Finanzinstitute verwenden ML, um Scorecards zu entwickeln, die die Ausfallwahrscheinlichkeit eines Kreditnehmers einschätzen und Genehmigungsentscheidungen automatisieren. Diese Dissertation konzentriert sich auf drei große Herausforderungen, die mit dem Aufbau von ML-basierten Scorekarten für die Bewertung von Verbraucherkrediten verbunden sind: (i) Optimierung von Datenerfassungs- und -speicherkosten bei hochdimensionalen Daten von Kreditantragstellern; (ii) Bewältigung der negativen Auswirkungen von Stichprobenverzerrungen auf das Training und die Bewertung von Scorekarten; (iii) Messung und Sicherstellung der Fairness von Instrumenten bei gleichzeitig hoher Rentabilität. Die Arbeit bietet und testet eine Reihe von Instrumenten, um jede dieser Herausforderungen zu lösen und die Entscheidungsfindung in Finanzinstituten zu verbessern. Erstens entwickeln wir Strategien zur Auswahl von Merkmalen, die mehrere unternehmensbezogene Zielfunktionen optimieren. Unsere Vorschläge reduzieren die Kosten der Datenerfassung und verbessern die Rentabilität der Modelle. Zweitens schlagen wir Methoden zur Abschwächung der negativen Auswirkungen von Stichprobenverzerrungen vor. Unsere Vorschläge gleichen die Verluste aufgrund von Verzerrungen teilweise aus und liefern zuverlässigere Schätzungen der künftigen Scorecard-Leistung. Drittens untersucht die Arbeit faire ML-Praktiken in Kreditscoring. Wir katalogisieren geeignete algorithmische Optionen für die Einbeziehung von Fairness-Zielen und verdeutlichen den Kompromiss zwischen Gewinn und Fairness. / The rise of machine learning (ML) and the rapid digitization of the economy has substantially changed decision processes in the financial industry. Financial institutions increasingly rely on ML to support decision-making. Credit scoring is one of the prominent ML applications in finance. The task of credit scoring is to distinguish between applicants who will pay back the loan or default. Financial institutions use ML to develop scoring models to estimate a borrower's probability of default and automate approval decisions. This dissertation focuses on three major challenges associated with building ML-based scorecards in consumer credit scoring: (i) optimizing data acquisition and storage costs when dealing with high-dimensional data of loan applicants; (ii) addressing the adverse effects of sampling bias on training and evaluation of scoring models; (iii) measuring and ensuring the scorecard fairness while maintaining high profitability. The thesis offers a set of tools to remedy each of these challenges and improve decision-making practices in financial institutions. First, we develop feature selection strategies that optimize multiple business-inspired objectives. Our propositions reduce data acquisition costs and improve model profitability and interpretability. Second, the thesis illustrates the adverse effects of sampling bias on model training and evaluation and suggests novel bias correction frameworks. The proposed methods partly recover the loss due to bias, provide more reliable estimates of the future scorecard performance and increase the resulting model profitability. Third, the thesis investigates fair ML practices in consumer credit scoring. We catalog algorithmic options for incorporating fairness goals in the model development pipeline and perform empirical experiments to clarify the profit-fairness trade-off in lending decisions and identify suitable options to implement fair credit scoring and measure the scorecard fairness.
184

Selbstlernende Assistenzsysteme für Maschinenbediener

Schult, Andre 11 December 2018 (has links)
No description available.
185

Aktueller Stand SAM und Vorstellung der Pilotprojekte

Schult, Andre, Windisch, Markus 09 December 2019 (has links)
No description available.
186

Application of machine learning to improve to performance of a pressure-controlled system

Kreutmayr, Fabian, Imlauer, Markus 23 June 2020 (has links)
Due to the robustness and flexibility of hydraulic components, hydraulic control systems are used in a wide range of applications under various environmental conditions. However, the coverage of this broad field of applications often comes with a loss of performance. Especially when conditions and working points change often, hydraulic control systems cannot work at their optimum. Flexible electronic controllers in combination with techniques from the field of machine learning have the potential to overcome these issues. By applying a reinforcement learning algorithm, this paper examines whether learned controllers can compete with an expert-tuned solution. Thereby, the method is thoroughly validated by using simulations and experiments as well.
187

Simulation-based system reliability analysis of electrohydraulic actuator with dual modular redundancy

Andreev, Maxim, Kolesnikov, Artem, Grätz, Uwe, Gundermann, Julia 26 June 2020 (has links)
This paper describes the failure detection system of an electro-hydraulic actuator with dual modular redundancy based on a hybrid twin TM concept. Hybrid twin TM is a combination of virtual twin that operates in parallel with the actuator and represents its ideal behaviour, and a digital twin that identifies possible failures using the sensor readings residuals. Simulation-based system reliability analysis helps to generate a dataset for training the digital twin using machine learning algorithms. A systematic failure detection approach based on decision trees and the process of analysing the quality of the result is described.
188

Robust and distributed top-n frequent-pattern mining with SAP BW accelerator

Lehner, Wolfgang, Legler, Thomas, Schaffner, Jan, Krüger, Jens 22 April 2022 (has links)
Mining for association rules and frequent patterns is a central activity in data mining. However, most existing algorithms are only moderately suitable for real-world scenarios. Most strategies use parameters like minimum support, for which it can be very difficult to define a suitable value for unknown datasets. Since most untrained users are unable or unwilling to set such technical parameters, we address the problem of replacing the minimum-support parameter with top-n strategies. In our paper, we start by extending a top-n implementation of the ECLAT algorithm to improve its performance by using heuristic search strategy optimizations. Also, real-world datasets are often distributed and modern database architectures are switching from expensive SMPs to cheaper shared-nothing blade servers. Thus, most mining queries require distribution handling. Since partitioning can be forced by user-defined semantics, it is often forbidden to transform the data. Therefore, we developed an adaptive top-n frequent-pattern mining algorithm that simplifies the mining process on real distributions by relaxing some requirements on the results. We first combine the PARTITION and the TPUT algorithms to handle distributed top-n frequent-pattern mining. Then, we extend this new algorithm for distributions with real-world data characteristics. For frequent-pattern mining algorithms, equal distributions are important conditions, and tiny partitions can cause performance bottlenecks. Hence, we implemented an approach called MAST that defines a minimum absolute-support threshold. MAST prunes patterns with low chances of reaching the global top-n result set and high computing costs. In total, our approach simplifies the process of frequent-pattern mining for real customer scenarios and data sets. This may make frequent-pattern mining accessible for very new user groups. Finally, we present results of our algorithms when run on the SAP NetWeaver BW Acceleratorwith standard and real business datasets.
189

Machine Learning for Marketing Decision Support

Haupt, Johannes Sebastian 10 July 2020 (has links)
Die Digitalisierung der Wirtschaft macht das Customer Targeting zu einer wichtigen Schnittmenge von Marketing und Wirtschaftsinformatik. Marketingtreibende können auf Basis von soziodemografischen und Verhaltensdaten gezielt einzelne Kunden mit personalisierten Botschaften ansprechen. Diese Arbeit erweitert die Perspektive der Forschung im Bereich der modellbasierten Vorhersage von Kundenverhalten durch 1) die Entwicklung und Validierung neuer Methoden des maschinellen Lernens, die explizit darauf ausgelegt sind, die Profitabilität des Customer Targeting im Direktmarketing und im Kundenbindungsmanagement zu optimieren, und 2) die Untersuchung der Datenerfassung mit Ziel des Customer Targeting aus Unternehmens- und Kundensicht. Die Arbeit entwickelt Methoden welche den vollen Umfang von E-Commerce-Daten nutzbar machen und die Rahmenbedingungen der Marketingentscheidung während der Modellbildung berücksichtigen. Die zugrundeliegenden Modelle des maschinellen Lernens skalieren auf hochdimensionale Kundendaten und ermöglichen die Anwendung in der Praxis. Die vorgeschlagenen Methoden basieren zudem auf dem Verständnis des Customer Targeting als einem Problem der Identifikation von Kausalzusammenhängen. Die Modellschätzung sind für die Umsetzung profitoptimierter Zielkampagnen unter komplexen Kostenstrukturen ausgelegt. Die Arbeit adressiert weiterhin die Quantifizierung des Einsparpotenzials effizienter Versuchsplanung bei der Datensammlung und der monetären Kosten der Umsetzung des Prinzips der Datensparsamkeit. Eine Analyse der Datensammlungspraktiken im E-Mail-Direktmarketing zeigt zudem, dass eine Überwachung des Leseverhaltens in der Marketingkommunikation von E-Commerce-Unternehmen ohne explizite Kundenzustimmung weit verbreitet ist. Diese Erkenntnis bildet die Grundlage für ein auf maschinellem Lernen basierendes System zur Erkennung und Löschung von Tracking-Elementen in E-Mails. / The digitization of the economy has fundamentally changed the way in which companies interact with customers and made customer targeting a key intersection of marketing and information systems. Building models of customer behavior at scale requires development of tools at the intersection of data management and statistical knowledge discovery. This dissertation widens the scope of research on predictive modeling by focusing on the intersections of model building with data collection and decision support. Its goals are 1) to develop and validate new machine learning methods explicitly designed to optimize customer targeting decisions in direct marketing and customer retention management and 2) to study the implications of data collection for customer targeting from the perspective of the company and its customers. First, the thesis proposes methods that utilize the richness of e-commerce data, reduce the cost of data collection through efficient experiment design and address the targeting decision setting during model building. The underlying state-of-the-art machine learning models scale to high-dimensional customer data and can be conveniently applied by practitioners. These models further address the problem of causal inference that arises when the causal attribution of customer behavior to a marketing incentive is difficult. Marketers can directly apply the model estimates to identify profitable targeting policies under complex cost structures. Second, the thesis quantifies the savings potential of efficient experiment design and the monetary cost of an internal principle of data privacy. An analysis of data collection practices in direct marketing emails reveals the ubiquity of tracking mechanisms without user consent in e-commerce communication. These results form the basis for a machine-learning-based system for the detection and deletion of tracking elements from emails.
190

Dateneffiziente selbstlernende neuronale Regler

Hafner, Roland 04 December 2009 (has links)
Die vorliegende Arbeit untersucht den Entwurf und die Anwendung selbstlernender Regler als intelligente Reglerkomponente im Wirkungsablauf eines Regelkreises für regelungstechnische Anwendungen. Der aufwändige Prozess der Analyse des dynamischen Systems und der Reglersynthese, welche die klassischen Entwurfsmuster der Regelungstechnik benötigen, wird dabei ersetzt durch eine lernende Reglerkomponente. Diese kann mit sehr wenig Wissen über den zu regelnden Prozess eingesetzt werden und lernt direkt durch Interaktion eine präzise Regelung auf extern vorgegebene Führungsgrößen. Der Lernvorgang basiert dabei auf einem Optimierungsprozess mit einem leistungsfähigen Batch-Reinforcement-Lernverfahren, dem ´Neural Fitted Q-Iteration´. Dieses Verfahren wird auf seine Verwendung als selbstlernender Regler untersucht. Für die in den Untersuchungen festgestellten Unzulänglichkeiten des Verfahrens bezüglich der geforderten präzisen, zeitoptimalen Regelung werden verbesserte Vorgehensweisen entwickelt, die ebenfalls auf ihre Leistungsfähigkeit untersucht werden.Für typische regelungstechnische Problemstellungen sind die diskreten Aktionen des NFQ-Verfahrens nicht ausreichend, um eine präzise Regelung auf beliebige Führungsgrößen zu erzeugen.Durch die Entwicklung einer Erweiterung des NFQ für kontinuierliche Aktionen wird die Genauigkeit und Leistungsfähigkeit der selbstlernenden Regler drastisch erhöht, ohne die benötigte Interaktionszeit am Prozess zu erhöhen.An ausgewählten Problemen der Regelung linearer und nichtlinearer Prozesse wird die Leistungsfähigkeit der entwickelten Verfahren empirisch evaluiert. Es zeigt sich dabei, dass die hier entwickelten selbstlernenden Regler mit wenigen Minuten Interaktionszeit an einem Prozess eine präzise Regelungsstrategie für beliebige externe Führungsgrößen lernen, ohne dass Expertenwissen über den Prozess vorliegt.

Page generated in 0.0624 seconds