Spelling suggestions: "subject:"kontinuierliches ciernen"" "subject:"kontinuierliches cavernen""
1 |
Dynamische Neuronale Netzarchitektur für Kontinuierliches LernenTagscherer, Michael 23 August 2001 (has links) (PDF)
Am Beispiel moderner Automatisierungssysteme wird deutlich, dass die Steuerung und optimale Führung der technischen Prozesse eng verbunden ist mit der Verfügbarkeit eines möglichst exakten Prozessmodells.
Steht jedoch kein Modell des zu steuernden Systems zur Verfügung oder ist das System nicht ausreichend genau analytisch beschreibbar, muss ein adäquates Modell auf der Basis von Beobachtungen (Messdaten) abgeleitet werden.
Erschwerend wirken sich hierbei starke Nichtlinearitäten sowie der zeitvariante Charakter der zu identifizierenden Systeme aus. Die Zeitvarianz, beispielsweise durch Alterung oder Verschleiß hervorgerufen, erfordert zusätzlich eine schritthaltende Adaption an den sich verändernden Prozess.
Das einmalige, zeitlich begrenzte Erstellen eines Modells ist somit nicht ausreichend. Stattdessen muss zeitlich unbegrenzt "nachtrainiert" werden, was dementsprechend als "Kontinuierliches Lernen" bezeichnet wird. Auch wenn das Ableiten eines Systemmodells anhand von Beobachtungen eine typische Aufgabenstellung für Neuronale Netze ist, stellt die Zeitvarianz Neuronale Netze dennoch vor enorme Probleme.
Im Rahmen der Dissertation wurden diese Probleme identifiziert und anhand von unterschiedlichen Neuronalen Netzansätzen analysiert. Auf den sich hieraus ergebenden Ergebnissen steht anschließend die Entwicklung eines neuartigen Neuronalen Netzansatzes im Mittelpunkt.
Die besondere Eigenschaft des hybriden ICE-Lernverfahrens ist die Fähigkeit, eine zur Problemkomplexität adäquate Netztopologie selbstständig zu generieren und diese entsprechend des zeitvarianten Charakters der Zielfunktion dynamisch adaptieren zu können. Diese Eigenschaft begünstigt insbesondere schnelles Initiallernen. Darüber hinaus ist das ICE-Verfahren in der Lage,
parallel zur Modellausgabe Vertrauenswürdigkeitsprognosen für die aktuelle Ausgabe zur Verfügung zu stellen.
Den Abschluss der Arbeit bildet eine spezielle Form des ICE-Ansatzes, bei der durch asymmetrische Aktivierungsfunktionen Parallelen zur Fuzzy-Logik hergestellt werden. Dadurch wird es möglich, automatisch Regeln abzuleiten, welche das erlernte Modell beschreiben.
Die "Black-Box", die Neuronale Netze in der Regel darstellen, wird dadurch transparenter. / One of the main requirements for an optimal industrial control system
is the availability of a precise model of the process, e.g. for a steel rolling
mill. If no model or no analytical description of such a process is available a sufficient model has to be derived from observations, i.e. system identification. While nonlinear function approximation is a well-known application for neural networks, the approximation of nonlinear functions
that change over time poses many additional problems which have been in the focus of this research. The time-variance caused for example by aging or attrition requires a continuous adaptation to process changes throughout the life-time of the system, here referred to as continuous learning.
Based on the analysis of different neural network approaches the novel incremental construction algorithm ICE for continuous learning tasks has been developed. One of the main advantages of the ICE-algorithm is that the number of RBF-neurons and the number of local models of the hybrid
network have not to be determined in advance. This is an important feature for fast initial learning. The evolved network is automatically adapted to the time-variant target function. Another advantage of the ICE-algorithm is the ability to simultaneously learn the target function and a
confidence value for the network output. Finally a special version of the ICE-algorithm with asymmetric receptive fields is introduced. Here similarities to fuzzy logic are intended. The goal is to automatically derive rules which describe the learned model of the unknown process. In
general a neural network is a "black box". In contrast to that an ICE-network is more transparent.
|
2 |
Dynamische Neuronale Netzarchitektur für Kontinuierliches LernenTagscherer, Michael 01 May 2001 (has links)
Am Beispiel moderner Automatisierungssysteme wird deutlich, dass die Steuerung und optimale Führung der technischen Prozesse eng verbunden ist mit der Verfügbarkeit eines möglichst exakten Prozessmodells.
Steht jedoch kein Modell des zu steuernden Systems zur Verfügung oder ist das System nicht ausreichend genau analytisch beschreibbar, muss ein adäquates Modell auf der Basis von Beobachtungen (Messdaten) abgeleitet werden.
Erschwerend wirken sich hierbei starke Nichtlinearitäten sowie der zeitvariante Charakter der zu identifizierenden Systeme aus. Die Zeitvarianz, beispielsweise durch Alterung oder Verschleiß hervorgerufen, erfordert zusätzlich eine schritthaltende Adaption an den sich verändernden Prozess.
Das einmalige, zeitlich begrenzte Erstellen eines Modells ist somit nicht ausreichend. Stattdessen muss zeitlich unbegrenzt "nachtrainiert" werden, was dementsprechend als "Kontinuierliches Lernen" bezeichnet wird. Auch wenn das Ableiten eines Systemmodells anhand von Beobachtungen eine typische Aufgabenstellung für Neuronale Netze ist, stellt die Zeitvarianz Neuronale Netze dennoch vor enorme Probleme.
Im Rahmen der Dissertation wurden diese Probleme identifiziert und anhand von unterschiedlichen Neuronalen Netzansätzen analysiert. Auf den sich hieraus ergebenden Ergebnissen steht anschließend die Entwicklung eines neuartigen Neuronalen Netzansatzes im Mittelpunkt.
Die besondere Eigenschaft des hybriden ICE-Lernverfahrens ist die Fähigkeit, eine zur Problemkomplexität adäquate Netztopologie selbstständig zu generieren und diese entsprechend des zeitvarianten Charakters der Zielfunktion dynamisch adaptieren zu können. Diese Eigenschaft begünstigt insbesondere schnelles Initiallernen. Darüber hinaus ist das ICE-Verfahren in der Lage,
parallel zur Modellausgabe Vertrauenswürdigkeitsprognosen für die aktuelle Ausgabe zur Verfügung zu stellen.
Den Abschluss der Arbeit bildet eine spezielle Form des ICE-Ansatzes, bei der durch asymmetrische Aktivierungsfunktionen Parallelen zur Fuzzy-Logik hergestellt werden. Dadurch wird es möglich, automatisch Regeln abzuleiten, welche das erlernte Modell beschreiben.
Die "Black-Box", die Neuronale Netze in der Regel darstellen, wird dadurch transparenter. / One of the main requirements for an optimal industrial control system
is the availability of a precise model of the process, e.g. for a steel rolling
mill. If no model or no analytical description of such a process is available a sufficient model has to be derived from observations, i.e. system identification. While nonlinear function approximation is a well-known application for neural networks, the approximation of nonlinear functions
that change over time poses many additional problems which have been in the focus of this research. The time-variance caused for example by aging or attrition requires a continuous adaptation to process changes throughout the life-time of the system, here referred to as continuous learning.
Based on the analysis of different neural network approaches the novel incremental construction algorithm ICE for continuous learning tasks has been developed. One of the main advantages of the ICE-algorithm is that the number of RBF-neurons and the number of local models of the hybrid
network have not to be determined in advance. This is an important feature for fast initial learning. The evolved network is automatically adapted to the time-variant target function. Another advantage of the ICE-algorithm is the ability to simultaneously learn the target function and a
confidence value for the network output. Finally a special version of the ICE-algorithm with asymmetric receptive fields is introduced. Here similarities to fuzzy logic are intended. The goal is to automatically derive rules which describe the learned model of the unknown process. In
general a neural network is a "black box". In contrast to that an ICE-network is more transparent.
|
3 |
Three Experimental Accounting StudiesChaskel, Rico 06 January 2023 (has links)
Diese Dissertation umfasst drei Studien. Die erste Studie untersucht Overprecision („Überpräzision“). Ich untersuche, wie Menschen Spannweitenschätzungen vornehmen. Teilnehmende müssen die Größe der Spannweite (Präzision) mit der Wahrscheinlichkeit, dass sie den wahren Wert einschließt (Richtigkeit) balancieren. Die Ergebnisse zeigen, dass Menschen inhärente individuelle Vorlieben für Präzision zu haben scheinen. Gleichzeitig werden vorhersagbar zusätzliche Informationen genutzt, um die Richtigkeit der Schätzungen zu erhöhen. Dafür wird entweder Präzision geopfert, oder die Spannweitenschätzung insgesamt verschoben. Die Richtigkeit der Schätzung wird jedoch nicht maximiert, sondern ein Teil für höhere Präzision aufgegeben.
Die zweite Studie untersucht, wie sich die Übersetzung von Finanzberichterstattung auf die Wahrnehmung einer Firma als attraktives Investment auswirkt. Sie beleuchtet drei verschiedene Kanäle: Lesbarkeit, Stimmung, und Präzision der Veröffentlichung. In einem Umfrageexperiment lesen Kleinanleger deutsche und englische Prognoseberichte deutscher Firmen. Die Ergebnisse zeigen, dass die deutschen Berichte als besser lesbar wahrgenommen werden. Im Gegensatz zu vorheriger Literatur ist die Lesbarkeit nicht mit einer höheren Investmentattraktivität korreliert. Allein die Stimmung des Textes zeigt eine Korrelation mit höherer Attraktivität.
Die dritte Studie untersucht, wie das Angebot von formativen Onlinetests die Leistungen von Studierenden in der Klausur beeinflusst. Sie untersucht zudem, ob die Leistung sich unterscheidet, je nachdem ob die Studierenden zeitlich begrenzten Zugang zu den Tests haben oder ob sie jederzeit auf die Tests zugreifen können. Ein Experiment, welches es ermöglicht den kausalen Intention-to-treat-Effekt zu bestimmen, zeigt, dass die formativen Onlinetests die Studienleistung erhöhen können, allerdings nur für Studierende, welche sich nicht freiwillig für die Tests gemeldet hatten und in der kontinuierlichen Lerngruppe waren. / This dissertation comprises three papers. The first study examines overprecision. I examine how people provide range estimates, a challenging task that requires people to balance the width of the range (i.e., its precision) with the probability of the range covering the true value (i.e., accuracy). I find that people appear to have inherent individual preferences for a certain level of precision. At the same time, they appear to predictably incorporate additional information in order to increase accuracy by either sacrificing precision or shifting their ranges altogether. Still, they do not seem to maximise accuracy, but are willing to expend some of it to provide more precise estimates.
The second study examines how the translation of financial disclosures changes investors’ perceptions of firms as an attractive investment. It examines three possible channels: readability, tone, and precision of the underlying disclosure. In a survey experiment, retail investors read forecast reports of German firms, provided in German and English. The findings indicate that the German versions are easier to read. Contrary to prior literature, the easier readability does not translate into higher investment attractiveness. Solely tone appears to be correlated with investment attractiveness.
The third study analyses how offering formative online assessments influences student performance in the final exam. It further examines whether students perform differently depending on whether they have time-restricted access to the assessments, or whether they can access the assessments at any time. An experiment which allows for the identification of the causal intention-to-treat effect shows that offering formative online assessments can enhance student performance, but only for students who do not opt for taking the test voluntarily and who are in a continuous learning environment.
|
Page generated in 0.0676 seconds