• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • 1
  • Tagged with
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Linear Functional Equations and Convergence of Iterates

Torshage, Axel January 2012 (has links)
The subject of this work is functional equations with direction towards linear functional equations. The .rst part describes function sets where iterates of the functions converge to a .xed point. In the second part the convergence property is used to provide solutions to linear functional equations by de.ning solutions as in.nite sums. Furthermore, this work contains some transforms to linear form, examples of functions that belong to di¤erent classes and corresponding linear functional equations. We use Mathematica to generate solutions and solve itera- tively equations.
2

Neuronale Netze zur Berechnung Iterativer Wurzeln und Fraktionaler Iterationen

Kindermann, Lars 17 December 2002 (has links) (PDF)
Diese Arbeit entwickelt eine Methode, Funktionalgleichungen der Art g(g(x))=f(x) bzw. g^n(x)=f(x) mit Hilfe neuronaler Netze zu lösen. Gesucht ist eine Funktion g(x), die mehrfach hintereinandergeschaltet genau einer gegebenen Funktion f(x) entspricht. Man nennt g=f^1/n eine iterative Wurzel oder fraktionale Iteration von f. Lösungen für g zu finden, stellt das inverse Problem der Iteration dar oder die Erweiterung der Wurzel- bzw. Potenzoperation auf die Funktionsalgebra. Geschlossene Ausdrücke für Funktionswurzeln einer gegebenen Funktion zu finden, ist in der Regel nicht möglich oder sehr schwer. Numerische Verfahren sind nicht in allgemeiner Form beschrieben oder als Software vorhanden. Ausgehend von der Fähigkeit eines neuronalen Netzes, speziell des mehrschichtigen Perzeptrons, durch Training eine gegebene Funktion f(x) zu approximieren, erlaubt eine spezielle Topologie des Netzes auch die Berechnung von fraktionalen Iterationen von f. Ein solches Netz besteht aus n identischen, hintereinandergeschalteten Teilnetzen, die, wenn das Gesamtnetz f approximiert, jedes für sich g = f^1/n annähern. Es ist lediglich beim Training des Netzes darauf zu achten, dass die korrespondierenden Gewichte aller Teilnetze den gleichen Wert annehmen. Dazu werden mehrere Verfahren entwickelt: Lernen nur im letzten Teilnetz und Kopieren der Gewichte auf die anderen Teile, Angleichen der Teilnetze durch Kopplungsfaktoren oder Einführung eines Fehlerterms, der Unterschiede in den Teilnetzen bestraft. Als weitere Näherungslösung wird ein iteriertes lineares Modell entwickelt, das durch ein herkömmliches neuronales Netz mit hoher Approximationsgüte für nichtlineare Zusammenhänge korrigiert wird. Als Anwendung ist konkret die Modellierung der Bandprofilentwicklung beim Warmwalzen von Stahlblech gegeben. Einige Zentimeter dicke Stahlblöcke werden in einer Walzstraße von mehreren gleichartigen, hintereinanderliegenden Walzgerüsten zu Blechen von wenigen Millimetern Dicke gewalzt. Neben der Dicke ist das Profil - der Dickenunterschied zwischen Bandmitte und Rand - eine wichtige Qualitätsgröße. Sie kann vor und hinter der Fertigstraße gemessen werden, aus technischen Gründen aber nicht zwischen den Walzgerüsten. Eine genaue Kenntnis ist jedoch aus produktionstechnischen Gründen wichtig. Der Stand der Technik ist die Berechnung dieser Zwischenprofile durch das wiederholte Durchrechnen eines mathematischen Modells des Walzvorganges für jedes Gerüst und eine ständige Anpassung von adaptiven Termen dieses Modells an die Messdaten. Es wurde gezeigt, dass mit einem adaptiven neuronalen Netz, das mit Eingangs- und Ausgangsprofil sowie allen vorhandenen Kenn- und Stellgrößen trainiert wird, die Vorausberechnung des Endprofils mit deutlich höherer Genauigkeit vorgenommen werden kann. Das Problem ist, dass dieses Netz die Übertragungsfunktion der gesamten Straße repräsentiert, Zwischenprofile können nicht ausgegeben werden. Daher wird der Versuch gemacht, beide Eigenschaften zu verbinden: Die genaue Endprofilmodellierung eines neuronalen Netzes wird kombiniert mit der Fähigkeit des iterierten Modells, Zwischenprofile zu berechnen. Dabei wird der in Form von Messdaten bekannte gesamte Prozess als iterierte Verknüpfung von technisch identischen Teilprozessen angesehen. Die Gewinnung eines Modells des Einzelprozesses entspricht damit der Berechnung der iterativen Wurzel des Gesamtprozesses.
3

Neuronale Netze zur Berechnung Iterativer Wurzeln und Fraktionaler Iterationen

Kindermann, Lars 03 July 2002 (has links)
Diese Arbeit entwickelt eine Methode, Funktionalgleichungen der Art g(g(x))=f(x) bzw. g^n(x)=f(x) mit Hilfe neuronaler Netze zu lösen. Gesucht ist eine Funktion g(x), die mehrfach hintereinandergeschaltet genau einer gegebenen Funktion f(x) entspricht. Man nennt g=f^1/n eine iterative Wurzel oder fraktionale Iteration von f. Lösungen für g zu finden, stellt das inverse Problem der Iteration dar oder die Erweiterung der Wurzel- bzw. Potenzoperation auf die Funktionsalgebra. Geschlossene Ausdrücke für Funktionswurzeln einer gegebenen Funktion zu finden, ist in der Regel nicht möglich oder sehr schwer. Numerische Verfahren sind nicht in allgemeiner Form beschrieben oder als Software vorhanden. Ausgehend von der Fähigkeit eines neuronalen Netzes, speziell des mehrschichtigen Perzeptrons, durch Training eine gegebene Funktion f(x) zu approximieren, erlaubt eine spezielle Topologie des Netzes auch die Berechnung von fraktionalen Iterationen von f. Ein solches Netz besteht aus n identischen, hintereinandergeschalteten Teilnetzen, die, wenn das Gesamtnetz f approximiert, jedes für sich g = f^1/n annähern. Es ist lediglich beim Training des Netzes darauf zu achten, dass die korrespondierenden Gewichte aller Teilnetze den gleichen Wert annehmen. Dazu werden mehrere Verfahren entwickelt: Lernen nur im letzten Teilnetz und Kopieren der Gewichte auf die anderen Teile, Angleichen der Teilnetze durch Kopplungsfaktoren oder Einführung eines Fehlerterms, der Unterschiede in den Teilnetzen bestraft. Als weitere Näherungslösung wird ein iteriertes lineares Modell entwickelt, das durch ein herkömmliches neuronales Netz mit hoher Approximationsgüte für nichtlineare Zusammenhänge korrigiert wird. Als Anwendung ist konkret die Modellierung der Bandprofilentwicklung beim Warmwalzen von Stahlblech gegeben. Einige Zentimeter dicke Stahlblöcke werden in einer Walzstraße von mehreren gleichartigen, hintereinanderliegenden Walzgerüsten zu Blechen von wenigen Millimetern Dicke gewalzt. Neben der Dicke ist das Profil - der Dickenunterschied zwischen Bandmitte und Rand - eine wichtige Qualitätsgröße. Sie kann vor und hinter der Fertigstraße gemessen werden, aus technischen Gründen aber nicht zwischen den Walzgerüsten. Eine genaue Kenntnis ist jedoch aus produktionstechnischen Gründen wichtig. Der Stand der Technik ist die Berechnung dieser Zwischenprofile durch das wiederholte Durchrechnen eines mathematischen Modells des Walzvorganges für jedes Gerüst und eine ständige Anpassung von adaptiven Termen dieses Modells an die Messdaten. Es wurde gezeigt, dass mit einem adaptiven neuronalen Netz, das mit Eingangs- und Ausgangsprofil sowie allen vorhandenen Kenn- und Stellgrößen trainiert wird, die Vorausberechnung des Endprofils mit deutlich höherer Genauigkeit vorgenommen werden kann. Das Problem ist, dass dieses Netz die Übertragungsfunktion der gesamten Straße repräsentiert, Zwischenprofile können nicht ausgegeben werden. Daher wird der Versuch gemacht, beide Eigenschaften zu verbinden: Die genaue Endprofilmodellierung eines neuronalen Netzes wird kombiniert mit der Fähigkeit des iterierten Modells, Zwischenprofile zu berechnen. Dabei wird der in Form von Messdaten bekannte gesamte Prozess als iterierte Verknüpfung von technisch identischen Teilprozessen angesehen. Die Gewinnung eines Modells des Einzelprozesses entspricht damit der Berechnung der iterativen Wurzel des Gesamtprozesses.
4

Feigenbaum Scaling

Sendrowski, Janek January 2020 (has links)
In this thesis I hope to provide a clear and concise introduction to Feigenbaum scaling accessible to undergraduate students. This is accompanied by a description of how to obtain numerical results by various means. A more intricate approach drawing from renormalization theory as well as a short consideration of some of the topological properties will also be presented. I was furthermore trying to put great emphasis on diagrams throughout the text to make the contents more comprehensible and intuitive.

Page generated in 0.0802 seconds