• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 148
  • 41
  • 1
  • Tagged with
  • 190
  • 190
  • 190
  • 183
  • 104
  • 26
  • 25
  • 24
  • 23
  • 22
  • 19
  • 17
  • 17
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Aspekte unendlichdimensionaler Martingaltheorie und ihre Anwendung in der Theorie der Finanzmärkte

Schöckel, Thomas 19 October 2004 (has links)
Wir modellieren einen Finanzmarkt mit unendlich vielen Wertpapieren als stochastischen Prozeß X in stetiger Zeit mit Werten in einem separablen Hilbertraum H. In diesem Rahmen zeigen wir die Äquivalenz von Vollständigkeit des Marktes und der Eindeutigkeit des äquivalenten Martingalmaßes unter der Bedingung, daß X stetige Pfade besitzt. Weiter zeigen wir, daß (unter gewissen technischen Bedingungen) für X die Abwesenheit von asymptotischer Arbitrage der ersten/zweiten Art (im Sinne von Kabanov/Kramkov) äquivalent zur Absolutstetigkeit des Referenzmaßes zu einem eindeutigen, lokal äquivalenten Martingalmaß ist. Hat X stetige Pfade, so ist die Abwesenheit von allgemeiner asymptotischer Arbitrage äquivalent zur Existenz eines äquivalenten lokalen Martingalmaßes. Außerdem geben wir ein Kriterium für die Existenz einer optionalen Zerlegung von X an. Dies wenden wir auf das Problem der Risikominimierung bei vorgegebener Investitionsobergrenze (effizientes Hedgen (Föllmer/Leukert)) an, um dieses im unendlichdimensionalen Kontext zu behandeln. Außerdem stellen wir eine unendlichdimensionale Erweiterung des Heath-Jarrow-Morton-Modells vor und nutzen den Potentialansatz nach Rodgers, um zwei weitere Zinsstrukturmodelle zu konstruieren. Als Beitrag zur allgemeinen stochastischen Analysis in Hilberträumen beweisen wir eine pfadweise Version der Itoformel für stochastische Prozesse mit stetigen Pfaden in einem separablen Hilbertraum. Daraus läßt sich eine pfadweise Version des Satzes über die Vertauschbarkeit von stochastischem und Lebesgue-Integral ableiten. Außerdem zeigen wir eine Version der Clark-Formel für eine Brownsche Bewegung mit Werten in einem Hilbertraum. / We model a financial market with infinitely many assets as a stochastic process X with values in a separable Hilbert space H. In this setting we show the equivalence of market completeness and the uniqueness of the equivalent martingale measure, if X has continuous paths. Another result for our model is, that under some technical conditions, the absence of asymptotic arbitrage of the first/second kind (in the sense of Kabanov/Kramkov) is equivalent to the absolute continuity of the reference measure to a unique, locally equivalent, martingale measure. If X has continuous paths, the absence of general asymptotic arbitrage is equivalent to the existence of an equivalent local martingale measure. Furthermore, we give a sufficient condition for the existence of the optional decomposition of X. We apply this result to the problem of risk minimization with given upper limit for investion (efficient hedging (Föllmer/Leukert)). This allows us to solve this optimization problem in our infinite dimensional context. Another result is an infinite dimensional extension of the Heath-Jarrow-Morton term structure model. Two further term structure models are constructed, using the Markov potential approach developed by Rodgers. As a contribution to the theory of stochastic analysis in Hilbert spaces, we proof a pathwise version of the Ito formula for stochastic processes with continuous paths in a separable Hilbert space. This leads to a pathwise version of the interchangability theorem for stochastic and Lebesgue integrals. We also show a version of the Clark formula for Hilbert space valued Brownian motion.
92

Explicit stationarity conditions and solution characterization for equilibrium problems with equilibrium constraints

Surowiec, Thomas Michael 19 March 2010 (has links)
Die vorliegende Arbeit beschaeftigt sich mit Gleichgewichtsproblemen unter Gleichgewichtsrestriktionen, sogenannten EPECs (Englisch: Equilibrium Problems with Equilibrium Constraints). Konkret handelt es sich um gekoppelte Zwei-Ebenen-Optimierungsprobleme, bei denen Nash- Gleichgewichte fuer die Entscheidungen der oberen Ebene gesucht sind. Ein Ziel der Arbeit besteht in der Formulierung dualer Stationaritaetsbedingungen zu solchen Problemen. Als Anwendung wird ein oligopolistisches Wettbewerbsmodell fuer Strommaerkte betrachtet. Zur Gewinnung qualitativer Hypothesen ueber die Struktur der betrachteten Modelle (z.B. Inaktivitaet bestimmter Marktteilnehmer) aber auch fuer moegliche numerische Zugaenge ist es wesentlich, EPEC-Loesungen explizit bezueglich der Eingangsdaten des Problems zu formulieren. Der Weg dorthin erfordert eine Strukturanalyse der involvierten Optimierungsprobleme (constraint qualifications, Regularitaet), die Herleitung von Stabilitaetsresultaten bestimmter mengenwertiger Abbildungen und die Nutzung von Transformationsformeln fuer die sogenannte Ko-Ableitung. Weitere Schwerpunkte befassen sich mit der Beziehung zwischen verschiedenen dualen Stationaritaetstypen (S- und M-Stationaritaet) sowie mit stochastischen Erweiterungen der betrachteten Problemklasse, sogenannten SEPECs. / This thesis is concerned with equilibrium problems with equilibrium constraints or EPECs. Concretely, we consider models composed by coupling together two-level optimization problems, the upper-level solutions to which are non-cooperative (Nash-Cournot) equilibria. One of the main goals of the thesis involves the formulation of dual stationarity conditions to EPECs. A model of oligopolistic competition for electricity markets is considered as an application. In order to profit from qualitative hypotheses concerning the structure of the considered models, e.g., inactivity of certain market participants at equilibrium, as well as to provide conditions useful for numerical procedures, the ablilty to formulate EPEC solutions in relation to the input data of the problem is of considerable importance. The way to do this requires a structural analysis of the involved optimization problems, e.g., constraints qualifications, regularity; the derivation of stability results for certain multivalued mappings, and the usage of transformation formulae for so-called coderivatives. Further important topics address the relationship between various dual stationarity types, e.g., S- and M-stationarity, as well as the extension of the considered problem classes to a stochastic setting, i.e., stochastic EPECs or SEPECs.
93

Lambda-Strukturen und s-Strukturen

Fuchs, Gunter 19 June 2003 (has links)
In dieser Arbeit werden lambda-Strukturen und s-Strukturen eingeführt, und Funktionen S und Lambda entwickelt, die lambda-Strukturen auf s-Strukturen abbilden und umgekehrt. lambda-Strukturen sind eng verwandt mit den in von Jensen untersuchten Prämäusen (iterierbare Prämäuse dieser Art sind lambda-Strukturen), und s-Strukturen wurden in Anlehnung an die von Mitchell und Steel betrachteten Prämäuse definiert. Wieder sind iterierbare Prämäuse dieser Art auch s-Strukturen. Für die Definition dieser Strukturen wurde eine neue, schwache Form der initial segment condition entwickelt (die s'-ISC), die stark genug für die Anwendungen ist. Um zu zeigen, dass die hier entwickelten Funktionen die gewünschte Korrespondenz realisieren, wurden Methoden zur Übersetzung von Formeln entwickelt, die teilweise sehr allgemein gehalten sind. So ist die Übersetzung von Sigma-1-Formeln, die in einer Nachfolgerstufe der Jensen-Hierarchie gelten, in entsprechende Sigma-omega-Formeln in der Vorgängerstufe, anwendbar auf beliebige J-Strukturen. Es werden normale s-Iterationen eingeführt, die den normalen Iterationen von Prämäusen im Sinne von Mitchell-Steel nachgebildet sind, aber auf lambda-Strukturen angewandt werden, und es wird gezeigt, dass die entwickelten Funktionen komponentenweise auf Iterationen angewandt werden können, um normale s-Iterationen von lambda-Strukturen in normale Iterationen von s-Strukturen zu übersetzen, und umgekehrt. Mit diesen Methoden lassen sich auch Iterationsstrategien übersetzen, und man erhält, dass die entwickelten Funktionen normal s-iterierbare lambda-Strukturen auf normal iterierbare s-Strukturen abbilden, und umgekehrt. Auch bleiben die wesentlichen feinstrukturellen Größen, wie bspw. Projekta, und unter gewissen Voraussetzungen (soundness und 1-solidity) auch die Standard-Parameter, erhalten. / In this work we introduce lambda-structures and s-structures, and develop functions S and Lambda, which map lambda-structures to s-structures and vice versa. lambda-structures are closely related to the premice studied in recent work of Jensen (iterable premice of this kind are lambda-structures), and s-structures were defined with the premice developed by Mitchell and Steel in mind. Again, iterable premice of this kind are s-structures. For the definition of these structures, a new form of the initial segment condition condition, called s'-ISC, was developed, which is a common weakening of the versions used in by Steel and Jensen. It still suffices for the applications. In order to show that the functions introduced establish the desired correspondence, we developed methods for translating formulae, which in part are very generally applicable. For instance, the translation of Sigma-1-formulae which hold in a successor level of the Jensen-hierarchy into corresponding Sigma-omega-formulae in the predecessor level, can be applied to arbitrary J-structures. We introduce normal s-iterations, which have been designed so as to rebuild the iterations of premice in the sense of Mitchell-Steel but are applied to lambda-structures. It is shown that the translation functions can be applied component-wise to normal iterations, in order to translate normal s-iterations of lambda-structures into normal iterations of s-structures, and vice versa. Using these methods, we can also translate iteration strategies and the result is that the functions introduced in this work map normally s-iterable lambda-structures to normally iterable s-structures, and vice versa. Also,the fundamental fine structural notions, such as projecta, and under additional hypotheses (soundness and 1-solidity) standard-parameters, are preserved.
94

Efficient hedging in incomplete markets under model uncertainty

Kirch, Michael 07 January 2002 (has links)
Wir betrachten einen Investor, der eine Option verkauft hat und den maximal erwarteten gewichteten Verlust minimieren möchte. Dabei wird das Maximum über eine Familie von Modellen, das heißt sogenannten objektiven Wahrscheinlichkeitsmaßen, gebildet. Die Minimierung erfolgt über alle zulässigen Absicherungsstrategien, welche einer vorgegebenen Kapitaleinschränkung genügen. Der Verlust wird vermöge einer strikt konvexen Verlustfunktion gewichtet. Die minimierende Strategie nennen wir robust-effizient. Das Problem, eine robust-effiziente Strategie zu bestimmen, ist eng mit dem statistischen Problem des Testens einer zusammengesetzten Hypothese gegen eine zusammengesetzte Alternative verbunden: Hat man eine Lösung für das statistische Problem, das heißt einen maximin-optimalen Test, so kann man eine modifizierte Option definieren, so daß die Superhedging-Strategie für die modifizierte Option robust-effizient ist, vgl. Theorem. Umgekehrt kann man einen maximin-optimalen Test vom Wert der robust-effizienten Strategie zum Auszahlungszeitpunkt ableiten. Das mathematische Kernstück dieser Arbeit ist die allgemeine Lösung des statistischen Testproblems mit Methoden der konvexen Dualität und Spieltheorie. Von dem bekannten klassischen Testproblem unterscheidet sich das in dieser Arbeit betrachtete Problem insofern als die Macht eines Tests anstelle durch die Identität durch eine strikt konkave zustandsabhängige Nutzenfunktion definiert ist. Zudem ist unsere einzige wesentliche Annahme, daß die Hypothese sowie die Alternative dominiert sind, das heißt die Hypothese und die Alternative sind weder stetig parametrisierbar noch notwendigerweise von der Form der Umgebungen wie sie typischerweise in der robusten Statistik verwendet werden vorausgesetzt. Die Lösung des Testproblems in dieser Arbeit erfolgt vermöge des zentralen Begriffs eines ungünstigsten Paares aus Hypothese und Alternative: Der maximin-optimale Test ist unter allen einfachen Tests für das ungünstigste Paar zu finden. Dies ist das zentrale Resultat des Kapitels über maximin-optimale Tests. Falls das ungünstigste Modell äquivalent zu der Familie aller Modelle ist, so ist der einfache Test für das ungünstigste Paar eindeutig und bereits maximin-optimal. Falls das ungünstigste Modell nicht äquivalent zur Familie ist, so approximieren wir den maximin-optimalen Test durch eine Folge von einfachen Tests, die durch eingebettete Teilprobleme definiert werden können. Die Anwendung unserer Resultate über maximin-optimale Tests auf den Spezialfall des zur robust-effizienten Absicherung assoziierten Testproblems erlaubt uns, die optimale modifizierte Option vermöge eines ungünstigsten Paares von Modell und Preisregel zu beschreiben. Ein ungünstigstes Modell maximiert das minimale Verlustrisiko über alle Modelle. Wir setzen Erreichbarkeit der modifizierten Option mit Äquivalenz der ungünstigsten Preisregel zum ungünstigsten Modell miteinander in Verbindung. Dies zeigt, daß die ungünstigste Preisregel im allgemeinen nicht Äquivalent zum Referenzmodell ist - ein Sachverhalt, den wir in den Anwendungen wieder aufgreifen. Im zweiten Teil dieser Arbeit konstruieren wir die robust-effiziente Strategie in verschiedenen Anwendungen. Um die allgemeinen Resultate des vorhergehenden Teils nutzen zu können, müssen wir die effiziente Strategie für jedes fixierte Modell sowie ein ungünstigstes Modell bestimmen. Nötigenfalls vergrößern wir dafür zunächst die Familie der Modelle in geeigneter Weise, um die Existenz eines ungünstigsten Modells zu garantieren. Wir wenden das Prinzip der dynamischen Programmierung in einer Weise an, die an das jeweils zugrundeliegende Modell angepasst ist und bestimmen so die effiziente Strategie. / We consider an investor who has sold a contingent claim and intends to minimize the maximal expected weighted shortfall. Here, the maximum is taken over a family of models and the minimum is taken over all admissible hedging strategies that satisfy a given cost constraint. We call the associated minimizing strategy robust-efficient. The problem to determine a robust-efficient strategy is closely related to the statistical problem of testing a composite hypothesis against a composite alternative. The hypothesis is given by the family of pricing rules and the alternative coincides with the family of models. The mathematical centerpiece of this thesis is the solution of the statistical testing problem on a general level by means of convex duality and game-theoretical methods. The problem differs from the classical testing problem in that the power of a test is defined in terms of a strictly concave state dependent utility function rather than the identity mapping. Furthermore, our only essential assumption is that the alternative and the hypothesis are dominated, i.e., the alternative and the hypothesis need neither be parameterized nor of the form of the neighborhoods typically considered in robust statistics. Similar to the classical notion of least-favorable pairs of prior-distributions on the hypothesis respectively alternative, we introduce the pivotal notion of a least-favorable pair of elements of the hypothesis respectively alternative. The main result of our analysis on maximin-optimal tests is that the maximin-optimal test can be found among the simple-optimal test for a least-favorable pair. If the least-favorable pair is equivalent to the dominating measure, the simple optimal test is the unique maximin-optimal test. If the latter condition is not fulfilled, we approximate the maximin-optimal test by a sequence of explicitly constructed simple optimal tests. These results clarify the general structure of the robust-efficient hedging strategy. We also show that a least-favorable pair can be decomposed into a worst-case model and a worst-case pricing rule for this model. The worst-case model has a very direct economic interpretation, whereas the worst-case pricing rule is a more mathematical auxiliary tool. If the worst-case model dominates all models, the efficient strategy associated to the fixed worst-case model is robust-efficient. For fixed model, the worst-case pricing rule yields the optimal modified claim and allows us to make some statements about its attainability. In the second part of this thesis, we explicitly construct the robust-efficient strategy in a series of applications. For this, the task remains to determine the efficient strategy for each fixed model and a worst-case model. First, we enlarge the family of models in order to establish existence of a worst-case model. Then we derive the dynamics of the price process, the efficient strategy and the associated risk under each (fixed) model. If the model is incomplete, we adapt the dynamic programming principle to the specific dynamics of the model to compute or approximate the efficient strategy.
95

Wavelet-Konstruktion als Anwendung der algorithmischen reellen algebraischen Geometrie

Lehmann, Lutz 24 April 2007 (has links)
Im Rahmen des TERA-Projektes (Turbo Evaluation and Rapid Algorithms) wurde ein neuartiger, hochgradig effizienter probabilistischer Algorithmus zum Lösen polynomialer Gleichungssysteme entwickelt und für den komplexen Fall implementiert. Die Geometrie polarer Varietäten gestattet es, diesen Algorithmus zu einem Verfahren zur Charakterisierung der reellen Lösungsmengen polynomialer Gleichungssysteme zu erweitern. Ziel dieser Arbeit ist es, eine Implementierung dieses Verfahrens zur Bestimmung reeller Lösungen auf eine Klasse von Beispielproblemen anzuwenden. Dabei wurde Wert darauf gelegt, dass diese Beispiele reale, praxisbezogene Anwendungen besitzen. Diese Anforderung ist z.B. für polynomiale Gleichungssysteme erfüllt, die sich aus dem Entwurf von schnellen Wavelet-Transformationen ergeben. Die hier betrachteten Wavelet-Transformationen sollen die praktisch wichtigen Eigenschaften der Orthogonalität und Symmetrie besitzen. Die Konstruktion einer solchen Wavelet-Transformation hängt von endlich vielen reellen Parametern ab. Diese Parameter müssen gewisse polynomiale Gleichungen erfüllen. In der veröffentlichten Literatur zu diesem Thema wurden bisher ausschließlich Beispiele mit endlichen Lösungsmengen behandelt. Zur Berechnung dieser Beispiele war es dabei ausreichend, quadratische Gleichungen in einer oder zwei Variablen zu lösen. Zur Charakterisierung der reellen Lösungsmenge eines polynomialen Gleichungssystems ist es ein erster Schritt, in jeder reellen Zusammenhangskomponente mindestens einen Punkt aufzufinden. Schon dies ist ein intrinsisch schweres Problem. Es stellt sich heraus, dass der Algorithmus des TERA-Projektes zur Lösung dieser Aufgabe bestens geeignet ist und daher eine größere Anzahl von Beispielproblemen lösen kann als die besten kommerziell erhältlichen Lösungsverfahren. / As a result of the TERA-project on Turbo Evaluation and Rapid Algorithms a new type, highly efficient probabilistic algorithm for the solution of systems of polynomial equations was developed and implemented for the complex case. The geometry of polar varieties allows to extend this algorithm to a method for the characterization of the real solution set of systems of polynomial equations. The aim of this work is to apply an implementation of this method for the determination of real solutions to a class of example problems. Special emphasis was placed on the fact that those example problems possess real-life, practical applications. This requirement is satisfied for the systems of polynomial equations that result from the design of fast wavelet transforms. The wavelet transforms considered here shall possess the practical important properties of symmetry and orthogonality. The specification of such a wavelet transform depends on a finite number of real parameters. Those parameters have to obey certain polynomial equations. In the literature published on this topic, only example problems with a finite solution set were presented. For the computation of those examples it was sufficient to solve quadratic equations in one or two variables. To characterize the set of real solutions of a system of polynomial equations it is a first step to find at least one point in each connected component. Already this is an intrinsically hard problem. It turns out that the algorithm of the TERA-project performes very well with this task and is able to solve a larger number of examples than the best known commercial polynomial solvers.
96

The twistor equation in Lorentzian spin geometry

Leitner, Felipe 30 November 2001 (has links)
Es wird die Twistorgleichung auf Lorentz-Spin-Mannigfaltigkeiten untersucht. Bekanntermaßen existieren Lösungen der Twistorgleichung auf den pp-Mannigfaltigkeiten, den Lorentz-Einstein-Sasaki Mannigfaltigkeiten und den Fefferman-Räumen. Es wird gezeigt, dass in den kleinen Dimensionen 3,4 und 5 Twistor-Spinoren ohne 'Singularitäten' nur für diese genannten Lorentz-Geometrien vorkommen. Von besonderem Interesse sind Lösungen der Twistorgleichung mit Nullstellen. Es wird die Gestalt der Nullstellenmenge von konformen Vektorfeldern und Twistor-Spinoren beschrieben. Weiterhin wird die Twistorgleichung im Kontext der konformen Cartan-Geometrie formuliert. Als Anwendung werden konform-flache semi-Riemannsche Spin-Mannigfaltigkeiten mit Twistor-Spinoren unter Zuhilfenahme der Holonomiedarstellung der ersten Fundamentalgruppe charakterisiert. Abschließend wird eine Anwendung des Twistorraumes einer Lorentz-4-Mannigfaltigkeit in der Flächentheorie diskutiert. Dabei zeigen wir eine Korrespondenz zwischen holomorphen Kurven im Twistorraum und raumartig immergierten Flächen mit lichtartigem mittlerem Krümmungsvektor. Beispielhaft werden solche Flächen in den Lorentzschen Raumformen der Dimension 4 konstruiert. / The twistor equation on Lorentzian spin manifolds is investigated. Known solutions of the twistor equation exist on the pp-manifolds, the Lorentz-Einstein-Sasaki manifolds and the Fefferman spaces. It is shown that in the low dimensions 3,4 and 5 twistor spinors without 'singularities' appear only for these mentioned Lorentzian spin geometries. Solutions of the twistor equation with zeros are of particular interest. The shape of the zero set of conformal vector fields and twistor spinors is described. Moreover, the twistor equation is formulated in the context of conformal Cartan geometry. As an application the conformally flat semi-Riemannian spin spaces with twistor spinors are characterized by the holonomy representation of the first fundamental group. Finally, we discuss an application of the twistor space of a Lorentzian 4-manifold in surface theory. Thereby, we prove a correspondence between holomorphic curves in the twistor space and spacelike immersed surfaces with lightlike mean curvature vector. Exemplary, such surfaces are constructed in the Lorentzian space forms of dimension 4.
97

Das absolutstetige Spektrum eines Matrixoperators und eines diskreten kanonischen Systems / The absolutely continuous spectrum of a matrix operator and a discrete canonical system

Fischer, Andreas 19 April 2004 (has links)
In the first part of this thesis the spectrum of a matrix operator is determined. For this the coefficients of the matrix operator are assumed to satisfy rather general properties which combine smoothness and decay. With this the asymptotics of the eigenfunctions can be determined. This in turn leads to properties of the spectra with the aid of the M-matrix. In the second part it will be shown that if a discrete canonical system has absolutely continuous spectrum of a certain multiplicity, then there is a corresponding number of linearly independent solutions y which are bounded in a weak sense.
98

Optimale Strategien fuer spezielle Reparatursysteme / Optimal control of special repairable systems

Bruns, Peter 08 September 2000 (has links)
The thesis contains 3 repairable systems and 2 replacement systems: First a repairable system is considered with Markovian deterioration and imperfect repair, carried out at fixed times. We look for optimal strategies under certain conditions. Two optimality criteria are considered: expected discounted cost and long-run average cost. Conditions are found under which the optimal policy is a control-limit policy as used by Derman or Ross. We explicitly explain how to derive this optimal policy; numerical examples are given, too. The special case of unbounded cost is also studied. With the first model the state space is numerable but with the second it is not. With the fourth model the system occurs a shock process and is only inspected after such a shock. Models 3 and 5 are replacement systems with Morkovian deterioration and finite state space {0,...,N}. A system in state N is considered to be in a very serious situation. Hence there is the condition, e.g. stipulated by law, that the percentage of all replaced machines in state N in the group of all replaced machines may not be larger than 100 epsilon for a fixed epsilon in [0,1]. We prove that a generalized control limit policy maximizes the expected running time of a machine and we explain explicitly how to derive this optimal policy. Illustrated numerical examples are given.
99

Learning with Recurrent Neural Networks / Lernen mit Rekurrenten Neuronalen Netzen

Hammer, Barbara 15 September 2000 (has links)
This thesis examines so called folding neural networks as a mechanism for machine learning. Folding networks form a generalization of partial recurrent neural networks such that they are able to deal with tree structured inputs instead of simple linear lists. In particular, they can handle classical formulas - they were proposed originally for this purpose. After a short explanation of the neural architecture we show that folding networks are well suited as a learning mechanism in principle. This includes three parts: the proof of their universal approximation ability, the aspect of information theoretical learnability, and the examination of the complexity of training. Approximation ability: It is shown that any measurable function can be approximated in probability. Explicit bounds on the number of neurons result if only a finite number of points is dealt with. These bounds are new results in the case of simple recurrent networks, too. Several restrictions occur if a function is to be approximated in the maximum norm. Afterwards, we consider briefly the topic of computability. It is shown that a sigmoidal recurrent neural network can compute any mapping in exponential time. However, if the computation is subject to noise almost the capability of tree automata arises. Information theoretical learnability: This part contains several contributions to distribution dependent learnability: The notation of PAC and PUAC learnability, consistent PAC/ PUAC learnability, and scale sensitive versions are considered. We find equivalent characterizations of these terms and examine their respective relation answering in particular an open question posed by Vidyasagar. It is shown at which level learnability only because of an encoding trick is possible. Two approaches from the literature which can guarantee distribution dependent learnability if the VC dimension of the concept class is infinite are generalized to function classes: The function class is stratified according to the input space or according to a so-called luckiness function which depends on the output of the learning algorithm and the concrete training data. Afterwards, the VC, pseudo-, and fat shattering dimension of folding networks are estimated: We improve some lower bounds for recurrent networks and derive new lower bounds for the pseudodimension and lower and upper bounds for folding networks in general. As a consequence, folding architectures are not distribution independent learnable. Distribution dependent learnability can be guaranteed. Explicit bounds on the number of examples which guarantee valid generalization can be derived using the two approaches mentioned above. We examine in which cases these bounds are polynomial. Furthermore, we construct an explicit example for a learning scenario where an exponential number of examples is necessary. Complexity: It is shown that training a fixed folding architecture with perceptron activation function is polynomial. Afterwards, a decision problem, the so-called loading problem, which is correlated to neural network training is examined. For standard multilayer feed-forward networks the following situations turn out to be NP-hard: Concerning the perceptron activation function, a classical result from the literature, the NP-hardness for varying input dimension, is generalized to arbitrary multilayer architectures. Additionally, NP-hardness can be found if the input dimension is fixed but the number of neurons may vary in at least two hidden layers. Furthermore, the NP-hardness is examined if the number of patterns and number of hidden neurons are correlated. We finish with a generalization of the classical NP result as mentioned above to the sigmoidal activation function which is used in practical applications.
100

Shop-Scheduling Problems with Transportation

Knust, Sigrid 26 September 2000 (has links)
In this thesis scheduling problems with transportation aspects are studied. Classical scheduling models for problems with multiple operations are the so-called shop-scheduling models. In these models jobs consisting of different operations have to be planned on certain machines in such a way that a given objective function is minimized. Each machine may process at most one operation at a time and operations belonging to the same job cannot be processed simultaneously. We generalize these classical shop-scheduling problems by assuming that the jobs additionally have to be transported between the machines. This transportation has to be done by robots which can handle at most one job at a time. Besides transportation times which occur for the jobs during their transport, also empty moving times are considered which arise when a robot moves empty from one machine to another. Two types of problems are distinguished: on the one hand, problems without transportation conflicts (i.e. each transportation can be performed without delay), and on the other hand, problems where transportation conflicts may arise due to a limited capacity of transport robots. In the first part of this thesis several new complexity results are derived for flow-shop problems with a single robot. Since very special cases of these problems are already NP-hard, in the second part of this thesis some techniques are developed for dealing with these hard problems in practice. We concentrate on the job-shop problem with a single robot and the makespan objective. At first we study the subproblem which arises for the robot when some scheduling decisions for the machines have already been made. The resulting single-machine problem can be regarded as a generalization of the traveling salesman problem with time windows where additionally minimal time-lags between certain jobs have to be respected and the makespan has to be minimized. For this single-machine problem we adapt immediate selection techniques used for other scheduling problems and calculate lower bounds based on linear programming and the technique of column generation. On the other hand, to determine upper bounds for the single-machine problem we develop an efficient local search algorithm which finds good solutions in reasonable time. This algorithm is integrated into a local search algorithm for the job-shop problem with a single robot. Finally, the proposed algorithms are tested on different test data and computational results are presented.

Page generated in 0.0533 seconds