• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 47
  • 27
  • 8
  • 1
  • Tagged with
  • 83
  • 50
  • 40
  • 27
  • 18
  • 17
  • 17
  • 17
  • 13
  • 12
  • 12
  • 10
  • 9
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Adaptivity in anisotropic finite element calculations

Grosman, Sergey 21 April 2006 (has links)
When the finite element method is used to solve boundary value problems, the corresponding finite element mesh is appropriate if it is reflects the behavior of the true solution. A posteriori error estimators are suited to construct adequate meshes. They are useful to measure the quality of an approximate solution and to design adaptive solution algorithms. Singularly perturbed problems yield in general solutions with anisotropic features, e.g. strong boundary or interior layers. For such problems it is useful to use anisotropic meshes in order to reach maximal order of convergence. Moreover, the quality of the numerical solution rests on the robustness of the a posteriori error estimation with respect to both the anisotropy of the mesh and the perturbation parameters. There exist different possibilities to measure the a posteriori error in the energy norm for the singularly perturbed reaction-diffusion equation. One of them is the equilibrated residual method which is known to be robust as long as one solves auxiliary local Neumann problems exactly on each element. We provide a basis for an approximate solution of the aforementioned auxiliary problem and show that this approximation does not affect the quality of the error estimation. Another approach that we develope for the a posteriori error estimation is the hierarchical error estimator. The robustness proof for this estimator involves some stages including the strengthened Cauchy-Schwarz inequality and the error reduction property for the chosen space enrichment. In the rest of the work we deal with adaptive algorithms. We provide an overview of the existing methods for the isotropic meshes and then generalize the ideas for the anisotropic case. For the resulting algorithm the error reduction estimates are proven for the Poisson equation and for the singularly perturbed reaction-difussion equation. The convergence for the Poisson equation is also shown. Numerical experiments for the equilibrated residual method, for the hierarchical error estimator and for the adaptive algorithm confirm the theory. The adaptive algorithm shows its potential by creating the anisotropic mesh for the problem with the boundary layer starting with a very coarse isotropic mesh.
62

Stand der de facto-Konvergenz von IFRS und US-GAAP – Eine empirische Analyse der Überleitungsrechnungen nach Form 20-F von Unternehmen aus der Europäischen Union

Dobler, Michael, Günther, Nina 29 February 2024 (has links)
Der Beitrag prüft den Stand der de facto-Konvergenz von IFRS und US-GAAP anhand der Überleitungsrechnungen gemäß Form 20-F von 114 europäischen IFRS-Bilanzierern. Die Analyse von 1.928 Einzelposten verdeutlicht die Heterogenität und das oft wesentliche Ausmaß der Differenzen zwischen den Ergebnis- und Eigenkapitalgrößen nach IFRS und nach US-GAAP. Diese gründen vorrangig auf hohen Teildifferenzen aus der Bilanzierung von Unternehmenszusammenschlüssen, immateriellen Vermögenswerten und Pensionen. Neben der Branchenzugehörigkeit beeinflussen die Erstanwendung von IFRS und die Rechnungslegungstradition die ausgewiesenen Differenzen. Die Ergebnisse offenbaren einen bislang geringen Stand der de facto-Konvergenz und deuten auf Umstellungseffekte sowie international inkonsistente Anwendung der Standards hin. Insbesondere implizieren die parallelen Abschlussgrößen eine frühere Gewinnvereinnahmung nach US-GAAP und insoweit eine vorsichtigere Bilanzierung nach IFRS, die in common law-Staaten starker ausgeprägt ist als in code law-Staaten. Neben der Branchenzugehörigkeit beeinflussen die Erstanwendung von IFRS und die Rechnungslegungstradition die ausgewiesenen Differenzen. Die Ergebnisse offenbaren einen bislang geringen Stand der de facto-Konvergenz und deuten auf Umstellungseffekte sowie international inkonsistente Anwendung der Standards hin. Insbesondere implizieren die parallelen Abschlussgrößen eine frühere Gewinnvereinnahmung nach US-GAAP und insoweit eine vorsichtigere Bilanzierung nach IFRS, die in common law-Staaten stärker ausgeprägt ist als in code law-Staaten. / This paper examines the level of de facto convergence of IFRSs and U.S. GAAP based on Form 20-F reconciliations of 114 EU companies. Our analysis of 1.928 reconciling items illustrates that de facto differences between IFRSs and U.S. GAAP are heterogeneous and often material in both net income and shareholder’s equity. Particularly, adjustments for business combinations, intangibles and pensions are predominant. We find significant differences between numerical adjustments (1) of first-time adopters and non-first-time adopters of IFRSs, (2) of companies in the financial and non-financial sector, and (3) of companies domiciled in common law and code law countries with each former group tending to larger adjustments. This implies that adoption effects and institutional factors impact the amount of adjustments. Our overall results indicate a poor level of de facto convergence achieved to date and an inconsistent application of accounting standards. Particularly, results imply earlier profit recognition under U.S. GAAP and more conservative accounting under IFRSs, which are more prevalent in common law countries than in code law countries. Particularly, results imply earlier profit recognition under U.S. GAAP and more conservative accounting under IFRSs, which are more prevalent in common law countries than in code law countries.
63

Advanced electronic structure theory: from molecules to crystals / Höhere Elektronenstrukturtheorie: vom Molekül zum Kristall

Buth, Christian 21 October 2005 (has links) (PDF)
In dieser Dissertation werden ab initio Theorien zur Beschreibung der Zustände von perfekten halbleitenden und nichtleitenden Kristallen, unter Berücksichtigung elektronischer Korrelationen, abgeleitet und angewandt. Als Ausgangsbasis dient hierzu die Hartree-Fock Approximation in Verbindung mit Wannier-Orbitalen. Darauf aufbauend studiere ich zunächst in Teil I der Abhandlung den Grundzustand der wasserstoffbrückengebundenen Fluorwasserstoff und Chlorwasserstoff zick-zack Ketten und analysiere die langreichweitigen Korrelationsbeiträge. Dabei mache ich die Basissatzextrapolationstechniken, die für kleine Moleküle entwickelt wurden, zur Berechnung von hochgenauen Bindungsenergien von Kristallen nutzbar. In Teil II der Arbeit leite ich zunächst eine quantenfeldtheoretische ab initio Beschreibung von Elektroneneinfangzuständen und Lochzuständen in Kristallen her. Grundlage hierbei ist das etablierte algebraische diagrammatische Konstruktionsschema (ADC) zur Approximation der Selbstenergie für die Bestimmung der Vielteilchen-Green's-Funktion mittels der Dyson-Gleichung. Die volle Translationssymmetrie des Problems wird hierbei beachtet und die Lokalität elektronischer Korrelationen ausgenutzt. Das resultierende Schema wird Kristallorbital-ADC (CO-ADC) genannt. Ich berechne damit die Quasiteilchenbandstruktur einer Fluorwasserstoffkette und eines Lithiumfluoridkristalls. In beiden Fällen erhalte ich eine sehr gute Übereinstimmung zwischen meinen Resultaten und den Ergebnissen aus anderen Methoden. / In this dissertation, theories for the ab initio description of the states of perfect semiconducting and insulating crystals are derived and applied. Electron correlations are treated thoroughly based on the Hartree-Fock approximation formulated in terms of Wannier orbitals. In part I of the treatise, I study the ground state of hydrogen-bonded hydrogen fluoride and hydrogen chloride zig-zag chains. I analyse the long-range contributions of electron correlations. Thereby, I employ basis set extrapolation techniques, which have originally been developed for small molecules, to also obtain highly accurate binding energies of crystals. In part II of the thesis, I devise an ab initio description of the electron attachment and electron removal states of crystals using methods of quantum field theory. I harness the well-established algebraic diagrammatic construction scheme (ADC) to approximate the self-energy, used in conjunction with the Dyson equation, to determine the many-particle Green's function for crystals. Thereby, the translational symmetry of the problem and the locality of electron correlations are fully exploited. The resulting scheme is termed crystal orbital ADC (CO-ADC). It is applied to obtain the quasiparticle band structure of a hydrogen fluoride chain and a lithium fluoride crystal. In both cases, a very good agreement of my results to those determined with other methods is observed.
64

Advanced electronic structure theory: from molecules to crystals

Buth, Christian 10 November 2005 (has links)
In dieser Dissertation werden ab initio Theorien zur Beschreibung der Zustände von perfekten halbleitenden und nichtleitenden Kristallen, unter Berücksichtigung elektronischer Korrelationen, abgeleitet und angewandt. Als Ausgangsbasis dient hierzu die Hartree-Fock Approximation in Verbindung mit Wannier-Orbitalen. Darauf aufbauend studiere ich zunächst in Teil I der Abhandlung den Grundzustand der wasserstoffbrückengebundenen Fluorwasserstoff und Chlorwasserstoff zick-zack Ketten und analysiere die langreichweitigen Korrelationsbeiträge. Dabei mache ich die Basissatzextrapolationstechniken, die für kleine Moleküle entwickelt wurden, zur Berechnung von hochgenauen Bindungsenergien von Kristallen nutzbar. In Teil II der Arbeit leite ich zunächst eine quantenfeldtheoretische ab initio Beschreibung von Elektroneneinfangzuständen und Lochzuständen in Kristallen her. Grundlage hierbei ist das etablierte algebraische diagrammatische Konstruktionsschema (ADC) zur Approximation der Selbstenergie für die Bestimmung der Vielteilchen-Green's-Funktion mittels der Dyson-Gleichung. Die volle Translationssymmetrie des Problems wird hierbei beachtet und die Lokalität elektronischer Korrelationen ausgenutzt. Das resultierende Schema wird Kristallorbital-ADC (CO-ADC) genannt. Ich berechne damit die Quasiteilchenbandstruktur einer Fluorwasserstoffkette und eines Lithiumfluoridkristalls. In beiden Fällen erhalte ich eine sehr gute Übereinstimmung zwischen meinen Resultaten und den Ergebnissen aus anderen Methoden. / In this dissertation, theories for the ab initio description of the states of perfect semiconducting and insulating crystals are derived and applied. Electron correlations are treated thoroughly based on the Hartree-Fock approximation formulated in terms of Wannier orbitals. In part I of the treatise, I study the ground state of hydrogen-bonded hydrogen fluoride and hydrogen chloride zig-zag chains. I analyse the long-range contributions of electron correlations. Thereby, I employ basis set extrapolation techniques, which have originally been developed for small molecules, to also obtain highly accurate binding energies of crystals. In part II of the thesis, I devise an ab initio description of the electron attachment and electron removal states of crystals using methods of quantum field theory. I harness the well-established algebraic diagrammatic construction scheme (ADC) to approximate the self-energy, used in conjunction with the Dyson equation, to determine the many-particle Green's function for crystals. Thereby, the translational symmetry of the problem and the locality of electron correlations are fully exploited. The resulting scheme is termed crystal orbital ADC (CO-ADC). It is applied to obtain the quasiparticle band structure of a hydrogen fluoride chain and a lithium fluoride crystal. In both cases, a very good agreement of my results to those determined with other methods is observed.
65

Rigorous derivation of two-scale and effective damage models based on microstructure evolution

Hanke, Hauke 26 September 2014 (has links)
Diese Dissertation beschäftigt sich mit der rigorosen Herleitung effektiver Modelle zur Beschreibung von Schädigungsprozessen. Diese effektiven Modelle werden für verschiedene raten-unabhängige Schädigungsmodelle linear elastischer Materialien hergeleitet. Den Ausgangspunkt stellt dabei ein unidirektionales Mikrostrukturevolutionsmodell dar, dessen Fundament eine Familie geordneter zulässiger Mikrostrukturen bildet. Jede Mikrostruktur dieser Familie besitzt die gleiche intrinsische Längenskala. Zur Herleitung eines effektiven Modells wird das asymptotische Verhalten dieser Längenskala mittels Techniken der Zwei-Skalen-Konvergenz untersucht. Um das Grenzmodell zu identifizieren, bedarf es einer Mikrostrukturregularisierung, die als diskreter Gradient für stückweise konstante Funktionen aufgefasst werden kann. Die Mikrostruktur des effektiven Modells ist punktweise durch ein Einheitszellenproblem gegeben, welches die Mikro- von der Makroskala trennt. Ausgehend vom Homogenisierungsresultat für die unidirektionale Mikrostrukturevolution werden effektive Modelle für Zwei-Phasen-Schädungsprozesse hergeleitet. Die aus zwei Phasen bestehende Mikrostruktur der mikroskopischen Modelle ermöglicht z.B. die Modellierung von Schädigung durch das Wachstum von Inklusionen aus geschädigtem Material verschiedener Form und Größe. Außerdem kann Schädigung durch das Wachstum mikroskopischer Hohlräume und Mikrorissen betrachtet werden. Die Größe der Defekte skaliert mit der intrinsischen Längenskala und die unidirektionale Mikrostrukturevolution verhindert, dass bei fixierter Längenskala die Defekte für fortlaufende Zeit schrumpfen. Das Material des Grenzmodells ist dann in jedem Punkt als Mischung von ungeschädigtem und geschädigtem Material durch das Einheitszellenproblem gegeben. Dabei liefert das Einheitszellenproblem nicht nur das Mischungsverhältnis sondern auch die genaue geometrische Mischungsverteilung, die dem effektiven Material des jeweiligen Materialpunktes zugrunde liegt. / This dissertation at hand deals with the rigorous derivation of such effective models used to describe damage processes. For different rate-independent damage processes in linear elastic material these effective models are derived as the asymptotic limit of microscopic models. The starting point is represented by a unidirectional microstructure evolution model which is based on a family of ordered admissible microstructures. Each microstructure of that family possesses the same intrinsic length scale. To derive an effective model, the asymptotic behavior of this intrinsic length scale is investigated with the help of techniques of the two-scale convergence. For this purpose, a microstructure-regularizing term, which can be understood as a discrete gradient for piecewise constant functions, is needed to identify the limit model. The microstructure of the effective model is given pointwisely by a so-called unit cell problem which separates the microscopic scale from the macroscopic scale. Based on these homogenization results for unidirectional microstructure evolution models, effective models for brutal damage processes are provided. There, the microstructure consists of only two phases, namely undamaged material which comprises defects of damaged material with various sizes and shapes. In this way damage progression can be modeled by the growth of inclusions of weak material, the growth of voids, or the growth of microscopic cracks. The size of the defects is scaled by the intrinsic length scale and the unidirectional microstructure evolution prevents that, for a fixed length scale, the defects shrink for progressing time. According to the unit cell problem, the material of the limit model is then given as a mixture of damaged and undamaged material. In a specific material point of the limit model, that unit cell problem does not only define the mixture ratio but also the exact geometrical mixture distribution.
66

On the quasi-optimal convergence of adaptive nonconforming finite element methods in three examples

Rabus, Hella 23 May 2014 (has links)
Eine Vielzahl von Anwendungen in der numerischen Simulation der Strömungsdynamik und der Festkörpermechanik begründen die Entwicklung von zuverlässigen und effizienten Algorithmen für nicht-standard Methoden der Finite-Elemente-Methode (FEM). Um Freiheitsgrade zu sparen, wird in jedem Durchlauf des adaptiven Algorithmus lediglich ein Teil der Gebiete verfeinert. Einige Gebiete bleiben daher möglicherweise verhältnismäßig grob. Die Analyse der Konvergenz und vor allem die der Optimalität benötigt daher über die a priori Fehleranalyse hinausgehende Argumente. Etablierte adaptive Algorithmen beruhen auf collective marking, d.h. die zu verfeinernden Gebiete werden auf Basis eines Gesamtfehlerschätzers markiert. Bei adaptiven Algorithmen mit separate marking wird der Gesamtfehlerschätzer in einen Volumenterm und in einen Fehlerschätzerterm aufgespalten. Da der Volumenterm unabhängig von der diskreten Lösung ist, kann einer schlechten Datenapproximation durch eine lokal tiefe Verfeinerung begegnet werden. Bei hinreichender Datenapproximation wird das Gitter dagegen bezüglich des neuen Fehlerschätzerterms wie üblich level-orientiert verfeinert. Die numerischen Experimente dieser Arbeit liefern deutliche Indizien der quasi-optimalen Konvergenz für den in dieser Arbeit untersuchten adaptiven Algorithmus, der auf separate marking beruht. Der Parameter, der die Verbesserung der Datenapproximation sicherstellt, ist frei wählbar. Dadurch ist es erstmals möglich, eine ausreichende und gleichzeitig optimale Approximation der Daten innerhalb weniger Durchläufe zu erzwingen. Diese Arbeit ermöglicht es, Standardargumente auch für die Konvergenzanalyse von Algorithmen mit separate marking zu verwenden. Dadurch gelingt es Quasi-Optimalität des vorgestellten Algorithmus gemäß einer generellen Vorgehensweise für die drei Beispiele, dem Poisson Modellproblem, dem reinen Verschiebungsproblem der linearen Elastizität und dem Stokes Problem, zu zeigen. / Various applications in computational fluid dynamics and solid mechanics motivate the development of reliable and efficient adaptive algorithms for nonstandard finite element methods (FEMs). To reduce the number of degrees of freedom, in adaptive algorithms only a selection of finite element domains is marked for refinement on each level. Since some element domains may stay relatively coarse, even the analysis of convergence and more importantly the analysis of optimality require new arguments beyond an a priori error analysis. In adaptive algorithms, based on collective marking, a (total) error estimator is used as refinement indicator. For separate marking strategies, the (total) error estimator is split into a volume term and an error estimator term, which estimates the error. Since the volume term is independent of the discrete solution, if there is a poor data approximation the improvement may be realised by a possibly high degree of local mesh refinement. Otherwise, a standard level-oriented mesh refinement based on an error estimator term is performed. This observation results in a natural adaptive algorithm based on separate marking, which is analysed in this thesis. The results of the numerical experiments displayed in this thesis provide strong evidence for the quasi-optimality of the presented adaptive algorithm based on separate marking and for all three model problems. Furthermore its flexibility (in particular the free steering parameter for data approximation) allows a sufficient and optimal data approximation in just a few number of levels of the adaptive scheme. This thesis adapts standard arguments for optimal convergence to adaptive algorithms based on separate marking with a possibly high degree of local mesh refinement, and proves quasi-optimality following a general methodology for three model problems, i.e., the Poisson model problem, the pure displacement problem in linear elasticity and the Stokes equations.
67

Möglichkeiten zur Steuerung von Trust-Region Verfahren im Rahmen der Parameteridentifikation

Clausner, André 05 June 2013 (has links) (PDF)
Zur Simulation technischer Prozesse ist eine hinreichend genaue Beschreibung des Materialverhaltens notwendig. Die hierfür häufig verwendeten phänomenologischen Ansätze, wie im vorliegenden Fall die HILLsche Fließbedingung, enthalten materialspezifische Parameter, welche nicht direkt messbar sind. Die Identifikation dieser Materialparameter erfolgt in der Regel durch Minimierung eines Fehlerquadratfunktionals, welches Differenzen von Messwerten und zugehörigen numerisch berechneten Vergleichswerten enthält. In diesem Zusammenhang haben sich zur Lösung dieser Minimierungsaufgabe die Trust-Region Verfahren als gut geeignet herausgestellt. Die Aufgabe besteht darin, die verschiedenen Möglichkeiten zur Steuerung eines Trust-Region Verfahrens, im Hinblick auf die Eignung für das vorliegende Identifikationsproblem, zu untersuchen. Dazu werden die Quadratmittelprobleme und deren Lösungsverfahren überblicksmäßig betrachtet. Danach wird näher auf die Trust-Region Verfahren eingegangen, wobei sich im Weiteren auf Verfahren mit positiv definiten Ansätzen für die Hesse-Matrix, den Levenberg-Marquardt Verfahren, beschränkt wird. Danach wird ein solcher Levenberg-Marquardt Algorithmus in verschiedenen Ausführungen implementiert und an dem vorliegenden Identifikationsproblem getestet. Als Ergebnis stellt sich eine gute Kombination aus verschiedenen Teilalgorithmen des Levenberg-Marquardt Algorithmus mit einer hohen Konvergenzgeschwindigkeit heraus, welche für das vorliegende Problem gut geeignet ist.
68

Anwendung von Line-Search-Strategien zur Formoptimierung und Parameteridentifikation

Clausner, André 05 June 2013 (has links) (PDF)
Die kontinuierliche Weiterentwicklung und Verbesserung technischer Prozesse erfolgt heute auf der Basis stochastischer und deterministischer Optimierungsstrategien in Kombination mit der numerischen Simulation dieser Abläufe. Da die FE-Simulation von Umformvorgängen in der Regel sehr zeitintensiv ist, bietet sich für die Optimierung solcher Prozesse der Einsatz deterministischer Methoden an, da hier weniger Optimierungsschritte und somit auch weniger FE-Simulationen notwendig sind. Eine wichtige Anforderung an solche Optimierungsverfahren ist globale Konvergenz zu lokalen Minima, da die optimalen Parametersätze nicht immer näherungsweise bekannt sind. Die zwei wichtigsten Strategien zum Ausdehnen des beschränkten Konvergenzradius der natürlichen Optimierungsverfahren (newtonschrittbasierte Verfahren und Gradientenverfahren) sind die Line-Search-Strategie und die Trust-Region-Strategie. Die Grundlagen der Line-Search-Strategie werden aufgearbeitet und die wichtigsten Teilalgorithmen implementiert. Danach wird dieses Verfahren auf eine effiziente Kombination der Teilalgorithmen und Verfahrensparameter hin untersucht. Im Anschluss wird die Leistung eines Optimierungsverfahrens mit Line-Search-Strategie verglichen mit der eines ebenfalls implementierten Optimierungsverfahrens mit skalierter Trust-Region-Strategie. Die Tests werden nach Einfügen der implementierten Verfahren in das Programm SPC-Opt anhand der Lösung eines Quadratmittelproblems aus der Materialparameteridentifikation sowie der Formoptimierung eines Umformwerkzeugs vorgenommen.
69

Causal Models over Infinite Graphs and their Application to the Sensorimotor Loop / Kausale Modelle über unendlichen Grafen und deren Anwendung auf die sensomotorische Schleife - stochastische Aspekte und gradientenbasierte optimale Steuerung

Bernigau, Holger 27 April 2015 (has links) (PDF)
Motivation and background The enormous amount of capabilities that every human learns throughout his life, is probably among the most remarkable and fascinating aspects of life. Learning has therefore drawn lots of interest from scientists working in very different fields like philosophy, biology, sociology, educational sciences, computer sciences and mathematics. This thesis focuses on the information theoretical and mathematical aspects of learning. We are interested in the learning process of an agent (which can be for example a human, an animal, a robot, an economical institution or a state) that interacts with its environment. Common models for this interaction are Markov decision processes (MDPs) and partially observable Markov decision processes (POMDPs). Learning is then considered to be the maximization of the expectation of a predefined reward function. In order to formulate general principles (like a formal definition of curiosity-driven learning or avoidance of unpleasant situation) in a rigorous way, it might be desirable to have a theoretical framework for the optimization of more complex functionals of the underlying process law. This might include the entropy of certain sensor values or their mutual information. An optimization of the latter quantity (also known as predictive information) has been investigated intensively both theoretically and experimentally using computer simulations by N. Ay, R. Der, K Zahedi and G. Martius. In this thesis, we develop a mathematical theory for learning in the sensorimotor loop beyond expected reward maximization. Approaches and results This thesis covers four different topics related to the theory of learning in the sensorimotor loop. First of all, we need to specify the model of an agent interacting with the environment, either with learning or without learning. This interaction naturally results in complex causal dependencies. Since we are interested in asymptotic properties of learning algorithms, it is necessary to consider infinite time horizons. It turns out that the well-understood theory of causal networks known from the machine learning literature is not powerful enough for our purpose. Therefore we extend important theorems on causal networks to infinite graphs and general state spaces using analytical methods from measure theoretic probability theory and the theory of discrete time stochastic processes. Furthermore, we prove a generalization of the strong Markov property from Markov processes to infinite causal networks. Secondly, we develop a new idea for a projected stochastic constraint optimization algorithm. Generally a discrete gradient ascent algorithm can be used to generate an iterative sequence that converges to the stationary points of a given optimization problem. Whenever the optimization takes place over a compact subset of a vector space, it is possible that the iterative sequence leaves the constraint set. One possibility to cope with this problem is to project all points to the constraint set using Euclidean best-approximation. The latter is sometimes difficult to calculate. A concrete example is an optimization over the unit ball in a matrix space equipped with operator norm. Our idea consists of a back-projection using quasi-projectors different from the Euclidean best-approximation. In the matrix example, there is another canonical way to force the iterative sequence to stay in the constraint set: Whenever a point leaves the unit ball, it is divided by its norm. For a given target function, this procedure might introduce spurious stationary points on the boundary. We show that this problem can be circumvented by using a gradient that is tailored to the quasi-projector used for back-projection. We state a general technical compatibility condition between a quasi-projector and a metric used for gradient ascent, prove convergence of stochastic iterative sequences and provide an appropriate metric for the unit-ball example. Thirdly, a class of learning problems in the sensorimotor loop is defined and motivated. This class of problems is more general than the usual expected reward maximization and is illustrated by numerous examples (like expected reward maximization, maximization of the predictive information, maximization of the entropy and minimization of the variance of a given reward function). We also provide stationarity conditions together with appropriate gradient formulas. Last but not least, we prove convergence of a stochastic optimization algorithm (as considered in the second topic) applied to a general learning problem (as considered in the third topic). It is shown that the learning algorithm converges to the set of stationary points. Among others, the proof covers the convergence of an improved version of an algorithm for the maximization of the predictive information as proposed by N. Ay, R. Der and K. Zahedi. We also investigate an application to a linear Gaussian dynamic, where the policies are encoded by the unit-ball in a space of matrices equipped with operator norm.
70

Proximal Splitting Methods in Nonsmooth Convex Optimization

Hendrich, Christopher 25 July 2014 (has links) (PDF)
This thesis is concerned with the development of novel numerical methods for solving nondifferentiable convex optimization problems in real Hilbert spaces and with the investigation of their asymptotic behavior. To this end, we are also making use of monotone operator theory as some of the provided algorithms are originally designed to solve monotone inclusion problems. After introducing basic notations and preliminary results in convex analysis, we derive two numerical methods based on different smoothing strategies for solving nondifferentiable convex optimization problems. The first approach, known as the double smoothing technique, solves the optimization problem with some given a priori accuracy by applying two regularizations to its conjugate dual problem. A special fast gradient method then solves the regularized dual problem such that an approximate primal solution can be reconstructed from it. The second approach affects the primal optimization problem directly by applying a single regularization to it and is capable of using variable smoothing parameters which lead to a more accurate approximation of the original problem as the iteration counter increases. We then derive and investigate different primal-dual methods in real Hilbert spaces. In general, one considerable advantage of primal-dual algorithms is that they are providing a complete splitting philosophy in that the resolvents, which arise in the iterative process, are only taken separately from each maximally monotone operator occurring in the problem description. We firstly analyze the forward-backward-forward algorithm of Combettes and Pesquet in terms of its convergence rate for the objective of a nondifferentiable convex optimization problem. Additionally, we propose accelerations of this method under the additional assumption that certain monotone operators occurring in the problem formulation are strongly monotone. Subsequently, we derive two Douglas–Rachford type primal-dual methods for solving monotone inclusion problems involving finite sums of linearly composed parallel sum type monotone operators. To prove their asymptotic convergence, we use a common product Hilbert space strategy by reformulating the corresponding inclusion problem reasonably such that the Douglas–Rachford algorithm can be applied to it. Finally, we propose two primal-dual algorithms relying on forward-backward and forward-backward-forward approaches for solving monotone inclusion problems involving parallel sums of linearly composed monotone operators. The last part of this thesis deals with different numerical experiments where we intend to compare our methods against algorithms from the literature. The problems which arise in this part are manifold and they reflect the importance of this field of research as convex optimization problems appear in lots of applications of interest.

Page generated in 0.048 seconds