Return to search

Proximal Methods for Nonconvex Composite Optimization Problems / Proximal-Verfahren für nichtkonvexe zusammengesetzte Optimierungsprobleme

Optimization problems with composite functions deal with the minimization of the sum
of a smooth function and a convex nonsmooth function. In this thesis several numerical
methods for solving such problems in finite-dimensional spaces are discussed, which are
based on proximity operators.
After some basic results from convex and nonsmooth analysis are summarized, a first-order
method, the proximal gradient method, is presented and its convergence properties are
discussed in detail. Known results from the literature are summarized and supplemented by
additional ones. Subsequently, the main part of the thesis is the derivation of two methods
which, in addition, make use of second-order information and are based on proximal Newton
and proximal quasi-Newton methods, respectively. The difference between the two methods
is that the first one uses a classical line search, while the second one uses a regularization
parameter instead. Both techniques lead to the advantage that, in contrast to many similar
methods, in the respective detailed convergence analysis global convergence to stationary
points can be proved without any restricting precondition. Furthermore, comprehensive
results show the local convergence properties as well as convergence rates of these algorithms,
which are based on rather weak assumptions. Also a method for the solution of the arising
proximal subproblems is investigated.
In addition, the thesis contains an extensive collection of application examples and a detailed
discussion of the related numerical results. / In Optimierungsproblemen mit zusammengesetzten Funktionen wird die Summe aus einer
glatten und einer konvexen, nicht glatten Funktion minimiert. Die vorliegende Arbeit behan-
delt mehrere numerische Verfahren zur Lösung solcher Probleme in endlich-dimensionalen
Räumen, welche auf Proximity Operatoren basieren.
Nach der Zusammenfassung einiger grundlegender Resultate aus der konvexen und nicht-
glatten Analysis wird ein Verfahren erster Ordnung, das Proximal-Gradienten-Verfahren,
vorgestellt und dessen Konvergenzeigenschaften ausführlich behandelt. Bekannte Resultate
aus der Literatur werden dabei zusammengefasst und durch weitere Ergebnisse ergänzt. Im
Anschluss werden im Hauptteil der Arbeit zwei Verfahren hergeleitet, die zusätzlich Informationen zweiter Ordnung nutzen und auf Proximal-Newton- beziehungsweise Proximal-Quasi-
Newton-Verfahren beruhen. Der Unterschied zwischen beiden Verfahren liegt darin, dass bei
ersterem eine klassische Schrittweitensuche verwendet wird, während das zweite stattdessen
einen Regularisierungsparameter nutzt. Beide Techniken führen dazu, dass im Gegensatz
zu vielen verwandten Verfahren in der jeweils ausführlichen Konvergenzanalyse die globale
Konvergenz zu stationären Punkten ohne weitere einschränkende Voraussetzungen bewiesen
werden kann. Ferner zeigen umfassende Resultate die lokalen Konvergenzeigenschaften sowie
Konvergenzraten der Algorithmen auf, welche auf lediglich schwachen Annahmen beruhen.
Ein Verfahren zur Lösung auftretender Proximal-Teilprobleme ist ebenfalls Bestandteil
dieser Arbeit.
Die Dissertation beinhaltet zudem eine umfangreiche Sammlung von Anwendungsbeispielen
und zugehörigen numerischen Ergebnissen.

Identiferoai:union.ndltd.org:uni-wuerzburg.de/oai:opus.bibliothek.uni-wuerzburg.de:28907
Date January 2022
CreatorsLechner, Theresa
Source SetsUniversity of Würzburg
LanguageEnglish
Detected LanguageGerman
Typedoctoralthesis, doc-type:doctoralThesis
Formatapplication/pdf
Rightshttps://creativecommons.org/licenses/by-nc-nd/4.0/deed.de, info:eu-repo/semantics/openAccess

Page generated in 0.002 seconds