Spelling suggestions: "subject:"optimierungsproblem"" "subject:"optimierungsprobleme""
31 |
Blind source separation based on joint diagonalization of matrices with applications in biomedical signal processingZiehe, Andreas January 2005 (has links)
<p>This thesis is concerned with the solution of the blind source
separation problem (BSS). The BSS problem occurs frequently in various
scientific and technical applications. In essence, it consists in
separating meaningful underlying components out of a mixture of a
multitude of superimposed signals.</p>
<P>
In the recent research literature there are two related approaches to
the BSS problem: The first is known as Independent Component Analysis (ICA),
where the goal is to transform the data such that the components
become as independent as possible. The second is based on the notion
of diagonality of certain characteristic matrices derived from the
data. Here the goal is to transform the matrices such that they become
as diagonal as possible. In this thesis we study
the latter method of approximate joint diagonalization (AJD) to
achieve a solution of the BSS problem. After an introduction to the
general setting, the thesis provides an overview on particular choices
for the set of target matrices that can be used for BSS by joint
diagonalization.</p>
<P>
As the main contribution of the thesis, new algorithms for
approximate joint diagonalization of several matrices with
non-orthogonal transformations are developed.</p>
<P>
These newly developed algorithms will be tested on synthetic
benchmark datasets and compared to other previous diagonalization
algorithms.</p>
<P>
Applications of the BSS methods to biomedical signal processing are
discussed and exemplified with real-life data sets of multi-channel
biomagnetic recordings.</p> / <p>Diese Arbeit befasst sich mit der Lösung des Problems der blinden
Signalquellentrennung (BSS). Das BSS Problem tritt häufig in vielen
wissenschaftlichen und technischen Anwendungen auf. Im Kern besteht das
Problem darin, aus einem Gemisch von überlagerten Signalen die
zugrundeliegenden Quellsignale zu extrahieren.</p>
<P>
In wissenschaftlichen Publikationen zu diesem Thema werden
hauptsächlich zwei Lösungsansätze verfolgt:</p>
<P>
Ein Ansatz ist die sogenannte "Analyse der unabhängigen
Komponenten", die zum Ziel hat, eine lineare Transformation <B>V</B> der
Daten <B>X</B> zu finden, sodass die Komponenten U<sub>n</sub> der transformierten
Daten <B>U</B> = <B> V X</B> (die sogenannten "independent components") so
unabhängig wie möglich sind.
Ein anderer Ansatz beruht auf einer simultanen Diagonalisierung
mehrerer spezieller Matrizen, die aus den Daten gebildet werden.
Diese Möglichkeit der Lösung des Problems der blinden
Signalquellentrennung bildet den Schwerpunkt dieser Arbeit.</p>
<P>
Als Hauptbeitrag der vorliegenden Arbeit präsentieren wir neue
Algorithmen zur simultanen Diagonalisierung mehrerer Matrizen mit
Hilfe einer nicht-orthogonalen Transformation.</p>
<P>
Die neu entwickelten Algorithmen werden anhand von numerischen
Simulationen getestet und mit bereits bestehenden
Diagonalisierungsalgorithmen verglichen. Es zeigt sich, dass unser
neues Verfahren sehr effizient und leistungsfähig ist. Schließlich
werden Anwendungen der BSS Methoden auf Probleme der biomedizinischen
Signalverarbeitung erläutert und anhand von realistischen
biomagnetischen Messdaten wird die Nützlichkeit in der explorativen
Datenanalyse unter Beweis gestellt.</p>
|
32 |
From Worst-Case to Average-Case Efficiency – Approximating Combinatorial Optimization ProblemsPlociennik, Kai 18 February 2011 (has links) (PDF)
In theoretical computer science, various notions of efficiency are used for algorithms. The most commonly used notion is worst-case efficiency, which is defined by requiring polynomial worst-case running time. Another commonly used notion is average-case efficiency for random inputs, which is roughly defined as having polynomial expected running time with respect to the random inputs. Depending on the actual notion of efficiency one uses, the approximability of a combinatorial optimization problem can be very different.
In this dissertation, the approximability of three classical combinatorial optimization problems, namely Independent Set, Coloring, and Shortest Common Superstring, is investigated for different notions of efficiency. For the three problems, approximation algorithms are given, which guarantee approximation ratios that are unachievable by worst-case efficient algorithms under reasonable complexity-theoretic assumptions. The algorithms achieve polynomial expected running time for different models of random inputs. On the one hand, classical average-case analyses are performed, using totally random input models as the source of random inputs. On the other hand, probabilistic analyses are performed, using semi-random input models inspired by the so called smoothed analysis of algorithms.
Finally, the expected performance of well known greedy algorithms for random inputs from the considered models is investigated. Also, the expected behavior of some properties of the random inputs themselves is considered.
|
33 |
Optimierung hochpoliger Dauermagnetmotoren unter Verwendung der Finiten Elemente Methode und der EvolutionsstrategieBochnia, Dirk 23 May 2002 (has links)
The power and force density of electric motors becomes higher and higher and it is very important to design most optimal machines. Conventional methods dont reach this aim in any case. A new approach is presented combining Evolutionary Strategies and Finite Element Analysis to obtain reliable results. / Die Anforderungen an elektrische Antriebe sind sehr hoch. Nur optimal konstruierte Maschinen können ihnen genügen. Es wird ein Instrumentarium vorgestellt, welches eine rechnergestützte automatische Optimierung des magnetischen Kreises der elektrischen Maschine gestattet. Als Modellierungsgrundlage wird die Finite-Elemente-Methode verwendet. Die Optimierung erfolgt mit der Evolutionsstrategie.
Aufgrund des hohen Rechenaufwandes der FEM wird insbesondere darauf eingegangen, ein Modell zu schaffen, dass möglichst viel Information bei hoher Genauigkeit und geringstem numerischen Aufwand liefert. Entsprechende Möglichkeiten der Simulation magnetischer und thermischer Felder mit der FEM werden besprochen. Außerdem wird ein Verfahren vorgestellt, welches die Ermittlung der magnetischen Verluste ohne transienter Feldberechnungen erlaubt.
Die Modellierung wird speziell am Beispiel eines hochpoligen permanenterregten Synchronmotors in Außenläuferbauweise erläutert. Die Ergebnisse der Simulation werden mit Messungen verglichen. Weiterhin werden die Ergebnisse verschiedener konkreter Optimierungsläufe vorgestellt.
|
34 |
New insights into conjugate dualityGrad, Sorin - Mihai 13 July 2006 (has links)
With this thesis we bring some new results and improve some
existing ones in conjugate duality and some of the areas it is
applied in.
First we recall the way Lagrange, Fenchel and Fenchel - Lagrange
dual problems to a given primal optimization problem can be
obtained via perturbations and we present some connections between
them. For the Fenchel - Lagrange dual problem we prove strong
duality under more general conditions than known so far, while for
the Fenchel duality we show that the convexity assumptions on the
functions involved can be weakened without altering the
conclusion. In order to prove the latter we prove also that some
formulae concerning conjugate functions given so far only for
convex functions hold also for almost convex, respectively nearly
convex functions.
After proving that the generalized geometric dual problem can be
obtained via perturbations, we show that the geometric duality is
a special case of the Fenchel - Lagrange duality and the strong
duality can be obtained under weaker conditions than stated in the
existing literature. For various problems treated in the
literature via geometric duality we show that Fenchel - Lagrange
duality is easier to apply, bringing moreover strong duality and
optimality conditions under weaker assumptions.
The results presented so far are applied also in convex composite
optimization and entropy optimization. For the composed convex
cone - constrained optimization problem we give strong duality and
the related optimality conditions, then we apply these when
showing that the formula of the conjugate of the precomposition
with a proper convex K - increasing function of a K - convex
function on some n - dimensional non - empty convex set X, where
K is a k - dimensional non - empty closed convex cone, holds under
weaker conditions than known so far. Another field were we apply
these results is vector optimization, where we provide a general
duality framework based on a more general scalarization that
includes as special cases and improves some previous results in
the literature. Concerning entropy optimization, we treat first
via duality a problem having an entropy - like objective function,
from which arise as special cases some problems found in the
literature on entropy optimization. Finally, an application of
entropy optimization into text classification is presented.
|
35 |
Identification of material parameters in mechanical modelsMeyer, Marcus 04 June 2010 (has links)
Die Dissertation beschäftigt sich mit
Parameteridentifikationsproblemen, wie sie häufig in
Fragestellungen der Festkörpermechanik zu finden sind. Hierbei
betrachten wir die Identifikation von Materialparametern -- die
typischerweise die Eigenschaften der zugrundeliegenden
Materialien repräsentieren -- aus gemessenen Verformungen oder
Belastungen eines Testkörpers. In mathematischem Sinne
entspricht dies der Lösung von Identifikationsproblemen, die
eine spezielle Klasse von inversen Problemen bilden.
Der Inhalt der Dissertation ist folgendermaßen gegliedert. Nach
dem einführenden Abschnitt 1 wird in Abschnitt 2 ein Überblick
von Optimierungs- und Regularisierungsverfahren zur stabilen
Lösung nichtlinearer inverser Probleme diskutiert. In Abschnitt
3 betrachten wir die Identifikation von skalaren und stückweise
konstanten Parametern in linearen elliptischen
Differentialgleichungen. Hierbei werden zwei Testprobleme
erörtert, die Identifikation von Diffusions- und
Reaktionsparameter in einer allgemeinen elliptischen
Differentialgleichung und die Identifikation der
Lame-Konstanten in einem Modell der linearisierten Elastizität.
Die zugrunde liegenden PDE-Modelle und Lösungszugänge werden
erläutert. Insbesondere betrachten wir hier Newton-artige
Algorithmen, Gradientenmethoden, Multi-Parameter
Regularisierung and den evolutionären Algorithmus CMAES.
Abschließend werden Ergebnisse einer numerischen Studie
präsentiert. Im Abschnitt 4 konzentrieren wir uns auf die
Identifikation von verteilten Parametern in hyperelastischen
Materialmodellen. Das nichtlineare Elastizitätsproblem wird
detailiert erläutert und verschiedene Materialmodelle werden
diskutiert (linear elastisches St.-Venant-Kirchhoff Material
und nichtlineare Neo-Hooke, Mooney-Rivlin und Modified-Fung
Materialien. Zur Lösung des resultierenden
Parameteridentifikationsproblems werden Lösungsansätze aus der
optimalen Steuerung in Form eines Newton-Lagrange SQP
Algorithmus verwendet. Die Resultate einer numerischen Studie
werden präsentiert, basierend auf einem zweidimensionales
Testproblem mit einer sogenannten Cook-Mebran. Abschließend
wird im Abschnitt 5 die Verwendung adaptiver FEM für die Lösung
von Parameteridentifikationsproblems kurz erörtert. / The dissertation is focussed on parameter identification
problems arising in the context of structural mechanics. At
this, we consider the identification of material parameters -
which typically represent the properties of an underlying
material - from given measured displacements and forces of a
loaded test body. In mathematical terms such problems denote
identification problems as a special case of general inverse
problems.
The dissertation is organized as follows. After the
introductive section 1, section 2 is devoted to a survey of
optimization and regularization methods for the stable solution
of nonlinear inverse problems. In section 3 we consider the
identification of scalar and piecewise constant parameters in
linear elliptic differential equations and examine two test
problems, namely the identification of diffusion and reaction
parameters in a generalized linear elliptic differential
equation of second order and the identification of the Lame
constants in the linearized elasticity model. The underlying
PDE models are introduced and solution approaches are discussed
in detail. At this, we consider Newton-type algorithms,
gradient methods, multi-parameter regularization, and the
evolutionary algorithm CMAES. Consequently, numerical studies
for a two-dimensional test problem are presented. In section 4
we point out the identification of distributed material
parameters in hyperelastic deformation models. The nonlinear
elasticity boundary value problem for large deformations is
introduced. We discuss several material laws for linear elastic
(St.-Venant-Kirchhoff) materials and nonlinear Neo-Hooke,
Mooney-Rivlin, and Modified-Fung materials. For the solution of
the corresponding parameter identification problem, we focus on
an optimal control solution approach and introduce a
regularized Newton-Lagrange SQP method. The Newton-Lagrange
algorithm is demonstrated within a numerical study. Therefore,
a simplified two-dimensional Cook membrane test problem is
solved. Additionally, in section 5 the application of adaptive
methods for the solution of parameter identification problems
is discussed briefly.
|
36 |
From Worst-Case to Average-Case Efficiency – Approximating Combinatorial Optimization Problems: From Worst-Case to Average-Case Efficiency – Approximating Combinatorial Optimization ProblemsPlociennik, Kai 27 January 2011 (has links)
In theoretical computer science, various notions of efficiency are used for algorithms. The most commonly used notion is worst-case efficiency, which is defined by requiring polynomial worst-case running time. Another commonly used notion is average-case efficiency for random inputs, which is roughly defined as having polynomial expected running time with respect to the random inputs. Depending on the actual notion of efficiency one uses, the approximability of a combinatorial optimization problem can be very different.
In this dissertation, the approximability of three classical combinatorial optimization problems, namely Independent Set, Coloring, and Shortest Common Superstring, is investigated for different notions of efficiency. For the three problems, approximation algorithms are given, which guarantee approximation ratios that are unachievable by worst-case efficient algorithms under reasonable complexity-theoretic assumptions. The algorithms achieve polynomial expected running time for different models of random inputs. On the one hand, classical average-case analyses are performed, using totally random input models as the source of random inputs. On the other hand, probabilistic analyses are performed, using semi-random input models inspired by the so called smoothed analysis of algorithms.
Finally, the expected performance of well known greedy algorithms for random inputs from the considered models is investigated. Also, the expected behavior of some properties of the random inputs themselves is considered.
|
37 |
Analyse, Modellierung und Verfahren zur Kompensation von CDN-bedingten Verkehrslastverschiebungen in ISP-NetzenWindisch, Gerd 02 February 2017 (has links)
Ein großer Anteil des Datenverkehrs in „Internet Service Provider“ (ISP)-Netzen wird heutzutage von „Content Delivery Networks“ (CDNs) verursacht. Betreiber von CDNs verwenden Lastverteilungsmechanismen um die Auslastung ihrer CDN-Infrastruktur zu vergleichmäßigen (Load Balancing). Dies geschieht ohne Abstimmung mit den ISP-Betreibern. Es können daher große Verkehrslastverschiebungen sowohl innerhalb eines ISP-Netzes, als auch auf den Verbindungsleitungen zwischen ISP-Netz und CDNs auftreten.
In der vorliegenden Arbeit wird untersucht, welche nicht-kooperativen Möglichkeiten ein ISP hat, um Verkehrslastverschiebungen, welche durch Lastverteilungsmechanismen innerhalb eines CDNs verursacht werden, entgegenzuwirken bzw. abzumildern. Die Grundlage für diese Untersuchung bildet die Analyse des Serverauswahlverhaltens des YouTube-CDNs. Hierzu ist ein aktives Messverfahren entwickelt worden, um das räumliche und zeitliche Verhalten der YouTube-Serverauswahl bestimmen zu können. In zwei Messstudien wird die Serverauswahl in deutschen und europäischen ISP-Netzen untersucht. Auf Basis dieser Studien wird ein Verkehrsmodell entwickelt, welches die durch Änderungen der YouTube-Serverauswahl verursachten Verkehrslastverschiebungen abbildet. Das Verkehrsmodell wiederum bildet die Grundlage für die Bestimmung optimaler Routen im ISP-Netz, welche hohe Robustheit gegenüber CDN-bedingte Verkehrslastverschiebungen aufweisen (Alpha-robuste Routingoptimierung). Für die Lösung des robusten Routing-Optimierungsproblems wird ein iteratives Verfahren entwickelt sowie eine kompakte Reformulierung vorgestellt. Die Leistungsfähigkeit des Alpha-robusten Routings wird anhand von drei Beispielnetztopologien untersucht. Das neue Verfahren wird mit alternativen robusten Routingverfahren und einem nicht-robusten Verfahren verglichen. Neben der robusten Routingoptimierung werden in der Arbeit drei weitere Ideen für nicht-kooperative Methoden vorgestellt (BGP-, IP-Präix- und DNS-basierte Methode), um CDN-bedingten Verkehrslastverschiebungen entgegenzuwirken.
|
Page generated in 0.0601 seconds