• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 17
  • 14
  • 5
  • 1
  • Tagged with
  • 37
  • 21
  • 12
  • 11
  • 10
  • 10
  • 10
  • 8
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Blind source separation based on joint diagonalization of matrices with applications in biomedical signal processing

Ziehe, Andreas January 2005 (has links)
<p>This thesis is concerned with the solution of the blind source separation problem (BSS). The BSS problem occurs frequently in various scientific and technical applications. In essence, it consists in separating meaningful underlying components out of a mixture of a multitude of superimposed signals.</p> <P> In the recent research literature there are two related approaches to the BSS problem: The first is known as Independent Component Analysis (ICA), where the goal is to transform the data such that the components become as independent as possible. The second is based on the notion of diagonality of certain characteristic matrices derived from the data. Here the goal is to transform the matrices such that they become as diagonal as possible. In this thesis we study the latter method of approximate joint diagonalization (AJD) to achieve a solution of the BSS problem. After an introduction to the general setting, the thesis provides an overview on particular choices for the set of target matrices that can be used for BSS by joint diagonalization.</p> <P> As the main contribution of the thesis, new algorithms for approximate joint diagonalization of several matrices with non-orthogonal transformations are developed.</p> <P> These newly developed algorithms will be tested on synthetic benchmark datasets and compared to other previous diagonalization algorithms.</p> <P> Applications of the BSS methods to biomedical signal processing are discussed and exemplified with real-life data sets of multi-channel biomagnetic recordings.</p> / <p>Diese Arbeit befasst sich mit der Lösung des Problems der blinden Signalquellentrennung (BSS). Das BSS Problem tritt häufig in vielen wissenschaftlichen und technischen Anwendungen auf. Im Kern besteht das Problem darin, aus einem Gemisch von überlagerten Signalen die zugrundeliegenden Quellsignale zu extrahieren.</p> <P> In wissenschaftlichen Publikationen zu diesem Thema werden hauptsächlich zwei Lösungsansätze verfolgt:</p> <P> Ein Ansatz ist die sogenannte "Analyse der unabhängigen Komponenten", die zum Ziel hat, eine lineare Transformation <B>V</B> der Daten <B>X</B> zu finden, sodass die Komponenten U<sub>n</sub> der transformierten Daten <B>U</B> = <B> V X</B> (die sogenannten "independent components") so unabhängig wie möglich sind. Ein anderer Ansatz beruht auf einer simultanen Diagonalisierung mehrerer spezieller Matrizen, die aus den Daten gebildet werden. Diese Möglichkeit der Lösung des Problems der blinden Signalquellentrennung bildet den Schwerpunkt dieser Arbeit.</p> <P> Als Hauptbeitrag der vorliegenden Arbeit präsentieren wir neue Algorithmen zur simultanen Diagonalisierung mehrerer Matrizen mit Hilfe einer nicht-orthogonalen Transformation.</p> <P> Die neu entwickelten Algorithmen werden anhand von numerischen Simulationen getestet und mit bereits bestehenden Diagonalisierungsalgorithmen verglichen. Es zeigt sich, dass unser neues Verfahren sehr effizient und leistungsfähig ist. Schließlich werden Anwendungen der BSS Methoden auf Probleme der biomedizinischen Signalverarbeitung erläutert und anhand von realistischen biomagnetischen Messdaten wird die Nützlichkeit in der explorativen Datenanalyse unter Beweis gestellt.</p>
32

From Worst-Case to Average-Case Efficiency – Approximating Combinatorial Optimization Problems

Plociennik, Kai 18 February 2011 (has links) (PDF)
In theoretical computer science, various notions of efficiency are used for algorithms. The most commonly used notion is worst-case efficiency, which is defined by requiring polynomial worst-case running time. Another commonly used notion is average-case efficiency for random inputs, which is roughly defined as having polynomial expected running time with respect to the random inputs. Depending on the actual notion of efficiency one uses, the approximability of a combinatorial optimization problem can be very different. In this dissertation, the approximability of three classical combinatorial optimization problems, namely Independent Set, Coloring, and Shortest Common Superstring, is investigated for different notions of efficiency. For the three problems, approximation algorithms are given, which guarantee approximation ratios that are unachievable by worst-case efficient algorithms under reasonable complexity-theoretic assumptions. The algorithms achieve polynomial expected running time for different models of random inputs. On the one hand, classical average-case analyses are performed, using totally random input models as the source of random inputs. On the other hand, probabilistic analyses are performed, using semi-random input models inspired by the so called smoothed analysis of algorithms. Finally, the expected performance of well known greedy algorithms for random inputs from the considered models is investigated. Also, the expected behavior of some properties of the random inputs themselves is considered.
33

Optimierung hochpoliger Dauermagnetmotoren unter Verwendung der Finiten Elemente Methode und der Evolutionsstrategie

Bochnia, Dirk 23 May 2002 (has links)
The power and force density of electric motors becomes higher and higher and it is very important to design most optimal machines. Conventional methods don‘t reach this aim in any case. A new approach is presented combining Evolutionary Strategies and Finite Element Analysis to obtain reliable results. / Die Anforderungen an elektrische Antriebe sind sehr hoch. Nur optimal konstruierte Maschinen können ihnen genügen. Es wird ein Instrumentarium vorgestellt, welches eine rechnergestützte automatische Optimierung des magnetischen Kreises der elektrischen Maschine gestattet. Als Modellierungsgrundlage wird die Finite-Elemente-Methode verwendet. Die Optimierung erfolgt mit der Evolutionsstrategie. Aufgrund des hohen Rechenaufwandes der FEM wird insbesondere darauf eingegangen, ein Modell zu schaffen, dass möglichst viel Information bei hoher Genauigkeit und geringstem numerischen Aufwand liefert. Entsprechende Möglichkeiten der Simulation magnetischer und thermischer Felder mit der FEM werden besprochen. Außerdem wird ein Verfahren vorgestellt, welches die Ermittlung der magnetischen Verluste ohne transienter Feldberechnungen erlaubt. Die Modellierung wird speziell am Beispiel eines hochpoligen permanenterregten Synchronmotors in Außenläuferbauweise erläutert. Die Ergebnisse der Simulation werden mit Messungen verglichen. Weiterhin werden die Ergebnisse verschiedener konkreter Optimierungsläufe vorgestellt.
34

New insights into conjugate duality

Grad, Sorin - Mihai 13 July 2006 (has links)
With this thesis we bring some new results and improve some existing ones in conjugate duality and some of the areas it is applied in. First we recall the way Lagrange, Fenchel and Fenchel - Lagrange dual problems to a given primal optimization problem can be obtained via perturbations and we present some connections between them. For the Fenchel - Lagrange dual problem we prove strong duality under more general conditions than known so far, while for the Fenchel duality we show that the convexity assumptions on the functions involved can be weakened without altering the conclusion. In order to prove the latter we prove also that some formulae concerning conjugate functions given so far only for convex functions hold also for almost convex, respectively nearly convex functions. After proving that the generalized geometric dual problem can be obtained via perturbations, we show that the geometric duality is a special case of the Fenchel - Lagrange duality and the strong duality can be obtained under weaker conditions than stated in the existing literature. For various problems treated in the literature via geometric duality we show that Fenchel - Lagrange duality is easier to apply, bringing moreover strong duality and optimality conditions under weaker assumptions. The results presented so far are applied also in convex composite optimization and entropy optimization. For the composed convex cone - constrained optimization problem we give strong duality and the related optimality conditions, then we apply these when showing that the formula of the conjugate of the precomposition with a proper convex K - increasing function of a K - convex function on some n - dimensional non - empty convex set X, where K is a k - dimensional non - empty closed convex cone, holds under weaker conditions than known so far. Another field were we apply these results is vector optimization, where we provide a general duality framework based on a more general scalarization that includes as special cases and improves some previous results in the literature. Concerning entropy optimization, we treat first via duality a problem having an entropy - like objective function, from which arise as special cases some problems found in the literature on entropy optimization. Finally, an application of entropy optimization into text classification is presented.
35

Identification of material parameters in mechanical models

Meyer, Marcus 04 June 2010 (has links)
Die Dissertation beschäftigt sich mit Parameteridentifikationsproblemen, wie sie häufig in Fragestellungen der Festkörpermechanik zu finden sind. Hierbei betrachten wir die Identifikation von Materialparametern -- die typischerweise die Eigenschaften der zugrundeliegenden Materialien repräsentieren -- aus gemessenen Verformungen oder Belastungen eines Testkörpers. In mathematischem Sinne entspricht dies der Lösung von Identifikationsproblemen, die eine spezielle Klasse von inversen Problemen bilden. Der Inhalt der Dissertation ist folgendermaßen gegliedert. Nach dem einführenden Abschnitt 1 wird in Abschnitt 2 ein Überblick von Optimierungs- und Regularisierungsverfahren zur stabilen Lösung nichtlinearer inverser Probleme diskutiert. In Abschnitt 3 betrachten wir die Identifikation von skalaren und stückweise konstanten Parametern in linearen elliptischen Differentialgleichungen. Hierbei werden zwei Testprobleme erörtert, die Identifikation von Diffusions- und Reaktionsparameter in einer allgemeinen elliptischen Differentialgleichung und die Identifikation der Lame-Konstanten in einem Modell der linearisierten Elastizität. Die zugrunde liegenden PDE-Modelle und Lösungszugänge werden erläutert. Insbesondere betrachten wir hier Newton-artige Algorithmen, Gradientenmethoden, Multi-Parameter Regularisierung and den evolutionären Algorithmus CMAES. Abschließend werden Ergebnisse einer numerischen Studie präsentiert. Im Abschnitt 4 konzentrieren wir uns auf die Identifikation von verteilten Parametern in hyperelastischen Materialmodellen. Das nichtlineare Elastizitätsproblem wird detailiert erläutert und verschiedene Materialmodelle werden diskutiert (linear elastisches St.-Venant-Kirchhoff Material und nichtlineare Neo-Hooke, Mooney-Rivlin und Modified-Fung Materialien. Zur Lösung des resultierenden Parameteridentifikationsproblems werden Lösungsansätze aus der optimalen Steuerung in Form eines Newton-Lagrange SQP Algorithmus verwendet. Die Resultate einer numerischen Studie werden präsentiert, basierend auf einem zweidimensionales Testproblem mit einer sogenannten Cook-Mebran. Abschließend wird im Abschnitt 5 die Verwendung adaptiver FEM für die Lösung von Parameteridentifikationsproblems kurz erörtert. / The dissertation is focussed on parameter identification problems arising in the context of structural mechanics. At this, we consider the identification of material parameters - which typically represent the properties of an underlying material - from given measured displacements and forces of a loaded test body. In mathematical terms such problems denote identification problems as a special case of general inverse problems. The dissertation is organized as follows. After the introductive section 1, section 2 is devoted to a survey of optimization and regularization methods for the stable solution of nonlinear inverse problems. In section 3 we consider the identification of scalar and piecewise constant parameters in linear elliptic differential equations and examine two test problems, namely the identification of diffusion and reaction parameters in a generalized linear elliptic differential equation of second order and the identification of the Lame constants in the linearized elasticity model. The underlying PDE models are introduced and solution approaches are discussed in detail. At this, we consider Newton-type algorithms, gradient methods, multi-parameter regularization, and the evolutionary algorithm CMAES. Consequently, numerical studies for a two-dimensional test problem are presented. In section 4 we point out the identification of distributed material parameters in hyperelastic deformation models. The nonlinear elasticity boundary value problem for large deformations is introduced. We discuss several material laws for linear elastic (St.-Venant-Kirchhoff) materials and nonlinear Neo-Hooke, Mooney-Rivlin, and Modified-Fung materials. For the solution of the corresponding parameter identification problem, we focus on an optimal control solution approach and introduce a regularized Newton-Lagrange SQP method. The Newton-Lagrange algorithm is demonstrated within a numerical study. Therefore, a simplified two-dimensional Cook membrane test problem is solved. Additionally, in section 5 the application of adaptive methods for the solution of parameter identification problems is discussed briefly.
36

From Worst-Case to Average-Case Efficiency – Approximating Combinatorial Optimization Problems: From Worst-Case to Average-Case Efficiency – Approximating Combinatorial Optimization Problems

Plociennik, Kai 27 January 2011 (has links)
In theoretical computer science, various notions of efficiency are used for algorithms. The most commonly used notion is worst-case efficiency, which is defined by requiring polynomial worst-case running time. Another commonly used notion is average-case efficiency for random inputs, which is roughly defined as having polynomial expected running time with respect to the random inputs. Depending on the actual notion of efficiency one uses, the approximability of a combinatorial optimization problem can be very different. In this dissertation, the approximability of three classical combinatorial optimization problems, namely Independent Set, Coloring, and Shortest Common Superstring, is investigated for different notions of efficiency. For the three problems, approximation algorithms are given, which guarantee approximation ratios that are unachievable by worst-case efficient algorithms under reasonable complexity-theoretic assumptions. The algorithms achieve polynomial expected running time for different models of random inputs. On the one hand, classical average-case analyses are performed, using totally random input models as the source of random inputs. On the other hand, probabilistic analyses are performed, using semi-random input models inspired by the so called smoothed analysis of algorithms. Finally, the expected performance of well known greedy algorithms for random inputs from the considered models is investigated. Also, the expected behavior of some properties of the random inputs themselves is considered.
37

Analyse, Modellierung und Verfahren zur Kompensation von CDN-bedingten Verkehrslastverschiebungen in ISP-Netzen

Windisch, Gerd 02 February 2017 (has links)
Ein großer Anteil des Datenverkehrs in „Internet Service Provider“ (ISP)-Netzen wird heutzutage von „Content Delivery Networks“ (CDNs) verursacht. Betreiber von CDNs verwenden Lastverteilungsmechanismen um die Auslastung ihrer CDN-Infrastruktur zu vergleichmäßigen (Load Balancing). Dies geschieht ohne Abstimmung mit den ISP-Betreibern. Es können daher große Verkehrslastverschiebungen sowohl innerhalb eines ISP-Netzes, als auch auf den Verbindungsleitungen zwischen ISP-Netz und CDNs auftreten. In der vorliegenden Arbeit wird untersucht, welche nicht-kooperativen Möglichkeiten ein ISP hat, um Verkehrslastverschiebungen, welche durch Lastverteilungsmechanismen innerhalb eines CDNs verursacht werden, entgegenzuwirken bzw. abzumildern. Die Grundlage für diese Untersuchung bildet die Analyse des Serverauswahlverhaltens des YouTube-CDNs. Hierzu ist ein aktives Messverfahren entwickelt worden, um das räumliche und zeitliche Verhalten der YouTube-Serverauswahl bestimmen zu können. In zwei Messstudien wird die Serverauswahl in deutschen und europäischen ISP-Netzen untersucht. Auf Basis dieser Studien wird ein Verkehrsmodell entwickelt, welches die durch Änderungen der YouTube-Serverauswahl verursachten Verkehrslastverschiebungen abbildet. Das Verkehrsmodell wiederum bildet die Grundlage für die Bestimmung optimaler Routen im ISP-Netz, welche hohe Robustheit gegenüber CDN-bedingte Verkehrslastverschiebungen aufweisen (Alpha-robuste Routingoptimierung). Für die Lösung des robusten Routing-Optimierungsproblems wird ein iteratives Verfahren entwickelt sowie eine kompakte Reformulierung vorgestellt. Die Leistungsfähigkeit des Alpha-robusten Routings wird anhand von drei Beispielnetztopologien untersucht. Das neue Verfahren wird mit alternativen robusten Routingverfahren und einem nicht-robusten Verfahren verglichen. Neben der robusten Routingoptimierung werden in der Arbeit drei weitere Ideen für nicht-kooperative Methoden vorgestellt (BGP-, IP-Präix- und DNS-basierte Methode), um CDN-bedingten Verkehrslastverschiebungen entgegenzuwirken.

Page generated in 0.0601 seconds