• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 205
  • 27
  • 13
  • 5
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 277
  • 204
  • 167
  • 159
  • 104
  • 36
  • 35
  • 34
  • 33
  • 31
  • 28
  • 24
  • 23
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Re-sampling in instrumental variables regression

Koziuk, Andzhey 13 July 2020 (has links)
Diese Arbeit behandelt die Instrumentalvariablenregression im Kontext der Stichprobenwiederholung. Es wird ein Rahmen geschaffen, der das Ziel der Inferenz identifiziert. Diese Abhandlung versucht die Instrumentalvariablenregression von einer neuen Perspektive aus zu motivieren. Dabei wird angenommen, dass das Ziel der Schätzung von zwei Faktoren gebildet wird, einer Umgebung und einer zu einem internen Model spezifischen Struktur. Neben diesem Rahmen entwickelt die Arbeit eine Methode der Stichprobenwiederholung, die geeignet für das Testen einer linearen Hypothese bezüglich der Schätzung des Ziels ist. Die betreffende technische Umgebung und das Verfahren werden im Zusammenhang in der Einleitung und im Hauptteil der folgenden Arbeit erklärt. Insbesondere, aufbauend auf der Arbeit von Spokoiny, Zhilova 2015, rechtfertigt und wendet diese Arbeit ein numerisches ’multiplier-bootstrap’ Verfahren an, um nicht asymptotische Konfidenzintervalle für den Hypothesentest zu konstruieren. Das Verfahren und das zugrunde liegende statistische Werkzeug wurden so gewählt und angepasst, um ein im Model auftretendes und von asymptotischer Analysis übersehenes Problem zu erklären, das formal als Schwachheit der Instrumentalvariablen bekannt ist. Das angesprochene Problem wird jedoch durch den endlichen Stichprobenansatz von Spokoiny 2014 adressiert. / Instrumental variables regression in the context of a re-sampling is considered. In the work a framework is built to identify an inferred target function. It attempts to approach an idea of a non-parametric regression and motivate instrumental variables regression from a new perspective. The framework assumes a target of estimation to be formed by two factors - an environment and an internal, model specific structure. Aside from the framework, the work develops a re-sampling method suited to test linear hypothesis on the target. Particular technical environment and procedure are given and explained in the introduction and in the body of the work. Specifically, following the work of Spokoiny, Zhilova 2015, the writing justifies and applies numerically 'multiplier bootstrap' procedure to construct confidence intervals for the testing problem. The procedure and underlying statistical toolbox were chosen to account for an issue appearing in the model and overlooked by asymptotic analysis, that is weakness of instrumental variables. The issue, however, is addressed by design of the finite sample approach by Spokoiny 2014.
152

Mathematical Analysis of Charge and Heat Flow in Organic Semiconductor Devices

Liero, Matthias 05 January 2023 (has links)
Organische Halbleiterbauelemente sind eine vielversprechende Technologie, die das Spektrum der optoelektronischen Halbleiterbauelemente erweitert und etablierte Technologien basierend auf anorganischen Halbleitermaterialien ersetzen kann. Für Display- und Beleuchtungsanwendungen werden sie z. B. als organische Leuchtdioden oder Transistoren verwendet. Eine entscheidende Eigenschaft organischer Halbleitermaterialien ist, dass die Ladungstransporteigenschaften stark von der Temperatur im Bauelement beeinflusst werden. Insbesondere nimmt die elektrische Leitfähigkeit mit der Temperatur zu, so dass Selbsterhitzungseffekte, einen großen Einfluss auf die Leistung der Bauelemente haben. Mit steigender Temperatur nimmt die elektrische Leitfähigkeit zu, was wiederum zu größeren Strömen führt. Dies führt jedoch zu noch höheren Temperaturen aufgrund von Joulescher Wärme oder Rekombinationswärme. Eine positive Rückkopplung liegt vor. Im schlimmsten Fall führt dieses Verhalten zum thermischen Durchgehen und zur Zerstörung des Bauteils. Aber auch ohne thermisches Durchgehen führen Selbsterhitzungseffekte zu interessanten nichtlinearen Phänomenen in organischen Bauelementen, wie z. B. die S-förmige Beziehung zwischen Strom und Spannung. In Regionen mit negativem differentiellen Widerstand führt eine Verringerung der Spannung über dem Bauelement zu einem Anstieg des Stroms durch das Bauelement. Diese Arbeit soll einen Beitrag zur mathematischen Modellierung, Analysis und numerischen Simulation von organischen Bauteilen leisten. Insbesondere wird das komplizierte Zusammenspiel zwischen dem Fluss von Ladungsträgern (Elektronen und Löchern) und Wärme diskutiert. Die zugrundeliegenden Modellgleichungen sind Thermistor- und Energie-Drift-Diffusion-Systeme. Die numerische Diskretisierung mit robusten hybriden Finite-Elemente-/Finite-Volumen-Methoden und Pfadverfolgungstechniken zur Erfassung der in Experimenten beobachteten S-förmigen Strom-Spannungs-Charakteristiken wird vorgestellt. / Organic semiconductor devices are a promising technology to extend the range of optoelectronic semiconductor devices and to some extent replace established technologies based on inorganic semiconductor materials. For display and lighting applications, they are used as organic light-emitting diodes (OLEDs) or transistors. One crucial property of organic semiconductor materials is that charge-transport properties are heavily influenced by the temperature in the device. In particular, the electrical conductivity increases with temperature, such that self-heating effects caused by the high electric fields and strong recombination have a potent impact on the performance of devices. With increasing temperature, the electrical conductivity rises, which in turn leads to larger currents. This, however, results in even higher temperatures due to Joule or recombination heat, leading to a feedback loop. In the worst case, this loop leads to thermal runaway and the complete destruction of the device. However, even without thermal runaway, self-heating effects give rise to interesting nonlinear phenomena in organic devices, like the S-shaped relation between current and voltage resulting in regions where a decrease in voltage across the device results in an increase in current through it, commonly denoted as regions of negative differential resistance. This thesis aims to contribute to the mathematical modeling, analysis, and numerical simulation of organic semiconductor devices. In particular, the complicated interplay between the flow of charge carriers (electrons and holes) and heat is discussed. The underlying model equations are of thermistor and energy-drift-diffusion type. Moreover, the numerical approximation using robust hybrid finite-element/finite-volume methods and path-following techniques for capturing the S-shaped current-voltage characteristics observed in experiments are discussed.
153

A mathematical study of the Darwin-Howie-Whelan equations for Transmission Electron Microscopy

Maltsi, Anieza 16 February 2023 (has links)
Diese Arbeit liefert einen Beitrag zur mathematischen Untersuchung der Darwin-Howie-Whelan (DHW) Gleichungen. Sie werden üblicherweise zur Beschreibung und Simulation der Diffraktion schneller Elektronen in der Transmissionselektronenmikroskopie (TEM) verwendet. Sie bilden ein System aus Gleichungen für unendlich viele Enveloppenfunktionen, das aus der Schrödinger-Gleichung abgeleitet werden kann. Allerdings wird für Simulation von TEM Bildern nur ein endlicher Satz von Enveloppenfunktionen verwendet, was zu einem System von gewöhnlichen Differentialgleichungen in Richtung der Dicke der Probe führt. Bis jetzt gibt es keine systematische Analyse zur Genauigkeit dieser Näherungen in Abhängigkeit von der Auswahl der verwendeten endlichen Sätze von Enveloppenfunktionen. Diese Frage wird hier untersucht, indem die mathematische Struktur des Systems analysiert wird und Fehlerabschätzungen zur Bewertung der Genauigkeit spezieller Näherungen hergeleitet werden, wie der Zweistrahl-Approximation oder der sogennanten systematischen Reihe. Anschließend wird ein mathematisches Modell und eine Toolchain für die numerische Simulation von TEM-Bildern von Halbleiter-Quantenpunkten entwickelt. Es wird eine Simulationsstudie an Indium-Gallium-Arsenid-Quantenpunkten mit unterschiedlicher Geometrie durchgeführt und die resultierenden TEM Bilder werden mit experimentellen Bildern verglichen. Schließlich werden die in TEM Bildern beobachteten Symmetrien im Hinblick auf die DHW Gleichungen untersucht. Dazu werden mathematische Resultate formuliert und bewiesen, die zeigen dass die Intensitäten der Lösungen der DHW Gleichungen unter bestimmten Transformationen invariant sind. Durch die Kombination dieser Invarianten mit spezifischen Eigenschaften des Deformationsfeldes können dann die in TEM Bildern beobachteten Symmetrien erklärt werden. Die Ergebnisse werden anhand ausgewählter Beispiele aus dem Bereich der Halbleiter-Nanostrukturen wie Quantensichten und Quantenpunkte demonstriert. / In this thesis a mathematical study on the Darwin--Howie--Whelan (DHW) equations is provided. The equations are commonly used to describe and simulate the scattering of fast electrons in transmission electron microscopy (TEM). They are a system for infinitely many envelope functions, derived from the Schrödinger equation. However, for the simulation of images only a finite set of envelope functions is used, leading to a finite system of ordinary differential equations in the thickness direction of the specimen. Until now, there has been no systematic discussion about the accuracy of approximations depending on the choice of the finite sets used. This question is approached here by studying the mathematical structure of the system and providing error estimates to evaluate the accuracy of special approximations, like the two-beam and the systematic-row approximation. Then a mathematical model and a toolchain for the numerical simulation of TEM images of semiconductor quantum dots (QDs) is developed. A simulation study is performed on indium gallium arsenide QDs with different shapes and the resulting TEM images are compared to experimental ones. Finally, symmetries observed in TEM images are investigated with respect to the DHW equations. Then, mathematical proofs are given showing that the intensities of the solutions of the DHW equations are invariant under specific transformations. A combination of these invariances with specific properties of the strain profile can then explain symmetries observed in TEM images. The results are demonstrated by using selected examples in the field of semiconductor nanostructures, such as quantum wells and quantum dots.
154

Adaptive Weights Clustering and Community Detection

Besold, Franz Jürgen 19 April 2023 (has links)
Die vorliegende Dissertation widmet sich der theoretischen Untersuchung zweier neuer Algorithmen für Clustering und Community Detection: AWC (Adaptive Weights Clustering) und AWCD (Adaptive Weights Community Detection). Ein zentraler Aspekt sind dabei die Raten der Konsistenz. Bei der Betrachtung von AWC steht die Tiefe Lücke zwischen den Clustern, also die relative Differenz der jeweiligen Dichten, im Vordergrund. Bis auf logarithmische Faktoren ist die erreichte Konsistenzrate optimal. Dies erweitert die niedrigdimensionalen Ergebnisse von Efimov, Adamyan and Spokoiny (2019) auf das Mannigfaltigkeitenmodell und berücksichtigt darüber hinaus viel allgemeinere Bedingungen an die zugrunde liegende Dichte und die Form der Cluster. Insbesondere wird der Fall betrachtet, bei dem zwei Punkte des gleichen Clusters nahe an dessen Rand liegen. Zudem werden Ergebnisse für endliche Stichproben und die optimale Wahl des zentralen Parameters λ diskutiert. Bei der Untersuchung von AWCD steht die Asymptotik der Differenz θ − ρ zwischen den beiden Bernoulli Parametern eines symmetrischen stochastischen Blockmodells im Mittelpunkt. Es stellt sich heraus, dass das Gebiet der starken Konsistenz bei weitem nicht optimal ist. Es werden jedoch zwei Modifikationen des Algorithmus vorgeschlagen: Zum einen kann der Bias der beteiligten Schätzer minimiert werden. Zum anderen schlagen wir vor, die Größe der initialen Schätzung der Struktur der Gruppen zu erhöhen, indem auch längere Pfade mit berücksichtigt werden. Mithilfe dieser Modifikationen erreicht der Algorithmus eine nahezu optimale Konsistenzrate. Teilweise können diese Ergebnisse auch auf allgemeinere stochastische Blockmodelle erweitert werden. Für beide Probleme illustrieren und validieren wir außerdem die theoretischen Resultate durch umfangreiche Experimente. Abschließend lässt sich sagen, dass die vorliegende Arbeit die Lücke zwischen theoretischen und praktischen Ergebnissen für die Algorithmen AWC und AWCD schließt. Insbesondere sind beide Algorithmen nach einigen Modifikationen auf relevanten Modellen konsistent mit einer nahezu optimalen Rate. / This thesis presents a theoretical study of two novel algorithms for clustering and community detection: AWC (Adaptive Weights Clustering) and AWCD (Adaptive Weights Community Detection). Most importantly, we discuss rates of consistency. For AWC, we focus on the asymptotics of the depth ε of the gap between clusters, i.e. the relative difference between the density level of the clusters and the density level of the area between them. We show that AWC is consistent with a nearly optimal rate. This extends the low-dimensional results of Efimov, Adamyan and Spokoiny (2019) to the manifold model while also considering much more general assumptions on the underlying density and the shape of clusters. In particular, we also consider the case of two points in the same cluster that are relatively close to the boundary. Moreover, we provide finite sample guarantees as well as the optimal tuning parameter λ. For AWCD, we consider the asymptotics of the difference θ − ρ between the two Bernoulli parameters of a symmetric stochastic block model. As it turns out, the resulting regime of strong consistency is far from optimal. However, we propose two major modifications to the algorithm: Firstly, we discuss an approach to minimize the bias of the involved estimates. Secondly, we suggest increasing the starting neighborhood guess of the algorithm by taking into account paths of minimal path length k. Using these modifications, we are able to show that AWCD achieves a nearly optimal rate of strong consistency. We partially extend these results to more general stochastic block models. For both problems, we illustrate and validate the theoretical study through a wide range of numerical experiments. To summarize, this thesis closes the gap between the practical and theoretical studies for AWC and AWCD. In particular, after some modifications, both algorithms exhibit a nearly optimal performance on relevant models.
155

Efficient parameterized algorithms on structured graphs

Nelles, Florian 27 July 2023 (has links)
In der klassischen Komplexitätstheorie werden worst-case Laufzeiten von Algorithmen typischerweise einzig abhängig von der Eingabegröße angegeben. In dem Kontext der parametrisierten Komplexitätstheorie versucht man die Analyse der Laufzeit dahingehend zu verfeinern, dass man zusätzlich zu der Eingabengröße noch einen Parameter berücksichtigt, welcher angibt, wie strukturiert die Eingabe bezüglich einer gewissen Eigenschaft ist. Ein parametrisierter Algorithmus nutzt dann diese beschriebene Struktur aus und erreicht so eine Laufzeit, welche schneller ist als die eines besten unparametrisierten Algorithmus, falls der Parameter klein ist. Der erste Hauptteil dieser Arbeit führt die Forschung in diese Richtung weiter aus und untersucht den Einfluss von verschieden Parametern auf die Laufzeit von bekannten effizient lösbaren Problemen. Einige vorgestellte Algorithmen sind dabei adaptive Algorithmen, was bedeutet, dass die Laufzeit von diesen Algorithmen mit der Laufzeit des besten unparametrisierten Algorithm für den größtmöglichen Parameterwert übereinstimmt und damit theoretisch niemals schlechter als die besten unparametrisierten Algorithmen und übertreffen diese bereits für leicht nichttriviale Parameterwerte. Motiviert durch den allgemeinen Erfolg und der Vielzahl solcher parametrisierten Algorithmen, welche eine vielzahl verschiedener Strukturen ausnutzen, untersuchen wir im zweiten Hauptteil dieser Arbeit, wie man solche unterschiedliche homogene Strukturen zu mehr heterogenen Strukturen vereinen kann. Ausgehend von algebraischen Ausdrücken, welche benutzt werden können, um von Parametern beschriebene Strukturen zu definieren, charakterisieren wir klar und robust heterogene Strukturen und zeigen exemplarisch, wie sich die Parameter tree-depth und modular-width heterogen verbinden lassen. Wir beschreiben dazu effiziente Algorithmen auf heterogenen Strukturen mit Laufzeiten, welche im Spezialfall mit den homogenen Algorithmen übereinstimmen. / In classical complexity theory, the worst-case running times of algorithms depend solely on the size of the input. In parameterized complexity the goal is to refine the analysis of the running time of an algorithm by additionally considering a parameter that measures some kind of structure in the input. A parameterized algorithm then utilizes the structure described by the parameter and achieves a running time that is faster than the best general (unparameterized) algorithm for instances of low parameter value. In the first part of this thesis, we carry forward in this direction and investigate the influence of several parameters on the running times of well-known tractable problems. Several presented algorithms are adaptive algorithms, meaning that they match the running time of a best unparameterized algorithm for worst-case parameter values. Thus, an adaptive parameterized algorithm is asymptotically never worse than the best unparameterized algorithm, while it outperforms the best general algorithm already for slightly non-trivial parameter values. As illustrated in the first part of this thesis, for many problems there exist efficient parameterized algorithms regarding multiple parameters, each describing a different kind of structure. In the second part of this thesis, we explore how to combine such homogeneous structures to more general and heterogeneous structures. Using algebraic expressions, we define new combined graph classes of heterogeneous structure in a clean and robust way, and we showcase this for the heterogeneous merge of the parameters tree-depth and modular-width, by presenting parameterized algorithms on such heterogeneous graph classes and getting running times that match the homogeneous cases throughout.
156

Cutkosky's Theorem: one-loop and beyond

Mühlbauer, Maximilian 27 October 2023 (has links)
Wir untersuchen die analytische Struktur von Feynman Integralen als mengenwertige holomorphe Funktionen mit topologischen Methoden, spezifisch mit Techniken für singuläre Integrale. Der Hauptfokus liegt auf dem Ein-Schleifen-Fall. Zunächst geben wir einen gründlichen Überblick über die Theorie der singulären Integrale und füllen einige Lücken in der Literatur. Anschließend untersuchen wir die Topologie von endlichen Vereinigungen und Schnitten von bestimmten nicht-degenerierten affinen komplexes Quadriken, welche die relevante Geometrie von Ein-Schleifen Feynman Integralen darstellen. Wir etablieren einige grundsätzliche topologische Eigenschaften und führen eine Kompaktifizierung von Bündeln solcher Räume und eine Whitney Stratifizierung dieser ein. Des Weiteren berechnen wir die Homologiegruppen der Fasern durch eine Dekomposition in die auftretenden Schnitte komplexer Sphären. Das Einführen einer CW-Dekomposition einer spezifischen Faser führt zu einer kombinatorischen Studie, welche es uns erlaubt explizite Generatoren in Sinne dieser CW-Strukture zu berechnen. Unter Verwendung dieser Generatoren berechnen wir die relevanten Schnittindizes, welche im Ramifizierungsproblem auftreten. Durch Anwendung dieser Resultate auf Ein-Schleifen Feynman Integrale finden wir die klassischen Landau Gleichungen wieder und erhalten einen vollständigen Beweis von Cutkoskys Theorem. Des Weiteren untersuchen wir, wie viel dieses Mechanismus sich auf den Mehr-Schleifen Fall überträgt. Insbesondere betrachten wir zwei Beispiele von Mehr-Schleifen Integralen und erhalten Resultate die über den aktuellen Stand der Literatur hinaus gehen. / We investigate the analytic structure of Feynman integrals as multivalued holomorphic functions with topological methods, specifically with techniques for singular integrals. The main focus lies on the one-loop case. First, we conduct a thorough review of the theory of singular integrals, filling some gaps in the literature. Then, we investigate the topology of finite unions and intersections of certain non-degenerate affine complex quadrics which constitute the relevant geometry of one-loop Feynman integrals. We establish some basic topological properties and introduce a compactification of bundles of such spaces and a Whitney stratification thereof. Furthermore, we compute the homology groups of the fibers via a decomposition into the direct sum of all occurring intersections of complex spheres. Introducing a CW-decomposition of a specific fiber leads to a combinatorial study, allowing us to obtain explicit generators in terms of this CW-structure. Using these generators, we compute the relative intersection indices that occur in the ramification problem. Applying these results to one-loop Feynman integrals, we retrieve the classical Landau equations and obtain a full proof of Cutkosky's Theorem. Furthermore, we investigate how much of this machinery applies to the multi-loop case. In particular, we consider two examples of multi-loop integrals and obtain results beyond the current state of the literature.
157

Stress-Constrained Topology Optimization with Application to the Design of Electrical Machines

Holley, Jonas 27 November 2023 (has links)
Zweitveröffentlichung, ursprünglich veröffentlicht: Jonas Holley: Stress-Constrained Topology Optimization with Application to the Design of Electrical Machines. München: Verlag Dr. Hut, 2023, 199 Seiten, Dissertation Humboldt-Universität Berlin (2023). ISBN 978-3-8439-5378-8 / Während des Designprozesses physischer Gegenstände stellt die mechanische Stabilität in nahezu jedem Anwendungsbereich eine essentielle Anforderung dar. Stabilität kann mittels geeigneter Kriterien, die auf dem mechanischen Spannungstensor basieren, mathematisch quantifiziert werden. Dies dient dem Ziel der Vermeidung von Schädigung in jedem Punkt innerhalb des Gegenstands. Die vorliegende Arbeit behandelt die Entwicklung einer Methode zur Lösung von Designoptimierungsproblemen mit punktweisen Spannungsrestriktionen. Zunächst wird eine Regularisierung des Optimierungsproblems eingeführt, die einen zentralen Baustein für den Erfolg einer Lösungsmethode darstellt. Nach der Analyse des Problems hinsichtlich der Existenz von Lösungen wird ein Gradientenabstiegsverfahren basierend auf einer impliziten Designdarstellung und dem Konzept des topologischen Gradienten entwickelt. Da der entwickelte Ansatz eine Methode im Funktionenraum darstellt, ist die numerische Realisierung ein entscheidender Schritt in Richtung der praktischen Anwendung. Die Diskretisierung der Zustandsgleichung und der adjungierten Gleichung bildet die Basis für eine endlich-dimensionale Version des Optimierungsverfahrens. Im letzten Teil der Arbeit werden numerische Experimente durchgeführt, um die Leistungsfähigkeit des entwickelten Algorithmus zu bewerten. Zunächst wird das Problem des minimalen Volumens unter punktweisen Spannungsrestriktionen anhand der L-Balken Geometrie untersucht. Ein Schwerpunkt wird hierbei auf die Untersuchung der Regularisierung gelegt. Danach wird das multiphysikalische Design einer elektrischen Maschine adressiert. Zusätzlich zu den punktweisen Restriktionen an die mechanischen Spannungen wird die Maximierung des mittleren Drehmoments berücksichtigt, um das elektromagnetische Verhalten der Maschine zu optimieren. Der Erfolg der numerischen Tests demonstriert das Potential der entwickelten Methode in der Behandlung realistischer industrieller Problemstellungen. / In the process of designing a physical object, the mechanical stability is an essential requirement in nearly every area of application. Stability can be quantified mathematically by suitable criteria based on the stress tensor, aiming at the prevention of damage in each point within the physical object. This thesis deals with the development of a framework for the solution of optimal design problems with pointwise stress constraints. First, a regularization of the optimal design problem is introduced. This perturbation of the original problem represents a central element for the success of a solution method. After analyzing the perturbed problem with respect to the existence of solutions, a line search type gradient descent scheme is developed based on an implicit design representation via a level set function. The core of the optimization method is provided by the topological gradient, which quantifies the effect of an infinitesimal small topological perturbation of a given design on an objective functional. Since the developed approach is a method in function space, the numerical realization is a crucial step towards its practical application. The discretization of the state and adjoint equation provide the basis for developing a finite-dimensional version of the optimization scheme. In the last part of the thesis, numerical experiments are conducted in order to assess the performance of the developed algorithm. First, the stress-constrained minimum volume problem for the L-Beam geometry is addressed. An emphasis is put on examining the effect of the proposed regularization. Afterwards, the multiphysical design of an electrical machine is addressed. In addition to the pointwise constraints on the mechanical stress, the maximization of the mean torque is considered in order to improve the electromagnetic performance of the machine. The success of the numerical tests demonstrate the potential of the developed design method in dealing with real industrial problems.
158

Slowness learning

Sprekeler, Henning 18 February 2009 (has links)
In dieser Doktorarbeit wird Langsamkeit als unüberwachtes Lernprinzip in sensorischen Systemen untersucht. Dabei wird zwei Aspekten besondere Aufmerksamkeit gewidmet: der mathematischen Analyse von Slow Feature Analysis - einer Implementierung des Langsamkeitsprinzips - und der Frage, wie das Langsamkeitsprinzip biologisch umgesetzt werden kann. Im ersten Teil wird zunächst eine mathematische Theorie für Slow Feature Analysis entwickelt, die zeigt, dass die optimalen Funktionen für Slow Feature Analysis die Lösungen einer partiellen Differentialgleichung sind. Die Theorie erlaubt, das Verhalten komplizierter Anwendungen analytisch vorherzusagen und intuitiv zu verstehen. Als konkrete Anwendungen wird das Erlernen von Orts- und Kopfrichtungszellen, sowie von komplexen Zellen im primären visuellen Kortex vorgestellt. Im Rahmen einer technischen Anwendung werden die theoretischen Ergebnisse verwendet, um einen neuen Algorithmus für nichtlineare blinde Quellentrennung zu entwickeln und zu testen. Als Abschluss des ersten Teils wird die Beziehung zwischen dem Langsamkeitsprinzip und dem Lernprinzip der verhersagenden Kodierung mit Hilfe eines informationstheoretischen Ansatzes untersucht. Der zweite Teil der Arbeit befasst sich mit der Frage der biologischen Implementierung des Langsamkeitsprinzips. Dazu wird zunächst gezeigt, dass Spikezeit-abhängige Plastizität unter bestimmten Bedingungen als Implementierung des Langsamkeitsprinzips verstanden werden kann. Abschließend wird gezeigt, dass sich die Lerndynamik sowohl von gradientenbasiertem Langsamkeitslernen als auch von Spikezeit-abhängiger Plastizität mathematisch durch Reaktions-Diffusions-Gleichungen beschreiben lässt. / In this thesis, we investigate slowness as an unsupervised learning principle of sensory processing. Two aspects are given particular emphasis: (a) the mathematical analysis of Slow Feature Analysis (SFA) as one particular implementation of slowness learning and (b) the question, how slowness learning can be implemented in a biologically plausible fashion. In the first part of the thesis, we develop a mathematical framework for SFA and show that the optimal functions for SFA are the solutions of a partial differential eigenvalue problem. The theory allows (a) to make analytical predictions for the behavior of complicated applications and (b) an intuitive understanding of how the statistics of the input data are reflected in the optimal functions of SFA. The theory is applied to the learning of place and head-direction representations and to the learning of complex cell receptive fields as found in primary visual cortex. As a technical application, we use the theoretical results to develop and test a new algorithm for nonlinear blind source separation. The first part of the thesis is concluded by an information-theoretic analysis of the relation between slowness learning and predictive coding. In the second part of the thesis, we study the question, how slowness learning could be implemented in a biologically plausible manner. To this end, we first show that spike timing-dependent plasticity can under certain conditions be interpreted as an implementation of slowness learning. Finally, we show that both gradient-based slowness learning and spike timing-dependent plasticity lead to receptive field dynamics that can be described in terms of reaction-diffusion equations.
159

Aspects of guaranteed error control in computations for partial differential equations

Merdon, Christian 17 September 2013 (has links)
Diese Arbeit behandelt garantierte Fehlerkontrolle für elliptische partielle Differentialgleichungen anhand des Poisson-Modellproblems, des Stokes-Problems und des Hindernisproblems. Hierzu werden garantierte obere Schranken für den Energiefehler zwischen exakter Lösung und diskreten Finite-Elemente-Approximationen erster Ordnung entwickelt. Ein verallgemeinerter Ansatz drückt den Energiefehler durch Dualnormen eines oder mehrerer Residuen aus. Hinzu kommen berechenbare Zusatzterme, wie Oszillationen der gegebenen Daten, mit expliziten Konstanten. Für die Abschätzung der Dualnormen der Residuen existieren viele verschiedene Techniken. Diese Arbeit beschäftigt sich vorrangig mit Equilibrierungsschätzern, basierend auf Raviart-Thomas-Elementen, welche effiziente garantierte obere Schranken ermöglichen. Diese Schätzer werden mit einem Postprocessing-Verfahren kombiniert, das deren Effizienz mit geringem zusätzlichen Rechenaufwand deutlich verbessert. Nichtkonforme Finite-Elemente-Methoden erzeugen zusätzlich ein Inkonsistenzresiduum, dessen Dualnorm mit Hilfe diverser konformer Approximationen abgeschätzt wird. Ein Nebenaspekt der Arbeit betrifft den expliziten residuen-basierten Fehlerschätzer, der für gewöhnlich optimale und leicht zu berechnende Verfeinerungsindikatoren für das adaptive Netzdesign liefert, aber nur schlechte garantierte obere Schranken. Eine neue Variante, die auf den equilibrierten Flüssen des Luce-Wohlmuth-Fehlerschätzers basiert, führt zu stark verbesserten Zuverlässigkeitskonstanten. Eine Vielzahl numerischer Experimente vergleicht alle implementierten Fehlerschätzer und zeigt, dass effiziente und garantierte Fehlerkontrolle in allen vorliegenden Modellproblemen möglich ist. Insbesondere zeigt ein Modellproblem, wie die Fehlerschätzer erweitert werden können, um auch auf Gebieten mit gekrümmten Rändern garantierte obere Schranken zu liefern. / This thesis studies guaranteed error control for elliptic partial differential equations on the basis of the Poisson model problem, the Stokes equations and the obstacle problem. The error control derives guaranteed upper bounds for the energy error between the exact solution and different finite element discretisations, namely conforming and nonconforming first-order approximations. The unified approach expresses the energy error by dual norms of one or more residuals plus computable extra terms, such as oscillations of the given data, with explicit constants. There exist various techniques for the estimation of the dual norms of such residuals. This thesis focuses on equilibration error estimators based on Raviart-Thomas finite elements, which permit efficient guaranteed upper bounds. The proposed postprocessing in this thesis considerably increases their efficiency at almost no additional computational costs. Nonconforming finite element methods also give rise to a nonconsistency residual that permits alternative treatment by conforming interpolations. A side aspect concerns the explicit residual-based error estimator that usually yields cheap and optimal refinement indicators for adaptive mesh refinement but not very sharp guaranteed upper bounds. A novel variant of the residual-based error estimator, based on the Luce-Wohlmuth equilibration design, leads to highly improved reliability constants. A large number of numerical experiments compares all implemented error estimators and provides evidence that efficient and guaranteed error control in the energy norm is indeed possible in all model problems under consideration. Particularly, one model problem demonstrates how to extend the error estimators for guaranteed error control on domains with curved boundary.
160

Elements of conditional optimization and their applications to order theory

Karliczek, Martin 10 December 2014 (has links)
In dieser Arbeit beweisen wir für Optimierungsprobleme in L0-Moduln relevante Resultate und untersuchen Anwendungen für die Darstellung von Präferenzen. Im ersten Kapitel geht es um quasikonkave, monotone und lokale Funktionen von einem L0-Modul X nach L0, die wir robust darstellen. Im zweiten Kapitel entwickeln wir das Ekeland’sche Variationsprinzip für L0-Moduln, die eine L0-Metrik besitzen. Wir beweisen eine L0 -Variante einer Verallgemeinerung des Ekeland’schen Theorems. Der Beweis des Brouwerschen Fixpunktsatzes für Funktionen, die auf (L0)^d definiert sind, wird in Kapitel 3 behandelt. Wir definieren das Konzept des Simplexes in (L0)^d und beweisen, dass jede lokale, folgenstetige Funktion darauf einen Fixpunkt besitzt. Dies nutzen wir, um den Fixpunktsatz auch für Funktionen auf beliebigen abgeschlossenen, L0 -konvexen Mengen zu zeigen. Eine allgemeinere Struktur als L0 ist die bedingte Menge. Im vierten Kapitel behandeln wir bedingte topologische Vektorräume. Wir führen das Konzept der Dualität für bedingte Mengen ein und beweisen Theoreme der Funktionalanalysis darauf, unter anderem das Theorem von Banach-Alaoglu und Krein-Šmulian. Im fünften Kapitel widmen wir uns der Darstellung mit wandernden konvexen Mengen. Wir zeigen danach, wie die Transitivität für diese Darstellungsform beschrieben werden kann. Abschließend modellieren wir die Eigenschaft, dass die Transitivität einer Relation nur für ähnliche Elemente gesichert ist und diskutieren Arten der Darstellung solcher Relationen. / In this thesis, we prove results relevant for optimization problems in L0-modules and study applications to order theory. The first part deals with the notion of an Assessment Index (AI). For an L0 -module X an AI is a quasiconcave, monotone and local function mapping to L0. We prove a robust representation of these AIs. In the second chapter of this thesis, we develop Ekeland’s variational principle for L0-modules allowing for an L0-metric. We prove an L0-Version of a generalization of Ekeland’s theorem. A further application of L0 -theory is examined in the third chapter of this thesis, namely an extension of the Brouwer fixed point theorem to functions on (L0)^d . We define a conditional simplex, which is a simplex with respect to L0 , and prove that every local, sequentially continuous function has a fixed point. We extend the fixed point theorem to arbitrary closed, L0-convex sets. A more general structure than L0 -modules is the concept of conditional sets. In the fourth chapter of the thesis, we study conditional topological vector spaces. We examine the concept of duality for conditional sets and prove results of functional analysis: among others, the Banach-Alaoglu and the Krein-Šmulian theorem. Any L0 -module being a conditional set allows to apply all results to L0 -theory. In the fifth chapter, we discuss the property of transitivity of relations and its connection to certain forms of representations. After a survey of common representations of preferences, we attend to relations induced by moving convex sets which are relations of the form that x is preferred to y if and only if x − y is in a convex set depending on y. We examine in which cases such a representation is transitive. Finally, we exhibit nontransitivity due to dissimilarity of the compared object and discuss representations for relations of that type.

Page generated in 0.2743 seconds