• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1702
  • 223
  • 157
  • 1
  • Tagged with
  • 2077
  • 2077
  • 899
  • 893
  • 893
  • 459
  • 249
  • 235
  • 221
  • 207
  • 199
  • 183
  • 177
  • 173
  • 148
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Discrete Moments of Zeta-Functions with respect to random and ergodic transformations / Diskrete Momente von Zetafunktionen mit zufälligen und ergodentheoretischen Transformationen

Srichan, Teerapat January 2015 (has links) (PDF)
In the thesis discrete moments of the Riemann zeta-function and allied Dirichlet series are studied. In the first part the asymptotic value-distribution of zeta-functions is studied where the samples are taken from a Cauchy random walk on a vertical line inside the critical strip. Building on techniques by Lifshits and Weber analogous results for the Hurwitz zeta-function are derived. Using Atkinson’s dissection this is even generalized to Dirichlet L-functions associated with a primitive character. Both results indicate that the expectation value equals one which shows that the values of these zeta-function are small on average. The second part deals with the logarithmic derivative of the Riemann zeta-function on vertical lines and here the samples are with respect to an explicit ergodic transformation. Extending work of Steuding, discrete moments are evaluated and an equivalent formulation for the Riemann Hypothesis in terms of ergodic theory is obtained. In the third and last part of the thesis, the phenomenon of universality with respect to stochastic processes is studied. It is shown that certain random shifts of the zeta-function can approximate non-vanishing analytic target functions as good as we please. This result relies on Voronin's universality theorem. / Die Dissertation behandelt diskrete Momente der Riemannschen Zetafunktion und verwandter Dirichletreihen. Im ersten Teil wird die asymptotische Werteverteilung von Zetafunktionen studiert, wobei die Werte zufällig auf einer vertikalen Geraden im kritischen Streifen gemäß einer Cauchyschen Irrfahrt summiert werden. Auf einer Vorarbeit von Lifshits und Weber aufbauend werden analoge Resultate für die Hurwitz Zetafunktion erzielt. Mit Hilfe der Atkinsonschen Formel gelingt eine weitere Verallgemeinerung für Dirichletsche L-Funktion zu einem primitiven Charakter. Beide Ergebnisse zeigen, dass der Erwartungswert stets eins beträgt, womit die jeweilige Zetafunktion im Mittel betragsmäßig klein ist. Der zweite Teil befasst sich mit der logarithmischen Ableitung der Riemannschen Zetafunktion auf vertikalen Geraden, wobei hier die Werte einer ergodischen Transformation entstammen. Eine Arbeit von Steuding verallgemeinernd werden diskrete Momente berechnet und eine äquivalente Formulierung der Riemannschen Vermutung in ergodentheoretischer Sprache erzielt. Im dritten und letzten Teil der Dissertation wird das Phänomen der Universalität unter dem Aspekt stochastischer Prozesse studiert. Es wird gezeigt, dass gewisse zufällige Translate der Zetafunktion nullstellenfreie analytische Zielfunktionen beliebig gut approximieren. Dieses Ergebnis basiert auf dem Voroninschen Universalitätssatz.
82

Theoretical and numerical analysis of Fokker-Planck optimal control problems for jump-diffusion processes / Theoretische und numerische Analyse von Fokker-Planck Optimalsteuerungsproblemen von Sprung-Diffusions-Prozessen

Gaviraghi, Beatrice January 2017 (has links) (PDF)
The topic of this thesis is the theoretical and numerical analysis of optimal control problems, whose differential constraints are given by Fokker-Planck models related to jump-diffusion processes. We tackle the issue of controlling a stochastic process by formulating a deterministic optimization problem. The key idea of our approach is to focus on the probability density function of the process, whose time evolution is modeled by the Fokker-Planck equation. Our control framework is advantageous since it allows to model the action of the control over the entire range of the process, whose statistics are characterized by the shape of its probability density function. We first investigate jump-diffusion processes, illustrating their main properties. We define stochastic initial-value problems and present results on the existence and uniqueness of their solutions. We then discuss how numerical solutions of stochastic problems are computed, focusing on the Euler-Maruyama method. We put our attention to jump-diffusion models with time- and space-dependent coefficients and jumps given by a compound Poisson process. We derive the related Fokker-Planck equations, which take the form of partial integro-differential equations. Their differential term is governed by a parabolic operator, while the nonlocal integral operator is due to the presence of the jumps. The derivation is carried out in two cases. On the one hand, we consider a process with unbounded range. On the other hand, we confine the dynamic of the sample paths to a bounded domain, and thus the behavior of the process in proximity of the boundaries has to be specified. Throughout this thesis, we set the barriers of the domain to be reflecting. The Fokker-Planck equation, endowed with initial and boundary conditions, gives rise to Fokker-Planck problems. Their solvability is discussed in suitable functional spaces. The properties of their solutions are examined, namely their regularity, positivity and probability mass conservation. Since closed-form solutions to Fokker-Planck problems are usually not available, one has to resort to numerical methods. The first main achievement of this thesis is the definition and analysis of conservative and positive-preserving numerical methods for Fokker-Planck problems. Our SIMEX1 and SIMEX2 (Splitting-Implicit-Explicit) schemes are defined within the framework given by the method of lines. The differential operator is discretized by a finite volume scheme given by the Chang-Cooper method, while the integral operator is approximated by a mid-point rule. This leads to a large system of ordinary differential equations, that we approximate with the Strang-Marchuk splitting method. This technique decomposes the original problem in a sequence of different subproblems with simpler structure, which are separately solved and linked to each other through initial conditions and final solutions. After performing the splitting step, we carry out the time integration with first- and second-order time-differencing methods. These steps give rise to the SIMEX1 and SIMEX2 methods, respectively. A full convergence and stability analysis of our schemes is included. Moreover, we are able to prove that the positivity and the mass conservation of the solution to Fokker-Planck problems are satisfied at the discrete level by the numerical solutions computed with the SIMEX schemes. The second main achievement of this thesis is the theoretical analysis and the numerical solution of optimal control problems governed by Fokker-Planck models. The field of optimal control deals with finding control functions in such a way that given cost functionals are minimized. Our framework aims at the minimization of the difference between a known sequence of values and the first moment of a jump-diffusion process; therefore, this formulation can also be considered as a parameter estimation problem for stochastic processes. Two cases are discussed, in which the form of the cost functional is continuous-in-time and discrete-in-time, respectively. The control variable enters the state equation as a coefficient of the Fokker-Planck partial integro-differential operator. We also include in the cost functional a $L^1$-penalization term, which enhances the sparsity of the solution. Therefore, the resulting optimization problem is nonconvex and nonsmooth. We derive the first-order optimality systems satisfied by the optimal solution. The computation of the optimal solution is carried out by means of proximal iterative schemes in an infinite-dimensional framework. / Die vorliegende Arbeit beschäftigt sich mit der theoretischen und numerischen Analyse von Optimalsteuerungsproblemen, deren Nebenbedingungen die Fokker-Planck-Gleichungen von Sprung-Diffusions-Prozessen sind. Unsere Strategie baut auf der Formulierung eines deterministischen Problems auf, um einen stochastischen Prozess zu steuern. Der Ausgangspunkt ist, die Wahrscheinlichkeitsdichtefunktion des Prozesses zu betrachten, deren zeitliche Entwicklung durch die Fokker-Planck-Gleichung modelliert wird. Dieser Ansatz ist vorteilhaft, da er es ermöglicht, den gesamten Bereich des Prozesses durch die Wirkung der Steuerung zu beeinflussen. Zuerst beschäftigen wir uns mit Sprung-Diffusions-Prozessen. Wir definieren Ausgangswertprobleme, die durch stochastische Differentialgleichungen beschrieben werden, und präsentieren Ergebnisse zur Existenz und Eindeutigkeit ihrer Lösungen. Danach diskutieren wir, wie numerische Lösungen stochastischer Probleme berechnet werden, wobei wir uns auf die Euler-Maruyama-Methode konzentrieren. Wir wenden unsere Aufmerksamkeit auf Sprung-Diffusions-Modelle mit zeit- und raumabhängigen Koeffizienten und Sprüngen, die durch einen zusammengesetzten Poisson-Prozess modelliert sind. Wir leiten die zugehörigen Fokker-Planck-Glei-chungen her, die die Form von partiellen Integro-Differentialgleichungen haben. Ihr Differentialterm wird durch einen parabolischen Operator beschrieben, während der nichtlokale Integraloperator Spr\"{u}nge modelliert. Die Ableitung wird auf zwei unterschiedlichen Arten ausgef\"{u}hrt, je nachdem, ob wir einen Prozess mit unbegrenztem oder beschränktem Bereich betrachten. In dem zweiten Fall muss das Verhalten des Prozesses in der Nähe der Grenzen spezifiziert werden; in dieser Arbeit setzen wir reflektierende Grenzen. Die Fokker-Planck-Gleichung, zusammen mit einem Anfangswert und geeigneten Randbedingungen, erzeugt das Fokker-Planck-Problem. Die Lösbarkeit dieses Pro-blems in geeigneten Funktionenräumen und die Eigenschaften dessen Lösung werden diskutiert, nämlich die Positivität und die Wahrscheinlichkeitsmassenerhaltung. Da analytische Lösungen von Fokker-Planck-Problemen oft nicht verfügbar sind, m\"{u}ssen numerische Methoden verwendet werden. Die erste bemerkenswerte Leistung dieser Arbeit ist die Definition und Analyse von konservativen numerischen Verfahren, die Fokker-Planck-Probleme lösen. Unsere SIMEX1 und SIMEX2 (Splitting-Implizit-Explizit) Schemen basieren auf der Linienmethode. Der Differentialoperator wird durch das Finite-Volumen-Schema von Chang und Cooper diskretisiert, während der Integraloperator durch eine Mittelpunktregel angenähert wird. Dies führt zu einem großen System von gewöhnlichen Differentialgleichungen, das mit der Strang-Marchuk-Splitting-Methode gelöst wird. Diese Technik teilt das ursprüngliche Problem in eine Folge verschiedener Teilprobleme mit einer einfachen Struktur, die getrennt gelöst werden und danach durch deren Anfangswerte miteinander verbunden werden. Dank der Splitting-Methode kann jedes Teilproblem implizit oder explizit gelöst werden. Schließlich wird die numerische Integration des Anfangswertsproblems mit zwei Verfahren durchgeführt, n\"{a}mlich dem Euler-Verfahren und dem Predictor-Corrector-Verfahren. Eine umfassende Konvergenz- und Stabilitätsanalyse unserer Systeme ist enthalten. Darüber hinaus können wir beweisen, dass die Positivität und die Massenerhaltung der Lösung von Fokker-Planck-Problemen auf diskreter Ebene durch die numerischen Lösungen erfüllt werden, die mit den SIMEX-Schemen berechnet wurden. Die zweite bemerkenswerte Leistung dieser Arbeit ist die theoretische Analyse und die numerische Behandlung von Optimalsteuerungsproblemen, deren Nebenbedingungen die Fokker-Planck-Probleme von Sprung-Diffusions-Prozessen sind. Der Bereich der optimalen Steuerung befasst sich mit der Suche nach einer optimalen Funktion, die eine gegebene Zielfunktion minimiert. Wir zielen auf die Minimierung des Unterschieds zwischen einer bekannten Folge von Werten und dem ersten Moment eines Sprung-Diffusions-Prozesses. Auf diese Weise kann unsere Formulierung auch als ein Parameterschätzungsproblem für stochastische Prozesse angesehen werden. Zwei Fälle sind erläutert, in denen die Zielfunktion zeitstetig beziehungsweise zeitdiskret ist. Da die Steuerung ein Koeffizient des Integro-Differentialoperators der Zustandsglei-chung ist und die Zielfunktion einen $ L^1 $-Term beinhaltet, der die dünne Besetzung der Lösung erhöht, ist das Optimierungsproblem nichtkonvex und nichtglatt. Die von der optimalen L\"{o}sung erf\"{u}llten notwendigen Bedingungen werden hergeleitet, die man mit einem System beschreiben kann. Die Berechnung optimaler Lösungen wird mithilfe von Proximal-Methoden durchgeführt, die entsprechend um den unendlichdimensionalen Fall erweitert wurden.
83

Robust Stability of Differential Equations with Maximum / Robuste Stabilität von Differenzialgleichungen mit Maximum

Sapozhnikova, Kateryna January 2018 (has links) (PDF)
In this thesis stability and robustness properties of systems of functional differential equations which dynamics depends on the maximum of a solution over a prehistory time interval is studied. Max-operator is analyzed and it is proved that due to its presence such kind of systems are particular case of state dependent delay differential equations with piecewise continuous delay function. They are nonlinear, infinite-dimensional and may reduce to one-dimensional along its solution. Stability analysis with respect to input is accomplished by trajectory estimate and via averaging method. Numerical method is proposed. / In dieser These werden die Eigenschaften der Stabilität und Robustheit von Systemen funktioneller Differentialgleichungen untersucht, deren Dynamik von einem Maximum in der Lösung eines vergangenen Zeitintervalls abhängt. Der Max-Operator wird analysiert und durch seine Anwesenheit ist bewiesen, dass diese Art von Systemen einen spezifischen Fall von zustandsabhängigen Verzögerungsdifferenzialgleichungen mit stückweiser, kontinuierlicher Verzögerungsfunktion darstellen. Sie sind nicht-linear, unendlich dimensional und entlang ihrer Lösung können sie eindimensional werden. Die Stabilitätsanalyse, unter Berücksichtigung der Eingabe, wird sowohl durch eine Richtungsschätzung, als auch mittels der Durchschnittsmethode durchgeführt. Eine numerische Methode wird vorgeschlagen.
84

Blochsches Prinzip, Lückenreihen und Semidualität / Bloch's Principle, Gap Power Series and Semiduality

Grahl, Jürgen January 2002 (has links) (PDF)
Ein bekanntes heuristisches Prinzip von A. Bloch beschreibt die Korrespondenz zwischen Kriterien für die Konstanz ganzer Funktionen und Normalitätskriterien. In der vorliegenden Dissertation untersuchen wir die Gültigkeit des Blochschen Prinzip bei Lückenreihenproblemen sowie Zusammenhänge zwischen Normalitätsfragen und der Semidualität von einer bzw. von zwei Funktionen. Die ersten beiden Kapitel stellen die im folgenden benötigten Hilfsmittel aus der Nevanlinnaschen Wertverteilungstheorie und der Normalitätstheorie bereit. Im dritten Kapitel beweisen wir ein neues Normalitätskriterium für Familien holomorpher Funktionen, für die ein Differentialpolynom einer bestimmten Gestalt nullstellenfrei ist. Dies verallgemeinert frühere Resultate von Hayman, Drasin, Langley und Chen & Hua. Kapitel 4 ist dem Beweis eines unserer im folgenden wichtigsten Hilfsmittel gewidmet: eines tiefliegenden Konvergenzsatzes von H. Cartan über Familien von p-Tupeln holomorpher nullstellenfreier Funktionen, welche einer linearen Relation unterliegen. In Kapitel 5 werden die Konzepte der Dualität und Semidualität eingeführt und die Verbindung zu Normalitätsfragen diskutiert. Die neuen Ergebnisse über Lückenreihen finden sich im sechsten Kapitel. Der Schwerpunkt liegt hierbei zum einen auf sog. AP-Lückenreihen, zum anderen auf allgemeinen Konstruktionsverfahren, mit denen sich neue semiduale Lückenstrukturen aus bereits bekannten gewinnen lassen. Zahlreiche unserer Beweise beruhen wesentlich auf dem Satz von Cartan aus Kapitel 4. Im siebten Kapitel erweitern wir unsere Semidualitätsuntersuchungen auf Mengen aus zwei Funktionen. Wir ziehen Normalitätskriterien (vor allem das in Kapitel 3 bewiesene sowie den Satz von Cartan) heran, um spezielle Mengen als nichtsemidual zu identifizieren. Zuletzt konstruieren wir ein Beispiel einer semidualen Menge aus zwei Funktionen. / A well-known heuristic principle by A. Bloch describes the correspondence between criteria for an entire function being constant and normality criteria. In this thesis we investigate Bloch's Principle in the context of gap power series and connections between normality questions and the question of semiduality of a single function or a set of two functions. The first two chapters provide necessary tools from Nevanlinna's Theory of value distribution and from normality theory. In the third chapter we prove a new normality criterion for families of analytic functions for which a differential polynomial of a certain type is nonvanishing. This extends former results of Hayman, Drasin, Langley and Chen & Hua. Chapter 4 is devoted to the proof of a tool essential for our further investigations: a deep convergence theorem of H. Cartan about families of p-tuples of zero-free analytic functions satisfying a linear relation. In chapter 5 we introduce the concepts of duality and semiduality and discuss connections to normality questions. Our new results on gap power series can be found in chapter 6. Here we focus on so-called AP-gaps and on general methods how to construct new semidual gap structures from already known semidual gap structures. Cartan's Theorem as stated in chapter 4 is crucial for proving most of these results. In chapter 7 we extend our considerations to the question whether sets consisting of two functions are semidual or not. We apply suitable normality criteria (in particular the criterion proved in chapter 3 and Cartan's Theorem) to identify special sets as non-semidual. Finally, we construct an example of a semidual set consisting of two functions.
85

Über eine Methode zur Konstruktion von Algorithmen für die Berechnung von Invarianten in endlichen ungerichteten Hypergraphen

Pönitz, André 14 December 2009 (has links) (PDF)
Die in dieser Arbeit vorgestellte Kompositionsmethode beschäftigt sich damit, bestimmte Aufgabenstellungen aus dem Bereich der Berechnung von Graphenkenngrößen und Grapheninvarianten in endlichen ungerichteten Graphen und Hypergraphen in ein einheitliches Schema einzuordnen und so die Umsetzung in Algorithmen zu erleichtern. Dabei werden zwei Hauptziele verfolgt. Zum einen soll die Menge der mit der Methode lösbaren Aufgaben möglichst groß sein, und zum anderen sollen die entstandenen Algorithmen tatsächliche Berechnungen in einigen Netzen praxisrelevanter Größe ermöglichen. Die Kompositionsmethode belegt mit ihren Zielen somit den Bereich zwischen zwei Extremen der Algorithmenentwicklung: Auf der einen Seite steht die Erzeugung von Spezialalgorithmen, die oft so stark an bestimmte Eigenschaften der zu berechnenden Größen gekoppelt sind, dass eine Anpassung an leicht veränderte Aufgabenstellungen nur schwer möglich ist bzw. unter Umständen der Entwicklung eines völlig neuen Algorithmus gleichkommt; auf der anderen Seite stehen die allgemeingültigen Ansätze, deren Umsetzung häufig zu Algorithmen führt, die bereits für sehr kleine Netze nicht mehr praktisch durchführbar sind. Die gestellten Ziele werden durch eine Formalisierung der Aufgabenstellungen erreicht, deren Ergebnisse direkt in Algorithmen umgesetzt werden können. Dabei müssen jeweils nur wenige aufgabenspezifische Details formuliert werden, die anschließend in einen von der konkreten Aufgabe unabhängigen Rahmenalgorithmus eingebunden werden. Ein solches Verfahren ist aus Sicht eines Anwenders aus der Praxis besonders interessant, da der Rahmenalgorithmus nur ein einziges Mal implementiert werden muss und somit bei wiederholter Verwendung der Methode der Entwicklungsaufwand für die erzeugten Kompositionsalgorithmen erheblich sinkt. Bislang wurden mit Hilfe der Kompositionsmethode zirka dreißig Problemstellungen von der Berechnung chromatischer Invarianten über das Zählen von Hamiltonkreisen bis hin zur Bestimmung von Zuverlässigkeitskenngrößen von stochastischen Netzen bearbeitet. Die von der Methode erzeugten Algorithmen sind dabei in aller Regel nicht optimal in Bezug auf Laufzeit und Speicherbedarf. Dieser Nachteil wird allerdings durch den extrem geringen Entwicklungsaufwand und durch die Anwendbarkeit der Methode auf neue Aufgabenstellungen, für die noch keine Spezialalgorithmen existieren, kompensiert. Besonders bei der Berechnung bestimmter Zuverlässigkeitskenngrößen sowie bei der Lösung von #P-vollständigen Abzählproblemen können die Kompositionsalgorithmen aber auch aktuelle Spezialalgorithmen übertreffen.
86

The Radon transform on the rotation group

Hielscher, Ralf 23 July 2009 (has links) (PDF)
Ein zentrales Problem der quantitativen Texturanalyse ist die numerische Inversion der eindimensionalen Radontransformation auf der Lie--Gruppe SO(3) aller Rotationen im dreidimensionalen euklidischen Raum. In der vorliegenden Dissertation wird die Lösbarkeit und Eindeutigkeit dieses inversen Problems untersucht und Fehlerabschätzungen unter Berücksichtigung unvollständiger und fehlerbehafteter Daten hergeleitet. Weiterhin wird ein Algorithmus zur Lösung des inversen Problems vorgeschlagen, welcher auf einer Diskretisierung mittels radialer Basisfunktionen basiert und schnelle Fouriermethoden auf der Kugel und der Lie-Gruppe SO(3) benutzt. In numerischen Tests wird gezeigt, dass der Algorithmus für die Rekonstruktion scharfer Texturen aus Beugungsdaten gemessen auf einem hochauflösenden, ungleichmäßigen Messraster geeignet ist.
87

Konvergenzbeschleunigung für Binomialmethoden zur Bewertung von Barriereoptionen

Ilzig, Katrin, Starkloff, Hans-Jörg, Wunderlich, Ralf 26 August 2004 (has links) (PDF)
Für die Bewertung zahlreicher Barriereoptionen stehen keine analytischen Preisformeln zur Verfügung. Ein mögliches Näherungsverfahren, welches für die Bepreisung eingesetzt werden kann, ist das Binomialmodell. Dieser Artikel analysiert die bei der binomialen Bewertung von Barriereoptionen auftretende Sägezahnkonvergenz. Es werden vier Verfahren mit verbesserten Konvergenzverhalten beschrieben. Dabei stellt sich heraus, daß durch alle betrachteten Verfahren eine deutliche Konvergenzbeschleunigung erreicht werden kann. Numerische Beispiele illustrieren die vorgestellten Verfahren.
88

Scalability, efficiency, and robustness of parallel multilevel solvers for nonlinear equations

Heise, B., Jung, M. 30 October 1998 (has links) (PDF)
In this paper we compare the performance, scalability, and robustness of different parallel algorithms for the numerical solution of nonlinear boundary value problems arising in the magnetic field computation and in solid mechanics. These problems are discretized by using the finite element method with triangular meshes and piecewise linear functions. The nonlinearity is handled by a nested Newton solver, and the linear systems of algebraic equations within each Newton step are solved by means of various iterative solvers, namely multigrid methods and conjugate gradient methods with preconditioners based on domain decomposition, multigrid, or BPX techniques, respectively. The basis of the implementation of all solvers is a non-overlapping domain decomposition data structure such that they are well-suited for parallel machines with MIMD architecture.
89

Partitionierung von Finite-Elemente-Netzen

Reichel, U. 30 October 1998 (has links) (PDF)
The realization of the finite element method on parallel computers is usually based on a domain decomposition approach. This paper is concerned with the problem of finding an optimal decomposition and an appropriate mapping of the subdomains to the processors. The quality of this partitioning is measured in several metrics but it is also expressed in the computing time for solving specific systems of finite element equations. The software environment is first described. In particular, the data structure and the accumulation algorithm are introduced. Then several partitioning algorithms are compared. Spectral bisection was used with different modifications including Kernighan-Lin refinement, post-processing techniques and terminal propagation. The final recommendations should give good decompositions for all finite element codes which are based on principles similar to ours. The paper is a shortened English version of Preprint SFB393/96-18 (Uwe Reichel: Partitionierung von Finite-Elemente-Netzen), SFB 393, TU Chemnitz-Zwickau, December 1996. To be selfcontained, some material of Preprint SPC95_5 (see below) is included. The paper appeared as Preprint SFB393/96-18a, SFB 393, TU Chemnitz-Zwickau, January 1997.
90

Grafik-Ausgabe vom Parallelrechner für 2D-Gebiete

Pester, M. 30 October 1998 (has links) (PDF)
The paper mainly describes the user interface of some graphical visualization tools for parallel finite element applications in 2D (layer problems, deformation problems, fluid dynamics). There are presented some examples of various methods to display the numerical results.

Page generated in 0.0505 seconds