• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 34
  • 4
  • Tagged with
  • 38
  • 36
  • 29
  • 29
  • 29
  • 23
  • 12
  • 12
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Stochastic Optimization under Probust and Dynamic Probabilistic Constraints: with Applications to Energy Management

González Grandón, Tatiana Carolina 27 August 2019 (has links)
Diese Arbeit liefert, in den ersten beiden Kapiteln einen allgemeinen Überblick über die klassischen Ansätze zur Optimierung unter Unsicherheit mit einem Schwerpunkt auf probabilistischen Randbedingung. Anschließend wird im dritten Kapitel eine neue Klasse von sogenannten Probust Randbedingungen beim Auftreten von Modellen mit unsicheren Parametern mit teilweise stochastischem und teilweise nicht-stochastischem Charakter eingeführt. Wir zeigen dabei die Relevanz dieser Aufgabentypen für zwei Problemstellungen in einem stationären Gasnetz auf. Erstens liegen beim Gastransport probabilistische Randbedingungen bezüglich der Gasnachfrage vor sowie auch robuste Randbedin- gungen bezüglich der Rauheitskoeffizienten in den Rohren, welche in der Regel unbekannt sind, da es keine zuverlässigen Messmöglichkeiten gibt. Zweitens lösen wir ein Problem für einen Netzbetreiber, der zum Ziel hat, die angebotene Kapazität für alte und neue Kunden zu maximieren. In diesem Fall ist man mit einer ungewis- sen Gesamtnachfrage konfrontiert, die sich aus der probabilistischen Nachfrage für Altkunden und der robusten Nachfrage für Neukunden zusammensetzt. Für beide Fälle zeigen wir, wie mit probusten Randbedingungen im Rahmen der sogenannten sphärisch-radialen Zerlegung multivariater Gauß-Verteilungen umgegangen werden kann. Starke und schwache Halbstetigkeitsergebnisse werden für den allgemeinen Fall, in Abhängigkeit davon ob Strategien in Lebesgue oder Sobolev Räumen angenommen werden, erstellt. Für ein ein- faches zweistufiges Modell werden überprüfbare Bedingungen für die Lipschitz- Stetigkeit und die Differenzierbarkeit dieser Wahrscheinlichkeitsfunktion abgeleitet und mit expliziten Ableitungsformeln unterstützt. Diese Werkzeuge werden dann verwendet, um das Problem des Bäckers und zwei Probleme des Wasserkraftmanagements zu lösen. / This thesis offers, in the first and second chapter, a general overview of the classical approaches to solving optimization under uncertainty, with a focus on probabilistic constraints. Then, in the third chapter, a new class of so-called Probust constraints is introduced in the presence of models with uncertain parameters having partially stochastic and partially non-stochastic character. We show the relevance of this class of approach and solve two problems in a stationary gas network. First, in the context of gas transportation, one ends up with a constraint, which is probabilistic with respect to the load of gas and robust with respect to the roughness coefficients of the pipes (which are uncertain due to a lack of attainable measurements). Secondly, we solve a problem for a network operator, who would like to maximize the offered capacity for old and new customers. In this case, one is faced with an uncertain total demand which is probabilistic for old clients and robust for new clients. In both problems, we demonstrate how probust constraints can be dealt within the framework of the so-called spheric-radial decomposition of multivariate Gaussian distributions. Furthermore, in chapter four, we present novel structural and numerical results for optimization problems under a dynamic joint probabilistic constraint. Strong and weak semicontinuity results are obtained for the general case depending on whether policies are supposed to be in Lebesgue or Sobolev spaces. For a simple two-stage model, verifiable conditions for Lipschitz continuity and differentiability of this probability function are derived and endowed with explicit derivative formulae. These tools are then used to solve the Baker's problem and two hydro-power management problems.
12

High-frequency statistics for Gaussian processes from a Le Cam perspective

Holtz, Sebastian 04 March 2020 (has links)
Diese Arbeit untersucht Inferenz für Streuungsparameter bedingter Gaußprozesse anhand diskreter verrauschter Beobachtungen in einem Hochfrequenz-Setting. Unser Ziel dabei ist es, eine asymptotische Charakterisierung von effizienter Schätzung in einem allgemeine Gaußschen Rahmen zu finden. Für ein parametrisches Fundamentalmodell wird ein Hájek-Le Cam-Faltungssatz hergeleitet, welcher eine exakte asymptotische untere Schranke für Schätzmethoden liefert. Dazu passende obere Schranken werden konstruiert und die Bedeutung des Satzes wird verdeutlicht anhand zahlreicher Beispiele wie der (fraktionellen) Brownschen Bewegung, dem Ornstein-Uhlenbeck-Prozess oder integrierten Prozessen. Die Herleitung der Effizienzresultate basiert auf asymptotischen Äquivalenzen und kann für verschiedene Verallgemeinerungen des parametrischen Fundamentalmodells verwendet werden. Als eine solche Erweiterung betrachten wir das Schätzen der quadrierten Kovariation eines stetigen Martingals anhand verrauschter asynchroner Beobachtungen, welches ein fundamentales Schätzproblem in der Öknometrie ist. Für dieses Modell erhalten wir einen semi-parametrischen Faltungssatz, welcher bisherige Resultate im Sinne von Multidimensionalität, Asynchronität und Annahmen verallgemeinert. Basierend auf den vorhergehenden Herleitungen entwickeln wir einen statistischen Test für den Hurst-Parameter einer fraktionellen Brownschen Bewegung. Ein Score- und ein Likelihood-Quotienten-Test werden implementiert sowie analysiert und erste empirische Eindrücke vermittelt. / This work studies inference on scaling parameters of a conditionally Gaussian process under discrete noisy observations in a high-frequency regime. Our aim is to find an asymptotic characterisation of efficient estimation for a general Gaussian framework. For a parametric basic case model a Hájek-Le Cam convolution theorem is derived, yielding an exact asymptotic lower bound for estimators. Matching upper bounds are constructed and the importance of the theorem is illustrated by various examples of interest such as the (fractional) Brownian motion, the Ornstein-Uhlenbeck process or integrated processes. The derivation of the efficiency result is based on asymptotic equivalences and can be employed for several generalisations of the parametric basic case model. As such an extension we consider estimation of the quadratic covariation of a continuous martingale from noisy asynchronous observations, which is a fundamental estimation problem in econometrics. For this model, a semi-parametric convolution theorem is obtained which generalises existing results in terms of multidimensionality, asynchronicity and assumptions. Based on the previous derivations, we develop statistical tests on the Hurst parameter of a fractional Brownian motion. A score test and a likelihood ratio type test are implemented as well as analysed and first empirical impressions are given.
13

Utilizing self-similar stochastic processes to model rare events in finance

Wesselhöfft, Niels 24 February 2021 (has links)
In der Statistik und der Mathematik ist die Normalverteilung der am meisten verbreitete, stochastische Term für die Mehrheit der statistischen Modelle. Wir zeigen, dass der entsprechende stochastische Prozess, die Brownsche Bewegung, drei entscheidende empirische Beobachtungen nicht abbildet: schwere Ränder, Langzeitabhängigkeiten und Skalierungsgesetze. Ein selbstähnlicher Prozess, der in der Lage ist Langzeitabhängigkeiten zu modellieren, ist die Gebrochene Brownsche Bewegung, welche durch die Faltung der Inkremente im Limit nicht normalverteilt sein muss. Die Inkremente der Gebrochenen Brownschen Bewegung können durch einen Parameter H, dem Hurst Exponenten, Langzeitabhängigkeiten darstellt werden. Für die Gebrochene Brownsche Bewegung müssten die Skalierungs-(Hurst-) Exponenten über die Momente verschiedener Ordnung konstant sein. Empirisch beobachten wir variierende Hölder-Exponenten, die multifraktales Verhalten implizieren. Wir erklären dieses multifraktale Verhalten durch die Änderung des alpha-stabilen Indizes der alpha-stabilen Verteilung, indem wir Filter für Saisonalitäten und Langzeitabhängigkeiten über verschiedene Zeitfrequenzen anwenden, startend bei 1-minütigen Hochfrequenzdaten. Durch die Anwendung eines Filters für die Langzeitabhängigkeit zeigen wir, dass die Residuen des stochastischen Prozesses geringer Zeitfrequenz (wöchentlich) durch die alpha-stabile Bewegung beschrieben werden können. Dies erlaubt es uns, den empirischen, hochfrequenten Datensatz auf die niederfrequente Zeitfrequenz zu skalieren. Die generierten wöchentlichen Daten aus der Frequenz-Reskalierungs-Methode (FRM) haben schwerere Ränder als der ursprüngliche, wöchentliche Prozess. Wir zeigen, dass eine Teilmenge des Datensatzes genügt, um aus Risikosicht bessere Vorhersagen für den gesamten Datensatz zu erzielen. Im Besonderen wäre die Frequenz-Reskalierungs-Methode (FRM) in der Lage gewesen, die seltenen Events der Finanzkrise 2008 zu modellieren. / Coming from a sphere in statistics and mathematics in which the Normal distribution is the dominating underlying stochastic term for the majority of the models, we indicate that the relevant diffusion, the Brownian Motion, is not accounting for three crucial empirical observations for financial data: Heavy tails, long memory and scaling laws. A self-similar process, which is able to account for long-memory behavior is the Fractional Brownian Motion, which has a possible non-Gaussian limit under convolution of the increments. The increments of the Fractional Brownian Motion can exhibit long memory through a parameter H, the Hurst exponent. For the Fractional Brownian Motion this scaling (Hurst) exponent would be constant over different orders of moments, being unifractal. But empirically, we observe varying Hölder exponents, the continuum of Hurst exponents, which implies multifractal behavior. We explain the multifractal behavior through the changing alpha-stable indices from the alpha-stable distributions over sampling frequencies by applying filters for seasonality and time dependence (long memory) over different sampling frequencies, starting at high-frequencies up to one minute. By utilizing a filter for long memory we show, that the low-sampling frequency process, not containing the time dependence component, can be governed by the alpha-stable motion. Under the alpha-stable motion we propose a semiparametric method coined Frequency Rescaling Methodology (FRM), which allows to rescale the filtered high-frequency data set to the lower sampling frequency. The data sets for e.g. weekly data which we obtain by rescaling high-frequency data with the Frequency Rescaling Method (FRM) are more heavy tailed than we observe empirically. We show that using a subset of the whole data set suffices for the FRM to obtain a better forecast in terms of risk for the whole data set. Specifically, the FRM would have been able to account for tail events of the financial crisis 2008.
14

Model Checking Techniques for Design and Analysis of Future Hardware and Software Systems

Märcker, Steffen 12 April 2021 (has links)
Computer hardware and software laid the foundation for fundamental innovations in science, technology, economics and society. Novel application areas generate an ever-increasing demand for computation power and storage capacities. Classic CMOS-based hardware and the von Neumann architecture are approaching their limits in miniaturization, power density and communication speed. To meet future demands, researchers work on new device technologies and architecture approaches which in turn require new algorithms and a hardware/software co-design to exploit their capabilities. Since the overall system heterogeneity and complexity increases, the challenge is to build systems with these technologies that are both correct and performant by design. Formal methods in general and model checking in particular are established verification methods in hardware design, and have been successfully applied to many hardware, software and integrated hardware/software systems. In many systems, probabilistic effects arise naturally, e.g., from input patterns, production variations or the occurrence of faults. Probabilistic model checking facilitates the quantitative analysis of performance and reliability measures in stochastic models that formalize this probabilism. The interdisciplinary research project Center for Advancing Electronics Dresden, cfaed for short, aims to explore hardware and software technologies for future information processing systems. It joins the research efforts of different groups working on technologies for all system layers ranging from transistor device research over system architecture up to the application layer. The collaborations among the groups showed a demand for new formal methods and enhanced tools to assist the design and analysis of technologies at all system layers and their cross-layer integration. Addressing these needs is the goal of this thesis. This work contributes to probabilistic model checking for Markovian models with new methods to compute two essential measures in the analysis of hardware/software systems and a method to tackle the state-space explosion problem: 1) Conditional probabilities are well known in stochastic theory and statistics, but efficient methods did not exist to compute conditional expectations in Markov chains and extremal conditional probabilities in Markov decision processes. This thesis develops new polynomial-time algorithms, and it provides a mature implementation for the probabilistic model checker PRISM. 2) Relativized long-run and relativized conditional long-run averages are proposed in this work to reason about probabilities and expectations in Markov chains on the long run when zooming into sets of states or paths. Both types of long-run averages are implemented for PRISM. 3) Symmetry reduction is an effective abstraction technique to tame the state-space explosion problem. However, state-of-the-art probabilistic model checkers apply it only after building the full model and offer no support for specifying non-trivial symmetric components. This thesis fills this gap with a modeling language based on symmetric program graphs that facilitates symmetry reduction on the source level. The new language can be integrated seamlessly into the PRISM modeling language. This work contributes to the research on future hardware/software systems in cfaed with three practical studies that are enabled by the developed methods and their implementations. 1) To confirm relevance of the new methods in practice and to validate the results, the first study analyzes a well-understood synchronization protocol, a test-and-test-and-set spinlock. Beyond this confirmation, the analysis demonstrates the capability to compute properties that are hardly accessible to measurements. 2) Probabilistic write-copy/select is an alternative protocol to overcome the scalability issues of classic resource-locking mechanisms. A quantitative analysis verifies the protocol's principle of operation and evaluates the performance trade-offs to guide future implementations of the protocol. 3) The impact of a new device technology is hard to estimate since circuit-level simulations are not available in the early stages of research. This thesis proposes a formal framework to model and analyze circuit designs for novel transistor technologies. It encompasses an operational model of electrical circuits, a functional model of polarity-controllable transistor devices and algorithms for design space exploration in order to find optimal circuit designs using probabilistic model checking. A practical study assesses the model accuracy for a lab-device based on germanium nanowires and performs an automated exploration and performance analysis of the design space of a given switching function. The experiments demonstrate how the framework enables an early systematic design space exploration and performance evaluation of circuits for experimental transistor devices.:1. Introduction 1.1 Related Work 2. Preliminaries 3. Conditional Probabilities in Markovian Models 3.1 Methods for Discrete- and Continuous-Time Markov Chains 3.2 Reset Method for Markov Decision Processes 3.3 Implementation 3.4 Evaluation and Comparative Studies 3.5 Conclusion 4. Long-Run Averages in Markov Chains 4.1 Relativized Long-Run Average 4.2 Conditional State Evolution 4.3 Implementation 4.4 Conclusion 5. Language-Support for Immediate Symmetry Reduction 5.1 Probabilistic Program Graphs 5.2 Symmetric Probabilistic Program Graphs 5.3 Implementation 5.4 Conclusion 6. Practical Applications of the Developed Techniques 6.1 Test-and-Test-and-Set Spinlock: Quantitative Analysis of an Established Protocol 6.2 Probabilistic Write/Copy-Select: Quantitative Analysis as Design Guide for a Novel Protocol 6.3 Circuit Design for Future Transistor Technologies: Evaluating Polarity-Controllable Multiple-Gate FETs 7. Conclusion Bibliography Appendices A. Conditional Probabilities and Expectations A.1 Selection of Benchmark Models A.2 Additional Benchmark Results A.3 Comparison PRISM vs. Storm B. Language-Support for Immediate Symmetry Reduction B.1 Syntax of the PRISM Modeling Language B.2 Multi-Core Example C. Practical Applications of the Developed Techniques C.1 Test-and-Test-and-Set Spinlock C.2 Probabilistic Write/Copy-Select C.3 Circuit Design for Future Transistor Technologies
15

Refinements of the Solution Theory for Singular SPDEs

Martin, Jörg 14 August 2018 (has links)
Diese Dissertation widmet sich der Untersuchung singulärer stochastischer partieller Differentialgleichungen (engl. SPDEs). Wir entwickeln Erweiterungen der bisherigen Lösungstheorien, zeigen fundamentale Beziehungen zwischen verschiedenen Ansätzen und präsentieren Anwendungen in der Finanzmathematik und der mathematischen Physik. Die Theorie parakontrollierter Systeme wird für diskrete Räume formuliert und eine schwache Universalität für das parabolische Anderson Modell bewiesen. Eine fundamentale Relation zwischen Hairer's modellierten Distributionen und Paraprodukten wird bewiesen: Wir zeigen das sich der Raum modellierter Distributionen durch Paraprodukte beschreiben lässt. Dieses Resultat verallgemeinert die Fourierbeschreibung von Hölderräumen mittels Littlewood-Paley Theorie. Schließlich wird die Existenz von Lösungen der stochastischen Schrödingergleichung auf dem ganzen Raum bewiesen und eine Anwendung Hairer's Theorie zur Preisermittlung von Optionen aufgezeigt. / This thesis is concerned with the study of singular stochastic partial differential equations (SPDEs). We develop extensions to existing solution theories, present fundamental interconnections between different approaches and give applications in financial mathematics and mathematical physics. The theory of paracontrolled distribution is formulated for discrete systems, which allows us to prove a weak universality result for the parabolic Anderson model. This thesis further shows a fundamental relation between Hairer's modelled distributions and paraproducts: The space of modelled distributions can be characterized completely by using paraproducts. This can be seen a generalization of the Fourier description of Hölder spaces. Finally, we prove the existence of solutions to the stochastic Schrödinger equation on the full space and provide an application of Hairer's theory to option pricing.
16

Lernprozesse von qualifikationsheterogenen Grundschullehrkräften im Bereich Stochastik - Studie zur Professionalisierung durch Fortbildung

Binner, Elke 08 April 2021 (has links)
Im Rahmen der Qualitätsentwicklung und -sicherung von Unterricht wurden in den letzten zwei Jahrzehnten auf Bundes- und Länderebene auch Maßnahmen zur Professionalisierung von Lehr-personen festgelegt. Vor diesem Hintergrund begannen 2012 am Deutschen Zentrum für Lehrerbildung Mathematik (DZLM) auch Arbeiten, um bestehende Fortbildungsangebote für Grundschullehrkräfte zu erweitern. In dieser Arbeit wird das Konzept einer Stochastik-Fortbildung für Lehrpersonen, die Mathematik in der Grundschule unterrichten, vorgestellt. Die Entwicklung greift Forschungserkenntnisse zum Verständnis von professioneller Kompetenz von Lehrpersonen und zur Gestaltung von Professionalisierungsprozessen auf und bindet konzeptionell Impulse für Unterrichtsentwicklungsprozesse ein. In fünf Kursdurchführungen wurde das Konzept realisiert und hinsichtlich seiner Umsetzbarkeit untersucht. Die in diesem Rahmen gewonnenen Daten von 120 Lehrpersonen geben detailliertere Einsichten in Entwicklungsprozesse unterschiedlich qualifizierter Lehrpersonen. Die Ergebnisse zeigen insbesondere, dass in der fachinhaltlich orientierten Fortbildung ein fachlicher und fachdidaktischer Wissenszuwachs erreicht werden kann. Die Defizite bezüglich einer mathematischen Grundausbildung eines Lehramts können bei Lehrpersonen, die Mathematik fachfremd unterrichten, auf diesem Weg aber nicht überwunden werden. Die Untersuchungen zeigen zudem, dass die qualifikationsheterogene Zusammensetzung der Kursgruppen die Durchführung und das Lernen der Lehrpersonen bereichern. Mit der Einbindung des Konzepts der Professionellen Lerngemeinschaft (PLG) in den Kurs und Erprobungen in den Praxisphasen gelingt es, Impulse für Unterrichtsentwick-lungsprozesse zu geben. Diese Fortbildung kann ein berufsbegleitender Baustein in der Ausprägung von Lehrkräfteprofessionalität sein und den lang andauernden Prozess der Konstruktion und Selbstkonstruktion des Berufs unterstützen. / In the past two decades, increasing the quality of mathematics teaching and learning, particularly fostering the professional knowledge and skills of teachers has been researched in depth. Before this background, the German Center for Mathematics Education (Deutsches Zentrum für Lehrerbildung Mathematik, DZLM) started from 2012 onwards to offer professional development (PD) courses for teachers and facilitators. This thesis presents a concept for a PD course on stochastics for primary teachers, which draws on recently gained empirical evidences on appropriate professional competencies and on design elements relevant for effective professionalization. The concept of the PD course also includes building professional learning communities (PLCs) to initiate teachers´ ongoing professional growth through working collaboratively on improving their classroom practices. The long-lasting PD course has been conducted five times and data was gained to evaluate the feasibility of the concept. That is, the data acquired from 120 teachers provided detailed insight into the personal development of teachers with different qualifications, including those teaching out-of-field. The results show that a PD course focusing on a certain subject leads to an increase of both content knowledge professional content knowledge. However, deficits due to a missing basic education in mathematics - as for teachers not specialized on mathematics - cannot be totally overcome by this PD course. However, the results indicate that the heterogeneous teacher groups possessing different qualifications enrich the learning processes of all participants. Including the PLC concept into the PD course and conducting practical phases to probe issues in the classroom were both decisive impulses helping teachers to further develop their practices. Thus, the PD course proved to be effective with respect to fostering teachers´ professional knowledge and skills sustainably and contributed to teachers´ life-long and ongoing learning.
17

Is loss avoidance differentially rewarding in adolescents versus adults?: Differences in ventral striatum and anterior insula activation during the anticipation of potential monetary losses

Bretzke, Maria, Vetter, Nora C., Kohls, Gregor, Wahl, Hannes, Roessner, Veit, Plichta, Michael M., Buse, Judith 28 March 2023 (has links)
Avoiding loss is a crucial, adaptive guide to human behavior. While previous developmental research has primarily focused on gaining rewards, less attention has been paid to loss processing and its avoidance. In daily life, it is often unknown how likely an action will result in a loss, making the role of uncertainty in loss processing particularly important. By using functional magnetic resonance imaging, we investigated the influence of varying outcome probabilities (12%, 34%, and 67%) on brain regions implicated in loss processing (ventral striatum (VS), anterior insula (AI)) by comparing 28 adolescents (10–18 years) and 24 adults (22–32 years) during the anticipation of potential monetary loss. Overall, results revealed slower RTs in adolescents compared to adults with both groups being faster in the experimental (monetary condition) vs. control trials (verbal condition). Fastest RTs were observed for the 67% outcome probability in both age groups. An age group × outcome probability interaction effect revealed the greatest differences between the groups for the 12% vs. the 67% outcome probability. Neurally, both age groups demonstrated a higher percent signal change in the VS and AI during the anticipation of potential monetary loss versus the verbal condition. However, adults demonstrated an even greater activation of VS and AI than adolescents during the anticipation of potential monetary loss, but not during the verbal condition. This may indicate that adolescents differ from adults regarding their experience of avoiding losing monetary rewards.
18

Modeling and Optimization of Electrode Configurations for Piezoelectric Material

Schulze, Veronika 30 October 2023 (has links)
Piezoelektrika haben ein breit gefächertes Anwendungsspektrum in Industrie, Alltag und Forschung. Dies erfordert ein genaues Wissen über das Materialverhalten der betrachteten piezoelektrischen Elemente, was mit dem Lösen von simulationsgestützten inversen Parameteridentifikationsproblemen einhergeht. Die vorliegende Arbeit befasst sich mit der optimalen Versuchsplanung (OED) für dieses Problem. Piezoelektrische Materialien weisen die Eigenschaft auf, sich als Reaktion auf angelegte Potentiale oder Kräfte mechanisch oder elektrisch zu verändern (direkter und indirekter piezoelektrischer Effekt). Um eine Spannung anzulegen und den indirekten piezoelektrischen Effekt auszunutzen, werden Elektroden aufgebracht, deren Konfiguration einen erheblichen Einfluss auf mögliche Systemantworten hat. Daher werden das Potential, die Anzahl und die Größe der Elektroden zunächst im zweidimensionalen Fall optimiert. Das piezoelektrische Verhalten basiert im betrachteten Kleinsignalbereich auf zeitabhängigen, linearen partiellen Differentialgleichungen. Die Herleitung sowie Existenz und Eindeutigkeit der Lösungen werden gezeigt. Zur Berechnung der elektrischen Ladung und der Impedanz, die für das Materialidentifikationsproblem und damit für die Versuchsplanung relevant sind, werden zeit- und frequenzabhängige Simulationen auf Basis der Finite Elemente Methode (FEM) mit dem FEM Simulationstool FEniCS durchgeführt. Es wird auf Nachteile bei der Berechnung der Ableitungen eingegangen und erste adjungierte Gleichungen formuliert. Die Modellierung des Problems der optimalen Versuchsplanung erfolgt hauptsächlich durch die Kontrolle des Potentials der Dirichlet Randbedingungen des Randwertproblems. Anhand mehrerer numerischer Beispiele werden die resultierenden Konfigurationen gezeigt. Weitere Ansätze zur Elektrodenmodellierung, z.B. durch Kontrolle der Materialeigenschaften, werden ebenfalls vorgestellt. Schließlich wird auf mögliche Erweiterungen des vorgestellten OED Problems hingewiesen. / Piezoelectrics have a wide range of applications in industry, everyday life and research. This requires an accurate knowledge of the material behavior, which implies the solution of simulation-based inverse identification problems. This thesis focuses on the optimal design of experiments addressing this problem. Piezoelectric materials exhibit the property of mechanical or electrical changes in response to applied potentials or forces (direct and indirect piezoelectric effect). To apply voltage and to exploit the indirect piezoelectric effect, electrodes are attached whose configura- tion have a significant influence on possible system responses. Therefore, the potential, the number and the size of the electrodes are initially optimized in the two-dimensional case. The piezoelectric behavior in the considered small signal range is based on a time dependent linear partial differential equation system. The derivation as well as the exis- tence, uniqueness and regularity of the solutions of the equations are shown. Time- and frequency-dependent simulations based on the finite element method (FEM) with the FEM simulation tool FEniCS are performed to calculate the electric charge and the impedance, which are relevant for the material identification problem and thus for the experimental design. Drawbacks in the derivative calculations are pointed out and a first set of adjoint equations is formulated. The modeling of the optimal experimental design (OED) prob- lem is done mainly by controlling the potential of the Dirichlet boundary conditions of the boundary value problem. Several numerical examples are used to show the resulting configurations and to address the difficulties encountered. Further electrode modeling ap- proaches for example by controlling the material properties are then discussed. Finally, possible extensions of the presented OED problem are pointed out.
19

Feedback Effects in Stochastic Control Problems with Liquidity Frictions

Bilarev, Todor 03 December 2018 (has links)
In dieser Arbeit untersuchen wir mathematische Modelle für Finanzmärkte mit einem großen Händler, dessen Handelsaktivitäten transienten Einfluss auf die Preise der Anlagen haben. Zuerst beschäftigen wir uns mit der Frage, wie die Handelserlöse des großen Händlers definiert werden sollen. Wir identifizieren die Erlöse zunächst für absolutstetige Strategien als nichtlineares Integral, in welchem sowohl der Integrand als der Integrator von der Strategie abhängen. Unserere Hauptbeiträge sind hier die Identifizierung der Skorokhod M1 Topologie als geeigneter Topologue auf dem Raum aller Strategien sowie die stetige Erweiterung der Definition für die Handelserlöse von absolutstetigen auf cadlag Kontrollstrategien. Weiter lösen wir ein Liquidierungsproblem in einem multiplikativen Modell mit Preiseinfluss, in dem die Liquidität stochastisch ist. Die optimale Strategie wird beschrieben durch die Lokalzeit für Reflektion einer Diffusion an einer nicht-konstanten Grenze. Um die HJB-Variationsungleichung zu lösen und Optimalität zu beweisen, wenden wir probabilistische Argumente und Methoden aus der Variationsrechnung an, darunter Laplace-Transformierte von Lokalzeiten für Reflektion an elastischen Grenzen. In der zweiten Hälfte der Arbeit untersuchen wir die Absicherung (Hedging) für Optionen. Der minimale Superhedging-Preis ist die Viskositätslösung einer semi-linearen partiellen Differenzialgleichung, deren Nichtlinearität von dem transienten Preiseinfluss abhängt. Schließlich erweitern wir unsere Analyse auf Hedging-Probleme in Märkten mit mehreren riskanten Anlagen. Stabilitätsargumente führen zu strukturellen Bedingungen, welche für ein arbitragefreies Modell mit wechselseitigem Preis-Impakt gelten müssen. Zudem ermöglichen es jene Bedingungen, die Erlöse für allgemeine Strategien unendlicher Variation in stetiger Weise zu definieren. Als Anwendung lösen wir das Superhedging-Problem in einem additiven Preis-Impakt-Modell mit mehreren Anlagen. / In this thesis we study mathematical models of financial markets with a large trader (price impact models) whose actions have transient impact on the risky asset prices. At first, we study the question of how to define the large trader's proceeds from trading. To extend the proceeds functional to general controls, we ask for stability in the following sense: nearby trading activities should lead to nearby proceeds. Our main contribution in this part is to identify a suitable topology on the space of controls, namely the Skorokhod M1 topology, and to obtain the continuous extension of the proceeds functional for general cadlag controls. Secondly, we solve the optimal liquidation problem in a multiplicative price impact model where liquidity is stochastic. The optimal control is obtained as the reflection local time of a diffusion process reflected at a non-constant free boundary. To solve the HJB variational inequality and prove optimality, we need a combination of probabilistic arguments and calculus of variations methods, involving Laplace transforms of inverse local times for diffusions reflected at elastic boundaries. In the second half of the thesis we study the hedging problem for a large trader. We solve the problem of superhedging for European contingent claims in a multiplicative impact model using techniques from the theory of stochastic target problems. The minimal superhedging price is identified as the unique viscosity solution of a semi-linear pde, whose nonlinearity is governed by the transient nature of price impact. Finally, we extend our consideration to multi-asset models. Requiring stability leads to strong structural conditions that arbitrage-free models with cross-impact should satisfy. These conditions turn out to be crucial for identifying the proceeds functional for a general class of strategies. As an application, the problem of superhedging with cross-impact in additive price impact models is solved.
20

High Dimensional Financial Engineering: Dependence Modeling and Sequential Surveillance

Xu, Yafei 07 February 2018 (has links)
Diese Dissertation konzentriert sich auf das hochdimensionale Financial Engineering, insbesondere in der Dependenzmodellierung und der sequentiellen Überwachung. Im Bereich der Dependenzmodellierung wird eine Einführung hochdimensionaler Kopula vorgestellt, die sich auf den Stand der Forschung in Kopula konzentriert. Eine komplexere Anwendung im Financial Engineering, bei der eine hochdimensionale Kopula verwendet wird, konzentriert sich auf die Bepreisung von Portfolio-ähnlichen Kreditderivaten, d. h. CDX-Tranchen (Credit Default Swap Index). In diesem Teil wird die konvexe Kombination von Kopulas in der CDX-Tranche mit Komponenten aus der elliptischen Kopula-Familie (Gaussian und Student-t), archimedischer Kopula-Familie (Frank, Gumbel, Clayton und Joe) und hierarchischer archimedischer Kopula-Familie vorgeschlagen. Im Abschnitt über finanzielle Überwachung konzentriert sich das Kapitel auf die Überwachung von hochdimensionalen Portfolios (in den Dimensionen 5, 29 und 90) durch die Entwicklung eines nichtparametrischen multivariaten statistischen Prozesssteuerungsdiagramms, d.h. eines Energietest-basierten Kontrolldiagramms (ETCC). Um die weitere Forschung und Praxis der nichtparametrischen multivariaten statistischen Prozesskontrolle zu unterstützen, die in dieser Dissertation entwickelt wurde, wird ein R-Paket "EnergyOnlineCPM" entwickelt. Dieses Paket wurde im Moment akzeptiert und veröffentlicht im Comprehensive R Archive Network (CRAN), welches das erste Paket ist, das die Verschiebung von Mittelwert und Kovarianz online überwachen kann. / This dissertation focuses on the high dimensional financial engineering, especially in dependence modeling and sequential surveillance. In aspect of dependence modeling, an introduction of high dimensional copula concentrating on state-of-the-art research in copula is presented. A more complex application in financial engineering using high dimensional copula is concentrated on the pricing of the portfolio-like credit derivative, i.e. credit default swap index (CDX) tranches. In this part, the convex combination of copulas is proposed in CDX tranche pricing with components stemming from elliptical copula family (Gaussian and Student-t), Archimedean copula family (Frank, Gumbel, Clayton and Joe) and hierarchical Archimedean copula family used in some publications. In financial surveillance part, the chapter focuses on the monitoring of high dimensional portfolios (in 5, 29 and 90 dimensions) by development of a nonparametric multivariate statistical process control chart, i.e. energy test based control chart (ETCC). In order to support the further research and practice of nonparametric multivariate statistical process control chart devised in this dissertation, an R package "EnergyOnlineCPM" is developed. At moment, this package has been accepted and published in the Comprehensive R Archive Network (CRAN), which is the first package that can online monitor the shift in mean and covariance jointly.

Page generated in 0.0667 seconds