• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 4
  • Tagged with
  • 36
  • 34
  • 27
  • 27
  • 27
  • 21
  • 12
  • 12
  • 9
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Utilizing self-similar stochastic processes to model rare events in finance

Wesselhöfft, Niels 24 February 2021 (has links)
In der Statistik und der Mathematik ist die Normalverteilung der am meisten verbreitete, stochastische Term für die Mehrheit der statistischen Modelle. Wir zeigen, dass der entsprechende stochastische Prozess, die Brownsche Bewegung, drei entscheidende empirische Beobachtungen nicht abbildet: schwere Ränder, Langzeitabhängigkeiten und Skalierungsgesetze. Ein selbstähnlicher Prozess, der in der Lage ist Langzeitabhängigkeiten zu modellieren, ist die Gebrochene Brownsche Bewegung, welche durch die Faltung der Inkremente im Limit nicht normalverteilt sein muss. Die Inkremente der Gebrochenen Brownschen Bewegung können durch einen Parameter H, dem Hurst Exponenten, Langzeitabhängigkeiten darstellt werden. Für die Gebrochene Brownsche Bewegung müssten die Skalierungs-(Hurst-) Exponenten über die Momente verschiedener Ordnung konstant sein. Empirisch beobachten wir variierende Hölder-Exponenten, die multifraktales Verhalten implizieren. Wir erklären dieses multifraktale Verhalten durch die Änderung des alpha-stabilen Indizes der alpha-stabilen Verteilung, indem wir Filter für Saisonalitäten und Langzeitabhängigkeiten über verschiedene Zeitfrequenzen anwenden, startend bei 1-minütigen Hochfrequenzdaten. Durch die Anwendung eines Filters für die Langzeitabhängigkeit zeigen wir, dass die Residuen des stochastischen Prozesses geringer Zeitfrequenz (wöchentlich) durch die alpha-stabile Bewegung beschrieben werden können. Dies erlaubt es uns, den empirischen, hochfrequenten Datensatz auf die niederfrequente Zeitfrequenz zu skalieren. Die generierten wöchentlichen Daten aus der Frequenz-Reskalierungs-Methode (FRM) haben schwerere Ränder als der ursprüngliche, wöchentliche Prozess. Wir zeigen, dass eine Teilmenge des Datensatzes genügt, um aus Risikosicht bessere Vorhersagen für den gesamten Datensatz zu erzielen. Im Besonderen wäre die Frequenz-Reskalierungs-Methode (FRM) in der Lage gewesen, die seltenen Events der Finanzkrise 2008 zu modellieren. / Coming from a sphere in statistics and mathematics in which the Normal distribution is the dominating underlying stochastic term for the majority of the models, we indicate that the relevant diffusion, the Brownian Motion, is not accounting for three crucial empirical observations for financial data: Heavy tails, long memory and scaling laws. A self-similar process, which is able to account for long-memory behavior is the Fractional Brownian Motion, which has a possible non-Gaussian limit under convolution of the increments. The increments of the Fractional Brownian Motion can exhibit long memory through a parameter H, the Hurst exponent. For the Fractional Brownian Motion this scaling (Hurst) exponent would be constant over different orders of moments, being unifractal. But empirically, we observe varying Hölder exponents, the continuum of Hurst exponents, which implies multifractal behavior. We explain the multifractal behavior through the changing alpha-stable indices from the alpha-stable distributions over sampling frequencies by applying filters for seasonality and time dependence (long memory) over different sampling frequencies, starting at high-frequencies up to one minute. By utilizing a filter for long memory we show, that the low-sampling frequency process, not containing the time dependence component, can be governed by the alpha-stable motion. Under the alpha-stable motion we propose a semiparametric method coined Frequency Rescaling Methodology (FRM), which allows to rescale the filtered high-frequency data set to the lower sampling frequency. The data sets for e.g. weekly data which we obtain by rescaling high-frequency data with the Frequency Rescaling Method (FRM) are more heavy tailed than we observe empirically. We show that using a subset of the whole data set suffices for the FRM to obtain a better forecast in terms of risk for the whole data set. Specifically, the FRM would have been able to account for tail events of the financial crisis 2008.
12

Model Checking Techniques for Design and Analysis of Future Hardware and Software Systems

Märcker, Steffen 12 April 2021 (has links)
Computer hardware and software laid the foundation for fundamental innovations in science, technology, economics and society. Novel application areas generate an ever-increasing demand for computation power and storage capacities. Classic CMOS-based hardware and the von Neumann architecture are approaching their limits in miniaturization, power density and communication speed. To meet future demands, researchers work on new device technologies and architecture approaches which in turn require new algorithms and a hardware/software co-design to exploit their capabilities. Since the overall system heterogeneity and complexity increases, the challenge is to build systems with these technologies that are both correct and performant by design. Formal methods in general and model checking in particular are established verification methods in hardware design, and have been successfully applied to many hardware, software and integrated hardware/software systems. In many systems, probabilistic effects arise naturally, e.g., from input patterns, production variations or the occurrence of faults. Probabilistic model checking facilitates the quantitative analysis of performance and reliability measures in stochastic models that formalize this probabilism. The interdisciplinary research project Center for Advancing Electronics Dresden, cfaed for short, aims to explore hardware and software technologies for future information processing systems. It joins the research efforts of different groups working on technologies for all system layers ranging from transistor device research over system architecture up to the application layer. The collaborations among the groups showed a demand for new formal methods and enhanced tools to assist the design and analysis of technologies at all system layers and their cross-layer integration. Addressing these needs is the goal of this thesis. This work contributes to probabilistic model checking for Markovian models with new methods to compute two essential measures in the analysis of hardware/software systems and a method to tackle the state-space explosion problem: 1) Conditional probabilities are well known in stochastic theory and statistics, but efficient methods did not exist to compute conditional expectations in Markov chains and extremal conditional probabilities in Markov decision processes. This thesis develops new polynomial-time algorithms, and it provides a mature implementation for the probabilistic model checker PRISM. 2) Relativized long-run and relativized conditional long-run averages are proposed in this work to reason about probabilities and expectations in Markov chains on the long run when zooming into sets of states or paths. Both types of long-run averages are implemented for PRISM. 3) Symmetry reduction is an effective abstraction technique to tame the state-space explosion problem. However, state-of-the-art probabilistic model checkers apply it only after building the full model and offer no support for specifying non-trivial symmetric components. This thesis fills this gap with a modeling language based on symmetric program graphs that facilitates symmetry reduction on the source level. The new language can be integrated seamlessly into the PRISM modeling language. This work contributes to the research on future hardware/software systems in cfaed with three practical studies that are enabled by the developed methods and their implementations. 1) To confirm relevance of the new methods in practice and to validate the results, the first study analyzes a well-understood synchronization protocol, a test-and-test-and-set spinlock. Beyond this confirmation, the analysis demonstrates the capability to compute properties that are hardly accessible to measurements. 2) Probabilistic write-copy/select is an alternative protocol to overcome the scalability issues of classic resource-locking mechanisms. A quantitative analysis verifies the protocol's principle of operation and evaluates the performance trade-offs to guide future implementations of the protocol. 3) The impact of a new device technology is hard to estimate since circuit-level simulations are not available in the early stages of research. This thesis proposes a formal framework to model and analyze circuit designs for novel transistor technologies. It encompasses an operational model of electrical circuits, a functional model of polarity-controllable transistor devices and algorithms for design space exploration in order to find optimal circuit designs using probabilistic model checking. A practical study assesses the model accuracy for a lab-device based on germanium nanowires and performs an automated exploration and performance analysis of the design space of a given switching function. The experiments demonstrate how the framework enables an early systematic design space exploration and performance evaluation of circuits for experimental transistor devices.:1. Introduction 1.1 Related Work 2. Preliminaries 3. Conditional Probabilities in Markovian Models 3.1 Methods for Discrete- and Continuous-Time Markov Chains 3.2 Reset Method for Markov Decision Processes 3.3 Implementation 3.4 Evaluation and Comparative Studies 3.5 Conclusion 4. Long-Run Averages in Markov Chains 4.1 Relativized Long-Run Average 4.2 Conditional State Evolution 4.3 Implementation 4.4 Conclusion 5. Language-Support for Immediate Symmetry Reduction 5.1 Probabilistic Program Graphs 5.2 Symmetric Probabilistic Program Graphs 5.3 Implementation 5.4 Conclusion 6. Practical Applications of the Developed Techniques 6.1 Test-and-Test-and-Set Spinlock: Quantitative Analysis of an Established Protocol 6.2 Probabilistic Write/Copy-Select: Quantitative Analysis as Design Guide for a Novel Protocol 6.3 Circuit Design for Future Transistor Technologies: Evaluating Polarity-Controllable Multiple-Gate FETs 7. Conclusion Bibliography Appendices A. Conditional Probabilities and Expectations A.1 Selection of Benchmark Models A.2 Additional Benchmark Results A.3 Comparison PRISM vs. Storm B. Language-Support for Immediate Symmetry Reduction B.1 Syntax of the PRISM Modeling Language B.2 Multi-Core Example C. Practical Applications of the Developed Techniques C.1 Test-and-Test-and-Set Spinlock C.2 Probabilistic Write/Copy-Select C.3 Circuit Design for Future Transistor Technologies
13

Refinements of the Solution Theory for Singular SPDEs

Martin, Jörg 14 August 2018 (has links)
Diese Dissertation widmet sich der Untersuchung singulärer stochastischer partieller Differentialgleichungen (engl. SPDEs). Wir entwickeln Erweiterungen der bisherigen Lösungstheorien, zeigen fundamentale Beziehungen zwischen verschiedenen Ansätzen und präsentieren Anwendungen in der Finanzmathematik und der mathematischen Physik. Die Theorie parakontrollierter Systeme wird für diskrete Räume formuliert und eine schwache Universalität für das parabolische Anderson Modell bewiesen. Eine fundamentale Relation zwischen Hairer's modellierten Distributionen und Paraprodukten wird bewiesen: Wir zeigen das sich der Raum modellierter Distributionen durch Paraprodukte beschreiben lässt. Dieses Resultat verallgemeinert die Fourierbeschreibung von Hölderräumen mittels Littlewood-Paley Theorie. Schließlich wird die Existenz von Lösungen der stochastischen Schrödingergleichung auf dem ganzen Raum bewiesen und eine Anwendung Hairer's Theorie zur Preisermittlung von Optionen aufgezeigt. / This thesis is concerned with the study of singular stochastic partial differential equations (SPDEs). We develop extensions to existing solution theories, present fundamental interconnections between different approaches and give applications in financial mathematics and mathematical physics. The theory of paracontrolled distribution is formulated for discrete systems, which allows us to prove a weak universality result for the parabolic Anderson model. This thesis further shows a fundamental relation between Hairer's modelled distributions and paraproducts: The space of modelled distributions can be characterized completely by using paraproducts. This can be seen a generalization of the Fourier description of Hölder spaces. Finally, we prove the existence of solutions to the stochastic Schrödinger equation on the full space and provide an application of Hairer's theory to option pricing.
14

Lernprozesse von qualifikationsheterogenen Grundschullehrkräften im Bereich Stochastik - Studie zur Professionalisierung durch Fortbildung

Binner, Elke 08 April 2021 (has links)
Im Rahmen der Qualitätsentwicklung und -sicherung von Unterricht wurden in den letzten zwei Jahrzehnten auf Bundes- und Länderebene auch Maßnahmen zur Professionalisierung von Lehr-personen festgelegt. Vor diesem Hintergrund begannen 2012 am Deutschen Zentrum für Lehrerbildung Mathematik (DZLM) auch Arbeiten, um bestehende Fortbildungsangebote für Grundschullehrkräfte zu erweitern. In dieser Arbeit wird das Konzept einer Stochastik-Fortbildung für Lehrpersonen, die Mathematik in der Grundschule unterrichten, vorgestellt. Die Entwicklung greift Forschungserkenntnisse zum Verständnis von professioneller Kompetenz von Lehrpersonen und zur Gestaltung von Professionalisierungsprozessen auf und bindet konzeptionell Impulse für Unterrichtsentwicklungsprozesse ein. In fünf Kursdurchführungen wurde das Konzept realisiert und hinsichtlich seiner Umsetzbarkeit untersucht. Die in diesem Rahmen gewonnenen Daten von 120 Lehrpersonen geben detailliertere Einsichten in Entwicklungsprozesse unterschiedlich qualifizierter Lehrpersonen. Die Ergebnisse zeigen insbesondere, dass in der fachinhaltlich orientierten Fortbildung ein fachlicher und fachdidaktischer Wissenszuwachs erreicht werden kann. Die Defizite bezüglich einer mathematischen Grundausbildung eines Lehramts können bei Lehrpersonen, die Mathematik fachfremd unterrichten, auf diesem Weg aber nicht überwunden werden. Die Untersuchungen zeigen zudem, dass die qualifikationsheterogene Zusammensetzung der Kursgruppen die Durchführung und das Lernen der Lehrpersonen bereichern. Mit der Einbindung des Konzepts der Professionellen Lerngemeinschaft (PLG) in den Kurs und Erprobungen in den Praxisphasen gelingt es, Impulse für Unterrichtsentwick-lungsprozesse zu geben. Diese Fortbildung kann ein berufsbegleitender Baustein in der Ausprägung von Lehrkräfteprofessionalität sein und den lang andauernden Prozess der Konstruktion und Selbstkonstruktion des Berufs unterstützen. / In the past two decades, increasing the quality of mathematics teaching and learning, particularly fostering the professional knowledge and skills of teachers has been researched in depth. Before this background, the German Center for Mathematics Education (Deutsches Zentrum für Lehrerbildung Mathematik, DZLM) started from 2012 onwards to offer professional development (PD) courses for teachers and facilitators. This thesis presents a concept for a PD course on stochastics for primary teachers, which draws on recently gained empirical evidences on appropriate professional competencies and on design elements relevant for effective professionalization. The concept of the PD course also includes building professional learning communities (PLCs) to initiate teachers´ ongoing professional growth through working collaboratively on improving their classroom practices. The long-lasting PD course has been conducted five times and data was gained to evaluate the feasibility of the concept. That is, the data acquired from 120 teachers provided detailed insight into the personal development of teachers with different qualifications, including those teaching out-of-field. The results show that a PD course focusing on a certain subject leads to an increase of both content knowledge professional content knowledge. However, deficits due to a missing basic education in mathematics - as for teachers not specialized on mathematics - cannot be totally overcome by this PD course. However, the results indicate that the heterogeneous teacher groups possessing different qualifications enrich the learning processes of all participants. Including the PLC concept into the PD course and conducting practical phases to probe issues in the classroom were both decisive impulses helping teachers to further develop their practices. Thus, the PD course proved to be effective with respect to fostering teachers´ professional knowledge and skills sustainably and contributed to teachers´ life-long and ongoing learning.
15

Is loss avoidance differentially rewarding in adolescents versus adults?: Differences in ventral striatum and anterior insula activation during the anticipation of potential monetary losses

Bretzke, Maria, Vetter, Nora C., Kohls, Gregor, Wahl, Hannes, Roessner, Veit, Plichta, Michael M., Buse, Judith 28 March 2023 (has links)
Avoiding loss is a crucial, adaptive guide to human behavior. While previous developmental research has primarily focused on gaining rewards, less attention has been paid to loss processing and its avoidance. In daily life, it is often unknown how likely an action will result in a loss, making the role of uncertainty in loss processing particularly important. By using functional magnetic resonance imaging, we investigated the influence of varying outcome probabilities (12%, 34%, and 67%) on brain regions implicated in loss processing (ventral striatum (VS), anterior insula (AI)) by comparing 28 adolescents (10–18 years) and 24 adults (22–32 years) during the anticipation of potential monetary loss. Overall, results revealed slower RTs in adolescents compared to adults with both groups being faster in the experimental (monetary condition) vs. control trials (verbal condition). Fastest RTs were observed for the 67% outcome probability in both age groups. An age group × outcome probability interaction effect revealed the greatest differences between the groups for the 12% vs. the 67% outcome probability. Neurally, both age groups demonstrated a higher percent signal change in the VS and AI during the anticipation of potential monetary loss versus the verbal condition. However, adults demonstrated an even greater activation of VS and AI than adolescents during the anticipation of potential monetary loss, but not during the verbal condition. This may indicate that adolescents differ from adults regarding their experience of avoiding losing monetary rewards.
16

Modeling and Optimization of Electrode Configurations for Piezoelectric Material

Schulze, Veronika 30 October 2023 (has links)
Piezoelektrika haben ein breit gefächertes Anwendungsspektrum in Industrie, Alltag und Forschung. Dies erfordert ein genaues Wissen über das Materialverhalten der betrachteten piezoelektrischen Elemente, was mit dem Lösen von simulationsgestützten inversen Parameteridentifikationsproblemen einhergeht. Die vorliegende Arbeit befasst sich mit der optimalen Versuchsplanung (OED) für dieses Problem. Piezoelektrische Materialien weisen die Eigenschaft auf, sich als Reaktion auf angelegte Potentiale oder Kräfte mechanisch oder elektrisch zu verändern (direkter und indirekter piezoelektrischer Effekt). Um eine Spannung anzulegen und den indirekten piezoelektrischen Effekt auszunutzen, werden Elektroden aufgebracht, deren Konfiguration einen erheblichen Einfluss auf mögliche Systemantworten hat. Daher werden das Potential, die Anzahl und die Größe der Elektroden zunächst im zweidimensionalen Fall optimiert. Das piezoelektrische Verhalten basiert im betrachteten Kleinsignalbereich auf zeitabhängigen, linearen partiellen Differentialgleichungen. Die Herleitung sowie Existenz und Eindeutigkeit der Lösungen werden gezeigt. Zur Berechnung der elektrischen Ladung und der Impedanz, die für das Materialidentifikationsproblem und damit für die Versuchsplanung relevant sind, werden zeit- und frequenzabhängige Simulationen auf Basis der Finite Elemente Methode (FEM) mit dem FEM Simulationstool FEniCS durchgeführt. Es wird auf Nachteile bei der Berechnung der Ableitungen eingegangen und erste adjungierte Gleichungen formuliert. Die Modellierung des Problems der optimalen Versuchsplanung erfolgt hauptsächlich durch die Kontrolle des Potentials der Dirichlet Randbedingungen des Randwertproblems. Anhand mehrerer numerischer Beispiele werden die resultierenden Konfigurationen gezeigt. Weitere Ansätze zur Elektrodenmodellierung, z.B. durch Kontrolle der Materialeigenschaften, werden ebenfalls vorgestellt. Schließlich wird auf mögliche Erweiterungen des vorgestellten OED Problems hingewiesen. / Piezoelectrics have a wide range of applications in industry, everyday life and research. This requires an accurate knowledge of the material behavior, which implies the solution of simulation-based inverse identification problems. This thesis focuses on the optimal design of experiments addressing this problem. Piezoelectric materials exhibit the property of mechanical or electrical changes in response to applied potentials or forces (direct and indirect piezoelectric effect). To apply voltage and to exploit the indirect piezoelectric effect, electrodes are attached whose configura- tion have a significant influence on possible system responses. Therefore, the potential, the number and the size of the electrodes are initially optimized in the two-dimensional case. The piezoelectric behavior in the considered small signal range is based on a time dependent linear partial differential equation system. The derivation as well as the exis- tence, uniqueness and regularity of the solutions of the equations are shown. Time- and frequency-dependent simulations based on the finite element method (FEM) with the FEM simulation tool FEniCS are performed to calculate the electric charge and the impedance, which are relevant for the material identification problem and thus for the experimental design. Drawbacks in the derivative calculations are pointed out and a first set of adjoint equations is formulated. The modeling of the optimal experimental design (OED) prob- lem is done mainly by controlling the potential of the Dirichlet boundary conditions of the boundary value problem. Several numerical examples are used to show the resulting configurations and to address the difficulties encountered. Further electrode modeling ap- proaches for example by controlling the material properties are then discussed. Finally, possible extensions of the presented OED problem are pointed out.
17

Feedback Effects in Stochastic Control Problems with Liquidity Frictions

Bilarev, Todor 03 December 2018 (has links)
In dieser Arbeit untersuchen wir mathematische Modelle für Finanzmärkte mit einem großen Händler, dessen Handelsaktivitäten transienten Einfluss auf die Preise der Anlagen haben. Zuerst beschäftigen wir uns mit der Frage, wie die Handelserlöse des großen Händlers definiert werden sollen. Wir identifizieren die Erlöse zunächst für absolutstetige Strategien als nichtlineares Integral, in welchem sowohl der Integrand als der Integrator von der Strategie abhängen. Unserere Hauptbeiträge sind hier die Identifizierung der Skorokhod M1 Topologie als geeigneter Topologue auf dem Raum aller Strategien sowie die stetige Erweiterung der Definition für die Handelserlöse von absolutstetigen auf cadlag Kontrollstrategien. Weiter lösen wir ein Liquidierungsproblem in einem multiplikativen Modell mit Preiseinfluss, in dem die Liquidität stochastisch ist. Die optimale Strategie wird beschrieben durch die Lokalzeit für Reflektion einer Diffusion an einer nicht-konstanten Grenze. Um die HJB-Variationsungleichung zu lösen und Optimalität zu beweisen, wenden wir probabilistische Argumente und Methoden aus der Variationsrechnung an, darunter Laplace-Transformierte von Lokalzeiten für Reflektion an elastischen Grenzen. In der zweiten Hälfte der Arbeit untersuchen wir die Absicherung (Hedging) für Optionen. Der minimale Superhedging-Preis ist die Viskositätslösung einer semi-linearen partiellen Differenzialgleichung, deren Nichtlinearität von dem transienten Preiseinfluss abhängt. Schließlich erweitern wir unsere Analyse auf Hedging-Probleme in Märkten mit mehreren riskanten Anlagen. Stabilitätsargumente führen zu strukturellen Bedingungen, welche für ein arbitragefreies Modell mit wechselseitigem Preis-Impakt gelten müssen. Zudem ermöglichen es jene Bedingungen, die Erlöse für allgemeine Strategien unendlicher Variation in stetiger Weise zu definieren. Als Anwendung lösen wir das Superhedging-Problem in einem additiven Preis-Impakt-Modell mit mehreren Anlagen. / In this thesis we study mathematical models of financial markets with a large trader (price impact models) whose actions have transient impact on the risky asset prices. At first, we study the question of how to define the large trader's proceeds from trading. To extend the proceeds functional to general controls, we ask for stability in the following sense: nearby trading activities should lead to nearby proceeds. Our main contribution in this part is to identify a suitable topology on the space of controls, namely the Skorokhod M1 topology, and to obtain the continuous extension of the proceeds functional for general cadlag controls. Secondly, we solve the optimal liquidation problem in a multiplicative price impact model where liquidity is stochastic. The optimal control is obtained as the reflection local time of a diffusion process reflected at a non-constant free boundary. To solve the HJB variational inequality and prove optimality, we need a combination of probabilistic arguments and calculus of variations methods, involving Laplace transforms of inverse local times for diffusions reflected at elastic boundaries. In the second half of the thesis we study the hedging problem for a large trader. We solve the problem of superhedging for European contingent claims in a multiplicative impact model using techniques from the theory of stochastic target problems. The minimal superhedging price is identified as the unique viscosity solution of a semi-linear pde, whose nonlinearity is governed by the transient nature of price impact. Finally, we extend our consideration to multi-asset models. Requiring stability leads to strong structural conditions that arbitrage-free models with cross-impact should satisfy. These conditions turn out to be crucial for identifying the proceeds functional for a general class of strategies. As an application, the problem of superhedging with cross-impact in additive price impact models is solved.
18

High Dimensional Financial Engineering: Dependence Modeling and Sequential Surveillance

Xu, Yafei 07 February 2018 (has links)
Diese Dissertation konzentriert sich auf das hochdimensionale Financial Engineering, insbesondere in der Dependenzmodellierung und der sequentiellen Überwachung. Im Bereich der Dependenzmodellierung wird eine Einführung hochdimensionaler Kopula vorgestellt, die sich auf den Stand der Forschung in Kopula konzentriert. Eine komplexere Anwendung im Financial Engineering, bei der eine hochdimensionale Kopula verwendet wird, konzentriert sich auf die Bepreisung von Portfolio-ähnlichen Kreditderivaten, d. h. CDX-Tranchen (Credit Default Swap Index). In diesem Teil wird die konvexe Kombination von Kopulas in der CDX-Tranche mit Komponenten aus der elliptischen Kopula-Familie (Gaussian und Student-t), archimedischer Kopula-Familie (Frank, Gumbel, Clayton und Joe) und hierarchischer archimedischer Kopula-Familie vorgeschlagen. Im Abschnitt über finanzielle Überwachung konzentriert sich das Kapitel auf die Überwachung von hochdimensionalen Portfolios (in den Dimensionen 5, 29 und 90) durch die Entwicklung eines nichtparametrischen multivariaten statistischen Prozesssteuerungsdiagramms, d.h. eines Energietest-basierten Kontrolldiagramms (ETCC). Um die weitere Forschung und Praxis der nichtparametrischen multivariaten statistischen Prozesskontrolle zu unterstützen, die in dieser Dissertation entwickelt wurde, wird ein R-Paket "EnergyOnlineCPM" entwickelt. Dieses Paket wurde im Moment akzeptiert und veröffentlicht im Comprehensive R Archive Network (CRAN), welches das erste Paket ist, das die Verschiebung von Mittelwert und Kovarianz online überwachen kann. / This dissertation focuses on the high dimensional financial engineering, especially in dependence modeling and sequential surveillance. In aspect of dependence modeling, an introduction of high dimensional copula concentrating on state-of-the-art research in copula is presented. A more complex application in financial engineering using high dimensional copula is concentrated on the pricing of the portfolio-like credit derivative, i.e. credit default swap index (CDX) tranches. In this part, the convex combination of copulas is proposed in CDX tranche pricing with components stemming from elliptical copula family (Gaussian and Student-t), Archimedean copula family (Frank, Gumbel, Clayton and Joe) and hierarchical Archimedean copula family used in some publications. In financial surveillance part, the chapter focuses on the monitoring of high dimensional portfolios (in 5, 29 and 90 dimensions) by development of a nonparametric multivariate statistical process control chart, i.e. energy test based control chart (ETCC). In order to support the further research and practice of nonparametric multivariate statistical process control chart devised in this dissertation, an R package "EnergyOnlineCPM" is developed. At moment, this package has been accepted and published in the Comprehensive R Archive Network (CRAN), which is the first package that can online monitor the shift in mean and covariance jointly.
19

Development and application of new statistical methods for the analysis of multiple phenotypes to investigate genetic associations with cardiometabolic traits

Konigorski, Stefan 27 April 2018 (has links)
Die biotechnologischen Entwicklungen der letzten Jahre ermöglichen eine immer detailliertere Untersuchung von genetischen und molekularen Markern mit multiplen komplexen Traits. Allerdings liefern vorhandene statistische Methoden für diese komplexen Analysen oft keine valide Inferenz. Das erste Ziel der vorliegenden Arbeit ist, zwei neue statistische Methoden für Assoziationsstudien von genetischen Markern mit multiplen Phänotypen zu entwickeln, effizient und robust zu implementieren, und im Vergleich zu existierenden statistischen Methoden zu evaluieren. Der erste Ansatz, C-JAMP (Copula-based Joint Analysis of Multiple Phenotypes), ermöglicht die Assoziation von genetischen Varianten mit multiplen Traits in einem gemeinsamen Copula Modell zu untersuchen. Der zweite Ansatz, CIEE (Causal Inference using Estimating Equations), ermöglicht direkte genetische Effekte zu schätzen und testen. C-JAMP wird in dieser Arbeit für Assoziationsstudien von seltenen genetischen Varianten mit quantitativen Traits evaluiert, und CIEE für Assoziationsstudien von häufigen genetischen Varianten mit quantitativen Traits und Ereigniszeiten. Die Ergebnisse von umfangreichen Simulationsstudien zeigen, dass beide Methoden unverzerrte und effiziente Parameterschätzer liefern und die statistische Power von Assoziationstests im Vergleich zu existierenden Methoden erhöhen können - welche ihrerseits oft keine valide Inferenz liefern. Für das zweite Ziel dieser Arbeit, neue genetische und transkriptomische Marker für kardiometabolische Traits zu identifizieren, werden zwei Studien mit genom- und transkriptomweiten Daten mit C-JAMP und CIEE analysiert. In den Analysen werden mehrere neue Kandidatenmarker und -gene für Blutdruck und Adipositas identifiziert. Dies unterstreicht den Wert, neue statistische Methoden zu entwickeln, evaluieren, und implementieren. Für beide entwickelten Methoden sind R Pakete verfügbar, die ihre Anwendung in zukünftigen Studien ermöglichen. / In recent years, the biotechnological advancements have allowed to investigate associations of genetic and molecular markers with multiple complex phenotypes in much greater depth. However, for the analysis of such complex datasets, available statistical methods often don’t yield valid inference. The first aim of this thesis is to develop two novel statistical methods for association analyses of genetic markers with multiple phenotypes, to implement them in a computationally efficient and robust manner so that they can be used for large-scale analyses, and evaluate them in comparison to existing statistical approaches under realistic scenarios. The first approach, called the copula-based joint analysis of multiple phenotypes (C-JAMP) method, allows investigating genetic associations with multiple traits in a joint copula model and is evaluated for genetic association analyses of rare genetic variants with quantitative traits. The second approach, called the causal inference using estimating equations (CIEE) method, allows estimating and testing direct genetic effects in directed acyclic graphs, and is evaluated for association analyses of common genetic variants with quantitative and time-to-event traits. The results of extensive simulation studies show that both approaches yield unbiased and efficient parameter estimators and can improve the power of association tests in comparison to existing approaches, which yield invalid inference in many scenarios. For the second goal of this thesis, to identify novel genetic and transcriptomic markers associated with cardiometabolic traits, C-JAMP and CIEE are applied in two large-scale studies including genome- and transcriptome-wide data. In the analyses, several novel candidate markers and genes are identified, which highlights the merit of developing, evaluating, and implementing novel statistical approaches. R packages are available for both methods and enable their application in future studies.
20

Analyse und praktische Umsetzung unterschiedlicher Methoden des <i>Randomized Branch Sampling</i> / Analysis and practical application of different methods of the <i>Randomized Branch Sampling</i>

Cancino Cancino, Jorge Orlando 26 June 2003 (has links)
No description available.

Page generated in 0.0947 seconds