• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 83
  • 18
  • 13
  • 3
  • 3
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 148
  • 148
  • 148
  • 30
  • 25
  • 23
  • 20
  • 20
  • 19
  • 19
  • 18
  • 16
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Numerical Methods for Darcy Flow Problems with Rough and Uncertain Data

Hellman, Fredrik January 2017 (has links)
We address two computational challenges for numerical simulations of Darcy flow problems: rough and uncertain data. The rapidly varying and possibly high contrast permeability coefficient for the pressure equation in Darcy flow problems generally leads to irregular solutions, which in turn make standard solution techniques perform poorly. We study methods for numerical homogenization based on localized computations. Regarding the challenge of uncertain data, we consider the problem of forward propagation of uncertainty through a numerical model. More specifically, we consider methods for estimating the failure probability, or a point estimate of the cumulative distribution function (cdf) of a scalar output from the model. The issue of rough coefficients is discussed in Papers I–III by analyzing three aspects of the localized orthogonal decomposition (LOD) method. In Paper I, we define an interpolation operator that makes the localization error independent of the contrast of the coefficient. The conditions for its applicability are studied. In Paper II, we consider time-dependent coefficients and derive computable error indicators that are used to adaptively update the multiscale space. In Paper III, we derive a priori error bounds for the LOD method based on the Raviart–Thomas finite element. The topic of uncertain data is discussed in Papers IV–VI. The main contribution is the selective refinement algorithm, proposed in Paper IV for estimating quantiles, and further developed in Paper V for point evaluation of the cdf. Selective refinement makes use of a hierarchy of numerical approximations of the model and exploits computable error bounds for the random model output to reduce the cost complexity. It is applied in combination with Monte Carlo and multilevel Monte Carlo methods to reduce the overall cost. In Paper VI we quantify the gains from applying selective refinement to a two-phase Darcy flow problem.
102

Ocenění společnosti König-Porzellan Sokolov, spol. s r.o. / Evaluation of König-Porzellan Sokolov, spol. s r.o.

Hájek, Jan January 2015 (has links)
This diploma thesis, entitled as evaluation of König-Porzellan Limited company, Sokolov, Czech Republic, aims to determine the objectified value of the König-Porzellan, Limited company to the date of December 31, 2015. This research is proceed especially for the needs of management and owners of the company. The work is divided into four main parts. The first part consists of the introduction, setting out the objectives and main preconditions for the creation of the work, as well as theoretical and methodological part which presents the methodology for individual instruments involved in the work. This is followed by a practical part, which contains the presentation of the award-winning company, defining the company's position in the market through strategic analysis. The economy aspect of the company will be represented by financial analysis. After compilation of the financial plan for the period 2015 - 2020 to approach to the actual evaluation of the company using the yield discounted cash flow method variant FCFF. The total value of the company to date of December 31, 2015 is 105 177 CZK. This value is further analyzed by Monte Carlo simulations.
103

Quelques problèmes liés à l'erreur statistique en homogénéisation stochastique / Some problems related to statistical error in stochastic homogenization

Minvielle, William 25 September 2015 (has links)
Le travail de cette thèse a porté sur le développement de techniques numériques pour l'homogénéisation d'équations dont les coefficients présentent des hétérogénéités aléatoires à petite échelle. Les difficultés liées à la résolution de telles équations aux dérivées partielles peuvent être résolues grâce à la théorie de l'homogénéisation stochastique. On substitue alors la résolution d'une équation dont les coefficients sont aléatoires et oscillants à l'échelle la plus fine du problème par la résolution d'une équation à coefficients constants. Cependant, une difficulté subsiste : le calcul de ces coefficients dits homogénéisés sont définis par une moyenne ergodique, que l'on ne peut atteindre en pratique. Seuls des approximations aléatoires de ces quantités déterministes sont calculables, et l'erreur commise lors de l'approximation est importante. Ces questions sont développées en détail dans le Chapitre 1 qui tient lieu d'introduction. L'objet du Chapitre 2 de cette thèse est de réduire l'erreur de cette approximation dans un cas nonlinéaire, en réduisant la variance de l'estimateur par la méthode des variables antithétiques. Dans le Chapitre 3, on montre comment obtenir une meilleure réduction de variance par la méthode des vari- ables de contrôle. Cette approche repose sur un modèle approché, disponible dans le cas étudié. Elle est plus invasive et moins générique, on l'étudie dans un cas linéaire. Dans le Chapitre 4, à nouveau dans un cas linéaire, on introduit une méthode de sélection pour réduire l'erreur commise. Enfin, le Chapitre 5 porte sur l'analyse d'un problème in- verse, où l'on recherche des paramètres à l'échelle la plus fine, ne connaissant que quelques quantités macroscopiques, par exemple les coefficients homogénéisés du modèle / In this thesis, we design numerical techniques to address the homogenization of equations the coefficients of which exhibit small scale random heterogeneities. Solving such elliptic partial differential equations is prohibitively expensive. One may use stochastic homogenization theory to reduce the complexity of this task. We then substitute the random, fine scale oscillating coefficients of the equation with constant homogenized coefficients. These coefficients are defined through an ergodic average inaccessible to practical computation. Only random approximations thereof are available. The error committed in this approximation is significant. These issues are detailed in the introductory Chapter 1. In Chapter 2, we show how to reduce the error in this approximation, in a nonlinear case, by using an antithetic variable estimator that has a smaller variance than the standard Monte Carlo estimator. In Chapter 3, in a linear case, we show how to obtain an even better variance reduction with the control variate method. Such a method is based on a surrogate model. In Chapter 4, we use a selection method to reduce the global error. Chapter 5 is devoted to the analysis of an inverse problem, wherein we seek parameters at the fine scale whilst only being provided with a handful of macroscopic quantities, among which the homogenized coefficients
104

Contributions aux méthodes de Monte Carlo et leur application au filtrage statistique / Contributions to Monte Carlo methods and their application to statistical filtering

Lamberti, Roland 22 November 2018 (has links)
Cette thèse s’intéresse au problème de l’inférence bayésienne dans les modèles probabilistes dynamiques. Plus précisément nous nous focalisons sur les méthodes de Monte Carlo pour l’intégration. Nous revisitons tout d’abord le mécanisme d’échantillonnage d’importance avec rééchantillonnage, puis son extension au cadre dynamique connue sous le nom de filtrage particulaire, pour enfin conclure nos travaux par une application à la poursuite multi-cibles.En premier lieu nous partons du problème de l’estimation d’un moment suivant une loi de probabilité, connue à une constante près, par une méthode de Monte Carlo. Tout d’abord,nous proposons un nouvel estimateur apparenté à l’estimateur d’échantillonnage d’importance normalisé mais utilisant deux lois de proposition différentes au lieu d’une seule. Ensuite,nous revisitons le mécanisme d’échantillonnage d’importance avec rééchantillonnage dans son ensemble afin de produire des tirages Monte Carlo indépendants, contrairement au mécanisme usuel, et nous construisons ainsi deux nouveaux estimateurs.Dans un second temps nous nous intéressons à l’aspect dynamique lié au problème d’inférence bayésienne séquentielle. Nous adaptons alors dans ce contexte notre nouvelle technique de rééchantillonnage indépendant développée précédemment dans un cadre statique.Ceci produit le mécanisme de filtrage particulaire avec rééchantillonnage indépendant, que nous interprétons comme cas particulier de filtrage particulaire auxiliaire. En raison du coût supplémentaire en tirages requis par cette technique, nous proposons ensuite une procédure de rééchantillonnage semi-indépendant permettant de le contrôler.En dernier lieu, nous considérons une application de poursuite multi-cibles dans un réseau de capteurs utilisant un nouveau modèle bayésien, et analysons empiriquement les résultats donnés dans cette application par notre nouvel algorithme de filtrage particulaire ainsi qu’un algorithme de Monte Carlo par Chaînes de Markov séquentiel / This thesis deals with integration calculus in the context of Bayesian inference and Bayesian statistical filtering. More precisely, we focus on Monte Carlo integration methods. We first revisit the importance sampling with resampling mechanism, then its extension to the dynamic setting known as particle filtering, and finally conclude our work with a multi-target tracking application. Firstly, we consider the problem of estimating some moment of a probability density, known up to a constant, via Monte Carlo methodology. We start by proposing a new estimator affiliated with the normalized importance sampling estimator but using two proposition densities rather than a single one. We then revisit the importance sampling with resampling mechanism as a whole in order to produce Monte Carlo samples that are independent, contrary to the classical mechanism, which enables us to develop two new estimators. Secondly, we consider the dynamic aspect in the framework of sequential Bayesian inference. We thus adapt to this framework our new independent resampling technique, previously developed in a static setting. This yields the particle filtering with independent resampling mechanism, which we reinterpret as a special case of auxiliary particle filtering. Because of the increased cost required by this technique, we next propose a semi independent resampling procedure which enables to control this additional cost. Lastly, we consider an application of multi-target tracking within a sensor network using a new Bayesian model, and empirically analyze the results from our new particle filtering algorithm as well as a sequential Markov Chain Monte Carlo algorithm
105

Computing strategies for complex Bayesian models / Stratégies computationnelles pour des modèles Bayésiens complexes

Banterle, Marco 21 July 2016 (has links)
Cette thèse présente des contributions à la littérature des méthodes de Monte Carlo utilisé dans l'analyse des modèles complexes en statistique Bayésienne; l'accent est mis à la fois sur la complexité des modèles et sur les difficultés de calcul.Le premier chapitre élargit Delayed Acceptance, une variante computationellement efficace du Metropolis--Hastings, et agrandit son cadre théorique fournissant une justification adéquate pour la méthode, des limits pour sa variance asymptotique par rapport au Metropolis--Hastings et des idées pour le réglage optimal de sa distribution instrumentale.Nous allons ensuite développer une méthode Bayésienne pour analyser les processus environnementaux non stationnaires, appelées Expansion Dimension, qui considère le processus observé comme une projection depuis une dimension supérieure, où l'hypothèse de stationnarité pourrait etre acceptée. Le dernier chapitre sera finalement consacrée à l'étude des structures de dépendances conditionnelles par une formulation entièrement Bayésienne du modèle de Copule Gaussien graphique. / This thesis presents contributions to the Monte Carlo literature aimed toward the analysis of complex models in Bayesian Statistics; the focus is on both complexity related to complicate models and computational difficulties.We will first expand Delayed Acceptance, a computationally efficient variant ofMetropolis--Hastings, to a multi-step procedure and enlarge its theoretical background, providing proper justification for the method, asymptotic variance bounds relative to its parent MH kernel and optimal tuning for the scale of its proposal.We will then develop a flexible Bayesian method to analyse nonlinear environmentalprocesses, called Dimension Expansion, that essentially consider the observed process as a projection from a higher dimension, where the assumption of stationarity could hold.The last chapter will finally be dedicated to the investigation of conditional (in)dependence structures via a fully Bayesian formulation of the Gaussian Copula graphical model.
106

Couverture d'options dans un marché avec impact et schémas numériques pour les EDSR basés sur des systèmes de particules / Hedging of options with market impact and Numerical schemes of BSDEs using particle systems

Zou, Yiyi 09 October 2017 (has links)
La théorie classique de la valorisation des produits dérivés se repose sur l'absence de coûts de transaction et une liquidité infinie. Ces hypothèses sont toutefois ne plus véridiques dans le marché réel, en particulier quand la transaction est grande et les actifs non-liquides. Dans ce marché imparfait, on parle du prix de sur-réplication puisque la couverture parfaite est devenue parfois infaisable.La première partie de cette thèse se concentre sur la proposition d’un modèle qui intègre à la fois le coût de transaction et l’impact sur le prix du sous-jacent. Nous commençons par déduire la dynamique de l’actif en temps continu en tant que la limite de la dynamique en temps discret. Sous la contrainte d’une position nulle sur l’actif au début et à la maturité, nous obtenons une équation quasi-linéaire pour le prix du dérivé, au sens de viscosité. Nous offrons la stratégie de couverture parfaite lorsque l’équation admet une solution régulière. Quant à la couverture d’une option européenne “covered” sous la contrainte gamma, le principe de programme dynamique utilisé précédemment n'est plus valide. En suivant les techniques du cible stochastique et de l’équation différentielle partielle, nous démontrons que le prix de la sur-réplication est devenue une solution de viscosité d’une équation non linéaire de type parabolique. Nous construisons également la stratégie ε-optimale, et proposons un schéma numérique.La deuxième partie de cette thèse est consacrée aux études sur un nouveau schéma numérique d'EDSR, basé sur le processus de branchement. Nous rapprochons tout d’abord le générateur Lipschitzien par une suite de polynômes locaux, puis appliquons l’itération de Picard. Chaque itération de Picard peut être représentée en termes de processus de branchement. Nous démontrons la convergence de notre schéma sur l’horizon temporel infini. Un exemple concret est discuté à la fin dans l’objectif d’illustrer la performance de notre algorithme. / Classical derivatives pricing theory assumes frictionless market and infinite liquidity. These assumptions are however easily violated in real market, especially for large trades and illiquid assets. In this imperfect market, one has to consider the super-replication price as perfect hedging becomes infeasible sometimes.The first part of this dissertation focuses on proposing a model incorporating both liquidity cost and price impact. We start by deriving continuous time trading dynamics as the limit of discrete rebalancing policies. Under the constraint of holding zero underlying stock at the inception and the maturity, we obtain a quasi-linear pricing equation in the viscosity sense. A perfect hedging strategy is provided as soons as the equation admits a smooth solution. When it comes to hedging a covered European option under gamma constraint, the dynamic programming principle employed previously is no longer valid. Using stochastic target and partial differential equation smoothing techniques, we prove the super-replication price now becomes the viscosity solution of a fully non-linear parabolic equation. We also show how ε-optimal strategies can be constructed, and propose a numerical resolution scheme.The second part is dedicated to the numerical resolution of the Backward Stochastic Differential Equation (BSDE). We propose a purely forward numerical scheme, which first approximates an arbitrary Lipschitz driver by local polynomials and then applies the Picard iteration to converge to the original solution. Each Picard iteration can be represented in terms of branching diffusion systems, thus avoiding the usual estimation of conditional expectation. We also prove the convergence on an unlimited time horizon. Numerical simulation is also provided to illustrate the performance of the algorithm.
107

Analyse und Simulation von Unsicherheiten in der flächendifferenzierten Niederschlags-Abfluss-Modellierung

Grundmann, Jens 03 April 2009 (has links)
Die deterministische Modellierung des Niederschlags-Abfluss(N-A)-Prozesses mit flächendifferenzierten, prozessbasierten Modellen ist von zahlreichen Unsicherheiten beeinflusst. Diese Unsicherheiten resultieren hauptsächlich aus den genutzten Daten, die Messfehlern unterliegen sowie für eine flächendifferenzierte Modellierung entsprechend aufbereitet werden müssen, und der Abstraktion der natürlichen Prozesse im Modell selbst. Da N-A-Modelle in der hydrologischen Praxis vielfältig eingesetzt werden, sind Zuverlässigkeitsaussagen im Hinblick auf eine spezielle Anwendung nötig, um das Vertrauen in die Modellergebnisse zu festigen. Die neu entwickelte Strategie zur Analyse und Simulation der Unsicherheiten eines flächendifferenzierten, prozessbasierten N-A-Modells ermöglicht eine umfassende, globale und komponentenbasierte Unsicherheitsbestimmung. Am Beispiel des mesoskaligen Einzugsgebiets der Schwarzen Pockau/Pegel Zöblitz im mittleren Erzgebirge wird der Einfluss maßgebender Unsicherheiten im N-A-Prozess sowie deren Kombination zu einer Gesamt-Unsicherheit auf den Gebietsabfluss aufgezeigt. Zunächst werden die maßgebenden Unsicherheiten separat quantifiziert, wobei die folgenden Methoden eingesetzt werden: (i) Monte-Carlo Simulationen mit flächendifferenzierten stochastischen Bodenparametern zur Analyse des Einflusses unsicherer Bodeninformationen, (ii) Bayes’sche Inferenz und Markov-Ketten-Monte-Carlo Simulationen, die eine Unsicherheitsbestimmung der konzeptionellen Modellparameter der Abflussbildung und -konzentration ermöglichen und (iii) Monte-Carlo Simulationen mit stochastisch generierten Niederschlagsfeldern, die die raum-zeitliche Variabilität interpolierter Niederschlagsdaten beschreiben. Die Kombination der Unsicherheiten zu einer hydrologischen Unsicherheit und einer Gesamt-Unsicherheit erfolgt ebenfalls mit Monte-Carlo Methoden. Dieses Vorgehen ermöglicht die Korrelationen der Zufallsvariablen zu erfassen und die mehrdimensionale Abhängigkeitsstruktur innerhalb der Zufallsvariablen empirisch zu beschreiben. Die Ergebnisse zeigen für das Untersuchungsgebiet eine Dominanz der Unsicherheit aus der raum-zeitlichen Niederschlagsverteilung im Gebietsabfluss gefolgt von den Unsicherheiten aus den Bodeninformationen und den konzeptionellen Modellparametern. Diese Dominanz schlägt sich auch in der Gesamt-Unsicherheit nieder. Die aus Messdaten abgeleiteten Unsicherheiten weisen eine Heteroskedastizität auf, die durch den Prozessablauf geprägt ist. Weiterhin sind Indizien für eine Abhängigkeit der Unsicherheit von der Niederschlagsintensität sowie strukturelle Defizite des N-A-Modells sichtbar. Die neu entwickelte Strategie ist prinzipiell auf andere Gebiete und Modelle übertragbar. / Modelling rainfall-runoff (R-R) processes using deterministic, spatial distributed, process-based models is affected by numerous uncertainties. One major source of these uncertainties origins from measurement errors together with the errors occurring in the process of data processing. Inadequate representation of the governing processes in the model with respect to a given application is another source of uncertainty. Considering that R-R models are commonly used in the hydrologic practise a quantification of the uncertainties is essential for a realistic interpretation of the model results. The presented new framework allows for a comprehensive, total as well as component-based estimation of the uncertainties of model results from spatial distributed, process-based R-R modelling. The capabilities of the new framework to estimate the influence of the main sources of uncertainties as well as their combination to a total uncertainty is shown and analysed at the mesoscale catchment of the Schwarze Pockau of the Ore Mountains. The approach employs the following methods to quantify the uncertainties: (i) Monte Carlo simulations using spatial distributed stochastic soil parameters allow for the analysis of the impact of uncertain soil data (ii) Bayesian inference und Markov Chain Monte Carlo simulations, yield an estimate of the uncertainty of the conceptual model parameters governing the runoff formation and - concentration processes. (iii) Monte Carlo simulations using stochastically generated rainfall patterns describing the spatiotemporal variability of interpolated rainfall data. Monte Carlo methods are also employed to combine the single sources of uncertainties to a hydrologic uncertainty and a total uncertainty. This approach accounts for the correlations between the random variables as well as an empirical description of their multidimensional dependence structure. The example application shows a dominance of the uncertainty resulting from the spatio-temporal rainfall distribution followed by the uncertainties from the soil data and the conceptual model parameters with respect to runoff. This dominance is also reflected in the total uncertainty. The uncertainties derived from the data show a heteroscedasticity which is dominated by the process. Furthermore, the degree of uncertainty seems to depend on the rainfall intensity. The analysis of the uncertainties also indicates structural deficits of the R-R model. The developed framework can principally be transferred to other catchments as well as to other R-R models.
108

Ninomiya-Victoir scheme : strong convergence, asymptotics for the normalized error and multilevel Monte Carlo methods / Schéma de Ninomiya Victoir : convergence forte, asymptotiques pour l'erreur renomalisée et méthodes de Monte Carlo multi-pas

Al Gerbi, Anis 10 October 2016 (has links)
Cette thèse est consacrée à l'étude des propriétés de convergence forte du schéma de Ninomiya et Victoir. Les auteurs de ce schéma proposent d'approcher la solution d'une équation différentielle stochastique (EDS), notée $X$, en résolvant $d+1$ équations différentielles ordinaires (EDOs) sur chaque pas de temps, où $d$ est la dimension du mouvement brownien. Le but de cette étude est d'analyser l'utilisation de ce schéma dans une méthode de Monte-Carlo multi-pas. En effet, la complexité optimale de cette méthode est dirigée par l'ordre de convergence vers $0$ de la variance entre les schémas utilisés sur la grille grossière et sur la grille fine. Cet ordre de convergence est lui-même lié à l'ordre de convergence fort entre les deux schémas. Nous montrons alors dans le chapitre $2$, que l'ordre fort du schéma de Ninomiya-Victoir, noté $X^{NV,eta}$ et de pas de temps $T/N$, est $1/2$. Récemment, Giles et Szpruch ont proposé un estimateur Monte-Carlo multi-pas réalisant une complexité $Oleft(epsilon^{-2}right)$ à l'aide d'un schéma de Milstein modifié. Dans le même esprit, nous proposons un schéma de Ninomiya-Victoir modifié qui peut-être couplé à l'ordre fort $1$ avec le schéma de Giles et Szpruch au dernier niveau d'une méthode de Monte-Carlo multi-pas. Cette idée est inspirée de Debrabant et Rossler. Ces auteurs suggèrent d'utiliser un schéma d'ordre faible élevé au niveau de discrétisation le plus fin. Puisque le nombre optimal de niveaux de discrétisation d'une méthode de Monte-Carlo multi-pas est dirigé par l'erreur faible du schéma utilisé sur la grille fine du dernier niveau de discrétisation, cette technique permet d'accélérer la convergence de la méthode Monte-Carlo multi-pas en obtenant une approximation d'ordre faible élevé. L'utilisation du couplage à l'ordre $1$ avec le schéma de Giles-Szpruch nous permet ainsi de garder un estimateur Monte-Carlo multi-pas réalisant une complexité optimale $Oleft( epsilon^{-2} right)$ tout en profitant de l'erreur faible d'ordre $2$ du schéma de Ninomiya-Victoir. Dans le troisième chapitre, nous nous sommes intéressés à l'erreur renormalisée définie par $sqrt{N}left(X - X^{NV,eta}right)$. Nous montrons la convergence en loi stable vers la solution d'une EDS affine, dont le terme source est formé des crochets de Lie entre les champs de vecteurs browniens. Ainsi, lorsqu'au moins deux champs de vecteurs browniens ne commutent pas, la limite n'est pas triviale. Ce qui assure que l'ordre fort $1/2$ est optimal. D'autre part, ce résultat peut être vu comme une première étape en vue de prouver un théorème de la limite centrale pour les estimateurs Monte-Carlo multi-pas. Pour cela, il faut analyser l'erreur en loi stable du schéma entre deux niveaux de discrétisation successifs. Ben Alaya et Kebaier ont prouvé un tel résultat pour le schéma d'Euler. Lorsque les champs de vecteurs browniens commutent, le processus limite est nul. Nous montrons que dans ce cas précis, que l'ordre fort est $1$. Dans le chapitre 4, nous étudions la convergence en loi stable de l'erreur renormalisée $Nleft(X - X^{NV}right)$ où $X^{NV}$ est le schéma de Ninomiya-Victoir lorsque les champs de vecteurs browniens commutent. Nous démontrons la convergence du processus d'erreur renormalisé vers la solution d'une EDS affine. Lorsque le champ de vecteurs dritf ne commute pas avec au moins un des champs de vecteurs browniens, la vitesse de convergence forte obtenue précédemment est optimale / This thesis is dedicated to the study of the strong convergence properties of the Ninomiya-Victoir scheme, which is based on the resolution of $d+1$ ordinary differential equations (ODEs) at each time step, to approximate the solution to a stochastic differential equation (SDE), where $d$ is the dimension of the Brownian. This study is aimed at analysing the use of this scheme in a multilevel Monte Carlo estimator. Indeed, the optimal complexity of this method is driven by the order of convergence to zero of the variance between the two schemes used on the coarse and fine grids at each level, which is related to the strong convergence order between the two schemes. In the second chapter, we prove strong convergence with order $1/2$ of the Ninomiya-Victoir scheme $X^{NV,eta}$, with time step $T/N$, to the solution $X$ of the limiting SDE. Recently, Giles and Szpruch proposed a modified Milstein scheme and its antithetic version, based on the swapping of each successive pair of Brownian increments in the scheme, permitting to construct a multilevel Monte Carlo estimator achieving the optimal complexity $Oleft(epsilon^{-2}right)$ for the precision $epsilon$, as in a simple Monte Carlo method with independent and identically distributed unbiased random variables. In the same spirit, we propose a modified Ninomiya-Victoir scheme, which may be strongly coupled with order $1$ to the Giles-Szpruch scheme at the finest level of a multilevel Monte Carlo estimator. This idea is inspired by Debrabant and R"ossler who suggest to use a scheme with high order of weak convergence on the finest grid at the finest level of the multilevel Monte Carlo method. As the optimal number of discretization levels is related to the weak order of the scheme used in the finest grid at the finest level, Debrabant and R"ossler manage to reduce the computational time, by decreasing the number of discretization levels. The coupling with the Giles-Szpruch scheme allows us to combine both ideas. By this way, we preserve the optimal complexity $Oleft(epsilon^{-2}right)$ and we reduce the computational time, since the Ninomiya-Victoir scheme is known to exhibit weak convergence with order 2. In the third chapter, we check that the normalized error defined by $sqrt{N}left(X - X^{NV,eta}right)$ converges to an affine SDE with source terms involving the Lie brackets between the Brownian vector fields. This result ensures that the strong convergence rate is actually $1/2$ when at least two Brownian vector fields do not commute. To link this result to the multilevel Monte Carlo estimator, it can be seen as a first step to adapt to the Ninomiya-Victoir scheme the central limit theorem of Lindeberg Feller type, derived recently by Ben Alaya and Kebaier for the multilevel Monte Carlo estimator based on the Euler scheme. When the Brownian vector fields commute, the limit vanishes. We then prove strong convergence with order $1$ in this case. The fourth chapter deals with the convergence of the normalized error process $Nleft(X - X^{NV}right)$, where $X^{NV}$ is the Ninomiya-Victoir in the commutative case. We prove its stable convergence in law to an affine SDE with source terms involving the Lie brackets between the Brownian vector fields and the drift vector field. This result ensures that the strong convergence rate is actually $1$ when the Brownian vector fields commute, but at least one of them does not commute with the Stratonovich drift vector field
109

Méthodes numériques pour la simulation d'équations aux dérivées partielles stochastiques non-linéaires en condensation de Bose-Einstein / Numerical methods for the simulation of nonlinear stochastic partial differential equations in Bose-Einstein condensation

Poncet, Romain 02 October 2017 (has links)
Cette thèse porte sur l'étude de méthodes numériques pour l'analyse de deux modèles stochastiques apparaissant dans le contexte de la condensation de Bose-Einstein. Ceux-ci constituent deux généralisations de l'équation de Gross-Pitaevskii. Cette équation aux dérivées partielles déterministe modélise la dynamique de la fonction d'onde d'un condensat de Bose-Einstein piégé par un potentiel extérieur confinant.Le premier modèle étudié permet de modéliser les fluctuations de l'intensité du potentiel confinant et prend la forme d'une équation aux dérivées partielles stochastiques. Celles-ci conduisent en pratique à un échauffement du condensat, et parfois mêmeà son effondrement. Nous proposons dans un premier chapitre la construction d'un schéma numérique pour la résolution de ce modèle. Il est fondé sur une discrétisation spectrale en espace, et une discrétisation temporelle de type Crank-Nicolson. Nous démontrons que le schéma proposé converge fortement en probabilité à l'ordre au moins 1 en temps, et nous présentons des simulations numériques illustrant ce résultat. Le deuxième chapitre est consacré à l'étude théorique et numérique de la dynamique d'une solution stationnaire (pour l'équation déterministe) de type vortex. Nous étudions l'influence des perturbations aléatoires du potentiel sur la solution, et montrons que la solution perturbée garde les symétries de la solution stationnaire pour des temps au moins de l'ordre du carré de l'inverse de l'intensité des fluctuations. Ces résultats sont illustrés par des simulations numériques exploitant une méthode de Monte-Carlo adaptée à la simulation d'événements rares.Le deuxième modèle permet de modéliser les effets de la température sur la dynamique d'un condensat. Lorsque celle-ci n'est pas nulle, la condensation n'est pas complète et le condensat interagit avec les particules non condensées. Ces interactions sont d'un grand intérêt pour comprendre la dynamique de transition de phase et analyser les phénomènes de brisure de symétrie associés, comme la formation spontanée de vortex. Nous nous sommes intéressés dans les chapitres 3 et 4 à des questions relatives à la simulation de la distribution des solutions de cette équation en temps long. Le troisième chapitre est consacré à la construction d'une méthode d’échantillonnage sans biais pour des mesures connues à une constante multiplicative près. C'est une méthode de Monte Carlo par chaînes de Markov qui a la particularité de permettre un échantillonnage non-réversible basé sur une équation de type Langevin sur-amortie. Elle constitue une extension de Metropolis-Adjusted Langevin Algorithm (MALA). Le quatrième chapitre est quant à lui consacré à l'étude numérique de dynamiques métastables liées à la nucléation de vortex dans des condensats en rotation. Un intégrateur numérique pour la dynamique étudiée est proposé, ainsi qu'une méthode de Monte-Carlo adaptée à la simulation d'événements rares correspondant aux changements de configurations métastables. Cette dernière est basée sur l'algorithme Adaptive Multilevel Splitting (AMS). / This thesis is devoted to the numerical study of two stochastic models arising in Bose-Einstein condensation physics. They constitute two generalisations of the Gross-Pitaevskii Equation. This deterministic partial differential equation model the wave function dynamics of a Bose-Einstein condensate trapped in an external confining potential. The first chapter contains a simple presentation of the Bose-Einstein condensation phenomenon and of the experimental methods used to construct such systems.The first model considered enables to model the fluctuations of the confining potential intensity, and takes the form of a stochastic partial differential equation. In practice, these fluctuations lead to heating of the condensate and possibly to its collapse. In the second chapter we propose to build a numerical scheme to solve this model. It is based on a spectral space discretisation and a Crank-Nicolson discretisation in space. We show that the proposed scheme converges strongly at order at least one in probability. We also present numerical simulations to illustrate this result. The third chapter is devoted to the numerical and theoretical study of the dynamics of a stationary solution (for the deterministic equation) of vortex type. We study the influence of random disturbances of the confining potential on the solution. We show that the disturbed solution conserves the symmetries of the stationary solution for times up to at least the square of the inverse of the fluctuations intensity. These results are illustrated with numerical simulations based on a Monte-Carlo method suited to rare events estimation.The second model can be used to model the effects of the temperature on the dynamics of a Bose-Einstein condensate. In the case of finite temperature, the Bose-Einstein condensation is not complete and the condensate interacts with the non-condensed particles. These interactions are interesting to understand the dynamics of the phase transition and analyse the phenomena of symmetry breaking associated, like the spontaneous nucleation of vortices We have studied in the fourth and the fifth chapters some questions linked to the long time simulation of this model solutions. The fourth chapter is devoted to the construction of an unbiased sampling method of measures known up to a multiplicative constant. The distinctive feature of this Markov-Chain Monte-Carlo algorithm is that it enables to perform an unbiased non-reversible sampling based on an overdamped Langevin equation. It constitutes a generalization of the Metropolis-Adjusted Langevin Algorithm (MALA). The fifth chapter is devoted to the numerical study of metastable dynamics linked to the nucleation of vortices in rotating Bose-Einstein condensates. A numerical integrator and a suited Monte-Carlo methods for the simulation of metastable dynamics are proposed. This Monte-Carlo method is based on the Adaptive Multilevel Splitting (AMS) algorithm.
110

Option pricing with Quadratic Rough Heston Model

Dushkina, Marina January 2023 (has links)
In this thesis, we study the quadratic rough Heston model and the corresponding simulation methods. We calibrate the model using real-world market data. We compare and implement the three commonly used schemes (Hybrid, Multifactor, and Multifactor hybrid). We calibrate the model using real-world market SPX data. To speed up calibration, we apply quasi-Monte Carlo methods. We study the effect of the various calibration parameters on the volatility smile.

Page generated in 0.3289 seconds