• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 82
  • 18
  • 13
  • 3
  • 3
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 143
  • 143
  • 143
  • 29
  • 25
  • 23
  • 20
  • 19
  • 19
  • 19
  • 18
  • 16
  • 15
  • 15
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Couverture d'options dans un marché avec impact et schémas numériques pour les EDSR basés sur des systèmes de particules / Hedging of options with market impact and Numerical schemes of BSDEs using particle systems

Zou, Yiyi 09 October 2017 (has links)
La théorie classique de la valorisation des produits dérivés se repose sur l'absence de coûts de transaction et une liquidité infinie. Ces hypothèses sont toutefois ne plus véridiques dans le marché réel, en particulier quand la transaction est grande et les actifs non-liquides. Dans ce marché imparfait, on parle du prix de sur-réplication puisque la couverture parfaite est devenue parfois infaisable.La première partie de cette thèse se concentre sur la proposition d’un modèle qui intègre à la fois le coût de transaction et l’impact sur le prix du sous-jacent. Nous commençons par déduire la dynamique de l’actif en temps continu en tant que la limite de la dynamique en temps discret. Sous la contrainte d’une position nulle sur l’actif au début et à la maturité, nous obtenons une équation quasi-linéaire pour le prix du dérivé, au sens de viscosité. Nous offrons la stratégie de couverture parfaite lorsque l’équation admet une solution régulière. Quant à la couverture d’une option européenne “covered” sous la contrainte gamma, le principe de programme dynamique utilisé précédemment n'est plus valide. En suivant les techniques du cible stochastique et de l’équation différentielle partielle, nous démontrons que le prix de la sur-réplication est devenue une solution de viscosité d’une équation non linéaire de type parabolique. Nous construisons également la stratégie ε-optimale, et proposons un schéma numérique.La deuxième partie de cette thèse est consacrée aux études sur un nouveau schéma numérique d'EDSR, basé sur le processus de branchement. Nous rapprochons tout d’abord le générateur Lipschitzien par une suite de polynômes locaux, puis appliquons l’itération de Picard. Chaque itération de Picard peut être représentée en termes de processus de branchement. Nous démontrons la convergence de notre schéma sur l’horizon temporel infini. Un exemple concret est discuté à la fin dans l’objectif d’illustrer la performance de notre algorithme. / Classical derivatives pricing theory assumes frictionless market and infinite liquidity. These assumptions are however easily violated in real market, especially for large trades and illiquid assets. In this imperfect market, one has to consider the super-replication price as perfect hedging becomes infeasible sometimes.The first part of this dissertation focuses on proposing a model incorporating both liquidity cost and price impact. We start by deriving continuous time trading dynamics as the limit of discrete rebalancing policies. Under the constraint of holding zero underlying stock at the inception and the maturity, we obtain a quasi-linear pricing equation in the viscosity sense. A perfect hedging strategy is provided as soons as the equation admits a smooth solution. When it comes to hedging a covered European option under gamma constraint, the dynamic programming principle employed previously is no longer valid. Using stochastic target and partial differential equation smoothing techniques, we prove the super-replication price now becomes the viscosity solution of a fully non-linear parabolic equation. We also show how ε-optimal strategies can be constructed, and propose a numerical resolution scheme.The second part is dedicated to the numerical resolution of the Backward Stochastic Differential Equation (BSDE). We propose a purely forward numerical scheme, which first approximates an arbitrary Lipschitz driver by local polynomials and then applies the Picard iteration to converge to the original solution. Each Picard iteration can be represented in terms of branching diffusion systems, thus avoiding the usual estimation of conditional expectation. We also prove the convergence on an unlimited time horizon. Numerical simulation is also provided to illustrate the performance of the algorithm.
102

Analyse und Simulation von Unsicherheiten in der flächendifferenzierten Niederschlags-Abfluss-Modellierung

Grundmann, Jens 03 April 2009 (has links)
Die deterministische Modellierung des Niederschlags-Abfluss(N-A)-Prozesses mit flächendifferenzierten, prozessbasierten Modellen ist von zahlreichen Unsicherheiten beeinflusst. Diese Unsicherheiten resultieren hauptsächlich aus den genutzten Daten, die Messfehlern unterliegen sowie für eine flächendifferenzierte Modellierung entsprechend aufbereitet werden müssen, und der Abstraktion der natürlichen Prozesse im Modell selbst. Da N-A-Modelle in der hydrologischen Praxis vielfältig eingesetzt werden, sind Zuverlässigkeitsaussagen im Hinblick auf eine spezielle Anwendung nötig, um das Vertrauen in die Modellergebnisse zu festigen. Die neu entwickelte Strategie zur Analyse und Simulation der Unsicherheiten eines flächendifferenzierten, prozessbasierten N-A-Modells ermöglicht eine umfassende, globale und komponentenbasierte Unsicherheitsbestimmung. Am Beispiel des mesoskaligen Einzugsgebiets der Schwarzen Pockau/Pegel Zöblitz im mittleren Erzgebirge wird der Einfluss maßgebender Unsicherheiten im N-A-Prozess sowie deren Kombination zu einer Gesamt-Unsicherheit auf den Gebietsabfluss aufgezeigt. Zunächst werden die maßgebenden Unsicherheiten separat quantifiziert, wobei die folgenden Methoden eingesetzt werden: (i) Monte-Carlo Simulationen mit flächendifferenzierten stochastischen Bodenparametern zur Analyse des Einflusses unsicherer Bodeninformationen, (ii) Bayes’sche Inferenz und Markov-Ketten-Monte-Carlo Simulationen, die eine Unsicherheitsbestimmung der konzeptionellen Modellparameter der Abflussbildung und -konzentration ermöglichen und (iii) Monte-Carlo Simulationen mit stochastisch generierten Niederschlagsfeldern, die die raum-zeitliche Variabilität interpolierter Niederschlagsdaten beschreiben. Die Kombination der Unsicherheiten zu einer hydrologischen Unsicherheit und einer Gesamt-Unsicherheit erfolgt ebenfalls mit Monte-Carlo Methoden. Dieses Vorgehen ermöglicht die Korrelationen der Zufallsvariablen zu erfassen und die mehrdimensionale Abhängigkeitsstruktur innerhalb der Zufallsvariablen empirisch zu beschreiben. Die Ergebnisse zeigen für das Untersuchungsgebiet eine Dominanz der Unsicherheit aus der raum-zeitlichen Niederschlagsverteilung im Gebietsabfluss gefolgt von den Unsicherheiten aus den Bodeninformationen und den konzeptionellen Modellparametern. Diese Dominanz schlägt sich auch in der Gesamt-Unsicherheit nieder. Die aus Messdaten abgeleiteten Unsicherheiten weisen eine Heteroskedastizität auf, die durch den Prozessablauf geprägt ist. Weiterhin sind Indizien für eine Abhängigkeit der Unsicherheit von der Niederschlagsintensität sowie strukturelle Defizite des N-A-Modells sichtbar. Die neu entwickelte Strategie ist prinzipiell auf andere Gebiete und Modelle übertragbar. / Modelling rainfall-runoff (R-R) processes using deterministic, spatial distributed, process-based models is affected by numerous uncertainties. One major source of these uncertainties origins from measurement errors together with the errors occurring in the process of data processing. Inadequate representation of the governing processes in the model with respect to a given application is another source of uncertainty. Considering that R-R models are commonly used in the hydrologic practise a quantification of the uncertainties is essential for a realistic interpretation of the model results. The presented new framework allows for a comprehensive, total as well as component-based estimation of the uncertainties of model results from spatial distributed, process-based R-R modelling. The capabilities of the new framework to estimate the influence of the main sources of uncertainties as well as their combination to a total uncertainty is shown and analysed at the mesoscale catchment of the Schwarze Pockau of the Ore Mountains. The approach employs the following methods to quantify the uncertainties: (i) Monte Carlo simulations using spatial distributed stochastic soil parameters allow for the analysis of the impact of uncertain soil data (ii) Bayesian inference und Markov Chain Monte Carlo simulations, yield an estimate of the uncertainty of the conceptual model parameters governing the runoff formation and - concentration processes. (iii) Monte Carlo simulations using stochastically generated rainfall patterns describing the spatiotemporal variability of interpolated rainfall data. Monte Carlo methods are also employed to combine the single sources of uncertainties to a hydrologic uncertainty and a total uncertainty. This approach accounts for the correlations between the random variables as well as an empirical description of their multidimensional dependence structure. The example application shows a dominance of the uncertainty resulting from the spatio-temporal rainfall distribution followed by the uncertainties from the soil data and the conceptual model parameters with respect to runoff. This dominance is also reflected in the total uncertainty. The uncertainties derived from the data show a heteroscedasticity which is dominated by the process. Furthermore, the degree of uncertainty seems to depend on the rainfall intensity. The analysis of the uncertainties also indicates structural deficits of the R-R model. The developed framework can principally be transferred to other catchments as well as to other R-R models.
103

Ninomiya-Victoir scheme : strong convergence, asymptotics for the normalized error and multilevel Monte Carlo methods / Schéma de Ninomiya Victoir : convergence forte, asymptotiques pour l'erreur renomalisée et méthodes de Monte Carlo multi-pas

Al Gerbi, Anis 10 October 2016 (has links)
Cette thèse est consacrée à l'étude des propriétés de convergence forte du schéma de Ninomiya et Victoir. Les auteurs de ce schéma proposent d'approcher la solution d'une équation différentielle stochastique (EDS), notée $X$, en résolvant $d+1$ équations différentielles ordinaires (EDOs) sur chaque pas de temps, où $d$ est la dimension du mouvement brownien. Le but de cette étude est d'analyser l'utilisation de ce schéma dans une méthode de Monte-Carlo multi-pas. En effet, la complexité optimale de cette méthode est dirigée par l'ordre de convergence vers $0$ de la variance entre les schémas utilisés sur la grille grossière et sur la grille fine. Cet ordre de convergence est lui-même lié à l'ordre de convergence fort entre les deux schémas. Nous montrons alors dans le chapitre $2$, que l'ordre fort du schéma de Ninomiya-Victoir, noté $X^{NV,eta}$ et de pas de temps $T/N$, est $1/2$. Récemment, Giles et Szpruch ont proposé un estimateur Monte-Carlo multi-pas réalisant une complexité $Oleft(epsilon^{-2}right)$ à l'aide d'un schéma de Milstein modifié. Dans le même esprit, nous proposons un schéma de Ninomiya-Victoir modifié qui peut-être couplé à l'ordre fort $1$ avec le schéma de Giles et Szpruch au dernier niveau d'une méthode de Monte-Carlo multi-pas. Cette idée est inspirée de Debrabant et Rossler. Ces auteurs suggèrent d'utiliser un schéma d'ordre faible élevé au niveau de discrétisation le plus fin. Puisque le nombre optimal de niveaux de discrétisation d'une méthode de Monte-Carlo multi-pas est dirigé par l'erreur faible du schéma utilisé sur la grille fine du dernier niveau de discrétisation, cette technique permet d'accélérer la convergence de la méthode Monte-Carlo multi-pas en obtenant une approximation d'ordre faible élevé. L'utilisation du couplage à l'ordre $1$ avec le schéma de Giles-Szpruch nous permet ainsi de garder un estimateur Monte-Carlo multi-pas réalisant une complexité optimale $Oleft( epsilon^{-2} right)$ tout en profitant de l'erreur faible d'ordre $2$ du schéma de Ninomiya-Victoir. Dans le troisième chapitre, nous nous sommes intéressés à l'erreur renormalisée définie par $sqrt{N}left(X - X^{NV,eta}right)$. Nous montrons la convergence en loi stable vers la solution d'une EDS affine, dont le terme source est formé des crochets de Lie entre les champs de vecteurs browniens. Ainsi, lorsqu'au moins deux champs de vecteurs browniens ne commutent pas, la limite n'est pas triviale. Ce qui assure que l'ordre fort $1/2$ est optimal. D'autre part, ce résultat peut être vu comme une première étape en vue de prouver un théorème de la limite centrale pour les estimateurs Monte-Carlo multi-pas. Pour cela, il faut analyser l'erreur en loi stable du schéma entre deux niveaux de discrétisation successifs. Ben Alaya et Kebaier ont prouvé un tel résultat pour le schéma d'Euler. Lorsque les champs de vecteurs browniens commutent, le processus limite est nul. Nous montrons que dans ce cas précis, que l'ordre fort est $1$. Dans le chapitre 4, nous étudions la convergence en loi stable de l'erreur renormalisée $Nleft(X - X^{NV}right)$ où $X^{NV}$ est le schéma de Ninomiya-Victoir lorsque les champs de vecteurs browniens commutent. Nous démontrons la convergence du processus d'erreur renormalisé vers la solution d'une EDS affine. Lorsque le champ de vecteurs dritf ne commute pas avec au moins un des champs de vecteurs browniens, la vitesse de convergence forte obtenue précédemment est optimale / This thesis is dedicated to the study of the strong convergence properties of the Ninomiya-Victoir scheme, which is based on the resolution of $d+1$ ordinary differential equations (ODEs) at each time step, to approximate the solution to a stochastic differential equation (SDE), where $d$ is the dimension of the Brownian. This study is aimed at analysing the use of this scheme in a multilevel Monte Carlo estimator. Indeed, the optimal complexity of this method is driven by the order of convergence to zero of the variance between the two schemes used on the coarse and fine grids at each level, which is related to the strong convergence order between the two schemes. In the second chapter, we prove strong convergence with order $1/2$ of the Ninomiya-Victoir scheme $X^{NV,eta}$, with time step $T/N$, to the solution $X$ of the limiting SDE. Recently, Giles and Szpruch proposed a modified Milstein scheme and its antithetic version, based on the swapping of each successive pair of Brownian increments in the scheme, permitting to construct a multilevel Monte Carlo estimator achieving the optimal complexity $Oleft(epsilon^{-2}right)$ for the precision $epsilon$, as in a simple Monte Carlo method with independent and identically distributed unbiased random variables. In the same spirit, we propose a modified Ninomiya-Victoir scheme, which may be strongly coupled with order $1$ to the Giles-Szpruch scheme at the finest level of a multilevel Monte Carlo estimator. This idea is inspired by Debrabant and R"ossler who suggest to use a scheme with high order of weak convergence on the finest grid at the finest level of the multilevel Monte Carlo method. As the optimal number of discretization levels is related to the weak order of the scheme used in the finest grid at the finest level, Debrabant and R"ossler manage to reduce the computational time, by decreasing the number of discretization levels. The coupling with the Giles-Szpruch scheme allows us to combine both ideas. By this way, we preserve the optimal complexity $Oleft(epsilon^{-2}right)$ and we reduce the computational time, since the Ninomiya-Victoir scheme is known to exhibit weak convergence with order 2. In the third chapter, we check that the normalized error defined by $sqrt{N}left(X - X^{NV,eta}right)$ converges to an affine SDE with source terms involving the Lie brackets between the Brownian vector fields. This result ensures that the strong convergence rate is actually $1/2$ when at least two Brownian vector fields do not commute. To link this result to the multilevel Monte Carlo estimator, it can be seen as a first step to adapt to the Ninomiya-Victoir scheme the central limit theorem of Lindeberg Feller type, derived recently by Ben Alaya and Kebaier for the multilevel Monte Carlo estimator based on the Euler scheme. When the Brownian vector fields commute, the limit vanishes. We then prove strong convergence with order $1$ in this case. The fourth chapter deals with the convergence of the normalized error process $Nleft(X - X^{NV}right)$, where $X^{NV}$ is the Ninomiya-Victoir in the commutative case. We prove its stable convergence in law to an affine SDE with source terms involving the Lie brackets between the Brownian vector fields and the drift vector field. This result ensures that the strong convergence rate is actually $1$ when the Brownian vector fields commute, but at least one of them does not commute with the Stratonovich drift vector field
104

Méthodes numériques pour la simulation d'équations aux dérivées partielles stochastiques non-linéaires en condensation de Bose-Einstein / Numerical methods for the simulation of nonlinear stochastic partial differential equations in Bose-Einstein condensation

Poncet, Romain 02 October 2017 (has links)
Cette thèse porte sur l'étude de méthodes numériques pour l'analyse de deux modèles stochastiques apparaissant dans le contexte de la condensation de Bose-Einstein. Ceux-ci constituent deux généralisations de l'équation de Gross-Pitaevskii. Cette équation aux dérivées partielles déterministe modélise la dynamique de la fonction d'onde d'un condensat de Bose-Einstein piégé par un potentiel extérieur confinant.Le premier modèle étudié permet de modéliser les fluctuations de l'intensité du potentiel confinant et prend la forme d'une équation aux dérivées partielles stochastiques. Celles-ci conduisent en pratique à un échauffement du condensat, et parfois mêmeà son effondrement. Nous proposons dans un premier chapitre la construction d'un schéma numérique pour la résolution de ce modèle. Il est fondé sur une discrétisation spectrale en espace, et une discrétisation temporelle de type Crank-Nicolson. Nous démontrons que le schéma proposé converge fortement en probabilité à l'ordre au moins 1 en temps, et nous présentons des simulations numériques illustrant ce résultat. Le deuxième chapitre est consacré à l'étude théorique et numérique de la dynamique d'une solution stationnaire (pour l'équation déterministe) de type vortex. Nous étudions l'influence des perturbations aléatoires du potentiel sur la solution, et montrons que la solution perturbée garde les symétries de la solution stationnaire pour des temps au moins de l'ordre du carré de l'inverse de l'intensité des fluctuations. Ces résultats sont illustrés par des simulations numériques exploitant une méthode de Monte-Carlo adaptée à la simulation d'événements rares.Le deuxième modèle permet de modéliser les effets de la température sur la dynamique d'un condensat. Lorsque celle-ci n'est pas nulle, la condensation n'est pas complète et le condensat interagit avec les particules non condensées. Ces interactions sont d'un grand intérêt pour comprendre la dynamique de transition de phase et analyser les phénomènes de brisure de symétrie associés, comme la formation spontanée de vortex. Nous nous sommes intéressés dans les chapitres 3 et 4 à des questions relatives à la simulation de la distribution des solutions de cette équation en temps long. Le troisième chapitre est consacré à la construction d'une méthode d’échantillonnage sans biais pour des mesures connues à une constante multiplicative près. C'est une méthode de Monte Carlo par chaînes de Markov qui a la particularité de permettre un échantillonnage non-réversible basé sur une équation de type Langevin sur-amortie. Elle constitue une extension de Metropolis-Adjusted Langevin Algorithm (MALA). Le quatrième chapitre est quant à lui consacré à l'étude numérique de dynamiques métastables liées à la nucléation de vortex dans des condensats en rotation. Un intégrateur numérique pour la dynamique étudiée est proposé, ainsi qu'une méthode de Monte-Carlo adaptée à la simulation d'événements rares correspondant aux changements de configurations métastables. Cette dernière est basée sur l'algorithme Adaptive Multilevel Splitting (AMS). / This thesis is devoted to the numerical study of two stochastic models arising in Bose-Einstein condensation physics. They constitute two generalisations of the Gross-Pitaevskii Equation. This deterministic partial differential equation model the wave function dynamics of a Bose-Einstein condensate trapped in an external confining potential. The first chapter contains a simple presentation of the Bose-Einstein condensation phenomenon and of the experimental methods used to construct such systems.The first model considered enables to model the fluctuations of the confining potential intensity, and takes the form of a stochastic partial differential equation. In practice, these fluctuations lead to heating of the condensate and possibly to its collapse. In the second chapter we propose to build a numerical scheme to solve this model. It is based on a spectral space discretisation and a Crank-Nicolson discretisation in space. We show that the proposed scheme converges strongly at order at least one in probability. We also present numerical simulations to illustrate this result. The third chapter is devoted to the numerical and theoretical study of the dynamics of a stationary solution (for the deterministic equation) of vortex type. We study the influence of random disturbances of the confining potential on the solution. We show that the disturbed solution conserves the symmetries of the stationary solution for times up to at least the square of the inverse of the fluctuations intensity. These results are illustrated with numerical simulations based on a Monte-Carlo method suited to rare events estimation.The second model can be used to model the effects of the temperature on the dynamics of a Bose-Einstein condensate. In the case of finite temperature, the Bose-Einstein condensation is not complete and the condensate interacts with the non-condensed particles. These interactions are interesting to understand the dynamics of the phase transition and analyse the phenomena of symmetry breaking associated, like the spontaneous nucleation of vortices We have studied in the fourth and the fifth chapters some questions linked to the long time simulation of this model solutions. The fourth chapter is devoted to the construction of an unbiased sampling method of measures known up to a multiplicative constant. The distinctive feature of this Markov-Chain Monte-Carlo algorithm is that it enables to perform an unbiased non-reversible sampling based on an overdamped Langevin equation. It constitutes a generalization of the Metropolis-Adjusted Langevin Algorithm (MALA). The fifth chapter is devoted to the numerical study of metastable dynamics linked to the nucleation of vortices in rotating Bose-Einstein condensates. A numerical integrator and a suited Monte-Carlo methods for the simulation of metastable dynamics are proposed. This Monte-Carlo method is based on the Adaptive Multilevel Splitting (AMS) algorithm.
105

Option pricing with Quadratic Rough Heston Model

Dushkina, Marina January 2023 (has links)
In this thesis, we study the quadratic rough Heston model and the corresponding simulation methods. We calibrate the model using real-world market data. We compare and implement the three commonly used schemes (Hybrid, Multifactor, and Multifactor hybrid). We calibrate the model using real-world market SPX data. To speed up calibration, we apply quasi-Monte Carlo methods. We study the effect of the various calibration parameters on the volatility smile.
106

Assessment of Modern Statistical Modelling Methods for the Association of High-Energy Neutrinos to Astrophysical Sources / Bedömning av moderna statistiska modelleringsmetoder för associering av högenergetiska neutroner till astrofysiska källor

Minoz, Valentin January 2021 (has links)
The search for the sources of astrophysical neutrinos is a central open question in particle astrophysics. Thanks to substantial experimental efforts, we now have large-scale neutrino detectors in the oceans and polar ice. The neutrino sky seems mostly isotropic, but hints of possible source-neutrino associations have started to emerge, leading to much excitement within the astrophysics community. As more data are collected and future experiments planned, the question of how to statistically quantify point source detection in a robust way becomes increasingly pertinent. The standard approach to null-hypothesis testing leads to reporting the results in terms of a p-value, with detection typically corresponding to surpassing the coveted 5-sigma threshold. While widely used, p-values and significance thresholds are notorious in the statistical community as challenging to interpret and potentially misleading. We explore an alternative Bayesian approach to reporting point source detection and the connections and differences with the frequentist view. In this thesis, two methods for associating neutrino events to candidate sources are implemented on data from a simplified simulation of high-energy neutrino generation and detection. One is a maximum likelihood-based method that has been used in some high-profile articles, and the alternative uses Bayesian Hierarchical modelling with Hamiltonian Monte Carlo to sample the joint posterior of key parameters. Both methods are applied to a set of test cases to gauge their differences and similarities when applied on identical data. The comparisons suggest the applicability of this Bayesian approach as alternative or complement to the frequentist, and illustrate how the two approaches differ. A discussion is also conducted on the applicability and validity of the study itself as well as some potential benefits of incorporating a Bayesian framework, with suggestions for additional aspects to analyze. / Sökandet efter källorna till astrofysiska neutriner är en central öppen fråga i astropartikel- fysik. Tack vare omfattande experimentella ansträngningar har vi nu storskaliga neutrino-detektorer i haven och polarisen. Neutrinohimlen verkar mestadels isotropisk, men antydningar till möjliga källneutrinoföreningar har börjat antydas, vilket har lett till mycket spänning inom astrofysikgemenskapen. När mer data samlas in och framtida experiment planeras, blir frågan om hur man statistiskt kvantifierar punktkälledetektering på ett robust sätt alltmer relevant. Standardmetoden för nollhypotes-testning leder ofta till rapportering av resultat i termer av p-värden, då en specifik tröskel i signifikans eftertraktas. Samtidigt som att vara starkt utbredda, är p-värden och signifikansgränser mycket omdiskuterade i det statistiska samfundet angående deras tolkning. Vi utforskar en alternativ Bayesisk inställning till utvärderingen av punktkälldetektering och jämför denna med den frekvensentistiska utgångspunkten. I denna uppsats tillämpas två metoder för att associera neutrinohändelser till kandidatkällor på basis av simulerad data. Den första använder en maximum likelihood-metod anpassad från vissa uppmärksammade rapporter, medan den andra använder Hamiltonsk Monte Carlo till att approximera den gemensamma aposteriorifördelningen hos modellens parametrar. Båda metoderna tillämpas på en uppsättning testfall för att uppskatta deras skillnader och likheter tillämpade på identisk data. Jämförelserna antyder tillämpligheten av den Bayesianska som alternativ eller komplement till den klassiska, och illustrerar hur de två metoderna skiljer sig åt. En diskussion förs också om validiteten av studien i sig samt några potentiella fördelar med att använda ett Bayesiskt ramverk, med förslag på ytterligare aspekter att analysera.
107

A Method for Simulation Optimization with Applications in Robust Process Design and Locating Supply Chain Operations

Ittiwattana, Waraporn 11 September 2002 (has links)
No description available.
108

Validation and Inferential Methods for Distributional Form and Shape

Mayorov, Kirill January 2017 (has links)
This thesis investigates some problems related to the form and shape of statistical distributions with the main focus on goodness of fit and bump hunting. A bump is a distinctive characteristic of distributional shape. A search for bumps, or bump hunting, in a probability density function (PDF) has long been an important topic in statistical research. We introduce a new definition of a bump which relies on the notion of the curvature of a planar curve. We then propose a new method for bump hunting which is based on a kernel density estimator of the unknown PDF. The method gives not only the number of bumps but also the location of their centers and base points. In quantitative risk applications, the selection of distributions that properly capture upper tail behavior is essential for accurate modeling. We study tests of distributional form, or goodness-of-fit (GoF) tests, that assess simple hypotheses, i.e., when the parameters of the hypothesized distribution are completely specified. From theoretical and practical perspectives, we analyze the limiting properties of a family of weighted Cramér-von Mises GoF statistics W2 with weight function psi(t)=1/(1-t)^beta (for beta<=2) which focus on the upper tail. We demonstrate that W2 has no limiting distribution. For this reason, we provide a normalization of W2 that leads to a non-degenerate limiting distribution. Further, we study W2 for composite hypotheses, i.e., when distributional parameters must be estimated from a sample at hand. When the hypothesized distribution is heavy-tailed, we examine the finite sample properties of W2 under the Chen-Balakrishnan transformation that reduces the original GoF test (the direct test) to a test for normality (the indirect test). In particular, we compare the statistical level and power of the pairs of direct and indirect tests. We observe that decisions made by the direct and indirect tests agree well, and in many cases they become independent as sample size grows. / Thesis / Doctor of Philosophy (PhD)
109

Bayesian Estimation of Sea Clutter Parameters for Radar - A Stochastic Approach / Bayesiansk estimering av sjöklutterparametrar för radar - en stokastisk approach

Öijar Jansson, Emma January 2023 (has links)
Radars operating at sea encounter a common phenomenon known as sea clutter, characterized by undesired reflections originating from the sea surface. This phenomenon can significantly impair the radar’s capacity to detect small, slow-moving targets. Therefore, it is crucial to gain a comprehensive understanding of the statistical attributes that describes the sea clutter. This comprehension is pivotal for the development of efficient signal processing strategies. The core of this work revolves around the imperative requirement for accurate statistical models to characterize sea clutter. Within this context, this work particularly explores the application of Field’s model. Field’s model describes the sea clutter process using three stochastic differential equations that form the dynamical process of the complex reflectivity of the sea surface. One equation describes the radar cross section, which is given by a Cox-Ingersoll-Ross process, parameterized by the parameters A and α. The other equations describe the speckle process, which is a complex Ornstein-Uhlenbeck process parameterized by B. The aim of this thesis is to explore the possibilities in estimating the parameters A, α and B in Field’s model through the application of Bayesian inference. To achieve this objective, Metropolis-Hastings and Sequential Monte Carlo methods are employed. The clutter data, represented by the complex reflectivity, is synthetically generated by using the Euler-Maruyma and Milstein schemes. Three algorithms are designed for estimating the sea clutter parameters. Two algorithms require 300 seconds of data and are based on the approach suggested by Clement Roussel in his PhD thesis [1]. Specifically, these algorithms employ the Metropolis-Hastings method for estimating A, α and B, respectively. As input data to the algorithms, estimators of the Cox-Ingersoll-Ross process and the real part of the Ornstein-Uhlenbeck process are utilized. In contrast, the last algorithm describes an approach that employs only 3 seconds of data. This algorithm is a Metropolis-Hastings method that incorporates a particle filter for approximation of likelihoods. For evaluation of the algorithms, two distinct sets of parameters are considered, leading to varying characteristics of the complex reflectivity. The two algorithms that require 300 seconds of data are ex- ecuted ten times for each parameter set. Evidently, the algorithm designed for estimating B generates values that closely aligns with the true values while the algorithm designed for estimating A and α does not yield as satisfactory results. Due to time constraints and the computational demands of the simulations, the last algorithm, requiring 3 seconds of data, is executed only twice for each parameter set. Remarkably, this algorithm generates estimates that agree with the true values, indicating strong performance. Nonetheless, additional simulations are required to conclusively confirm its robustness. To conclude, it is possible to estimate sea clutter parameters within Field’s model by using the applied methods of Bayesian inference. However, it is important to analyze the applicability of these methods for a large quantity of diverse clutter data. Moreover, their computational demands pose challenges in real-world applications. Future research should address the need for more computation- ally efficient methods to overcome this challenge. / Radar som verkar till havs behöver hantera ett fenomen som kallas för sjöklutter, vilket är oönskade reflektioner från havsytan. Detta fenomen kan avsevärt försämra radarns förmåga att upptäcka långsamt rörliga mål. Det är därför viktigt att erhålla en förståelse för den statistik som beskriver sjökluttret. Denna förståelse är avgörande för utvecklingen av effektiva signalbehandlingsstrategier. Detta arbete fokuserar på den viktiga aspekten av att använda korrekta statistiska modeller för att beskriva sjöklutter. Specifikt undersöker detta arbete Field’s modell, som beskriver den komplexa reflektiviteten från havsytan med hjälp av tre stokastiska differentialekvationer. En ekvation beskriver radarmålarean (radar cross section) som är en Cox-Ingersoll-Ross-process, parametriserad av A och α. De andra ekvationerna beskriver speckle-processen som är en komplex Ornstein-Uhlenbeck-process, parametriserad av B. Syftet med denna uppsats är att utforska möjligheter för att estimera parametrarna A, α och B i Field’s modell genom tillämpning av Bayesiansk inferens. För att uppnå detta, används Metropolis-Hastings-algoritmer samt sekventiella Monte-Carlo- metoder. Klotterdatan som representeras av den komplexa reflektiviteten genereras med hjälp av Euler-Maruyma- och Milstein-scheman. Sammanlagt designas tre algoritmer för att estimera sjöklutter- parametrarna. Två algoritmer behöver 300 sekunder av data och är baserade på tidigare arbeten av C. Rousell [1]. Dessa algoritmer använder Metropolis-Hastings för att uppskata B, respektive A och α. Som indata till algoritmerna används estimatorer för Cox-Ingersoll-Ross-processen samt den reella delen av Ornstein-Uhlenbeck-processen. Den sista algoritmen beskriver istället ett tillvägagångssätt som endast kräver 3 sekunders data. Denna algoritm är en Metropolis-Hastings-algoritm som använder ett partikelfilter för approximering av likelihoods. För utvärdering av algoritmerna beaktas två olika parameteruppsättningar, vilka genererar olika komplexa reflektiviteter. De två algoritmerna som kräver 300 sekunder av data körs tio gånger för varje parameteruppsättning. Algoritmen designad för att uppskatta B genererar värden som är nära de sanna värdena medan algoritmen designad för att uppskatta A och α inte ger lika tillfredsställande resultat. På grund av tidsbrist och den långa simuleringstiden, körs den sista algoritmen, som kräver 3 sekunder av data, endast två gånger för varje parameteruppsättning. Anmärkningsvärt är att denna algoritm genererar uppskattningar som faktiskt stämmer ganska väl med de sanna värdena, vilket indikerar på stark prestanda. Dock krävs ytterligare simuleringar för att bekräfta detta. Sammanfattningsvis är det möjligt att uppskatta sjöklutterparametrarna i Field’s model med de Bayesianska inferensmetoderna som tillämpas i detta arbete. Det är dock viktigt att beakta hur användbara dessa metoder är för en variation av klotterdata. Dessutom innebär den långa beräkningstiden utmaningar i verkliga tillämpningar. Framtida studier bör adressera behovet av mer beräkningsmässigt effektiva metoder för att övervinna denna utmaning.
110

Schémas numériques pour la modélisation hybride des écoulements turbulents gaz-particules

Dorogan, Kateryna 24 May 2012 (has links)
Les méthodes hybrides Moments/PDF sont bien adaptées pour la description des écoulements diphasiques turbulents, polydispersés, hors équilibre thermodynamique. Ces méthodes permettent d'avoir une description assez fine de la polydispersion, de la convection et des termes sources non-linéaires. Cependant, les approximations issues de telles simulations sont bruitées ce qui, dans certaines situations, occasionne un biais. L'approche alternative étudiée dans ce travail consiste à coupler une description Eulerienne des moments avec une description stochastique Lagrangienne à l'intérieur de la phase dispersée, permettant de réduire l'erreur statistique et d'éliminer le biais. La mise en oeuvre de cette méthode nécessite le développement de schémas numériques robustes. Les approches proposées sont basées sur l'utilisation simultanée des techniques de relaxation et de décentrement, et permettent d'obtenir des approximations stables des solutions instationnaires du système d'équations aux dérivées partielles, avec des données peu régulières provenant du couplage avec le modèle stochastique. Une comparaison des résultats de la méthode hybride Moments-Moments/PDF avec ceux issus de la méthode hybride "classique'' est présentée en termes d'analyse des erreurs numériques sur un cas de jet co-courant gaz-particules. / Hybrid Moments/PDF methods have shown to be well suitable for the description of polydispersed turbulent two-phase flows in non-equilibrium which are encountered in some industrial situations involving chemical reactions, combustion or sprays. hey allow to obtain a fine enough physical description of the polydispersity, non-linear source terms and convection phenomena. However, their approximations are noised with the statistical error, which in several situations may be a source of a bias. An alternative hybrid Moments-Moments/PDF approach examined in this work consists in coupling the Moments and the PDF descriptions, within the description of the dispersed phase itself. This hybrid method could reduce the statistical error and remove the bias. However, such a coupling is not straightforward in practice and requires the development of accurate and stable numerical schemes. The approaches introduced in this work rely on the combined use of the upwinding and relaxation-type techniques. They allow to obtain stable unsteady approximations for a system of partial differential equations containing non-smooth external data which are provided by the PDF part of the model. A comparison of the results obtained using the present method with those of the ``classical'' hybrid approach is presented in terms of the numerical errors for a case of a co-current gas-particle wall jet.

Page generated in 0.0841 seconds