• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 22
  • 6
  • 1
  • Tagged with
  • 63
  • 63
  • 63
  • 23
  • 22
  • 18
  • 16
  • 14
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation du smile de volatilité pour les produits dérivés de taux d'intérêt / Multi factor stochastic volatility for interest rates modeling

Palidda, Ernesto 29 May 2015 (has links)
L'objet de cette thèse est l'étude d'un modèle de la dynamique de la courbe de taux d'intérêt pour la valorisation et la gestion des produits dérivées. En particulier, nous souhaitons modéliser la dynamique des prix dépendant de la volatilité. La pratique de marché consiste à utiliser une représentation paramétrique du marché, et à construire les portefeuilles de couverture en calculant les sensibilités par rapport aux paramètres du modèle. Les paramètres du modèle étant calibrés au quotidien pour que le modèle reproduise les prix de marché, la propriété d'autofinancement n'est pas vérifiée. Notre approche est différente, et consiste à remplacer les paramètres par des facteurs, qui sont supposés stochastiques. Les portefeuilles de couverture sont construits en annulant les sensibilités des prix à ces facteurs. Les portefeuilles ainsi obtenus vérifient la propriété d’autofinancement / This PhD thesis is devoted to the study of an Affine Term Structure Model where we use Wishart-like processes to model the stochastic variance-covariance of interest rates. This work was initially motivated by some thoughts on calibration and model risk in hedging interest rates derivatives. The ambition of our work is to build a model which reduces as much as possible the noise coming from daily re-calibration of the model to the market. It is standard market practice to hedge interest rates derivatives using models with parameters that are calibrated on a daily basis to fit the market prices of a set of well chosen instruments (typically the instrument that will be used to hedge the derivative). The model assumes that the parameters are constant, and the model price is based on this assumption; however since these parameters are re-calibrated, they become in fact stochastic. Therefore, calibration introduces some additional terms in the price dynamics (precisely in the drift term of the dynamics) which can lead to poor P&L explain, and mishedging. The initial idea of our research work is to replace the parameters by factors, and assume a dynamics for these factors, and assume that all the parameters involved in the model are constant. Instead of calibrating the parameters to the market, we fit the value of the factors to the observed market prices. A large part of this work has been devoted to the development of an efficient numerical framework to implement the model. We study second order discretization schemes for Monte Carlo simulation of the model. We also study efficient methods for pricing vanilla instruments such as swaptions and caplets. In particular, we investigate expansion techniques for prices and volatility of caplets and swaptions. The arguments that we use to obtain the expansion rely on an expansion of the infinitesimal generator with respect to a perturbation factor. Finally we have studied the calibration problem. As mentioned before, the idea of the model we study in this thesis is to keep the parameters of the model constant, and calibrate the values of the factors to fit the market. In particular, we need to calibrate the initial values (or the variations) of the Wishart-like process to fit the market, which introduces a positive semidefinite constraint in the optimization problem. Semidefinite programming (SDP) gives a natural framework to handle this constraint
2

ETUDE DU COMPORTEMENT THERMIQUE D'UN MATERIAU MULTICOUCHES LACUNAIRES ET CONTRIBUTION A LA MODELISATION ET LA SIMULATION NUMERIQUE DES DEPOTS A STRUCTURE COLONNAIRE.

Vo Thi, Thu Huong 21 May 2007 (has links) (PDF)
Ce travail est motivé par un problème technologique (et économique) pour l'amélioration des écrans à tube cathodique et plus précisément du masque qui est une grille dont les trous permettent de diriger le faisceau électronique vers photophores situés sur la dalle de verre :<br />l'écran. L'apport d'énergie des électrons qui se déposent sur le masque entraîne son échauffement et du coup sa déformation nuisant à la qualité de l'image. La solution que nous avons<br />étudiée consiste à déposer des couches minces de matériaux choisis, entre autres, pour leurs propriétés thermiques. Cette thèse comporte deux parties :<br /><br />- La première consiste à modéliser l'échauffement du masque soumis au balayage électronique et vérifier si les solutions proposées permettent de réduire les gradients thermiques. En s'appuyant sur un calcul d'homogénéisation, nous avons proposé une formulation du comportement thermique de matériau sans couches minces prenant en compte la présence des trous sur le masque. Ensuite, nous avons étudié le problème d'évolution bidimensionnel obtenu en intégrant sur l'épaisseur du masque. A l'issu du travail précédent, une étude de l'influence de la présence des couches de différents matériaux sur la propagation latérale de la chaleur a été menée.<br /><br />- L'objectif de la seconde partie est la mise au point des modèles mathématiques du processus de dépôt des couches minces de matériaux sur le masque. Notre approche comprend deux types de modélisation : les modèles discrets et les modèles continus. Les modèles discrets sont basés sur des méthodes de type Monte Carlo. Les modèles continus sont décrits par des équations aux dérivées partielles stochastiques dont les solutions fournissent la hauteur du<br />dépôt en fonction du temps et de la position. Parmi les modèles continus existants, nous avons choisi d'axer notre étude sur les modèles incluant un effet d'ombrage car ils sont à même de<br />reproduire les structures colonnaires observées expérimentalement. L'étude de l'influence des différents termes intervenant dans les 2 modèles (MC et EDP) nous a permis de proposer un nouveau modèle continu dont les solutions sont proches de celles obtenues par les méthodes de Monte Carlo. Cette étude a été menée aussi bien en 1+1D qu'en 2+1D.
3

EDSR: analyse de discrétisation et résolution par méthodes de Monte Carlo adaptatives;<br /><br />Perturbation de domaines pour les options américaines

Labart, Celine 22 October 2007 (has links) (PDF)
Deux thématiques différentes des probabilités numériques et de leurs applications financières sont abordées dans ma thèse: l'une traite de l'approximation et de la simulation d'équations différentielles stochastiques rétrogrades (EDSR), l'autre est liée aux options américaines et les aborde du point de vue de l'optimisation de domaine et des perturbations de frontière.<br /><br />La première partie de ma thèse revisite la question d'analyse de convergence dans la discrétisation en temps d' EDSR markoviennes (Y,Z) en une équation de programmation dynamique de n pas de temps. Nous établissons un développement limité à l'ordre 1 de l'erreur sur (Y,Z) : précisément, l'erreur trajectorielle sur X se transfère intégralement sur l'EDSR et montre ainsi que si X est approché avec précision ou simulé exactement, de meilleurs vitesses sont possibles (en 1/n).<br /><br />La seconde partie de ma thèse s'intéresse à la résolution des EDSR via le procédé de Picard et les méthodes de Monte Carlo séquentielles. Nous avons montré que la convergence de notre algorithme a lieu à vitesse géométrique et avec une précision indépendante au 1er ordre du nombre de simulations.<br /><br />La dernière partie de ma thèse regroupe des premiers résultats sur la valorisation d'options américaines par optimisation de la frontière d'exercice. La clé de voûte de ce type d'approche est la capacité à évaluer un gradient par rapport à la frontière. Le temps continu a été traité par Costantini et al (2006) et cette thèse couvre le cas discret des options Bermuda.
4

Méthodes numériques e fficaces pour la valorisation des GMWB

Ben Zineb, Tarik 14 December 2012 (has links) (PDF)
Cette thèse traite du problème de valorisation par des méthodes numériques efficaces de contrats GMWB dans une optique de calcul par formules fermées ou par méthode de Monte Carlo sous contrainte de faible nombre de simulations. Les produits GMWB sont des produits très complexes qui ont connu ces dernières années un grand succès de par la garantie dont bénéficie l'assuré sur les retraits futurs avec un effet upside dépendant de la performance du fond sous-jacent au contrat. En outre, le souscripteur dispose de nombreuses options attrayantes qu'il peut exercer à tout moment dont l'option de racheter partiellement ou totalement son contrat, la possibilité de modifier l'allocation de la prime payée (fund switching) pendant la durée du contrat et enfin l'option d'avancer ou de reporter la date de début des paiements. Cependant, de telles options cumulées avec la complexité du produit et les risques de marché et de mortalité exposent l'assureur qui doit gérer des dizaines de milliers de contrats sous plusieurs contraintes opérationnelles (temps de calcul,faible nombre de simulation, etc.) à une difficulté majeure en terme de valorisation et de couverture. Une grande partie de cette thèse (chapitres de 2, 4, 5 et 6) est consacrée à l'étude de l'option de rachat partiel ou total dans les contrats GMWB selon deux angles : le point de vue assuré rationnel et le point de vue couvreur appréhendant le pire cas. A ce propos, dans notre cadre général en temps discret avec une volatilité locale et taux d'intérêt à la Hull-White 1 facteur, la stratégie optimale déterminant le coût du contrat dans les deux cas est la solution d'un problème de contrôle stochastique optimal en temps discret. Néanmoins, grâce à une propriété d'homogénéité partielle sur le prix et les flux, on démontre qu'elle est explicite et de type Bang-Bang. Le problème de valorisation étant ainsi ramené à celui d'arrêt optimal , nous avons proposé une méthode de Monte Carlo de type Longstaff Schwartz dont l'étape de régression empirique a été traitée par la méthode de moindres carrés habituels et par une nouvelle méthode appelée VCP (Variables de contrôle préliminaires). Cette dernière consiste dans un premier temps à réduire la variance empirique des flux à régresser à travers une projection L2 sur des variables de contrôle adaptées et centrées, et puis à faire la régression par moindres carrées habituels sur les nouveaux flux à variance réduite. Une étude numérique sur un cas test ainsi qu'une quantification théorique de l'erreur par les techniques de régression non paramétriques ont conclu à son efficacité dans un contexte de faible nombre de simulation (contrainte d'Axa). Quant au chapitre 3, il est consacré à justifier numériquement et théoriquement l'hypothèse de mutualisation du risque de mortalité souvent supposée par les praticiens dans le cas américain sur un produit simple sensible à ce risque. Enfin, la dernière partie de la thèse (chapitre 7) est consacrée à la valorisation par formules fermées approchées pour des contrats GMWB simplifiés dans un modèle Black Scholes avec taux d'intérêt de dynamique Hull-White à 1 facteur. En effectuant un développement asymptotique sur le montant des retraits, on obtient des formules approchées du prix du contrat GMWB par un prix Black-Scholes corrigé par une somme explicite de Grecques, le tout étant plus rapide à évaluer. Des estimations d'erreur sont établies lorsque la fonction payoff est régulière. La précision des formules asymptotiques est testée numériquement et montre un excellent comportement de ces approximations, même pour des contrats à longue maturité (20 ans).
5

Modélisation du smile de volatilité pour les produits dérivés de taux d'intérêt / Multi factor stochastic volatility for interest rates modeling

Palidda, Ernesto 29 May 2015 (has links)
L'objet de cette thèse est l'étude d'un modèle de la dynamique de la courbe de taux d'intérêt pour la valorisation et la gestion des produits dérivées. En particulier, nous souhaitons modéliser la dynamique des prix dépendant de la volatilité. La pratique de marché consiste à utiliser une représentation paramétrique du marché, et à construire les portefeuilles de couverture en calculant les sensibilités par rapport aux paramètres du modèle. Les paramètres du modèle étant calibrés au quotidien pour que le modèle reproduise les prix de marché, la propriété d'autofinancement n'est pas vérifiée. Notre approche est différente, et consiste à remplacer les paramètres par des facteurs, qui sont supposés stochastiques. Les portefeuilles de couverture sont construits en annulant les sensibilités des prix à ces facteurs. Les portefeuilles ainsi obtenus vérifient la propriété d’autofinancement / This PhD thesis is devoted to the study of an Affine Term Structure Model where we use Wishart-like processes to model the stochastic variance-covariance of interest rates. This work was initially motivated by some thoughts on calibration and model risk in hedging interest rates derivatives. The ambition of our work is to build a model which reduces as much as possible the noise coming from daily re-calibration of the model to the market. It is standard market practice to hedge interest rates derivatives using models with parameters that are calibrated on a daily basis to fit the market prices of a set of well chosen instruments (typically the instrument that will be used to hedge the derivative). The model assumes that the parameters are constant, and the model price is based on this assumption; however since these parameters are re-calibrated, they become in fact stochastic. Therefore, calibration introduces some additional terms in the price dynamics (precisely in the drift term of the dynamics) which can lead to poor P&L explain, and mishedging. The initial idea of our research work is to replace the parameters by factors, and assume a dynamics for these factors, and assume that all the parameters involved in the model are constant. Instead of calibrating the parameters to the market, we fit the value of the factors to the observed market prices. A large part of this work has been devoted to the development of an efficient numerical framework to implement the model. We study second order discretization schemes for Monte Carlo simulation of the model. We also study efficient methods for pricing vanilla instruments such as swaptions and caplets. In particular, we investigate expansion techniques for prices and volatility of caplets and swaptions. The arguments that we use to obtain the expansion rely on an expansion of the infinitesimal generator with respect to a perturbation factor. Finally we have studied the calibration problem. As mentioned before, the idea of the model we study in this thesis is to keep the parameters of the model constant, and calibrate the values of the factors to fit the market. In particular, we need to calibrate the initial values (or the variations) of the Wishart-like process to fit the market, which introduces a positive semidefinite constraint in the optimization problem. Semidefinite programming (SDP) gives a natural framework to handle this constraint
6

Advances in computational Bayesian statistics and the approximation of Gibbs measures / Avancées en statistiques computationelles Bayesiennes et approximation de mesures de Gibbs

Ridgway, James 17 September 2015 (has links)
Ce mémoire de thèse regroupe plusieurs méthodes de calcul d'estimateur en statistiques bayésiennes. Plusieurs approches d'estimation seront considérées dans ce manuscrit. D'abord en estimation nous considérerons une approche standard dans le paradigme bayésien en utilisant des estimateurs sous la forme d'intégrales par rapport à des lois \textit{a posteriori}. Dans un deuxième temps nous relâcherons les hypothèses faites dans la phase de modélisation. Nous nous intéresserons alors à l'étude d'estimateurs répliquant les propriétés statistiques du minimiseur du risque de classification ou de ranking théorique et ceci sans modélisation du processus génératif des données. Dans les deux approches, et ce malgré leur dissemblance, le calcul numérique des estimateurs nécessite celui d'intégrales de grande dimension. La plus grande partie de cette thèse est consacrée au développement de telles méthodes dans quelques contextes spécifiques. / This PhD thesis deals with some computational issues of Bayesian statistics. I start by looking at problems stemming from the standard Bayesian paradigm. Estimators in this case take the form of integrals with respect to the posterior distribution. Next we will look at another approach where no, or almost no model is necessary. This will lead us to consider a Gibbs posterior. Those two approaches, although different in aspect, will lead to similar computational difficulties. In this thesis, I address some of these issues.
7

Quelques contributions sur les méthodes de Monte Carlo

Atchadé, Yves F. January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
8

Rare event simulation for statistical model checking / Simulation d'événements rares pour le model checking statistique

Jegourel, Cyrille 19 November 2014 (has links)
Dans cette thèse, nous considérons deux problèmes auxquels le model checking statistique doit faire face. Le premier concerne les systèmes hétérogènes qui introduisent complexité et non-déterminisme dans l'analyse. Le second problème est celui des propriétés rares, difficiles à observer et donc à quantifier. Pour le premier point, nous présentons des contributions originales pour le formalisme des systèmes composites dans le langage BIP. Nous en proposons une extension stochastique, SBIP, qui permet le recours à l'abstraction stochastique de composants et d'éliminer le non-déterminisme. Ce double effet a pour avantage de réduire la taille du système initial en le remplaçant par un système dont la sémantique est purement stochastique sur lequel les algorithmes de model checking statistique sont définis. La deuxième partie de cette thèse est consacrée à la vérification de propriétés rares. Nous avons proposé le recours à un algorithme original d'échantillonnage préférentiel pour les modèles dont le comportement est décrit à travers un ensemble de commandes. Nous avons également introduit les méthodes multi-niveaux pour la vérification de propriétés rares et nous avons justifié et mis en place l'utilisation d'un algorithme multi-niveau optimal. Ces deux méthodes poursuivent le même objectif de réduire la variance de l'estimateur et le nombre de simulations. Néanmoins, elles sont fondamentalement différentes, la première attaquant le problème au travers du modèle et la seconde au travers des propriétés. / In this thesis, we consider two problems that statistical model checking must cope. The first problem concerns heterogeneous systems, that naturally introduce complexity and non-determinism into the analysis. The second problem concerns rare properties, difficult to observe, and so to quantify. About the first point, we present original contributions for the formalism of composite systems in BIP language. We propose SBIP, a stochastic extension and define its semantics. SBIP allows the recourse to the stochastic abstraction of components and eliminate the non-determinism. This double effect has the advantage of reducing the size of the initial system by replacing it by a system whose semantics is purely stochastic, a necessary requirement for standard statistical model checking algorithms to be applicable. The second part of this thesis is devoted to the verification of rare properties in statistical model checking. We present a state-of-the-art algorithm for models described by a set of guarded commands. Lastly, we motivate the use of importance splitting for statistical model checking and set up an optimal splitting algorithm. Both methods pursue a common goal to reduce the variance of the estimator and the number of simulations. Nevertheless, they are fundamentally different, the first tackling the problem through the model and the second through the properties.
9

Accélérer l'entraînement d'un modèle non-paramétrique de densité non normalisée par échantillonnage aléatoire

Senécal, Jean-Sébastien January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
10

Processus stochastiques associés aux équations d'évolution linéaires ou non-linéaires et méthodes numériques probabilistes

Deaconu, Madalina 07 May 2008 (has links) (PDF)
Ce document de synthèse est consacré à l'interprétation probabiliste de certaines équations d'évolution liénaires ou non-linéaires ainsi qu'à l'étude de méthodes numériques probabilistes. La première partie réunit plusieurs résultats qui mettent en évidence les liens qui existent entre les équations aux dérivées partielles et les processus de diffusion pour des modèles linéaires ou non-linéaires. Un paragraphe important est consacré à l'approche probabiliste des modèles de coagulation et/ou fragmentation. Nous présentons dans la seconde partie la construction de nouveaux algorithmes de simulation de type Monte-Carlo pour une large classe d'équations différentielles stochastiques. Cette méthode permet d'estimer de façon précise le premier moment de sortie d'un domaine et la position de sortie pour un processus stochastique. Nous nous intéressons ensuite aux techniques d'échantillonnage pondéré afin de réduire la variance de nos éstimateurs. Dans la troisième partie nous présentons des travaux sur l'analyse fine de certains processus stochastiques dans les espaces de Besov. La quatrième partie est consacrée à des applications issues de collaborations industrielles.

Page generated in 0.1144 seconds