• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 3
  • Tagged with
  • 10
  • 10
  • 8
  • 6
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyse des sensibilités des modèles internes de crédit pour l'étude de la variabilité des RWA / Sensitivity analysis of credit models for the assessment of the RWA variability

Sestier, Michael 04 October 2017 (has links)
Suite à la crise de 2007-2009, des études menées par le Comité de Bâle ont montré une grande dispersion des actifs pondérés du risque (RWA) entre les banques, dont une part significative proviendrait des hypothèses des modèles internes. De nouvelles réglementations visant à trouver un équilibre entre bonne représentation des risques, simplicité des approches et comparabilité ont dès lors été développées. Celles-ci proposent notamment l'ajout de contraintes sur les modèles/paramètres pour l'évaluation interne des RWA de crédit des portefeuilles bancaire et de négociation. Dans ce contexte, ces travaux de thèse consistent principalement en l'analyse de la pertinence de ces contraintes pour la réduction de la variabilité des RWA. Ils font largement recours aux méthodes d'analyses des sensibilités, notamment celles basées sur les décompositions de Hoeffding. Le traitement réglementaire des paramètres de crédit (les corrélations des défauts, les probabilités de défaut -PD -et les taux de perte en cas de défaut -LGD) forme la colonne vertébrale des développements. Au final, les conclusions des études menées semblent indiquer des résultats mitigés des réforn1es. D'une part, les contraintes sur les corrélations pour le portefeuille de négociation sont d'un impact faible sur la réduction de la variabilité des RWA. D'autre part, les contraintes sur les paramètres de PD et de LGD, ayant un impact plus important sur la réduction de la variabilité des RWA, devraient être considérées avec plus de prudence. La thèse fournit enfin des preuves que la variabilité est amplifiée par la mesure du risque réglementaire et les multiples sources de données de calibration des modèles. / In the aftermath of the 2007-2009 crisis, several studies led by the Base! Committee showed a large dispersion of risk-weighted assets (RWA) among banks, a significant part of which would come from the internal model's assumptions. Consequently, new regulations aiming at finding a balance between risk sensitivity, simplicity and comparability have then been developed. These ones notably include constraints on models / parameters for the internal assessment of the credit RWA for both the banking and the trading books. ln this context, the thesis work mainly consists in analyzing the relevance of such constraints to reduce the RWA variability. It makes extensive use of sensitivity analysis methods, particularly the ones based on the Hoeffding's decomposition. Regulatory treatments of the credit parameters (default correlations, default probabilities -DP -and loss given default -LGD) form the backbone of the developments. The findings suggest mixed results of the reforms. On the one hand, the constraints on the correlations for the trading book have a low impact on the RWA variability. On the other hand, the constraints on OP and LGD parameters, having a greater impact on the RWA variability, should be considered with more caution. The studies finally provide evidence that variability is amplified by the regulatory measurement of the risk and the multiple sources of calibration data.javascript:nouvelleZone('abstract');_ajtAbstract('abstract');
2

Produits dérivés climatiques : aspects économétriques et financiers

Roustant, Olivier 07 July 2003 (has links) (PDF)
Cette thèse constitue l'une des premières études des produits dérivés climatiques. Elle examine d'abord la modélisation de la température, qui est la variable climatique la plus fréquente (chapitre 1). Un modèle univarié de type autorégressif à volatilité périodique est en général approprié pour décrire sa dynamique, notamment pour les données françaises. Elle aborde alors quelques aspects financiers des risques climatiques. En particulier, la quasi-indépendance du marché à la température semble justifier la pratique de l'évaluation selon une approche actuarielle (chapitre 2). Enfin, elle quantifie le risque de modèle lié à cette pratique (chapitre 3). Tandis que les prix des contrats Futures sont robustes par rapport aux erreurs de modélisation, d'importantes incertitudes sont mises en évidence autour du prix des options. La source des erreurs a été identifiée : il s'agit des composantes déterministes de tendance et de saisonnalité relatives à la moyenne du processus de température.
3

Outils théoriques et opérationnels adaptés au contexte de l'assurance vie en Afrique subsaharienne francophone : analyse et mesure des risques liés à la mortalité / Theoretical and operational tools adapted to the context of life insurance in sub-Saharan Francophone : analysis and measurement of risks associated with mortality

Kamega, Aymric 14 December 2011 (has links)
Dans un marché de l'assurance vie en Afrique subsaharienne francophone à la traîne, mais promis à un bel avenir en cas d'émergence de solutions techniques et commerciales endogènes, la thèse propose des outils théoriques et opérationnels adaptés à son développement. Cette démarche s'inscrit en parallèle des actions entreprises par l'autorité de contrôle régionale (la CIMA) pour fournir aux assureurs de la région des outils adaptés. En effet, la CIMA a initié des travaux pour la construction de nouvelles tables réglementaires d'expérience, ce qui a permis de fournir des références fiables et pertinentes pour la mortalité de la population assurée dans la région. Toutefois, certaines problématiques techniques utiles n'ont pas été développées dans ces travaux de construction. La thèse leur accorde alors une attention particulière. Ainsi, d'une part, la thèse permet de fournir des outils pour tenir compte des différences de mortalité entre pays de la région, tout en limitant les risques systématiques liés aux fluctuations d'échantillonnage (dues à la petite taille des échantillons de données par pays). Il apparaît notamment que si la modélisation indépendante de chaque pays n'est pas appropriée, les modèles d'hétérogénéité à facteurs observables, tels que le modèle de Cox ou de Lin et Ying, permettent d'atteindre cet objectif. On précise toutefois ici que ces modèles d'hétérogénéité ne permettent pas de supprimer le risque systématique lié aux fluctuations d'échantillonnage lors de l'estimation du modèle, ils engendrent seulement une réduction de ce risque en contrepartie d'une augmentation du risque systématique lié au choix du modèle. D'autre part, la thèse permet également de fournir des outils pour modéliser la mortalité d'expérience future dans la région. En absence de données sur les tendances passées de la mortalité d'expérience, ni le modèle classique de Lee-Carter ni ses extensions ne sont applicables. Une solution basée sur un ajustement paramétrique, une hypothèse sur la forme de l'évolution du niveau de mortalité (évolution linaire ou exponentielle) et un avis d'expert sur l'espérance de vie générationnelle à un âge donné est alors proposée (ces travaux s'appuient sur le modèle de Bongaarts). Ensuite, dans un second temps, en supposant disposer de données sur les tendances passées (ce qui pour mémoire n'est pas le cas à ce stade dans la région, mais devrait l'être dans les prochaines années), la thèse propose une modélisation de la mortalité future à partir d'une référence de mortalité externe et une analyse des risques systématiques associés (risques liés aux fluctuations d'échantillonnage et au choix de la référence de mortalité) / In a market of life insurance in sub-Saharan Francophone behind, but with a bright future in the event of emergence of endogenous technical and commercial solutions, the thesis provides theoretical and operational tools adapted to its development. This approach is in parallel with actions taken by the supervisory authority regional (CIMA) to provide insurance tools in the region. Indeed, CIMA has initiated work to construct new tables regulatory experience, which has provided reliable and relevant references for mortality of the insured population in the region. However, some useful technical issues were not developed in such construction. The thesis then give them special attention. Thus, on the one hand, the theory can provide tools to account for differences in mortality between countries in the region, while limiting the risks associated with systematic sampling fluctuations (due to small sample sizes data countries). Particular, it appears that if the model independent of each country is not appropriate, models of heterogeneity with observable factors, such as the Cox or Lin and Ying model, can achieve this goal. However, it says here that these models of heterogeneity does not eliminate the systematic risk due to sampling fluctuations when estimating the model, they generate only a reduction of this risk in exchange for an increase in systematic risk associated the choice of model. On the other hand, the thesis can also provide tools to model future mortality experience in the region. In the absence of data on past trends in mortality experience, nor the classical Lee-Carter or its extensions are applicable. A solution based on a parametric adjustment, an assumption about the form of changes in the level of mortality (exponential or linear trend) and an expert opinion on the generational life expectancy at a given age is then proposed (this work based on the model of Bongaarts). Then in a second time, assuming availability of data on past trends (which for the record is not the case at this stage in the region, but should be in the coming years), the thesis proposes a model of future mortality from an external reference mortality and analyzes associated systematic risk (risk of sampling fluctuations and on the choice of the reference of mortality)
4

Estimation and misspecification Risks in VaR estimation / Estimation and misspecification risks in VaR evaluation

Telmoudi, Fedya 19 December 2014 (has links)
Dans cette thèse, nous étudions l'estimation de la valeur à risque conditionnelle (VaR) en tenant compte du risque d'estimation et du risque de modèle. Tout d'abord, nous considérons une méthode en deux étapes pour estimer la VaR. La première étape évalue le paramètre de volatilité en utilisant un estimateur quasi maximum de vraisemblance généralisé (gQMLE) fondé sur une densité instrumentale h. La seconde étape estime un quantile des innovations à partir du quantile empirique des résidus obtenus dans la première étape. Nous donnons des conditions sous lesquelles l'estimateur en deux étapes de la VaR est convergent et asymptotiquement normal. Nous comparons également les efficacités des estimateurs obtenus pour divers choix de la densité instrumentale h. Lorsque l'innovation n'est pas de densité h, la première étape donne généralement un estimateur biaisé de paramètre de volatilité et la seconde étape donne aussi un estimateur biaisé du quantile des innovations. Cependant, nous montrons que les deux erreurs se contrebalancent pour donner une estimation consistante de la VaR. Nous nous concentrons ensuite sur l'estimation de la VaR dans le cadre de modèles GARCH en utilisant le gQMLE fondé sur la classe des densités instrumentales double gamma généralisées qui contient la distribution gaussienne. Notre objectif est de comparer la performance du QMLE gaussien par rapport à celle du gQMLE. Le choix de l'estimateur optimal dépend essentiellement du paramètre d qui minimise la variance asymptotique. Nous testons si le paramètre d qui minimise la variance asymptotique est égal à 2. Lorsque le test est appliqué sur des séries réelles de rendements financiers, l'hypothèse stipulant l'optimalité du QMLE gaussien est généralement rejetée. Finalement, nous considérons les méthodes non-paramétriques d'apprentissage automatique pour estimer la VaR. Ces méthodes visent à s'affranchir du risque de modèle car elles ne reposent pas sur une forme spécifique de la volatilité. Nous utilisons la technique des machines à vecteurs de support pour la régression (SVR) basée sur la fonction de perte moindres carrés (en anglais LS). Pour améliorer la solution du modèle LS-SVR nous utilisons les modèles LS-SVR pondérés et LS-SVR de taille fixe. Des illustrations numériques mettent en évidence l'apport des modèles proposés pour estimer la VaR en tenant compte des risques de spécification et d'estimation. / In this thesis, we study the problem of conditional Value at Risk (VaR) estimation taking into account estimation risk and model risk. First, we considered a two-step method for VaR estimation. The first step estimates the volatility parameter using a generalized quasi maximum likelihood estimator (gQMLE) based on an instrumental density h. The second step estimates a quantile of innovations from the empirical quantile of residuals obtained in the first step. We give conditions under which the two-step estimator of the VaR is consistent and asymptotically normal. We also compare the efficiencies of the estimators for various instrumental densities h. When the distribution of is not the density h the first step usually gives a biased estimator of the volatility parameter and the second step gives a biased estimator of the quantile of the innovations. However, we show that both errors counterbalance each other to give a consistent estimate of the VaR. We then focus on the VaR estimation within the framework of GARCH models using the gQMLE based on a class of instrumental densities called double generalized gamma which contains the Gaussian distribution. Our goal is to compare the performance of the Gaussian QMLE against the gQMLE. The choice of the optimal estimator depends on the value of d that minimizes the asymptotic variance. We test if this parameter is equal 2. When the test is applied to real series of financial returns, the hypothesis stating the optimality of Gaussian QMLE is generally rejected. Finally, we consider non-parametric machine learning models for VaR estimation. These methods are designed to eliminate model risk because they are not based on a specific form of volatility. We use the support vector machine model for regression (SVR) based on the least square loss function (LS). In order to improve the solution of LS-SVR model, we used the weighted LS-SVR and the fixed size LS-SVR models. Numerical illustrations highlight the contribution of the proposed models for VaR estimation taking into account the risk of specification and estimation.
5

Quantification et méthodes statistiques pour le risque de modèle / Quantification and statistical methods for model risk

Niang, Ibrahima 26 January 2016 (has links)
En finance, le risque de modèle est le risque de pertes financières résultant de l'utilisation de modèles. Il s'agit d'un risque complexe à appréhender qui recouvre plusieurs situations très différentes, et tout particulièrement le risque d'estimation (on utilise en général dans un modèle un paramètre estimé) et le risque d'erreur de spécification de modèle (qui consiste à utiliser un modèle inadéquat). Cette thèse s'intéresse d'une part à la quantification du risque de modèle dans la construction de courbes de taux ou de crédit et d'autre part à l'étude de la compatibilité des indices de Sobol avec la théorie des ordres stochastiques. Elle est divisée en trois chapitres. Le Chapitre 1 s'intéresse à l'étude du risque de modèle dans la construction de courbes de taux ou de crédit. Nous analysons en particulier l'incertitude associée à la construction de courbes de taux ou de crédit. Dans ce contexte, nous avons obtenus des bornes de non-arbitrage associées à des courbes de taux ou de défaut implicite parfaitement compatibles avec les cotations des produits de référence associés. Dans le Chapitre 2 de la thèse, nous faisons le lien entre l'analyse de sensibilité globale et la théorie des ordres stochastiques. Nous analysons en particulier comment les indices de Sobol se transforment suite à une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth. Le Chapitre 3 de la thèse s'intéresse à l'indice de contraste quantile. Nous faisons d'une part le lien entre cet indice et la mesure de risque CTE puis nous analysons, d'autre part, dans quelles mesures une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth entraine une augmentation de l'indice de contraste quantile. Nous proposons enfin une méthode d'estimation de cet indice. Nous montrons, sous des hypothèses adéquates, que l'estimateur que nous proposons est consistant et asymptotiquement normal / In finance, model risk is the risk of loss resulting from using models. It is a complex risk which recover many different situations, and especially estimation risk and risk of model misspecification. This thesis focuses: on model risk inherent in yield and credit curve construction methods and the analysis of the consistency of Sobol indices with respect to stochastic ordering of model parameters. it is divided into three chapters. Chapter 1 focuses on model risk embedded in yield and credit curve construction methods. We analyse in particular the uncertainty associated to the construction of yield curves or credit curves. In this context, we derive arbitrage-free bounds for discount factor and survival probability at the most liquid maturities. In Chapter 2 of this thesis, we quantify the impact of parameter risk through global sensitivity analysis and stochastic orders theory. We analyse in particular how Sobol indices are transformed further to an increase of parameter uncertainty with respect to the dispersive or excess wealth orders. Chapter 3 of the thesis focuses on contrast quantile index. We link this latter with the risk measure CTE and then we analyse on the other side, in which circumstances an increase of a parameter uncertainty in the sense of dispersive or excess wealth orders implies and increase of contrast quantile index. We propose finally an estimation procedure for this index. We prove under some conditions that our estimator is consistent and asymptotically normal
6

Outils théoriques et opérationnels adaptés au contexte de l'assurance vie en Afrique subsaharienne francophone - Analyse et mesure des risques liés à la mortalité

Kamega, Aymric 14 December 2011 (has links) (PDF)
Dans un marché de l'assurance vie en Afrique subsaharienne francophone à la traîne, mais promis à un bel avenir en cas d'émergence de solutions techniques et commerciales endogènes, la thèse propose des outils théoriques et opérationnels adaptés à son développement. Cette démarche s'inscrit en parallèle des actions entreprises par l'autorité de contrôle régionale (la CIMA) pour fournir aux assureurs de la région des outils adaptés. En effet, la CIMA a initié des travaux pour la construction de nouvelles tables réglementaires d'expérience, ce qui a permis de fournir des références fiables et pertinentes pour la mortalité de la population assurée dans la région. Toutefois, certaines problématiques techniques utiles n'ont pas été développées dans ces travaux de construction. La thèse leur accorde alors une attention particulière. Ainsi, d'une part, la thèse permet de fournir des outils pour tenir compte des différences de mortalité entre pays de la région, tout en limitant les risques systématiques liés aux fluctuations d'échantillonnage (dues à la petite taille des échantillons de données par pays). Il apparaît notamment que si la modélisation indépendante de chaque pays n'est pas appropriée, les modèles d'hétérogénéité à facteurs observables, tels que le modèle de Cox ou de Lin et Ying, permettent d'atteindre cet objectif. On précise toutefois ici que ces modèles d'hétérogénéité ne permettent pas de supprimer le risque systématique lié aux fluctuations d'échantillonnage lors de l'estimation du modèle, ils engendrent seulement une réduction de ce risque en contrepartie d'une augmentation du risque systématique lié au choix du modèle. D'autre part, la thèse permet également de fournir des outils pour modéliser la mortalité d'expérience future dans la région. En absence de données sur les tendances passées de la mortalité d'expérience, ni le modèle classique de Lee-Carter ni ses extensions ne sont applicables. Une solution basée sur un ajustement paramétrique, une hypothèse sur la forme de l'évolution du niveau de mortalité (évolution linaire ou exponentielle) et un avis d'expert sur l'espérance de vie générationnelle à un âge donné est alors proposée (ces travaux s'appuient sur le modèle de Bongaarts). Ensuite, dans un second temps, en supposant disposer de données sur les tendances passées (ce qui pour mémoire n'est pas le cas à ce stade dans la région, mais devrait l'être dans les prochaines années), la thèse propose une modélisation de la mortalité future à partir d'une référence de mortalité externe et une analyse des risques systématiques associés (risques liés aux fluctuations d'échantillonnage et au choix de la référence de mortalité).
7

Mesure des risques biometriques liés à l'assurance vie avec des méthodes non-paramétriques

Tomas, Julien 18 January 2013 (has links) (PDF)
Les tables de mortalité sont utilisées pour décrire la probabilité annuelle de décès d'une population en fonction de l'âge atteint et de l'année calendaire. Ces probabilités jouent un rôle important dans la détermination des primes et réserves en assurance vie. Les estimations brutes, sur lesquelles se basent les tables de mortalité, peuvent être considérées comme un échantillon provenant d'une population plus importante et sont, par conséquent, soumises à des fluctuations aléatoires. Toutefois, l'actuaire souhaite la plupart du temps lisser ces quantités afin de faire ressortir les caractéristiques de la mortalité du groupe considéré qu'il pense être relativement régulières. Cette dissertation fournit une description détaillée des méthodes de graduation non-paramétrique de données d'expérience issues de l'assurance vie. Le terme non-paramétrique renvoie à une forme fonctionnelle de la courbe de régression. Comme les méthodes paramétriques, elles sont toutes aussi susceptibles de donner des estimations biaisées, mais de telle sorte qu'il est possible de compenser une augmentation du biais avec une diminution de la variation de l'échantillonnage. Dans la littérature actuarielle, le processus de lisser une table de mortalité est appelé graduation. Les collines et vallées des données brutes sont lissées de façon similaire á la construction d'une route sur un terrain accidenté. Le lissage seul, cependant, n'est pas la graduation. Les taux gradués doivent être représentatifs des données sous-jacentes et la graduation se révélera souvent comme un compromis entre ajustement et lissage optimal. Les régressions polynomiales locales et méthodes de vraisemblance locale sont examinées en détail. Les questions importantes concernant le choix des paramètres de lissage, les propriétés statistiques des estimateurs, les critères utilisés pour la sélection des modèles, la construction des intervalles de confiance ainsi que les comparaisons entre les modèles sont ouvertes avec des illustrations numériques et graphiques. Les techniques non-paramétriques locales combinent d'excellentes propriétés théoriques avec une simplicité et une flexibilité conceptuelle pour trouver une structure dans de nombreuses bases de données. Une attention particulère est consacrée à l'influence des bordures sur le choix des paramètres de lissage. Ces considérations illustrent le besoin d'avoir à disposition des approches plus flexibles. Des méthodes adaptatives de vraisemblance locale sont alors introduites. Le montant de lissage varie en fonction de l'emplacement et ces approches permettent des ajustements de la fenêtre d'observation en fonction de la fiabilité des données. Ces méthodes s'adaptent parfaitement à la complexité de la surface de mortalité en raison du choix adaptatif approprié des paramètres de lissage. Enfin, ce manuscrit traite de sujets importants pour les praticiens. Ceux-ci concernent la construction et la validation de tables de mortalité prospectives pour des portefeuilles d'assurance, l'évaluation du risque de modèle, et dans une moindre mesure, du risque d'opinion d'experts lié au choix de la table de référence externe utilisée.
8

Quantification of the model risk in finance and related problems / Quantification du risque de modèle en finance et problèmes reliés

Laachir, Ismail 02 July 2015 (has links)
L’objectif central de la thèse est d’étudier diverses mesures du risque de modèle, exprimées en terme monétaire, qui puissent être appliquées de façon cohérente à une collection hétérogène de produits financiers. Les deux premiers chapitres traitent cette problématique, premièrement d’un point de vue théorique, ensuite en menant un étude empirique centrée sur le marché du gaz naturel. Le troisième chapitre se concentre sur une étude théorique du risque dit de base (en anglais basis risk). Dans le premier chapitre, nous nous sommes intéressés à l’évaluation de produits financiers complexes, qui prend en compte le risque de modèle et la disponibilité dans le marché de produits dérivés basiques, appelés aussi vanille. Nous avons en particulier poursuivi l’approche du transport optimal (connue dans la littérature) pour le calcul des bornes de prix et des stratégies de sur (sous)-couverture robustes au risque de modèle. Nous reprenons en particulier une construction de probabilités martingales sous lesquelles le prix d’une option exotique atteint les dites bornes de prix, en se concentrant sur le cas des martingales positives. Nous mettons aussi en évidence des propriétés significatives de symétrie dans l’étude de ce problème. Dans le deuxième chapitre, nous approchons le problème du risque de modèle d’un point de vue empirique, en étudiant la gestion optimale d’une unité de gaz naturel et en quantifiant l’effet de ce risque sur sa valeur optimale. Lors de cette étude, l’évaluation de l’unité de stockage est basée sur le prix spot, alors que sa couverture est réalisée avec des contrats à termes. Comme mentionné auparavant, le troisième chapitre met l’accent sur le risque de base, qui intervient lorsque l’on veut couvrir un actif conditionnel basé sur un actif non traité (par exemple la température) en se servant d’un portefeuille constitué d’actifs traités sur le marché. Un critère de couverture dans ce contexte est celui de la minimisation de la variance qui est étroitement lié à la décomposition dite de Föllmer-Schweizer. Cette décomposition peut être déduite de la résolution d’une certaine équation différentielle stochastique rétrograde (EDSR) dirigée par une martingale éventuellement à sauts. Lorsque cette martingale est un mouvement brownien standard, les EDSR sont fortement associées aux EDP paraboliques semi linéaires. Dans le cas général nous formulons un problème déterministe qui étend les EDPs mentionnées. Nous appliquons cette démarche à l’important cas particulier de la décomposition de Föllmer-Schweizer, dont nous donnons des expressions explicites de la décomposition du payoff d’une option lorsque les sous-jacents sont exponentielles de processus additifs. / The main objective of this thesis is the study of the model risk and its quantification through monetary measures. On the other hand we expect it to fit a large set of complex (exotic) financial products. The first two chapters treat the model risk problem both from the empirical and the theoretical point of view, while the third chapter concentrates on a theoretical study of another financial risk called basis risk. In the first chapter of this thesis, we are interested in the model-independent pricing and hedging of complex financial products, when a set of standard (vanilla) products are available in the market. We follow the optimal transport approach for the computation of the option bounds and the super (sub)-hedging strategies. We characterize the optimal martingale probability measures, under which the exotic option price attains the model-free bounds; we devote special interest to the case when the martingales are positive. We stress in particular on the symmetry relations that arise when studying the option bounds. In the second chapter, we approach the model risk problem from an empirical point of view. We study the optimal management of a natural gas storage and we quantify the impact of that risk on the gas storage value. As already mentioned, the last chapter concentrates on the basis risk, which is the risk that arises when one hedges a contingent claim written on a non-tradable but observable asset (e.g. the temperature) using a portfolio of correlated tradable assets. One hedging criterion is the mean-variance minimization, which is closely related to the celebrated Föllmer-Schweizer decomposition. That decomposition can be deduced from the resolution of a special Backward Stochastic Differential Equations (BSDEs) driven by a càdlàg martingale. When this martingale is a standard Brownian motion, the related BSDEs are strongly related to semi-linear parabolic PDEs. In that chapter, we formulate a deterministic problem generalizing those PDEs to the general context of martingales and we apply this methodology to discuss some properties of the Föllmer-Schweizer decomposition. We also give an explicit expression of such decomposition of the option payoff when the underlying prices are exponential of additives processes.
9

Estimation du modèle GARCH à changement de régimes et son utilité pour quantifier le risque de modèle dans les applications financières en actuariat

Augustyniak, Maciej 12 1900 (has links)
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité. / The Markov-switching GARCH model is the foundation of this thesis. This model offers rich dynamics to model financial data by allowing for a GARCH structure with time-varying parameters. This flexibility is unfortunately undermined by a path dependence problem which has prevented maximum likelihood estimation of this model since its introduction, almost 20 years ago. The first half of this thesis provides a solution to this problem by developing two original estimation approaches allowing us to calculate the maximum likelihood estimator of the Markov-switching GARCH model. The first method is based on both the Monte Carlo expectation-maximization algorithm and importance sampling, while the second consists of a generalization of previously proposed approximations of the model, known as collapsing procedures. This generalization establishes a novel relationship in the econometric literature between particle filtering and collapsing procedures. The discovery of this relationship is important because it provides the missing link needed to justify the validity of the collapsing approach for estimating the Markov-switching GARCH model. The second half of this thesis is motivated by the events of the financial crisis of the late 2000s during which numerous institutional failures occurred because risk exposures were inappropriately measured. Using 78 different econometric models, including many generalizations of the Markov-switching GARCH model, it is shown that model risk plays an important role in the measurement and management of long-term investment risk in the context of variable annuities. Although the finance literature has devoted a lot of research into the development of advanced models for improving pricing and hedging performance, the approaches for measuring dynamic hedging effectiveness have evolved little. This thesis offers a methodological contribution in this area by proposing a statistical framework, based on regression analysis, for measuring the effectiveness of dynamic hedges for long-term investment guarantees.
10

Estimation du modèle GARCH à changement de régimes et son utilité pour quantifier le risque de modèle dans les applications financières en actuariat

Augustyniak, Maciej 12 1900 (has links)
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité. / The Markov-switching GARCH model is the foundation of this thesis. This model offers rich dynamics to model financial data by allowing for a GARCH structure with time-varying parameters. This flexibility is unfortunately undermined by a path dependence problem which has prevented maximum likelihood estimation of this model since its introduction, almost 20 years ago. The first half of this thesis provides a solution to this problem by developing two original estimation approaches allowing us to calculate the maximum likelihood estimator of the Markov-switching GARCH model. The first method is based on both the Monte Carlo expectation-maximization algorithm and importance sampling, while the second consists of a generalization of previously proposed approximations of the model, known as collapsing procedures. This generalization establishes a novel relationship in the econometric literature between particle filtering and collapsing procedures. The discovery of this relationship is important because it provides the missing link needed to justify the validity of the collapsing approach for estimating the Markov-switching GARCH model. The second half of this thesis is motivated by the events of the financial crisis of the late 2000s during which numerous institutional failures occurred because risk exposures were inappropriately measured. Using 78 different econometric models, including many generalizations of the Markov-switching GARCH model, it is shown that model risk plays an important role in the measurement and management of long-term investment risk in the context of variable annuities. Although the finance literature has devoted a lot of research into the development of advanced models for improving pricing and hedging performance, the approaches for measuring dynamic hedging effectiveness have evolved little. This thesis offers a methodological contribution in this area by proposing a statistical framework, based on regression analysis, for measuring the effectiveness of dynamic hedges for long-term investment guarantees.

Page generated in 0.3099 seconds