• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 6
  • Tagged with
  • 15
  • 15
  • 15
  • 11
  • 10
  • 9
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Trois essais sur le contenu informatif de la distribution des rendements implicite aux prix des options = : Three essays on the informative content of the option-implied return distribution / Three essays on the informative content of the option-implied return distribution

Toupin, Dominique 31 January 2021 (has links)
Chapitre 1 - Prévoir les rendements internationaux à l'aide de mesures de risque implicites aux options Ce chapitre examine la prévisibilité des rendements d’indices internationaux à l'aide d'informations quotidiennes en utilisant des régressions prédictives et de la prévision hors échantillon. Nous documentons le pouvoir prédictif significatif de la prime de risque de variance (VRP), de la mesure de risque généralisé (GR) et des moments d'ordre supérieur pour des horizons allant de 1 à 250 jours. Ces quatre mesures de risque, qui saisissent les «craintes» cumulatives du marché, fonctionnent bien aux États-Unis et à l'étranger. VRP et GR sont des prédicteurs significatifs et complémentaires pour plusieurs horizons, y compris ceux inférieurs à un mois (VRP) ainsi que des horizons plus lointains (GR). L'asymétrie et la kurtose sont significatifs pour plusieurs pays à travers de multiples horizons. Les calculs des gains d'utilité confirment l'importance économique de ces variables à l'échelle internationale. Chapitre 2 - Prévision de la volatilité des indices boursiers à l'aide de distributions récupérées à l’aide du théorème de Ross Le théorème de récupération montre que les données d’options peuvent révéler les véritables attentes du marché. Nous adaptons cette approche aux données d'options sur indices internationaux (S&P500, FTSE, CAC, SMI et DAX) et séparons la volatilité implicite en volatilité attendue récupérée par Ross et un proxy relié aux préférences des investisseurs pour le risque. Nous étudions les performances de prévision de la volatilité de ces variables, construites au niveau national et international. Les résultats montrent que les prévisions sont significativement améliorées et celles-ci fournissent de nouvelles informations sur la dynamique internationale des attentes et des préférences en matière de risque. Pour tous les indices, les modèles utilisant des mesures globales de Ross sont les plus performantes. Les résultats suggèrent que le théorème de récupération est empiriquement utile. Chapitre 3 - Le facteur d’escompte stochastique contemporain Ce chapitre étudie le facteur d’escompte stochastique contemporain obtenu en appliquant le théorème de récupération aux options de l'indice S&P500. Comme pour la littérature existante sur le casse-tête du facteur d’escompte stochastique, je trouve que les facteurs récupérés sont en forme de U, mais seulement une partie du temps. Les différentes formes observées pour les facteurs d’escompte stochastique semblent être regroupées dans le temps, ce qui indique qu'elles sont une véritable caractéristique des préférences face au risque et non pas seulement un artefact créé par des estimations bruyantes. Bien que les facteurs contemporains récupérés ne puissent pas prédire de manière significative les rendements futurs réalisés sur l'ensemble de la distribution, c’est possible pour les 3 premiers quartiles. Un praticien ayant besoin d'une mesure instantanée du risque de perte pourrait donc utiliser le théorème de Ross. / Chapter 1 - The sum of all fears: forecasting international returns using option-implied risk measures This chapter investigates international index return predictability using daily-updated option-implied information in predictive regressions and out-of-sample forecasts. We document the significant predictive power of the variance risk premium (VRP), Generalized Riskiness (GR), and higher-order moments for horizons ranging from 1 to 250 days. These four risk metrics, which capture cumulative market “fears”, perform well in the US and internationally. VRP and GR are significant and complementary predictors for several horizons, including under one month (VRP) and longer horizons (GR). Risk-neutral skewness and kurtosis are significant for several countries across multiple horizons. Utility gain calculations confirm the economic significance of these riskneutral variables internationally. Chapter 2 - Forecasting market index volatility using Ross-recovered distributions The recovery theorem shows that option data can reveal the market’s true (physical) expectations. We adapt this approach to international index options data (S&P500, FTSE, CAC, SMI, and DAX) and separate implied volatility into Ross-recovered expected volatility and a risk preference proxy. We investigate the volatility forecasting performance of these variables, constructed domestically or globally. The results show evidence of significantly improved forecasts, and yield new insights on the international dynamics of risk expectations and preferences. Across indices, models using Ross-recovered, value-weighted global measures of risk preferences perform best. The findings suggest that the recovery theorem is empirically useful. Chapter 3 – The contemporaneous pricing kernel This chapter investigates the contemporaneous pricing kernel obtained by applying the recovery theorem to options on the S&P500 index. Similarly to the literature on the pricing kernel puzzle, I find evidence that the recovered pricing kernels are U-shape, but only some of the time. The different shapes observed for the recovered kernels appear to be clustered in time, indicating that they are a genuine feature of risk preferences and not just an artifact created by noisy pricing kernel estimates. Although the recovered contemporaneous kernels cannot significantly predict future realized returns over the whole distribution, they are successful for the first 3 quartiles. A practitioner needing an instantaneous measure of downside risk could therefore obtain such information by applying the recovery theorem to options data.
2

Investigating high-dimensional problems in actuarial science, dependence modelling, and quantitative risk management

Blier-Wong, Christopher 27 November 2023 (has links)
Titre de l'écran-titre (visionné le 20 novembre 2023) / Les compagnies d'assurance jouent un rôle essentiel dans la société en assurant la protection financière, la gestion des risques, la stabilité sociale et la promotion de la croissance économique. Dans ce contexte, les actuaires utilisent leur expertise en mathématiques, en statistiques et en théorie financière pour aider les particuliers, les entreprises et les organisations à prendre des décisions éclairées en matière de gestion des risques et de protection contre les pertes financières, contribuant ainsi à la stabilité et à la prospérité globales de la société. La plupart des théories de la science actuarielle commencent par la simplification d'hypothèses afin d'obtenir des expressions simples : au premier plan, l'hypothèse selon laquelle les risques du portefeuille d'une compagnie d'assurance sont indépendants et identiquement distribués. Si cette hypothèse se vérifie, on peut souvent appliquer la loi des grands nombres pour obtenir des résultats mathématiques pratiques liés à la gestion et à la tarification des risques dans le portefeuille. Cependant, la levée de cette hypothèse complique généralement ce résultat, et nous examinerons certaines de ces complications dans cette thèse. L'objectif principal de cette thèse est d'étudier les problèmes de haute dimension dans la science actuarielle, dans la modélisation de la dépendance et dans la gestion quantitative des risques. La thèse est divisée en trois parties, couvrant trois sujets sous le thème général de la science actuarielle à haute dimension. Dans la première partie, nous proposons des méthodes pour incorporer des données à haute dimension dans les modèles de tarification. Une hypothèse implicite d'un modèle de tarification actuariel est celle de l'équité actuarielle, le principe selon lequel les primes d'assurance doivent être basées sur des données statistiques et des facteurs de risque liés aux coûts totaux associés à un contrat d'assurance. En d'autres termes, l'équité actuarielle signifie que les personnes les plus susceptibles de faire une réclamation doivent payer des primes plus élevées que celles qui sont moins susceptibles de le faire. Les actuaires utilisent des modèles mathématiques et des analyses statistiques pour étudier le risque associé à différents événements, tels que les maladies, les accidents et les catastrophes naturelles. Ils utilisent ensuite ces données pour déterminer des primes qui reflètent le risque associé à chaque assuré. Une stratégie essentielle pour les assureurs consiste à écumer la crème, c'est-à-dire à choisir sélectivement d'assurer les clients présentant un faible risque de sinistre, tout en excluant ceux qui présentent un risque plus élevé ou en leur appliquant des primes plus élevées. La mise en œuvre réussie de cette stratégie nécessite un avantage concurrentiel utilisant plus de données, plus de caractéristiques ou en développant des modèles plus performants. Même si un assureur ne souhaite pas utiliser cette stratégie, il est essentiel de disposer d'un excellent modèle prédictif (aussi bon que celui du concurrent). L'introduction traite de l'intégration des données massives dans le modèle de tarification d'un assureur. Nous fournissons ensuite des implémentations spécifiques utilisant des informations de recensement externes pour la modélisation spatiale et des images de rues externes pour identifier les facteurs de risque des maisons. La deuxième partie de cette thèse comprend deux contributions à la théorie des copules. Elle est consacrée à l'obtention de nouveaux résultats sur la famille des copules de Farlie-Gumbel-Morgenstern (FGM). Cette famille de copules est très flexible puisque sa version à d-variables contient 2ᵈ − d − 1 paramètres. Cependant, une paramétrisation en haute dimension est considérée comme un inconvénient car il y a trop de paramètres à spécifier, qui sont difficiles à interpréter, et les paramètres doivent satisfaire un ensemble de contraintes fastidieuses. Construire des familles de copules FGM de haute dimension pour des applications pratiques est un défi. Notre contribution dans cette partie de la thèse est de proposer une représentation stochastique des copules FGM basée sur des distributions de Bernoulli symétriques multivariées. Nous montrons également que cette correspondance est bijective. Cette représentation, dans la plupart des cas, permet de dériver de nouvelles propriétés des copules FGM basées sur l'abondante littérature sur les distributions de Bernoulli symétriques multivariées. Nous obtenons des résultats supplémentaires utiles lorsque nous utilisons l'hypothèse additionnelle selon laquelle les composantes du vecteur aléatoire sont échangeables. Dans la troisième partie de cette thèse, nous apportons deux contributions à l'agrégation des risques, à l'allocation du capital et au partage des risques. Premièrement, nous utilisons les résultats obtenus dans la deuxième partie de la thèse pour étudier l'agrégation des risques lorsque la structure de dépendance entre les risques est une copule FGM. Nous dérivons des expressions pour les moments et la transformée de Laplace-Stieltjes de la variable aléatoire agrégée basée sur la représentation stochastique des copules FGM. Nous concevons un algorithme pour calculer la fonction de masse de probabilité du vecteur aléatoire agrégé lorsque les risques sont définis par des variables aléatoires discrètes. Lorsque les risques sont définis par des variables aléatoires continues obéissant à une distribution mélange d'Erlang, nous démontrons que la variable aléatoire agrégée est également distribuée selon une distribution mélange d'Erlang et nous développons des expressions pour les mesures de risque et les contributions au risque ex-post pour le partage des risques avec la règle de partage des risques à espérance conditionnelle. La deuxième contribution de cette partie établit un lien entre les espérances conditionnelles et les dérivés des fonctions génératrices de probabilités conjointes. Cette relation conduit à de nouvelles stratégies pour calculer les espérances conditionnelles ex-ante ou ex-post lorsque les risques sont représentés par des variables aléatoires discrètes. Nous dérivons de nouvelles expressions pour les espérances conditionnelles et développons une stratégie de calcul efficace basée sur les transformées de Fourier rapides pour calculer les espérances conditionnelles. / Insurance companies play a critical role in society by providing financial protection, risk management, social stability and promoting economic growth. Within this context, actuaries use their expertise in mathematics, statistics, and financial theory to help individuals, businesses, and organizations make informed decisions about managing risks and protecting against financial loss, contributing to society's overall stability and prosperity. Most of the theory in actuarial science starts with simplifying assumptions to obtain convenient expressions: at the forefront is that the risks in an insurance company's portfolio are independent and identically distributed. If the assumption holds, one may often apply the central limit theorem to obtain convenient mathematical results related to risk management and pricing of risks in the portfolio. However, removing this assumption typically complicates this result, and we will investigate some of these challenges in this thesis. The main objective of this thesis is to investigate high-dimensional problems in insurance mathematics, dependence modelling and quantitative risk management. The thesis is divided into three parts, covering three subjects under the general theme of high-dimensional actuarial science. In the first part, we propose methods to incorporate high-dimensional data within ratemaking models. An implicit assumption of the actuarial model is that of actuarial fairness, the principle that insurance premiums should be based on statistical data and risk factors related to the total costs associated with an insurance contract. In other words, actuarial fairness means that individuals more likely to make a claim should pay higher premiums than those less likely to do so. Actuaries use mathematical models and statistical analysis to calculate the risk associated with different events, such as illness, accidents, and natural disasters. They then use this data to set premiums that reflect the risk associated with other policyholders. A critical strategy for insurers is "skimming the creme," referring to insurance companies selectively choosing to insure customers at lower risk of making a claim while excluding or charging higher premiums to those at higher risk. This strategy's successful implementation requires a competitive advantage in terms of more data, more features or better models. Even if an insurer does not want to use this strategy, having an excellent predictive model (as good as the competitor's) is still essential. The introduction discusses incorporating big data into an insurer's ratemaking model. We then provide specific implementations using external census information for spatial modelling and external street view imagery to identify risk factors of houses. The second part of this thesis includes two contributions to copula theory. It is dedicated to obtaining new results on the family of Farlie-Gumbel-Morgenstern (FGM) copulas. This family of copulas is very flexible since its d-variate version contains 2ᵈ - d - 1 parameters. However, this high dimensionality in the parameters is considered a drawback since there are too many parameters to specify, which are difficult to interpret, and the parameters must satisfy a set of tedious constraints. Constructing high-dimensional families of FGM copulas for practical applications is challenging. Our contribution in this part of the thesis is to propose a stochastic representation of FGM copulas based on symmetric multivariate Bernoulli distributions. We further show that this correspondence is one-to-one. This representation, in most cases, lets one derive new properties of FGM copulas based on the expansive literature on multivariate symmetric Bernoulli distributions. We derive useful supplemental results when we use the additional assumption that the components of the random vector are exchangeable. In the third part of this thesis, we provide two contributions to risk aggregation, capital allocation and risk-sharing. First, we use the results derived in the second part of the thesis to study risk aggregation when the dependence structure between the risks is a FGM copula. We derive expressions for the moments and the Laplace-Stieltjes transform of the aggregate random variable based on the stochastic representation of FGM copulas. We design an algorithm to compute the probability mass function of the aggregate random vector when the risks are discrete. When risks are mixed Erlang distributed, we find that the aggregate random variable is also mixed Erlang distributed and develop expressions for risk measures and ex-post risk contributions for risk-sharing with the conditional mean risk-sharing rule in that case. For our second contribution of this part, we provide a link between conditional expectations and derivatives of joint probability-generating functions. This relationship leads to new strategies to compute conditional means ex-ante or ex-post when risks are discrete. We derive new expressions for the conditional means and develop an efficient computational strategy based on fast Fourier transforms to compute the conditional means.
3

Mesures de risque et dépendance

Mailhot, Mélina 19 April 2018 (has links)
En théorie du risque, la tâche principale de l'actuaire consiste à gérer les risques souscrits par l'entreprise afin qu'elle soit à tout moment en mesure de remplir ses obligations. Les mesures de risque sont de précieux outils à cet effet. Dans cette thèse, les mesures de risque et méthodes d'allocation de capital en fonction de la dépendance entre les risques sont étudiées. Aussi, de nouvelles mesures de risque et méthodes d'allocation de capital sont développées, dans le cadre de portefeuilles multivariés partiellement agrégés avec dépendance entre les risques. L'introduction présente une revue de la littérature ainsi que les concepts traités dans cette thèse. Dans un second chapitre, l'allocation de capital basée sur la mesure Tail Value-at-Risk (TVaR) pour un portefeuille de risques agrégés, suivant des distributions composées multivariées avec sévérités continues est présentée. Le troisième chapitre fait l'étude de la mesure Value-at-Risk (VaR) bivariée. Cette dernière est redéfinie, afin de pouvoir étudier son comportement, en fonction de la dépendance entre les risques. Plusieurs résultats sur les conditions de convexité et par rapport aux ordres de concordance ainsi qu'aux bornes en fonction de cette mesure sont montrés. Une application intéressante en assurance est aussi présentée. Les nouvelles mesures de risque TVaR bivarié de quadrant inférieur et supérieur sont présentées dans le quatrième chapitre. Ces mesures sont motivées, étudiées et appliquées pour des annuités liées à des actifs. Le cinquième chapitre fait part de méthodes numériques efficaces pour calculer des bornes inférieures et supérieures d'une fonction de répartition représentant une somme de variables aléatoires. Cet algorithme permet aussi le calcul de bornes pour la VaR d'une somme de variables aléatoires. Une brève conclusion rappelle les apports de cette thèse et suggère quelques avenues de recherche intéressantes en lien avec les sujets traités. / In risk theory, the main task of the actuary is to manage the risks underwritten by the company so that, at any time, it will be able to fulfill its obligations. Risk measures are valuable tools for this purpose. In this thesis, risk measures and capital allocation methods based on the dependence between multivariate risks are studied. Also, new measures of risk and capital allocation methods are developed within the framework of multivariate portfolios with partially aggregated dependencies between risks. The introduction presents a literature review and the concepts discussed in this thesis. In the second chapter, the capital allocation based on the measure Tail Value-at- Risk (TVaR) for a portfolio of risks following multivariate distributions with continuous severities is presented. The third chapter is the study of the bivariate Value-at-Risk (VaR). The latter is studied and illustrated, according to the dependence between risks. Several results on the conditions of convexity and relative to concordance orders and bounds of this metric are set. An interesting application in insurance is also presented. The new bivariate lower and upper orthant TVaR are presented in chapter four. These measures are motivated, studied and applied to Equity Indexed Annuities associated with correlated assets. The fifth chapter presents a numerical algorithm in order to calculate lower and upper bounds for sums of random variables. The method suggested is concise and parsimonious. It also allows to compute bounds for the VaR for sums of random variables. A brief conclusion recalls the contributions of this thesis and suggests some interesting research venues in connection with topics discussed in the previous chapters.
4

The impact of risk on three initial public offerings market anomalies : hot-issue market, underpricing, and long-run underperformance

Mrissa Bouden, Habiba 23 April 2018 (has links)
Cette thèse comporte trois articles examinant l’impact du risque sur trois anomalies associées au marché des introductions en bourse (IPOs). Il s’agit de : (1) phénomène de "hot-issue market", (2) la sous-évaluation initiale et (3) la sous-performance à long terme. Nous proposons une approche innovatrice qui décompose le risque total au niveau de la firme ainsi qu’au niveau du marché des IPOs en : (1) risque systématique qui est attribué aux facteurs du risque commun à l’ensemble du marché et (2) risque idiosyncratique qui est associé aux facteurs du risque spécifique de la firme et qui est utilisé comme proxy du niveau d’asymétrie d’information. De plus, nous utilisons la volatilité implicite du marché pour évaluer l’impact du niveau d’incertitude globale de l’ensemble du marché sur l’activité des IPOs. Notre objectif est de révéler la composante du risque qui joue le rôle le plus important dans le cycle des IPOs (article 1) d’une part, et le processus d’évaluation du titre à court (article 2) et à long terme (article 3) d’autre part. Le premier article caractérise le rôle du risque dans le cycle des IPOs. Notre objectif est d’étudier le cycle des IPOs non seulement en termes du volume d’émission et niveau des rendements initiaux, mais également en termes de risque des firmes émettrices avec ses deux composantes systématique et idiosyncratique. Nous montrons le rôle important du risque global du marché à anticiper les vagues des IPOs et le niveau du risque idiosyncratique des prochaines émissions. De plus, nous montrons que le risque systématique des firmes émettrices est positivement corrélé à celui des émissions précédentes. La prédiction des vagues des IPOs et du niveau du risque spécifique des émissions futures aide: (1) les organismes de réglementation à améliorer les règles en conséquence, (2) les investisseurs à prendre de meilleures décisions d’investissement en IPOs et (3) les émetteurs d'aligner leur IPO selon la réceptivité du marché. Le second article traite l’impact des deux composantes du risque (systématique et idiosyncratique) de la firme émettrice et du marché des IPOs sur l’évaluation des IPOs par les souscripteurs durant la période de l’enregistrement d’une part et par les investisseurs sur le marché suite à son introduction d’autre part. Nos résultats montrent que les souscripteurs tendent à sous-évaluer les titres IPOs par rapport aux titres non-IPOs semblables (du point de vue de l’industrie, du niveau des ventes, de la profitabilité et du niveau de croissance), lorsqu’on considère le risque idiosyncratique du marché des IPOs au cours de la période d’enregistrement. Quant à l'évaluation de la firme en post-IPO, nous constatons que seulement le risque idiosyncratique de la société émettrice n’est pas incorporé dans le prix du marché des IPOs surévalués. Nous concluons que la mauvaise évaluation des IPOs pourrait être attribuée essentiellement à la non-incorporation de la composante idiosyncratique du risque dans le prix du titre. Le troisième article étudie la performance anormale à long terme des IPOs versus les titres non-IPOs comparables sous un nouvel angle qui exploite la différence entre le risque systématique et le risque idiosyncratique de la firme. Nos résultats montrent que les titres d’IPOs présentent un risque systématique et idiosyncratique plus élevé que celui de leurs semblables. À l’encontre des titres non-IPOs, nous constatons une tendance baissière significative du risque idiosyncratique des IPOs durant les trois premières années de l’introduction, tandis que la composante systématique du risque présente une légère tendance haussière au fil du temps. Nous montrons aussi que la sous-performance apparente des IPOs n’est que le reflet d’une exposition au risque de la volatilité qui est moins élevée pour les IPOs par rapport à leur semblables non-IPOs. Par ailleurs, nous constatons des sous-performances plus importantes à long terme, surtout pour les IPOs à risque idiosyncratique élevé, les firmes technologiques et les IPOs durant la période chaude d’émissions. Cette thèse contribue à la littérature des IPOs en démontrant la pertinence de notre approche qui adopte la décomposition du risque afin de comprendre certains résultats mitigés dans la littérature à propos des trois anomalies du marché des IPOs. / This thesis contains three articles examining the impact of risk on three anomalies associated with the IPO market. These anomalies are: (1) the phenomenon of "hot-issue market", (2) the underpricing and (3) the long-run underperformance. We use a new approach that decomposes the total risk at the firm as well as the IPO market levels into: (1) a systematic risk component associated with common risk factors of the market and (2) an idiosyncratic risk component tied with firm specific risk factors and used as a proxy for the information asymmetry level. In addition, we use market implied volatility to assess the impact of market-wide uncertainty on IPO activity. Our objective is to reveal which risk component is involved in the IPO cycles (Paper 1), the short-run (Paper 2) as well as the long-run (Paper 3) IPO pricing process. The first paper characterizes the role of risk in IPO cycles. We aim to study IPO cycles not only in terms of IPO volume and initial returns but also in terms of issuing firm’s risks with both systematic and idiosyncratic components. We show the important role of the market-wide risk to anticipate IPO’s waves and the level of the idiosyncratic risk of future issues. Moreover, we show that systematic risk is positively correlated across issuing firms. The predictability of IPO waves and the specific risk level of future new issues helps: (1) regulators to improve rules accordingly, (2) investors to make better IPO investment’s decisions and (3) issuers to align their IPO timing with market receptivity. The second paper evaluates the impact of both risk components (systematic and idiosyncratic) at the issuing firm as well as the IPO market levels on the IPO pricing by the underwriters during the period of registration on the one hand and by the investors in the early aftermarket stage on the other hand. Our results show that underwriters tend to undervalue IPOs compared to similar non-IPOs equities (controlling for the industry, sales, profitability and growth), when considering the idiosyncratic risk at the IPO market level during the registration period. For post-IPO valuation, we find that idiosyncratic risk of the issuing firm is not incorporated into the market price of overvalued IPOs only. We conclude that IPO mispricing is mainly attributed to the non-incorporation of the idiosyncratic risk component into IPO prices. The third paper examines the long-run abnormal performance of IPOs versus comparable non-IPOs equities by using a new perspective that distinguishes between the systematic and idiosyncratic risk components of the firm. Our findings show that IPOs exhibit higher levels of systematic and idiosyncratic risks than their matched peers. Unlike non-issuing firms, we show a significant downward trend in IPO idiosyncratic risk during the first three years of seasoning. However, the IPO systematic risk component exhibits a slight upward trend over time. We also show that the apparent IPO underperformance is just a reflection of a lower risk volatility exposure for IPOs relative to similar non-issuing firms. Moreover, we find more pronounced long-run underperformance, especially for IPOs with high idiosyncratic risk, technology firms and hot-IPOs. This thesis contributes to the IPO literature by highlighting the relevance of our approach that adopts the decomposition of risk in order to understand some mixed findings in the literature about the three anomalies of the IPO’s market.
5

Les déterminants de l'écart de taux d'intérêt SWAP

Dion, Pascal 12 April 2018 (has links)
Le mémoire porte sur l'étude de l'écart de taux d'intérêt swap. Nous cherchons à déterminer ce qui fait varier cet écart de taux d'intérêt swap pour ensuite le prédire. Ce mémoire est important car, en terme absolu, le swap est le produit dérivé le plus négocié au monde. Les contrats swaps sont devenus des instruments incontournables pour gérer le risque de taux d'intérêt. Dans un monde financier complexe, il est fort pratique d'utiliser l'obligation gouvernementale la plus récente comme instrument sans risque. Étant donné la taille limitée de ce marché, le swap est un instrument de remplacement de choix pour les financiers. Son utilisation comme instrument de gestion du risque est donc fréquent. Toutefois, la prime de risque varie avec le temps. Il est donc important de savoir et comprendre ce qui fait varier cet écart pour aider à éliminer au maximum le risque de taux d'intérêt. Il sera démontré que la prime de liquidité inclus dans le marché des obligations gouvernementales et la prime de risque inclus dans le marché LIBOR sont les principaux déterminants de l'écart de taux swap. Un modèle sera construit pour nous permettre d'étudier les différents déterminants dans un contexte économétrique. Nos résultats nous permettent de dire que les risques ont une importance différente d'une période à l'autre.
6

On the impact of stochastic volatility, interest rates and mortality on the hedge efficiency of GLWB quarantees

Veilleux, Pierre-Alexandre 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016 / Les rentes variables, et plus particulièrement les garanties de rachat viager (GRV), sont devenues très importantes dans l'industrie de la gestion du patrimoine. Ces garanties, qui offrent aux clients une protection de revenu tout en leur permettant de garder une participation dans les marchés boursiers, comprennent différents risques systématiques du point de vue de l'émetteur. La gestion des risques des GRV est donc une préoccupation majeure pour les compagnies d'assurance, qui ont opté pour la couverture sur les marchés financiers comme stratégie de gestion des risques simple et efficace. Ce mémoire évalue l'impact de la modélisation du passif de la garantie sur l'efficacité de la couverture des GRV par rapport à trois risques systématiques importants pour ces garanties, soient les risques de marchés boursiers, d'intérêt et de longévité. Le présent travail vise donc à étendre l'analyse effectuée par Kling et al. (2011), qui se concentre sur le risque de marchés boursiers. Ce mémoire montre que les taux d'intérêt stochastiques sont primordiaux dans la modélisation du passif des GRV. Ce mémoire analyse également l'impact de la modélisation de la mortalité utilisée dans la boucle externe sur l'efficacité de la couverture des GRV. Une allocation du risque entre les risques financiers et le risque de longévité est utilisée pour montrer que la longévité représente une part importante du risque total des GRV couvertes. De plus, l'efficacité de la couverture dans des projections incluant une modélisation stochastique des risques financiers et du risque de longévité est comparée à l'efficacité dans des projections utilisant des marges pour écarts défavorables traditionnelles sur l'hypothèse d'amélioration de mortalité. La diversification entre les risques financiers et de longévité s'avère avoir un effet substantiel sur l'efficacité de la couverture. / Variable annuity guarantees, and particularly guaranteed lifetime withdrawal benefit (GLWB) guarantees, have become very important in the wealth management industry. These guarantees, which provide clients with a revenue protection while allowing them to retain equity market participation, exhibit significant systematic risks from the issuer's standpoint. Risk management of GLWB guarantees thus is a main concern for insurance companies, which have turned to capital market hedging as a straightforward and effective risk management method. This thesis assesses the impact of the guarantee liability modeling on the hedge efficiency of GLWB guarantees with respect to three significant systematic risks for these guarantees, namely, the stock market, interest rate and longevity risks. The present work thus aims to extend the hedge efficiency analysis performed in Kling et al. (2011), which focuses on the stock market risk. In this thesis, stochastic interest rates are shown to be of primary importance in the guarantee liability modeling of GLWB guarantees. This thesis also analyzes the impact of the outer loop modeling of mortality on the hedge efficiency of GLWB guarantees. A risk allocation between financial and longevity risks is used to show that longevity holds a significant share of the total risk of a hedged GLWB guarantee. The hedge efficiency in projections including both stochastic financial and mortality modeling is compared with the efficiency in projections using traditional actuarial margins for adverse deviations on the mortality improvement assumption. The diversification between financial and longevity risks is shown to have a substantial impact on hedge efficiency.
7

Impacts du biais de négligence des corrélations sur la qualité d'une décision de portefeuille : études auprès d'un groupe de planificateurs financiers agréés

Amiot, Gabriel 18 February 2021 (has links)
La présente recherche s’intéresse à la négligence des corrélations en contexte d’investissement. À l’aide d’un questionnaire réalisé auprès de 88 planificateurs financiers agréés (Pl. Fin.) en collaboration avec l’Institut québécois de la planification financière (IQPF), nos résultats suggèrent que le décideur moyen utilise plutôt le profil de tolérance au risque d’un client fictif afin d’orienter sa prise de décision (motif principal préféré par 60% des répondants). Entre deux fonds d’investissement à rendements égaux, nous constatons une tendance modale de l’individu à conseiller le fond présentant la plus petite variance individuelle indépendamment de sa corrélation. Non seulement le sujet représentatif ne favorise pas une mesure du risque agrégée basée sur le portefeuille global de son client (i.e., variance de portefeuille), mais celui-ci ne semble pas non plus concevoir l’existence d’une alternative moins risquée dans un contexte systémique. À partir de six formats de présentation différents dans un design inter-sujet, nos résultats suggèrent également qu’une surcharge d’information nuit à l’attention limitée du participant et exacerbe sa propension à intégrer l’information telle que vue et présentée (heuristique de valeur nominale). / This research seeks to highlight the underlying mechanisms that might cause correlation neglect among a group of financial experts in an investment context. Via an experimental questionnaire administered to 88 financial planners, we ask what would be their advice to twelve fictitious clients who wish to invest in a new fund according to a fixed set of information (six frames, between-subjects design). The planner had to consider the previously owned fund “to give an optimal advice that maximizes the portfolio diversification”. Between two alternative funds to invest with equal average returns, our results suggest that the representative expert emphasizes mainly the client’s risk tolerance profile to make a selection (first motive designated by 60% of subjects). We thus identify a pattern from which the modal subject recommend the low (high) individual variance fund with low (high) risk tolerance profile of a client. This observed behaviour not only neglects to account for the full portfolio variance, which depends crucially on the correlation between the funds, but also suggests a difficulty to conceptualize the impacts of aggregating two or more assets in the same system. We suggest that our results may be explained by a “face-value” heuristic hypothesis that posits that the subject neglects to consider the underlying generating process of the final outputs showed display and that this is exacerbated by an information overload when present.
8

Modèles de dépendance avec copule Archimédienne : fondements basés sur la construction par mélange, méthodes de calcul et applications

Veilleux, Dery 21 December 2018 (has links)
Le domaine de l’assurance est basé sur la loi des grands nombres, un théorème stipulant que les caractéristiques statistiques d’un échantillon aléatoire suffisamment grand convergent vers les caractéristiques de la population complète. Les compagnies d’assurance se basent sur ce principe afin d’évaluer le risque associé aux évènements assurés. Cependant, l’introduction d’une relation de dépendance entre les éléments de l’échantillon aléatoire peut changer drastiquement le profil de risque d’un échantillon par rapport à la population entière. Il est donc crucial de considérer l’effet de la dépendance lorsqu’on agrège des risques d’assurance, d’où l’intérêt porté à la modélisation de la dépendance en science actuarielle. Dans ce mémoire, on s’intéresse à la modélisation de la dépendance à l’intérieur d’un portefeuille de risques dans le cas où une variable aléatoire (v.a.) mélange introduit de la dépendance entre les différents risques. Après avoir introduit l’utilisation des mélanges exponentiels dans la modélisation du risque en actuariat, on démontre comment cette construction par mélange nous permet de définir les copules Archimédiennes, un outil puissant pour la modélisation de la dépendance. Dans un premier temps, on démontre comment il est possible d’approximer une copule Archimédienne construite par mélange continu par une copule construite par mélange discret. Puis, nous dérivons des expressions explicites pour certaines mesures d’intérêt du risque agrégé. Nous développons une méthode de calcul analytique pour évaluer la distribution d’une somme de risques aléatoires d’un portefeuille sujet à une telle structure de dépendance. On applique enfin ces résultats à des problèmes d’agrégation, d’allocation du capital et de théorie de la ruine. Finalement, une extension est faite aux copules Archimédiennes hiérarchiques, une généralisation de la dépendance par mélange commun où il existe de la dépendance entre les risques à plus d’un niveau. / The law of large numbers, which states that statistical characteristics of a random sample will converge to the characteristics of the whole population, is the foundation of the insurance industry. Insurance companies rely on this principle to evaluate the risk of insured events. However, when we introduce dependencies between each component of the random sample, it may drastically affect the overall risk profile of the sample in comparison to the whole population. This is why it is essential to consider the effect of dependency when aggregating insurance risks from which stems the interest given to dependence modeling in actuarial science. In this thesis, we study dependence modeling in a portfolio of risks for which a mixture random variable (rv) introduces dependency. After introducing the use of exponential mixtures in actuarial risk modeling, we show how this mixture construction can define Archimedean copulas, a powerful tool for dependence modeling. First, we demonstrate how an Archimedean copula constructed via a continuous mixture can be approximated with a copula constructed by discrete mixture. Then, we derive explicit expressions for a few quantities related to the aggregated risk. The common mixture representation of Archimedean copulas is then at the basis of a computational strategy proposed to compute the distribution of the sum of risks in a general setup. Such results are then used to investigate risk models with respect to aggregation, capital allocation and ruin problems. Finally, we discuss an extension to nested Archimedean copulas, a general case of dependency via common mixture including different levels of dependency. / Résumé en espagnol
9

Rao's Quadratic Entropy, Risk Management and Portfolio Theory

Koumou, Nettey Boevi Gilles 24 April 2018 (has links)
Cette thèse porte sur le concept de la diversification et sa mesure en théorie des choix de portefeuille. La diversification est un concept clé en finance et en économique, et est au coeur de la théorie des choix de portefeuille. Elle représente l’un des plus importants outils de gestion du risque. Ainsi, plusieurs mesures de diversification de portefeuille ont été proposées, mais aucune ne s’est révélée totalement satisfaisante et la discipline recherche toujours une approche unifiée et cohérente de mesure et gestion de la diversification. Cette thèse répond à ce besoin et développe une nouvelle classe de mesures de diversification de portefeuille en adaptant à l’économie financière l’entropie quadratique de Rao, une mesure de diversité proposée par Rao et utilisée en statistique, en biodiversité, en écologie et dans plusieurs autres domaines. La thèse démontre que si l’entropie quadratique de Rao est bien calibrée, elle devient une classe valide de mesures de diversification de portefeuille résumant, de manière simple, les caractéristiques complexes de la diversification de portefeuille, et offrant en même temps une théorie unifiée qui englobe de nombreuses contributions antérieures. Ensuite, la thèse présente deux applications de la classe de mesures proposée. La première application s’est intéressée à la stratégie de diversification de portefeuille maximum diversification (MD) développée par Choueifaty and Coignard (2008). Elle propose de nouvelles formulations de cette dernière en se basant sur la classe de mesures proposée. Ces nouvelles formulations permettent de donner un fondement théorique à la stratégie MD et d’améliorer ses performances. La deuxième application s’est intéressée au modèle moyenne-variance de Markowitz (1952). Elle propose une nouvelle formulation de ce dernier en se basant sur la classe de mesures proposée. Cette nouvelle formulation améliore significativement la compréhension du modèle, en particulier le processus de rémunération des actifs. Elle offre également de nouvelles possibilités d’amélioration des performances de ce dernier sans coûts d’implementation supplémentaires. / This thesis is about the concept of diversification and its measurement in portfolio theory. Diversification is one of the major components of portfolio theory. It helps to reduce or ultimately to eliminate portfolio risk. Thus, its measurement and management is of fundamental importance in finance and insurance domains as risk measurement and management. Consequently, several measures of portfolio diversification were proposed, each based on a different criterion . Unfortunately, none of them has proven totally satisfactory. All have drawbacks and limited applications. Developing a coherent measure of portfolio diversification is therefore an active research area in investment management. In this thesis, a novel, coherent, general and rigorous theoretical framework to manage and quantify portfolio diversification inspiring from Rao (1982a)’s Quadratic Entropy (RQE), a general approach to measuring diversity, is proposed. More precisely, this thesis demonstrates that when RQE is judiciously calibrated it becomes a valid class of portfolio diversification measures summarizing complex features of portfolio diversification in a simple manner and provides at the same time a unified theory that includes many previous contributions. Next, this thesis presents two applications of the proposed class of portfolio diversification measures. In the first application, new formulations of maximum diversification strategy of Choueifaty and Coignard (2008) is provided based on the proposed class of measures. These new formalizations clarify the investment problem behind the MD strategy, help identify the source of its strong out-of-sample performance relative to other diversified portfolios, and suggest new directions along which its out-of-sample performance can be improved. In the second application, a novel and useful formulation of the mean-variance utility function is provided based on the proposed class of measures. This new formulation significantly improves the mean-variance model understanding, in particular in terms of asset pricing. It also offers new directions along which the mean-variance model can be improved without additional computational costs.
10

Modélisation de la dépendance à l'aide des mélanges communs et applications en actuariat

Mtalai, Itre 19 December 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / La modélisation de la dépendance entre les risques pour un portefeuille d’une assurance ou d’une entité financière est devenue de plus en plus importante pour la solvabilité des institutions financières et l’examen de solvabilité dynamique et l’analyse financière dynamique des compagnies d’assurance. L’hypothèse d’indépendance entre les risques est parfois réaliste et facilite l’évaluation, l’agrégation et l’allocation des risques. Cependant, dans la majorité des cas, les risques individuels sont influencés par un ou plusieurs facteurs communs, tels que l’environnement économique, les régions géographiques ou les conditions climatiques et il est donc moins réaliste, voire dangereux, de supposer l’indépendance entre les risques d’un même portefeuille. Dans la littérature, un tel cas peut être modélisé par des modèles avec mélange commun. Ces modèles ont de nombreuses applications en assurance et en finance. L’objectif de cette thèse est donc d’explorer les modèles de dépendance construits à l’aide des mélanges communs et de faire sortir, à l’aide de plusieurs applications, la dangerosité de considérer l’indépendance entre les risques au sein d’un portefeuille. En particulier, la focalisation est mise sur un modèle souvent considéré pour modéliser le montant de sinistres, notamment la loi exponentielle mélange. Cette thèse considère les modèles de risque basés sur la loi exponentielle mélange. Le premier chapitre constitue une introduction générale aux modèles avec mélanges communs et introduit les notions qui seront utilisées dans les autres chapitres. Dans le deuxième chapitre, nous considérons un portefeuille de risques représentés par un vecteur de variables aléatoires dont la fonction de répartition conjointe est définie par une copule Archimédienne ou une copule Archimédienne imbriquée. Nous examinons le calcul de la fonction de répartition de la somme ou une variété de fonctions de ces variables aléatoires. En nous basant sur la méthodologie computationnelle présentée dans ce chapitre, nous examinons plusieurs problèmes reliés à différents modèles de risque en actuariat, tels que l’agrégation et l’allocation du capital. De plus, en utilisant une telle structure de dépendance avec des marginales spécifiques, nous obtenons des expressions explicites pour plusieurs quantités relatives au risque agrégé telles que sa fonction de masse de probabilité, sa fonction de répartition, sa TVaR, etc. L’échangeabilité des copules Archimédiennes implique que toutes les marginales sont égales. Afin de généraliser les copules Archimédiennes pour permettre les asymétries, plusieurs chercheurs utilisent une structure hiérarchique obtenue en imbriquant plusieurs copules Archimédiennes. Toutefois, il est difficile de valider la condition d’imbrication permettant d’assurer que la structure résultante est une copule, lorsque les copules impliquées appartiennent à des familles Archimédiennes différentes. Afin de remédier à ce problème, nous présentons, au troisième chapitre, une nouvelle méthode d’imbrication basée sur la construction des lois composées multivariées exponentielles mélange. En introduisant plusieurs paramètres, un large spectre de structures de dépendance peut être couvert par cette nouvelle construction, ce qui semble être très intéressant pour des applications pratiques. Des algorithmes efficients de simulation et d’agrégation sont également présentés. En nous inspirant à la fois des chapitres 2 et 3, nous proposons et examinons en détail au quatrième chapitre une nouvelle extension au modèle collectif de risque en supposant une certaine dépendance entre la fréquence et la sévérité des sinistres. Nous considérons des modèles collectifs de risque avec différentes structures de dépendance telles que des modèles impliquant des lois mélanges d’Erlang multivariées ou, dans un cadre plus général, des modèles basés sur des copules bivariées ou multivariées. Nous utilisons également les copules Archimédiennes et Archimédiennes hiérarchiques afin de modéliser la dépendance entre les composantes de la somme aléatoire représentant le montant de sinistre global. En nous basant encore une fois sur la représentation de notre modèle sous forme d’un mélange commun, nous adaptons la méthodologie computationnelle présentée au chapitre 2 pour calculer la fonction de masse de probabilité d’une somme aléatoire incorporant une dépendance hiérarchique. Finalement, dans le cinquième chapitre, nous soulignons l’utilité des modèles avec mélange commun et nous étudions plus en détail les lois exponentielles mélange dans leurs versions univariée et multivariée et nous expliquons leur lien étroit avec les copules Archimédiennes et Archimédiennes hiérarchiques. Nous proposons également plusieurs nouvelles distributions et nous établissons leurs liens avec des distributions connues. / Risk dependence modelling has become an increasingly important task for the solvency of financial institutions and insurance companies. The independence assumption between risks is sometimes realistic and facilitates risk assessment, aggregation and allocation. However, in most cases individual risks are influenced by at least one common factor, such as the economic environment, geographical regions or climatic conditions, and it is therefore less realistic or even dangerous to assume independence between risks. In the literature, such a case can be modelled by common mixture models. These models have many applications in insurance and finance. The aim of this thesis is to explore the dependence models constructed using common mixtures and to bring out, with the use of several applications, the riskiness of considering the independence between risks within an insurance company or a financial institution. In particular, the focus is on the exponential mixture. Exponential mixture distributions are on the basis of this thesis. The first chapter is a general introduction to models with common mixtures and introduces the concepts that will be used in the other chapters. In the second chapter, we consider a portfolio of risks represented by a vector of random variables whose joint distribution function is defined by an Archimedean copula or a nested Archimedean copula. We examine the computation of the distribution of the sum function or a variety of functions of these random variables. Based on the computational methodology presented in this chapter, we examine risk models regarding aggregation, capital allocation and ruin problems. Moreover, by using such a dependency structure with specific marginals, we obtain explicit expressions for several aggregated risk quantities such as its probability mass function, its distribution function, and its TVaR. The exchangeability of the Archimedean copulas implies that all margins are equal. To generalize Archimedean copulas to allow asymmetries, several researchers use a hierarchical structure obtained by nesting several Archimedean copulas. However, it is difficult to validate the nesting condition when the copulas involved belong to different Archimedean families. To solve this problem, we present, in the third chapter, a new imbrication method via the construction of the multivariate compound distributions. By introducing several parameters, a large spectrum of dependency structures can be achieved by this new construction, which seems very interesting for practical applications. Efficient sampling and aggregation algorithms are also presented. Based on both Chapters 2 and 3, we propose and examine in detail, in the fourth chapter, a new extension to the collective risk model assuming a certain dependence between the frequency and the severity of the claims. We consider collective risk models with different dependence structures such as models based on multivariate mixed Erlang distributions, models involving bivariate or multivariate copulas, or in a more general setting, Archimedean and hierarchical Archimedean copulas. Once again, based on the common mixture representation, we adapt the computational methodology presented in Chapter 2 to compute the probability mass function of a random sum incorporating a hierarchical Archimedean dependency. Finally, in the last chapter, we study, in more details, the exponential mixture distributions in their univariate and multivariate versions and we explain their close relationship to Archimedean and hierarchical Archimedean copulas. We also derive several new distributions, and we establish their links with pre-existent distributions. Keywords : Common mixture models, Exponential mixture, Bernoulli mixture, Archimedean copulas, Nested Archimedean copulas, Compounding, Marshall-Olkin, Hierarchical dependence structures.

Page generated in 0.5247 seconds