• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 23
  • 4
  • 4
  • 1
  • Tagged with
  • 75
  • 75
  • 17
  • 16
  • 15
  • 13
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Robustesse de la stratégie de trading optimale / Robustness of the optimal trading strategy

Bel Hadj Ayed, Ahmed 12 April 2016 (has links)
L’objectif principal de cette thèse est d’apporter de nouveaux résultats théoriques concernant la performance d’investissements basés sur des modèles stochastiques. Pour ce faire, nous considérons la stratégie optimale d’investissement dans le cadre d’un modèle d’actif risqué à volatilité constante et dont la tendance est un processus caché d’Ornstein Uhlenbeck. Dans le premier chapitre,nous présentons le contexte et les objectifs de cette étude. Nous présentons, également, les différentes méthodes utilisées, ainsi que les principaux résultats obtenus. Dans le second chapitre, nous nous intéressons à la faisabilité de la calibration de la tendance. Nous répondons à cette question avec des résultats analytiques et des simulations numériques. Nous clôturons ce chapitre en quantifiant également l’impact d’une erreur de calibration sur l’estimation de la tendance et nous exploitons les résultats pour détecter son signe. Dans le troisième chapitre, nous supposons que l’agent est capable de bien calibrer la tendance et nous étudions l’impact qu’a la non-observabilité de la tendance sur la performance de la stratégie optimale. Pour cela, nous considérons le cas d’une utilité logarithmique et d’une tendance observée ou non. Dans chacun des deux cas, nous explicitons la limite asymptotique de l’espérance et la variance du rendement logarithmique en fonction du ratio signal-sur-bruit et de la vitesse de retour à la moyenne de la tendance. Nous concluons cette étude en montrant que le ratio de Sharpe asymptotique de la stratégie optimale avec observations partielles ne peut dépasser 2/(3^1.5)∗100% du ratio de Sharpe asymptotique de la stratégie optimale avec informations complètes. Le quatrième chapitre étudie la robustesse de la stratégie optimale avec une erreur de calibration et compare sa performance à une stratégie d’analyse technique. Pour y parvenir, nous caractérisons, de façon analytique,l’espérance asymptotique du rendement logarithmique de chacune de ces deux stratégies. Nous montrons, grâce à nos résultats théoriques et à des simulations numériques, qu’une stratégie d’analyse technique est plus robuste que la stratégie optimale mal calibrée. / The aim of this thesis is to study the robustness of the optimal trading strategy. The setting we consider is that of a stochastic asset price model where the trend follows an unobservable Ornstein-Uhlenbeck process. In the first chapter, the background and the objectives of this study are presented along with the different methods used and the main results obtained. The question addressed in the second chapter is the estimation of the trend of a financial asset, and the impact of misspecification. Motivated by the use of Kalman filtering as a forecasting tool, we study the problem of parameters estimation, and measure the effect of parameters misspecification. Numerical examples illustrate the difficulty of trend forecasting in financial time series. The question addressed in the third chapter is the performance of the optimal strategy,and the impact of partial information. We focus on the optimal strategy with a logarithmic utility function under full or partial information. For both cases, we provide the asymptotic expectation and variance of the logarithmic return as functions of the signal-to-noise ratio and of the trend mean reversion speed. Finally, we compare the asymptotic Sharpe ratios of these strategies in order to quantify the loss of performance due to partial information. The aim of the fourth chapter is to compare the performances of the optimal strategy under parameters mis-specification and of a technical analysis trading strategy. For both strategies, we provide the asymptotic expectation of the logarithmic return as functions of the model parameters. Finally, numerical examples find that an investment strategy using the cross moving averages rule is more robust than the optimal strategy under parameters misspecification.
62

Forecasting Stock Prices Using an Auto Regressive Exogenous model

Hjort, Måns, Andersson, Lukas January 2023 (has links)
This project aimed to evaluate the effectiveness of the Auto Regressive Exogenous(ARX) model in forecasting stock prices and contribute to research on statisticalmodels in predicting stock prices. An ARX model is a type of linear regression modelused in time series analysis to forecast future values based on past values and externalinput signals. In this study, the ARX model was used to forecast the closing pricesof stocks listed on the OMX Stockholm 30 (OMXS30*) excluding Essity, Evolution,and Sinch, using historical data from 2016-01-01 to 2020-01-01 obtained from YahooFinance. The model was trained using the least squares approach with a control signal that filtersoutliers in the data. This was done by modeling the ARX model using optimizationtheory and then solving that optimization problem using Gurobi OptimizationSoftware. Subsequently, the accuracy of the model was tested by predicting prices in aperiod based on past values and the exogenous input variable. The results indicated that the ARX model was not suitable for predicting stock priceswhile considering short time periods.
63

Etude des EDS rétrogrades avec sauts et problèmes de gestion du risque

Kazi-Tani, Mohamed Nabil 10 December 2012 (has links) (PDF)
Cette thèse traite d'une part, de questions de gestion, de mesure et de transfert du risque et d'autre part, de problèmes d'analyse stochastique à sauts avec incertitude de modèle. Le premier chapitre est consacré à l'analyse des intégrales de Choquet, comme mesures de risque monétaires non nécessairement invariantes en loi. Nous établissons d'abord un nouveau résultat de représentation des mesures de risque comonotones, puis un résultat de représentation des intégrales de Choquet en introduisant la notion de distorsion locale. Ceci nous permet de donner ensuite une forme explicite à l'inf-convolution de deux intégrales de Choquet, avec des exemples illustrant l'impact de l'absence de la propriété d'invariance en loi. Nous nous intéressons ensuite à un problème de tarification d'un contrat de réassurance non proportionnelle, contenant des clauses de reconstitution. Après avoir défini le prix d'indifférence relatif à la fois à une fonction d'utilité et à une mesure de risque, nous l'encadrons par des valeurs facilement implémentables. Nous passons alors à un cadre dynamique en temps. Pour cela, nous montrons, en adoptant une approche par point fixe, un théorème d'existence de solutions bornées pour une classe d'équations différentielles stochastiques rétrogrades (EDSRs dans la suite) avec sauts et à croissance quadratique. Sous une hypothèse additionnelle classique dans le cadre à sauts, ou sous une hypothèse de convexité du générateur, nous établissons un résultat d'unicité grâce à un principe de comparaison. Nous analysons les propriétés des espérances non linéaires correspondantes. En particulier, nous obtenons une décomposition de Doob-Meyer des surmartingales non-linéaires ainsi que leur régularité en temps. En conséquence, nous en déduisons facilement un principe de comparaison inverse. Nous appliquons ces résultats à l'étude des mesures de risque dynamiques associées, sur une filtration engendrée à la fois par un mouvement brownien et par une mesure aléatoire à valeurs entières, à leur repésentation duale, ainsi qu'à leur inf-convolution, avec des exemples explicites. La seconde partie de cette thèse concerne l'analyse de l'incertitude de modèle, dans le cas particulier des EDSRs du second ordre avec sauts. Nous imposons que ces équations aient lieu au sens presque-sûr, pour toute une famille non dominée de mesures de probabilités qui sont solution d'un problème de martingales sur l'espace de Skorohod. Nous étendons d'abord la définition des EDSRs du second ordre, telles que définies par Soner, Touzi et Zhang, au cas avec sauts. Pour ce faire, nous démontrons un résultat d'agrégation au sens de Soner, Touzi et Zhang sur l'espace des trajectoires càdlàg. Ceci nous permet, entre autres, d'utiliser une version quasi-sûre du compensateur de la mesure des sauts du processus canonique. Nous montrons alors un résultat d'existence et d'unicité pour notre classe d'EDSRs du second ordre. Ces équations sont affectées par l'incertitude portant à la fois sur la volatilité et sur les sauts du processus qui les dirige.
64

Etude de deux problèmes de contrôle stochastique : Put Américain avec dividendes discrets et principe de programmation dynamique avec contraintes en probabilités

Jeunesse, Maxence 29 January 2013 (has links) (PDF)
Dans cette thèse, nous traitons deux problèmes de contrôle optimal stochastique. Chaque problème correspond à une Partie de ce document. Le premier problème traité est très précis, il s'agit de la valorisation des contrats optionnels de vente de type Américain (dit Put Américain) en présence de dividendes discrets (Partie I). Le deuxième est plus général, puisqu'il s'agit dans un cadre discret en temps de prouver l'existence d'un principe de programmation dynamique sous des contraintes en probabilités (Partie II). Bien que les deux problèmes soient assez distincts, le principe de programmation dynamique est au coeur de ces deux problèmes. La relation entre la valorisation d'un Put Américain et un problème de frontière libre a été prouvée par McKean. La frontière de ce problème a une signification économique claire puisqu'elle correspond à tout instant à la borne supérieure de l'ensemble des prix d'actifs pour lesquels il est préférable d'exercer tout de suite son droit de vente. La forme de cette frontière en présence de dividendes discrets n'avait pas été résolue à notre connaissance. Sous l'hypothèse que le dividende est une fonction déterministe du prix de l'actif à l'instant précédant son versement, nous étudions donc comment la frontière est modifiée. Au voisinage des dates de dividende, et dans le modèle du Chapitre 3, nous savons qualifier la monotonie de la frontière, et dans certains cas quantifier son comportement local. Dans le Chapitre 3, nous montrons que la propriété du smooth-fit est satisfaite à toute date sauf celles de versement des dividendes. Dans les deux Chapitres 3 et 4, nous donnons des conditions pour garantir la continuité de cette frontière en dehors des dates de dividende. La Partie II est originellement motivée par la gestion optimale de la production d'une centrale hydro-electrique avec une contrainte en probabilité sur le niveau d'eau du barrage à certaines dates. En utilisant les travaux de Balder sur la relaxation de Young des problèmes de commande optimale, nous nous intéressons plus spécifiquement à leur résolution par programmation dynamique. Dans le Chapitre 5, nous étendons au cadre des mesures de Young des résultats dûs à Evstigneev. Nous établissons alors qu'il est possible de résoudre par programmation dynamique certains problèmes avec des contraintes en espérances conditionnelles. Grâce aux travaux de Bouchard, Elie, Soner et Touzi sur les problèmes de cible stochastique avec perte contrôlée, nous montrons dans le Chapitre 6 qu'un problème avec contrainte en espérance peut se ramener à un problème avec des contraintes en espérances conditionnelles. Comme cas particulier, nous prouvons ainsi que le problème initial de la gestion du barrage peut se résoudre par programmation dynamique.
65

Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financière

Infante Acevedo, José Arturo 09 December 2013 (has links) (PDF)
Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financière Ce travail de thèse aborde deux sujets : (i) L'utilisation d'une nouvelle méthode numérique pour l'évaluation des options sur un panier d'actifs, (ii) Le risque de liquidité, la modélisation du carnet d'ordres et la microstructure de marché. Premier thème : Un algorithme glouton et ses applications pour résoudre des équa- tions aux dérivées partielles Beaucoup de problèmes d'intérêt dans différents domaines (sciences des matériaux, finance, etc) font intervenir des équations aux dérivées partielles (EDP) en grande dimension. L'exemple typique en finance est l'évaluation d'une option sur un panier d'actifs, laquelle peut être obtenue en résolvant l'EDP de Black-Scholes ayant comme dimension le nombre d'actifs considérés. Nous proposons d'é- tudier un algorithme qui a été proposé et étudié récemment dans [ACKM06, BLM09] pour résoudre des problèmes en grande dimension et essayer de contourner la malédiction de la dimension. L'idée est de représenter la solution comme une somme de produits tensoriels et de calculer itérativement les termes de cette somme en utilisant un algorithme glouton. La résolution des EDP en grande di- mension est fortement liée à la représentation des fonctions en grande dimension. Dans le Chapitre 1, nous décrivons différentes approches pour représenter des fonctions en grande dimension et nous introduisons les problèmes en grande dimension en finance qui sont traités dans ce travail de thèse. La méthode sélectionnée dans ce manuscrit est une méthode d'approximation non-linéaire ap- pelée Proper Generalized Decomposition (PGD). Le Chapitre 2 montre l'application de cette méthode pour l'approximation de la solution d'une EDP linéaire (le problème de Poisson) et pour l'approxima- tion d'une fonction de carré intégrable par une somme des produits tensoriels. Un étude numérique de ce dernier problème est présenté dans le Chapitre 3. Le problème de Poisson et celui de l'approxima- tion d'une fonction de carré intégrable serviront de base dans le Chapitre 4 pour résoudre l'équation de Black-Scholes en utilisant l'approche PGD. Dans des exemples numériques, nous avons obtenu des résultats jusqu'en dimension 10. Outre l'approximation de la solution de l'équation de Black-Scholes, nous proposons une méthode de réduction de variance des méthodes Monte Carlo classiques pour évaluer des options financières. Second thème : Risque de liquidité, modélisation du carnet d'ordres, microstructure de marché Le risque de liquidité et la microstructure de marché sont devenus des sujets très importants dans les mathématiques financières. La dérégulation des marchés financiers et la compétition entre eux pour attirer plus d'investisseurs constituent une des raisons possibles. Les règles de cotation sont en train de changer et, en général, plus d'information est disponible. En particulier, il est possible de savoir à chaque instant le nombre d'ordres en attente pour certains actifs et d'avoir un historique de toutes les transactions passées. Dans ce travail, nous étudions comment utiliser cette information pour exécuter de facon optimale la vente ou l'achat des ordres. Ceci est lié au comportement des traders qui veulent minimiser leurs coûts de transaction. La structure du carnet d'ordres (Limit Order Book) est très complexe. Les ordres peuvent seulement être placés dans une grille des prix. A chaque instant, le nombre d'ordres en attente d'achat (ou vente) pour chaque prix est enregistré. Pour un prix donné, quand deux ordres se correspondent, ils sont exécutés selon une règle First In First Out. Ainsi, à cause de cette complexité, un modèle exhaustif du carnet d'ordres peut ne pas nous amener à un modèle où, par exemple, il pourrait être difficile de tirer des conclusions sur la stratégie optimale du trader. Nous devons donc proposer des modèles qui puissent capturer les caractéristiques les plus importantes de la structure du carnet d'ordres tout en restant possible d'obtenir des résultats analytiques. Dans [AFS10], Alfonsi, Fruth et Schied ont proposé un modèle simple du carnet d'ordres. Dans ce modèle, il est possible de trouver explicitement la stratégie optimale pour acheter (ou vendre) une quantité donnée d'actions avant une maturité. L'idée est de diviser l'ordre d'achat (ou de vente) dans d'autres ordres plus petits afin de trouver l'équilibre entre l'acquisition des nouveaux ordres et leur prix. Ce travail de thèse se concentre sur une extension du modèle du carnet d'ordres introduit par Alfonsi, Fruth et Schied. Ici, l'originalité est de permettre à la profondeur du carnet d'ordres de dépendre du temps, ce qui représente une nouvelle caractéristique du carnet d'ordres qui a été illustré par [JJ88, GM92, HH95, KW96]. Dans ce cadre, nous résolvons le problème de l'exécution optimale pour des stratégies discrétes et continues. Ceci nous donne, en particulier, des conditions suffisantes pour exclure les manipulations des prix au sens de Huberman et Stanzl [HS04] ou de Transaction- Triggered Price Manipulation (voir Alfonsi, Schied et Slynko). Ces conditions nous donnent des intu- itions qualitatives sur la manière dont les teneurs de marché (market makers) peuvent créer ou pas des manipulations des prix.
66

Modélisation multi-dimensionnelle et analyse multi-régionale de l'économie française

Buda, Rodolphe 23 November 2010 (has links) (PDF)
Dans cette thèse nous avons abordé la modélisation multidimensionnelle (multi-régionale, multi-sectorielle) sur un plan théorique, empirique et instrumental. Après avoir examiné l'état de la modélisation macro-économétrique en passant en revue ses principaux outils quantitatifs, nous avons identifié les théories et modèles présentant le marché du travail sous une forme spatiale en passant en revue l'Economie du travail et la Science régionale. Dans la 2ème partie, nous avons présenté les principaux algorithmes de la modélisation puis nous avons levé l'hypothèse de neutralité théorique du choix des algorithmes et proposé des pistes d'amélioration quantitative et qualitative, notamment la modélisation d'inspiration autrichienne que nous avons conçue. Enfin nous avons présenté les logiciels de modélisation multidimensionnelle SIMUL et SIM2 que nous avons construits. Dans la 3ème partie, nous avons présenté notre travail de constitution de banque de données de modélisation, abordant ainsi les problèmes de collecte et de maintenance des données. Nous avons présenté notre travail de rétropolation de séries longues d'emploi régional 1967-2006 en NES36. Nous avons conclu sur la problématique de la révision des données. Dans la dernière partie, nous nous sommes livrés à un essai d'analyse conjoncturelle régionale de l'emploi en appliquant nos logiciels à nos données pour effectuer des estimations. Sachant que H est la dernière année historique où l'INSEE a fourni des données d'emploi détaillé définitives et que T est l'année courante, nos horizons d'estimation ont été successivement H+1, H+2 et T-1. Nous avons enfin confronté nos résultats à ceux des publications conjoncturelles des institutions et des organismes sociaux.
67

Mesure et gestion des risques d'assurance : analyse critique des futurs référentiels prudentiel et d'information financière

Thérond, Pierre-Emmanuel 25 June 2007 (has links) (PDF)
Contexte, objectifs et organisation de la thèse Aujourd'hui, le secteur de l'assurance est confronté à une triple mutation : − prudentielle avec l'avènement du futur cadre prudentiel européen qui résultera du projet Solvabilité 2 ; − du reporting financier avec le recours de plus en plus massif aux méthodes d'European Embedded Value de valorisation de compagnie d'assurance ; − comptable avec la préparation de la phase II de la norme internationale IFRS consacrée aux contrats d'assurance. Dans ce contexte, les assureurs sont invités, pour chacun de ces trois aspects, à mieux identifier, mesurer et gérer les risques auxquels ils sont soumis. Ces trois référentiels s'inscrivent dans une même logique d'uniformisation internationale (à tout le moins communautaire) et de transparence. Pour cela, la référence " au marché " est omniprésente : dès que c'est possible, c'est en référence au marché que les engagements d'assurance doivent être valorisés. En particulier, les risques financiers doivent être traités de la même manière que des instruments financiers qui seraient cotés sur un marché financier liquide. Ce principe n'est pas sans poser des problèmes conceptuels et opérationnels. L'objectif de cette thèse est de présenter les principes communs sur lesquels reposent les trois nouveaux référentiels, d'illustrer la limite de leur application en assurance et de proposer des modèles pour leur mise en oeuvre effective. Une attention particulière est portée aux risques opérationnels qu'engendrent des exigences de valorisation de plus en plus complexes. Elle s'articule en deux parties qui se décomposent chacune en trois chapitres. La première partie est consacrée à la présentation des nouveaux référentiels prudentiel, comptable et de communication financière et insiste plus particulièrement sur la manière dont les risques sont valorisés et l'incidence de ces principes d'évaluation en termes de gestion d'une compagnie d'assurance. La seconde partie aborde ces nouvelles normes sous un angle plus opérationnel en identifiant un certain nombre de problèmes pratiques auxquels leur mise en oeuvre confronte l'actuaire et en proposant des modèles permettant de surmonter ces difficultés. ---- Résumé La première partie de la thèse s'intéresse aux risques portés par les sociétés d'assurance, leurs caractéristiques et leur traitement. En effet, l'activité d'assurance est née du besoin de se prémunir contre le risque (les agents économiques sont généralement averses aux risques qui peuvent réduire leur patrimoine), ce que permet l'opération d'assurance en transférant les risques de l'assuré vers l'assureur qui, en vertu de la loi des grands nombres, bénéficie de les effets de la mutualisation et est donc relativement moins exposé au risque que l'assuré. Les évolutions récentes ou à venir amènent les assureurs à reconsidérer, au moins pour partie, leur vision des risques qu'ils assurent. Ainsi, qu'il s'agisse des nouvelles dispositions réglementaires (Solvabilité 2), de communication financière (EEV/MCEV) ou comptables (IFRS), l'objectif est similaire : identifier les risques et les analyser le plus finement possible. Le passage d'un système où les hypothèses sont exogènes et prudentes, car contraintes par la réglementation, à un système où les hypothèses les plus réalistes doivent être privilégiées conduit à prendre en considération de " nouveaux risques ". Ces risques ne sont généralement pas à proprement parler " nouveaux " : la plupart du temps, ils existaient déjà mais n'avaient pas été soit étudiés plus avant du fait de leur caractère secondaire par rapport aux risques principaux, soit identifiés. Par exemple, dans le cas du risque de mortalité, un assureur qui veut étudier ce risque va, dans un premier temps, considérer son portefeuille et l'historique des données correspondant de manière à établir des statistiques descriptives de suivi du risque. Sur des portefeuilles d'assureurs, compte-tenu de la taille des échantillons, de telles études mettront en évidence le phénomène de fluctuation d'échantillonnage autour de la tendance centrale qui est le risque principal, mais certainement pas les risques systématiques de mortalité (mortalité stochastique et risque de longévité) qui s'avèrent relativement plus petits. Ces deux risques ne pourront être identifiés que par des études plus poussées, en étudiant par exemple, en parallèle les statistiques nationales de l'évolution au cours du temps de la mortalité. Le premier chapitre s'intéresse aux aspects théoriques du traitement du risque. La première partie est consacrée à l'analyse mathématique des risques avec la présentation des concepts de mesures et de comparaisons de risques et les principaux outils qui permettent d'y parvenir. La deuxième partie s'intéressent aux différents modèles de valorisation qui co-existent en assurance et en particulier aux modèles économiques issus de la théorie financière dont l'usage est de plus en plus fréquent. Il convient néanmoins de remarquer qu'associer une valeur à un risque et le gérer de manière effective relèvent de deux démarches distinctes. Ce point est illustré dans le cas d'une garantie plancher en cas de décès de l'assuré sur un contrat d'épargne en unités de compte. Le deuxième chapitre s'attache à identifier les divergences entre les différentiels précédemment évoqués de manière à en tirer les conclusions adéquates en termes opérationnels. En effet, même s'ils reposent sur un socle de principes communs, la diversité des finalités des référentiels conduit à des options différentes dans la modélisation des produits d'assurance. En particulier, un des principes fondamentaux commun aux trois approches est l'utilisation d'hypothèses best estimate, i.e. le recours aux hypothèses les plus réalistes compte-tenu de l'information dont dispose l'assureur. Ce point est fondamental car il diffère du contexte traditionnel de l'assurance qui repose sur des hypothèses prudentes. Par exemple, le taux d'actualisation d'un régime de rentiers ne doit pas, selon la réglementation française, être supérieur à 60 % du taux moyen des emprunts de l'État français (TME) quand bien même une société d'assurance investirait intégralement en OAT disposerait d'un rendement (certain) supérieur à ce taux d'actualisation. Á titre illustratif, une attention particulière est portée sur l'évolution récente des tables de mortalité pour les risques viagers. Cet exemple montre que sur une période de temps relativement réduite, l'estimation de l'évolution de tel ou tel phénomène (l'espérance résiduelle de vie à 60 ans pour un assuré né en 1950 par exemple) peut être révisée en profondeur et avoir un impact important sur les niveaux de provisions techniques. De plus dans certains cas, un même phénomène sera modélisé sur des bases différentes selon que l'on cherche à valoriser un portefeuille de contrats ou à assurer sa solvabilité. Par ailleurs, la valorisation des portefeuilles d'assurance nécessite fréquemment la modélisation du comportement de l'assureur et des assurés, particulièrement en assurance vie. Aussi les modèles implémentés ont de réels impacts sur les valorisations obtenues. Un exemple dans le cas de la gestion d'un portefeuille financier vient illustrer cela. Enfin ce chapitre se conclut sur la modélisation et la valorisation d'un portefeuille d'assurance vie. Les exigences quantitatives prévues dans le Pilier I de Solvabilité 2 prévoient notamment des exigences de fonds propres en référence au risque global supporté par l'assureur. Cette démarche impose des contraintes fortes en termes de gestion technique. Le troisième chapitre met ainsi en évidence les conséquences du changement de référentiel prudentiel sur la gestion des actifs de la société. Le projet Solvabilité 2 fixant les exigences quantitatives de fonds propres en fonction du risque global supporté par la compagnie, n'importe quel acte de gestion modifiant la structure ou la forme de ce risque a pour conséquence automatique et immédiate de modifier l'exigence minimale de capitaux propres. Ceci est illustré dans le cas du choix d'une allocation stratégique d'actifs et observons notamment la manière dont le processus de fixation de l'allocation évolue entre la réglementation prudentielle actuelle et Solvabilité 2. La deuxième partie de la thèse est consacrée aux techniques avancées de gestion du risque d'une compagnie d'assurance. L'avènement du référentiel prudentiel Solvabilité 2 et, dans une moindre mesure, du nouveau cadre comptable induit par la phase II de la norme IFRS dédiée aux contrats d'assurance, va systématiser l'emploi de la Value-at-Risk (VaR) en assurance. Particulièrement utilisées en finance de marché, les techniques de calcul de VaR exigent une adaptation spécifique dans un contexte assurantiel de par la nature des risques qui sont ainsi mesurés. Schématiquement on distingue deux contextes, qui imposent des approches différentes : − La mesure du risque lié à la sinistralité au moyen d'une VaR dans le corps de la distribution : la provision1 devra suffire à payer les sinistres dans 75 % des cas ; − la mesure de risque liée à la ruine de la compagnie par le biais d'une VaR d'ordre très élevé : le capital de solvabilité devra permettre à la compagnie de ne pas être en ruine, à la fin de l'exercice, avec une probabilité supérieure à 99,5 %. Dans la première situation, que l'on adopte une approche VaR historique ou que l'on cherche à modéliser la sinistralité, on reste dans un cadre dans lequel on dispose d'un matériel statistique de taille généralement suffisante pour estimer une VaR dans le corps de la distribution. Dans le second cas, on est en revanche confronté à l'absence d'observations et il convient alors, dans un premier temps, de modéliser les variables de base qui influent sur la solvabilité de la compagnie, dans un deuxième temps, de simuler la ruine de la compagnie et enfin d'estimer une VaR d'ordre élevé. Cette dernière étape nécessite le recours à la théorie 1. Les travaux les plus récents du CEIOPS sur Solvabilité 2 donnent la préférence à une approche coût du capital plutôt qu'à la VaR à 75 % pour le calibrage de la marge pour risque. des valeurs extrêmes. Le cinquième chapitre s'attache à présenter les contextes de calcul de VaR en assurance, les résultats probabilistes sous-jacents et les limites de ces critères. Une attention toute particulière est portée aux différents risques opérationnels auxquels est confronté l'actuaire dans un contexte de modèle interne de type Solvabilité 2. Par ailleurs un autre phénomène à intégrer est celui de la dépendance entre les risques. L'activité d'assurance, qui repose sur la mutualisation et la convergence en probabilité énoncée dans la loi des grands nombres, s'est développée sur une des hypothèses principales de cette loi : l'indépendance entre les risques. Les exigences de solvabilité comme les référentiels économiques de valorisation ne font aujourd'hui plus l'économie de la non prise en compte des risques inhérents à la dépendance. Ainsi le capital de solvabilité fixé en référence au risque global supporté par la société ne saurait s'analyser comme la somme des capitaux qui permettraient de couvrir chaque risque individuellement. Par ailleurs, dans une approche de valorisation, si les marchés financiers n'accordent pas de prime à un risque mutualisable, il n'en est pas de même pour les risques non-mutualisables (ou systématiques) dont les sociétés d'assurance cherchent à se défaire au maximum que ce soit au travers de traités de réassurance ou, de plus en plus, grâce aux opérations de titrisation. Le cinquième chapitre aborde cette problématique en présentant, dans un premier temps, les aspects mathématiques de la mesure et de la modélisation de la dépendance ; puis en analysant l'impact de la prise en compte de celle-ci dans les contextes assurantiels de détermination d'un capital de solvabilité et de valorisation du contrat d'épargne présenté dans le deuxième chapitre. Cet exemple n'a pu être mis en oeuvre que grâce à l'utilisation de méthodes de Monte Carlo. En effet, la complexité des contrats d'assurance et l'interdépendance intrinsèque et temporelle des phénomènes qui concourent à leur dénouement obligent les assureurs à avoir un recours de plus en plus systématique aux techniques de simulation. Par exemple dans Solvabilité 2, l'alternative à l'utilisation de la formule standard pour déterminer le capital de solvabilité passera par la mise en place d'un modèle interne. Un tel modèle revient à modéliser l'ensemble des variables qui influent sur le risque global supporté par la compagnie. La mise en oeuvre effective d'un tel modèle ne pourra faire l'économie du recours aux techniques de simulation. C'est justement l'objet du sixième chapitre qui revient notamment sur les techniques de discrétisation temporelle des processus stochastiques continus, l'estimation des paramètres et la génération de nombres aléatoires. Les illustrations
68

Outils théoriques et opérationnels adaptés au contexte de l'assurance vie en Afrique subsaharienne francophone - Analyse et mesure des risques liés à la mortalité

Kamega, Aymric 14 December 2011 (has links) (PDF)
Dans un marché de l'assurance vie en Afrique subsaharienne francophone à la traîne, mais promis à un bel avenir en cas d'émergence de solutions techniques et commerciales endogènes, la thèse propose des outils théoriques et opérationnels adaptés à son développement. Cette démarche s'inscrit en parallèle des actions entreprises par l'autorité de contrôle régionale (la CIMA) pour fournir aux assureurs de la région des outils adaptés. En effet, la CIMA a initié des travaux pour la construction de nouvelles tables réglementaires d'expérience, ce qui a permis de fournir des références fiables et pertinentes pour la mortalité de la population assurée dans la région. Toutefois, certaines problématiques techniques utiles n'ont pas été développées dans ces travaux de construction. La thèse leur accorde alors une attention particulière. Ainsi, d'une part, la thèse permet de fournir des outils pour tenir compte des différences de mortalité entre pays de la région, tout en limitant les risques systématiques liés aux fluctuations d'échantillonnage (dues à la petite taille des échantillons de données par pays). Il apparaît notamment que si la modélisation indépendante de chaque pays n'est pas appropriée, les modèles d'hétérogénéité à facteurs observables, tels que le modèle de Cox ou de Lin et Ying, permettent d'atteindre cet objectif. On précise toutefois ici que ces modèles d'hétérogénéité ne permettent pas de supprimer le risque systématique lié aux fluctuations d'échantillonnage lors de l'estimation du modèle, ils engendrent seulement une réduction de ce risque en contrepartie d'une augmentation du risque systématique lié au choix du modèle. D'autre part, la thèse permet également de fournir des outils pour modéliser la mortalité d'expérience future dans la région. En absence de données sur les tendances passées de la mortalité d'expérience, ni le modèle classique de Lee-Carter ni ses extensions ne sont applicables. Une solution basée sur un ajustement paramétrique, une hypothèse sur la forme de l'évolution du niveau de mortalité (évolution linaire ou exponentielle) et un avis d'expert sur l'espérance de vie générationnelle à un âge donné est alors proposée (ces travaux s'appuient sur le modèle de Bongaarts). Ensuite, dans un second temps, en supposant disposer de données sur les tendances passées (ce qui pour mémoire n'est pas le cas à ce stade dans la région, mais devrait l'être dans les prochaines années), la thèse propose une modélisation de la mortalité future à partir d'une référence de mortalité externe et une analyse des risques systématiques associés (risques liés aux fluctuations d'échantillonnage et au choix de la référence de mortalité).
69

Une évaluation financière des politiques publiques en faveur des véhicules électriques en France

Windisch, Elisabeth 25 June 2013 (has links) (PDF)
L'étude s'attache à évaluer le marché potentiel des véhicules électriques auprès des ménages français. L'analyse porte non seulement sur les déterminants financiers de la demande, mais aussi sur les obstacles socio-économiques à l'adoption des véhicules électriques par ces ménages. L'approche désagrégée qui est appliquée à partir de la base de données de l'Enquête Nationale Transports et Déplacements 2007/2008 permet d'identifier les combinaisons d'instruments financiers les plus à même de garantir certains niveaux de pénétration du véhicule électrique dans la prochaine décennie. Les conclusions et observations tirées de l'étude permettent de formuler diverses suggestions à l'attention des constructeurs automobiles et des décideurs publics affichant la volonté de soutenir l'essor du véhicule électrique.
70

Structures et aléa en finance, une approche par la complexité algorithmique de l'information

Ma, Lin 23 November 2010 (has links) (PDF)
Cette thèse s'interroge sur les notions d'aléa et de régularité des variations boursières. Nous démontrons sur le plan théorique, la compatibilité des principales théories financières (cf. efficience informationnelle, finance comportementale et approche conventionnaliste) avec l'impossibilité de battre la stratégie "buy and hold". Cette impossibilité est confirmée par les études statistiques dans la mesure où les régularités identifiées dans les séries financières ne permettent pas de prédire le sens des variations futures. Les modèles économétriques disponibles à présent offrent souvent un "hit score" insuffisant (<60%) pour réussir des tentatives fructueuses de "market timing". Une contribution de ce travail se trouve dans l'introduction du concept de complexité algorithmique en finance. Une approche générale est proposée pour estimer la "complexité de Kolmogorov" des séries de rentabilités: après un processus "discrétisation-effacement", des algorithmes de compression sans perte sont utilisés pour détecter des structures régulières qui ne sont pas toujours visibles aux yeux des tests statistiques. En étudiant le degré d'aléa des principaux marchés internationaux à une fréquence "tick-by-tick", on constate une complexité plus élevée pour Euronext-Paris que pour le NYSE et le NASDAQ. Nous expliquons ce résultat par une auto-corrélation plus élevée des volatilités inter-journalières aux Etats-Unis qu'en France. L'inefficacité de "market timing" étant soutenue aussi bien par les théories financières que par les observations empiriques, nous définissons la notion de "battre le marché" dans ce sens spécifique avec un modèle mathématique qui s'inscrit dans le cadre de la calculabilité.

Page generated in 0.132 seconds