• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contributions aux algorithmes stochastiques pour le Big Data et à la théorie des valeurs extrèmes multivariés. / Contributions to stochastic algorithm for Big Data and multivariate extreme value theory.

Ho, Zhen Wai Olivier 04 October 2018 (has links)
La thèse comporte deux parties distinctes. La première partie concerne des modèles pour les extrêmes multivariés.On donne une construction de vecteurs aléatoires multivariés à variations régulières. La construction se base sur une extension multivariée d'un lemme de Breiman établissant la propriété de variation régulière d'un produit $RZ$ de variable aléatoire avec $R$ positive à variation régulière et $Z$ positive suffisamment intégrable. En prenant $mathbf{Z}$ multivarié et suffisamment intégrable, on montre que $Rmathbf{Z}$ est un vecteur aléatoire à variations régulières et on caractérise sa mesure limite. On montre ensuite que pour $mathbf{Z}$ de loi bien choisie, on retrouve des modèles stables classiques comme le modèle t-extremal, Hüsler-Reiss, etc. Puis, on étend notre construction pour considérer la notion de variation régulière multivariée non standard. On montre ensuite que le modèle de Pareto (qu'on appelle Hüsler-Reiss Pareto) associé au modèle max-stable Hüsler-Reiss forme une famille exponentielle complète. On donne quelques propriétés du modèle Hüsler-Reiss Pareto puis on propose un algorithme de simulation exacte. On étudie l'inférence par le maximum de vraisemblance. Finalement, on considère une extension du modèle Hüsler-Reiss Pareto utilisant la notion de variation régulière non standard. On étudie l'inférence par le maximum de vraisemblance du modèle généralisé et on propose une méthode d'estimation des paramètres. On donne une étude numérique sur l'estimateur du maximum de vraisemblance pour le modèle Hüsler-Reiss Pareto. Dans la second partie qui concerne l'apprentissage statistique, on commence par donner une borne sur la valeur singulière minimale d'une matrice perturbée par l'ajout d'une colonne. On propose alors un algorithme de sélection de colonne afin d'extraire les caractéristiques de la matrice. On illustre notre algorithme sur des données réelles de séries temporelles où chaque série est pris comme étant une colonne de la matrice. Deuxièmement, on montre que si une matrice $X$ à une propriété d'incohérence alors $X$ possède aussi une version affaiblie de la propriété NSP (null space property). Puis, on s'intéresse au problème de sélection de matrice incohérente. A partir d'une matrice $Xin mathbb{R}^{n imes p}$ et $mu>0$, on cherche la plus grande sous-matrice de $X$ avec une cohérence inférieure à $mu$. Ce problème est formulé comme un programme linéaire avec contrainte quadratique sur ${0,1}^p$. Comme ce problème est NP-dur, on considère une relaxation sur la sphère et on obtient une borne sur l'erreur lorsqu'on considère le problème relaxé. Enfin, on analyse l'algorithme de gradient stochastique projeté pour l'analyse en composante principale online. On montre qu'en espérance, l'algorithme converge vers un vecteur propre maximum et on propose un algorithme pour sélectionner le pas de l'algorithme. On illustre ensuite cet algorithme par une expérience de simulation. / This thesis in divided in two parts. The first part studies models for multivariate extremes. We give a method to construct multivariate regularly varying random vectors. The method is based on a multivariate extension of a Breiman Lemma that states that a product $RZ$ of a random non negative regularly varying variable $R$ and a non negative $Z$ sufficiently integrable is also regularly varying. Replacing $Z$ with a random vector $mathbf{Z}$, we show that the product $Rmathbf{Z}$ is regularly varying and we give a characterisation of its limit measure. Then, we show that taking specific distributions for $mathbf{Z}$, we obtain classical max-stable models. We extend our result to non-standard regular variations. Next, we show that the Pareto model associated with the Hüsler-Reiss max-stable model forms a full exponential family. We show some properties of this model and we give an algorithm for exact simulation. We study the properties of the maximum likelihood estimator. Then, we extend our model to non-standard regular variations. To finish the first part, we propose a numerical study of the Hüsler-Reiss Pareto model.In the second part, we start by giving a lower bound of the smallest singular value of a matrix perturbed by appending a column. Then, we give a greedy algorithm for feature selection and we illustrate this algorithm on a time series dataset. Secondly, we show that an incoherent matrix satisfies a weakened version of the NSP property. Thirdly, we study the problem of column selection of $Xinmathbb{R}^{n imes p}$ given a coherence threshold $mu$. This means we want the largest submatrix satisfying some coherence property. We formulate the problem as a linear program with quadratic constraint on ${0,1}^p$. Then, we consider a relaxation on the sphere and we bound the relaxation error. Finally, we study the projected stochastic gradient descent for online PCA. We show that in expectation, the algorithm converges to a leading eigenvector and we suggest an algorithm for step-size selection. We illustrate this algorithm with a numerical experiment.
2

Mesure et gestion des risques d'assurance : analyse critique des futurs référentiels prudentiel et d'information financière

Thérond, Pierre-Emmanuel 25 June 2007 (has links) (PDF)
Contexte, objectifs et organisation de la thèse Aujourd'hui, le secteur de l'assurance est confronté à une triple mutation : − prudentielle avec l'avènement du futur cadre prudentiel européen qui résultera du projet Solvabilité 2 ; − du reporting financier avec le recours de plus en plus massif aux méthodes d'European Embedded Value de valorisation de compagnie d'assurance ; − comptable avec la préparation de la phase II de la norme internationale IFRS consacrée aux contrats d'assurance. Dans ce contexte, les assureurs sont invités, pour chacun de ces trois aspects, à mieux identifier, mesurer et gérer les risques auxquels ils sont soumis. Ces trois référentiels s'inscrivent dans une même logique d'uniformisation internationale (à tout le moins communautaire) et de transparence. Pour cela, la référence " au marché " est omniprésente : dès que c'est possible, c'est en référence au marché que les engagements d'assurance doivent être valorisés. En particulier, les risques financiers doivent être traités de la même manière que des instruments financiers qui seraient cotés sur un marché financier liquide. Ce principe n'est pas sans poser des problèmes conceptuels et opérationnels. L'objectif de cette thèse est de présenter les principes communs sur lesquels reposent les trois nouveaux référentiels, d'illustrer la limite de leur application en assurance et de proposer des modèles pour leur mise en oeuvre effective. Une attention particulière est portée aux risques opérationnels qu'engendrent des exigences de valorisation de plus en plus complexes. Elle s'articule en deux parties qui se décomposent chacune en trois chapitres. La première partie est consacrée à la présentation des nouveaux référentiels prudentiel, comptable et de communication financière et insiste plus particulièrement sur la manière dont les risques sont valorisés et l'incidence de ces principes d'évaluation en termes de gestion d'une compagnie d'assurance. La seconde partie aborde ces nouvelles normes sous un angle plus opérationnel en identifiant un certain nombre de problèmes pratiques auxquels leur mise en oeuvre confronte l'actuaire et en proposant des modèles permettant de surmonter ces difficultés. ---- Résumé La première partie de la thèse s'intéresse aux risques portés par les sociétés d'assurance, leurs caractéristiques et leur traitement. En effet, l'activité d'assurance est née du besoin de se prémunir contre le risque (les agents économiques sont généralement averses aux risques qui peuvent réduire leur patrimoine), ce que permet l'opération d'assurance en transférant les risques de l'assuré vers l'assureur qui, en vertu de la loi des grands nombres, bénéficie de les effets de la mutualisation et est donc relativement moins exposé au risque que l'assuré. Les évolutions récentes ou à venir amènent les assureurs à reconsidérer, au moins pour partie, leur vision des risques qu'ils assurent. Ainsi, qu'il s'agisse des nouvelles dispositions réglementaires (Solvabilité 2), de communication financière (EEV/MCEV) ou comptables (IFRS), l'objectif est similaire : identifier les risques et les analyser le plus finement possible. Le passage d'un système où les hypothèses sont exogènes et prudentes, car contraintes par la réglementation, à un système où les hypothèses les plus réalistes doivent être privilégiées conduit à prendre en considération de " nouveaux risques ". Ces risques ne sont généralement pas à proprement parler " nouveaux " : la plupart du temps, ils existaient déjà mais n'avaient pas été soit étudiés plus avant du fait de leur caractère secondaire par rapport aux risques principaux, soit identifiés. Par exemple, dans le cas du risque de mortalité, un assureur qui veut étudier ce risque va, dans un premier temps, considérer son portefeuille et l'historique des données correspondant de manière à établir des statistiques descriptives de suivi du risque. Sur des portefeuilles d'assureurs, compte-tenu de la taille des échantillons, de telles études mettront en évidence le phénomène de fluctuation d'échantillonnage autour de la tendance centrale qui est le risque principal, mais certainement pas les risques systématiques de mortalité (mortalité stochastique et risque de longévité) qui s'avèrent relativement plus petits. Ces deux risques ne pourront être identifiés que par des études plus poussées, en étudiant par exemple, en parallèle les statistiques nationales de l'évolution au cours du temps de la mortalité. Le premier chapitre s'intéresse aux aspects théoriques du traitement du risque. La première partie est consacrée à l'analyse mathématique des risques avec la présentation des concepts de mesures et de comparaisons de risques et les principaux outils qui permettent d'y parvenir. La deuxième partie s'intéressent aux différents modèles de valorisation qui co-existent en assurance et en particulier aux modèles économiques issus de la théorie financière dont l'usage est de plus en plus fréquent. Il convient néanmoins de remarquer qu'associer une valeur à un risque et le gérer de manière effective relèvent de deux démarches distinctes. Ce point est illustré dans le cas d'une garantie plancher en cas de décès de l'assuré sur un contrat d'épargne en unités de compte. Le deuxième chapitre s'attache à identifier les divergences entre les différentiels précédemment évoqués de manière à en tirer les conclusions adéquates en termes opérationnels. En effet, même s'ils reposent sur un socle de principes communs, la diversité des finalités des référentiels conduit à des options différentes dans la modélisation des produits d'assurance. En particulier, un des principes fondamentaux commun aux trois approches est l'utilisation d'hypothèses best estimate, i.e. le recours aux hypothèses les plus réalistes compte-tenu de l'information dont dispose l'assureur. Ce point est fondamental car il diffère du contexte traditionnel de l'assurance qui repose sur des hypothèses prudentes. Par exemple, le taux d'actualisation d'un régime de rentiers ne doit pas, selon la réglementation française, être supérieur à 60 % du taux moyen des emprunts de l'État français (TME) quand bien même une société d'assurance investirait intégralement en OAT disposerait d'un rendement (certain) supérieur à ce taux d'actualisation. Á titre illustratif, une attention particulière est portée sur l'évolution récente des tables de mortalité pour les risques viagers. Cet exemple montre que sur une période de temps relativement réduite, l'estimation de l'évolution de tel ou tel phénomène (l'espérance résiduelle de vie à 60 ans pour un assuré né en 1950 par exemple) peut être révisée en profondeur et avoir un impact important sur les niveaux de provisions techniques. De plus dans certains cas, un même phénomène sera modélisé sur des bases différentes selon que l'on cherche à valoriser un portefeuille de contrats ou à assurer sa solvabilité. Par ailleurs, la valorisation des portefeuilles d'assurance nécessite fréquemment la modélisation du comportement de l'assureur et des assurés, particulièrement en assurance vie. Aussi les modèles implémentés ont de réels impacts sur les valorisations obtenues. Un exemple dans le cas de la gestion d'un portefeuille financier vient illustrer cela. Enfin ce chapitre se conclut sur la modélisation et la valorisation d'un portefeuille d'assurance vie. Les exigences quantitatives prévues dans le Pilier I de Solvabilité 2 prévoient notamment des exigences de fonds propres en référence au risque global supporté par l'assureur. Cette démarche impose des contraintes fortes en termes de gestion technique. Le troisième chapitre met ainsi en évidence les conséquences du changement de référentiel prudentiel sur la gestion des actifs de la société. Le projet Solvabilité 2 fixant les exigences quantitatives de fonds propres en fonction du risque global supporté par la compagnie, n'importe quel acte de gestion modifiant la structure ou la forme de ce risque a pour conséquence automatique et immédiate de modifier l'exigence minimale de capitaux propres. Ceci est illustré dans le cas du choix d'une allocation stratégique d'actifs et observons notamment la manière dont le processus de fixation de l'allocation évolue entre la réglementation prudentielle actuelle et Solvabilité 2. La deuxième partie de la thèse est consacrée aux techniques avancées de gestion du risque d'une compagnie d'assurance. L'avènement du référentiel prudentiel Solvabilité 2 et, dans une moindre mesure, du nouveau cadre comptable induit par la phase II de la norme IFRS dédiée aux contrats d'assurance, va systématiser l'emploi de la Value-at-Risk (VaR) en assurance. Particulièrement utilisées en finance de marché, les techniques de calcul de VaR exigent une adaptation spécifique dans un contexte assurantiel de par la nature des risques qui sont ainsi mesurés. Schématiquement on distingue deux contextes, qui imposent des approches différentes : − La mesure du risque lié à la sinistralité au moyen d'une VaR dans le corps de la distribution : la provision1 devra suffire à payer les sinistres dans 75 % des cas ; − la mesure de risque liée à la ruine de la compagnie par le biais d'une VaR d'ordre très élevé : le capital de solvabilité devra permettre à la compagnie de ne pas être en ruine, à la fin de l'exercice, avec une probabilité supérieure à 99,5 %. Dans la première situation, que l'on adopte une approche VaR historique ou que l'on cherche à modéliser la sinistralité, on reste dans un cadre dans lequel on dispose d'un matériel statistique de taille généralement suffisante pour estimer une VaR dans le corps de la distribution. Dans le second cas, on est en revanche confronté à l'absence d'observations et il convient alors, dans un premier temps, de modéliser les variables de base qui influent sur la solvabilité de la compagnie, dans un deuxième temps, de simuler la ruine de la compagnie et enfin d'estimer une VaR d'ordre élevé. Cette dernière étape nécessite le recours à la théorie 1. Les travaux les plus récents du CEIOPS sur Solvabilité 2 donnent la préférence à une approche coût du capital plutôt qu'à la VaR à 75 % pour le calibrage de la marge pour risque. des valeurs extrêmes. Le cinquième chapitre s'attache à présenter les contextes de calcul de VaR en assurance, les résultats probabilistes sous-jacents et les limites de ces critères. Une attention toute particulière est portée aux différents risques opérationnels auxquels est confronté l'actuaire dans un contexte de modèle interne de type Solvabilité 2. Par ailleurs un autre phénomène à intégrer est celui de la dépendance entre les risques. L'activité d'assurance, qui repose sur la mutualisation et la convergence en probabilité énoncée dans la loi des grands nombres, s'est développée sur une des hypothèses principales de cette loi : l'indépendance entre les risques. Les exigences de solvabilité comme les référentiels économiques de valorisation ne font aujourd'hui plus l'économie de la non prise en compte des risques inhérents à la dépendance. Ainsi le capital de solvabilité fixé en référence au risque global supporté par la société ne saurait s'analyser comme la somme des capitaux qui permettraient de couvrir chaque risque individuellement. Par ailleurs, dans une approche de valorisation, si les marchés financiers n'accordent pas de prime à un risque mutualisable, il n'en est pas de même pour les risques non-mutualisables (ou systématiques) dont les sociétés d'assurance cherchent à se défaire au maximum que ce soit au travers de traités de réassurance ou, de plus en plus, grâce aux opérations de titrisation. Le cinquième chapitre aborde cette problématique en présentant, dans un premier temps, les aspects mathématiques de la mesure et de la modélisation de la dépendance ; puis en analysant l'impact de la prise en compte de celle-ci dans les contextes assurantiels de détermination d'un capital de solvabilité et de valorisation du contrat d'épargne présenté dans le deuxième chapitre. Cet exemple n'a pu être mis en oeuvre que grâce à l'utilisation de méthodes de Monte Carlo. En effet, la complexité des contrats d'assurance et l'interdépendance intrinsèque et temporelle des phénomènes qui concourent à leur dénouement obligent les assureurs à avoir un recours de plus en plus systématique aux techniques de simulation. Par exemple dans Solvabilité 2, l'alternative à l'utilisation de la formule standard pour déterminer le capital de solvabilité passera par la mise en place d'un modèle interne. Un tel modèle revient à modéliser l'ensemble des variables qui influent sur le risque global supporté par la compagnie. La mise en oeuvre effective d'un tel modèle ne pourra faire l'économie du recours aux techniques de simulation. C'est justement l'objet du sixième chapitre qui revient notamment sur les techniques de discrétisation temporelle des processus stochastiques continus, l'estimation des paramètres et la génération de nombres aléatoires. Les illustrations

Page generated in 0.0423 seconds