• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • 3
  • 1
  • Tagged with
  • 6
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation et paramétrisation hydrologique de la ville, résilience aux inondations / Hydrological modelling and parameterization of cities, flood resilience

Giangola-Murzyn, Agathe 30 December 2013 (has links)
L'évolution constante des villes passe par l'urbanisation des zones encore disponibles induisant des effets sur les bilans hydriques des celles-ci. De plus, le changement climatique susceptible d'exacerber les extrêmes (dont les inondations) influence lui aussi ces bilans. La ville est donc un objet hydrologique spécifique qu'il faut replacer dans son contexte évolutif, ce qui élargit considérablement la gamme d'échelles spatio-temporelles à prendre en compte pour son analyse et sa simulation. L'Union Européenne considère que la gestion du risque d'inondation doit remplacer la défense classique contre celle-ci. Cette nouvelle approche est plus holistique : elle prend en compte toutes les composantes du risque et cherche a réduire la vulnérabilité des récepteurs (habitants, bâtiments et infrastructures). Elle débouche sur la question de la résilience des systèmes urbains où les technologies correspondantes doivent être intégrées en des systèmes résilients aux inondations. Il est donc indispensable de développer des outils permettant l'évaluation de la performance de ces derniers, et ce à différentes échelles. Ces préoccupations ont défini l'axe de développement de Multi-Hydro : faire interagir des modèles déjà éprouvés représentant une composante du cycle de l'eau, permettre d'effectuer ainsi des progrès substantiels dans la modélisation de l'eau en ville avec une facilité d'utilisation. Multi-Hydro est ainsi basé sur des équations physiques supportées par des modèles distribués couplés. Grâce à un outil SIG dédié, MH-AssimTool, les informations géographiques et physiques nécessaires à la modélisation sont facilement assimilés pour chaque zone et résolution. En effet, une attention particulière été portée sur les observables ayant le moins de dépendance en échelle. L'emploi d'outils d'analyse multi-échelles permet de représenter leur variabilité et de définir des paramétrisations robustes du fonctionnement hydrologique à différentes échelles. L'ensemble de ces développements a été utilisé pour aborder la question de la résilience face aux inondations à différentes échelles d'un système urbain, dans le cadre de différents projets européens (SMARTeST, RainGain, BlueGreenDream) ou nationaux (Ville Numérique), à l'aide d'une approche systémique sur des scénarios pour plusieurs cas d'étude :- un petit bassin versant de Villecresnes (Val-de-Marne) qui a servi a l'évaluation des impacts de chaque modification apportée au modèle au cours de son développement.- la partie Est de la commune de Saint-Maur-des-Fossés (Val-de-Marne) qui a subi un audit de l'état du réseau d'assainissement (cartographie précise des canalisations et campagnes de mesures) et dont les résultats préliminaires ont permis de poser la problématique de la modélisation des rivières.- un quartier d'Heywood (grande banlieue de Manchester, Royaume Uni), qui a subi plusieurs inondations durant la dernière décennie et demande une modélisation assez fine pour permettre l'évaluation de l'impact de quatre scénarios de protection.- le bassin versant de la Loup, dont l'exutoire est occupé par un bassin de stockage des eaux de pluie, a été modélisé pour quatre évènements d'intensités et de durées variables et a permis de débuter la validation du modèle.- la zone de Spaanse Polder (Rotterdam, Pays Bas), pose la problématique de la modélisation des zones très planes au système de drainage complexes (pompes, exutoires multiples). Cette zone permet de guider les développements futurs de Multi-Hydro. Dans le contexte de l'amélioration de la résilience des villes face aux inondations, Multi-Hydro se place comme étant un outil qui offre la possibilité de simuler des scénarios permettant l'évaluation des impacts à l'échelle globale de modifications à plus petites échelles. Grâce a sa facilité de mise en place que lui confère MH-AssimTool, ainsi que sa structure modulaire et sa liberté de licence, Multi-Hydro est en train de devenir un outil d'aide à la décision / The constant evolution of cities can be seen as the urbanisation of the still available areas. This introduces complex effects with respect to the balance of water. In addition, the highly variable nature of the climate and weather can easily exacerbate the extremes (including floods) thus influencing the water balance. The European Union considers that the management of flood risk is an appropriate strategy to replace conventional defense strategies against floods. This new strategy is a more holistic approach: it takes into account all the components at risk and seeks to reduce the vulnerability of receptors (people, buildings and infrastructures).Thus, resilience measures not only consist of individual technical solutions but they need to be integrated to a ‘safety chain', which requires the development of resilience systems and tools. It is therefore essential to develop tools for assessing the performance of the latter, and at different scales. These concerns have help define the development of Multi-Hydro: interacting models already proven to represent different components of the water cycle to allow substantial progress in the modelling of urban water combined with ease use. Multi-Hydro is based on physical equations supported by distributed and coupled models. With a dedicated GIS MH-AssimTool, the geographical and physical information required for modelling are easily assimilated for each zone and at each resolution. Indeed, special attention was paid to the observables with the least scale dependence. Tools for multi-scale analysis are used to represent their variability at smaller scales than their own scales, thus allowing a more robust definition of hydrological parameterisations at different scales. All of these developments have been used to address the issues involved in flooding resilience at different urban system levels, within the framework of the European (Smartest, RainGain and BlueGreenDream) and national (Ville Numérique) projects, using a systemic approach on the scenarios of several case studies:- A small watershed Villecresnes (Val-de-Marne), used to assess the impacts of each change made in the model during its development.- The eastern part of the municipality of Saint-Maur-des-Fossés (Val-de-Marne ), has undergone a state audit of the drainage network (precise mapping of pipes and measurement campaigns). The preliminary results helped raise the issue of modelling rivers.- A district at Heywood (suburbs of Manchester, UK), has suffered several floods over the last decade and requires more detailed modelling in order to allow for the assessment of impact of four protection scenarios.- The catchment area of the Loup, whose outlet is connected to a runoff water storage tank, was modelled over four events of varying durations and intensities and helped start the validation of the model.- The Spaanse Polder area (Rotterdam , Netherlands), poses the problem of modelling very flat terrain with a complex drainage system (pumps and multiple outlets). This area will help to guide the future development of Multi-Hydro. In the context of improving the resilience of cities to flooding, Multi-Hydro is therefore placed as a tool that provides the ability to simulate scenarios for impact assessment at the basin scale of changes to smaller scales. Due to its ease of implementation at various scales conferred by MH-AssimTool and its modular structure and its free access property, Multi-Hydro is becoming a support decision tool
2

Evaluation de changements hydrologiques en Afrique de l'Ouest : Détection de tendances et cadre de modélisation pour projections futures / Evaluating hydrological changes in semi-arid West Africa : Detection of past trends in extremes and framework for modeling the future

Wilcox, Catherine 01 July 2019 (has links)
Malgré des conditions sèches qui prédominent depuis les années 1970, l’Afrique de l’Ouest a subi au cours des deux dernières décennies des épisodes d’inondations sévères qui ont provoqué de nombreux décès et dommages socio-économiques. L’émergence de ce nouveau problème montre une nouvelle facette de la sensibilité de cette région aux changements hydro-climatiques, appelant à une meilleure caractérisation de l’aléa inondation, des processus qui le génèrent, ainsi que la mise en place de méthodes permettant de projeter les évolutions futures de cet aléa pour mieux s’en prémunir.Dans ce contexte, la thèse cherche à répondre à trois questions principales :1) L’augmentation des dommages liés aux inondations s’est-elle accompagnée d’une intensification des crues extrêmes en Afrique de l’Ouest?2) Comment modéliser les orages de mousson, premier facteur de génération du ruissellement, afin d’explorer l’impact de leurs caractéristiques sur les crues?3) Compte tenu des changements climatiques à l’œuvre dans la région, à quelles tendances hydro-climatiques peut-on s’attendre dans le futur ?Dans un premier temps, on évalue l’évolution des crues en Afrique de l’Ouest au cours des soixante dernières années en utilisant de méthodes basées sur la théorie de valeurs extrêmes. Les résultats montrent une augmentation forte des événements hydrologiques extrêmes depuis les années 1970s dans les sous-bassins Sahéliens du fleuve Niger et depuis les années 1980s dans les sous-bassins soudano-guinéens du fleuve Sénégal. Les niveaux de retour calculés à partir des modèles non-stationnaires dépassent ceux qui ont été calculés avec un modèle stationnaire avec plus de 95% de certitude pour les périodes de retour les plus courtes (<10 ans).On présente ensuite des développements récents apportés à un simulateur stochastique d’orages de mousson à meso-échelle (StochaStorm). Ils incluent: une modélisation de l’occurrence de ces orages, la représentation explicite des valeurs de pluie extrêmes et une amélioration du schéma temporel d’intensité infra-événementielle. Implémenté et évalué à partir des donnés haute-résolution de l’observatoire AMMA-CATCH, le générateur montrent de très bonnes capacités à reproduire les propriétés des orages, confirmant son potentiel pour des études d’impact hydrologique.Enfin, une chaîne de modélisation est élaborée afin de proposer des projections hydrologiques pour le futur sur un bassin sahélien de meso-échelle (Dargol, 7000 km²). L’originalité de cette chaîne provient de la prise en compte du continuum d’échelles entre climat global et impact local à travers la représentation du régime des pluies à l’échelle des orages de mousson, dont les propriétés d’occurrence et d’intensité ont des impacts majeurs sur la réponse hydrologique. La chaîne de modélisation inclut le modèle climatique CP4-Africa, unique modèle à convection explicite fournissant des simulations de long terme en Afrique ; une méthode de débiaisage statistique; le simulateur Stochastorm ; et un modèle pluie-débit spécifiquement adapté aux processus hydrologique sahéliens. La chaine est évaluée sur une période de contrôle 1997-2006 puis utilisée pour des projections futures montrant une hausse par un facteur 1,5 des débits maximum annuels et un doublement des volumes moyens annuels à l’horizon 2100.Les résultats ont des implications majeures notamment pour l’ingénierie hydrologique. Les méthodes actuellement utilisées pour appréhender les risques hydrologiques dans la région ne prennent pas en compte la non-stationnarité hydro-climatique risquant de sous-évaluer l’aléa hydrologique et sous-dimensionner les ouvrages hydrauliques utilisés pour s’en protéger. La thèse suggère aussi quelques pistes afin mieux définir les trajectoires hydrologiques passées et futures en incluant, au-delà des précipitations, les changements sociétaux et environnementaux, leurs interactions et rétroactions dans les approches de modélisation. / The semi-arid regions of West Africa are known for their dry conditions which have predominated since the 1970s. In recent years, however, West Africa has witnessed a series of severe flooding events which caused widespread fatalities and socioeconomic damages. The emergence of this new problem demonstrates the sensitivity of the region to changes in the hydroclimatic system and calls for an improved characterization of flood hazard and the mechanisms that generate it. It also signals the need to develop projections for how flood hazard may evolve in the future in order to inform appropriate adaptation measures.In this context, the following PhD thesis seeks to answer three main questions:1) Is there a significant trend in extreme streamflow in West Africa, or are the documented flooding events isolated incidences?2) How can one model mesoscale convective systems, the primary driver of runoff in the region, in order to explore the properties of precipitation that drive streamflow?3) Based on potential climate change in the region, what trends might be observed in streamflow in the future?First, changes in extreme hydrological events West Africa over the past 60 years are evaluated by applying non-stationary methods based on extreme value theory. Results show a strong increasing trend in extreme hydrological events since the 1970s in the Sahelian Niger River basin and since the 1980s in the Sudano-Guinean catchments in the Senegal River basin. Return levels calculated from non-stationary models are determined to exceed those calculated from a stationary model with over 95% certainty for shorter return periods (<10 years).Next, recent developments are presented for a stochastic precipitation simulator (Stochastorm) designed for modeling mesoscale convective storms, the main rainfall source in the Sahel. Developments include a model for storm occurrence, the explicit representation of extreme rainfall values, and an improvement in the modeling of sub-event intensities. Using high-resolution data from the AMMA-CATCH observatory, simulation outputs were confirmed to realistically represent key characteristics of MCSs, showing the simulator’s potential for use in impact studies.Finally, a modeling chain for producing future hydrological projections is developed and implemented in a Sahelian river basin (Dargol, 7000km2). The chain is original as it is the first attempt in West Africa to encompass the continuum of scales from global climate to convective storms, whose properties have major impacts on hydrological response and as a result local flood risk. The modeling chain components include the convection-permitting regional climate model (RCM) CP4-Africa, the only RCM (to date) explicitly resolving convection and providing long-term simulations in Africa; a bias correction approach; the stochastic precipitation generator Stochastorm; and a rainfall-runoff model specifically developed for Sahelian hydrological processes. The modeling chain is evaluated for a control period (1997-2006) then for future projections (ten years at the end of the 21st century). Hydrological projections show that peak annual flow may become 1.5-2 times greater and streamflow volumes may double or triple on average near the end of the 21st century compared to 1997-2006 in response to projected changes in precipitation.The results raise critical issues notably for hydrological engineering. Current methods used to evaluate flood risk in the region do not take non-stationarity into account, leading to a major risk of underestimating potential floods and undersizing the hydraulic infrastructure designed for protecting against them. It is also suggested to not only consider rainfall changes but also societal and environmental changes, interactions, and feedbacks in order to better attribute past hydrological hazards and their future trajectories to related causes.
3

Les territoires de montagne face aux changements globaux : une étude rétrospective autour de la station de ski des Deux Alpes / Mountain Areas facing Global Change : a retrospective study in the vicinity of "Les 2 Alpes" ski resort

Fouinat, Laurent 05 December 2016 (has links)
Ce travail de thèse vise à reconstituer les conditions paléo-environnementales ayant eu lieu dans la vallée de l’Oisans à partir des archives naturelles représentées par les sédiments lacustres. Par une approche multi-marqueurs, nous visons à reconstituer tout à la fois : i) les fluctuations glaciaires en Oisans; ii) les modifications des activités humaines en montagne et leurs influence sur les flux de matière lors d’événements extrêmes ; iii) comprendre la relation entre changements climatiques, changements d’usage et évolution des aléas en haute montagne. Cette étude a permis de mettre en évidence les changements globaux, regroupant la variabilité climatique et les pratiques humaines, ayant influencés l’érosion autour des lacs de La Muzelle et du lac du Lauvitel durant les derniers millénaires.Les résultats principaux ont montrés que l’érosion du lac de la Muzelle a été largement dominé par l’activité glaciaire notamment avec la présence à certaines époques de fines particules détritiques liées à l’abrasion sous glaciaire. Ces dernières ont révélées une relation aux pluies torrentielles encore jamais observées auparavant, leur présence en période d’extension glaciaire étant synonyme d’une augmentation du nombre de dépôts lacustres de crues. Les activités humaines, en majeure partie représentées par l’utilisation agro-pastorale de l’espace avoisinant les lacs, ne sont clairement identifiables que lors des 300 dernières années au lac de la Muzelle. Le lac de Lauvitel est situé à une altitude moindre, dont la majorité du bassin versant est maintenant une réserve intégrale. Les études palynologiques ont mis en évidence certaines périodes d’activités humaines plus marquées. Les événements extrêmes enregistrés dans les sédiments dulac regroupent d’une part les crues, dont l’enregistrement permet une comparaison régionale de l’occurrence de ces événements et de mettre en évidence les changements de circulations atmosphériques à l’échelle des Alpes. D’autre part, les avalanches de neige lourde, dont peu d’enregistrements sont disponibles dans la bibliographie. Nous les avons identifiés grâce à l’utilisation du CT scan l’élaboration d’une nouvelle méthodologie basée sur la différence de densité relative des sédiments. Le comptage et la quantification des apports de matériel détritique grossier aux seins d’une matrice de sédiment lacustre fin, a permis d’identifier les apports liés à cet aléa au cours du temps. Nous avons ensuite reconstitué les événements d’avalanche de neige lourde déposés dans le lac de Lauvitel sur les derniers 3500 ans, dont l’occurrence intervient préférentiellement lors des périodes de retraits glaciaires. / This doctoral thesis aims to a paleo-environmental reconstitution of the Oisans valley based on the natural archive of lake sediments. From a multi-proxy approach, we aim to reconstruct: i) Glacial fluctuation reconstruction in Oisans valley; ii) human activities evolution in mountain area and their influences on sediment fluxes especially during extreme events; iii)understand the relationship between climate change, use of mountain lands and natural hazard.Through this study, we identified processes of global change, comprising natural climate variability and human practices, which affected erosion patterns around Lakes Muzelle and Lauvitel during the last millennia. Main results have shown that erosion in the lake Muzelle watershed was dominated in the past by glacial activity, in particular with the presence of fine detrital particles related to subglacial abrasion. They were identified to have a relationship never observed before; during glacial extension their presence is triggering a higher number of flood deposits. At this location, human activities were identified through agro-pastoral activities and more precisely by the coprophilous fungi spore counting, revealing cattle presence since 300 years. Lake Lauvitel is located at lower altitude, which most of the watershed is now situated in an Integral Reserve. Palynological investigations lead to identification of periods of higher human activities in the valley. Extreme events recorded in Lake Lauvitel sediment are on the one hand torrential floods, which allowed a comparison with other reconstructions highlighting changes in the climatic settings in the Alps. On the other hand, wet avalanches deposits were identified with the use of a CT scan and the development of a new methodology based on relative density differences in the sediment. The counting and the quantification of coarse detrital matter within the lacustrine fine sediment matrix allowed income identification of this hazard though time. We then reconstructed wet avalanches events deposited in Lake Lauvitel during the last 3500 years, which occurrence is preferentially during glacial retreats.
4

Modélisation et paramétrisation hydrologique de la ville, résilience aux inondations

Giangola-Murzyn, Agathe 30 December 2013 (has links) (PDF)
L'évolution constante des villes passe par l'urbanisation des zones encore disponibles induisant des effets sur les bilans hydriques des celles-ci. De plus, le changement climatique susceptible d'exacerber les extrêmes (dont les inondations) influence lui aussi ces bilans. La ville est donc un objet hydrologique spécifique qu'il faut replacer dans son contexte évolutif, ce qui élargit considérablement la gamme d'échelles spatio-temporelles à prendre en compte pour son analyse et sa simulation. L'Union Européenne considère que la gestion du risque d'inondation doit remplacer la défense classique contre celle-ci. Cette nouvelle approche est plus holistique : elle prend en compte toutes les composantes du risque et cherche a réduire la vulnérabilité des récepteurs (habitants, bâtiments et infrastructures). Elle débouche sur la question de la résilience des systèmes urbains où les technologies correspondantes doivent être intégrées en des systèmes résilients aux inondations. Il est donc indispensable de développer des outils permettant l'évaluation de la performance de ces derniers, et ce à différentes échelles. Ces préoccupations ont défini l'axe de développement de Multi-Hydro : faire interagir des modèles déjà éprouvés représentant une composante du cycle de l'eau, permettre d'effectuer ainsi des progrès substantiels dans la modélisation de l'eau en ville avec une facilité d'utilisation. Multi-Hydro est ainsi basé sur des équations physiques supportées par des modèles distribués couplés. Grâce à un outil SIG dédié, MH-AssimTool, les informations géographiques et physiques nécessaires à la modélisation sont facilement assimilés pour chaque zone et résolution. En effet, une attention particulière été portée sur les observables ayant le moins de dépendance en échelle. L'emploi d'outils d'analyse multi-échelles permet de représenter leur variabilité et de définir des paramétrisations robustes du fonctionnement hydrologique à différentes échelles. L'ensemble de ces développements a été utilisé pour aborder la question de la résilience face aux inondations à différentes échelles d'un système urbain, dans le cadre de différents projets européens (SMARTeST, RainGain, BlueGreenDream) ou nationaux (Ville Numérique), à l'aide d'une approche systémique sur des scénarios pour plusieurs cas d'étude :- un petit bassin versant de Villecresnes (Val-de-Marne) qui a servi a l'évaluation des impacts de chaque modification apportée au modèle au cours de son développement.- la partie Est de la commune de Saint-Maur-des-Fossés (Val-de-Marne) qui a subi un audit de l'état du réseau d'assainissement (cartographie précise des canalisations et campagnes de mesures) et dont les résultats préliminaires ont permis de poser la problématique de la modélisation des rivières.- un quartier d'Heywood (grande banlieue de Manchester, Royaume Uni), qui a subi plusieurs inondations durant la dernière décennie et demande une modélisation assez fine pour permettre l'évaluation de l'impact de quatre scénarios de protection.- le bassin versant de la Loup, dont l'exutoire est occupé par un bassin de stockage des eaux de pluie, a été modélisé pour quatre évènements d'intensités et de durées variables et a permis de débuter la validation du modèle.- la zone de Spaanse Polder (Rotterdam, Pays Bas), pose la problématique de la modélisation des zones très planes au système de drainage complexes (pompes, exutoires multiples). Cette zone permet de guider les développements futurs de Multi-Hydro. Dans le contexte de l'amélioration de la résilience des villes face aux inondations, Multi-Hydro se place comme étant un outil qui offre la possibilité de simuler des scénarios permettant l'évaluation des impacts à l'échelle globale de modifications à plus petites échelles. Grâce a sa facilité de mise en place que lui confère MH-AssimTool, ainsi que sa structure modulaire et sa liberté de licence, Multi-Hydro est en train de devenir un outil d'aide à la décision
5

Contributions aux algorithmes stochastiques pour le Big Data et à la théorie des valeurs extrèmes multivariés. / Contributions to stochastic algorithm for Big Data and multivariate extreme value theory.

Ho, Zhen Wai Olivier 04 October 2018 (has links)
La thèse comporte deux parties distinctes. La première partie concerne des modèles pour les extrêmes multivariés.On donne une construction de vecteurs aléatoires multivariés à variations régulières. La construction se base sur une extension multivariée d'un lemme de Breiman établissant la propriété de variation régulière d'un produit $RZ$ de variable aléatoire avec $R$ positive à variation régulière et $Z$ positive suffisamment intégrable. En prenant $mathbf{Z}$ multivarié et suffisamment intégrable, on montre que $Rmathbf{Z}$ est un vecteur aléatoire à variations régulières et on caractérise sa mesure limite. On montre ensuite que pour $mathbf{Z}$ de loi bien choisie, on retrouve des modèles stables classiques comme le modèle t-extremal, Hüsler-Reiss, etc. Puis, on étend notre construction pour considérer la notion de variation régulière multivariée non standard. On montre ensuite que le modèle de Pareto (qu'on appelle Hüsler-Reiss Pareto) associé au modèle max-stable Hüsler-Reiss forme une famille exponentielle complète. On donne quelques propriétés du modèle Hüsler-Reiss Pareto puis on propose un algorithme de simulation exacte. On étudie l'inférence par le maximum de vraisemblance. Finalement, on considère une extension du modèle Hüsler-Reiss Pareto utilisant la notion de variation régulière non standard. On étudie l'inférence par le maximum de vraisemblance du modèle généralisé et on propose une méthode d'estimation des paramètres. On donne une étude numérique sur l'estimateur du maximum de vraisemblance pour le modèle Hüsler-Reiss Pareto. Dans la second partie qui concerne l'apprentissage statistique, on commence par donner une borne sur la valeur singulière minimale d'une matrice perturbée par l'ajout d'une colonne. On propose alors un algorithme de sélection de colonne afin d'extraire les caractéristiques de la matrice. On illustre notre algorithme sur des données réelles de séries temporelles où chaque série est pris comme étant une colonne de la matrice. Deuxièmement, on montre que si une matrice $X$ à une propriété d'incohérence alors $X$ possède aussi une version affaiblie de la propriété NSP (null space property). Puis, on s'intéresse au problème de sélection de matrice incohérente. A partir d'une matrice $Xin mathbb{R}^{n imes p}$ et $mu>0$, on cherche la plus grande sous-matrice de $X$ avec une cohérence inférieure à $mu$. Ce problème est formulé comme un programme linéaire avec contrainte quadratique sur ${0,1}^p$. Comme ce problème est NP-dur, on considère une relaxation sur la sphère et on obtient une borne sur l'erreur lorsqu'on considère le problème relaxé. Enfin, on analyse l'algorithme de gradient stochastique projeté pour l'analyse en composante principale online. On montre qu'en espérance, l'algorithme converge vers un vecteur propre maximum et on propose un algorithme pour sélectionner le pas de l'algorithme. On illustre ensuite cet algorithme par une expérience de simulation. / This thesis in divided in two parts. The first part studies models for multivariate extremes. We give a method to construct multivariate regularly varying random vectors. The method is based on a multivariate extension of a Breiman Lemma that states that a product $RZ$ of a random non negative regularly varying variable $R$ and a non negative $Z$ sufficiently integrable is also regularly varying. Replacing $Z$ with a random vector $mathbf{Z}$, we show that the product $Rmathbf{Z}$ is regularly varying and we give a characterisation of its limit measure. Then, we show that taking specific distributions for $mathbf{Z}$, we obtain classical max-stable models. We extend our result to non-standard regular variations. Next, we show that the Pareto model associated with the Hüsler-Reiss max-stable model forms a full exponential family. We show some properties of this model and we give an algorithm for exact simulation. We study the properties of the maximum likelihood estimator. Then, we extend our model to non-standard regular variations. To finish the first part, we propose a numerical study of the Hüsler-Reiss Pareto model.In the second part, we start by giving a lower bound of the smallest singular value of a matrix perturbed by appending a column. Then, we give a greedy algorithm for feature selection and we illustrate this algorithm on a time series dataset. Secondly, we show that an incoherent matrix satisfies a weakened version of the NSP property. Thirdly, we study the problem of column selection of $Xinmathbb{R}^{n imes p}$ given a coherence threshold $mu$. This means we want the largest submatrix satisfying some coherence property. We formulate the problem as a linear program with quadratic constraint on ${0,1}^p$. Then, we consider a relaxation on the sphere and we bound the relaxation error. Finally, we study the projected stochastic gradient descent for online PCA. We show that in expectation, the algorithm converges to a leading eigenvector and we suggest an algorithm for step-size selection. We illustrate this algorithm with a numerical experiment.
6

Mesure et gestion des risques d'assurance : analyse critique des futurs référentiels prudentiel et d'information financière

Thérond, Pierre-Emmanuel 25 June 2007 (has links) (PDF)
Contexte, objectifs et organisation de la thèse Aujourd'hui, le secteur de l'assurance est confronté à une triple mutation : − prudentielle avec l'avènement du futur cadre prudentiel européen qui résultera du projet Solvabilité 2 ; − du reporting financier avec le recours de plus en plus massif aux méthodes d'European Embedded Value de valorisation de compagnie d'assurance ; − comptable avec la préparation de la phase II de la norme internationale IFRS consacrée aux contrats d'assurance. Dans ce contexte, les assureurs sont invités, pour chacun de ces trois aspects, à mieux identifier, mesurer et gérer les risques auxquels ils sont soumis. Ces trois référentiels s'inscrivent dans une même logique d'uniformisation internationale (à tout le moins communautaire) et de transparence. Pour cela, la référence " au marché " est omniprésente : dès que c'est possible, c'est en référence au marché que les engagements d'assurance doivent être valorisés. En particulier, les risques financiers doivent être traités de la même manière que des instruments financiers qui seraient cotés sur un marché financier liquide. Ce principe n'est pas sans poser des problèmes conceptuels et opérationnels. L'objectif de cette thèse est de présenter les principes communs sur lesquels reposent les trois nouveaux référentiels, d'illustrer la limite de leur application en assurance et de proposer des modèles pour leur mise en oeuvre effective. Une attention particulière est portée aux risques opérationnels qu'engendrent des exigences de valorisation de plus en plus complexes. Elle s'articule en deux parties qui se décomposent chacune en trois chapitres. La première partie est consacrée à la présentation des nouveaux référentiels prudentiel, comptable et de communication financière et insiste plus particulièrement sur la manière dont les risques sont valorisés et l'incidence de ces principes d'évaluation en termes de gestion d'une compagnie d'assurance. La seconde partie aborde ces nouvelles normes sous un angle plus opérationnel en identifiant un certain nombre de problèmes pratiques auxquels leur mise en oeuvre confronte l'actuaire et en proposant des modèles permettant de surmonter ces difficultés. ---- Résumé La première partie de la thèse s'intéresse aux risques portés par les sociétés d'assurance, leurs caractéristiques et leur traitement. En effet, l'activité d'assurance est née du besoin de se prémunir contre le risque (les agents économiques sont généralement averses aux risques qui peuvent réduire leur patrimoine), ce que permet l'opération d'assurance en transférant les risques de l'assuré vers l'assureur qui, en vertu de la loi des grands nombres, bénéficie de les effets de la mutualisation et est donc relativement moins exposé au risque que l'assuré. Les évolutions récentes ou à venir amènent les assureurs à reconsidérer, au moins pour partie, leur vision des risques qu'ils assurent. Ainsi, qu'il s'agisse des nouvelles dispositions réglementaires (Solvabilité 2), de communication financière (EEV/MCEV) ou comptables (IFRS), l'objectif est similaire : identifier les risques et les analyser le plus finement possible. Le passage d'un système où les hypothèses sont exogènes et prudentes, car contraintes par la réglementation, à un système où les hypothèses les plus réalistes doivent être privilégiées conduit à prendre en considération de " nouveaux risques ". Ces risques ne sont généralement pas à proprement parler " nouveaux " : la plupart du temps, ils existaient déjà mais n'avaient pas été soit étudiés plus avant du fait de leur caractère secondaire par rapport aux risques principaux, soit identifiés. Par exemple, dans le cas du risque de mortalité, un assureur qui veut étudier ce risque va, dans un premier temps, considérer son portefeuille et l'historique des données correspondant de manière à établir des statistiques descriptives de suivi du risque. Sur des portefeuilles d'assureurs, compte-tenu de la taille des échantillons, de telles études mettront en évidence le phénomène de fluctuation d'échantillonnage autour de la tendance centrale qui est le risque principal, mais certainement pas les risques systématiques de mortalité (mortalité stochastique et risque de longévité) qui s'avèrent relativement plus petits. Ces deux risques ne pourront être identifiés que par des études plus poussées, en étudiant par exemple, en parallèle les statistiques nationales de l'évolution au cours du temps de la mortalité. Le premier chapitre s'intéresse aux aspects théoriques du traitement du risque. La première partie est consacrée à l'analyse mathématique des risques avec la présentation des concepts de mesures et de comparaisons de risques et les principaux outils qui permettent d'y parvenir. La deuxième partie s'intéressent aux différents modèles de valorisation qui co-existent en assurance et en particulier aux modèles économiques issus de la théorie financière dont l'usage est de plus en plus fréquent. Il convient néanmoins de remarquer qu'associer une valeur à un risque et le gérer de manière effective relèvent de deux démarches distinctes. Ce point est illustré dans le cas d'une garantie plancher en cas de décès de l'assuré sur un contrat d'épargne en unités de compte. Le deuxième chapitre s'attache à identifier les divergences entre les différentiels précédemment évoqués de manière à en tirer les conclusions adéquates en termes opérationnels. En effet, même s'ils reposent sur un socle de principes communs, la diversité des finalités des référentiels conduit à des options différentes dans la modélisation des produits d'assurance. En particulier, un des principes fondamentaux commun aux trois approches est l'utilisation d'hypothèses best estimate, i.e. le recours aux hypothèses les plus réalistes compte-tenu de l'information dont dispose l'assureur. Ce point est fondamental car il diffère du contexte traditionnel de l'assurance qui repose sur des hypothèses prudentes. Par exemple, le taux d'actualisation d'un régime de rentiers ne doit pas, selon la réglementation française, être supérieur à 60 % du taux moyen des emprunts de l'État français (TME) quand bien même une société d'assurance investirait intégralement en OAT disposerait d'un rendement (certain) supérieur à ce taux d'actualisation. Á titre illustratif, une attention particulière est portée sur l'évolution récente des tables de mortalité pour les risques viagers. Cet exemple montre que sur une période de temps relativement réduite, l'estimation de l'évolution de tel ou tel phénomène (l'espérance résiduelle de vie à 60 ans pour un assuré né en 1950 par exemple) peut être révisée en profondeur et avoir un impact important sur les niveaux de provisions techniques. De plus dans certains cas, un même phénomène sera modélisé sur des bases différentes selon que l'on cherche à valoriser un portefeuille de contrats ou à assurer sa solvabilité. Par ailleurs, la valorisation des portefeuilles d'assurance nécessite fréquemment la modélisation du comportement de l'assureur et des assurés, particulièrement en assurance vie. Aussi les modèles implémentés ont de réels impacts sur les valorisations obtenues. Un exemple dans le cas de la gestion d'un portefeuille financier vient illustrer cela. Enfin ce chapitre se conclut sur la modélisation et la valorisation d'un portefeuille d'assurance vie. Les exigences quantitatives prévues dans le Pilier I de Solvabilité 2 prévoient notamment des exigences de fonds propres en référence au risque global supporté par l'assureur. Cette démarche impose des contraintes fortes en termes de gestion technique. Le troisième chapitre met ainsi en évidence les conséquences du changement de référentiel prudentiel sur la gestion des actifs de la société. Le projet Solvabilité 2 fixant les exigences quantitatives de fonds propres en fonction du risque global supporté par la compagnie, n'importe quel acte de gestion modifiant la structure ou la forme de ce risque a pour conséquence automatique et immédiate de modifier l'exigence minimale de capitaux propres. Ceci est illustré dans le cas du choix d'une allocation stratégique d'actifs et observons notamment la manière dont le processus de fixation de l'allocation évolue entre la réglementation prudentielle actuelle et Solvabilité 2. La deuxième partie de la thèse est consacrée aux techniques avancées de gestion du risque d'une compagnie d'assurance. L'avènement du référentiel prudentiel Solvabilité 2 et, dans une moindre mesure, du nouveau cadre comptable induit par la phase II de la norme IFRS dédiée aux contrats d'assurance, va systématiser l'emploi de la Value-at-Risk (VaR) en assurance. Particulièrement utilisées en finance de marché, les techniques de calcul de VaR exigent une adaptation spécifique dans un contexte assurantiel de par la nature des risques qui sont ainsi mesurés. Schématiquement on distingue deux contextes, qui imposent des approches différentes : − La mesure du risque lié à la sinistralité au moyen d'une VaR dans le corps de la distribution : la provision1 devra suffire à payer les sinistres dans 75 % des cas ; − la mesure de risque liée à la ruine de la compagnie par le biais d'une VaR d'ordre très élevé : le capital de solvabilité devra permettre à la compagnie de ne pas être en ruine, à la fin de l'exercice, avec une probabilité supérieure à 99,5 %. Dans la première situation, que l'on adopte une approche VaR historique ou que l'on cherche à modéliser la sinistralité, on reste dans un cadre dans lequel on dispose d'un matériel statistique de taille généralement suffisante pour estimer une VaR dans le corps de la distribution. Dans le second cas, on est en revanche confronté à l'absence d'observations et il convient alors, dans un premier temps, de modéliser les variables de base qui influent sur la solvabilité de la compagnie, dans un deuxième temps, de simuler la ruine de la compagnie et enfin d'estimer une VaR d'ordre élevé. Cette dernière étape nécessite le recours à la théorie 1. Les travaux les plus récents du CEIOPS sur Solvabilité 2 donnent la préférence à une approche coût du capital plutôt qu'à la VaR à 75 % pour le calibrage de la marge pour risque. des valeurs extrêmes. Le cinquième chapitre s'attache à présenter les contextes de calcul de VaR en assurance, les résultats probabilistes sous-jacents et les limites de ces critères. Une attention toute particulière est portée aux différents risques opérationnels auxquels est confronté l'actuaire dans un contexte de modèle interne de type Solvabilité 2. Par ailleurs un autre phénomène à intégrer est celui de la dépendance entre les risques. L'activité d'assurance, qui repose sur la mutualisation et la convergence en probabilité énoncée dans la loi des grands nombres, s'est développée sur une des hypothèses principales de cette loi : l'indépendance entre les risques. Les exigences de solvabilité comme les référentiels économiques de valorisation ne font aujourd'hui plus l'économie de la non prise en compte des risques inhérents à la dépendance. Ainsi le capital de solvabilité fixé en référence au risque global supporté par la société ne saurait s'analyser comme la somme des capitaux qui permettraient de couvrir chaque risque individuellement. Par ailleurs, dans une approche de valorisation, si les marchés financiers n'accordent pas de prime à un risque mutualisable, il n'en est pas de même pour les risques non-mutualisables (ou systématiques) dont les sociétés d'assurance cherchent à se défaire au maximum que ce soit au travers de traités de réassurance ou, de plus en plus, grâce aux opérations de titrisation. Le cinquième chapitre aborde cette problématique en présentant, dans un premier temps, les aspects mathématiques de la mesure et de la modélisation de la dépendance ; puis en analysant l'impact de la prise en compte de celle-ci dans les contextes assurantiels de détermination d'un capital de solvabilité et de valorisation du contrat d'épargne présenté dans le deuxième chapitre. Cet exemple n'a pu être mis en oeuvre que grâce à l'utilisation de méthodes de Monte Carlo. En effet, la complexité des contrats d'assurance et l'interdépendance intrinsèque et temporelle des phénomènes qui concourent à leur dénouement obligent les assureurs à avoir un recours de plus en plus systématique aux techniques de simulation. Par exemple dans Solvabilité 2, l'alternative à l'utilisation de la formule standard pour déterminer le capital de solvabilité passera par la mise en place d'un modèle interne. Un tel modèle revient à modéliser l'ensemble des variables qui influent sur le risque global supporté par la compagnie. La mise en oeuvre effective d'un tel modèle ne pourra faire l'économie du recours aux techniques de simulation. C'est justement l'objet du sixième chapitre qui revient notamment sur les techniques de discrétisation temporelle des processus stochastiques continus, l'estimation des paramètres et la génération de nombres aléatoires. Les illustrations

Page generated in 0.4257 seconds