Spelling suggestions: "subject:"extrêmement""
51 |
Construction et estimation de copules en grande dimension / Construction and estimation of high-dimensional copulasMazo, Gildas 17 November 2014 (has links)
Ces dernières décennies, nous avons assisté à l'émergence du concept de copule en modélisation statistique. Les copules permettent de faire une analyse séparée des marges et de la structure de dépendance induite par une distribution statistique. Cette séparation facilite l'incorporation de lois non gaussiennes, et en particulier la prise en compte des dépendances non linéaires entre les variables aléatoires. La finance et l'hydrologie sont deux exemples de sciences où les copules sont très utilisées. Cependant, bien qu'il existe beaucoup de familles de copules bivariées, le choix reste limité en plus grande dimension: la construction de copules multivariées/en grande dimension reste un problème ouvert aujourd'hui. Cette thèse présente trois contributions à la modélisation et à l'inférence de copules en grande dimension. Le premier modèle proposé s'écrit comme un produit de copules bivariées, où chaque copule bivariée se combine aux autres via un graphe en arbre. Elle permet de prendre en compte les différents degrés de dépendance entre les différentes paires. La seconde copule est un modèle à facteurs basé sur une classe nonparamétrique de copules bivariées. Elle permet d'obtenir un bon équilibre entre flexibilité et facilité d'utilisation. Cette thèse traite également de l'inférence paramétrique de copules dans le cas général, en établissant les propriétés asymptotiques d'un estimateur des moindres carrés pondérés basé sur les coefficients de dépendance. Les modèles et méthodes proposés sont appliqués sur des données hydrologiques (pluies et débits de rivières). / In the last decades, copulas have been more and more used in statistical modeling. Their popularity owes much to the fact that they allow to separate the analysis of the margins from the analysis of the dependence structure induced by the underlying distribution. This renders easier the modeling of non Gaussian distributions, and, in particular, it allows to take into account non linear dependencies between random variables. Finance and hydrology are two examples of scientific fields where the use of copulas is nowadays standard. However, while many bivariate families exist in the literature, multivariate/high dimensional copulas are much more difficult to construct. This thesis presents three contributions to copula modeling and inference, with an emphasis on high dimensional problems. The first model writes as a product of bivariate copulas and is underlain by a tree structure where each edge represents a bivariate copula. Hence, we are able to model different pairs with different dependence properties. The second one is a factor model built on a nonparametric class of bivariate copulas. It exhibits a good balance between tractability and flexibility. This thesis also deals with the parametric inference of copula models in general. Indeed, the asymptotic properties of a weighted least-squares estimator based on dependence coefficients are established. The models and methods have been applied to hydrological data (flow rates and rain falls).
|
52 |
Evènements météo-océaniques extrêmes / Extreme meteo-oceanic eventsMazas, Franck 17 November 2017 (has links)
Cette thèse sur travaux vise à rassembler et unifier les travaux réalisés sur le sujet des évènements météo-océaniques extrêmes depuis 2009, dans le cadre de mon travail à SOGREAH, devenu depuis ARTELIA. À mesure que progressaient ces travaux, un thème central a progressivement apparu : la notion d'évènement, tel qu'une tempête. Ce concept fournit un cadre robuste et pertinent, en particulier dans le cas des extrêmes multivariés (par exemple, la probabilité d'occurrence conjointe des vagues et des niveaux marins), ainsi qu'une meilleure compréhension de la notion de période de retour, très utilisée dans le domaine de l'ingénierie.Les principaux résultats des travaux réalisés au cours de la décennie écoulée sont les suivants :- mise à jour de la méthodologie de détermination des houles ou vents extrêmes :- développement et justification d'un cadre en deux étapes pour la modélisation sup-seuil des extrêmes univariés (méthode du renouvellement), introduisant la notion d'évènement et la séparation des seuils physique et statistique,- proposition d'outils pratiques pour le choix du seuil statistique,- introduction de la méthode du bootstrap paramétrique pour le calcul des intervalles de confiance,- identification d'un comportement problématique de l'Estimateur du Maximum de Vraisemblance et proposition d'une solution : utilisation de distributions à trois paramètres avec l'estimateur des L-moments,- application du cadre POT (Peaks-Over-Threshold) à la Méthode des Probabilités Jointes (JPM) pour la détermination des niveaux marins extrêmes :- distinction entre les valeurs séquentielles et les pics des évènements à l'aide d'indices extrémaux pour les surcotes et les niveaux marins,- construction d'un modèle mixte pour la distribution des surcotes,- raffinements pour le traitement de la dépendance marée-surcote,- application du cadre POT-JPM pour l'analyse conjointe des hauteurs de vagues et des niveaux marins :- proposition d'une procédure alternative d'échantillonnage,- analyse séparée de la marée et de la surcote dans le but de modéliser la dépendance entre la hauteur de vagues et la surcote ; avec incorporation dans la distribution conjointe de la hauteur de vagues et du niveau marin à l'aide d'une opération de convolution 2D1D,- utilisation de copules des valeurs extrêmes,- présentation améliorée du chi-plot,- introduction d'une nouvelle classification pour les analyses multivariées :- Type A : un phénomène unique décrit par différentes grandeurs physiques qui ne sont pas du même type,- Type B : un phénomène fait de différentes composantes, décrits par des grandeurs physiques du même type d'un composant à l'autre,- Type C : plusieurs phénomènes décrits par des grandeurs physiques qui ne sont pas du même type,- interprétation de la signification des évènements multivariés :- lien avec l'échantillonnage,- lien avec les différentes définitions de la période de retour,- dans le cas bivarié : transformation d'une distribution conjointe de variables descriptives de l'évènement vers la distribution des couples de variables séquentielles,- génération de graphes de srotie alternatifs tels que les contours d'iso-densité pour les couples de variables séquentielles,- un package R dédié, artextreme, pour l'implémentation des méthodes ci-dessus / This PhD on published works aims at unifying the works carried out on the topic of extreme metocean events since 2009, while working for SOGREAH then ARTELIA.As these works went along, a leading theme progressively appeared: the notion of event, such as a storm. This concept provides a sound and relevant framework in particular in the case of multivariate extremes (such as joint probabilities of waves and sea levels), as well as a better understanding of the notion of return period, much used for design in the field of engineering.The main results of the works carried out in the last decade are as follows:- updating of the methodology for determining extreme wave heights or wind speeds:- development and justification of a two-step framework for extreme univariate over-threshold modelling introducing the concept of event and the separation of the physical and statistical thresholds,- proposal of practical tools for choosing the statistical threshold,- introduction of the parametric bootstrap approach for computing confidence intervals,- identification of a problematic issue in the behaviour of the Maximum Likelihood Estimator and proposal of a solution: use of 3-parameter distributions along with the L-moments estimator,- application of the POT framework to the Joint Probability Method for determining extreme sea levels:- distinction between sequential values and event peaks through extremal indexes for surge and sea level,- construction of a mixture model for the surge distribution,- refinements for handling tide-surge dependence,- application of the POT-JPM framework for the joint analysis of wave height and sea level:- proposal of an alternative sampling procedure,- separate analysis of tide and surge in order to model the dependence between wave height and surge to be incorporated in the joint distribution of wave height and sea level thanks to a 2D1D convolution operation,- use of extreme-value copulas,- improved presentation of the chi-plot,- introduction of a new classification for multivariate analyses:- Type A: a single phenomenon described by different physical quantities that are not of the same kind,- Type B: a phenomenon made of different components, described by physical quantities of the same kind between one component and another,- Type C: several phenomena described by physical quantities that are not of the same kind,- interpretation of the meaning of multivariate events:- link with the sampling procedure,- link with the different definitions of the return period,- in the bivariate case: transformation of the joint distribution of event-describing variables into the joint distribution of sequential pairs,- generation of alternative output plots such as contours of density for sequential pairs;- a dedicated R package, artextreme, for implementing the methodologies presented above
|
53 |
Dynamique instantanée à décennale d'un système de plage sableuse soumis à des forçages extrêmes : île-barrière de Wan-Tzu-Liao, Taïwan / Instantaneous to decadal dynamics of a sand beach driven by extreme forcings : Wan-tzu-liao (Taïwan) sand barrierCampmas, Lucie 01 July 2015 (has links)
Ce travail de thèse est une étude multi-échelles de temps de la morphodynamique d'une île barrière soumise à des conditions de forçages paroxysmaux de mousson, de tempêtes tropicales et de typhons. Cette étude se concentre dans un premier temps, sur un large travail de terrain effectué dans le cadre du projet KUN-SHEN. Sept mois de mesures (de novembre 2011 à janvier 2012 et de mai à septembre 2012) ont permis l'acquisition d'un jeu de données inédit dans la littérature, exhaustif et de haute résolution temporelle et spatiale. Des mesures hydrodynamiques du large jusqu’à la zone de jet de rive ont été acquises en parallèle d'un suivi topographique de la plage émergée. Les mesures de vagues ont été acquises à partir d'une bouée au large, de deux houlographes-courantomètres en avant-côte (mesures en continu à 2 Hz) ainsi que de pressiomètres enfouis dans la plage sub-aérienne (mesures en continu à 5 Hz). Les levés topo-bathymétriques ont été réalisés au D-GPS (résolution centimétrique) une fois par semaine pendant la saison de mousson et juste après et avant chaque événements de tempêtes extrêmes pendant la saison des typhons. Le travail d'analyse cible ensuite la morphodynamique de la zone de jet de rive et de la plage émergée sur un panel d’échelles spatio-temporelles allant de l'instantanée à annuelle. A l’échelle instantanée, ce sont les variations d’élévation de la surface libre de l'eau et du lit sableux (quelques secondes) qui sont observées au cours de chacune des phases (montant, apex, tombant) de la tempête tropicale Talim (juin 2012, Hs = 10.34 m et Ts = 14.6 s). Pour le même événement de tempête, la réponse morphologique de toute la plage émergée est ensuite décrite et quantifiée dans le détail à l’échelle événementielle (quelques jours). Les bilans sédimentaires de chacune des saisons sont ensuite quantifiés dans le but de caractériser la dynamique saisonnière (quelques mois) à annuelle d'une barrière sableuse soumise à deux types de forçages extrêmes différents (mousson/typhons). L'impact sur le front de plage, des groupes de tempêtes faibles à modérées pendant l'hiver est ainsi comparé à l'impact des tempêtes extrêmes pendant l'été. On souligne finalement 1) l'importance d'un jeu de mesures in-situ de bonne qualité dans un travail d'analyse morphodynamique, 2) l'essentialité de l’emboîtement des échelles spatio-temporelle ainsi que 3) le rôle du profil morphologique héritée dans la réponse morphologique d'une plage émergée lorsqu'elle est soumise à des conditions de forçages de vent et de vague extrêmes. / This work focuses on a multi-scale analysis of a sand barrier morphodynamics exposed to paroxysmal forcings of monsoon, tropical storms, and typhoons. The study provided a large dataset of in-situ measures acquired in the framework of the KUNSHEN project. Seven months of field work (from November 2011 to January 2012 and from May to September 2012) provided a new, exhaustive and hight resolution measures. Measures of hydrodynamic conditions from offshore to the swash zone are acquired as well as high frequency topographic surveys of the emerged beach. Waves monitoring are from an offshore buoy, two current profilers in the shoreface (continuous measures at 2 Hz) and pressure sensors buried in the sub-aerial beach (continuous measures at 5 Hz). The topo-bathymetric surveys were acquired using D-GPS (centimetric resolution) one time a week during winter season of monsoon and just before and after each extreme storm during summer season of typhoons.Then, analysis focus in the morphodynamics of the swash zone and the emerged beach on a range of scales from instantaneous to one year. At the instantaneous scale, we analyze variations of the water surface fluctuation and sand bed elevation (seconds) during each phases (rising, apex and falling) of the Talim tropical storm (June 2012, Hs = 10.34 m and Ts = 14.6 s). Concerning the same storm, we characterize the morphologic changes of the whole emerged beach at the evenemential scale (days). Sand balances of each seasons are quantified in order to characterize the dynamics from seasonal scale (months) to annual scale of a sand barrier driven by two types of extreme forcings (monsoon/typhoons). On the beach-front, impact of groups of winter weak storms is compared to the impact of extremes tropical storms and typhoons. To conclude, we highlight 1) importance of in-situ measures in morphodynamic studies, 2) the major role of scales stacking and 3) the role of herited beach profile in the morphologic responses of the emerged beach driven by extremes forcings of wind and wave.
|
54 |
Application of Scientific Computing and Statistical Analysis to address Coastal Hazards / Application du Calcul Scientifique et de l'Analyse Statistique à la Gestion du Risque en Milieu LittoralChailan, Romain 23 November 2015 (has links)
L'étude et la gestion des risques littoraux sont plébiscitées par notre société au vu des enjeux économiques et écologiques qui y sont impliqués. Ces risques sont généralement réponse à des conditions environnementales extrêmes. L'étude de ces phénomènes physiques repose sur la compréhension de ces conditions rarement (voire nullement) observées.Dans un milieu littoral, la principale source d'énergie physique est véhiculée par les vagues. Cette énergie est responsable des risques littoraux comme l'érosion et la submersion qui évoluent à des échelles de temps différentes (événementielle ou long-terme). Le travail réalisé, situé à l'interface de l'analyse statistique, de la géophysique et de l'informatique, vise à apporter des méthodologies et outils aux décideurs en charge de la gestion de tels risques.En pratique, nous nous intéressons à mettre en place des méthodes qui prennent en compte non seulement un site ponctuel mais traitent les problématiques de façon spatiale. Ce besoin provient de la nature même des phénomènes environnementaux qui sont spatiaux, tels les champs de vagues.L'étude des réalisations extrêmes de ces processus repose sur la disponibilité d'un jeu de données représentatif à la fois dans l'espace et dans le temps, permettant de projeter l'information au-delà de ce qui a déjà été observé. Dans le cas particulier des champs de vagues, nous avons recours à la simulation numérique sur calculateur haute performance (HPC) pour réaliser un tel jeu de données. Le résultat de ce premier travail offre de nombreuses possibilités d'applications.En particulier, nous proposons à partir de ce jeu de données deux méthodologies statistiques qui ont pour but respectif de répondre aux problématiques de risques littoraux long-termes (érosion) et à celles relatives aux risques événementiels (submersion). La première s'appuie sur l'application de modèles stochastiques dit max-stables, particulièrement adapté à l'étude des événements extrêmes. En plus de l'information marginale, ces modèles permettent de prendre en compte la structure de dépendance spatiale des valeurs extrêmes. Nos résultats montrent l'intérêt de cette méthode au devant de la négligence de la dépendance spatiale de ces phénomènes pour le calcul d'indices de risque.La seconde approche est une méthode semi-paramétrique dont le but est de simuler des champs spatio-temporels d'états-de-mer extrêmes. Ces champs, interprétés comme des tempêtes, sont des amplifications contrôlées et bi-variés d'épisodes extrêmes déjà observés. Ils forment donc des tempêtes encore plus extrêmes. Les tempêtes simulées à une intensité contrôlée alimentent des modèles physiques événementiels à la côte, permettant d'aider les décideurs à l'anticipation de ces risques encore non observés.Enfin et depuis la construction de ces scenarii extrêmes, nous abordons la notion de pré-calcul dans le but d'apporter en quasi-temps réel au décideur et en tant de crise une prévision sur le risque littoral.L’ensemble de ce travail s'inscrit dans le cadre d'un besoin industriel d’aide à la modélisation physique : chainage de modèles numériques et statistiques. La dimension industrielle de cette thèse est largement consacrée à la conception et au développement d’un prototype de plateforme de modélisation permettant l’utilisation systématique d’un calculateur HPC pour les simulations et le chainage de modèles de façon générique.Autour de problématiques liées à la gestion du risque littoral, cette thèse démontre l'apport d'un travail de recherche à l'interface de plusieurs disciplines. Elle y répond en conciliant et proposant des méthodes de pointe prenant racine dans chacune de ces disciplines. / Studies and management of coastal hazards are of high concerns in our society, since they engage highly valuable economical and ecological stakes. Coastal hazards are generally responding to extreme environmental conditions. The study of these physical phenomena relies on the understanding of such environmental conditions, which are rarely (or even never) observed.In coastal areas, waves are the main source of energy. This energy is responsible of coastal hazards developed at different time-scales, like the submersion or the erosion.The presented work, taking place at the interface between Statistical Analysis, Geophysics and Computer Sciences, aiming at bringing forward tools and methods serving decision makers in charge of the management of such risks.In practice, the proposed solutions answer to the questionings with a consideration of the space dimension rather than only punctual aspects. This approach is more natural considering that environmental phenomena are generally spatial, as the sea-waves fields.The study of extreme realisations of such processes is based on the availability of a representative data set, both in time and space dimensions, allowing to extrapolating information beyond the actual observations. In particular for sea-waves fields, we use numerical simulation on high performance computational clusters (HPC) to product such a data set. The outcome of this work offers many application possibilities.Most notably, we propose from this data set two statistical methodologies, having respective goals of dealing with littoral hazards long-terms questionings (e.g., erosion) and event-scale questionings (e.g., submersion).The first one is based on the application of stochastic models so-called max-stable models, particularly adapted to the study of extreme values in a spatial context. Indeed, additionally to the marginal information, max-stable models allow to take into account the spatial dependence structures of the observed extreme processes. Our results show the interest of this method against the ones neglecting the spatial dependence of these phenomena for risk indices computation.The second approach is a semi-parametric method aiming at simulating extreme waves space-time processes. Those processes, interpreted as storms, are controlled and bi-variate uplifting of already observed extreme episodes. In other words, we create most severe storms than the one already observed. These processes simulated at a controlled intensity may feed littoral physical models in order to describe a very extreme event in both space and time dimensions. They allow helping decision-makers in the anticipation of hazards not yet observed.Finally and from the construction of these extreme scenarios, we introduce a pre-computing paradigm in the goal of providing the decision-makers with a real-time and accurate information in case of a sudden coastal crisis, without performing any physical simulation.This work fits into a growing industrial demand of modelling help. Most notably a need related to the chaining of numerical and statistical models. Consequently, the industrial dimension of this PhD.~is mostly dedicated to the design and development of a prototype modelling platform. This platform aims at systematically using HPC resources to run simulations and easing the chaining of models.Embracing solutions towards questionings related to the management of coastal hazard, this thesis demonstrates the benefits of a research work placed at the interface between several domains. This thesis answers such questionings by providing end-users with cutting-edge methods stemming from each of those domains.
|
55 |
Estimation et tests en théorie des valeurs extrêmesToulemonde, Gwladys 30 October 2008 (has links) (PDF)
Cette thèse se décompose en trois parties distinctes auxquelles s'ajoute une introduction. Dans un premier temps, nous nous intéressons à un test lisse d'ajustement à la famille de Pareto. Pour cela, nous proposons une statistique de test motivée par la théorie de LeCam sur la normalité asymptotique locale (LAN). Nous en établissons le comportement asymptotique sous l'hypothèse que l'échantillon provient d'une distribution de Pareto et sous des alternatives locales, nous plaçant ainsi dans le cadre LAN. Des simulations sont présentées afin d'étudier le comportement de la statistique de test à distance finie. Dans le chapitre suivant, nous nous plaçons dans le cadre de données censurées aléatoirement à droite. Nous proposons alors un estimateur des paramètres de la distribution de Pareto généralisée basé sur une première étape de l'algorithme de Newton-Raphson. Nous établissons la normalité asymptotique de cet estimateur. Par des simulations, nous illustrons son comportement à distance finie et le comparons à celui de l'estimateur du maximum de vraisemblance. Nous proposons enfin, dans un dernier chapitre, un modèle linéaire autorégressif adapté à la loi de Gumbel pour prendre en compte la dépendance dans les maxima. Nous établissons des propriétés théoriques de ce modèle et par simulations nous illustrons son comportement à distance finie. Enfin, comme des applications concrètes en sciences de l'atmosphère motivaient ce modèle, nous l'avons utilisé pour modéliser des maxima de dioxyde de carbone et de méthane.
|
56 |
Dépendance et résultats limites, quelques applications en finance et assuranceCharpentier, Arthur 20 June 2006 (has links) (PDF)
Cette thèse porte sur l'étude des dépendance entre risques, à l'aide des copules. La prise en compte des dépendances qui peuvent exister entre risques est devenue cruciale pour les gestionnaires de risques, et les enjeux peuvent être colossaux (risque de contagion – et de faillites en chaîne - au sein d'un portefeuille d'obligations risquées, ou corrélations entre risques extrêmes en réassurance – ou plusieurs risques a priori indépendants sont affectés lorsqu'une catastrophe survient). Une meilleure connaissance des structures de dépendance est alors fondamentale afin de proposer une modélisation adéquate. Aussi, l'accent est mis, dans cette thèse, sur la déformation des copules en fonction du temps, ou dans les queues de distribution.<br /><br />La première partie est consacrée à la déformation temporelle des copules, dans un contexte de risque de crédit. En introduisant les copules conditionnelles, il est ainsi possible d'étudier la dépendance entre les durées de vie avant le défaut d'un émetteur, sachant qu'aucun défaut n'a été observé pendant une période de temps donnée. Des théorèmes de point fixe permettent d'obtenir des comportement limites, et d'obtenir des résultats sur les first-to-default, par exemple.<br /><br />Les chapitres suivant traitent de l'utilisation des copules conditionnelles dans la modélisation des risques extrêmes. La théorie des extrêmes dans un cadre multivarié a été faite traditionnellement en modélisant les maximas par composantes. Mais l'étude par dépassement de seuil joint offre une richesse beaucoup plus grande. En particulier, l'étude dans la queue supérieure et inférieure est présentée dans le cas des copules Archimédiennes, en insistant sur les caractérisations des cas d'indépendance asymptotique, d'ordinaire si difficile à appréhender.<br /><br />La dernière partie aborde l'estimation nonparamétrique des densités de copules, où des estimateurs à noyaux sont étudiés, permettant d'éviter des effets de bords traditionnellement inévitable lorsque l'on estime une densité à support compact. En particulier, les techniques sont utilisées pour estimer correctement la densité dans les queues de distributions, y compris avec des données censurées.<br /><br />Enfin, une bijgevoegde stelling conclue cette thèse sur l'étude de la dépendance temporelle pour les risques climatiques. Des modèles à mémoire longue sont ainsi utilisé pour modéliser le risque de tempête et estimer la période de retour de la canicule d'août 2003. Et enfin, des modèles haute-fréquences (proches de ceux utilisé en finance pour modéliser les prix de titres transaction par transaction) sont utilisés pour modéliser des données hydrologiques, et proposer de nouvelles estimations pour le risque de crue.
|
57 |
Approche multifractale de la modélisation stochastique en hydrologieCHAOUCHE, Keltoum 04 January 2001 (has links) (PDF)
La plupart des séries d'observations hydrologiques possèdent des caractéristiques peu communes (grande variabilité sur une large gamme d'échelles spatiales et temporelles, périodicité, corrélation temporelle à faible décroissance), difficiles à mesurer (séries tronquées et intégrées sur des pas de temps qui ne respectent pas la nature du phénomène) et compliquées à intégrer dans un modèle stochastique classique (ARMA, Markov). Le modélisateur doit aussi faire face aux problèmes liés à l'échelle : en hydrologie (et en météorologie) où les données sont issues de pas de temps très divers, il est particulièrement intéressant de disposer de modèles à la fois capable d'intégrer des données à pas de temps différents et de fournir des résultats à un pas de temps différent de celui des entrées (désagrégation ou agrégation de séries temporelles).Ce travail de thèse explore les possibilités d'application d'un nouveau type de modèle, les modèles multifractals, qui traduisent le plus simplement possible des propriétés d'invariance de certains paramètres (invariance spatiale, temporelle ou spatio-temporelle). En particulier, dans les modèles de cascades multifractales de générateur algébrique, c'est le coefficient de décroissance algébrique qui est un invariant d'échelle. Des résultats issus de la théorie probabiliste des valeurs extrêmes sont dès lors très utiles pour estimer ce paramètre. L'élaboration d'un outil statistique capable de détecter un comportement algébrique et d'estimer le paramètre de décroissance algébrique constitue une étape préalable au développement de cette thèse. Il est aussi montré dans ce travail, que la forme de dépendance (longue ou courte) des modèles en cascade multifractale diffère selon le générateur de la cascade.<br />L'étude exploite une base de données de 232 séries annuelles de divers sites, de nombreuses séries de pluie à divers pas de temps (mois, jour, heure, minute) ainsi que quelques séries de débits. Elle conduit aux résultats suivants :<br />- Les lois de type algébrique sont adaptées à la modélisation des grandes périodes de retour des séries de pluie étudiées.<br />- Sur ces mêmes séries, le coefficient de décroissance algébrique est un paramètre invariant d'échelle (sur des gammes d'échelles supérieures à l'heure).<br />- L'estimation de ce coefficient en divers sites à travers le monde est très peu variable.<br />- La propriété de longue dépendance est décelable au sein de certaines séries de débits, notamment des séries de rivières sur craie.<br />Ces résultats incitent donc à l'emploi de cascades multifractales pour la modélisation des séries de pluie, bien qu'un travail concernant la détection et l'estimation de longue dépendance reste à accomplir pour que le choix du générateur respecte la forme de dépendance de la série.
|
58 |
Changement climatique dans le vignoble de Champagne : Modélisation thermique à plusieurs échelles spatio-temporelles (1950-2100)Briche, Elodie 11 October 2011 (has links) (PDF)
Les effets du changement climatique à l'échelle planétaire ont déjà des répercussions sur la viticulture et ces changements engendrent des interrogations sur son fonctionnement futur. L'évaluation des modifications possibles sur le vignoble de Champagne, notamment en termes d'extrêmes thermiques dommageables pour la vigne tels que l'aléa gélif printanier et les canicules, présente donc un intérêt pour la profession. Les températures influencent en effet le bon déroulement du cycle végétatif de la vigne et une avancée des stades phénologiques est déjà observée en Champagne. Ce vignoble présente un intérêt particulier du fait de sa position septentrionale mais aussi parce que les analyses y sont facilitées par la densité du réseau météorologique en place depuis près de 20 ans. Pour établir une prospective des conditions thermiques possibles, des sorties des modèles du climat français LMD et ARPEGE-Climat (RETIC) respectivement, à 300 km et 50 km de résolution sont validées et analysées sur une période de contrôle (1950 à 2000). Ils permettent ensuite de donner un aperçu des conditions thermiques et bioclimatiques futures (2001 à 2100) selon trois scénarios de changement climatique, les plus couramment utilisés : A1B, B1 et A2. La période de contrôle permet de mettre en évidence les biais froids des distributions statistiques des sorties de modèles au printemps et en été en termes d'estimation de fréquences d'extrêmes et de choisir le modèle ARPEGE-Climat (RETIC). Les sorties thermiques de ce modèle sont alors utilisées pour évaluer l'évolution jusqu'à 2100 des conditions bioclimatiques et thermiques futures. La fréquence des extrêmes gélifs printaniers au moment du débourrement devrait diminuer en avril mais dans l'hypothèse d'un débourrement plus précoce, ces extrêmes devraient, d'après les modèles, rester importants en mars et provoqueraient un gel accru des bourgeons. Celle des extrêmes chauds estivaux devrait augmenter dans le futur. L'analyse à échelle régionale est complétée par une analyse topoclimatique grâce au modèle à méso-échelle RAMS, qui permet d'obtenir une modélisation spatiale des températures. Incluant les facteurs locaux, ce modèle produit des résultats à résolution de 200 m. Les simulations de validation sont réalisées sur les évènements extrêmes gélifs printaniers (du 4 au 9 avril) et caniculaires estivaux (du 4 au 8 août) de l'année 2003, qui a provoqué le gel des bourgeons et l'échaudage des baies et qui est considérée ici comme exceptionnelle et représentative " du climat futur ". Les températures simulées (200 m) sur la Champagne sont comparées aux températures enregistrées par des stations sur les coteaux. Le modèle reproduit bien le cycle journalier des températures avec des biais plus ou moins bien marqués notamment sur les minimas et maximas journaliers.
|
59 |
Dependence structures and limiting restults, with applications in finance and insuranceCharpentier, Arthur 01 June 2006 (has links) (PDF)
Cette thèse se concentre sur des théorèmes de limitation pour copulae. Le premier chapitre est une enquête(une vue générale) sur la dépendance et des résultats standard sur copulae, avec des demandes(applications) dans la finance et l'assurance. Le deuxième chapitre étudie les changements de la structure de dépendance dans des modèles de survie et obtient des résultats de limitation utilisant un concept bivariate de variation régulière directionnelle dans de hautes dimensions. Utilisant quelques théorèmes de point fixes, copulae invariable est exposé. Plus loin, il est prouvé que la copule de Clayton est la seule invariable par truncature. Dans le chapitre 3-5 est étudié le cas(la caisse) particulier d'Archimedean copulae. L'étude dans supérieur et est plus bas conduite et les théorèmes de limitation sont obtenus. Le chapitre 6 essaye de lier l'approche standard dans des valeurs extrêmes et celui présenté ici, basé sur copulae conditionnel, c'est-à-dire obtenu avec le joint(l'articulation) exceedances. Le chapitre 7 se concentre nonparamétrique (le grain(noyau) basé) sur les évaluations de densité de copule, utilisant l'approche transformée de grain et des grains(noyaux) bêta. Et finalement, un chapitre final (un bijgevoegde stelling) se concentre sur des dépendances temporelles pour des événements naturels et étudie la notion de période de retour où les observations ne sont pas l'indépendance. On considère quelques demandes(applications), sur des vents de tempête et des vagues de chaleur (utilisant GARMA des processus, avec la longue mémoire(souvenir)) et sur des événements d'inondation(de flot) utilisant l'extension de modèles ACD, présenté pour des données financières haute fréquence
|
60 |
Approches expérimentales et multi-échelles des processus d'amorçage de fissures en fatigue sous chargements complexesAgbessi, Komlan 21 March 2013 (has links) (PDF)
Les méthodes de calcul en fatigue à grande durée de vie sont en cours de développement depuis des décennies et sont utilisées par les ingénieurs pour dimensionner les structures. Généralement, ces méthodes se basent sur la mise en équations de quantités mécaniques calculées à l'échelle macroscopique ou mésoscopique. Les critères de fatigue multiaxiale reposent généralement sur des hypothèses de changement d'échelle dont l'objectif est d'accéder à l'état de contraintes ou de déformations à l'échelle du grain. Dans les approches de type plan critique (Dang Van, Papadopoulos, Morel), l'amorçage d'une fissure de fatigue est considéré comme piloté par une quantité mécanique liée à une orientation matérielle particulière (plan critique). Si ces phénomènes sont bien établis dans le cas des chargements uniaxiaux, la nature des mécanismes liés à l'activation des systèmes de glissement, à la multiplicité du glissement et aux différents sites préférentiels d'amorçage de fissures sous chargements complexes reste peu connue.Afin de mieux comprendre les mécanismes d'endommagement en fatigue multiaxiale, les techniques d'analyse et de caractérisation de l'activité plastique (activation des systèmes de glissements, bandes de glissement persistantes) et d'observation de l'endommagement par fatigue ont été mises en place en se basant principalement sur des observations MEB et analyses EBSD. Ces investigations ont permis de mettre en lumière les effets des chargements non proportionnels sur la multiplicité du glissement sur du cuivre pur OFHC. L'étude statistique des sites préférentiels d'amorçage de fissures montre que les grains à glissement multiple présentent une forte probabilité d'amorçage de fissures, surtout sous les chargements non proportionnels. Nous avons également mis en évidence le rôle des joints de grains et des joints de macle sur le développement de la plasticité à l'échelle de la microstructure. Les résultats expérimentaux sont confrontés à ceux du calcul éléments finis (EF) en plasticité polycristalline sur des microstructures synthétiques 3D semi-périodiques. L'application du critère de Dang Van à l'échelle mésoscopique (le grain) montre une forte variabilité de la contrainte hydrostatique et du cisaillement. Cette variabilité est plus importante pour un modèle de comportement cristallin élastique anisotrope. Le rôle de la plasticité cristalline se révèle secondaire. Ces analyses permettent de remettre en perspective les hypothèses usuelles de changement d'échelle utilisées en fatigue multiaxiale. Enfin, une méthode basée sur la statistique des valeurs extrêmes est proposée pour le dépouillement des calculs EF sur agrégats. Cette analyse a été appliquée sur la contrainte équivalente associée au critère de fatigue de Dang Van pour les calculs d'agrégats polycristallins avec différentes morphologies et orientations des grains. Les effets de la surface libre, du type de chargement et du modèle de comportement mécanique des grains ont été analysés. Les résultats offrent des perspectives intéressantes sur la modélisation de l'amorçage des fissures en fatigue multiaxiale des matériaux et des structures avec une prise en compte de la microstructure.
|
Page generated in 0.0373 seconds