• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 54
  • 19
  • 6
  • Tagged with
  • 74
  • 74
  • 44
  • 41
  • 27
  • 24
  • 21
  • 18
  • 17
  • 15
  • 15
  • 13
  • 13
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Apprentissage de structures dans les valeurs extrêmes en grande dimension / Discovering patterns in high-dimensional extremes

Chiapino, Maël 28 June 2018 (has links)
Nous présentons et étudions des méthodes d’apprentissage non-supervisé de phénomènes extrêmes multivariés en grande dimension. Dans le cas où chacune des distributions marginales d’un vecteur aléatoire est à queue lourde, l’étude de son comportement dans les régions extrêmes (i.e. loin de l’origine) ne peut plus se faire via les méthodes usuelles qui supposent une moyenne et une variance finies. La théorie des valeurs extrêmes offre alors un cadre adapté à cette étude, en donnant notamment une base théorique à la réduction de dimension à travers la mesure angulaire. La thèse s’articule autour de deux grandes étapes : - Réduire la dimension du problème en trouvant un résumé de la structure de dépendance dans les régions extrêmes. Cette étape vise en particulier à trouver les sous-groupes de composantes étant susceptible de dépasser un seuil élevé de façon simultané. - Modéliser la mesure angulaire par une densité de mélange qui suit une structure de dépendance déterminée à l’avance. Ces deux étapes permettent notamment de développer des méthodes de classification non-supervisée à travers la construction d’une matrice de similarité pour les points extrêmes. / We present and study unsupervised learning methods of multivariate extreme phenomena in high-dimension. Considering a random vector on which each marginal is heavy-tailed, the study of its behavior in extreme regions is no longer possible via usual methods that involve finite means and variances. Multivariate extreme value theory provides an adapted framework to this study. In particular it gives theoretical basis to dimension reduction through the angular measure. The thesis is divided in two main part: - Reduce the dimension by finding a simplified dependence structure in extreme regions. This step aim at recover subgroups of features that are likely to exceed large thresholds simultaneously. - Model the angular measure with a mixture distribution that follows a predefined dependence structure. These steps allow to develop new clustering methods for extreme points in high dimension.
12

Estimation bayésienne d'une fonction de Pickands par des splines cubiques

Gueye, Mohamed 07 1900 (has links)
Le sujet de notre mémoire est l'intersection entre deux domaines : La théorie des valeurs extrêmes (TVE) et les copules. L'objet de la TVE est de trouver la loi limite du maximum d'un échantillon. Grâce aux résultats de la TVE, on peut modéliser les phénomènes extrêmes. Par aillleurs, il existe une variante bivariée de la TVE. La variante bivariée de la TVE utilise une famille de copules appelées copules de valeurs extrêmes pour tenir compte de la liaison entre les deux phénomènes extrêmes. En dimension 2, toute copule de valeurs extrêmes dépend d'une fonction de Pickands. L'objet de notre mémoire est d'estimer la fonction de Pickands à partir de données. Nous avons trouvé un moyen de construire une fonction de Pickands grâce à des splines cubiques. À partir de cette construction, on obtient une famille élargie de fonctions de Pickands dans laquelle nous effectuons notre inférence statistique. Nous avons choisit l'approche bayésienne pour construire l'estimateur et les méthodes de MCMC pour les évaluations numériques. La méthode a été appliquée sur des données simulées et réelles. / The subject of our thesis is intersection between two fields: The Extreme Value Theory (EVT) and copulas. The object of EVT is to find the limit law of the maximum of a sample. Due to the results of EVT, we can model extreme phenomena. In addition, there is a bivariate variant of EVT. The bivariate variant of EVT uses a family of copulas called extreme value copulas to account for the connection between the two extreme events. Any copula with extreme values depends on a Pickands function. The object of our thesis is to estimate the Pickands function from data. We have found a way to build a Pickands function using cubic splines. From this construction, we obtain an extended family of Pickands functions in which we perform our statistical inference. We chose the Bayesian approach to build the estimator and the MCMC methods for the estimates. The method was applied on simulated and real data.
13

Construction et estimation de copules en grande dimension / Construction and estimation of high-dimensional copulas

Mazo, Gildas 17 November 2014 (has links)
Ces dernières décennies, nous avons assisté à l'émergence du concept de copule en modélisation statistique. Les copules permettent de faire une analyse séparée des marges et de la structure de dépendance induite par une distribution statistique. Cette séparation facilite l'incorporation de lois non gaussiennes, et en particulier la prise en compte des dépendances non linéaires entre les variables aléatoires. La finance et l'hydrologie sont deux exemples de sciences où les copules sont très utilisées. Cependant, bien qu'il existe beaucoup de familles de copules bivariées, le choix reste limité en plus grande dimension: la construction de copules multivariées/en grande dimension reste un problème ouvert aujourd'hui. Cette thèse présente trois contributions à la modélisation et à l'inférence de copules en grande dimension. Le premier modèle proposé s'écrit comme un produit de copules bivariées, où chaque copule bivariée se combine aux autres via un graphe en arbre. Elle permet de prendre en compte les différents degrés de dépendance entre les différentes paires. La seconde copule est un modèle à facteurs basé sur une classe nonparamétrique de copules bivariées. Elle permet d'obtenir un bon équilibre entre flexibilité et facilité d'utilisation. Cette thèse traite également de l'inférence paramétrique de copules dans le cas général, en établissant les propriétés asymptotiques d'un estimateur des moindres carrés pondérés basé sur les coefficients de dépendance. Les modèles et méthodes proposés sont appliqués sur des données hydrologiques (pluies et débits de rivières). / In the last decades, copulas have been more and more used in statistical modeling. Their popularity owes much to the fact that they allow to separate the analysis of the margins from the analysis of the dependence structure induced by the underlying distribution. This renders easier the modeling of non Gaussian distributions, and, in particular, it allows to take into account non linear dependencies between random variables. Finance and hydrology are two examples of scientific fields where the use of copulas is nowadays standard. However, while many bivariate families exist in the literature, multivariate/high dimensional copulas are much more difficult to construct. This thesis presents three contributions to copula modeling and inference, with an emphasis on high dimensional problems. The first model writes as a product of bivariate copulas and is underlain by a tree structure where each edge represents a bivariate copula. Hence, we are able to model different pairs with different dependence properties. The second one is a factor model built on a nonparametric class of bivariate copulas. It exhibits a good balance between tractability and flexibility. This thesis also deals with the parametric inference of copula models in general. Indeed, the asymptotic properties of a weighted least-squares estimator based on dependence coefficients are established. The models and methods have been applied to hydrological data (flow rates and rain falls).
14

Modélisation spatiale de valeurs extrêmes : application à l'étude de précipitations en France / Spatial modeling of extreme values. Application to precipitation in France

Sebille, Quentin 01 December 2016 (has links)
Les précipitations extrêmes en France sont responsables de phénomènes d'inondations entraînant la perte de vies humaines et des millions d'euros en dégâts matériels. Mesurer le risque associé à ces événements météorologiques rares fait appel à la théorie statistique des valeurs extrêmes, qui propose plusieurs approches permettant d'évaluer des scénarios catastrophes. Cette thèse s'intéresse en particulier à trois mesures de risque faisant intervenir à la fois des lois de probabilité jointes et des méthodes de prédiction spatiale liées à la géostatistique.Dans un premier temps, plusieurs modèles spatiaux de valeurs extrêmes construits sur des données de maxima annuels sont évalués dans une étude comparative sous la forme d'un article. La comparaison des méthodes est menée en se servant de simulations construites à partir de données réelles de maxima annuels de précipitations en France et porte sur des critères liés aux deux mesures de risque que sont le niveau de retour centennal et le coefficient extrémal.Un modèle en particulier, le processus max-stable et hiérarchique de Reich et Shaby (2012) est étudié en détail et fait l'objet d'une implémentation sous la forme d'un package R dédié à la simulation et à l'estimation par cette méthode.Dans un second temps, les données journalières dépassant un seuil élevé sont modélisées dans un cadre spatial dans le but d'estimer une probabilité d'échec conditionnelle. Plusieurs estimateurs de cette mesure sont proposés en se concentrant d'une part sur des méthodes paramétriques liées aux processus Pareto et d'autre part sur deux approches non paramétriques. Les méthodes sont construites de sorte que la dépendance temporelle observable dans les valeurs journalière soit prise en compte lors de l'estimation.Tout au long de la thèse, les méthodes développées sont appliquées sur des données journalières de précipitations en France / Extreme precipitation in France are responsible for flooding events that cause people's deaths and billions of euros in material damage. Measuring the risk associated to these rare meteorological events is possible thanks to the extreme value theory which allows the estimation of such catastrophic scenarios. This thesis focus on three risk measures involving joint probabilities and spatial prediction methods related to geostatistics.In a first time, several spatial models for extreme values built on annual maxima are evaluated in a comparative study in the form of an article. This comparison is performed using simulated data from real annual maxima of precipitation in France. It is also based on two criteria linked to risk measures: the hundred years return level and the extremal coefficient. One particular model is presented in details: the one of Reich and Shaby (2012). This model is implemented under a R package entirely dedicated to its estimation and simulation procedures.In a second time, exceedances of spatial daily data are modelled in order to estimate a conditional failure probability. Several estimators of this measure are proposed, based on the one hand on parametric methods involving Pareto processes and on the other hand on non parametric approaches. The temporal dependence in extremes is also considered with care when estimating this probability.Along this thesis, the methods are applied on daily data of precipitation in France
15

Application of Scientific Computing and Statistical Analysis to address Coastal Hazards / Application du Calcul Scientifique et de l'Analyse Statistique à la Gestion du Risque en Milieu Littoral

Chailan, Romain 23 November 2015 (has links)
L'étude et la gestion des risques littoraux sont plébiscitées par notre société au vu des enjeux économiques et écologiques qui y sont impliqués. Ces risques sont généralement réponse à des conditions environnementales extrêmes. L'étude de ces phénomènes physiques repose sur la compréhension de ces conditions rarement (voire nullement) observées.Dans un milieu littoral, la principale source d'énergie physique est véhiculée par les vagues. Cette énergie est responsable des risques littoraux comme l'érosion et la submersion qui évoluent à des échelles de temps différentes (événementielle ou long-terme). Le travail réalisé, situé à l'interface de l'analyse statistique, de la géophysique et de l'informatique, vise à apporter des méthodologies et outils aux décideurs en charge de la gestion de tels risques.En pratique, nous nous intéressons à mettre en place des méthodes qui prennent en compte non seulement un site ponctuel mais traitent les problématiques de façon spatiale. Ce besoin provient de la nature même des phénomènes environnementaux qui sont spatiaux, tels les champs de vagues.L'étude des réalisations extrêmes de ces processus repose sur la disponibilité d'un jeu de données représentatif à la fois dans l'espace et dans le temps, permettant de projeter l'information au-delà de ce qui a déjà été observé. Dans le cas particulier des champs de vagues, nous avons recours à la simulation numérique sur calculateur haute performance (HPC) pour réaliser un tel jeu de données. Le résultat de ce premier travail offre de nombreuses possibilités d'applications.En particulier, nous proposons à partir de ce jeu de données deux méthodologies statistiques qui ont pour but respectif de répondre aux problématiques de risques littoraux long-termes (érosion) et à celles relatives aux risques événementiels (submersion). La première s'appuie sur l'application de modèles stochastiques dit max-stables, particulièrement adapté à l'étude des événements extrêmes. En plus de l'information marginale, ces modèles permettent de prendre en compte la structure de dépendance spatiale des valeurs extrêmes. Nos résultats montrent l'intérêt de cette méthode au devant de la négligence de la dépendance spatiale de ces phénomènes pour le calcul d'indices de risque.La seconde approche est une méthode semi-paramétrique dont le but est de simuler des champs spatio-temporels d'états-de-mer extrêmes. Ces champs, interprétés comme des tempêtes, sont des amplifications contrôlées et bi-variés d'épisodes extrêmes déjà observés. Ils forment donc des tempêtes encore plus extrêmes. Les tempêtes simulées à une intensité contrôlée alimentent des modèles physiques événementiels à la côte, permettant d'aider les décideurs à l'anticipation de ces risques encore non observés.Enfin et depuis la construction de ces scenarii extrêmes, nous abordons la notion de pré-calcul dans le but d'apporter en quasi-temps réel au décideur et en tant de crise une prévision sur le risque littoral.L’ensemble de ce travail s'inscrit dans le cadre d'un besoin industriel d’aide à la modélisation physique : chainage de modèles numériques et statistiques. La dimension industrielle de cette thèse est largement consacrée à la conception et au développement d’un prototype de plateforme de modélisation permettant l’utilisation systématique d’un calculateur HPC pour les simulations et le chainage de modèles de façon générique.Autour de problématiques liées à la gestion du risque littoral, cette thèse démontre l'apport d'un travail de recherche à l'interface de plusieurs disciplines. Elle y répond en conciliant et proposant des méthodes de pointe prenant racine dans chacune de ces disciplines. / Studies and management of coastal hazards are of high concerns in our society, since they engage highly valuable economical and ecological stakes. Coastal hazards are generally responding to extreme environmental conditions. The study of these physical phenomena relies on the understanding of such environmental conditions, which are rarely (or even never) observed.In coastal areas, waves are the main source of energy. This energy is responsible of coastal hazards developed at different time-scales, like the submersion or the erosion.The presented work, taking place at the interface between Statistical Analysis, Geophysics and Computer Sciences, aiming at bringing forward tools and methods serving decision makers in charge of the management of such risks.In practice, the proposed solutions answer to the questionings with a consideration of the space dimension rather than only punctual aspects. This approach is more natural considering that environmental phenomena are generally spatial, as the sea-waves fields.The study of extreme realisations of such processes is based on the availability of a representative data set, both in time and space dimensions, allowing to extrapolating information beyond the actual observations. In particular for sea-waves fields, we use numerical simulation on high performance computational clusters (HPC) to product such a data set. The outcome of this work offers many application possibilities.Most notably, we propose from this data set two statistical methodologies, having respective goals of dealing with littoral hazards long-terms questionings (e.g., erosion) and event-scale questionings (e.g., submersion).The first one is based on the application of stochastic models so-called max-stable models, particularly adapted to the study of extreme values in a spatial context. Indeed, additionally to the marginal information, max-stable models allow to take into account the spatial dependence structures of the observed extreme processes. Our results show the interest of this method against the ones neglecting the spatial dependence of these phenomena for risk indices computation.The second approach is a semi-parametric method aiming at simulating extreme waves space-time processes. Those processes, interpreted as storms, are controlled and bi-variate uplifting of already observed extreme episodes. In other words, we create most severe storms than the one already observed. These processes simulated at a controlled intensity may feed littoral physical models in order to describe a very extreme event in both space and time dimensions. They allow helping decision-makers in the anticipation of hazards not yet observed.Finally and from the construction of these extreme scenarios, we introduce a pre-computing paradigm in the goal of providing the decision-makers with a real-time and accurate information in case of a sudden coastal crisis, without performing any physical simulation.This work fits into a growing industrial demand of modelling help. Most notably a need related to the chaining of numerical and statistical models. Consequently, the industrial dimension of this PhD.~is mostly dedicated to the design and development of a prototype modelling platform. This platform aims at systematically using HPC resources to run simulations and easing the chaining of models.Embracing solutions towards questionings related to the management of coastal hazard, this thesis demonstrates the benefits of a research work placed at the interface between several domains. This thesis answers such questionings by providing end-users with cutting-edge methods stemming from each of those domains.
16

Estimation et tests en théorie des valeurs extrêmes

Toulemonde, Gwladys 30 October 2008 (has links) (PDF)
Cette thèse se décompose en trois parties distinctes auxquelles s'ajoute une introduction. Dans un premier temps, nous nous intéressons à un test lisse d'ajustement à la famille de Pareto. Pour cela, nous proposons une statistique de test motivée par la théorie de LeCam sur la normalité asymptotique locale (LAN). Nous en établissons le comportement asymptotique sous l'hypothèse que l'échantillon provient d'une distribution de Pareto et sous des alternatives locales, nous plaçant ainsi dans le cadre LAN. Des simulations sont présentées afin d'étudier le comportement de la statistique de test à distance finie. Dans le chapitre suivant, nous nous plaçons dans le cadre de données censurées aléatoirement à droite. Nous proposons alors un estimateur des paramètres de la distribution de Pareto généralisée basé sur une première étape de l'algorithme de Newton-Raphson. Nous établissons la normalité asymptotique de cet estimateur. Par des simulations, nous illustrons son comportement à distance finie et le comparons à celui de l'estimateur du maximum de vraisemblance. Nous proposons enfin, dans un dernier chapitre, un modèle linéaire autorégressif adapté à la loi de Gumbel pour prendre en compte la dépendance dans les maxima. Nous établissons des propriétés théoriques de ce modèle et par simulations nous illustrons son comportement à distance finie. Enfin, comme des applications concrètes en sciences de l'atmosphère motivaient ce modèle, nous l'avons utilisé pour modéliser des maxima de dioxyde de carbone et de méthane.
17

Approches expérimentales et multi-échelles des processus d'amorçage de fissures en fatigue sous chargements complexes

Agbessi, Komlan 21 March 2013 (has links) (PDF)
Les méthodes de calcul en fatigue à grande durée de vie sont en cours de développement depuis des décennies et sont utilisées par les ingénieurs pour dimensionner les structures. Généralement, ces méthodes se basent sur la mise en équations de quantités mécaniques calculées à l'échelle macroscopique ou mésoscopique. Les critères de fatigue multiaxiale reposent généralement sur des hypothèses de changement d'échelle dont l'objectif est d'accéder à l'état de contraintes ou de déformations à l'échelle du grain. Dans les approches de type plan critique (Dang Van, Papadopoulos, Morel), l'amorçage d'une fissure de fatigue est considéré comme piloté par une quantité mécanique liée à une orientation matérielle particulière (plan critique). Si ces phénomènes sont bien établis dans le cas des chargements uniaxiaux, la nature des mécanismes liés à l'activation des systèmes de glissement, à la multiplicité du glissement et aux différents sites préférentiels d'amorçage de fissures sous chargements complexes reste peu connue.Afin de mieux comprendre les mécanismes d'endommagement en fatigue multiaxiale, les techniques d'analyse et de caractérisation de l'activité plastique (activation des systèmes de glissements, bandes de glissement persistantes) et d'observation de l'endommagement par fatigue ont été mises en place en se basant principalement sur des observations MEB et analyses EBSD. Ces investigations ont permis de mettre en lumière les effets des chargements non proportionnels sur la multiplicité du glissement sur du cuivre pur OFHC. L'étude statistique des sites préférentiels d'amorçage de fissures montre que les grains à glissement multiple présentent une forte probabilité d'amorçage de fissures, surtout sous les chargements non proportionnels. Nous avons également mis en évidence le rôle des joints de grains et des joints de macle sur le développement de la plasticité à l'échelle de la microstructure. Les résultats expérimentaux sont confrontés à ceux du calcul éléments finis (EF) en plasticité polycristalline sur des microstructures synthétiques 3D semi-périodiques. L'application du critère de Dang Van à l'échelle mésoscopique (le grain) montre une forte variabilité de la contrainte hydrostatique et du cisaillement. Cette variabilité est plus importante pour un modèle de comportement cristallin élastique anisotrope. Le rôle de la plasticité cristalline se révèle secondaire. Ces analyses permettent de remettre en perspective les hypothèses usuelles de changement d'échelle utilisées en fatigue multiaxiale. Enfin, une méthode basée sur la statistique des valeurs extrêmes est proposée pour le dépouillement des calculs EF sur agrégats. Cette analyse a été appliquée sur la contrainte équivalente associée au critère de fatigue de Dang Van pour les calculs d'agrégats polycristallins avec différentes morphologies et orientations des grains. Les effets de la surface libre, du type de chargement et du modèle de comportement mécanique des grains ont été analysés. Les résultats offrent des perspectives intéressantes sur la modélisation de l'amorçage des fissures en fatigue multiaxiale des matériaux et des structures avec une prise en compte de la microstructure.
18

Approximation récursive du régime stationnaire d'une Equation Differentielle Stochastique avec sauts

Panloup, Fabien 13 December 2006 (has links) (PDF)
La thématique principale de cette thèse est la construction et l'étude de méthodes implémentables par ordinateur permettant d'approcher le régime stationnaire d'un processus ergordique multidimensionnel solution d'une EDS dirigée par un processus de Lévy. S'appuyant sur une approche développée par Lamberton&Pagès puis Lemaire dans le cadre des diffusions Browniennes, nos méthodes basées sur des schémas <br />d'Euler à pas décroissant, « exacts » ou « approchés », permettent de simuler efficacement la probabilité invariante mais également la loi globale d'un tel processus en régime stationnaire. <br />Ce travail possède des applications théoriques et pratiques diverses dont certaines <br />sont développées ici (TCL p.s. pour les lois stables, théorème limite relatif aux valeurs extrêmes, pricing d'options pour des modèles à volatilité stochastique stationnaire...).
19

Valeurs extrêmes de mosaïques aléatoires

Chenavier, Nicolas 11 December 2013 (has links) (PDF)
Une mosaïque aléatoire est une partition aléatoire de l'espace euclidien en des polytopes appelés cellules. Ce type de structure apparaît dans divers domaines tels que la biologie cellulaire, les télécommunications et la segmentation d'images. Beaucoup de travail a déjà été effectué sur la cellule typique c'est-à-dire sur une cellule "choisie uniformément". Cependant, ces travaux ne tiennent pas compte de l'irrégularité de la mosaïque et d'éventuelles cellules pathologiques (par exemple, celles qui sont anormalement allongées ou anormalement grandes). Dans cette thèse, on étudie les mosaïques aléatoires par une approche inédite: celle des valeurs extrêmes. En pratique, on observe la mosaïque aléatoire dans une fenêtre et on considère une certaine caractéristique géométrique (comme le volume, le nombre de sommets ou le diamètre des cellules). Le problème de base est d'étudier le comportement du maximum et du minimum, voire des statistiques d'ordre, de cette caractéristique pour toutes les cellules de la fenêtre lorsque la taille de celle-ci tend vers l'infini. Une telle approche permet non seulement de mieux comprendre la régularité de la mosaïque mais aussi d'étudier la qualité d'une approximation discrète d'un ensemble par des cellules d'une mosaïque aléatoire. Cette approche pourrait également fournir une piste inédite pour discriminer les processus ponctuels. Les résultats de cette thèse portent principalement sur des théorèmes limites des extrêmes et des statistiques d'ordre pour diverses caractéristiques géométriques et diverses mosaïques aléatoires. En particulier, on obtient des vitesses de convergence en établissant de fines estimations géométriques. On déduit de l'étude du maximum des diamètres une majoration de la distance de Hausdorff entre un ensemble et son approximation dite de Poisson-Voronoï. On traite, notamment, de plusieurs aspects géométriques comme les problèmes de bord et la forme des cellules optimisantes. Enfin, dans le but de savoir comment se répartissent les cellules excédentes (celles dont la caractéristique est grande), on s'intéresse à la convergence de processus ponctuels associés et à la taille moyenne d'un cluster d'excédents. Les outils utilisés sont issus à la fois de la géométrie aléatoire (mesure de Palm, probabilités de recouvrement, formule de Slivnyak) et de la théorie des valeurs extrêmes (graphes de dépendance, méthode de Chen-Stein, indice extrême).
20

Valeurs extrêmes : covariables et cadre bivarié / Extreme values : covariates and bivariate case

Schorgen, Antoine 21 September 2012 (has links)
Cette thèse aborde deux sujets peu traités dans la littérature concernant le théorie des valeurs extrêmes : celui des observations en présence de covariables et celui des mesures de dépendance pour des paires d'observations. Dans la première partie de cette thèse, nous avons considéré le cas où la variable d'intérêt est observée simultanément avec une covariable, pouvant être fixe ou aléatoire. Dans ce contexte, l'indice de queue dépend de la covariable et nous avons proposé des estimateurs de ce paramètre dont nous avons étudié les propriétés asymptotiques. Leurs comportements à distance finie ont été validés par simulations. Puis, dans la deuxième partie, nous nous sommes intéressés aux extrêmes multivariés et plus particulièrement à mesurer la dépendance entre les extrêmes. Dans une situation proche de l'indépendance asymptotique, il est très difficile de mesurer cette dépendance et de nouveaux modèles doivent être introduits. Dans ce contexte, nous avons adapté un outil de géostatistique, le madogramme, et nous avons étudié ses propriétés asymptotiques. Ses performances sur simulations et données réelles ont également été exhibées. Cette thèse offre de nombreuses perspectives, tant sur le plan pratique que théorique dont une liste non exhaustive est présentée en conclusion de la thèse. / This thesis presents a study of the extreme value theory and is focused on two subjects rarely analyzed: observations associated with covariates and dependence measures for pairs of observations.In the first part, we considered the case where the variable of interest is simultaneously recorded with a covariate which can be either fixed or random. The conditional tail index then depends on the covariate and we proposed several estimators with their asymptotic properties. Their behavior have been approved by simulations.In the second part, we were interested in multivariate extremes and more particularly in measuring the dependence between them. In a case of near asymptotic independence, we have to introduce new models in order to measure the dependence properly. In this context, we adapted a geostatistical tool, the madogram, and studied its asymptotic properties. We completed the study with simulations and real data of precipitations.

Page generated in 0.4463 seconds