• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 45
  • 30
  • 5
  • Tagged with
  • 76
  • 23
  • 21
  • 20
  • 18
  • 16
  • 15
  • 14
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Uncertainty quantification on pareto fronts and high-dimensional strategies in bayesian optimization, with applications in multi-objective automotive design / Quantification d’incertitude sur fronts de Pareto et stratégies pour l’optimisation bayésienne en grande dimension, avec applications en conception automobile

Binois, Mickaël 03 December 2015 (has links)
Cette thèse traite de l’optimisation multiobjectif de fonctions coûteuses, aboutissant à laconstruction d’un front de Pareto représentant l’ensemble des compromis optimaux. En conception automobile, le budget d’évaluations est fortement limité par les temps de simulation numérique des phénomènes physiques considérés. Dans ce contexte, il est courant d’avoir recours à des « métamodèles » (ou modèles de modèles) des simulateurs numériques, en se basant notamment sur des processus gaussiens. Ils permettent d’ajouter séquentiellement des observations en conciliant recherche locale et exploration. En complément des critères d’optimisation existants tels que des versions multiobjectifs du critère d’amélioration espérée, nous proposons d’estimer la position de l’ensemble du front de Pareto avec une quantification de l’incertitude associée, à partir de simulations conditionnelles de processus gaussiens. Une deuxième contribution reprend ce problème à partir de copules. Pour pouvoir traiter le cas d’un grand nombre de variables d’entrées, nous nous basons sur l’algorithme REMBO. Par un tirage aléatoire directionnel, défini par une matrice, il permet de trouver un optimum rapidement lorsque seules quelques variables sont réellement influentes (mais inconnues). Plusieurs améliorations sont proposées, elles comprennent un noyau de covariance dédié, une sélection du domaine de petite dimension et des directions aléatoires mais aussi l’extension au casmultiobjectif. Enfin, un cas d’application industriel en crash a permis d’obtenir des gainssignificatifs en performance et en nombre de calculs requis, ainsi que de tester le package R GPareto développé dans le cadre de cette thèse. / This dissertation deals with optimizing expensive or time-consuming black-box functionsto obtain the set of all optimal compromise solutions, i.e. the Pareto front. In automotivedesign, the evaluation budget is severely limited by numerical simulation times of the considered physical phenomena. In this context, it is common to resort to “metamodels” (models of models) of the numerical simulators, especially using Gaussian processes. They enable adding sequentially new observations while balancing local search and exploration. Complementing existing multi-objective Expected Improvement criteria, we propose to estimate the position of the whole Pareto front along with a quantification of the associated uncertainty, from conditional simulations of Gaussian processes. A second contribution addresses this problem from a different angle, using copulas to model the multi-variate cumulative distribution function. To cope with a possibly high number of variables, we adopt the REMBO algorithm. From a randomly selected direction, defined by a matrix, it allows a fast optimization when only a few number of variables are actually influential, but unknown. Several improvements are proposed, such as a dedicated covariance kernel, a selection procedure for the low dimensional domain and of the random directions, as well as an extension to the multi-objective setup. Finally, an industrial application in car crash-worthiness demonstrates significant benefits in terms of performance and number of simulations required. It has also been used to test the R package GPareto developed during this thesis.
62

Sur la dépendance des queues de distributions / On the tait dependence of distributions

Aleiyouka, Mohalilou 27 September 2018 (has links)
Pour modéliser de la dépendance entre plusieurs variables peut s'appuyer soit sur la corrélation entre les variables, soit sur d'autres mesures, qui déterminent la dépendance des queues de distributions.Dans cette thèse, nous nous intéressons à la dépendance des queues de distributions, en présentant quelques propriétés et résultats.Dans un premier temps, nous obtenons le coefficient de dépendance de queue pour la loi hyperbolique généralisée selon les différentes valeurs de paramètres de cette loi.Ensuite, nous exposons des propriétés et résultats du coefficient de dépendance extrémale dans le cas où les variables aléatoires suivent une loi de Fréchet unitaire.Finalement, nous présentons un des systèmes de gestion de bases de données temps réel (SGBDTR). Le but étant de proposer des modèles probabilistes pour étudier le comportement des transactions temps réel, afin d'optimiser ses performances. / The modeling of the dependence between several variables can focus either on the positive or negative correlation between the variables, or on other more effective ways, which determine the tails dependence of distributions.In this thesis, we are interested in the tail dependence of distributions, by presenting some properties and results. Firstly, we obtain the limit tail dependence coefficient for the generalized hyperbolic law according to different parameter values of this law. Then, we exhibit some properties and results of die extremal dependence coefficient in the case where the random variables follow a unitary Fréchet law.Finally, we present a Real Time Database ManagementSystems (RDBMS). The goal is to propose probabilistic models to study thebehavior of real-time transactions, in order to optimize its performance.
63

Développement de méthodes pour la validation de critères de substitution en survie : méta-analyses de cancer / Development of methods for the validation of time-to-event surrogate endpoints : meta-analysis of cancer

Sofeu, Casimir 12 December 2019 (has links)
Les critères de substitution peuvent être utilisés à la place du critère de jugement le plus pertinent pour évaluer l'efficacité d'un nouveau traitement. Dans un contexte de méta-analyse, l'approche classique pour la validation d'un critère de substitution est basée sur une stratégie d'analyse en deux étapes. Pour des critères de jugement à temps d’évènements, cette approche est souvent sujette à des problèmes d'estimations. Nous proposons une approche de validation en une étape s'appuyant sur des modèles conjoints à fragilités et à copules. Ces modèles incluent à la fois des effets aléatoires au niveau essai et au niveau individuel ou des fonctions de copule. Nous considérons des fonctions de risque de base non paramétriquesà l'aide des splines. Les paramètres des modèles et les fonctions de risque de base ont été estimés par une méthode semi-paramétrique, par maximisation de la vraisemblance marginale pénalisée, considérant différentes méthodes d'intégration numérique. La validation des critères de substitution à la fois au niveau individuel et au niveau essai a été faite à partir du tau de Kendall et du coefficient de détermination. Les études de simulation ont été faites pour évaluer les performances de nos modèles. Les modèles ont été appliqués aux données individuelles issues des méta-analyses sur le cancer afin de rechercher de potentiels critères de substitution à la survie globale. Les modèles étaient assez robustes avec réduction des problèmes de convergence et d'estimation rencontrés dans l'approche en deux étapes. Nous avons développé un package R convivial implémentant les nouveaux modèles. / Surrogate endpoint can be used instead of the most relevant clinical endpointto assess the efficiency of a new treatment. In a meta-analysis framework, the classical approach for the validation of surrogate endpoint is based on a two-step analysis. For failure time endpoints, this approach often raises estimation issues.We propose a one-step validation approach based on a joint frailty and a joint frailty-copula model.The models include both trial-level and individual-level random effects or copula functions. We chose a non-parametric form of the baseline hazard functions using splines. We estimated parameters and hazard functions using a semi-parametric penalized marginal likelihood method, considering various numerical integration methods. Both individual level and trial level surrogacy were evaluated using Kendall's tau and coefficient of determination. The performance of the estimators was evaluated using simulation studies. The models were applied to individual patient data meta-analyses in cancer clinical trials for assesing potentiel surrogate endpoint to overall survival.The models were quite robust with a reduction of convergence and model estimation issues encountered in the two-step approach.We developed a user friendly R package implementing the models.
64

Correction d'estimateurs de la fonction de Pickands et estimateur bayésien

Chalifoux, Kevin 01 1900 (has links)
Faire l'estimation d'une copule de valeurs extrêmes bivariée revient à estimer A, sa fonction de Pickands qui lui est associée. Cette fonction A:[0,1] \( \rightarrow \) [0,1] doit satisfaire certaines contraintes : $$\max\{1-t, t \} \leq A(t) \leq 1, \hspace{3mm} t\in[0,1]$$ $$\text{A est convexe.}$$ Plusieurs estimateurs ont été proposés pour estimer cette fonction A, mais peu respectent ses contraintes imposées. La contribution principale de ce mémoire est d'introduire une technique simple de correction d'estimateurs de la fonction de Pickands de sorte à ce que les estimateurs corrigés respectent les contraintes exigées. La correction proposée utilise une nouvelle propriété du vecteur aléatoire bivarié à valeurs extrêmes, combinée avec l'enveloppe convexe de l'estimateur obtenu pour garantir le respect des contraintes de la fonction A. La seconde contribution de ce mémoire est de présenter un estimateur bayésien non paramétrique de la fonction de Pickands basé sur la forme introduite par Capéraà et al. (1997). L'estimateur utilise les processus de Dirichlet pour estimer la fonction de répartition d'une transformation du vecteur aléatoire bivarié à valeurs extrêmes. Des analyses par simulations sont produites sur un ensemble d'estimateurs pour mesurer la performance de la correction et de l'estimateur bayésien proposés, sur un ensemble de 18 distributions de valeurs extrêmes bivariées. La correction améliore l'erreur quadratique moyenne sur l'ensemble des niveaux. L'estimateur bayésien proposé obtient l'erreur quadratique moyenne minimale pour les estimateurs considérés. / Estimating a bivariate extreme-value copula is equivalent to estimating A, its associated Pickands function. This function A: [0,1] \( \rightarrow \) [0,1] must satisfy some constraints : $$\max\{1-t, t \} \leq A(t) \leq 1, \hspace{3mm} t\in[0,1]$$ $$\text{A is convex.}$$ Many estimators have been proposed to estimate A, but few satisfy the imposed constraints. The main contribution of this thesis is the introduction of a simple correction technique for Pickands function estimators so that the corrected estimators respect the required constraints. The proposed correction uses a new property of the extreme-value random vector and the convex hull of the obtained estimator to guaranty the respect of the Pickands function constraints. The second contribution of this thesis is to present a nonparametric bayesian estimator of the Pickands function based on the form introduced by Capéraà, Fougères and Genest (1997). The estimator uses Dirichlet processes to estimate the cumulative distribution function of a transformation of the extreme-value bivariate vector. Analysis by simulations and a comparison with popular estimators provide a measure of performance for the proposed correction and bayesian estimator. The analysis is done on 18 bivariate extreme-value distributions. The correction reduces the mean square error on all distributions. The bayesian estimator has the lowest mean square error of all the considered estimators.
65

Deux tests de détection de rupture dans la copule d'observations multivariées

Rohmer, Tom January 2014 (has links)
Résumé : Il est bien connu que les lois marginales d'un vecteur aléatoire ne suffisent pas à caractériser sa distribution. Lorsque les lois marginales du vecteur aléatoire sont continues, le théorème de Sklar garantit l'existence et l'unicité d'une fonction appelée copule, caractérisant la dépendance entre les composantes du vecteur. La loi du vecteur aléatoire est parfaitement définie par la donnée des lois marginales et de la copule. Dans ce travail de thèse, nous proposons deux tests non paramétriques de détection de ruptures dans la distribution d’observations multivariées, particulièrement sensibles à des changements dans la copule des observations. Ils améliorent tous deux des propositions récentes et donnent lieu à des tests plus puissants que leurs prédécesseurs pour des classes d’alternatives pertinentes. Des simulations de Monte Carlo illustrent les performances de ces tests sur des échantillons de taille modérée. Le premier test est fondé sur une statistique à la Cramér-von Mises construite à partir du processus de copule empirique séquentiel. Une procédure de rééchantillonnage à base de multiplicateurs est proposée pour la statistique de test ; sa validité asymptotique sous l’hypothèse nulle est démontrée sous des conditions de mélange fort sur les données. Le second test se focalise sur la détection d’un changement dans le rho de Spearman multivarié des observations. Bien que moins général, il présente de meilleurs résultats en terme de puissance que le premier test pour les alternatives caractérisées par un changement dans le rho de Spearman. Deux stratégies de calcul de la valeur p sont comparées théoriquement et empiriquement : l’une utilise un rééchantillonnage de la statistique, l’autre est fondée sur une estimation de la loi limite de la statistique de test. // Abstract : It is very well-known that the marginal distributions of a random vector do not characterize the distribution of the random vector. When the marginal distributions are continuous, the work of Sklar ensures the existence and uniqueness of a function called copula which can be regarded as capturing the dependence between the components of the random vector. The cumulative distribution function of the vector can then be rewritten using only the copula and the marginal cumulative distribution functions. In this work, we propose two non-parametric tests for change-point detection, particularly sensitive to changes in the copula of multivariate time series. They improve on recent propositions and are more powerful for relevant alternatives involving a change in the copula. The finite-sample behavior of these tests is investigated through Monte Carlo experiments. The first test is based on a Cramér-von Mises statistic and on the sequential empirical copula process. A multiplier resampling scheme is suggested and its asymptotic validity under the null hypothesis is demonstrated under strong mixing conditions. The second test focuses on the detection of a change in Spearman’s rho. Monte Carlo simulations reveal that this test is more powerful than the first test for alternatives characterized by a change in Spearman’s rho. Two approaches to compute approximate p-values for the test are studied empirically and theoretically. The first one is based on resampling, the second one consists of estimating the asymptotic null distribution of the test statistic.
66

Modélisation du carnet d'ordres limites et prévision de séries temporelles

Simard, Clarence 10 1900 (has links)
Le contenu de cette thèse est divisé de la façon suivante. Après un premier chapitre d’introduction, le Chapitre 2 est consacré à introduire aussi simplement que possible certaines des théories qui seront utilisées dans les deux premiers articles. Dans un premier temps, nous discuterons des points importants pour la construction de l’intégrale stochastique par rapport aux semimartingales avec paramètre spatial. Ensuite, nous décrirons les principaux résultats de la théorie de l’évaluation en monde neutre au risque et, finalement, nous donnerons une brève description d’une méthode d’optimisation connue sous le nom de dualité. Les Chapitres 3 et 4 traitent de la modélisation de l’illiquidité et font l’objet de deux articles. Le premier propose un modèle en temps continu pour la structure et le comportement du carnet d’ordres limites. Le comportement du portefeuille d’un investisseur utilisant des ordres de marché est déduit et des conditions permettant d’éliminer les possibilités d’arbitrages sont données. Grâce à la formule d’Itô généralisée il est aussi possible d’écrire la valeur du portefeuille comme une équation différentielle stochastique. Un exemple complet de modèle de marché est présenté de même qu’une méthode de calibrage. Dans le deuxième article, écrit en collaboration avec Bruno Rémillard, nous proposons un modèle similaire mais cette fois-ci en temps discret. La question de tarification des produits dérivés est étudiée et des solutions pour le prix des options européennes de vente et d’achat sont données sous forme explicite. Des conditions spécifiques à ce modèle qui permettent d’éliminer l’arbitrage sont aussi données. Grâce à la méthode duale, nous montrons qu’il est aussi possible d’écrire le prix des options européennes comme un problème d’optimisation d’une espérance sur en ensemble de mesures de probabilité. Le Chapitre 5 contient le troisième article de la thèse et porte sur un sujet différent. Dans cet article, aussi écrit en collaboration avec Bruno Rémillard, nous proposons une méthode de prévision des séries temporelles basée sur les copules multivariées. Afin de mieux comprendre le gain en performance que donne cette méthode, nous étudions à l’aide d’expériences numériques l’effet de la force et la structure de dépendance sur les prévisions. Puisque les copules permettent d’isoler la structure de dépendance et les distributions marginales, nous étudions l’impact de différentes distributions marginales sur la performance des prévisions. Finalement, nous étudions aussi l’effet des erreurs d’estimation sur la performance des prévisions. Dans tous les cas, nous comparons la performance des prévisions en utilisant des prévisions provenant d’une série bivariée et d’une série univariée, ce qui permet d’illustrer l’avantage de cette méthode. Dans un intérêt plus pratique, nous présentons une application complète sur des données financières. / This thesis is structured as follows. After a first chapter of introduction, Chapter 2 exposes as simply as possible different notions that are going to be used in the two first papers. First, we discuss the main steps required to build stochastic integrals for semimartingales with space parameters. Secondly, we describe the main results of risk neutral evaluation theory and, finally, we give a short description of an optimization method known as duality. Chapters 3 and 4 consider the problem of modelling illiquidity, which is covered by two papers. The first one proposes a continuous time model for the structure and the dynamic of the limit order book. The dynamic of a portfolio for an investor using market orders is deduced and conditions to rule out arbitrage are given. With the help of Itô’s generalized formula, it is also possible to write the value of the portfolio as a stochastic differential equation. A complete example of market model along with a calibration method is also given. In the second paper, written in collaboration with Bruno Rémillard, we propose a similar model with discrete time trading. We study the problem of derivatives pricing and give explicit formulas for European option prices. Specific conditions to rule out arbitrage are also provided. Using the dual optimization method, we show that the price of European options can be written as the optimization of an expectation over a set of probability measures. Chapter 5 contained the third paper and studies a different topic. In this paper, also written with Bruno Rémillard, we propose a forecasting method for time series based on multivariate copulas. To provide a better understanding of the proposed method, with the help of numerical experiments, we study the effect of the strength and the structure of the different dependencies on predictions performance. Since copulas allow to isolate the dependence structure and marginal distributions, we study the impact of different marginal distributions on predictions performance. Finally, we also study the effect of estimation errors on the predictions. In all the cases, we compare the performance of predictions by using predictions based on a bivariate series and predictions based on a univariate series, which allows to illustrate the advantage of the proposed method. For practical matters, we provide a complete example of application on financial data.
67

Modélisation de la dépendance et mesures de risque multidimensionnelles / Dependence modeling and multidimensional risk measures

Di Bernardino, Éléna 08 December 2011 (has links)
Cette thèse a pour but le développement de certains aspects de la modélisation de la dépendance dans la gestion des risques en dimension plus grande que un. Le premier chapitre est constitué d'une introduction générale. Le deuxième chapitre est constitué d'un article s'intitulant « Estimating Bivariate Tail : a copula based approach », soumis pour publication. Il concerne la construction d'un estimateur de la queue d'une distribution bivariée. La construction de cet estimateur se fonde sur une méthode de dépassement de seuil (Peaks Over Threshold method) et donc sur une version bivariée du Théorème de Pickands-Balkema-de Haan. La modélisation de la dépendance est obtenue via la Upper Tail Dependence Copula. Nous démontrons des propriétés de convergence pour l'estimateur ainsi construit. Le troisième chapitre repose sur un article: « A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation», soumis pour publication. Nous abordons le problème de l'extension de mesures de risque classiques, comme la Value-at-Risk et la Conditional-Tail-Expectation, dans un cadre multidimensionnel en utilisant la fonction de Kendall multivariée. Enfin, dans le quatrième chapitre de la thèse, nous proposons un estimateur des courbes de niveau d'une fonction de répartition bivariée avec une méthode plug-in. Nous démontrons des propriétés de convergence pour les estimateurs ainsi construits. Ce chapitre de la thèse est lui aussi constitué d'un article, s'intitulant « Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory», accepté pour publication dans la revue ESAIM:Probability and Statistics. / In this PhD thesis we consider different aspects of dependence modeling with applications in multivariate risk theory. The first chapter is constituted by a general introduction. The second chapter is essentially constituted by the article “Estimating Bivariate Tail: a copula based approach”, actually submitted for publication. It deals with the problem of estimating the tail of a bivariate distribution function. We develop a general extension of the POT (Peaks-Over-Threshold) method, mainly based on a two-dimensional version of the Pickands-Balkema-de Haan Theorem. The dependence structure between the marginals in the upper tails is described by the Upper Tail Dependence Copula. Then we construct a two-dimensional tail estimator and study its asymptotic properties. The third chapter of this thesis is based on the article “A multivariate extension of Value-at-Risk and Conditional-Tail-Expectation” and submitted for publication. We propose a multivariate generalization of risk measures as Value-at-Risk and Conditional-Tail-Expectation and we analyze the behavior of these measures in terms of classical properties of risk measures. We study the behavior of these measures with respect to different risk scenarios and stochastic ordering of marginals risks. Finally in the fourth chapter we introduce a consistent procedure to estimate level sets of an unknown bivariate distribution function, using a plug-in approach in a non-compact setting. Also this chapter is constituted by the article “Plug-in estimation of level sets in a non-compact setting with applications in multivariate risk theory”, accepted for publication in ESAIM: Probability and Statistics journal.
68

Mesures de risque multivariées et applications en science actuarielle / Multivariate risk measures and their applications in actuarial science

Said, Khalil 02 December 2016 (has links)
L'entrée en application depuis le 1er Janvier 2016 de la réforme réglementaire européenne du secteur des assurances Solvabilité 2 est un événement historique qui va changer radicalement les pratiques en matière de gestion des risques. Elle repose sur une prise en compte importante du profil et de la vision du risque, via la possibilité d'utiliser des modèles internes pour calculer les capitaux de solvabilité et l'approche ORSA (Own Risk and Solvency Assessment) pour la gestion interne du risque. La modélisation mathématique est ainsi un outil indispensable pour réussir un exercice réglementaire. La théorie du risque doit être en mesure d'accompagner ce développement en proposant des réponses à des problématiques pratiques, liées notamment à la modélisation des dépendances et aux choix des mesures de risques. Dans ce contexte, cette thèse présente une contribution à l'amélioration de la gestion des risques actuariels. En quatre chapitres nous présentons des mesures multivariées de risque et leurs applications à l'allocation du capital de solvabilité. La première partie de cette thèse est consacrée à l'introduction et l'étude d'une nouvelle famille de mesures multivariées élicitables de risque qu'on appellera des expectiles multivariés. Son premier chapitre présente ces mesures et explique les différentes approches utilisées pour les construire. Les expectiles multivariés vérifient un ensemble de propriétés de cohérence que nous abordons aussi dans ce chapitre avant de proposer un outil d'approximation stochastique de ces mesures de risque. Les performances de cette méthode étant insuffisantes au voisinage des niveaux asymptotiques des seuils des expectiles, l'analyse théorique du comportement asymptotique est nécessaire, et fera le sujet du deuxième chapitre de cette partie. L'analyse asymptotique est effectuée dans un environnement à variations régulières multivariées, elle permet d'obtenir des résultats dans le cas des queues marginales équivalentes. Nous présentons aussi dans le deuxième chapitre le comportement asymptotique des expectiles multivariés sous les hypothèses précédentes en présence d'une dépendance parfaite, ou d'une indépendance asymptotique, et nous proposons à l'aide des statistiques des valeurs extrêmes des estimateurs de l'expectile asymptotique dans ces cas. La deuxième partie de la thèse est focalisée sur la problématique de l'allocation du capital de solvabilité en assurance. Elle est composée de deux chapitres sous forme d'articles publiés. Le premier présente une axiomatisation de la cohérence d'une méthode d'allocation du capital dans le cadre le plus général possible, puis étudie les propriétés de cohérence d'une approche d'allocation basée sur la minimisation d'indicateurs multivariés de risque. Le deuxième article est une analyse probabiliste du comportement de cette dernière approche d'allocation en fonction de la nature des distributions marginales des risques et de la structure de la dépendance. Le comportement asymptotique de l'allocation est aussi étudié et l'impact de la dépendance est illustré par différents modèles marginaux et différentes copules. La présence de la dépendance entre les différents risques supportés par les compagnies d'assurance fait de l'approche multivariée une réponse plus appropriée aux différentes problématiques de la gestion des risques. Cette thèse est fondée sur une vision multidimensionnelle du risque et propose des mesures de nature multivariée qui peuvent être appliquées pour différentes problématiques actuarielles de cette nature / The entry into force since January 1st, 2016 of Solvency 2, the European regulatory reform of insurance industry, is a historic event that will radically change the practices in risk management. It is based on taking into account the own risk profile and the internal view of risk through the ability to use internal models for calculating solvency capital requirement and ORSA (Own Risk and Solvency Assessment) approach for internal risk management. It makes the mathematical modeling an essential tool for a successful regulatory exercise. The risk theory must allow to support this development by providing answers to practical problems, especially those related to the dependence modeling and the choice of risk measures. In the same context, this thesis presents a contribution to improving the management of insurance risks. In four chapters we present multivariate risk measures and their application to the allocation of solvency capital. The first part of this thesis is devoted to the introduction and study of a new family of multivariate elicitable risk measures that we will call multivariate expectiles. The first chapter presents these measures and explains the different construction approaches. The multivariate expectiles verify a set of coherence properties that we also discuss in this chapter before proposing a stochastic approximation tool of these risk measures. The performance of this method is insufficient in the asymptotic levels of the expectiles thresholds. That makes the theoretical analysis of the asymptotic behavior necessary. The asymptotic behavior of multivariate expectiles is then the subject of the second chapter of this part. It is studied in a multivariate regular variations framework, and some results are given in the case of equivalent marginal tails. We also study in the second chapter of the first part the asymptotic behavior of multivariate expectiles under previous assumptions in the presence of a perfect dependence, or in the case of asymptotic independence. Finally, we propose using extreme values statistics some estimators of the asymptotic expectile in these cases. The second part of the thesis is focused on the issue of solvency capital allocation in insurance. It is divided into two chapters; each chapter consists of a published paper. The first one presents an axiomatic characterization of the coherence of a capital allocation method in a general framework. Then it studies the coherence properties of an allocation approach based on the minimization of some multivariate risk indicators. The second paper is a probabilistic analysis of the behavior of this capital allocation method based on the nature of the marginal distributions of risks and the dependence structure. The asymptotic behavior of the optimal allocation is also studied and the impact of dependence is illustrated using some selected models and copulas. Faced to the significant presence of dependence between the various risks taken by insurance companies, a multivariate approach seems more appropriate to build responses to the various issues of risk management. This thesis is based on a multidimensional vision of risk and proposes some multivariate risk measures that can be applied to several actuarial issues of a multivariate nature
69

Analyse et modélisation de données probabilistes par décomposition de mélange de copules et application à une base de données climatologiques

Vrac, Mathieu 06 December 2002 (has links) (PDF)
Nous étendons les méthodes de décomposition de mélange de densités de probabilité au cas des données "fonctions de répartition", permettant ainsi de classifier ces fonctions et de modéliser une loi pour ces données fonctionnelles particulières. Cette loi est donnée par la notion de "fonctions de distribution de distributions" (FDD), basée sur la définition d'une fonction de répartition pour des variables aléatoires à valeurs dans un espace probabiliste. Les extensions sont effectuées en associant les FDD aux fonctions "copules" par le théorème de Sklar. Les copules "couplent" les fonctions de répartition à n dimensions (jointes) et à 1-dimension (marginales) d'un n-uplet de variables aléatoires. Nous regardons principalement une classe de copules paramétriques, les copules Archimédiennes, et proposons trois nouvelles méthodes d'estimation des paramètres dans le cas de copules multivariées : par coefficients de corrélation de Kendall, de Spearman, et par maximisation de la vraisemblance. L'association des FDD et des copules caractérise l'évolution des données fonctionnelles (i.e. la forme de ces fonctions) entre différents points à l'intérieur des classes pour chaque variable, et donne une mesure de dépendance entre les variables utilisées. Les méthodes sont tout d'abord développées pour une variable, puis divers généralisations sont proposées pour n dimensions. Certains points théoriques sont ensuite discutés, tels que la convergence de l'algorithme et le fait que la méthode par copules est une généralisation du cas classique. Une application de la méthode "approche classification" par copules est réalisée sur des données climatiques de l'atmosphère terrestre. Le but est la classification de "profils" atmosphériques et l'estimation de la loi sous-jacente des données. Les résultats sont comparés avec ceux de méthodes "classiques", prouvant ainsi les performances nettement supérieures de la méthode par décomposition de mélange de copules (DMC) et l'intérêt de l'utilisation des données probabilistes.
70

Sur diverses extensions des chaînes de Markov cachées avec application au traitement des signaux radar

Lapuyade-Lahorgue, Jérôme 10 December 2008 (has links) (PDF)
L'objectif de cette thèse est de proposer différents modèles généralisant le modèle classique des chaînes de Markov cachées à bruit indépendant couramment utilisé en inférence bayésienne de signaux. Les diverses extensions de ce modèle visent à l'enrichir et à prendre en compte différentes propriétés du signal, comme le caractère non gaussien du bruit, ou la nature semi-markovienne du signal caché. Dans un problème d'inférence bayésienne, nous disposons de deux processus aléatoires X et Y , on observe la réalisation y de Y et nous estimons la réalisation cachée x de X. Le lien existant entre les deux processus est modélisé par la distribution de probabilité p(x, y). Dans le modèle classique des chaînes de Markov cachées à bruit indépendant, la distribution p(x) est celle d'une chaîne de Markov et la distribution p(y|x) est celle de marginales indépendantes conditionnellement à x. Bien que ce modèle puisse être utilisé dans de nombreuses applications, il ne parvient pas à modéliser toutes les situations de dépendance. Le premier modèle que nous proposons est de type “chaînes de Markov triplet”, on considère ainsi un troisième processus U tel que le triplet (X, U, Y ) soit une chaîne de Markov. Dans le modèle proposé, ce processus auxiliaire modélise la semi-markovianité de X ; on parvient ainsi à prendre en compte la non markovianité éventuelle du processus caché. Dans un deuxième modèle, nous considérons des observations à dépendance longue et nous proposons un algorithme d'estimation original des paramètres de ce modèle. Nous étudions par ailleurs différents modèles prenant en compte simultanément la semi-markovianité des données cachées, la dépendance longue dans les observations ou la non stationnarité des données cachées. Enfin, la nature non nécessairement gaussienne du bruit est prise en compte via l'introduction des copules. L'intérêt des différents modèles proposés est également validé au travers d'expérimentations. Dans la dernière partie de cette thèse, nous étudions également comment la segmentation obtenue par une méthode bayésienne peut être utilisée dans la détection de cibles dans le signal radar. Le détecteur original que nous implémentons utilise la différence de statistiques entre un signal recu et les signaux recus de son voisinage. Le détecteur ainsi implémenté s'avère donner de meilleurs résultats en présence de fort bruit que le détecteur habituellement utilisé en traitement radar.

Page generated in 0.0339 seconds