• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 15
  • 1
  • Tagged with
  • 54
  • 54
  • 19
  • 18
  • 18
  • 17
  • 17
  • 16
  • 14
  • 12
  • 8
  • 8
  • 8
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Modèles de dépendance avec copule Archimédienne : fondements basés sur la construction par mélange, méthodes de calcul et applications

Veilleux, Dery 21 December 2018 (has links)
Le domaine de l’assurance est basé sur la loi des grands nombres, un théorème stipulant que les caractéristiques statistiques d’un échantillon aléatoire suffisamment grand convergent vers les caractéristiques de la population complète. Les compagnies d’assurance se basent sur ce principe afin d’évaluer le risque associé aux évènements assurés. Cependant, l’introduction d’une relation de dépendance entre les éléments de l’échantillon aléatoire peut changer drastiquement le profil de risque d’un échantillon par rapport à la population entière. Il est donc crucial de considérer l’effet de la dépendance lorsqu’on agrège des risques d’assurance, d’où l’intérêt porté à la modélisation de la dépendance en science actuarielle. Dans ce mémoire, on s’intéresse à la modélisation de la dépendance à l’intérieur d’un portefeuille de risques dans le cas où une variable aléatoire (v.a.) mélange introduit de la dépendance entre les différents risques. Après avoir introduit l’utilisation des mélanges exponentiels dans la modélisation du risque en actuariat, on démontre comment cette construction par mélange nous permet de définir les copules Archimédiennes, un outil puissant pour la modélisation de la dépendance. Dans un premier temps, on démontre comment il est possible d’approximer une copule Archimédienne construite par mélange continu par une copule construite par mélange discret. Puis, nous dérivons des expressions explicites pour certaines mesures d’intérêt du risque agrégé. Nous développons une méthode de calcul analytique pour évaluer la distribution d’une somme de risques aléatoires d’un portefeuille sujet à une telle structure de dépendance. On applique enfin ces résultats à des problèmes d’agrégation, d’allocation du capital et de théorie de la ruine. Finalement, une extension est faite aux copules Archimédiennes hiérarchiques, une généralisation de la dépendance par mélange commun où il existe de la dépendance entre les risques à plus d’un niveau. / The law of large numbers, which states that statistical characteristics of a random sample will converge to the characteristics of the whole population, is the foundation of the insurance industry. Insurance companies rely on this principle to evaluate the risk of insured events. However, when we introduce dependencies between each component of the random sample, it may drastically affect the overall risk profile of the sample in comparison to the whole population. This is why it is essential to consider the effect of dependency when aggregating insurance risks from which stems the interest given to dependence modeling in actuarial science. In this thesis, we study dependence modeling in a portfolio of risks for which a mixture random variable (rv) introduces dependency. After introducing the use of exponential mixtures in actuarial risk modeling, we show how this mixture construction can define Archimedean copulas, a powerful tool for dependence modeling. First, we demonstrate how an Archimedean copula constructed via a continuous mixture can be approximated with a copula constructed by discrete mixture. Then, we derive explicit expressions for a few quantities related to the aggregated risk. The common mixture representation of Archimedean copulas is then at the basis of a computational strategy proposed to compute the distribution of the sum of risks in a general setup. Such results are then used to investigate risk models with respect to aggregation, capital allocation and ruin problems. Finally, we discuss an extension to nested Archimedean copulas, a general case of dependency via common mixture including different levels of dependency. / Résumé en espagnol
32

Segmentation d'IRM cérébrales multi-séquences et application à la sclérose en plaques

Dugas-Phocion, Guillaume 31 March 2006 (has links) (PDF)
Dans ce manuscrit, nous nous sommes intéressés à l'analyse d'IRM cérébrales dans le cadre notamment du suivi de patients souffrant de sclérose en plaques (SEP). L'extraction automatique de quantificateurs pour la SEP a de nombreuses applications potentielles, tant dans le domaine clinique que pour des tests pharmaceutiques. Dans un premier temps, nous nous sommes consacrés à l'étude générale de la maladie, afin de situer le rôle de l'imagerie. Nous présentons ensuite les différents prétraitements nécessaires à la robustesse du système, puis la segmentation des tissus sains via un modèle probabiliste des volumes partiels, ainsi qu'une nouvelle version de l'algorithme EM doté d'un traitement spécifique des points aberrants. L'utilisation des différentes séquences du protocole d'acquisition permet de spécialiser le processus pour la détection des lésions de sclérose en plaques. Une évaluation quantitative des résultats ainsi qu'un ensemble de perspectives sont enfin détaillées.
33

Application des copules à la finance de marché

Bouvier, Pierre January 2010 (has links) (PDF)
L'objectif de la thèse est de montrer l'importance et l'utilité de la théorie mathématique que les copules apportent à la finance de marché. La motivation première de ces applications réside dans le fait que les comportements des rendements conjoints des marchés financiers s'éloignent de la normalité. Ainsi les méthodes statistiques traditionnelles, reposant sur cette hypothèse, ne peuvent pas être appliquées à la finance de marché. Dans cc document, avec l'aide des copules nous apportons un éclairage nouveau sur les comportements conjoints et des mesures de corrélations entre les marchés. Les copules sont des outils mathématiques puissants qui remédient aux lacunes laissées par les mesures traditionnelles de corrélations et de risque. Les copules reposent sur un cadre mathématique formel qui en permet l'application. Nous montrons aussi que les copules sont utilisées pour explorer la dépendance entre les rendements des actifs d'un portefeuille. Elles trouvent application à la valorisation de titres dont les valeurs marchandes dépendent de plusieurs actifs financiers, par exemple une option de type européen sur plusieurs actifs sous-jacents. Nous montrons aussi leurs utilités comme outils de mesure de diversification d'un portefeuille avec l'ajout de un ou plusieurs fonds de couverture. Finalement, nous exposons comment la théorie des copules vient en aide aux gestionnaires d'actifs d'une caisse de retraite dans le choix des titres et la composition d'un portefeuille. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Copules elliptiques, Copules archimédiennes, Copules hiérarchiques, Distributions marginales, Fonctions de dépendance, Chi-plots, Tau de Kendall, Rho de Pearson, Corrélations de rangs, Valorisation d'options-plusieurs sous-jacents, Fonds de couverture.
34

Contributions to nonparametric and semiparametric inference based on statistical depth / Contributions à l'inférence nonparamétrique et semiparamétrique fondée sur la profondeur statistique

Van Bever, Germain 06 September 2013 (has links)
L'objectif général de cette thèse est d'introduire de nouveaux concepts ou d'étendre certaines procédures statistiques déjà existantes touchant à la notion de profondeur statistique. <p><p>Celle-ci, originellement introduite afin de généraliser la notion de médiane et de fournir naturellement un ordre (depuis un centre, vers l'extérieur) dans un contexte multivarié, a, depuis son développement, démontré ses nombreuses qualités, tant en termes de robustesse, que d'utilité dans de nombreuses procédures inférentielles.<p>Les résultats proposés dans ce travail se développent le long de trois axes.<p><p>Pour commencer, la thèse s'intéresse à la classification supervisée. La profondeur a, en effet, déjà été utilisée avec succès dans ce contexte. Cependant, jusqu'ici, les outils développés restaient limités aux distributions elliptiques, constituant ainsi une sévère restriction des méthodes utilisant les fonctions de profondeur, qui, pour la plupart, sont par essence nonparamétrique. La première partie de cette thèse propose donc une nouvelle méthode de classification, fondée sur la profondeur, dont on montrera qu'elle est essentiellement universellement convergente. En particulier, la règle de discrimination proposée se fonde sur les idées utilisées dans la classification par plus proches voisins, en introduisant cependant des voisinages fondés sur la profondeur, mieux à même de cerner le comportement des populations sous-jacentes.<p><p>Ces voisinages d'un point quelconque, et surtout l'information sur le comportement local de la distribution en ce point qu'ils apportent, ont été réutilisés dans la seconde partie de ce travail. Plusieurs auteurs ont en effet reconnu certaines limitations aux fonctions de profondeur, de par leur caractère global et la difficulté d'étudier par leur biais des distributions multimodales ou à support convexe. Une nouvelle définition de profondeur locale est donc développée et étudiée. Son utilité dans différents problèmes d'inférence est également explorée.<p><p>Enfin, la thèse s'intéresse au paramètre de forme pour les distributions elliptiques. Ce paramètre d'importance est utilisé dans de nombreuses procédures statistiques (analyse en composantes principales, analyse en corrélations canoniques, entre autres) et aucune fonction de profondeur pour celui-ci n'existait à ce jour. La profondeur de forme est donc définie et ses propriétés sont étudiées. En particulier, on montrera que le cadre général de la profondeur paramétrique n'est pas suffisant en raison de la présence du paramètre de nuisance (d'influence non nulle) qu'est l'échelle. Une application inférentielle est présentée dans le cadre des tests d'hypothèses. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
35

Modélisation de la dépendance à l'aide des mélanges communs et applications en actuariat

Mtalai, Itre 19 December 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019 / La modélisation de la dépendance entre les risques pour un portefeuille d’une assurance ou d’une entité financière est devenue de plus en plus importante pour la solvabilité des institutions financières et l’examen de solvabilité dynamique et l’analyse financière dynamique des compagnies d’assurance. L’hypothèse d’indépendance entre les risques est parfois réaliste et facilite l’évaluation, l’agrégation et l’allocation des risques. Cependant, dans la majorité des cas, les risques individuels sont influencés par un ou plusieurs facteurs communs, tels que l’environnement économique, les régions géographiques ou les conditions climatiques et il est donc moins réaliste, voire dangereux, de supposer l’indépendance entre les risques d’un même portefeuille. Dans la littérature, un tel cas peut être modélisé par des modèles avec mélange commun. Ces modèles ont de nombreuses applications en assurance et en finance. L’objectif de cette thèse est donc d’explorer les modèles de dépendance construits à l’aide des mélanges communs et de faire sortir, à l’aide de plusieurs applications, la dangerosité de considérer l’indépendance entre les risques au sein d’un portefeuille. En particulier, la focalisation est mise sur un modèle souvent considéré pour modéliser le montant de sinistres, notamment la loi exponentielle mélange. Cette thèse considère les modèles de risque basés sur la loi exponentielle mélange. Le premier chapitre constitue une introduction générale aux modèles avec mélanges communs et introduit les notions qui seront utilisées dans les autres chapitres. Dans le deuxième chapitre, nous considérons un portefeuille de risques représentés par un vecteur de variables aléatoires dont la fonction de répartition conjointe est définie par une copule Archimédienne ou une copule Archimédienne imbriquée. Nous examinons le calcul de la fonction de répartition de la somme ou une variété de fonctions de ces variables aléatoires. En nous basant sur la méthodologie computationnelle présentée dans ce chapitre, nous examinons plusieurs problèmes reliés à différents modèles de risque en actuariat, tels que l’agrégation et l’allocation du capital. De plus, en utilisant une telle structure de dépendance avec des marginales spécifiques, nous obtenons des expressions explicites pour plusieurs quantités relatives au risque agrégé telles que sa fonction de masse de probabilité, sa fonction de répartition, sa TVaR, etc. L’échangeabilité des copules Archimédiennes implique que toutes les marginales sont égales. Afin de généraliser les copules Archimédiennes pour permettre les asymétries, plusieurs chercheurs utilisent une structure hiérarchique obtenue en imbriquant plusieurs copules Archimédiennes. Toutefois, il est difficile de valider la condition d’imbrication permettant d’assurer que la structure résultante est une copule, lorsque les copules impliquées appartiennent à des familles Archimédiennes différentes. Afin de remédier à ce problème, nous présentons, au troisième chapitre, une nouvelle méthode d’imbrication basée sur la construction des lois composées multivariées exponentielles mélange. En introduisant plusieurs paramètres, un large spectre de structures de dépendance peut être couvert par cette nouvelle construction, ce qui semble être très intéressant pour des applications pratiques. Des algorithmes efficients de simulation et d’agrégation sont également présentés. En nous inspirant à la fois des chapitres 2 et 3, nous proposons et examinons en détail au quatrième chapitre une nouvelle extension au modèle collectif de risque en supposant une certaine dépendance entre la fréquence et la sévérité des sinistres. Nous considérons des modèles collectifs de risque avec différentes structures de dépendance telles que des modèles impliquant des lois mélanges d’Erlang multivariées ou, dans un cadre plus général, des modèles basés sur des copules bivariées ou multivariées. Nous utilisons également les copules Archimédiennes et Archimédiennes hiérarchiques afin de modéliser la dépendance entre les composantes de la somme aléatoire représentant le montant de sinistre global. En nous basant encore une fois sur la représentation de notre modèle sous forme d’un mélange commun, nous adaptons la méthodologie computationnelle présentée au chapitre 2 pour calculer la fonction de masse de probabilité d’une somme aléatoire incorporant une dépendance hiérarchique. Finalement, dans le cinquième chapitre, nous soulignons l’utilité des modèles avec mélange commun et nous étudions plus en détail les lois exponentielles mélange dans leurs versions univariée et multivariée et nous expliquons leur lien étroit avec les copules Archimédiennes et Archimédiennes hiérarchiques. Nous proposons également plusieurs nouvelles distributions et nous établissons leurs liens avec des distributions connues. / Risk dependence modelling has become an increasingly important task for the solvency of financial institutions and insurance companies. The independence assumption between risks is sometimes realistic and facilitates risk assessment, aggregation and allocation. However, in most cases individual risks are influenced by at least one common factor, such as the economic environment, geographical regions or climatic conditions, and it is therefore less realistic or even dangerous to assume independence between risks. In the literature, such a case can be modelled by common mixture models. These models have many applications in insurance and finance. The aim of this thesis is to explore the dependence models constructed using common mixtures and to bring out, with the use of several applications, the riskiness of considering the independence between risks within an insurance company or a financial institution. In particular, the focus is on the exponential mixture. Exponential mixture distributions are on the basis of this thesis. The first chapter is a general introduction to models with common mixtures and introduces the concepts that will be used in the other chapters. In the second chapter, we consider a portfolio of risks represented by a vector of random variables whose joint distribution function is defined by an Archimedean copula or a nested Archimedean copula. We examine the computation of the distribution of the sum function or a variety of functions of these random variables. Based on the computational methodology presented in this chapter, we examine risk models regarding aggregation, capital allocation and ruin problems. Moreover, by using such a dependency structure with specific marginals, we obtain explicit expressions for several aggregated risk quantities such as its probability mass function, its distribution function, and its TVaR. The exchangeability of the Archimedean copulas implies that all margins are equal. To generalize Archimedean copulas to allow asymmetries, several researchers use a hierarchical structure obtained by nesting several Archimedean copulas. However, it is difficult to validate the nesting condition when the copulas involved belong to different Archimedean families. To solve this problem, we present, in the third chapter, a new imbrication method via the construction of the multivariate compound distributions. By introducing several parameters, a large spectrum of dependency structures can be achieved by this new construction, which seems very interesting for practical applications. Efficient sampling and aggregation algorithms are also presented. Based on both Chapters 2 and 3, we propose and examine in detail, in the fourth chapter, a new extension to the collective risk model assuming a certain dependence between the frequency and the severity of the claims. We consider collective risk models with different dependence structures such as models based on multivariate mixed Erlang distributions, models involving bivariate or multivariate copulas, or in a more general setting, Archimedean and hierarchical Archimedean copulas. Once again, based on the common mixture representation, we adapt the computational methodology presented in Chapter 2 to compute the probability mass function of a random sum incorporating a hierarchical Archimedean dependency. Finally, in the last chapter, we study, in more details, the exponential mixture distributions in their univariate and multivariate versions and we explain their close relationship to Archimedean and hierarchical Archimedean copulas. We also derive several new distributions, and we establish their links with pre-existent distributions. Keywords : Common mixture models, Exponential mixture, Bernoulli mixture, Archimedean copulas, Nested Archimedean copulas, Compounding, Marshall-Olkin, Hierarchical dependence structures.
36

Plans sphériques de force t et applications en statistique

Bertrand, Frédéric 07 December 2007 (has links) (PDF)
Ce travail comporte deux parties, l'une théorique et l'autre pratique, et porte sur l'utilisation combinée d'outils combinatoires et algébriques pour la construction et l'analyse de plans d'expérience. Nous nous intéressons en particulier à des caractérisations polynomiales des propriétés d'invariance faible d'un plan expérimental et proposons une définition ainsi qu'un cadre de résolution d'un problème de construction de type polynomial à l'aide de la géométrie algébrique réelle et du lien entre l'optimisation semi-définie positive et le théorème des zéros réels. Nous nous intéresserons ici également à la méthodologie des surfaces de réponse et plus particulièrement à la propriété d'isovariance statistique, ce qui nous amène à étudier plus particulièrement des plans dont le support est inclus dans une sphère. Les principaux avantages de l'approche développée dans ce travail sont sa grande généralité, son automatisation et l'obtention des coordonnées exactes des points support du plan ce qui permet une détermination complète des confusions d'effets contrairement à la construction numérique de plans d'expérience euclidiens qui ne permet pas l'analyse exacte des confusions d'effets qui apparaissent nécessairement lorsque nous nous intéressons à des plans euclidiens de petite taille. Or une connaissance précise des confusions d'effets est nécessaire pour rendre possible l'utilisation de modèles polynomiaux qui ne seront plus limités au degré 2 comme c'est trop souvent le cas dans la théorie et dans la pratique. De nombreux exemples de construction de plans isovariants, l'étude de leurs caractéristiques ainsi que les programmes ayant permis d'obtenir ces résultats sont également présentés.
37

Three Essays in Functional Time Series and Factor Analysis

Nisol, Gilles 20 December 2018 (has links) (PDF)
The thesis is dedicated to time series analysis for functional data and contains three original parts. In the first part, we derive statistical tests for the presence of a periodic component in a time series of functions. We consider both the traditional setting in which the periodic functional signal is contaminated by functional white noise, and a more general setting of a contaminating process which is weakly dependent. Several forms of the periodic component are considered. Our tests are motivated by the likelihood principle and fall into two broad categories, which we term multivariate and fully functional. Overall, for the functional series that motivate this research, the fully functional tests exhibit a superior balance of size and power. Asymptotic null distributions of all tests are derived and their consistency is established. Their finite sample performance is examined and compared by numerical studies and application to pollution data. In the second part, we consider vector autoregressive processes (VARs) with innovations having a singular covariance matrix (in short singular VARs). These objects appear naturally in the context of dynamic factor models. The Yule-Walker estimator of such a VAR is problematic, because the solution of the corresponding equation system tends to be numerically rather unstable. For example, if we overestimate the order of the VAR, then the singularity of the innovations renders the Yule-Walker equation system singular as well. Moreover, even with correctly selected order, the Yule-Walker system tends be close to singular in finite sample. We show that this has a severe impact on predictions. While the asymptotic rate of the mean square prediction error (MSPE) can be just like in the regular (non-singular) case, the finite sample behavior is suffering. This effect turns out to be particularly dramatic in context of dynamic factor models, where we do not directly observe the so-called common components which we aim to predict. Then, when the data are sampled with some additional error, the MSPE often gets severely inflated. We explain the reason for this phenomenon and show how to overcome the problem. Our numerical results underline that it is very important to adapt prediction algorithms accordingly. In the third part, we set up theoretical foundations and a practical method to forecast multiple functional time series (FTS). In order to do so, we generalize the static factor model to the case where cross-section units are FTS. We first derive a representation result. We show that if the first r eigenvalues of the covariance operator of the cross-section of n FTS are unbounded as n diverges and if the (r+1)th eigenvalue is bounded, then we can represent the each FTS as a sum of a common component driven by r factors and an idiosyncratic component. We suggest a method of estimation and prediction of such a model. We assess the performances of the method through a simulation study. Finally, we show that by applying our method to a cross-section of volatility curves of the stocks of S&P100, we have a better prediction accuracy than by limiting the analysis to individual FTS. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
38

Problèmes économétriques d'analyse des séries temporelles à mémoire longue

Dola, Béchir 13 December 2012 (has links) (PDF)
Les modalités d'investigation de notre thèse sont menées, sous trois angles : épistémologique, statistique et économique. En première partie de la thèse, dans une approche épistémologique, nous spécifions en quoi le concept de mémoire longue peut apparaître, comme un nouveau paradigme kühnien pour la macroéconomie et la finance. En deuxième partie de la thèse, dans une approche statistique, semi-paramétrique, nous proposons trois extensions de la statistique IR (Increment Ratio) de Surgailis et al, (2008). Premièrement, un théorème central limite multidimensionnelle est établi pour un vecteur composé de plusieurs statistiques IR. Deuxièmement, un test d'adéquation de qualité d'ajustement de type chi2 est déduit de ce théorème. Troisièmement, ce théorème nous a permis de construire des versions adaptatives de l'estimateur et du test d'adéquation étudiés dans un cadre semi-paramétrique général. Nous prouvons que l'estimateur adaptatif du paramètre de la mémoire longue suit une propriété d'Oracle. Les simulations que nous avons menées attestent de la précision et de la robustesse de l'estimateur et du test d'adéquation, même dans le cas non gaussien. En troisième partie de la thèse, nous en déduisons deux tests respectivement de stationnarité et de non stationnarité pour les processus I(d) stationnaires et non stationnaires, pour tout réel d tel que (-0.5< d<1.25). Dans une approche économique, au sein de cette troisième partie de la thèse, nous mettons en oeuvre les résultats théoriques précédents comparés à ceux issus d'autres méthodes statistiques: paramétriques, semi-paramétriques ou non paramétriques (ou heuristiques) appliquées à des séries économiques et financières.
39

Inférence asymptotique pour des processus stationnaires fonctionnels

Cerovecki, Clément 07 June 2018 (has links)
Nous abordons divers problèmes concernant les séries temporelles fonctionnelles. Il s'agit de processus stochastiques discrets à valeurs dans un espace fonctionnel. La principale motivation provient de l’interprétation séquentielle d'un phénomène continu. Si par exemple on observe des données météorologiques au cours du temps de manière continue, il est naturel de segmenter ce processus en une série temporelle fonctionnelle indexée par les jours. Chaque terme de la série représente la courbe journalière. Dans un premier temps, nous nous sommes intéressés à l'analyse spectrale. Plus précisément nous avons montré que sous des hypothèses très générales, la transformée de Fourier discrète d’une telle série est asymptotiquement normale et a pour variance l’opérateur de densité spectrale. Une application possible de ce résultat est de tester la présence de composantes périodiques dans une série fonctionnelle. Nous avons développé un test valable pour une fréquence arbitraire. Pour ce faire, nous avons étudié le comportement asymptotique du maximum de la norme de la transformée de Fourier. Enfin, nous avons travaillé sur la généralisation fonctionnelle du modèle GARCH. Ce modèle permet de décrire la dynamique de la volatilité, c’est-à-dire de la variance conditionnelle, dans les données financières. Nous avons proposé une méthode d’estimation des paramètres du modèle, inspirée de l’estimateur de quasi-maximum de vraisemblance. Nous avons montré que cet estimateur est convergent et asymptotiquement normal, puis nous l’avons évalué sur des simulations et appliqué à des données réelles. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
40

Three essays on spectral analysis and dynamic factors

Liska, Roman 10 September 2008 (has links)
The main objective of this work is to propose new procedures for the general dynamic factor analysis<p>introduced by Forni et al. (2000). First, we develop an identification method for determining the number of common shocks in the general dynamic factor model. Sufficient conditions for consistency of the criterion are provided for large n (number of series) and T (the series length). We believe that our procedure can shed<p>light on the ongoing debate on the number of factors driving the US or Eurozone economy. Second, we show how the dynamic factor analysis method proposed in Forni et al. (2000), combined with our identification method, allows for identifying and estimating joint and block-specific common factors. This leads to a more<p>sophisticated analysis of the structures of dynamic interrelations within and between the blocks in suchdatasets.<p>Besides the framework of the general dynamic factor model we also propose a consistent lag window spectral density estimator based on multivariate M-estimators by Maronna (1976) when the underlying data are coming from the alpha mixing stationary Gaussian process. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished

Page generated in 0.682 seconds