141 |
On the impact of stochastic volatility, interest rates and mortality on the hedge efficiency of GLWB quaranteesVeilleux, Pierre-Alexandre 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016 / Les rentes variables, et plus particulièrement les garanties de rachat viager (GRV), sont devenues très importantes dans l'industrie de la gestion du patrimoine. Ces garanties, qui offrent aux clients une protection de revenu tout en leur permettant de garder une participation dans les marchés boursiers, comprennent différents risques systématiques du point de vue de l'émetteur. La gestion des risques des GRV est donc une préoccupation majeure pour les compagnies d'assurance, qui ont opté pour la couverture sur les marchés financiers comme stratégie de gestion des risques simple et efficace. Ce mémoire évalue l'impact de la modélisation du passif de la garantie sur l'efficacité de la couverture des GRV par rapport à trois risques systématiques importants pour ces garanties, soient les risques de marchés boursiers, d'intérêt et de longévité. Le présent travail vise donc à étendre l'analyse effectuée par Kling et al. (2011), qui se concentre sur le risque de marchés boursiers. Ce mémoire montre que les taux d'intérêt stochastiques sont primordiaux dans la modélisation du passif des GRV. Ce mémoire analyse également l'impact de la modélisation de la mortalité utilisée dans la boucle externe sur l'efficacité de la couverture des GRV. Une allocation du risque entre les risques financiers et le risque de longévité est utilisée pour montrer que la longévité représente une part importante du risque total des GRV couvertes. De plus, l'efficacité de la couverture dans des projections incluant une modélisation stochastique des risques financiers et du risque de longévité est comparée à l'efficacité dans des projections utilisant des marges pour écarts défavorables traditionnelles sur l'hypothèse d'amélioration de mortalité. La diversification entre les risques financiers et de longévité s'avère avoir un effet substantiel sur l'efficacité de la couverture. / Variable annuity guarantees, and particularly guaranteed lifetime withdrawal benefit (GLWB) guarantees, have become very important in the wealth management industry. These guarantees, which provide clients with a revenue protection while allowing them to retain equity market participation, exhibit significant systematic risks from the issuer's standpoint. Risk management of GLWB guarantees thus is a main concern for insurance companies, which have turned to capital market hedging as a straightforward and effective risk management method. This thesis assesses the impact of the guarantee liability modeling on the hedge efficiency of GLWB guarantees with respect to three significant systematic risks for these guarantees, namely, the stock market, interest rate and longevity risks. The present work thus aims to extend the hedge efficiency analysis performed in Kling et al. (2011), which focuses on the stock market risk. In this thesis, stochastic interest rates are shown to be of primary importance in the guarantee liability modeling of GLWB guarantees. This thesis also analyzes the impact of the outer loop modeling of mortality on the hedge efficiency of GLWB guarantees. A risk allocation between financial and longevity risks is used to show that longevity holds a significant share of the total risk of a hedged GLWB guarantee. The hedge efficiency in projections including both stochastic financial and mortality modeling is compared with the efficiency in projections using traditional actuarial margins for adverse deviations on the mortality improvement assumption. The diversification between financial and longevity risks is shown to have a substantial impact on hedge efficiency.
|
142 |
Étude d'une classe d'estimateurs à noyau de la densité d'une loi de probabilitéAbdous, Belkacem 23 January 2019 (has links)
Dans ce travail nous donnons un aperçu des plus intéressantes approches visant à déterminer la fenêtre optimale en estimation de la densité d’une loi de probabilité par la méthode du noyau. Nous construisons ensuite une classe d’estimateurs à noyau de la densité pour lesquels nous avons établi des conditions suffisantes de convergence uniforme presque sûre et L¹ presque sûre vers la densité à estimer f [f incliné vers la droite]. Cette classe d’estimateurs à noyau étant assez générale, elle nous a permis d’appliquer ces résultats de convergence à des estimateurs à noyau classiques comme ceux de Deheuvels (1977-a), Shanmugam (1977), Bierens (1983), et Devroye et Wagner (1983). Elle nous a permis également, de construire une famille d’estimateurs à noyau de moyenne μn et de matrice de variance-covariance Vn, où fin est un estimateur non spécifié de la moyenne de / et Vn, à une constante multiplicative près, la matrice de variance-covariance empirique. Enfin, en simulant quelques modèles univariés connus, nous avons comparé les performances de l’estimateur à noyau de Parzen-Rosenblatt avec celles de l’estimateur à noyau de variance la variance empirique et de moyenne /xn, où a été choisi comme étant la moyenne empirique X n ou bien la médiane X n ou bien la moyenne empirique a-tronquée (a = 0.1) ou bien l’estimateur de Gastwirth (1966). / Québec Université Laval, Bibliothèque 2018
|
143 |
Évaluation et amélioration de l'échantillonnage par lot pour l'assurance de la qualité (LQAS) pour le suivi de programmes d'aide humanitaireDiop, Awa 14 August 2018 (has links)
Introduit par Dodge and Romig [1959] et rendu populaire par Valadez [1991]), le Lot Quality Assurance Sampling (LQAS) est une méthode beaucoup utilisée par les organismes dans le suivi de leurs activités (Robertson and Valadez [2006]). Le LQAS est utilisé dans le contexte comme une approche simple et peu coûteuse pour prendre rapidement des décisions par rapport à l’allocation des ressources. L’approche proposée par Valadez consiste à réaliser le test usuel de la binomiale exacte sur une proportion où on contrôle à la fois les erreurs a et b pour choisir une taille n et un seuil critique c. Pour rendre accessible son utilisation, Valadez et al. [2002] ont développé un manuel des praticiens qui présente une méthodologie d’utilisation du LQAS plus complexe que l’approche proposée par Valadez. Plusieurs problèmes liés à l’utilisation du LQAS en pratique sont identifiés et nous avons évalué leurs impact sur les erreurs de type I et II. Nous avons proposé d’autres solutions comme le test exact de Fisher, le test exact de Barnard, un test basé sur l’approximation par la loi normale avec et sans transformation arcsin( p x) en contrôlant pour chacun de ces tests a et b. Nous avons aussi soulevé le problème de la comparaison multiple et nous avons proposé une correction, celle de Bonferroni. Au terme de l’étude, nous avons développé une application Shiny sur R (https://lqasdesign. shinyapps.io/app1/) pour faciliter la conception et l’analyse selon le LQAS. / Introduced by Dodge and Romig [1959] and popularized by Valadez [1991], Lot Quality Assurance Sampling (LQAS) is a method widely used by tremendous organizations to tracking their activities (Robertson and Valadez [2006]). It is a simple and economical approach which allow them to make quick decisions about resource allocation. The approach proposed by Valadez consists in carrying out the usual exact binomial test on a proportion where we control both the a and b errors to choose a n size and a critical c threshold. In this study, several issues related to the use of LQAS in practice have been identified and we assessed their impact on Type I and Type II errors. Then, we proposed several solutions such as Fisher’s exact test, Barnard’s exact test, as well as a test based on the normal approximation with and without transformation arcsin( p x) by checking for each of them a and b. We also raised the problem of multiple comparison and proposed a correction using the Bonferroni framework. Finally, we developed a Shiny application on R (https://lqasdesign.shinyapps.io/app1/) to facilitate the practical implementation of each these methods.
|
144 |
A rigorous numerical method for the proof of Galaktionov-Svirshchevskii's conjectureThiam, Abdoulaye 23 April 2018 (has links)
La théorie des systèmes dynamiques étudie les phénomènes qui évoluent au cours du temps. Plus précisément, un système dynamique est donné par : un espace de phase dont les points correspondent à des états possibles du système étudié et une loi d'évolution décrivant l'infinitésimal (pour le cas continu) pas à pas (pour le cas discret) les changements des états du système. Le but de la théorie est de comprendre l'évolution dans le long terme. Dans ce travail, nous présentons une nouvelle méthode pour la résolution des systèmes linéaires avec preuve assistée par ordinateur dans le cadre de modèles linéaires réalistes. Après une introduction de quelques propriétés de la théorie des équations différentielles ordinaires, on introduit une méthode de calcul rigoureux pour trouver la solution périodique de la conjecture de Galaktionov-Svirshchevskii. On reformule le problème comme un problème à valeur initiale, puis on calcule la solution périodique dans le domaine positif et on déduit l'autre solution par symétrie. Notre résultat énonce une partie de la conjecture 3:2 dans le livre de Victor A. Galaktionov & Sergey R. Svirshchevskii : Exact Solutions and Invariant Subspaces of Nonlinear Partial Differential Equations in Mechanics and Physics, [Chapman & Hall/CRC, applied mathematics and nonlinear science series, (2007)]. Mots clés. Conjecture de Galaktionov-Svirshchevskii, Analyse d'intervalle, Théorème de contraction de Banach, Polynômes de rayons. / The theory of dynamical systems studies phenomena which are evolving in time. More precisely, a dynamical system is given by the following data: a phase space whose points correspond to the possible states of the system under consideration and an evolution law describing the infinitesimal (for continuous time) or one-step (for discrete time) change in the state of the system. The goal of the theory is to understand the long term evolution of the system. In this work, we introduce a new method for solving piecewise linear systems with computer assisted proofs in the context of realistic linear models. After introducing some properties of the theory of ordinary differential equations, we provide a rigorous computational method for finding the periodic solution of Galaktionov-Svirshchevskii's conjecture. We reformulate the problem as an initial value problem, compute periodic solution in the positive domain and deduce the other solution by symmetry. Our result settles one part of the Conjecture 3:2 by Victor A. Galaktionov & Sergey R. Svirshchevskii: Exact Solutions and Invariant Subspaces of Nonlinear Partial Differential Equations in Mechanics and Physics, [Chapman & Hall/CRC, applied mathematics and nonlinear science series, (2007)]. Key words. Galaktionov-Svirshchevskii's conjecture, Interval analysis, Contraction mapping theorem, Radii polynomials.
|
145 |
Un test pour la bonne spécification d'un modèle structurel marginalSall, Alioune 23 November 2018 (has links)
Estimer l’effet d’une exposition variant dans le temps à l’aide de modèles de régression ordinaires peut entraîner un biais si des variables confondantes variant dans le temps sont un effet des expositions passées. Les modèles structurels marginaux (MSMs) sont une solution à ce problème qui est de plus en plus utilisée, notamment dans les études en santé. L’une des hypothèses principales des MSMs est que la relation entre l’issue et les expositions antérieures est bien spécifiée. Ainsi, nous avons développé un test statistique de cette hypothèse. Différentes pondérations peuvent être utilisées pour estimer les paramètres du MSM et celles-ci devraient produire des estimations similaires lorsque le modèle est correctement spécifié. Un test statistique vérifiant si les différences observées sont au-delà de celles attendues permet donc de tester que le modèle est correct. La performance du test est étudiée à l’aide d’une étude de simulations sur des données synthétiques, où différentes véritables relations entre les expositions et l’issue, ainsi que différentes tailles d’échantillons étaient considérées. L’étude de simulation démontre une bonne performance du test : les taux de rejet de modèles corrects sont faibles alors que ceux de modèles incorrects sont généralement élevés, surtout pour des tailles d’échantillons élevées. Cependant, il existe des situations où le test est incapable de détecter des erreurs de spécification. Le test est appliqué pour étudier l’effet d’une exposition répétée au stress au travail sur une période de 5 ans sur la pression artérielle ambulatoire dans une cohorte de 1576 travailleurs cols-blancs. / Estimating the effect of a time-varying exposure using ordinary regression models may lead to bias if time-varying confounding variables are an effect of past exposures. Marginal structural models (MSMs) are a solution to this problem that is increasingly used, especially in health studies. One of the main assumptions of MSMs is that the relationship between outcome and past exposures is well specified. Thus, we developed a statistical test of this hypothesis. Different weights can be used to estimate MSM parameters and these should produce similar estimates when the model is correctly specified. A statistical test verifying if the differences observed are beyond those expected makes it possible to test that the model is correct. The performance of the test is investigated using a synthetic data simulation study, where different true relationships between exposures and outcome, as well as different sample sizes were considered. The simulation study demonstrates good test performance: rejection rates for correct models are low, while rejection rates for incorrect models are generally high, especially for large sample sizes. However, there are situations where the test is unable to detect specification errors. The test is applied to study the effect of repeated psychosocial work stressor exposure over a 5-year period on ambulatory blood pressure in a cohort of 1576 white-collar workers.
|
146 |
Adaptation de maillage anisotrope : méthode pleinement optimale basée sur un estimateur d'erreur hiérarchique en dimension 3Couet, Alexandre 18 April 2018 (has links)
L'objectif de ce mémoire est de présenter une méthode d'adaptation de maillage pour la méthode des éléments finis plus efficace que les méthodes dont on dispose actuellement. C'est d'autant plus important en dimension 3 puisque les problèmes rencontrés sont naturellement plus complexes et demandent de grandes ressources computationnelles. On présentera d'abord quelques notions essentielles et on étudiera plus particulièrement les méthodes d'adaptation existantes avant d'approfondir notre méthode. Celle-ci se base sur un estimateur d'erreur hiérarchique et montre des différences marquées avec les méthodes classiques. On fera donc la construction de l'estimateur en 2D avant de généraliser l'idée en 3D et d'expliquer le cadre dans lequel cet estimateur guide l'adaptation. Après avoir abordé certains aspects spécifiques de notre méthode, on fournira enfin des résultats numériques permettant entre autres de la comparer avec l'adaptation avec métrique.
|
147 |
Modèles de renouvellement avec effets de tendance, et application à l'assurance pour fautes des professionnels de la santéHamel, Emmanuel 22 December 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2018-2019. / Dans cette thèse, nous présentons une classe très large de processus de dénombrement, incluant le processus de renouvellement et le processus de Poisson non-homogène, à laquelle s’ajouteront des taux d’escompte stochastiques afin de modéliser les coûts agrégés liés aux assurances pour fautes des professionnels de la santé. Ainsi, dans l’introduction, nous présentons certaines caractéristiques importantes du processus des coûts agrégés liés aux assurances pour fautes des professionnels de la santé. Au chapitre 1, nous présentons des concepts théoriques préalables à l’élaboration et l’application du modèle mathématique qui sera proposé au chapitre 4. Au chapitre 2, nous présentons des résultats liés aux processus de Poisson non-homogène composé et de Cox composé, avec escompte. En particulier, nous y présentons des expressions analytiques pour les fonctions génératrices des moments qui seront inversées numériquement en utilisant la transformée de Fourier afin d’obtenir une approximation de la fonction de répartition. Au chapitre 3, nous considérons une classe de processus qui généralise celle étudiée au chapitre 2 : les processus de renouvellement composés, avec effet de tendance et escompte. Pour cette nouvelle classe, nous obtenons des formules récursives pour le calcul des moments ainsi que des expressions analytiques pour la fonction génératrice des moments, fonction qui peut être inversée analytiquement ou numériquement dans plusieurs cas particuliers afin d’obtenir une expression exacte ou une approximation de la fonction de répartition. Au chapitre 4, nous présentons les hypothèses du modèle stochastique qui servira à évaluer le risque du processus des coûts agrégés liés aux assurances pour fautes des professionnels de la santé, ce dernier généralisant la classe de modèles considérée au chapitre 3. Au chapitre 5, nous calibrons le modèle proposé au chapitre 4 sur la base de données des réclamations « fermées » d’une compagnie d’assurance de la Floride. Finalement, nous concluons cette thèse avec un résumé des nouveaux résultats et une discussion sur les avenues de recherches potentielles liées à la présente thèse. / In this thesis, we present a very large class of counting processes including the renewal process and the non-homogeneous Poisson process, to which we add stochastic discount rates, in order to model the aggregate cost related to medical malpractice insurance. In the introduction, we present some important characteristics related to the cost process of medical malpractice insurance. In Chapter 1, we present some theoretical concepts that will be used to build the aggregate cost process related to the medical malpractice insurance model that is proposed in Chapter 4. In Chapter 2, we present some results related to the compound non-homogeneous Poisson and compound Cox processes with a discount factor. In particular, we derive an analytic expression for the moment generating functions that will be inverted numerically using Fourier transforms in order to obtain an approximation of the probability distribution function. In Chapter 3, we study a class of models that generalizes the class of models studied in Chapter 2 : the compound trend renewal process with discount factor. For this new class of processes, we obtain recursive formulas for the moment calculations and an analytic expression for the moment generating function. The moment generating function can be inverted analytically or numerically for many particular cases in order to obtain an exact expression or an approximation of the probability distribution function. In Chapter 4, we present the stochastic model that will be used to measure the risk of an agregate cost related to medical malpractice insurance, which also generalizes the class of models considered in Chapter 3. In Chapter 5, we calibrate the model proposed in Chapter 4 on the closed claims database of Florida. The conclusion follows with a short summary of the results and an outline of some extensions for future research.
|
148 |
Développement d'un modèle statistique non stationnaire et régional pour les précipitations extrêmes simulées par un modèle numérique de climatJalbert, Jonathan 23 April 2018 (has links)
Les inondations constituent le risque naturel prédominant dans le monde et les dégâts qu’elles causent sont les plus importants parmi les catastrophes naturelles. Un des principaux facteurs expliquant les inondations sont les précipitations extrêmes. En raison des changements climatiques, l’occurrence et l’intensité de ces dernières risquent fort probablement de s’accroître. Par conséquent, le risque d’inondation pourrait vraisemblablement s’intensifier. Les impacts de l’évolution des précipitations extrêmes sont désormais un enjeu important pour la sécurité du public et pour la pérennité des infrastructures. Les stratégies de gestion du risque d’inondation dans le climat futur sont essentiellement basées sur les simulations provenant des modèles numériques de climat. Un modèle numérique de climat procure notamment une série chronologique des précipitations pour chacun des points de grille composant son domaine spatial de simulation. Les séries chronologiques simulées peuvent être journalières ou infrajournalières et elles s’étendent sur toute la période de simulation, typiquement entre 1961 et 2100. La continuité spatiale des processus physiques simulés induit une cohérence spatiale parmi les séries chronologiques. Autrement dit, les séries chronologiques provenant de points de grille avoisinants partagent souvent des caractéristiques semblables. De façon générale, la théorie des valeurs extrêmes est appliquée à ces séries chronologiques simulées pour estimer les quantiles correspondants à un certain niveau de risque. La plupart du temps, la variance d’estimation est considérable en raison du nombre limité de précipitations extrêmes disponibles et celle-ci peut jouer un rôle déterminant dans l’élaboration des stratégies de gestion du risque. Par conséquent, un modèle statistique permettant d’estimer de façon précise les quantiles de précipitations extrêmes simulées par un modèle numérique de climat a été développé dans cette thèse. Le modèle développé est spécialement adapté aux données générées par un modèle de climat. En particulier, il exploite l’information contenue dans les séries journalières continues pour améliorer l’estimation des quantiles non stationnaires et ce, sans effectuer d’hypothèse contraignante sur la nature de la non-stationnarité. Le modèle exploite également l’information contenue dans la cohérence spatiale des précipitations extrêmes. Celle-ci est modélisée par un modèle hiérarchique bayésien où les lois a priori des paramètres sont des processus spatiaux, en l’occurrence des champs de Markov gaussiens. L’application du modèle développé à une simulation générée par le Modèle régional canadien du climat a permis de réduire considérablement la variance d’estimation des quantiles en Amérique du Nord.
|
149 |
Tests d'association génétique pour des durées de vie en grappesLeclerc, Martin 23 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2015-2016 / Les outils statistiques développés dans cette thèse par articles visent à détecter de nouvelles associations entre des variants génétiques et des données de survie en grappes. Le développement méthodologique en analyse des durées de vie est aujourd'hui ininterrompu avec la prolifération des tests d'association génétique et, de façon ultime, de la médecine personnalisée qui est centrée sur la prévention de la maladie et la prolongation de la vie. Dans le premier article, le problème suivant est traité : tester l'égalité de fonctions de survie en présence d'un biais de sélection et de corrélation intra-grappe lorsque l'hypothèse des risques proportionnels n'est pas valide. Le nouveau test est basé sur une statistique de type Cramérvon Mises. La valeur de p est estimée en utilisant une procédure novatrice de bootstrap semiparamétrique qui implique de générer des observations corrélées selon un devis non-aléatoire. Pour des scénarios de simulations présentant un écart vis-à-vis l'hypothèse nulle avec courbes de survie qui se croisent, la statistique de Cramer-von Mises offre de meilleurs résultats que la statistique de Wald du modèle de Cox à risques proportionnels pondéré. Le nouveau test a été utilisé pour analyser l'association entre un polymorphisme nucléotidique (SNP) candidat et le risque de cancer du sein chez des femmes porteuses d'une mutation sur le gène suppresseur de tumeur BRCA2. Un test d'association sequence kernel (SKAT) pour détecter l'association entre un ensemble de SNPs et des durées de vie en grappes provenant d'études familiales a été développé dans le deuxième article. La statistique de test proposée utilise la matrice de parenté de l'échantillon pour modéliser la corrélation intra-famille résiduelle entre les durées de vie via une copule gaussienne. La procédure de test fait appel à l'imputation multiple pour estimer la contribution des variables réponses de survie censurées à la statistique du score, laquelle est un mélange de distributions du khi-carré. Les résultats de simulations indiquent que le nouveau test du score de type noyau ajusté pour la parenté contrôle de façon adéquate le risque d'erreur de type I. Le nouveau test a été appliqué à un ensemble de SNPs du locus TERT. Le troisième article vise à présenter le progiciel R gyriq, lequel implante une version bonifiée du test d'association génétique développé dans le deuxième article. La matrice noyau identical-by-state (IBS) pondérée a été ajoutée, les tests d'association génétique actuellement disponibles pour des variables réponses d'âge d'apparition ont été brièvement revus de pair avec les logiciels les accompagnant, l'implantation du progiciel a été décrite et illustrée par des exemples. / The statistical tools developed in this manuscript-based thesis aim at detecting new associations between genetic variants and clustered survival data. Methodological development in lifetime data analysis is today ongoing with the proliferation of genetic association testing and, ultimately, personalized medicine which focuses on preventing disease and prolonging life. In the first paper, the following problem is considered: testing the equality of survival functions in the presence of selection bias and intracluster correlation when the assumption of proportional hazards does not hold. The new proposed test is based on a Cramér-von Mises type statistic. The p-value is approximated using an innovative semiparametric bootstrap procedure which implies generating correlated observations according to a non-random design. For simulation scenarios of departures from the null hypothesis with crossing survival curves, the Cramer-von Mises statistic clearly outperformed the Wald statistic from the weighted Cox proportional hazards model. The new test was used to analyse the association between a candidate single nucleotide polymorphism (SNP) and breast cancer risk in women carrying a mutation in the BRCA2 tumor suppressor gene. A sequence kernel association test (SKAT) to detect the association between a set of genetic variants and clustered survival outcomes from family studies is developed in the second manuscript. The proposed statistic uses the kinship matrix of the sample to model the residual intra-family correlation between survival outcomes via a Gaussian copula. The test procedure relies on multiple imputation to estimate the contribution of the censored survival outcomes to the score statistic which is a mixture of chi-square distributions. Simulation results show that the new kinship-adjusted kernel score test controls adequately for the type I error rate. The new test was applied to a set of SNPs from the TERT locus. The third manuscript aims at presenting the R package gyriq which implements an enhanced version of the genetic association test developed in the second manuscript. The weighted identical-by-state (IBS) kernel matrix is added, genetic association tests and accompanying software currently available for age-at-onset outcomes are briefly reviewed, the implementation of the package is described, and illustrated through examples.
|
150 |
Génération de données synthétiques pour des variables continues : étude de différentes méthodes utilisant les copulesDesbois-Bédard, Laurence 24 April 2018 (has links)
L’intérêt des agences statistiques à permettre l’accès aux microdonnées d’enquête est grandissant. À cette fin, plusieurs méthodes permettant de publier les microdonnées tout en protégeant la confidentialité des répondants ont été proposées ; ce mémoire se penche sur l’une d’entre-elles : la génération de données synthétiques. Deux approches sont présentées, GADP et C-GADP, et une nouvelle est proposée. La méthode GADP suppose que les variables des données originales et synthétiques sont de loi normale, alors que la méthode C-GADP suppose qu’elles sont jointes par une copule normale. La nouvelle méthode est basée sur les modèles de copules en vigne. Ces modèles sont employés dans l’espoir de mieux modéliser les liens entre les variables. Les trois approches sont évaluées selon les concepts d’utilité et de risque. L’utilité de données confidentielles s’apprécie selon la similitude qu’elles ont avec les données originales et le risque, par la possibilité d’une violation de la confidentialité des répondants. Le risque peut survenir par identification ou par inférence. Seul le risque d’inférence est possible dans le cadre de ce mémoire. Précisément, l’utilité est évaluée avec quelques mesures faites à partir d’analyses spécifiques et une mesure globale basée sur les scores de propension calculés avec une régression logistique. Quant au risque, il est évalué avec une prévision basée sur la distance. / Statistical agencies face a growing demand for releasing microdata to the public. To this end, many techniques have been proposed for publishing microdata while providing confidentiality : synthetic data generation in particular. This thesis focuses on such technique by presenting two existing methods, GAPD and C-GADP, as well as suggesting one based on vine copula models. GADP assumes that the variables of original and synthetic data are normally distributed, while C-GADP assumes that they have a normal copula distribution. Vine copula models are proposed due to their flexibility. These three methods are then assessed according to utility and risk. Data utility depends on maintaining certain similarities between the original and confidential data, while risk can be observed in two types : reidentification and inference. This work will focus on the utility examined with different analysis-specific measures, a global measure based on propensity scores and the risk of inference evaluated with a distance-based prediction.
|
Page generated in 0.0426 seconds