Spelling suggestions: "subject:"statistique mathématiques."" "subject:"qtatistique mathématiques.""
11 |
Estimation bayésienne du lasso adaptatif pour l'issueGaye, Serigne Abib 22 March 2024 (has links)
Dans ce mémoire, on cherche à développer une nouvelle méthode d'estimation pour le lasso adaptatif pour l'issue en utilisant la machinerie bayésienne. L'hypothèse de recherche est que notre nouvelle méthode va beaucoup réduire la lourdeur computationnelle du lasso adaptatif pour l'issue. Notre méthode utilise les mêmes fondements théoriques que le lasso adaptatif pour l'issue. Elle remplit donc les conditions de la propriété d'oracle. Pour sa mise en ÷uvre, on ajuste d'abord un modèle du score de propension bayésien. Ensuite, on estime l'effet du traitement moyen par la pondération par l'inverse de la probabilité de traitement. Par ailleurs, nous considérons une distribution gamma pour le paramètre de régularisation qui nous permet de choisir ce paramètre à partir d'un ensemble continu, alors que le lasso adaptatif pour l'issue fréquentiste utilise une approche de validation croisée qui doit faire un choix parmi un ensemble discret de valeurs préspéciées. In ne, la méthode que nous avons développée répond bien à nos attentes, et permet donc de produire les inférences de façon beaucoup plus rapide. En effet, il a fallu seulement 41.298 secondes pour que cette méthode effectue les inférences, alors que 44.105 minutes ont été né- cessaires au lasso adaptatif pour l'issue. On espère que les idées développées dans ce mémoire vont contribuer signicativement à améliorer les méthodes de sélection de variables en inférence causale avec l'appui des techniques bayésiennes. / In this paper, we aim to develop a new estimation method for the outcome adaptive lasso using Bayesian machinery. The research hypothesis is that our new method will significantly reduce the computational burden of the outcome adaptive lasso. Our method uses the same theoretical foundation as the outcome adaptive lasso. It therefore meets the oracle properties. For its implementation, Bayesian propensity score model is first fitted. Next, the average treatment effect is estimated using inverse probability of treatment weights. In addition, we consider a gamma distribution for the regularisation parameter λ in order to choose this parameter over a continuous set, whereas the frequentist outcome adaptive lasso uses a cross-validation procedure that selects λ among a prespecified discrete set. In fine, the method we have developed meets our expectations, and therefore makes it possible to produce inferences much faster. Indeed, it took only 41.298 seconds for this method to yield inferences, while 44.105 minutes were required for the outcome adaptive lasso. We hope that the ideas developed in this paper will significantly contribute to improve methods for selecting variables in causal inference with the support of Bayesian techniques.
|
12 |
Méthode d'inférence utilisant la vraisemblance empirique basée sur l'entropie pour les modèles de diffusion avec sautsLaporte, Francis 05 March 2019 (has links)
Avec la venue de modèles de plus en plus élaborés pour modéliser les rendements boursiers, la méthode classique du maximum de vraisemblance pour inférer les paramètres n’est généralement plus applicable puisque, par exemple, la fonction de densité n’est pas disponible ou très difficile à calculer numériquement. Dans la littérature, l’inférence par la méthode des moments (MM) est donc généralement suggérée. Dans ce mémoire, une méthode d’inférence plus efficace, soit celle du maximum de vraisemblance empirique basé sur l’entropie (MEEL), est proposée pour deux cas particuliers du processus de Lévy, soit les modèles de Merton et de Tsay. Premièrement, un retour sur certains modèles développés par le passé est fait. Les lacunes du mouvement brownien géométrique sont présentées afin de justifier l’utilisation de modèles plus élaborés. Ensuite, les deux modèles, Merton et Tsay, et leurs propriétés sont présentés plus en détail. Par la suite, il y a une analyse comparative entre l’efficacité du MEEL et celle du MM ; un exemple sur des données réelles est aussi présenté. Pour terminer, deux approches de tarification de produits dérivés sont présentées. / With the advent of increasingly sophisticated models for modeling stock market returns, the classical maximum likelihood method for inferring parameters is generally no longer applicable since, for example, the density function has no closed form or very difficult to calculate numerically. In the literature, inference by the method of moments (MM) is therefore generally suggested. In this master’s thesis, a more efficient inference method, the maximum empirical entropy likelihood (MEEL), is proposed for two particular cases of the Lévy process, namely the Merton and Tsay models. First, a review of some models developed in the past is done. The flaws of the geometric Brownian motion are presented to justify the use of more sophisticated models. Then, the two models, Merton and Tsay, and their properties are presented in more detail. Subsequently, there is a comparative analysis between the effectiveness of the MEEL and the MM; an example with real data is also presented. Finally, two approaches to pricing derivatives are presented.
|
13 |
Régression avec copules pour des données hiérarchiquesAkpo, Talagbe Gabin 12 November 2023 (has links)
Dans cette thèse, nous proposons un modèle multivarié pour la modélisation des données en grappes. Le modèle proposé, que nous nommons "d-copule échangeable", permet d'écrire la distribution jointe de nd variables aléatoires mesurées sur n unités de la grappe. Le modèle de d-copule échangeable fait intervenir trois copules et d lois marginales. Il possède des propriétés de flexibilité et de maniabilité dues à sa forme explicite. Nous montrons que la d-copule échangeable est une généralisation du modèle linéaire mixte avec ordonnées à l'origine aléatoires. En effet, lorsque les copules sont toutes normales et les lois marginales sont normales, alors les deux modèles sont équivalents. Nous utilisons le modèle de d-copule échangeable pour faire de la prédiction. Ensuite, nous nous intéressons particulièrement au cas de d=2 variables pour étudier ses propriétés. Nous expliquons la procédure séquentielle pour sélectionner les cinq éléments entrant dans la construction du modèle de 2-copule échangeable. L'estimation des paramètres du modèle de 2-copule échangeable se fait en utilisant deux méthodes d'estimation : la méthode IFM généralisée ou la méthode du maximum de vraisemblance. Nous démontrons que les estimateurs associés aux paramètres du modèle de 2-copule échangeable sont convergents et asymptotiquement normaux que l'on utilise la méthode IFM généralisée ou celle par maximum de vraisemblance. Nous comparons ces deux méthodes d'estimation par le biais d'une étude Monte-Carlo. Finalement, nous montrons la modélisation de données en utilisant un modèle de 2-copule échangeable. Les données proviennent d'une étude effectuée au centre de Londres, dans le cadre du "Junior School Project (JSP)". Nous construisons des courbes de prédiction en utilisant la méthode de 2-copule échangeable que nous comparons à celles obtenues avec le modèle linéaire mixte et le modèle de régression ordinaire avec une copule. / In this thesis, we propose a multivariate model for modeling clustered data. The proposed model, which we name "d-copula", allows us to write the joint distribution of nd random variables measured on n units of the cluster. The exchangeable d-copula model involves three copulas and d marginal laws. It has properties of flexibility and handiness due to its explicit form. We show that the exchangeable d-copula is a generalization of the linear mixed model with random intercepts. Indeed, when the copulas are all normal and the marginal laws are normal, then the two models are equivalent. We use the exchangeable d-copula model to make predictions. Then, we focus on the case of d=2 variables to study its properties. We explain the sequential procedure for selecting the five elements that go into the construction of the exchangeable 2-copula model. The estimation of the parameters of the exchangeable 2-copula model is done using two estimation methods : the generalized IFM method or the maximum likelihood method. We show that the estimators associated with the parameters of the exchangeable d-copula model are convergent and asymptotically normal whether using the generalized IFM or the maximum likelihood method. We compare these two estimation methods by means of a Monte-Carlo study. Finally, we show the construction of an exchangeable 2-copula model from observed data. The data come from a study in central London, as part of the «Junior School Project (JSP)». We construct prediction curves using the exchangeable 2-copula method and compare them to those obtained with the mixed linear model and the ordinary regression model with one copula.
|
14 |
Étude de certaines mesures d'association multivariées et d'un test de dépendance extrémale fondés sur les rangsBen Ghorbal, Noomen 17 April 2018 (has links)
Cette thèse contribue à la modélisation de la dépendance stochastique par la théorie des copules et la statistique non paramétrique. Elle s'appuie sur trois articles rédigés avec mes directeurs de thèse, M. Christian Genest et Mme Johanna Neslehovâ. Le premier article, intitulé ± On the Ghoudi, Khoudraji, and Rivest test for extreme-value dependence, ¿ a été publié en 2009 dans La revue canadienne de statistique, vol. 37, no 4, pp. 534-552. Le second article, intitulé ± Spearman's footrule and Gini's gamma : A review with complements, ¿ paraîtra sous peu dans le Journal of Nonparametric Statistics. Le troisième article, intitulé ± Estimators based on Kendall's tau in multivariate copula models, ¿ est en cours d'évaluation.
|
15 |
Une généralisation de la copule de Khoudraji : copules engendrées par des fonctions complètement monotonesL'Moudden, Aziz 17 April 2018 (has links)
La copule de Abdelhaq Khoudraji permet de décrire complètement le lien de dépendance qui unit deux variables aléatoires continues. Ce mémoire présente une nouvelle copule basée sur les copules de Khoudraji mais avec plus de propriétés. On a étendu les copules de Khoudraji à des cas multidimen-sionnels tout en proposant quelques exemples. Des simulations ont été introduites dans le but de mieux visualiser ces nouvelles classes de copules. Finalement, des applications ont été réalisées afin de mettre en oeuvre les nouvelles copules trouvées.
|
16 |
Estimation du paramètre d'une copule archimedienne en présence de censure dépendanteMonwanou, Mondji Herbert 24 April 2018 (has links)
Les méthodes classiques d’analyse de survie notamment la méthode non paramétrique de Kaplan et Meier (1958) supposent l’indépendance entre les variables d’intérêt et de censure. Mais, cette hypothèse d’indépendance n’étant pas toujours soutenable, plusieurs auteurs ont élaboré des méthodes pour prendre en compte la dépendance. La plupart de ces méthodes émettent des hypothèses sur cette dépendance. Dans ce mémoire, nous avons proposé une méthode d’estimation de la dépendance en présence de censure dépendante qui utilise le copula-graphic estimator pour les copules archimédiennes (Rivest etWells, 2001) et suppose la connaissance de la distribution de la variable de censure. Nous avons ensuite étudié la consistance de cet estimateur à travers des simulations avant de l’appliquer sur un jeu de données réelles. / Conventional methods of survival analysis including non-parametric Kaplan-Meier (1958) assume independence between time to death and time to censoring. But this independence assumption is not always sustainable. Thus, several authors have developed methods to take into account the dependence by making assumptions about the relationship between the two times. In this paper, we proposed a method to estimate the dependence in case of competing risk data using the copula-graphic estimator for Archimedean copula (Rivest and Wells, 2001) and assuming knowledge of the distribution of censoring time. Then we studied the consistency of this estimator through simulations and applied to a real dataset.
|
17 |
Introduction des effets fixes dans un modèle binomial négatif : application à la consommation de médicaments au CanadaAmmour, Boubekeur Seddik January 2010 (has links) (PDF)
Dans ce travail, nous modélisons le nombre de médicaments consommés par les Canadiens en estimant deux modèles de données de comptage en panel. Les données incluent des observations effectuées sur 17 276 individus entre 1994 et 2007. Les modèles de Poisson et binomial négatif à effets fixes sont donc estimés afin de contrôler pour les effets individuels non observés. Allison et Waterman (2002) ont démontré que le modèle binomial négatif conditionnel à effets fixes proposé par Hausman, Hall and Griliches (1984) ne contrôle pas vraiment pour les effets fixes étant donné que le modèle inclut des régresseurs individuels fixes. Malgré cette argumentation, l'estimation de ce modèle, effectuée avec le progiciel Stata en utilisant les données de l'enquête nationale sur la santé de la population au Canada (ENSP), fournit des résultats presque identiques à ceux obtenus avec l'estimation du modèle de Poisson à effets fixes. En effet, une partie de la corrélation de certaines variables explicatives avec l'hétérogénéité inobservée n'existe plus lorsque nous estimons le modèle à effets fixes, comparativement aux modèles à effets aléatoires. Cela fait radicalement changer les effets individuels et prouve alors l'importance de contrôler pour les effets fixes. Wooldridge propose un modèle similaire au modèle binomial négatif à effets fixes. Celui-ci permet de contrôler et d'interpréter les effets du modèle binomial négatif à effets fixes en estimant les effets fixes à l'aide des moyennes des variables explicatives, qui seront introduites dans le modèle binomial négatif. Nous n'aurons donc plus besoin d'utiliser la commande Xtnbreg avec l'option FE (qui s'est révélée non performante) car le modèle alternatif de Wooldridge s'estime en utilisant les options RE ou GEE. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Régression de Poisson, Binomial négatif, Effets fixes, Effets aléatoires.
|
18 |
Conditional quantile estimation through optimal quantizationCharlier, Isabelle 17 December 2015 (has links) (PDF)
Les applications les plus courantes des méthodes non paramétriques concernent l'estimation d'une fonction de régression (i.e. de l'espérance conditionnelle). Cependant, il est souvent intéressant de modéliser les quantiles conditionnels, en particulier lorsque la moyenne conditionnelle ne permet pas de représenter convenablement l'impact des covariables sur la variable dépendante. De plus, ils permettent d'obtenir des graphiques plus compréhensibles de la distribution conditionnelle de la variable dépendante que ceux obtenus avec la moyenne conditionnelle. A l'origine, la "quantification" était utilisée en ingénierie du signal et de l'information. Elle permet de discrétiser un signal continu en un nombre fini de quantifieurs. En mathématique, le problème de la quantification optimale consiste à trouver la meilleure approximation d'une distribution continue d'une variable aléatoire par une loi discrète avec un nombre fixé de quantifieurs. Initialement utilisée pour des signaux univariés, la méthode a été étendue au cadre multivarié et est devenue un outil pour résoudre certains problèmes en probabilités numériques.Le but de cette thèse est d'appliquer la quantification optimale en norme Lp à l'estimation des quantiles conditionnels. Différents cas sont abordés :covariable uni- ou multidimensionnelle, variable dépendante uni- ou multivariée. La convergence des estimateurs proposés est étudiée d'un point de vue théorique. Ces estimateurs ont été implémentés et un package R, nommé QuantifQuantile, a été développé. Leur comportement numérique est évalué sur des simulations et des données réelles. / One of the most common applications of nonparametric techniques has been the estimation of a regression function (i.e. a conditional mean). However it is often of interest to model conditional quantiles, particularly when it is felt that the conditional mean is not representative of the impact of the covariates on the dependent variable. Moreover, the quantile regression function provides a much more comprehensive picture of the conditional distribution of a dependent variable than the conditional mean function. Originally, the "quantization'" was used in signal and information theories since the fifties. Quantization was devoted to the discretization of a continuous signal by a finite number of "quantizers". In mathematics, the problem of optimal quantization is to find the best approximation of thecontinuous distribution of a random variable by a discrete law with a fixed number of charged points. Firstly used for a one-dimensional signal, themethod has then been developed in the multi-dimensional case and extensively used as a tool to solve problems arising in numerical probability.The goal of this thesis is to study how to apply optimal quantization in Lp-norm to conditional quantile estimation. Various cases are studied: one-dimensional or multidimensional covariate, univariate or multivariate dependent variable. The convergence of the proposed estimators is studied from a theoretical point of view. The proposed estimators were implemented and a R package, called QuantifQuantile, was developed. Numerical behavior of the estimators is evaluated through simulation studies and real data applications. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
19 |
Testing uniformity against rotationally symmetric alternatives on high-dimensional spheresCutting, Christine 04 June 2020 (has links) (PDF)
Dans cette thèse, nous nous intéressons au problème de tester en grande dimension l'uniformité sur la sphère-unité $S^{p_n-1}$ (la dimension des observations, $p_n$, dépend de leur nombre, $n$, et être en grande dimension signifie que $p_n$ tend vers l'infini en même temps que $n$). Nous nous restreignons dans un premier temps à des contre-hypothèses ``monotones'' de densité croissante le long d'une direction ${\pmb \theta}_n\in S^{p_n-1}$ et dépendant d'un paramètre de concentration $\kappa_n>0$. Nous commençons par identifier le taux $\kappa_n$ auquel ces contre-hypothèses sont contiguës à l'uniformité ;nous montrons ensuite grâce à des résultats de normalité locale asymptotique, que le test d'uniformité le plus classique, le test de Rayleigh, n'est pas optimal quand ${\pmb \theta}_n$ est connu mais qu'il le devient à $p$ fixé et dans le cas FvML en grande dimension quand ${\pmb \theta}_n$ est inconnu.Dans un second temps, nous considérons des contre-hypothèses ``axiales'', attribuant la même probabilité à des points diamétralement opposés. Elles dépendent aussi d'un paramètre de position ${\pmb \theta}_n\in S^{p_n-1}$ et d'un paramètre de concentration $\kappa_n\in\R$. Le taux de contiguïté s'avère ici plus élevé et suggère un problème plus difficile que dans le cas monotone. En effet, le test de Bingham, le test classique dans le cas axial, n'est pas optimal à ${\pmb \theta}_n$ inconnu et $p$ fixé, et ne détecte pas les contre-hypothèses contiguës en grande dimension. C'est pourquoi nous nous tournons vers des tests basés sur les plus grande et plus petite valeurs propres de la matrice de variance-covariance et nous déterminons leurs distributions asymptotiques sous les contre-hypothèses contiguës à $p$ fixé.Enfin, à l'aide d'un théorème central limite pour martingales, nous montrons que sous certaines conditions et après standardisation, les statistiques de Rayleigh et de Bingham sont asymptotiquement normales sous l'hypothèse d'invariance par rotation des observations. Ce résultat permet non seulement d'identifier le taux auquel le test de Bingham détecte des contre-hypothèses axiales mais aussi celui auquel il détecte des contre-hypothèses monotones. / In this thesis we are interested in testing uniformity in high dimensions on the unit sphere $S^{p_n-1}$ (the dimension of the observations, $p_n$, depends on their number, and high-dimensional data are such that $p_n$ diverges to infinity with $n$).We consider first ``monotone'' alternatives whose density increases along an axis ${\pmb \theta}_n\in S^{p_n-1}$ and depends on a concentration parameter $\kappa_n>0$. We start by identifying the rate at which these alternatives are contiguous to uniformity; then we show thanks to local asymptotic normality results that the most classical test of uniformity, the Rayleigh test, is not optimal when ${\pmb \theta}_n$ is specified but becomes optimal when $p$ is fixed and in the high-dimensional FvML case when ${\pmb \theta}_n$ is unspecified.We consider next ``axial'' alternatives, assigning the same probability to antipodal points. They also depend on a location parameter ${\pmb \theta}_n\in S^{p_n-1}$ and a concentration parameter $\kappa_n\in\R$. The contiguity rate proves to be higher in that case and implies that the problem is more difficult than in the monotone case. Indeed, the Bingham test, the classical test when dealing with axial data, is not optimal when $p$ is fixed and ${\pmb \theta}_n$ is not specified, and is blind to the contiguous alternatives in high dimensions. This is why we turn to tests based on the extreme eigenvalues of the covariance matrix and establish their fixed-$p$ asymptotic distributions under contiguous alternatives.Finally, thanks to a martingale central limit theorem, we show that, under some assumptions and after standardisation, the Rayleigh and Bingham test statistics are asymptotically normal under general rotationally symmetric distributions. It enables us to identify the rate at which the Bingham test detects axial alternatives and also monotone alternatives. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
20 |
Preliminary test estimation in uniformly locally and asymptotically normal modelsRasoafaraniaina, Rondrotiana J 07 September 2020 (has links) (PDF)
The present thesis provides a general asymptotic theory for preliminary test estimators (PTEs). PTEs are typically used when one needs to estimate a parameter having some uncertain prior information about it. In the literature, preliminary test estimation have been applied to some specific models, but no general asymptotic theory was already available to the best of our knowledge. After a study of PTEs in a multisample principal component context, we first provide a general asymptotic theory for PTEs in uniformly, locally and asymptotically normal (ULAN) models. An extensive list of statistical and econometric models are ULAN making our results quite general. Our main results are obtained using the Le Cam asymptotic theory under the assumption that the estimators involved in the PTEs admit Bahadur-type asymptotic representations. Then, we propose PTEs involving multiple tests and therefore multiple constrained estimators; we call them preliminary multiple test estimators. For the latter, we also derive a very general asymptotic theory in ULAN models. Our theoretical results are illustrated on problems involving the estimation of covariance matrices both via simulations and a real data example. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
|
Page generated in 0.0855 seconds