• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 949
  • 444
  • 93
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1536
  • 381
  • 295
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 144
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Transferts de fluides dans les milieux fracturés : effets d'échelle /

Bour, Olivier, January 1997 (has links)
Th. univ.--Rennes 1, 1996. / Bibliogr., 15 p. Notes bibliogr. Résumé en français.
162

Contribution à l'étude des systèmes de particules composées.

Gomes, Alain, January 1900 (has links)
Th--Phys. théor.--Toulouse 3, 1979. N°: 895.
163

Optimisation des méthodes statistiques d'analyse de la variabilité des caractères à l'aide d'informations génomiques

Jacquin, Laval 10 October 2014 (has links) (PDF)
L’avènement du génotypage à haut débit permet aujourd’hui de mieux exploiter le phénomène d’association, appelé déséquilibre de liaison (LD), qui existe entre les allèles de différents loci sur le génome. Dans ce contexte, l’utilité de certains modèles utilisés en cartographie de locus à effets quantitatifs (QTL) est remise en question. Les objectifs de ce travail étaient de discriminer entre des modèles utilisés en routine en cartographie et d’apporter des éclaircissements sur la meilleure façon d’exploiter le LD, par l’utilisation d’haplotypes, afin d’optimiser les modèles basés sur ce concept. On montre que les modèles uni-marqueur de liaison, développés en génétique il y a vingtaine d’années, comportent peu d’intérêts aujourd’hui avec le génotypage à haut débit. Dans ce contexte, on montre que les modèles uni-marqueur d’association comportent plus d’avantages que les modèles uni-marqueur de liaison, surtout pour des QTL ayant un effet petit ou modéré sur le phénotype, à condition de bien maîtriser la structure génétique entre individus. Les puissances et les robustesses statistiques de ces modèles ont été étudiées, à la fois sur le plan théorique et par simulations, afin de valider les résultats obtenus pour la comparaison de l’association avec la liaison. Toutefois, les modèles uni-marqueur ne sont pas aussi efficaces que les modèles utilisant des haplotypes dans la prise en compte du LD pour une cartographie fine de QTL. Des propriétés mathématiques reliées à la cartographie de QTL par l’exploitation du LD multiallélique capté par les modèles haplotypiques ont été explicitées et étudiées à l’aide d’une distance matricielle définie entre deux positions sur le génome. Cette distance a été exprimée algébriquement comme une fonction des coefficients du LD multiallélique. Les propriétés mathématiques liées à cette fonction montrent qu’il est difficile de bien exploiter le LD multiallélique, pour un génotypage à haut débit, si l’on ne tient pas compte uniquement de la similarité totale entre des haplotypes. Des études sur données réelles et simulées ont illustré ces propriétés et montrent une corrélation supérieure à 0.9 entre une statistique basée sur la distance matricielle et des résultats de cartographie. Cette forte corrélation a donné lieu à la proposition d’une méthode, basée sur la distance matricielle, qui aide à discriminer entre les modèles utilisés en cartographie.
164

Conditional quantile estimation through optimal quantization

Charlier, Isabelle 17 December 2015 (has links) (PDF)
Les applications les plus courantes des méthodes non paramétriques concernent l'estimation d'une fonction de régression (i.e. de l'espérance conditionnelle). Cependant, il est souvent intéressant de modéliser les quantiles conditionnels, en particulier lorsque la moyenne conditionnelle ne permet pas de représenter convenablement l'impact des covariables sur la variable dépendante. De plus, ils permettent d'obtenir des graphiques plus compréhensibles de la distribution conditionnelle de la variable dépendante que ceux obtenus avec la moyenne conditionnelle. A l'origine, la "quantification" était utilisée en ingénierie du signal et de l'information. Elle permet de discrétiser un signal continu en un nombre fini de quantifieurs. En mathématique, le problème de la quantification optimale consiste à trouver la meilleure approximation d'une distribution continue d'une variable aléatoire par une loi discrète avec un nombre fixé de quantifieurs. Initialement utilisée pour des signaux univariés, la méthode a été étendue au cadre multivarié et est devenue un outil pour résoudre certains problèmes en probabilités numériques.Le but de cette thèse est d'appliquer la quantification optimale en norme Lp à l'estimation des quantiles conditionnels. Différents cas sont abordés :covariable uni- ou multidimensionnelle, variable dépendante uni- ou multivariée. La convergence des estimateurs proposés est étudiée d'un point de vue théorique. Ces estimateurs ont été implémentés et un package R, nommé QuantifQuantile, a été développé. Leur comportement numérique est évalué sur des simulations et des données réelles. / One of the most common applications of nonparametric techniques has been the estimation of a regression function (i.e. a conditional mean). However it is often of interest to model conditional quantiles, particularly when it is felt that the conditional mean is not representative of the impact of the covariates on the dependent variable. Moreover, the quantile regression function provides a much more comprehensive picture of the conditional distribution of a dependent variable than the conditional mean function. Originally, the "quantization'" was used in signal and information theories since the fifties. Quantization was devoted to the discretization of a continuous signal by a finite number of "quantizers". In mathematics, the problem of optimal quantization is to find the best approximation of thecontinuous distribution of a random variable by a discrete law with a fixed number of charged points. Firstly used for a one-dimensional signal, themethod has then been developed in the multi-dimensional case and extensively used as a tool to solve problems arising in numerical probability.The goal of this thesis is to study how to apply optimal quantization in Lp-norm to conditional quantile estimation. Various cases are studied: one-dimensional or multidimensional covariate, univariate or multivariate dependent variable. The convergence of the proposed estimators is studied from a theoretical point of view. The proposed estimators were implemented and a R package, called QuantifQuantile, was developed. Numerical behavior of the estimators is evaluated through simulation studies and real data applications. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
165

Échantillonnage de Gibbs avec augmentation de données et imputation multiple

Vidal, Vincent 11 April 2018 (has links)
L'objectif de ce mémoire est de comparer la méthode d'échantillonnage de Gibbs avec augmentation de données, telle que présentée par Paquet (2002) et Bernier-Martel (2005), avec celle de l'imputation multiple telle que présentée par Grégoire (2004). Le critère de comparaison sera le signe des coefficients estimés. Nous travaillerons dans le contexte de bases de données indépendantes et d'un modèle linéaire à choix discret. Le modèle sera exprimé en tenant compte du choix des modes de transport des ménages de la communauté urbaine de Toronto. Pour réaliser ce projet, nous utiliserons la base de données du TTS (Transportation Tomorrow Survey) de 1986 et de 1996. Les résultats n'ont pas tous été estimés par un signe cohérent à nos attentes. Toutefois, nous pouvons conclure que l'échantillonnage de Gibbs avec augmentation de données est une approche plus intéressante que l'imputation multiple, puisqu'elle a estimé un nombre plus élevé de bons signes.
166

La copule khi-carré et son utilisation en statistique spatiale et pour la modélisation de données multidimensionnelles

Toupin, Marie-Hélène 24 April 2018 (has links)
Cette thèse étudie les propriétés des copules appartenant à la famille khi-carré. Il s’agit d’une généralisation des copules normales multidimensionnelles obtenue en élevant au carré les composantes d’un vecteur de variables aléatoires normales. Ces copules sont indicées par une matrice de corrélation et par un paramètre de forme. Cette thèse montre comment cette famille de copules peut être utilisée pour faire de l’interpolation spatiale et pour modéliser des données multidimensionnelles. Dans un premier temps, l’utilité de cette classe de structures de dépendance est démontrée par le biais d’une application en statistique spatiale. Un problème important dans ce contexte est de prévoir la valeur d’un champ aléatoire stationnaire en une position où il n’a pas été observé. Cette thèse montre comment construire de telles prévisions à l’aide de modèles spatiaux basés sur les copules. L’accent est mis sur l’utilisation de la famille des copules khi-carré dans ce contexte. Il faut d’abord supposer que la matrice de corrélation a une forme paramétrique standard, telle celle de Matérn, indicée par un paramètre inconnu associé à la force de l’association spatiale. Ce paramètre est d’abord estimé à l’aide d’une pseudo-vraisemblance composite construite à partir des lois bidimensionnelles des données observées. Ensuite, une méthode d’interpolation spatiale utilisant les rangs des observations est suggérée afin d’approximer la meilleure prévision du champ aléatoire à une position non observée. Dans un deuxième temps, les propriétés fondamentales des copules khi-carré sont étudiées en détail. Cette famille de copules permet une grande flexibilité quant à la modélisation de données multidimensionnelles. Dans le cas bivarié, ces copules s’adaptent à de la dépendance autant symétrique qu’asymétrique. En dimension plus grande, le paramètre de forme contrôle le degré d’asymétrie radiale des distributions marginales bidimensionnelles. Des procédures d’estimation de la matrice de corrélation et du paramètre de forme sont comparées dans le cas de répétitions indépendantes et identiquement distribuées. Enfin, des formules de l’espérance conditionnelle pour la meilleure prévision dans un contexte spatiale sont établies. Finalement, des tests d’adéquation basés sur des moments pour la famille des copules khi-carré sont développés. Ces nouveaux tests peuvent être appliqués à un ensemble de données de n’importe quelle dimension. Ces procédures reposent sur deux mesures d’association basées sur les rangs des observations ce qui évite d’avoir à spécifier les lois marginales. Il est démontré que le comportement conjoint de ces deux mesures est asymptotiquement normal. L’efficacité des nouvelles procédures d’adéquation est démontrée via une étude de simulations et est comparée à un test d’adéquation classique basé sur la copule empirique. / This thesis studies the properties of the family of chi-square copulas. This is a generalization of the multidimensional normal copulas obtained by squaring the components of normal random vector. These copulas are indexed by a correlation matrix and by a shape parameter. This thesis shows how this family can be used to perform spatial interpolation and to model multidimensional data. First, the usefulness of this class of dependence structures is demonstrated with an application in spatial statistics. An important problem in that context is to predict the value of a stationary random field at a position where it has not been observed. This thesis shows how to construct such predictions using spatial models based on copulas. One focusses on the use of the family of chi-square copulas in that context. One must first assumes that the correlation matrix has a standard parametric form, such as that of Matérn, indexed by an unknown parameter associated with the force of the spatial association. This parameter is first estimated using a composite pseudo-likelihood constructed from the bivariate distributions of the observed data. Then, a spatial interpolation method using the ranks of the observations is suggested to approximate the best prediction of the random field at an unobserved position under a chi-square copula. In a second work, the fundamental properties of the chi-square copulas are studied in detail. This family allows a lot of flexibility to model multidimensional data. In the bivariate case, this family is adapted to symmetric and asymmetric dependence structures. In larger dimensions, the shape parameter controls the degree of radial asymmetry of the two-dimensional marginal distributions. Parameter estimation procedures of the correlation matrix and of the shape parameter are compared under independent and identically distributed repetitions. Finally, the formulas of the conditional expectation for the best prediction in a spatial context are established. Goodness-of-fit tests for the family of chi-square copulas are then developed. These new tests can be applied to data in any dimension. These procedures are based on two association measures based on the ranks of the observations, which avoids having to specify the marginal distributions. It is shown that the joint behavior of these two measures is asymptotically normal. The efficiency of the new goodness-of-fit procedures is demonstrated through a simulation study and is compared to a classical goodness-of-fit test based on the empirical copula.
167

Tests non paramétriques de spécification pour densité conditionnelle : application à des modèles de choix discret

Amegble, Koami Dzigbodi 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015 / Dans ce travail, nous étudions la performance statistique (taille et puissance) en échantillon fini de deux tests non paramétriques de spécification pour densité conditionnelle proposés par Fan et al. (2006) et Li et Racine (2013). Ces tests permettent de vérifier si les probabilités conditionnelles postulées dans les modèles de choix discret (logit/probit multinomial à effets fixes ou aléatoires, estimateur de Klein et Spady (1993), etc) représentent correctement les choix observés. Par rapport aux tests existants, cette approche a l’avantage d’offrir une forme fonctionnelle flexible alternative au modèle paramétrique lorsque ce dernier se révèle mal spécifié. Ce modèle alternatif est directement issu de la procédure de test et il correspond au modèle non contraint obtenu par des produits de noyaux continus et discrets. Les deux tests explorés ont une puissance en échantillon fini supérieure aux tests existants. Cette performance accrue s’obtient en combinant une procédure bootstrap et l’utilisation de paramètres de lissage des fonctions noyaux par validation croisée par les moindres carrés. Dans notre application, nous parallélisons les calculs de taille et de puissance, ainsi que l’estimation des fenêtres de lissage, sur un serveur multi-processeurs (Colosse, de Calcul Québec). Nous utilisons des routines "Open MPI" pré-implémentées dans R. Par rapport aux simulations effectuées dans les articles originaux, nous postulons des modèles plus proches de ceux habituellement utilisés dans la recherche appliquée (logit et probit à variance unitaire notamment). Les résultats des simulations confirment les bonnes taille et puissance des tests en échantillon fini. Par contre, les gains additionnels de puissance de la statistique lissée proposée par Li et Racine (2013) se révèlent négligeables dans nos simulations. Mots clés : Bootstrap, choix discret, densité conditionnelle, Monte Carlo, produit de noyaux, puissance, taille.
168

Estimation de la dépendance et choix de modèles pour des données bivariées sujettes à censure et à troncation

Beaudoin, David 12 April 2018 (has links)
Cette thèse contribue à l'analyse de durées de vie bivarices. Elle s'appuie sur quatre articles, rédigés en collaboration avec Christian Genest (directeur), Thierry Duchesne (codirecteur) ou d'autres collaborateurs (Lajmi Lakhal-Chaieb, Bruno Rémillard, Louis-Paul Rivest). Le premier article, soumis à Insurance : Mathematics and Economies en novembre dernier, propose deux nouveaux tests d'adéquation d'un modèle de copules pour une paire (X, Y) de durées de vie. Leur performance est comparée à celle de six tests omnibus par voie de simulation. Le second article, à paraître dans Computational Statistics and Data Analysis, propose de nouveaux estimateurs du tau de Kendall entre les variables X et, Y, lorsque seule la seconde est sujette à censure. Une étude de Monte-Carlo montre que parce qu'ils exploitent l'information conditionnelle entre les variables, ces nouveaux estimateurs sont plus performants que ceux couramment utilisés dans ce contexte. Le troisième article, en cours de révision pour Lifetime Data Analysis, propose un estimateur de type Horvitz Thompson pour T(X,Y) lorsque les deux variables sont sujettes à censure. On démontre qu'au contraire des estimateurs existants, celui-ci demeure convergent même quand r / 0. Le quatrième article, soumis à Statistics in Medicine, présente un critère de sélection de modèle lorsque la paire (X, Y) n'est observable que dans la région Y > X et que Y est sujette à censure à droite, La procédure compare une estimation paramétrique à une estimation non paramétrique de la version tronquée du tau de Kendall. / This thesis contributes to bivariate survival data analysis. It is based on four papers, written jointly with Christian Genest (supervisor), Thierry Duchesne (co-supervisor) or other collaborators (Lajrni Lakhal-Chaieb, Bruno Rémillard, Louis-Paul Rivest). The first paper, submitted to Insurance : Mathematics and Economies last November, proposes two new statistics for goodness-of-fit testing of a copula model for a pair (X, Y) of lifetimes. Their performance is compared to that of six omnibus tests through simulation. The second paper, which is due to appear in Computational Statistics and Data Analysis, proposes new estimators of Kendall's tau between variables X and Y when only the second is subject to censoring. A Monte Carlo study shows that because tliey take into account the conditional information between the variables, thèse new estimators perforai better than those currently used in this context. The third paper, currently under revision for Lifetirne Data Analysis, proposes a Horvitz Thompson type estimator for T(X, Y) when both variables are subject to censoring. It is shown that by opposition to existing estimators, this one remains consistent even when r/() . The fourth paper, submitted to Statistics in Medicine, présents a model sélection criterion when the pair (X, Y) can only be observed in the région Y > X and Y is subject to right censoring. The procédure compares a parametric estimate to a nonparametric estimate of the fruneafed version of Kendall's tau.
169

Modélisation de réclamations en assurance générale avec gradient boosting et dépendance

Power, Justine 02 February 2024 (has links)
En assurance générale, la prévision des réclamations est d'une importance capitale. Une modélisation précise des pertes futures permet aux assureurs d'offrir des prix compétitifs, de cibler les assurés les plus profitables et de conserver leur solidité financière. Le domaine de l'assurance étant en constante évolution, les actuaires doivent trouver des moyens de raffiner leurs modèles prédictifs. Dans ce mémoire, on propose un modèle hiérarchique qui améliore les modèles classiques sur deux aspects. D'abord, on considère la dépendance entre les occurrences de paiements sous différentes couvertures avec une distribution multinomiale, et entre les montants payés à l'aide de copules. Ensuite, on choisit XGBoost, une implémentation populaire du gradient boosting, pour effectuer des prévisions avec des variables explicatives, alors que la plupart des modèles actuariels utilisent les modèles linéaires généralisés. La méthode est illustrée sur un jeu de données de réclamations en assurance auto fourni par une grande compagnie d'assurance canadienne. Le nombre important d'observations et de variables explicatives justifient l'utilisation de XGBoost, qui est particulièrement efficace avec de gros jeux de données. La structure des données motive divers aspects du modèle lui procurant une flexibilité, notamment en permettant à la combinaison de couvertures payées pour une même réclamation d'influencer les relations de dépendance. Pour l'inférence sur les copules, on utilise les méthodes basées sur les rangs. Puisque la validité des estimateurs basés sur les rangs de résidus de XGBoost n'a pas été montrée dans la littérature, on étudie leur performance par simulation. On applique notre modèle sur des données test et en comparant les résultats avec ceux d'un modèle supposant l'indépendance, on remarque que notre modèle permet d'obtenir une meilleure segmentation des assurés, en plus de répliquer de manière plus adéquate la stochasticité globale des données. / In general insurance, predicting future claims is of prime importance. A precise claim modeling allows insurers to offer the best prices possible, to target the most profitable policies and to remain financially sound. As insurance evolves constantly, one of the main challenges for actuaries is to find ways to refine their models. The goal of this thesis is to propose a hierarchical claim model that improves classical methods on two levels. First, we consider dependence between occurrences of payment for different coverages with a multinomial distribution, and between paid amounts using copulas. Second, to perform prediction with covariates, we choose XGBoost, a popular implementation of gradient boosting, while most of the actuarial models in the literature use generalized linear models. We fit our model on an auto insurance dataset from a Canadian insurer. The use of XGBoost, that is particularly well suited for large datasets, is justified by the large number of observations and covariates available. The structure of our data motivates several components of our model that add flexibility, by allowing the combination of coverages paid on a claim to have an effect on the dependence relationships. We use rank-based methods for copula inference since they offer many benefits. The validity of the methods based on ranks of gradient boosting residuals has not been demonstrated, so we assess this with simulations. We show some applications of our model and compare it with an independence model. Results suggest that with the added dependence components of our model, we achieve a better segmentation of the insureds portfolio and replicate the global stochasticity of the data more accurately.
170

Modèles de dépendance avec copule Archimédienne : fondements basés sur la construction par mélange, méthodes de calcul et applications

Veilleux, Dery 21 December 2018 (has links)
Le domaine de l’assurance est basé sur la loi des grands nombres, un théorème stipulant que les caractéristiques statistiques d’un échantillon aléatoire suffisamment grand convergent vers les caractéristiques de la population complète. Les compagnies d’assurance se basent sur ce principe afin d’évaluer le risque associé aux évènements assurés. Cependant, l’introduction d’une relation de dépendance entre les éléments de l’échantillon aléatoire peut changer drastiquement le profil de risque d’un échantillon par rapport à la population entière. Il est donc crucial de considérer l’effet de la dépendance lorsqu’on agrège des risques d’assurance, d’où l’intérêt porté à la modélisation de la dépendance en science actuarielle. Dans ce mémoire, on s’intéresse à la modélisation de la dépendance à l’intérieur d’un portefeuille de risques dans le cas où une variable aléatoire (v.a.) mélange introduit de la dépendance entre les différents risques. Après avoir introduit l’utilisation des mélanges exponentiels dans la modélisation du risque en actuariat, on démontre comment cette construction par mélange nous permet de définir les copules Archimédiennes, un outil puissant pour la modélisation de la dépendance. Dans un premier temps, on démontre comment il est possible d’approximer une copule Archimédienne construite par mélange continu par une copule construite par mélange discret. Puis, nous dérivons des expressions explicites pour certaines mesures d’intérêt du risque agrégé. Nous développons une méthode de calcul analytique pour évaluer la distribution d’une somme de risques aléatoires d’un portefeuille sujet à une telle structure de dépendance. On applique enfin ces résultats à des problèmes d’agrégation, d’allocation du capital et de théorie de la ruine. Finalement, une extension est faite aux copules Archimédiennes hiérarchiques, une généralisation de la dépendance par mélange commun où il existe de la dépendance entre les risques à plus d’un niveau. / The law of large numbers, which states that statistical characteristics of a random sample will converge to the characteristics of the whole population, is the foundation of the insurance industry. Insurance companies rely on this principle to evaluate the risk of insured events. However, when we introduce dependencies between each component of the random sample, it may drastically affect the overall risk profile of the sample in comparison to the whole population. This is why it is essential to consider the effect of dependency when aggregating insurance risks from which stems the interest given to dependence modeling in actuarial science. In this thesis, we study dependence modeling in a portfolio of risks for which a mixture random variable (rv) introduces dependency. After introducing the use of exponential mixtures in actuarial risk modeling, we show how this mixture construction can define Archimedean copulas, a powerful tool for dependence modeling. First, we demonstrate how an Archimedean copula constructed via a continuous mixture can be approximated with a copula constructed by discrete mixture. Then, we derive explicit expressions for a few quantities related to the aggregated risk. The common mixture representation of Archimedean copulas is then at the basis of a computational strategy proposed to compute the distribution of the sum of risks in a general setup. Such results are then used to investigate risk models with respect to aggregation, capital allocation and ruin problems. Finally, we discuss an extension to nested Archimedean copulas, a general case of dependency via common mixture including different levels of dependency. / Résumé en espagnol

Page generated in 0.0311 seconds