• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 946
  • 444
  • 93
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1532
  • 381
  • 294
  • 274
  • 226
  • 202
  • 192
  • 179
  • 153
  • 147
  • 143
  • 142
  • 142
  • 139
  • 136
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Transferts de fluides dans les milieux fracturés : effets d'échelle /

Bour, Olivier, January 1997 (has links)
Th. univ.--Rennes 1, 1996. / Bibliogr., 15 p. Notes bibliogr. Résumé en français.
162

Contribution à l'étude des systèmes de particules composées.

Gomes, Alain, January 1900 (has links)
Th--Phys. théor.--Toulouse 3, 1979. N°: 895.
163

Optimisation des méthodes statistiques d'analyse de la variabilité des caractères à l'aide d'informations génomiques

Jacquin, Laval 10 October 2014 (has links) (PDF)
L’avènement du génotypage à haut débit permet aujourd’hui de mieux exploiter le phénomène d’association, appelé déséquilibre de liaison (LD), qui existe entre les allèles de différents loci sur le génome. Dans ce contexte, l’utilité de certains modèles utilisés en cartographie de locus à effets quantitatifs (QTL) est remise en question. Les objectifs de ce travail étaient de discriminer entre des modèles utilisés en routine en cartographie et d’apporter des éclaircissements sur la meilleure façon d’exploiter le LD, par l’utilisation d’haplotypes, afin d’optimiser les modèles basés sur ce concept. On montre que les modèles uni-marqueur de liaison, développés en génétique il y a vingtaine d’années, comportent peu d’intérêts aujourd’hui avec le génotypage à haut débit. Dans ce contexte, on montre que les modèles uni-marqueur d’association comportent plus d’avantages que les modèles uni-marqueur de liaison, surtout pour des QTL ayant un effet petit ou modéré sur le phénotype, à condition de bien maîtriser la structure génétique entre individus. Les puissances et les robustesses statistiques de ces modèles ont été étudiées, à la fois sur le plan théorique et par simulations, afin de valider les résultats obtenus pour la comparaison de l’association avec la liaison. Toutefois, les modèles uni-marqueur ne sont pas aussi efficaces que les modèles utilisant des haplotypes dans la prise en compte du LD pour une cartographie fine de QTL. Des propriétés mathématiques reliées à la cartographie de QTL par l’exploitation du LD multiallélique capté par les modèles haplotypiques ont été explicitées et étudiées à l’aide d’une distance matricielle définie entre deux positions sur le génome. Cette distance a été exprimée algébriquement comme une fonction des coefficients du LD multiallélique. Les propriétés mathématiques liées à cette fonction montrent qu’il est difficile de bien exploiter le LD multiallélique, pour un génotypage à haut débit, si l’on ne tient pas compte uniquement de la similarité totale entre des haplotypes. Des études sur données réelles et simulées ont illustré ces propriétés et montrent une corrélation supérieure à 0.9 entre une statistique basée sur la distance matricielle et des résultats de cartographie. Cette forte corrélation a donné lieu à la proposition d’une méthode, basée sur la distance matricielle, qui aide à discriminer entre les modèles utilisés en cartographie.
164

Conditional quantile estimation through optimal quantization

Charlier, Isabelle 17 December 2015 (has links) (PDF)
Les applications les plus courantes des méthodes non paramétriques concernent l'estimation d'une fonction de régression (i.e. de l'espérance conditionnelle). Cependant, il est souvent intéressant de modéliser les quantiles conditionnels, en particulier lorsque la moyenne conditionnelle ne permet pas de représenter convenablement l'impact des covariables sur la variable dépendante. De plus, ils permettent d'obtenir des graphiques plus compréhensibles de la distribution conditionnelle de la variable dépendante que ceux obtenus avec la moyenne conditionnelle. A l'origine, la "quantification" était utilisée en ingénierie du signal et de l'information. Elle permet de discrétiser un signal continu en un nombre fini de quantifieurs. En mathématique, le problème de la quantification optimale consiste à trouver la meilleure approximation d'une distribution continue d'une variable aléatoire par une loi discrète avec un nombre fixé de quantifieurs. Initialement utilisée pour des signaux univariés, la méthode a été étendue au cadre multivarié et est devenue un outil pour résoudre certains problèmes en probabilités numériques.Le but de cette thèse est d'appliquer la quantification optimale en norme Lp à l'estimation des quantiles conditionnels. Différents cas sont abordés :covariable uni- ou multidimensionnelle, variable dépendante uni- ou multivariée. La convergence des estimateurs proposés est étudiée d'un point de vue théorique. Ces estimateurs ont été implémentés et un package R, nommé QuantifQuantile, a été développé. Leur comportement numérique est évalué sur des simulations et des données réelles. / One of the most common applications of nonparametric techniques has been the estimation of a regression function (i.e. a conditional mean). However it is often of interest to model conditional quantiles, particularly when it is felt that the conditional mean is not representative of the impact of the covariates on the dependent variable. Moreover, the quantile regression function provides a much more comprehensive picture of the conditional distribution of a dependent variable than the conditional mean function. Originally, the "quantization'" was used in signal and information theories since the fifties. Quantization was devoted to the discretization of a continuous signal by a finite number of "quantizers". In mathematics, the problem of optimal quantization is to find the best approximation of thecontinuous distribution of a random variable by a discrete law with a fixed number of charged points. Firstly used for a one-dimensional signal, themethod has then been developed in the multi-dimensional case and extensively used as a tool to solve problems arising in numerical probability.The goal of this thesis is to study how to apply optimal quantization in Lp-norm to conditional quantile estimation. Various cases are studied: one-dimensional or multidimensional covariate, univariate or multivariate dependent variable. The convergence of the proposed estimators is studied from a theoretical point of view. The proposed estimators were implemented and a R package, called QuantifQuantile, was developed. Numerical behavior of the estimators is evaluated through simulation studies and real data applications. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
165

Échantillonnage de Gibbs avec augmentation de données et imputation multiple

Vidal, Vincent 11 April 2018 (has links)
L'objectif de ce mémoire est de comparer la méthode d'échantillonnage de Gibbs avec augmentation de données, telle que présentée par Paquet (2002) et Bernier-Martel (2005), avec celle de l'imputation multiple telle que présentée par Grégoire (2004). Le critère de comparaison sera le signe des coefficients estimés. Nous travaillerons dans le contexte de bases de données indépendantes et d'un modèle linéaire à choix discret. Le modèle sera exprimé en tenant compte du choix des modes de transport des ménages de la communauté urbaine de Toronto. Pour réaliser ce projet, nous utiliserons la base de données du TTS (Transportation Tomorrow Survey) de 1986 et de 1996. Les résultats n'ont pas tous été estimés par un signe cohérent à nos attentes. Toutefois, nous pouvons conclure que l'échantillonnage de Gibbs avec augmentation de données est une approche plus intéressante que l'imputation multiple, puisqu'elle a estimé un nombre plus élevé de bons signes.
166

Sélection de copules archimédiennes dans un modèle semi-paramétrique

Khadraoui, Lobna 05 July 2018 (has links)
Ce travail considère un modèle linéaire semi-paramétrique dont les erreurs sont modélisées par une copule choisie parmi la famille archimédienne ou bien la copule normale. La modélisation des erreurs par une copule apporte une flexibilité et permet de caractériser la structure de dépendance d’une manière simple et efficace. La simplicité réside dans le fait qu’un seul paramètre α contrôle le degré de dépendance présent dans les données. L’efficacité réside dans le fait que ce modèle semi-paramétrique permet de lever des hypothèses standards souvent rencontrées en statistique appliquée à savoir la normalité et l’indépendance. Après une mise en œuvre du modèle basée sur une copule nous avons proposé une étude théorique du comportement asymptotique de l’estimateur du paramètre de dépendance α en montrant sa convergence et sa normalité asymptotique sous des hypothèses classiques de régularité. L’estimation des paramètres du modèle a été réalisée en maximisant une pseudo-vraisemblance. La sélection de la meilleure copule pour un jeu de données a été faite à l’aide du critère d’Akaike. Une comparaison avec le critère de la validation croisée a été proposée également. Enfin, une étude numérique sur des jeux de données simulés et réels a été proposée dans la sélection. / This work considers a semi-parametric linear model with error terms modeled by a copula chosen from the Archimedean family or the normal copula. The modeling of errors by a copula provides flexibility and makes it possible to characterize the dependency structure in a simple and effective manner. The simplicity lies in the fact that a single parameter α controls the degree of dependency present in the data. The efficiency is in the fact that this semi-parametric model weakens standard assumptions often encountered in applied statistics namely normality and independence. After an implementation of the model based on a copula we proposed a theoretical study on the asymptotic behavior of the estimator of the dependence parameter α by showing its consistency and its asymptotic normality under classical assumptions of regularity. Estimation of the model parameters is performed by maximizing a pseudo-likelihood. The selection of the best copula that fits the data for each case is based on the Akaike selection criterion. A comparison with the criterion of cross-validation is presented as well. Finally, a numerical study on simulated and real data sets is proposed.
167

Modèles de dépendance avec copule Archimédienne : fondements basés sur la construction par mélange, méthodes de calcul et applications

Veilleux, Dery 21 December 2018 (has links)
Le domaine de l’assurance est basé sur la loi des grands nombres, un théorème stipulant que les caractéristiques statistiques d’un échantillon aléatoire suffisamment grand convergent vers les caractéristiques de la population complète. Les compagnies d’assurance se basent sur ce principe afin d’évaluer le risque associé aux évènements assurés. Cependant, l’introduction d’une relation de dépendance entre les éléments de l’échantillon aléatoire peut changer drastiquement le profil de risque d’un échantillon par rapport à la population entière. Il est donc crucial de considérer l’effet de la dépendance lorsqu’on agrège des risques d’assurance, d’où l’intérêt porté à la modélisation de la dépendance en science actuarielle. Dans ce mémoire, on s’intéresse à la modélisation de la dépendance à l’intérieur d’un portefeuille de risques dans le cas où une variable aléatoire (v.a.) mélange introduit de la dépendance entre les différents risques. Après avoir introduit l’utilisation des mélanges exponentiels dans la modélisation du risque en actuariat, on démontre comment cette construction par mélange nous permet de définir les copules Archimédiennes, un outil puissant pour la modélisation de la dépendance. Dans un premier temps, on démontre comment il est possible d’approximer une copule Archimédienne construite par mélange continu par une copule construite par mélange discret. Puis, nous dérivons des expressions explicites pour certaines mesures d’intérêt du risque agrégé. Nous développons une méthode de calcul analytique pour évaluer la distribution d’une somme de risques aléatoires d’un portefeuille sujet à une telle structure de dépendance. On applique enfin ces résultats à des problèmes d’agrégation, d’allocation du capital et de théorie de la ruine. Finalement, une extension est faite aux copules Archimédiennes hiérarchiques, une généralisation de la dépendance par mélange commun où il existe de la dépendance entre les risques à plus d’un niveau. / The law of large numbers, which states that statistical characteristics of a random sample will converge to the characteristics of the whole population, is the foundation of the insurance industry. Insurance companies rely on this principle to evaluate the risk of insured events. However, when we introduce dependencies between each component of the random sample, it may drastically affect the overall risk profile of the sample in comparison to the whole population. This is why it is essential to consider the effect of dependency when aggregating insurance risks from which stems the interest given to dependence modeling in actuarial science. In this thesis, we study dependence modeling in a portfolio of risks for which a mixture random variable (rv) introduces dependency. After introducing the use of exponential mixtures in actuarial risk modeling, we show how this mixture construction can define Archimedean copulas, a powerful tool for dependence modeling. First, we demonstrate how an Archimedean copula constructed via a continuous mixture can be approximated with a copula constructed by discrete mixture. Then, we derive explicit expressions for a few quantities related to the aggregated risk. The common mixture representation of Archimedean copulas is then at the basis of a computational strategy proposed to compute the distribution of the sum of risks in a general setup. Such results are then used to investigate risk models with respect to aggregation, capital allocation and ruin problems. Finally, we discuss an extension to nested Archimedean copulas, a general case of dependency via common mixture including different levels of dependency. / Résumé en espagnol
168

Estimation de la dépendance et choix de modèles pour des données bivariées sujettes à censure et à troncation

Beaudoin, David 12 April 2018 (has links)
Cette thèse contribue à l'analyse de durées de vie bivarices. Elle s'appuie sur quatre articles, rédigés en collaboration avec Christian Genest (directeur), Thierry Duchesne (codirecteur) ou d'autres collaborateurs (Lajmi Lakhal-Chaieb, Bruno Rémillard, Louis-Paul Rivest). Le premier article, soumis à Insurance : Mathematics and Economies en novembre dernier, propose deux nouveaux tests d'adéquation d'un modèle de copules pour une paire (X, Y) de durées de vie. Leur performance est comparée à celle de six tests omnibus par voie de simulation. Le second article, à paraître dans Computational Statistics and Data Analysis, propose de nouveaux estimateurs du tau de Kendall entre les variables X et, Y, lorsque seule la seconde est sujette à censure. Une étude de Monte-Carlo montre que parce qu'ils exploitent l'information conditionnelle entre les variables, ces nouveaux estimateurs sont plus performants que ceux couramment utilisés dans ce contexte. Le troisième article, en cours de révision pour Lifetime Data Analysis, propose un estimateur de type Horvitz Thompson pour T(X,Y) lorsque les deux variables sont sujettes à censure. On démontre qu'au contraire des estimateurs existants, celui-ci demeure convergent même quand r / 0. Le quatrième article, soumis à Statistics in Medicine, présente un critère de sélection de modèle lorsque la paire (X, Y) n'est observable que dans la région Y > X et que Y est sujette à censure à droite, La procédure compare une estimation paramétrique à une estimation non paramétrique de la version tronquée du tau de Kendall. / This thesis contributes to bivariate survival data analysis. It is based on four papers, written jointly with Christian Genest (supervisor), Thierry Duchesne (co-supervisor) or other collaborators (Lajrni Lakhal-Chaieb, Bruno Rémillard, Louis-Paul Rivest). The first paper, submitted to Insurance : Mathematics and Economies last November, proposes two new statistics for goodness-of-fit testing of a copula model for a pair (X, Y) of lifetimes. Their performance is compared to that of six omnibus tests through simulation. The second paper, which is due to appear in Computational Statistics and Data Analysis, proposes new estimators of Kendall's tau between variables X and Y when only the second is subject to censoring. A Monte Carlo study shows that because tliey take into account the conditional information between the variables, thèse new estimators perforai better than those currently used in this context. The third paper, currently under revision for Lifetirne Data Analysis, proposes a Horvitz Thompson type estimator for T(X, Y) when both variables are subject to censoring. It is shown that by opposition to existing estimators, this one remains consistent even when r/() . The fourth paper, submitted to Statistics in Medicine, présents a model sélection criterion when the pair (X, Y) can only be observed in the région Y > X and Y is subject to right censoring. The procédure compares a parametric estimate to a nonparametric estimate of the fruneafed version of Kendall's tau.
169

Tests non paramétriques de spécification pour densité conditionnelle : application à des modèles de choix discret

Amegble, Koami Dzigbodi 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015 / Dans ce travail, nous étudions la performance statistique (taille et puissance) en échantillon fini de deux tests non paramétriques de spécification pour densité conditionnelle proposés par Fan et al. (2006) et Li et Racine (2013). Ces tests permettent de vérifier si les probabilités conditionnelles postulées dans les modèles de choix discret (logit/probit multinomial à effets fixes ou aléatoires, estimateur de Klein et Spady (1993), etc) représentent correctement les choix observés. Par rapport aux tests existants, cette approche a l’avantage d’offrir une forme fonctionnelle flexible alternative au modèle paramétrique lorsque ce dernier se révèle mal spécifié. Ce modèle alternatif est directement issu de la procédure de test et il correspond au modèle non contraint obtenu par des produits de noyaux continus et discrets. Les deux tests explorés ont une puissance en échantillon fini supérieure aux tests existants. Cette performance accrue s’obtient en combinant une procédure bootstrap et l’utilisation de paramètres de lissage des fonctions noyaux par validation croisée par les moindres carrés. Dans notre application, nous parallélisons les calculs de taille et de puissance, ainsi que l’estimation des fenêtres de lissage, sur un serveur multi-processeurs (Colosse, de Calcul Québec). Nous utilisons des routines "Open MPI" pré-implémentées dans R. Par rapport aux simulations effectuées dans les articles originaux, nous postulons des modèles plus proches de ceux habituellement utilisés dans la recherche appliquée (logit et probit à variance unitaire notamment). Les résultats des simulations confirment les bonnes taille et puissance des tests en échantillon fini. Par contre, les gains additionnels de puissance de la statistique lissée proposée par Li et Racine (2013) se révèlent négligeables dans nos simulations. Mots clés : Bootstrap, choix discret, densité conditionnelle, Monte Carlo, produit de noyaux, puissance, taille.
170

Modélisation de réclamations en assurance générale avec gradient boosting et dépendance

Power, Justine 02 February 2024 (has links)
En assurance générale, la prévision des réclamations est d'une importance capitale. Une modélisation précise des pertes futures permet aux assureurs d'offrir des prix compétitifs, de cibler les assurés les plus profitables et de conserver leur solidité financière. Le domaine de l'assurance étant en constante évolution, les actuaires doivent trouver des moyens de raffiner leurs modèles prédictifs. Dans ce mémoire, on propose un modèle hiérarchique qui améliore les modèles classiques sur deux aspects. D'abord, on considère la dépendance entre les occurrences de paiements sous différentes couvertures avec une distribution multinomiale, et entre les montants payés à l'aide de copules. Ensuite, on choisit XGBoost, une implémentation populaire du gradient boosting, pour effectuer des prévisions avec des variables explicatives, alors que la plupart des modèles actuariels utilisent les modèles linéaires généralisés. La méthode est illustrée sur un jeu de données de réclamations en assurance auto fourni par une grande compagnie d'assurance canadienne. Le nombre important d'observations et de variables explicatives justifient l'utilisation de XGBoost, qui est particulièrement efficace avec de gros jeux de données. La structure des données motive divers aspects du modèle lui procurant une flexibilité, notamment en permettant à la combinaison de couvertures payées pour une même réclamation d'influencer les relations de dépendance. Pour l'inférence sur les copules, on utilise les méthodes basées sur les rangs. Puisque la validité des estimateurs basés sur les rangs de résidus de XGBoost n'a pas été montrée dans la littérature, on étudie leur performance par simulation. On applique notre modèle sur des données test et en comparant les résultats avec ceux d'un modèle supposant l'indépendance, on remarque que notre modèle permet d'obtenir une meilleure segmentation des assurés, en plus de répliquer de manière plus adéquate la stochasticité globale des données. / In general insurance, predicting future claims is of prime importance. A precise claim modeling allows insurers to offer the best prices possible, to target the most profitable policies and to remain financially sound. As insurance evolves constantly, one of the main challenges for actuaries is to find ways to refine their models. The goal of this thesis is to propose a hierarchical claim model that improves classical methods on two levels. First, we consider dependence between occurrences of payment for different coverages with a multinomial distribution, and between paid amounts using copulas. Second, to perform prediction with covariates, we choose XGBoost, a popular implementation of gradient boosting, while most of the actuarial models in the literature use generalized linear models. We fit our model on an auto insurance dataset from a Canadian insurer. The use of XGBoost, that is particularly well suited for large datasets, is justified by the large number of observations and covariates available. The structure of our data motivates several components of our model that add flexibility, by allowing the combination of coverages paid on a claim to have an effect on the dependence relationships. We use rank-based methods for copula inference since they offer many benefits. The validity of the methods based on ranks of gradient boosting residuals has not been demonstrated, so we assess this with simulations. We show some applications of our model and compare it with an independence model. Results suggest that with the added dependence components of our model, we achieve a better segmentation of the insureds portfolio and replicate the global stochasticity of the data more accurately.

Page generated in 0.0175 seconds