151 |
Analyse probabiliste du risque du stockage de déchets radioactifs par la méthode des arbres d'événements continusSmidts, Olivier 23 October 1997 (has links)
Les études du risque du stockage de déchets radioactifs comprennent, comme toute étude du risque, un traitement de l'incertitude. L'outil de calcul du risque, appelé outil PRA (Probabilistic Risk Assessment), est formé d'un code de calcul d'écoulement des eaux souterraines et de transport de chaînes de radionucléides. Ce type d'outil est essentiel pour l'évaluation de performance de la barrière géologique. Le manque de connaissances au sujet de la variabilité (dans l'espace et le temps) des propriétés hydrogéologiques de cette barrière est la raison primaire de l'incertitude et des méthodes stochastiques ont été développées en hydrogéologie pour le traiter.
Dans cette thèse, l'analyse d'incertitude liée à la composition du milieu géologique est partagée entre l'écoulement et le transport de la manière suivante: a) une solution moyenne de l'écoulement est tout d'abord déterminée à l'aide d'un code basé sur la méthode des différences finies. Cette solution est ensuite soumise à une analyse de sensibilité. Cette analyse débouche sur la résolution d'un problème inverse afin d'améliorer l'estimation initiale des paramètres moyens d'écoulement; b) l'effet de la variation aléatoire de la vitesse d'écoulement est envisagé lors du transport des radionucléides. Le transport est résolu à l'aide d'une méthode Monte Carlo non analogue.
L'analyse de sensibilité du problème d'écoulement est réalisée à l'aide d'une méthode variationnelle. La méthode proposée a comme avantage celui de pouvoir quantifier l'incertitude de structure; c'est-à-dire l'incertitude liée à la géométrie du milieu géologique.
Une méthodologie Monte Carlo non analogue est utilisée pour le transport de chaînes de radionucléides en milieu stochastique. Les apports de cette méthodologie pour le calcul du risque reposent sur trois points:
1) L'utilisation d'une solution de transport simple (sous la forme d'une solution adjointe) dans les mécanismes de la simulation Monte Carlo. Cette solution de transport permet de résumer, entre deux positions successives du marcheur aléatoire, les processus chimicophysiques (advection, diffusion-dispersion, adsorption, désorption,...) apparaissant à l'échelle microscopique. Elle rend possible des simulations efficaces de transport en accélérant les mécanismes de transition des marcheurs aléatoires dans le domaine géologique et dans le temps.
2) L'application de la méthode des arbres d'événements continus au transport de chaînes de radionucléides. Cette méthode permet d'envisager les transitions radioactives entre éléments d'une chaîne selon un même formalisme que celui qui prévaut pour les simulations de transport d'un radionucléide unique. Elle permet donc de passer du transport d'un radionucléide au transport d'une chaîne de radionucléides sans coûts supplémentaires en temps de calcul et avec un coût supplémentaire en mémoire limité.
3) L'application de techniques dites de "double randomization" au problème de transport de radionucléides dans un milieu géologique stochastique. Ces techniques permettent de combiner efficacement une simulation Monte Carlo de paramètres avec une simulation Monte Carlo de transport et ainsi d'inclure l'incertitude associée à la composition du milieu géologique explicitement dans le calcul du risque.
Il ressort de ce travail des perspectives prometteuses de développements ultérieurs de la méthodologie Monte Carlo non analogue pour le calcul du risque.
|
152 |
Sur l'estimation du rapport de deux paramètres d'intensité poissonniens et l'estimation par fonctions de masse prédictivesChabot, Myriam January 2016 (has links)
Ce mémoire est consacré à l'étude du modèle statistique bivarié duquel sont issues deux variables aléatoires conditionnellement indépendantes de loi de Poisson, dont les taux ne sont pas nécessairement égaux. Tout au long de ce mémoire, l'emphase est mise sur le développement d'un cadre bayésien au problème d'estimation paramétrique pour un tel modèle. Deux thèmes principaux y sont abordés : l'inférence statistique du rapport des deux paramètres d'intensité poissonniens et les densités prédictives. Ces problèmes surviennent notamment dans le contexte d'estimation de l'efficacité d'un vaccin développé par Laurent (Laurent, 2012) de même que Laurent et Legrand (Laurent et Legrand, 2012), ou encore, par celui d'estimation de l'efficacité d'un traitement contre le cancer par Lindley (Lindley, 2002). Alors que, dans ces articles, aucune contrainte paramétrique n'est imposée sur le rapport des deux taux poissonniens, une partie du mémoire abordera également ces thèmes lorsqu'il y a une contrainte restreignant le domaine du rapport sur l'intervalle $[0,1]$. Il sera alors possible d'établir des liens avec un article sur les files d'attente d'Armero et Bayarri (Armero et Bayarri, 1994).
|
153 |
Approches intégrées du génome et du transcriptome dans les maladies complexes humaines / Integrated approaches of genome and transcriptome in the study of human complex diseasesRotival, Maxime 16 June 2011 (has links)
Cette thèse a pour objet l'étude du lien génotype-transcriptome et de son influence sur le développement des maladies multifactorielles. Les apports de ce travail sont à la fois méthodologiques et appliqués. Nous étudions d'abord le lien génotype-transcriptome en établissant la liste des eQTL (expression Quantitative Trait Loci) dans le monocyte et nous évaluons l'apport de l'observation des eQTL pour l'interprétation des analyses d'association génome entier (GWAS). Nous proposons ensuite une méthode pour l'identification de variants génétiques affectant des modules de gènesco-régulés que nous appliquons à l'étude des données d'expression de monocytes issus d'une large étude populationnelle (GHS). Nous mettons ainsi en évidence plusieurs loci affectant l'expression de modules de gènes co-régulés, dont plusieurs sont impliqués dans la prédisposition au diabète de type I. Nous montrons également que le processus d'isolation des cellules monocytaires peut engendrer des biais liés à la contamination par des types cellulaires non désirés et nous proposons une approche pour contrôler ce type de biais dans les analyses. / This thesis deals with the study of the relation between genotype and expression and its influence on the development of complex diseases. This work brings both methodological and applied results.First, we study the relation between genotype and transcriptome by establishing a database of eQTL (expression quantitative Trait Loci) in monocytes and we evaluate the contribution of eQTL for the interpretation of results from Genome Wide Association Studies (GWAS).We then provide a methodology for the identi_cation of genetic polymorphisms regulating modules of co-expressed genes that we apply to a large scale populationnal study of the monocyte transcriptome.We thus identify several loci associated with modules of co-regulated genes, several of which are involved in the susceptibility to type I diabetes. We also show that the isolation of monocytes can induce complex bias through contamination from unwanted cell types and we provide a method to control for such bias in the analysis.
|
154 |
Forêts aléatoires : aspects théoriques, sélection de variables et applicationsGenuer, Robin 24 November 2010 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de l'apprentissage statistique et est consacrée à l'étude de la méthode des forêts aléatoires, introduite par Breiman en 2001. Les forêts aléatoires sont une méthode statistique non paramétrique, qui s'avère être très performante dans de nombreuses applications, aussi bien pour des problèmes de régression que de classification supervisée. Elles présentent également un bon comportement sur des données de très grande dimension, pour lesquelles le nombre de variables dépasse largement le nombre d'observations. Dans une première partie, nous développons une procédure de sélection de variables, basée sur l'indice d'importance des variables calculée par les forêts aléatoires. Cet indice d'importance permet de distinguer les variables pertinentes des variables inutiles. La procédure consiste alors à sélectionner automatiquement un sous-ensemble de variables dans un but d'interprétation ou de prédiction. La deuxième partie illustre la capacité de cette procédure de sélection de variables à être performante pour des problèmes très différents. La première application est un problème de classification en très grande dimension sur des données de neuroimagerie, alors que la seconde traite des données génomiques qui constituent un problème de régression en plus petite dimension. Une dernière partie, théorique, établit des bornes de risque pour une version simplifiée des forêts aléatoires. Dans un contexte de régression, avec une seule variable explicative, nous montrons d'une part que les estimateurs associés à un arbre et à une forêt atteignent tous deux la vitesse minimax de convergence, et d'autre part que la forêt apporte une amélioration en réduisant la variance de l'estimateur d'un facteur de trois quarts.
|
155 |
A priori structurés pour l'apprentissage supervisé en biologie computationnelleJacob, Laurent 25 November 2009 (has links) (PDF)
Les méthodes d'apprentissage supervisé sont utilisées pour construire des fonctions prédisant efficacement le comportement de nouvelles entités à partir de données observées. Elles sont de ce fait très utiles en biologie computationnelle, où elles permettent d'exploiter la quantité grandissante de données expérimentales disponible. Dans certains cas cependant, la quantité de données disponible n'est pas suffisante par rapport à la complexité du problème d'apprentissage. Heureusement ce type de problème mal posé n'est pas nouveau en statistiques. Une approche classique est d'utiliser des méthodes de régularisation ou de manière équivalente d'introduire un a priori sur la forme que la fonction devrait avoir. Dans cette thèse, nous proposons de nouvelles fonctions de régularisation basées sur la connaissance biologique de certains problèmes. Dans le contexte de la conception de vaccins ou de médicaments, nous montrons comment l'utilisation du fait que les cibles similaires lient des ligands similaires permet d'améliorer sensiblement les prédictions pour les cibles ayant peu ou n'ayant pas de ligands connus. Nous proposons également une fonction prenant en compte le fait que seuls certains groupes inconnus de cibles partagent leur comportement de liaison. Finalement, dans le cadre de la prédiction de métastase de tumeurs à partir de données d'expression, nous construisons une fonction de régularisation favorisant les estimateurs parcimonieux dont le support est une union de groupes de gènes potentiellement chevauchants définis a priori, ou un ensemble de gènes ayant tendance à être connectés sur un graphe défini a priori.
|
156 |
Contributions à l'apprentissage statistique en grande dimension, adaptatif et sur données atypiquesBouveyron, Charles 29 November 2012 (has links) (PDF)
Ce mémoire rend compte de mes activités de recherche depuis ma thèse de doctorat. Mes travaux s'inscrivent dans le cadre de l'apprentissage statistique et s'articulent plus précisément autour des quatre thématiques suivantes: * apprentissage statistique en grande dimension, * apprentissage statistique adaptatif, * apprentissage statistique sur données atypiques, * applications de l'apprentissage statistique. Mes contributions à ces quatre thématiques sont décrites en autant de chapitres, numérotés de 2 à 5, pouvant être lus indépendamment. Ce mémoire se veut également être, en quelque sorte, un plaidoyer pour l'usage des méthodes génératives (reposant sur un modèle probabiliste) en apprentissage statistique moderne. Il sera en effet démontré dans ce document, je l'espère de façon convaincante, que les méthodes génératives peuvent résoudre efficacement les problèmes actuels de l'apprentissage statistique tout en présentant l'avantage de l'interprétabilité des résultats et de la connaissance du risque de prédiction.
|
157 |
Utilisation des notions de dépendance faible en statistiqueWintenberger, Olivier 11 June 2007 (has links) (PDF)
La dépendance faible est un outil très performant pour obtenir des résultats asymptotiques en statistique des séries chronologiques. Son atout majeur est de résumer les propriétés de dépendance de très nombreux modèles via le comportement d'une suite de coefficients. Dans un problème où le modèle n'est pas clairement identifiable, des hypothèses sur les coefficients de dépendance faible sont parfois moins contraignantes que le choix d'un modèle. De plus, pour certains modèles causaux, la dépendance faible permet d'étudier les propriétés de dépendance là où toutes les autres notions (de mélange par exemple) échouent. Les coefficients permettent d'élargir aux séries chronomogiques des résultats asymptotiques classiques du cas de référence, celui d'observations indépendantes.
|
158 |
Méthodes de Bootstrap en population finieChauvet, Guillaume Carbon, Michel January 2008 (has links)
Thèse de doctorat : Statistiques : Rennes 2 : 2007. / Bibliogr. p. 205.Table des figures.
|
159 |
Propriétés et extensions de la classification de variables autour de composantes latentes application en évaluation sensorielle /Sahmer, Karin Carbon, Michel Kunert, Joachim January 2007 (has links)
Thèse de doctorat : Statistiques : Rennes 2 : 2006. Thèse de doctorat : Fachbereich Statistik : Universität Dortmund : 2006. / Thèse soutenue en co-tutelle. Bibliogr. f. 63-64. Annexes.
|
160 |
L'impact des méthodes de traitement des valeurs manquantes sur les qualités psychométriques d'échelles de mesure de type LikertRousseau, Michel, January 1900 (has links) (PDF)
Thèse (Ph. D.)--Université Laval, 2006. / Titre de l'écran-titre (visionné le 28 mars 2007). Bibliogr.
|
Page generated in 0.0609 seconds