• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 7
  • 2
  • Tagged with
  • 20
  • 20
  • 12
  • 11
  • 9
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Sur les intervalles de confiance bayésiens pour des espaces de paramètres contraints et le taux de fausses découvertes

Bahamyirou, Asma January 2015 (has links)
Ce mémoire traite deux problèmes : en premier lieu, l'estimation paramétrique par intervalle dans un contexte où il y a des contraintes sur le paramètre et, en deuxième lieu la probabilité de fausses découvertes lorsqu'on réalise simultanément plusieurs tests d'hypothèses. Dans le premier chapitre, nous faisons un rappel sur les notions de base de l'inférence statistique à savoir l'estimation ponctuelle et par intervalle. Dans le deuxième chapitre, nous abordons la théorie de l'estimation par intervalle de confiance bayésien décrit dans [10]. Des résultats nouveaux sont présentés dans ce chapitre. Des travaux partiels (voir [7]), montrent que la probabilité de recouvrement fréquentiste est faible aux frontières de l'intervalle. Comparé à ces derniers, nous avons montré sous certaines conditions que cette probabilité n'ira jamais au delà d'une borne supérieure qui semble éloignée de la crédibilité. Finalement, au Chapitre 4, nous traitons des estimateurs de la probabilité de fausses découvertes. Des améliorations significatives ont été faites dans ce cadre.
2

Inférence rétrospective de réseaux de gènes à partir de données génomiques temporelles

Rau, Andrea 01 June 2010 (has links) (PDF)
Les réseaux de gènes régulateurs représentent un ensemble de gènes qui interagissent, directement ou indirectement, les uns avec les autres ainsi qu'avec d'autres produits cellulaires. Comme ces interactions réglementent le taux de transcription des gènes et la production subséquente de protéines fonctionnelles, l'identification de ces réseaux peut conduire à une meilleure compréhension des systèmes biologiques complexes. Les technologies telles que les puces à ADN (microarrays) et le séquençage à ultra-haut débit (RNA sequencing) permettent une étude simultanée de l'expression des milliers de gènes chez un organisme, soit le transcriptome. En mesurant l'expression des gènes au cours du temps, il est possible d'inférer (soit "reverse-engineer") la structure des réseaux biologiques qui s'impliquent pendant un processus cellulaire particulier. Cependant, ces réseaux sont en général très compliqués et difficilement élucidés, surtout vu le grand nombre de gènes considérés et le peu de répliques biologiques disponibles dans la plupart des données expérimentales.<br /> <br /> Dans ce travail, nous proposons deux méthodes pour l'identification des réseaux de gènes régulateurs qui se servent des réseaux Bayésiens dynamiques et des modèles linéaires. Dans la première méthode, nous développons un algorithme dans un cadre bayésien pour les modèles linéaires espace-état (state-space model). Les hyperparamètres sont estimés avec une procédure bayésienne empirique et une adaptation de l'algorithme espérance-maximisation. Dans la deuxième approche, nous développons une extension d'une méthode de Approximate Bayesian Computation basé sur une procédure de Monte Carlo par chaînes de Markov pour l'inférence des réseaux biologiques. Cette méthode échantillonne des lois approximatives a posteriori des interactions gène-à-gène et fournit des informations sur l'identifiabilité et le robustesse des structures sous-réseaux. La performance des deux approches est étudié via un ensemble de simulations, et les deux sont appliqués aux données transcriptomiques.
3

Détection en Environnement non Gaussien

Jay, Emmanuelle 14 June 2002 (has links) (PDF)
Les échos radar provenant des diverses réflexions du signal émis sur les éléments de l'environnement (le fouillis) ont longtemps été modélisés par des vecteurs Gaussiens. La procédure optimale de détection se résumait alors en la mise en oeuvre du filtre adapté classique.<br />Avec l'évolution technologique des systèmes radar, la nature réelle du fouillis s'est révélée ne plus être Gaussienne. Bien que l'optimalité du filtre adapté soit mise en défaut dans pareils cas, des techniques TFAC (Taux de Fausses Alarmes Constant) ont été proposées pour ce détecteur, dans le but d'adapter la valeur du seuil de détection aux multiples variations locales du fouillis. Malgré leur diversité, ces techniques se sont avérées n'être ni robustes ni optimales dans ces situations.<br />A partir de la modélisation du fouillis par des processus complexes non-Gaussiens, tels les SIRP (Spherically Invariant Random Process), des structures optimales de détection cohérente ont pu être déterminées. Ces modèles englobent de nombreuses lois non-Gaussiennes, comme la K-distribution ou la loi de Weibull, et sont reconnus dans la littérature pour modéliser de manière pertinente de nombreuses situations expérimentales. Dans le but d'identifier la loi de leur composante caractéristique qu'est la texture, sans a priori statistique sur le modèle, nous proposons, dans cette thèse, d'aborder le problème par une approche bayésienne. <br />Deux nouvelles méthodes d'estimation de la loi de la texture en découlent : la première est une méthode paramétrique, basée sur une approximation de Padé de la fonction génératrice de moments, et la seconde résulte d'une estimation Monte Carlo. Ces estimations sont réalisées sur des données de fouillis de référence et donnent lieu à deux nouvelles stratégies de détection optimales, respectivement nommées PEOD (Padé Estimated Optimum Detector) et BORD (Bayesian Optimum Radar Detector). L'expression asymptotique du BORD (convergence en loi), appelée le "BORD Asymptotique", est établie ainsi que sa loi. Ce dernier résultat permet d'accéder aux performances théoriques optimales du BORD Asymptotique qui s'appliquent également au BORD dans le cas où la matrice de corrélation des données est non singulière.<br />Les performances de détection du BORD et du BORD Asymptotique sont évaluées sur des données expérimentales de fouillis de sol. Les résultats obtenus valident aussi bien la pertinence du modèle SIRP pour le fouillis que l'optimalité et la capacité d'adaptation du BORD à tout type d'environnement.
4

Utilisation des ondelettes de Haar en estimation bayésienne

Leblanc, Alexandre January 2001 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
5

MODÉLISATION ET ANALYSE STATISTIQUE DES PLANS D'EXPÉRIENCE SÉQUENTIELS

Yousfi Elqasyr, Khadija 18 November 2008 (has links) (PDF)
Cette thèse est composée de deux parties. La première partie porte sur l'étude de plans d'expérience séquentiels appliqués aux essais cliniques. Nous étudions la modélisation de ces plans. Nous développons une généralisation de la règle \Play-The-Winner”. Des résultats théoriques et numériques montrent que cette généralisation conduit à des plans plus performants que les plans qui ont été récemment développés, dans le cadre des modèles d'urne de Freedman, et qui sont une généralisation de la règle \Play-The-Winner randomisée” ou d'une version modifiée de cette règle. Dans la deuxième partie, nous développons des méthodes d'inférence pour analyser les données des différents plans séquentiels considérés. Dans le cas de deux traitements, et pour la règle \play-the-winner”, nous explicitons les distributions d'échantillonnage et leurs moments factoriels. Nous en dérivons des procédures d'inférence fréquentistes (tests et intervalles de confiance conditionnels notamment) et bayésiennes non informatives. Dans le cadre bayésien, pour une classe de lois a priori convenablement choisie, sont dérivées explicitement les distributions a posteriori et les intervalles de crédibilité des paramètres d'intérêt, ainsi que les distributions prédictives. Le lien entre les tests conditionnels et les procédures bayésiennes est explicité. Les méthodes bayésiennes sont généralisées pour traiter des plans plus complexes (plusieurs traitements et/ou prise en compte de réponses différées). Des simulations montrent que les propriétés fréqentistes des procédures bayésiennes non informatives sont remarquables.
6

Méthodes d'aide à la décision thérapeutique dans les cas des maladies rares : intérêt des méthodes bayésiennes et application à la maladie de Horton / Methods to support clinical decision making in rare diseases : interest of Bayesian methods and application to Horton's disease

Hajj, Paméla El 29 September 2017 (has links)
Les maladies rares sont celles qui touchent un nombre restreint de personnes. Par conséquent, des problèmes spécifiques sont dus par cette rareté.Pour cette raison nous avons systématiquement recherché dans la littérature les publications concernant les caractéristiques des différentes méthodes mathématiques qui ont été utilisées pour l'étude des maladies rares. L'objectif est d'identifier des approches novatrices pour la recherche qui ont été, ou peuvent être, utilisées afin de surmonter les difficultés méthodologiques inhérentes à l'étude des maladies rares.Les méthodes bayésiennes sont recommandées par plusieurs auteurs et dans le cas de ces méthodes il faut introduire une loi informative a priori sur l'effet inconnu du traitement.La détermination de la loi a priori dans le modèle bayésien est difficile. Nous avons travaillé sur les méthodes qui permettent de déterminer de la loi a priori en incluant la possibilité de considérer des informations provenant des études historiques et/ou des données provenant d'autres études "voisines".D'une part, on décrit un modèle bayésien qui a pour but de vérifier l'hypothèse de non-infériorité de l'essai qui repose sur l'hypothèse que le méthotrexate est plus efficace que le corticostéroïde seul.D'autre part, notre travail de thèse se repose sur la méthode epsilon- contamination, qui se base sur le principe de contaminer une loi a priori pas entièrement satisfaisante par une série de lois provenant des informations d'autres études ayant même pathologie de maladie, même traitement ou même population.Enfin, toutes les informations a priori peuvent être résumées par la distribution a priori déterminer à partir des opinions d'experts, leur avis sont recueillis lors d'une réunion où ils ont répondu à un questionnaire qui montre leurs a priori sur les paramètres du modèle bayésien. / In recent years, scientists have difficulties to study rare diseases by conventional methods, because the sample size needed in such studies to meet a conventional frequentist power is not adapted to the number of available patients. After systemically searching in literature and characterizing different methods used in the contest of rare diseases, we remarked that most of the proposed methods are deterministic and are globally unsatisfactory because it is difficult to correct the insufficient statistical power.More attention has been placed on Bayesian models which through a prior distribution combined with a current study enable to draw decisionsfrom a posterior distribution. Determination of the prior distribution in a Bayesian model is challenging, we will describe the process of determining the prior including the possibility of considering information from some historical controlled trials and/or data coming from other studies sufficiently close to the subject of interest.First, we describe a Bayesian model that aims to test the hypothesis of the non-inferiority trial based on the hypothesis that methotrexate is more effective than corticosteroids alone.On the other hand, our work rests on the use of the epsilon-contamination method, which is based on contaminating an a priori not entirely satisfactory by a series of distributions drawn from information on other studies sharing close conditions,treatments or even populations. Contamination is a way to include the proximity of information provided bythese studies.
7

Le rôle des gaz à effet de serre dans les variations climatiques passées : une approche basée sur des chronologies précises des forages polaires profonds / The role of greenhouse gases in past climatic variations : an approach based on accurate chronologies of deep polar ice cores

Beeman, Jai Chowdhry 21 October 2019 (has links)
Les forages polaires profonds contiennent des enregistrements des conditions climatiques du passé et de l'air piégé qui témoignent des compositions atmosphériques du passé, notamment des gaz à effet de serre. Cette archive nous permet de décrypter le rôle des gaz à effet de serre dans les variations climatiques pendant huit cycles glaciaire-interglaciaires, soit l'équivalent de plus de 800 000 ans. Les carottes de glace, comme toute archive paléoclimatique, sont caractérisées par des incertitudes liées aux processus qui traduisent les variables climatiques en proxy, ainsi que par des incertitudes dues aux chronologies de la glace et des bulles d'air piégées. Nous développons un cadre méthodologique, basé sur la modélisation inverse dite Bayesienne et l'évaluation de fonctions complexes de densité de probabilité, pour traiter les incertitudes liées aux enregistrements paléoclimatiques des carottes de glace de manière précise. Nous proposons deux études dans ce cadre. Pour la première étude, nous identifions les probabilités de localisation des points de changement de pente de l'enregistrement du CO2 dans la carotte de WAIS Divide et d'un stack d'enregistrements de paléotempérature a partir de cinq carottes Antarctiques avec des fonctions linéaires par morceaux. Nous identifions aussi les probabilités pour chaque enregistrement individuel de température. Cela nous permet d'examiner les changements de pente à l'échelle millénaire dans chacune des séries, et de calculer les déphasages entre les changements cohérents. Nous trouvons que le déphasage entre la température en Antarctique et le CO2 à probablement varié (en restant inferieur, generalement, à 500 ans) lors de la déglaciation. L'âge des changements de temperature varie probablement entre les sites de carottage aussi. Ce résultat indique que les mécanismes qui reliaient la température en Antarctique et le CO2 lors de la déglaciation pouvaient être differents temporellement et spatialement. Dans la deuxième étude nous développons une méthode Bayesienne pour la synchronisation des carottes de glace dans le modèle inverse chronologique IceChrono. Nos simulations indiquent que cette méthode est capable de synchroniser des séries de CH4 avec précision, tout en prenant en compte des observations chronologiques externes et de l'information à priori sur les caractéristiques glaciologiques aux sites de forage. La méthode est continue et objective, apportant de la précision à la synchronisation des carottes de glace. / Deep polar ice cores contain records of both past climate and trapped air that reflects past atmospheric compositions, notably of greenhouse gases. This record allows us to investigate the role of greenhouse gases in climate variations over eight glacial-interglacial cycles. The ice core record, like all paleoclimate records, contains uncertainties associated both with the relationships between proxies and climate variables, and with the chronologies of the records contained in the ice and trapped air bubbles. In this thesis, we develop a framework, based on Bayesian inverse modeling and the evaluation of complex probability densities, to accurately treat uncertainty in the ice core paleoclimate record. Using this framework, we develop two studies, the first about Antarctic Temperature and CO2 during the last deglaciation, and the second developing a Bayesian synchronization method for ice cores. In the first study, we use inverse modeling to identify the probabilities of piecewise linear fits to CO2 and a stack of Antarctic Temperature records from five ice cores, along with the individual temperature records from each core, over the last deglacial warming, known as Termination 1. Using the nodes, or change points in the piecewise linear fits accepted during the stochastic sampling of the posterior probability density, we discuss the timings of millenial-scale changes in trend in the series, and calculate the phasings between coherent changes. We find that the phasing between Antarctic Temperature and CO2 likely varied, though the response times remain within a range of ~500 years from synchrony, both between events during the deglaciation and accross the individual ice core records. This result indicates both regional-scale complexity and modulations or variations in the mechanisms linking Antarctic temperature and CO2 accross the deglaciation. In the second study, we develop a Bayesian method to synchronize ice cores using corresponding time series in the IceChrono inverse chronological model. Tests show that this method is able to accurately synchronize CH4 series, and is capable of including external chronological observations and prior information about the glaciological characteristics at the coring site. The method is continuous and objective, bringing a new degree of accuracy and precision to the use of synchronization in ice core chronologies.
8

Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes

Nembot Simo, Annick Joëlle 01 1900 (has links)
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés. / We propose a method for analysing count or Poisson data based on the procedure called Poisson Regression Interactive Multilevel Modeling (PRIMM) introduced by Christiansen and Morris (1997). The Poisson regression in the PRIMM method has fixed effects only, whereas our model incorporates random effects. As well as Christiansen and Morris (1997), the model studied aims at doing inference based on adequate analytical approximations of posterior distributions of the parameters. This avoids the use of computationally expensive methods such as Markov chain Monte Carlo (MCMC) methods. The approximations are based on the Laplace's method and asymptotic theory. Estimates of Poisson mixed effects regression parameters are obtained through the maximization of their joint posterior density via the Newton-Raphson algorithm. This study also provides the first two posterior moments of the Poisson parameters involved. The posterior distributon of these parameters is approximated by a gamma distribution. Applications to two datasets show that our model can be somehow considered as a generalization of the PRIMM method since it also allows clustered count data. Finally, the model is applied to data involving many types of adverse events recorded by the participants of a drug clinical trial which involved a quadrivalent vaccine containing measles, mumps, rubella and varicella. The Poisson regression incorporates the fixed effect corresponding to the covariate treatment/control as well as a random effect associated with the biological system of the body affected by the adverse events.
9

Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes

Nembot Simo, Annick Joëlle 01 1900 (has links)
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés. / We propose a method for analysing count or Poisson data based on the procedure called Poisson Regression Interactive Multilevel Modeling (PRIMM) introduced by Christiansen and Morris (1997). The Poisson regression in the PRIMM method has fixed effects only, whereas our model incorporates random effects. As well as Christiansen and Morris (1997), the model studied aims at doing inference based on adequate analytical approximations of posterior distributions of the parameters. This avoids the use of computationally expensive methods such as Markov chain Monte Carlo (MCMC) methods. The approximations are based on the Laplace's method and asymptotic theory. Estimates of Poisson mixed effects regression parameters are obtained through the maximization of their joint posterior density via the Newton-Raphson algorithm. This study also provides the first two posterior moments of the Poisson parameters involved. The posterior distributon of these parameters is approximated by a gamma distribution. Applications to two datasets show that our model can be somehow considered as a generalization of the PRIMM method since it also allows clustered count data. Finally, the model is applied to data involving many types of adverse events recorded by the participants of a drug clinical trial which involved a quadrivalent vaccine containing measles, mumps, rubella and varicella. The Poisson regression incorporates the fixed effect corresponding to the covariate treatment/control as well as a random effect associated with the biological system of the body affected by the adverse events.
10

Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations

Sedki, Mohammed 31 October 2012 (has links) (PDF)
Cette thèse propose et étudie deux techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. Dans ce contexte, la vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comporte des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus par cette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et on supposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise une approximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de Del Moral et al. que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveaux d'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simula- tions par rapport à la méthode ABC avec acceptation couramment utilisée.

Page generated in 0.0782 seconds