1 |
Intégration de la réalité diploïde et des modèles de pénétrance à une méthode de cartographie génétique fineBoucher, Gabrielle January 2009 (has links) (PDF)
Nous présentons dans ce mémoire des outils permettant de généraliser une méthode de cartographie génétique fine. Nous y résumons les concepts de base de la statistique
génétique et y décrivons aussi la méthode de cartographie génétique fine que nous cherchons à généraliser en permettant l'utilisation de génotypes plutôt que d'haplotypes. Pour ce faire, nous comparons diverses méthodes reconnues d'estimation d'haplotypes. Le développement nouveau de ce travail consiste en un algorithme EM conditionnel aux phénotypes permettant d'estimer les haplotypes associés à un échantillon de génotype, ainsi que le statut au gène causal du caractère étudié. Nous généralisons la méthode de cartographie par l'ajout d'étapes au modèle d'échantillonnage pondéré. Nous effectuons finalement quelques tests par simulation. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Algorithme EM, Cartographie génétique, Coalescence, Diplotype, Échantillonnage pondéré, Estimation, Génotype, Gène causal, Haplotype, Modèle de pénétrance, Phénotype, Vraisemblance composite.
|
2 |
Étude de la performance d'un test d'association génétique pour des données familiales de survie en présence d'un biais de sélectionTessier, Maxime 23 March 2024 (has links)
Dans Leclerc et al. (2015, Genetic Epidemiology, 39 (6), 406-414), un test d’association entre un ensemble de variants génétiques et des phénotypes censurées en présence de dépendance familiale est proposé. Ce test a été implémenté dans une librairie R nommée gyriq. Dans ce mémoire de maîtrise, nous évaluons par simulations la performance de ce test en présence d’un biais de sélection dû au protocole de collecte de données. En effet, dans plusieurs situations, les données médicales d’une famille sont considérées si et seulement si un membre particulier de cette famille, appelé proband, est diagnostiqué de l’évènement d’intérêt au moment de son examen médical. Nous développons plusieurs stratégies pour générer des données biaisées selon ce protocole. Nous examinons l’erreur de type 1 et la puissance du test d’association avec de telles données, en présence d’un ou plusieurs proband et lorsque les proportions d’échantillonnage conservent seulement les familles dont les probands ont développé l’évènement d’intérêt ou lorsqu’on conserve une proportion de cas où les probands n’ont pas eu l’évènement d’intérêt. Nous concluons que le test demeure valide en présence d’un biais de sélection mais que la puissance est réduite dans cette situation. De plus, le test n’est pas valide lorsque l’on inclut des familles où les probands n’ont pas développé l’évènement d’intérêt. / In Leclerc et al. (2015, Genetic Epidemiology, 39 (6), 406-414), an association test between a group of genetic variants and censored phenotypes in presence of intrafamilial correlation is proposed. This test was implemented in a R package named gyriq. In this master’s thesis,we evaluate, with simulations, the performance of this test in presence of a sampling bias which stems from the data collection protocol. Indeed, in many situations, medical data from a family are considered if and only if a particular member of this family, called proband, is diagnosed with the event of interest during his medical exam. We develop multiple strategies to generate biased data according to such data collection protocol. We examine type 1 error and power of the association test in presence of such data, in the cases where there are 1 or more probands and when we sample only families where the probands have the event of interest or when we also sample a small proportion of families where the event has not occured for the probands. We conclude that the association test remains valid in presence of a selection bias but that the test power is diminished. Furthermore, the test is not valid when we include families where the event of interest has not occured for the probands.
|
3 |
L'échantillonnage équilibré par la méthode du cube et la méthode rejectiveOusmane Ida, Ibrahima 24 April 2018 (has links)
Au cours de ces dernières années, les techniques d’échantillonnage équilibré ont connu un regain d’intérêt. En effet, ces techniques permettent de reproduire la structure de la population dans des échantillons afin d’améliorer l’efficacité des estimations. La reproduction de cette structure est effectuée par l’introduction des contraintes aux plans de sondage. Encore récemment, des nouvelles procédures d’échantillonnage équilibré ont été proposées. Il s’agit notamment de la méthode du cube présentée par Deville et Tillé (2004) et de l’algorithme réjectif de Fuller (2009). Alors que la première est une méthode exacte de sélection, la seconde est une approche approximative qui admet une certaine tolérance dans la sélection. Alors, après une brève présentation de ces deux méthodes dans le cadre d’un inventaire de pêcheurs, nous comparons à l’aide de simulations Monte Carlo, les plans de sondage produits par ces deux méthodes. Aussi, cela a été l’occasion pour nous de vérifier si ces méthodes modifient les probabilités de sélection des unités. / In recent years, balanced sampling techniques have experienced a renewed interest. They allow to reproduce the structure of the population in samples in order to improve the efficiency of survey estimates. New procedures have been proposed. These include the cube method, an exact method presented by Deville and Tillé (2004), and an approximate method, the Fuller (2009) rejective algorithm. After a brief presentation of these methods as part of an angler survey, we compare using Monte Carlo simulations, the survey designs produced by these two sampling algorithms. We also use this as an opportunity to check whether these methods modify the inclusion probabilities.
|
4 |
Estimation de la borne supérieur par des approches statistiques et par la méthode de StringerJoubir, Sami January 2010 (has links) (PDF)
Ce mémoire présente de nouvelles approches statistiques pour estimer la borne supérieure d'une population dans un contexte bien particulier, celui de la vérification comptable. Étant donné que dans la plupart des cas on se retrouve avec des échantillons où le nombre d'erreurs est souvent. faible ou nul, les méthodes classiques risquent fort d'être inadéquates.
Dans ce mémoire, nous allons revenir sur quelques méthodes classiques puis présenter différentes méthodes spécifiques proposées par des chercheurs et nous mettrons l'accent sur la méthode de Stringer qui est très utilisée dans la pratique de la profession. Notre objectif est de voir dans quels cas ces méthodes pourraient être plus efficaces que les méthodes classiques. Les propriétés des méthodes classiques sont connues, contrairement à celles des approches spécifiqes où plusieurs d'entre elles n'ont jamais été démontrées et, parmi elles, la méthode de Stringer qui nous intéresse particulièrement. À cet effet, dans le chapitre 3, nous allons faire des simulations pour confirmer les comparaisons théoriques entre les méthodes dont on connait les propriétés et voir les résultats de celles qu'on ne connaît pas. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Échantillonnage, Estimation, Borne supérieure, Méthodes classiques, Méthode de Stringer.
|
5 |
Données probantes ou feuilles de thé ? : de l'importance du principe d'ignorabilité dans la correction du biais de sélectionPoirier, William 19 January 2024 (has links)
Titre de l'écran-titre (visionné le 16 janvier 2024) / Ce mémoire mobilise l'interdisciplinarité des sciences sociales computationnelles afin d'étudier les conséquences d'une approche non probabiliste aux sondages. Spécifiquement, il a pour objectif d'illustrer ce en quoi les sondages « opt-in » sont problématiques et à quel point il est possible de les corriger. Le chapitre 1 aborde les origines du débat concernant le biais de sélection, et établit les bases théoriques et statistiques requises à sa compréhension. Le chapitre 2 est le cœur du mémoire et applique concrètement le principe d'ignorabilité à l'aide de données simulées. On y apprend qu'il n'y a pas de limites théoriques à la capacité de correction de la pondération. Le chapitre 3 mobilise des données réelles afin d'explorer les limites rencontrées en pratiques. Ce dernier développe également le prototype d'une méthode d'analyse de sensibilité des quantités descriptives afin de tester la performance de la correction. / This Master's thesis mobilizes the interdisciplinarity of computational social science to study the consequences of a non-probabilistic approach to surveys. Specifically, it illustrates why opt-in surveys are problematic and how they can be corrected. Chapter 1 addresses the origins of the debate regarding selection bias, and establishes the theoretical and statistical understanding required. Chapter 2 is the heart of the thesis and concretely applies the ignorability principle using simulated data. We learn that there are no theoretical limits to the correction capacity of weighting techniques. Chapter 3 uses real data to explore the limits encountered in practice. The latter also develops a tentative method for sensibility analysis of descriptive quantities in order to test the performance of the correction.
|
6 |
La normalisation d'un test par échantillonnage combiné des items et des sujets : effets sur l'estimation des quatre premiers moments et sur la performance à certains itemsBédard, Roger 25 April 2018 (has links)
Québec Université Laval, Bibliothèque 2014
|
7 |
L'échantillonnage de Gibbs pour l'estimation bayésienne dans l'analyse de survieKhribi, Lotfi January 2007 (has links) (PDF)
Dans ce mémoire, nous étudions l'approche bayésienne dans l'estimation des durées de vie pour des problèmes avec des points de rupture et avec des données censurées. Dans le chapitre 1, nous présentons les deux approches statistiques, l'approche fréquentiste et l'approche bayésienne. Nous montrons les points de ressemblance et de différence entre ces deux approches. Aussi, nous présentons le modèle bayésien hiérarchique avec les méthodes d'estimation Monte-Carlo avec un bref aperçu des méthodes de simulation par chaînes de Markov (MCMC). nous nous intéressons en particulier aux deux algorithmes qui sont utiles pour ces méthodes: il s'agit de l'algorithme Metropolis-Hastings et la méthode d'échantillonnage de Gibbs. Cette dernière a été utilisée par Geman et Geman (84) pour générer des observations à partir d'une distribution de Gibbs (distribution de Boltzmann). Il s'agit d'une forme particulière de méthode de Monte-Carlo par chaîne de Markov qui, du fait de son efficacité, est largement utilisée dans de nombreux domaines d'analyse statistique bayésienne. Nous parlons aussi dans ce chapitre du logiciel BUGS(Bayesian Inference Using Gibbs Sampling). Ce logiciel de programmation a été développé à l'unité MRC de Biostatistique de Cambridge. Il vise à tirer avantage des probabilités de l'échantillonnage de Gibbs dans l'inférence bayésienne sur des systèmes complexes. Dans le chapitre 2, nous abordons quelques concepts nécessaires à l'étude de l'analyse de survie, tels les fonctions de survie et de risque, les différents types de données censurées. Nous parlons aussi des méthodes fréquentistes d'analyse de survie, notamment la méthode de Kaplan-Meier. Nous rappellons aussi comment est déterminée la fonction de vraisemblance d'un modèle bayésien paramétrique de durée avec censure. Le chapitre 3 présente deux méthodes bayésiennes qui seront analysées et implémentées dans le logiciel BUGS. Une méthode qui est semi paramétrique, il s'agit de la méthode de Kalbfteisch. L'autre méthode paramétrique est celle de Carlin, Gelfand et Smith. Nous vérifions, grâce à des simulations, l'efficacité de ces deux méthodes bayésiennes. Deux exemples de simulations seront
traités, un avec données censurées et l'autre avec points de rupture. Nous démontrons principalement que les estimations par simulation et l'inférence bayésienne paramétrique donnent de bons résultats par rapport aux méthodes classiques. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Fonction de survie, Méthodes paramétrique et semi paramétrique bayésiennes, Méthodes de Monte Carlo par chaîne de Markov, Échantillonnage de Gibbs.
|
8 |
Comparaison de modèles de régression logistique utilisés pour l'analyse de données recueillies dans le cadre d'études de type cas-témoins appariés sur le déplacement animalBeauregard, Benjamin 19 April 2018 (has links)
L’étude de la sélection des ressources en fonction du déplacement des animaux est un sujet qui intéresse plusieurs chercheurs en écologie, qui cherchent à prédire comment les ressources disponibles influencent le déplacement des animaux dans un environnement hétérogène. Pour ce faire, une stratégie souvent utilisée consiste à comparer les caractéristiques des lieux visités à celles des lieux disponibles mais non visités à différents instants. Comme l’étendue du territoire des lieux disponibles est généralement imposant, un échantillonnage aléatoire des lieux non-visités devient pratiquement inévitable. Toutefois, une méthode d’échantillonnage non adéquate peut induire un biais dans les inférences. L’échantillonnage des lieux non-visités peut se faire selon une étude longitudinale cas-témoins appariée dont la variable réponse prend la valeur 1 dans le cas d’une ressource sélectionnée et la valeur 0 dans le cas contraire. Un modèle de régression logistique peut donc être ajusté aux données. L’objectif de ce mémoire est d’étudier les avantages et les limites de divers modèles de régression logistique, tout particulièrement le modèle à effets mixtes, dans le cadre d’études cas-témoins appariées. Une étude de simulation ainsi que l’analyse de données réelles nous a permis de comparer les inférences obtenues par le modèle mixte à ceux d’un modèle à effets fixes. Les conclusions observables indiquent que les modèles mixtes sont plus performants que les modèles fixes lorsque le type d’environnement est "homogène" et "très homogène" avec une faible force de sélection, mais rarement dans d’autres situations.
|
9 |
Évaluation et amélioration de l'échantillonnage par lot pour l'assurance de la qualité (LQAS) pour le suivi de programmes d'aide humanitaireDiop, Awa 14 August 2018 (has links)
Introduit par Dodge and Romig [1959] et rendu populaire par Valadez [1991]), le Lot Quality Assurance Sampling (LQAS) est une méthode beaucoup utilisée par les organismes dans le suivi de leurs activités (Robertson and Valadez [2006]). Le LQAS est utilisé dans le contexte comme une approche simple et peu coûteuse pour prendre rapidement des décisions par rapport à l’allocation des ressources. L’approche proposée par Valadez consiste à réaliser le test usuel de la binomiale exacte sur une proportion où on contrôle à la fois les erreurs a et b pour choisir une taille n et un seuil critique c. Pour rendre accessible son utilisation, Valadez et al. [2002] ont développé un manuel des praticiens qui présente une méthodologie d’utilisation du LQAS plus complexe que l’approche proposée par Valadez. Plusieurs problèmes liés à l’utilisation du LQAS en pratique sont identifiés et nous avons évalué leurs impact sur les erreurs de type I et II. Nous avons proposé d’autres solutions comme le test exact de Fisher, le test exact de Barnard, un test basé sur l’approximation par la loi normale avec et sans transformation arcsin( p x) en contrôlant pour chacun de ces tests a et b. Nous avons aussi soulevé le problème de la comparaison multiple et nous avons proposé une correction, celle de Bonferroni. Au terme de l’étude, nous avons développé une application Shiny sur R (https://lqasdesign. shinyapps.io/app1/) pour faciliter la conception et l’analyse selon le LQAS. / Introduced by Dodge and Romig [1959] and popularized by Valadez [1991], Lot Quality Assurance Sampling (LQAS) is a method widely used by tremendous organizations to tracking their activities (Robertson and Valadez [2006]). It is a simple and economical approach which allow them to make quick decisions about resource allocation. The approach proposed by Valadez consists in carrying out the usual exact binomial test on a proportion where we control both the a and b errors to choose a n size and a critical c threshold. In this study, several issues related to the use of LQAS in practice have been identified and we assessed their impact on Type I and Type II errors. Then, we proposed several solutions such as Fisher’s exact test, Barnard’s exact test, as well as a test based on the normal approximation with and without transformation arcsin( p x) by checking for each of them a and b. We also raised the problem of multiple comparison and proposed a correction using the Bonferroni framework. Finally, we developed a Shiny application on R (https://lqasdesign.shinyapps.io/app1/) to facilitate the practical implementation of each these methods.
|
10 |
Estimation et détection de signaux cyclostationnaires par les méthodes de ré-échantillonnage statistique : applications à l'analyse des signaux biomécaniques / Estimation and detection of cyclostationary signals by the mean of statistical resampling methods : applications to the analysis of biomechanical signalsMaiz, Sofiane 04 December 2014 (has links)
Dans le cadre de l’analyse de signaux mécaniques ou biomécaniques les outils d’aide à la décision reposent sur des hypothèses statistiques fortes: loi de probabilité normale, stationnarité des variables, variables centrées, variables indépendantes,…Or ces hypothèses sont parfois non vérifiées et engendrent des décisions erronées. Ce travail a pour objectif de proposer des méthodes qui font abstractions de certaines hypothèses et notamment de la stationnarité et de la gaussiannité des variables aléatoires. Dans cette thèse, nous avons revisité certaines méthodes de ré échantillonnages statistiques et de bootstrap et développé d’autres en incluant la cyclostationnarité des signaux. Ensuite, nous avons appliqué ces méthodes pour l’analyse de signaux biomécaniques provenant de coureurs expérimentés et d’une population de personnes âgées. Les résultats obtenus ont permis de mettre en évidence des changements significatifs dans le contenu fréquentiel du second ordre des signaux étudiés. Ces changements ont été des indicateurs très pertinents pour la description et la caractérisation de la fatigue d’un coureur professionnel, d’une part, et pour la compréhension du mécanisme complexe de la marche à pied simple et avec tâche cognitive chez les personnes âgées d’autre part / In mechanical and biomechanical signal analysis field, the decision support tools are based on strong statistical assumptions such as: normality, stationarity of variables, independence... However, these assumptions are very often unverified, consequently, wrong decisions could be taken. This work aims to propose new methods that make abstractions of such assumptions, including the stationarity and gaussianity of variables. In this thesis, we revisited some statistical resampling methods and developed new bootstrap approaches with including the cyclostationary nature of signals. Next, we applied these methods to the analysis of biomechanical signals from experienced runners and a population of elderly people. The obtained results allowed us to demonstrate significant changes in the second order frequency content of the signals under study. These changes were very relevant indicators for the description and characterization of the fatigue of a high level professional runner. Moreover, these changes helped us to understand the mechanism of normal walking and under a cognitive task condition (double task walking) in elderly
|
Page generated in 0.1174 seconds