• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 10
  • 1
  • Tagged with
  • 10
  • 10
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Développement d’un outil d’évaluation de la pertinence écologique et statistique d’indicateurs de suivi de l’intégrité écologique dans les parcs nationaux du Québec

Trottier, Simon January 2014 (has links)
En date d’avril 2014, il existe au Québec 25 parcs nationaux dédiés à la conservation. La gestion de 23 de ces parcs, situés au sud du 50e parallèle, est assurée par la Société des établissements de plein air du Québec (Sépaq). En 2004, les gestionnaires de la Sépaq ont mis en place le Programme de suivi de l'intégrité écologique (PSIE) dans 22 des parcs nationaux afin de les aider dans leur mission de protection et de conservation des parcs. Ce projet de recherche s’inscrit dans la démarche des gestionnaires de la Sépaq d’améliorer certains aspects du PSIE. L’objectif principal est de développer un outil géomatique permettant d’évaluer la pertinence écologique et statistique des indicateurs d’intégrité écologique du PSIE. L’outil développé porte le nom de Bilan des indicateurs pour l’optimisation du PSIE (BIOPSIE). Dans le cadre du projet, le BIOPSIE a été testé sur les parcs nationaux de Frontenac, de la Jacques-Cartier et du Bic. La méthodologie se divise en trois axes dont les résultats s’analysent en parallèle : l’élaboration d’une cartographie des écosystèmes de parc ainsi que l’évaluation écologique et statistique des indicateurs utilisés. Le BIOPSIE utilise des notions de modèles conceptuels d’écosystèmes, d’échantillonnage par tessellation et de calculs de puissance statistique. Les résultats des calculs de puissance statistique réalisés pour 29 indicateurs, qui réfèrent à la probabilité qu’un changement réel soit décelé dans les données, varient en fonction des paramètres de période de suivi, de changement à déceler et de degré de signification (α) utilisés lors de la simulation. En situation contraignante d’échantillonnage (10 ans, - 2 %, α = 0,1), la puissance des indicateurs étudiés est élevée (supérieure à 80 %) pour quatre d’entre eux, moyenne (entre 50 % et 80 %) pour deux et faible (inférieure à 50 %) pour les 23 autres. En situation plus permissive (20 ans, - 5 %, α = 0,2), la puissance des indicateurs étudiés est élevée pour 23 d’entre eux, moyenne pour quatre et faible pour les deux autres. Le développement du BIOPSIE permet de doter les gestionnaires de la Sépaq d’un outil d’évaluation des indicateurs du PSIE balisé et reproductible. À court terme, la méthodologie développée sera appliquée à l’ensemble des parcs du réseau de la Sépaq. Les résultats obtenus permettront aux gestionnaires de la Sépaq d’améliorer la portée scientifique du PSIE et d’en apprécier les résultats avec plus de réalisme.
2

Étude des déterminants de la puissance statistique en spectrométrie de masse

Jouve, Thomas 03 December 2009 (has links) (PDF)
La spectrométrie de masse fait partie des technologies haut débit et offre à ce titre un regard inédit, à une échelle nouvelle, sur les protéines contenues dans divers échantillons biologiques. Les études biomédicales utilisant cette technologie sont de plus en plus nombreuses et visent à détecter de nouveaux biomarqueurs de différents processus biologiques, notamment de processus pathologiques à l'origine de cancers. Cette utilisation comme outil de criblage pose des questions quant à la capacité même des expériences de spectrométrie de masse dans cette détection. La puissance statistique traduit cette capacité et rappelle que les études doivent être calibrées pour offrir des garanties suffisantes de succès. Toutefois, cette exploration de la puissance statistique en spectrométrie de masse n'a pas encore été réalisée. L'objet de cette thèse est précisément l'étude des déterminants de la puissance pour la détection de biomarqueurs en spectrométrie de masse. Une revue de la littérature a été réalisée, reprenant l'ensemble des étapes nécessaires du traitement du signal, afin de bien comprendre les techniques utilisées. Les méthodes statistiques disponibles pour l'analyse du signal ainsi traité sont revues et mises en perspective. Les situations de tests multiples, qui émergent notamment de ces données de spectrométrie de masse, suggèrent une redéfinition de la puissance, détaillée par la suite. La puissance statistique dépend du plan d'expérience. La taille d'échantillon, la répartition entre groupes étudiés et l'effet différentiel ont été investigués, par l'intermédiaire de simulations d'expériences de spectrométrie de masse. On retrouve ainsi les résultats classiques de la puissance, faisant notamment ressortir le besoin crucial d'augmenter la tailles des études pour détecter des biomarqueurs, particulièrement lorsque ceux-ci présentent un faible effet différentiel. Au delà de ces déterminants classiques de la puissance, des déterminants propres à la spectrométrie de masse apparaissent. Une chute importante de puissance est mise en évidence, due à l'erreur de mesure des technologies de spectrométrie de masse. Une synergie péjorative existe de plus entre erreur de mesure et procédure de contrôle du risque de première espèce de type FDR. D'autre part, les méthodes de détection des pics, par leurs imperfections (faux pics et pics manqués), induisent un contrôle suboptimal de ce risque de première espèce, conduisant à une autre chute de puissance. Ce travail de thèse met ainsi en évidence trois niveaux d'intervention possibles pour améliorer la puissance des études : la meilleure calibration des plans d'expérience, la minimisation de l'erreur de mesure et l'amélioration des algorithmes de prétraitement. La technologie même de spectrométrie de masse ne pourra conduire de façon fiable à la détection de nouveaux biomarqueurs qu'au prix d'un travail à ces trois niveaux.
3

Optimisation des méthodes statistiques d'analyse de la variabilité des caractères à l'aide d'informations génomiques

Jacquin, Laval 10 October 2014 (has links) (PDF)
L’avènement du génotypage à haut débit permet aujourd’hui de mieux exploiter le phénomène d’association, appelé déséquilibre de liaison (LD), qui existe entre les allèles de différents loci sur le génome. Dans ce contexte, l’utilité de certains modèles utilisés en cartographie de locus à effets quantitatifs (QTL) est remise en question. Les objectifs de ce travail étaient de discriminer entre des modèles utilisés en routine en cartographie et d’apporter des éclaircissements sur la meilleure façon d’exploiter le LD, par l’utilisation d’haplotypes, afin d’optimiser les modèles basés sur ce concept. On montre que les modèles uni-marqueur de liaison, développés en génétique il y a vingtaine d’années, comportent peu d’intérêts aujourd’hui avec le génotypage à haut débit. Dans ce contexte, on montre que les modèles uni-marqueur d’association comportent plus d’avantages que les modèles uni-marqueur de liaison, surtout pour des QTL ayant un effet petit ou modéré sur le phénotype, à condition de bien maîtriser la structure génétique entre individus. Les puissances et les robustesses statistiques de ces modèles ont été étudiées, à la fois sur le plan théorique et par simulations, afin de valider les résultats obtenus pour la comparaison de l’association avec la liaison. Toutefois, les modèles uni-marqueur ne sont pas aussi efficaces que les modèles utilisant des haplotypes dans la prise en compte du LD pour une cartographie fine de QTL. Des propriétés mathématiques reliées à la cartographie de QTL par l’exploitation du LD multiallélique capté par les modèles haplotypiques ont été explicitées et étudiées à l’aide d’une distance matricielle définie entre deux positions sur le génome. Cette distance a été exprimée algébriquement comme une fonction des coefficients du LD multiallélique. Les propriétés mathématiques liées à cette fonction montrent qu’il est difficile de bien exploiter le LD multiallélique, pour un génotypage à haut débit, si l’on ne tient pas compte uniquement de la similarité totale entre des haplotypes. Des études sur données réelles et simulées ont illustré ces propriétés et montrent une corrélation supérieure à 0.9 entre une statistique basée sur la distance matricielle et des résultats de cartographie. Cette forte corrélation a donné lieu à la proposition d’une méthode, basée sur la distance matricielle, qui aide à discriminer entre les modèles utilisés en cartographie.
4

Tests non paramétriques de spécification pour densité conditionnelle : application à des modèles de choix discret

Amegble, Koami Dzigbodi 23 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015 / Dans ce travail, nous étudions la performance statistique (taille et puissance) en échantillon fini de deux tests non paramétriques de spécification pour densité conditionnelle proposés par Fan et al. (2006) et Li et Racine (2013). Ces tests permettent de vérifier si les probabilités conditionnelles postulées dans les modèles de choix discret (logit/probit multinomial à effets fixes ou aléatoires, estimateur de Klein et Spady (1993), etc) représentent correctement les choix observés. Par rapport aux tests existants, cette approche a l’avantage d’offrir une forme fonctionnelle flexible alternative au modèle paramétrique lorsque ce dernier se révèle mal spécifié. Ce modèle alternatif est directement issu de la procédure de test et il correspond au modèle non contraint obtenu par des produits de noyaux continus et discrets. Les deux tests explorés ont une puissance en échantillon fini supérieure aux tests existants. Cette performance accrue s’obtient en combinant une procédure bootstrap et l’utilisation de paramètres de lissage des fonctions noyaux par validation croisée par les moindres carrés. Dans notre application, nous parallélisons les calculs de taille et de puissance, ainsi que l’estimation des fenêtres de lissage, sur un serveur multi-processeurs (Colosse, de Calcul Québec). Nous utilisons des routines "Open MPI" pré-implémentées dans R. Par rapport aux simulations effectuées dans les articles originaux, nous postulons des modèles plus proches de ceux habituellement utilisés dans la recherche appliquée (logit et probit à variance unitaire notamment). Les résultats des simulations confirment les bonnes taille et puissance des tests en échantillon fini. Par contre, les gains additionnels de puissance de la statistique lissée proposée par Li et Racine (2013) se révèlent négligeables dans nos simulations. Mots clés : Bootstrap, choix discret, densité conditionnelle, Monte Carlo, produit de noyaux, puissance, taille.
5

Méthodes d'analyse génétique de traits quantitatifs corrélés: application à l'étude de la densité minérale osseuse

Saint Pierre, Aude 03 January 2011 (has links) (PDF)
La plupart des maladies humaines ont une étiologie complexe avec des facteurs génétiques et environnementaux qui interagissent. Utiliser des phénotypes corrélés peut augmenter la puissance de détection de locus de trait quantitatif. Ce travail propose d'évaluer différentes approches d'analyse bivariée pour des traits corrélés en utilisant l'information apportée par les marqueurs au niveau de la liaison et de l'association. Le gain relatif de ces approches est comparé aux analyses univariées. Ce travail a été appliqué à la variation de la densité osseuse à deux sites squelettiques dans une cohorte d'hommes sélectionnés pour des valeurs phénotypiques extrêmes. Nos résultats montrent l'intérêt d'utiliser des approches bivariées en particulier pour l'analyse d'association. Par ailleurs, dans le cadre du groupe de travail GAW16, nous avons comparé les performances relatives de trois méthodes d'association dans des données familiales.
6

Méthodes d'analyse génétique de traits quantitatifs corrélés : application à l'étude de la densité minérale osseuse.

Saint Pierre, Aude 03 January 2011 (has links) (PDF)
La plupart des maladies humaines ont une étiologie complexe avec des facteurs génétiques et environnementaux qui interagissent. Utiliser des phénotypes corrélés peut augmenter la puissance de détection de locus de trait quantitatif. Ce travail propose d'évaluer différentes approches d'analyse bivariée pour des traits corrélés en utilisantl'information apportée par les marqueurs au niveau de la liaison et de l'association. Legain relatif de ces approches est comparé aux analyses univariées. Ce travail a étéappliqué à la variation de la densité osseuse à deux sites squelettiques dans une cohorted'hommes sélectionnés pour des valeurs phénotypiques extrêmes. Nos résultats montrentl'intérêt d'utiliser des approches bivariées en particulier pour l'analyse d'association. Parailleurs, dans le cadre du groupe de travail GAW16, nous avons comparé lesperformances relatives de trois méthodes d'association dans des données familiales.
7

Étude des déterminants de la puissance statistique en spectrométrie de masse / Statistical power determinants in mass-spectrometry

Jouve, Thomas 03 December 2009 (has links)
La spectrométrie de masse fait partie des technologies haut débit et offre à ce titre un regard inédit, à une échelle nouvelle, sur les protéines contenues dans divers échantillons biologiques. Les études biomédicales utilisant cette technologie sont de plus en plus nombreuses et visent à détecter de nouveaux biomarqueurs de différents processus biologiques, notamment de processus pathologiques à l'origine de cancers. Cette utilisation comme outil de criblage pose des questions quant à la capacité même des expériences de spectrométrie de masse dans cette détection. La puissance statistique traduit cette capacité et rappelle que les études doivent être calibrées pour offrir des garanties suffisantes de succès. Toutefois, cette exploration de la puissance statistique en spectrométrie de masse n'a pas encore été réalisée. L'objet de cette thèse est précisément l'étude des déterminants de la puissance pour la détection de biomarqueurs en spectrométrie de masse. Une revue de la littérature a été réalisée, reprenant l'ensemble des étapes nécessaires du traitement du signal, afin de bien comprendre les techniques utilisées. Les méthodes statistiques disponibles pour l'analyse du signal ainsi traité sont revues et mises en perspective. Les situations de tests multiples, qui émergent notamment de ces données de spectrométrie de masse, suggèrent une redéfinition de la puissance, détaillée par la suite. La puissance statistique dépend du plan d'expérience. La taille d'échantillon, la répartition entre groupes étudiés et l'effet différentiel ont été investigués, par l'intermédiaire de simulations d'expériences de spectrométrie de masse. On retrouve ainsi les résultats classiques de la puissance, faisant notamment ressortir le besoin crucial d'augmenter la tailles des études pour détecter des biomarqueurs, particulièrement lorsque ceux-ci présentent un faible effet différentiel. Au delà de ces déterminants classiques de la puissance, des déterminants propres à la spectrométrie de masse apparaissent. Une chute importante de puissance est mise en évidence, due à l'erreur de mesure des technologies de spectrométrie de masse. Une synergie péjorative existe de plus entre erreur de mesure et procédure de contrôle du risque de première espèce de type FDR. D'autre part, les méthodes de détection des pics, par leurs imperfections (faux pics et pics manqués), induisent un contrôle suboptimal de ce risque de première espèce, conduisant à une autre chute de puissance. Ce travail de thèse met ainsi en évidence trois niveaux d'intervention possibles pour améliorer la puissance des études : la meilleure calibration des plans d'expérience, la minimisation de l'erreur de mesure et l'amélioration des algorithmes de prétraitement. La technologie même de spectrométrie de masse ne pourra conduire de façon fiable à la détection de nouveaux biomarqueurs qu'au prix d'un travail à ces trois niveaux. / Mass-spectrometry (MS) belongs to the high-throughput technologies and therefore offers an originalperspective on proteins contained in various biological samples, at a new scale. Biomedicalstudies using this technology are increasingly frequent. They aim at detecting new biomarkersof different biological processes, especially pathological processes leading to cancer. This use asa screening tool asks questions regarding the very detection effectiveness of MS experiments.Statistical power is the direct translation of this effectiveness and reminds us that calibratedstudies are required to offer sufficient guarantees of success. However, this exploration of statisticalpower in mass-spectrometry has not been performed yet. The theme of this work is preciselythe study of power determinants for the detection of biomarkers in MS studies.A literature review was performed, summarizing all necessary pretreatment steps of thesignal analysis, in order to understand the utilized techniques. Available statistical methods forthe analysis of this pretreated signal are also reviewed and put into perspective. Multiple testingsettings arising from MS data suggest a power redefinition. This power redefinition is detailed.Statistical power depends on the study design. Sample sizes, group repartition and the differentialeffect were investigated through MS experiment simulations. Classical results of statisticalpower are acknowledged, with an emphasis on the crucial need to increase sample sizes forbiomarker detection, especially when these markers show low differential effects.Beyond these classical power determinants, mass-spectrometry specific determinants appear.An important power drop is experienced when taking into account the high measurement variabilityencountered in mass-spectrometry. A detrimental synergy exists between measurementvariability and type 1 error control procedures (e.g. FDR). Furtheremore, the imperfections ofpeak detection methods (false and missed peaks) induce a sub-optimal control of this type 1error, leading to another power drop.This work shows three possible intervention levels if we want to improve power in MS studies: a better study design, measurement variability minimisation and pretreatment algorithmsimprovements. Only a work at these three levels can guarantee reliable biomarker detections inthese studies.
8

Méthodes d'analyse génétique de traits quantitatifs corrélés : application à l'étude de la densité minérale osseuse / Statistical methods for genetic analysis of correlated quantitative traits : application to the study of bone mineral density

Saint Pierre, Aude 03 January 2011 (has links)
La plupart des maladies humaines ont une étiologie complexe avec des facteurs génétiques et environnementaux qui interagissent. Utiliser des phénotypes corrélés peut augmenter la puissance de détection de locus de trait quantitatif. Ce travail propose d’évaluer différentes approches d’analyse bivariée pour des traits corrélés en utilisantl’information apportée par les marqueurs au niveau de la liaison et de l’association. Legain relatif de ces approches est comparé aux analyses univariées. Ce travail a étéappliqué à la variation de la densité osseuse à deux sites squelettiques dans une cohorted’hommes sélectionnés pour des valeurs phénotypiques extrêmes. Nos résultats montrentl’intérêt d’utiliser des approches bivariées en particulier pour l’analyse d’association. Parailleurs, dans le cadre du groupe de travail GAW16, nous avons comparé lesperformances relatives de trois méthodes d’association dans des données familiales. / The majority of complex diseases in humans are likely determined by both genetic andenvironmental factors. Using correlated phenotypes may increase the power to map theunderlying Quantitative Trait Loci (QTLs). This work aims to evaluate and compare theperformance of bivariate methods for detecting QTLs in correlated phenotypes by linkageand association analyses. We applied these methods to data on Bone Mineral Density(BMD) variation, measured at the two skeletal sites, in a sample of males selected forextreme trait values. Our results demonstrate the relative gain, in particular for associationanalysis, of bivariate approaches when compared to univariate analyses. Finally, we studythe performances of association methods to detect QTLs in the GAW16 simulated familydata.
9

Les interactions gène-environnement dans les études génétiques des maladies complexes

Kazma, Rémi 17 June 2010 (has links) (PDF)
Les maladies humaines les plus fréquentes sont complexes avec plusieurs facteurs génétiques et environnementaux qui interagissent. Ce travail propose deux nouvelles méthodes statistiques pour étudier les interactions gène-environnement. La première méthode utilise la récurrence familiale de la maladie pour identifier une interaction entre un facteur environnemental et la composante génétique impliquée dans la maladie. La seconde méthode permet de prendre en compte ces interactions dans les études d'associations pangénomiques lorsque l'information sur le facteur d'exposition n'est pas disponible chez les témoins. Cette situation est devenue fréquente avec l'utilisation de panels de témoins de référence. Ces deux méthodes apportent de nouveaux outils pour étudier simultanément les facteurs génétiques et environnementaux dans les maladies complexes. Elles ont été appliquées sur deux jeux de données concernant le diabète de type 2 et les réactions cutanées sévères aux médicaments.
10

Optimisation des méthodes statistiques d'analyse de la variabilité des caractères à l'aide d'informations génomiques / Optimization of statistical methods using genomic data for QTL detection

Jacquin, Laval 10 October 2014 (has links)
L’avènement du génotypage à haut débit permet aujourd’hui de mieux exploiter le phénomène d’association, appelé déséquilibre de liaison (LD), qui existe entre les allèles de différents loci sur le génome. Dans ce contexte, l’utilité de certains modèles utilisés en cartographie de locus à effets quantitatifs (QTL) est remise en question. Les objectifs de ce travail étaient de discriminer entre des modèles utilisés en routine en cartographie et d’apporter des éclaircissements sur la meilleure façon d’exploiter le LD, par l’utilisation d’haplotypes, afin d’optimiser les modèles basés sur ce concept. On montre que les modèles uni-marqueur de liaison, développés en génétique il y a vingtaine d’années, comportent peu d’intérêts aujourd’hui avec le génotypage à haut débit. Dans ce contexte, on montre que les modèles uni-marqueur d’association comportent plus d’avantages que les modèles uni-marqueur de liaison, surtout pour des QTL ayant un effet petit ou modéré sur le phénotype, à condition de bien maîtriser la structure génétique entre individus. Les puissances et les robustesses statistiques de ces modèles ont été étudiées, à la fois sur le plan théorique et par simulations, afin de valider les résultats obtenus pour la comparaison de l’association avec la liaison. Toutefois, les modèles uni-marqueur ne sont pas aussi efficaces que les modèles utilisant des haplotypes dans la prise en compte du LD pour une cartographie fine de QTL. Des propriétés mathématiques reliées à la cartographie de QTL par l’exploitation du LD multiallélique capté par les modèles haplotypiques ont été explicitées et étudiées à l’aide d’une distance matricielle définie entre deux positions sur le génome. Cette distance a été exprimée algébriquement comme une fonction des coefficients du LD multiallélique. Les propriétés mathématiques liées à cette fonction montrent qu’il est difficile de bien exploiter le LD multiallélique, pour un génotypage à haut débit, si l’on ne tient pas compte uniquement de la similarité totale entre des haplotypes. Des études sur données réelles et simulées ont illustré ces propriétés et montrent une corrélation supérieure à 0.9 entre une statistique basée sur la distance matricielle et des résultats de cartographie. Cette forte corrélation a donné lieu à la proposition d’une méthode, basée sur la distance matricielle, qui aide à discriminer entre les modèles utilisés en cartographie. / The advent of high-throughput genotyping nowadays allows better exploitation of the association phenomenon, called linkage disequilibrium (LD), between alleles of different loci on the genome. In this context, the usefulness of some models to fine map quantitative trait locus (QTL) is questioned. The aims of this work were to discriminate between models routinely used for QTL mapping and to provide enlightenment on the best way to exploit LD, when using haplotypes, in order to optimize haplotype-based models. We show that single-marker linkage models, developed twenty years ago, have little interest today with the advent of high-throughput genotyping. In this context, we show that single-marker association models are more advantageous than single-marker linkage models, especially for QTL with a small or moderate effect on the phenotype. The statistical powers and robustness of these models have been studied both theoretically and by simulations, in order to validate the comparison of single-marker association models with single-marker linkage models. However, single-marker models are less efficient than haplotype-based models for making better use of LD in fine mapping of QTL. Mathematical properties related to the multiallelic LD captured by haplotype-based models have been shown, and studied, by the use of a matrix distance defined between two loci on the genome. This distance has been expressed algebraically as a function of the multiallelic LD coefficients. The mathematical properties related to this function show that it is difficult to exploit well multiallelic LD, for a high-throughput genotyping, if one takes into account the partial and total similarity between haplotypes instead of the total similarity only. Studies on real and simulated data illustrate these properties and show a correlation above 0.9 between a statistic based on the matrix distance and mapping results. Hence a new method, based on the matrix distance, which helps to discriminate between models used for mapping is proposed.

Page generated in 0.499 seconds