• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 76
  • 20
  • 3
  • 1
  • 1
  • Tagged with
  • 101
  • 101
  • 40
  • 20
  • 20
  • 16
  • 14
  • 14
  • 14
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

L'effet de lissage induit par la répartition géographique de groupes éoliens

Michaud, René 12 April 2018 (has links)
L'introduction de production éolienne dans un réseau électrique, de par la nature stochastique du vent, impose au gestionnaire un investissement supplémentaire pour maintenir les réserves en capacité et les infrastructures rattachées afin de balancer les fluctuations de la filière éolienne. L'effet de lissage qu'induit la répartition des éoliennes sur un grand territoire, par son apport au crédit en capacité de la filière, peut être un facteur important de réduction de cet investissement. À l'aide de données recueillies au Québec, ce travail démontre la présence de lissage induit par la répartition des stations anémométriques et le quantifie, en termes de réduction de la variabilité des séries temporelles en vitesse du vent et en puissance. / When introducing wind power into an electricity grid, because of the stochastic nature of wind, investments must be made to insure capacity reserves and related infrastructures are available to balance the wind production fluctuations. Smoothing effect of geographically dispersed wind production may help minimize these investments by reducing variability of the wind production thus contributing to the wind power capacity credit. Based on measured wind speed data from Québec province, this study shows the existence of a smoothing effect induced by geographical dispersion of the measurement stations and quantifies it by means of reduced variability of the wind speed and power time series.
12

Les anisotropies du fond diffus infrarouge : un nouvel outil pour sonder l'évolution des structures / The anisotropies of the cosmic infrared backgrounda new tool to probe the evolution of structure : a new tool to probe the evolution of structure

Penin, Aurelie 26 September 2011 (has links)
Le fond diffus infrarouge est la contribution de toutes les galaxies infrarouges intégrée sur toute l’histoire de l’Univers. Il émet entre 8 et 1000 µm et à un pic vers 200 µm. On résout une large fraction de ce fond dans l’infrarouge proche mais seule une petite fraction l’est dans l’infrarouge moyen et lointain à cause de la confusion. Les sources les plus faibles sont perdues dans le bruit de confusion. Cela forme des fluctuations de brillance, les anisotropies du fond diffus infrarouge. L’étude de ces fluctuations permet l’étude des galaxies sous le seuil de détection, donc des galaxies les plus faibles. Grâce au spectre de puissance on peut mesurer la puissance conte- nue dans ces fluctuations en fonction de l’échelle spatiale. Cette mesure contient, entre autre, le regroupement des galaxies infrarouges. Dans un premier temps, j’ai isolé du spectre de puissance d’une carte infrarouge, le spectre de puissance dû uniquement aux galaxies infrarouges. En effet, aux grandes échelles spatiales, il est contaminé par l’émission des cirrus Galactiques. Ces cirrus sont des nuages d’hydrogène neutre, tracés par la raie à 21 cm. J’ai donc utilisé des données à 21 cm pour estimer l’émission infrarouge de ces cirrus pour ensuite la soustraire aux cartes infrarouge à 100 et 160 µm. Cela m’a aussi permis de faire une mesure précise du niveau absolu du fond diffus infrarouge à ces longueurs d’onde. Afin d’analyser ces spectres de puissances, j’ai mis en place un modèle de regroupement des galaxies infrarouges reliant un modèle d’évolution des galaxies infrarouge reproduisant les données existantes dont celles d’Herschel et un modèle de halo. C’est un modèle complétement paramétré ce qui permet l’étude des dégénérescences de ces paramètres. J’en ai aussi tiré des mesures physiques et leur évolution avec la longueur d’onde. De plus, j’ai ajusté les données existantes de 100 à 1380 µm. Grâce au modèle on peut déterminer les contributions en redshift à chaque longueur d’onde. Les courtes longueurs d’onde tracent les bas redshifts alors que les grandes longueurs d’onde tracent les hauts redshifts. Cependant la contribution des bas redshifts est loin d’être négligeable à ces longueurs d’onde. Afin de déterminer l’évolution du regroupement avec le redshift des cartes des anisotropies du fond diffus infrarouge sont nécessaires. Je vais expliciter une méthode de séparation de composantes dédiée à cela. / The Cosmic Infrared Background is the contribution of all infrared galaxies integrated on the history of the Universe. It emits between 8 and 1000 um with a peak around 200 um. A large fraction of this background is resolved into sources in the near infrared but only a tiny fraction is in the mid and far infrared because of confusion. The least luminous sources are lost in the confusion noise which forms brightness fluctuations, the anisotropies of the cosmic infrared background. The study of these fluctuations enables the study of the galaxies below the detection threshold, thus the less luminous galaxies. Thanks to the power spectrum we can measure the power contained in these fluctuations as a function of the scale. This measure contains, among others, the clustering of the infrared galaxies. First, I have isolated from the power spectrum of an infrared map, the power spectrum only due to infrared galaxies. Indeed, at large spatial scales, it is contaminated by the emission of Galactic cirrus. These cirrus are clouds of neutral hydrogen traced by the 21 cm line. Therefore, I made use of data at 21 cm to estimate the infrared emission of these cirrus that I have then subtracted from infrared maps at 100 and 160 um.This has also enabled me to compute the absolute level of the cosmic infrared background at these wavelengths. In order to analyse these power spectra, I developped a model of clustering of infrared galaxies. To do so I linked a model of evolution of galaxies that reproduces very well existing data including those of Herschel and a halo model. This is a fully parametric model that enables the study of the degeneracies of these parameters. I was also able to study the evolution with the wavelength of several physical measures. Furthermore, I fitted data from 100 um to 1380 um. Thanks to that model, I can determine the redshift distribution at each wavelength. Short wavelength probe small redshifts whereas long wavelength probe high redshifts. However the contribution of small redshift is far from being negligeable at long wavelength. As a long term purpose of determining the evolution of the clustering if the infrared galaxies, maps of the anisotropies of the cosmic infrared background are needed. I will then detail a component separation method dedicated to this problem.
13

Stratégie d'échantillonnage des mesures LIBS in situ de la teneur en or dans des échantillons miniers : optimisation par analyse statistique

Nguegang Kamwa, Blandine 31 May 2021 (has links)
Au Québec, 19 mines d'or produisent plus de 1.8 milliard dollars canadiens d'or annuellement. Dans ces mines, des centaines d'échantillons de roches sont collectées quotidiennement, et envoyées au laboratoire afin de déterminer leurs concentrations en or. Étant donné que les résultats du laboratoire ne sont disponibles qu'après 24 à 48 heures, il s'en suit un impact direct négatif sur les activités minières. Les avancées technologiques des dernières années laissent croire que la spectroscopie sur plasma induite par laser (LIBS) pourrait constituer une technologie prometteuse pour mesurer en temps réel et in-situ, la teneur en or de la roche. Considérant la taille de chaque tir produit par le laser sur un échantillon de roche, à savoir 500 µm, de très nombreux tirs seront requis afin d'obtenir un résultat représentatif de l'échantillon analysé. À titre d'exemple, pour un échantillon de carotte de 50 cm de long, et une surface analysée comprise entre 70 et 80%, 10000 tirs lasers ont été effectués afin de s'assurer d'obtenir un résultat représentatif de l'échantillon, avec un temps d'acquisition d'une demi-journée en laboratoire, soit une durée trop longue pour une application pratique dans les mines. Pour cette raison, l'objectif de ce projet est de développer une stratégie afin de minimiser le nombre de tirs LIBS requis sur un échantillon à analyser, tout en demeurant représentatif de ce dernier, et ainsi obtenir une mesure fiable et précise de la teneur en or. Pour ce faire, une analyse statistique descriptive combinée à plusieurs motifs élaborés à partir des 10000 points de mesure est appliquée sur les données LIBS. En se fixant un compromis entre le nombre de tirs à réaliser sur un échantillon (roche) et le temps d'analyse, le motif défini « Boucle » minimise le mieux le nombre de tirs avec un temps d'analyse acceptable par une opération minière. À partir de ce dernier, un protocole d'échantillonnage a été élaboré, où pour être représentatif des échantillons de carottes, 1500 tirs sont nécessaires tandis que pour les échantillons de roches, seuls 100 tirs suffisent. Cependant, il serait important de pouvoir tester ce protocole d'échantillonnage sur plusieurs échantillons miniers afin de pouvoir valider ce dernier. / In Quebec, 19 gold mines produce more than C (dollar) 1.8 billion of gold annually. In these mines, hundreds of rock samples are collected daily and sent to the laboratory to determine their gold concentrations. Since laboratory results are only available after 24 to 48 hours, there is a direct negative impact on mining activities. Technological advances in recent years suggest that Laser Induced Breakdown Spectroscopy (LIBS) may be a promising technology for real-time and in-situ measurement of the gold content of rock samples. Considering the size of each shot produced by the laser on a rock sample, namely 500 µm, many shots will be required in order to obtain a representative result of the sample analyzed. For example, for a 50 cm long core sample, and a surface analyzed between 70 and 80%, 10,000 laser shots were fired to ensure to obtain a result representative of the sample, with an acquisition time of half a day in the laboratory, which is a too long period of time for a practical application in mines. For this reason, the objective of this project is to minimize the number of LIBS shots required on a sample to be analyzed, while remaining representative of the latter, and thus obtain a reliable and accurate measurement of the gold content. For this, a descriptive statistical analysis combined with several elaborate patterns is applied to the 10,000 LIBS data obtained. By setting a compromise between the number of shots to be made on a sample and the analysis time, the Loop pattern minimizes the number of shots with an acceptable analysis time. From the latter, a sampling protocol has been developed, where to be representative of core samples, 1500 shots are needed whereas for rock samples, only 100 shots are needed. However, it would be important to be
14

Caractérisation statistique des propriétés du roc intact obtenues à partir d'essais de laboratoire pour deux projets miniers canadiens

Boudreau, Catherine 23 April 2018 (has links)
La conception des ouvrages miniers souterrains repose sur une caractérisation géotechnique du massif rocheux. Lors des essais en laboratoire sur le roc intact, les données géotechniques sont amassées suivant les recommandations prescrites par la Société internationale de mécanique des roches (SIMR) (Brown, 1981). Bien que les essais en laboratoire sur le roc intact soient effectués selon les recommandations de la SIMR, ils ne sont pas réalisés d’une manière optimale quant au nombre de spécimens testés, à la localisation des essais, à la temporalité des essais, aux critères de rejet de certains spécimens testés et à l’utilisation des résultats dans la définition du critère de Hoek-Brown. Avec le coût élevé des essais en laboratoire, il est primordial d’optimiser les campagnes d’essais en laboratoire et de s’assurer d’utiliser et de maximiser l’information provenant des résultats tout en s’assurant de leur représentativité. À l’aide de deux études de cas réalisées sur des sites miniers québécois, ce mémoire a pour objectif global d’effectuer la caractérisation statistique de paramètres géomécaniques dans le but d’optimiser les campagnes d’essais et de de maximiser l’information obtenue par l’entremise d’essais en laboratoire sur le roc intact. Les analyses statistiques permettront de mieux quantifier la connaissance des propriétés du roc intact dans le cadre d’un projet minier. Elles permettront également d’optimiser le nombre d’essais à réaliser tout en s’assurant de la représentativité des résultats. Finalement, elles permettront d’identifier plus efficacement de nouvelles cibles de caractérisation.
15

Schéma stepped wedge : modélisation et analyse de données

Messaoudi, Ghizlane 27 January 2024 (has links)
Ce mémoire a pour objectif principal de présenter des méthodes pour analyser les données provenant d'un essai clinique stepped wedge. On introduit des méthodes qui traitent les données individuelles ainsi que les données agrégées. Chaque méthode est illustrée avec des données provenant d'un essai clinique qui porte sur l'implantation d'un programme de formation à la prise de décision partagée dans une équipe interprofessionnelle. L'objectif secondaire de ce mémoire est d'évaluer la performance des tests de comparaison des deux traitements étudiés dans un stepped wedge à l'aide des méthodes de Monte Carlo. À cette n, des simulations ont été réalisées sous le logiciel R. Les résultats indiquent qu'il n'y a pas une méthode qui est supérieure à l'autre. Le choix de la méthode dépend du contexte de l'étude. / This research paper aims initially to present methods to analyse data from a stepped wedged clinical trial. We introduce methods that process both individual and aggregated data. Each method is exposed using data taken from a clinical trial based on the implementation of shared decision-making training program within an interprofessional team. As its secondary objective, this research paper provides a performance assessment on the comparison tests of two treatments studied within a stepped wedge using the Monte Carlo methods. On this note, simulations were executed using the R software. The results indicate that there is no method that is universally superior to the other. The choice of method depends on the context of the study
16

Méthode d'analyse de liaison génétique pour des familles dans lesquelles il y a de l'hétérogénéité non-allélique intra-familiale

Savard, Nathalie 11 April 2018 (has links)
Dans cet ouvrage, une méthode d'analyse de liaison génétique qui tient compte de l'hétérogénéité non-allélique est développée. Nous proposons une modification à l'analyse à un locus par le modèle de Smith qui tient compte de l'hétérogénéité inter-familiale afin de s'adapter à la présence d'hétérogénéité intra-familiale. Notre approche consiste d'abord à décomposer des familles tri-générationnelles en branches individuelles, soit en familles bi-générationnelles. Par cette décomposition, l'hétérogénéité intra-familiale est "transformée" en hétérogénéité inter-familiale. Les familles bi-générationnelles sont ensuite analysées à l'aide d'un locus et du modèle de Smith. La puissance de la méthode proposée est comparée à celle de plusieurs autres analyses, notamment à celle de l'analyse des familles tri-générationnelles lorsqu'il y a hétérogénéité intra-familiale. On vérifie également si le découpage des familles fait gonfler la proportion d'erreurs de type I. / This study presents a linkage analysis method for cases of recombination heterogeneity when it is located in bilineal pedigrees. We propose a modification of the single-locus analysis by Smith's admixture model - which is concerned with inter-familial heterogeneity - so it becomes more appropriate for cases of intra-familial heterogeneity. Our approach first consists in decomposing large pedigrees into nuclear pedigrees so that the intra-familial heterogeneity of the large pedigrees is transformed into inter-familial heterogeneity between the nuclear pedigrees. Then, the nuclear pedigrees are considered both with a single-locus analysis and Smith's admixture model. The power of the proposed method is compared to the power of other methods, including the power of the specific case where there is intra-familialheterogeneity in large pedigrees. We also verify if the decomposition of the pedigrees results in a bigger proportion of type I errors.
17

Estimation de la taille de la population dans les expériences de capture-recapture

Yauck, Mamadou 03 May 2019 (has links)
La thèse présentée ici traite du problème de l'estimation de la taille de la population dans les modèles de capture-recapture. Elle s'intéresse, en particulier, à la question de l'estimation de la taille de la population dans le cadre d'une expérience de capture-recapture à structure d'échantillonnage imbriquée, qui combine les méthodes de population fermée à l'intérieur des périodes primaires (PP) et de population ouverte d'une PP à une autre : le design robuste. Cette thèse propose une méthodologie d'estimation de la taille de la population et de l'incertitude associée aux estimateurs obtenus dans le contexte du design robuste. Dans un premier temps, on aborde le problème de l'estimation des paramètres du design robuste dans le cas d'un nombre suffisamment élevé d'occasions de capture. On généralise le papier fondamental de Jolly (1965) au design robuste en proposant une procédure séquentielle d'estimation des paramètres pour la classe des modèles de design robuste présentés dans Rivest and Daigle (2004) et un estimateur de la variance des paramètres par bootstrap paramétrique. Ces résultats théoriques ont été appliqués à des données d'activation d'applications sur les téléphones intelligents. Les données sont recueillies sur une période d'un an et demi et concernent des utilisateurs de téléphones intelligents qui ont visité un grand concessionnaire automobile basé aux États-Unis. Dans un deuxième temps, on s'intéresse à l'estimation de la taille de la population à partir de deux sources d'information du design robuste: les données à l'intérieur d'une PP (ou intra-période) et les données d'une PP à une autre (ou inter-période). On démontre que les estimateurs de la taille de la population obtenus avec les informations intra-période et inter-période sont asymptotiquement indépendants pour une large classe de modèles de population fermée à l'intérieur des PP. Ainsi, l'estimateur du maximum de vraisemblance pour la taille de la population dans le cas du design robuste est asymptotiquement équivalent à un estimateur pondéré pour le modèle de population ouverte et le modèle de population fermée. On montre que l'estimateur pondéré diffère de celui donné dans Kendall et al. (1995); on démontre que leur estimateur n'est pas efficace, puis on donne une formule explicite pour son efficacité comparativement à l'estimateur pondéré. La perte d'efficacité est ensuite évaluée dans une étude de simulation, puis à travers un exemple tiré de Santostasi et al. (2016) et qui traite de l'estimation de la taille de la population d'une espèce de dauphins vivant dans le Golfe de Corinthe (Grèce). Enfin, on se propose d'étendre les résultats du problème précédent aux modèles de design robuste présentés dans Kendall et al. (1995) et implémentés dans MARK (White and Burnham, 1999). Dans le contexte du design robuste, on dérive l'estimateur du maximum de vraisemblance pour la taille de la population; on propose également trois méthodes d'estimation de la variance de l'erreur associée à l'estimateur. On démontre ensuite que l'estimateur du maximum de vraisemblance pour la taille de la population est plus efficace que l'estimateur des moments proposé par Kendall et al. (1995); la perte d'efficacité de l'estimateur de Kendall ainsi que la performance des trois méthodes d'estimation de la variance de l'erreur associée à l'estimateur du maximum de vraisemblance sont évaluées via une étude de simulation. / This thesis deals with the capture-recapture estimation of population sizes under a hierarchical study design where a capture-recapture experiment, involving secondary capture occasions, is carried out within each sampling period (SP) of an open population model: the robust design. This thesis proposes a methodology for the estimation of population sizes under the robust design and the uncertainty associated with the estimators. The first problem deals with the estimation of the parameters of a robust design with an arbitrary large number of capture occasions. To do so, we generalize the seminal paper of Jolly (1965) to the robust design and propose a sequential estimation procedure for the class of robust design models presented in Rivest and Daigle (2004). A simple parametric bootstrap variance estimator for the model parameters is also proposed. These results are used to analyze a data set about the mobile devices that visited the auto-dealerships of a major auto brand in a US metropolitan area over a period of one year and a half. The second problem deals with the estimation of population sizes using two sources of information for the robust design: the within and the between primary period data. We prove that the population size estimators derived from the two sources are asymptotically independent for a large class of closed population models. In this context, the robust design maximum likelihood estimator of population size is shown to be asymptotically equivalent to a weighted sum of the estimators for the open population Jolly-Seber model (Jolly 1965; Seber 1965) and for the closed population model. This article shows that the weighted estimator is more efficient than the moment estimator of Kendall et al.(1995). A closed form expression for the efficiency associated with this estimator is given and the loss of precision is evaluated in a MonteCarlo study and in a numerical example about the estimation of the size of dolphin populations living in the Gulf of Corinth (Greece) and discussed by Santostasi et al. (2016). The third problem deals with the estimation of population sizes under the robust design models presented in Kendall et al. (1995) and implemented in MARK (White and Burnham, 1999). We derive the maximum likelihood estimator for the population size and propose three methods of estimation for its uncertainty. We prove that the derived maximum likelihood estimator is more efficient than the moment estimator provided in Kendall et al. (1995). The loss of precision associated with the Kendall estimator and the performance of the three methods of estimation for the variance of the maximum likelihood estimator are evaluated in a MonteCarlo study.
18

Inférence spatio-temporelle en présence de valeurs extrêmes

Compaore, Kiswendsida Julien 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / Ce mémoire étudie les impacts qu'a une mauvaise spécification de la loi du champ aléatoire latent dans un modèle spatio-temporel. Précisement les impacts sur les estimations et l'inférence d'une mauvaise spécification dans un modèle Poisson log-normal spatio-temporel ont été investigués. La mauvaise spécification correspond à la présence de valeurs très extrêmes pour une distribution Poisson log-normale. Un modèle pour tenir compte de ces valeurs extrêmes a été proposé. L'amélioration des estimations avec ce modèle alternatif est mise en évidence par une étude de simulation Monte Carlo. L'ajustement des modèles impliqués dans cette étude fait intervenir des intégrations en grandes dimensions pour évaluer la vraisemblance. Le package R TMB met en oeuvre une solution, en l'occurence l'approximation de Laplace, à ce problème. / This thesis studies the impact of a misspecification of the latent random field distribution in a spatio-temporal model. Specifically, the impact on estimates and inference of misspecification in a space-time log-normal Poisson model has been investigated. The misspecification corresponds to the presence of very extreme values for a log-normal Poisson distribution. A model to account for these extreme values was proposed. The improvement in estimates with this alternative model is demonstrated by a Monte Carlo simulation study. The fitting of the models involved in this study involves high-dimensional integrations to evaluate the likelihood. The R package TMB implements a solution to this problem: the Laplace approximation.
19

Méthode d'analyse de l'association de sites de variants rares avec plusieurs traits

Rochette, Mélissa 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 23 octobre 2023) / Les études d'association pangénomique (genome-wide association studies (GWAS)) ont permis de trouver des associations entre des variants et des maladies. Certains sites de variants ont été observés comme associés avec plusieurs maladies simultanément. Ce phénomène se nomme la pléiotropie. Ce phénomène est d'importance pour les problèmes psychiatriques (P. H. Lee et al., 2020). Également, les associations spécifiques à un sexe entre une maladie et un variant sont un sujet d'importance dans les études récentes. Plusieurs méthodes ont été proposées pour identifier les effets pléiotropiques de sites de variants communs. Pour les sites de variants rares, la méthode MTAR de Luo et al. (2020) s'est montré plus efficace que les méthodes existantes. MTAR teste l'effet pléiotropique de gènes sur un ensemble de traits. Cette méthode permet de savoir si un site de variants rares, tel qu'un gène, est associé à plusieurs traits simultanément. Toutefois, MTAR ne permet pas de déterminer quel sous-ensemble de traits est associé avec ce variant. MTAR ne permet également pas de découvrir des effets spécifiques à un sexe. Nous proposons donc une nouvelle méthode statistique permettant de répondre à ces deux failles, soit 1) déterminer le sous-ensemble de traits ou maladies associées à un site de variants rares et 2) déterminer les effets spécifiques à un sexe pour un site de variants rares. Une analyse de simulation a été réalisée pour évaluer la sensibilité et la spécificité. Les résultats sont acceptables. Une étude avec des données réelles a été réalisée. Il s'agit de données cas-témoins génétiques avec des personnes atteintes de la schizophrénie, des personnes atteintes de la bipolarité et des personnes n'étant pas atteinte de l'une ou l'autre de ces maladies. Pour chacune des deux maladies, nous étudions les effets spécifiques selon le sexe des gènes composés de variants rares sur la probabilité d'avoir la maladie. Pour la schizophrénie, 113 gènes composés de SNPs rares sont significativement associés à cette maladie. Aucune association spécifique au sexe n'a été détecté. Pour la bipolarité, 171 gènes composés de SNPs rares sont associés significativement à cette maladie. Des associations spécifiques selon le sexe ont été détectées. 21 gènes sont associés à la bipolarité spécifiquement chez les individus de sexe féminin et 24 gènes, spécifiquement chez ceux de sexe masculin. / Genome-wide association studies (GWAS) have discovered associations between variants and diseases. Some variant sites have been observed to be associated with multiple diseases. This phenomenon is called pleiotropy. This phenomenon is of importance for psychiatric problems (P. H. Lee et al., 2020). Also, associations between a disease and a variant for a particular sex are a subject of importance in recent studies. Several statistical methods have been proposed to identify pleiotropic effects of common sites. For rare variant sites, the MTAR method of Luo et al. (2020) has been shown to be more efficient than existing methods. MTAR tests the pleiotropic effect of genes on multiple traits. MTAR allows us to know if a rare variant site, such as a gene, is associated with multiple trait simultaneously. However, MTAR does not allow us to determine which subset of traits is associated with this variant. MTAR also does not reveal gender specific effects. We therefore propose a new statistical method making it possible to respond to these two flaws, either 1) determining the subset of traits or diseases associated with a rare variant sites and 2) determining the sex-specific effect for rare variant sites on a disease or a trait. A simulation analysis was performed to assess sensitivity and specificity. The results are reasonable. A study with real data have been realised. These are case-control data with people with schizophrenia, people with bipolar disorder, and people without either of these conditions. For each of the two diseases, we studied the specific effects by sex of genes with rare SNPs on the probability to have the disease. For schizophrenia, 113 genes with rare SNPs are significantly associated with this disease. No gender specific association was detected. For bipolarity, 171 genes with rare SNPs are significantly associated with this disease. Specific associations by sex have been detected. 21 genes are associated with bipolarity specifically for female genders and 24 genes specifically for male genders.
20

Intervalles de confiance pour une différence de deux proportions

Gagnon, Patrick 12 April 2018 (has links)
L'intervalle de confiance le plus connu pour une différence de deux proportions est l'intervalle de Wald. Cet intervalle a l'avantage d'être simple à construire, mais il est anti-conservateur. Il existe plusieurs intervalles alternatifs à l'intervalle deWald qui performent beaucoup mieux. Dans ce mémoire, on s'intéressera particulièrement à l'intervalle d'Agresti-Coull et à l'intervalle bayésien approximatif. Ces intervalles performent très bien tout en étant simples à construire. On regardera d'abord la performance de ces intervalles lorsqu'on a deux échantillons indépendants de tailles fixées au départ. On regardera aussi leur performance lorsque le nombre d'observations dépend des vraies proportions, soit dans une expérience à étapes multiples, soit dans une expérience à allocations séquentielles ou un plan adaptatif est utilisé.

Page generated in 0.1042 seconds