• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 504
  • 220
  • 99
  • 4
  • 3
  • 1
  • Tagged with
  • 828
  • 342
  • 198
  • 126
  • 122
  • 120
  • 109
  • 95
  • 91
  • 90
  • 89
  • 83
  • 80
  • 76
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Méthode d'analyse de l'association de sites de variants rares avec plusieurs traits

Rochette, Mélissa 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 23 octobre 2023) / Les études d'association pangénomique (genome-wide association studies (GWAS)) ont permis de trouver des associations entre des variants et des maladies. Certains sites de variants ont été observés comme associés avec plusieurs maladies simultanément. Ce phénomène se nomme la pléiotropie. Ce phénomène est d'importance pour les problèmes psychiatriques (P. H. Lee et al., 2020). Également, les associations spécifiques à un sexe entre une maladie et un variant sont un sujet d'importance dans les études récentes. Plusieurs méthodes ont été proposées pour identifier les effets pléiotropiques de sites de variants communs. Pour les sites de variants rares, la méthode MTAR de Luo et al. (2020) s'est montré plus efficace que les méthodes existantes. MTAR teste l'effet pléiotropique de gènes sur un ensemble de traits. Cette méthode permet de savoir si un site de variants rares, tel qu'un gène, est associé à plusieurs traits simultanément. Toutefois, MTAR ne permet pas de déterminer quel sous-ensemble de traits est associé avec ce variant. MTAR ne permet également pas de découvrir des effets spécifiques à un sexe. Nous proposons donc une nouvelle méthode statistique permettant de répondre à ces deux failles, soit 1) déterminer le sous-ensemble de traits ou maladies associées à un site de variants rares et 2) déterminer les effets spécifiques à un sexe pour un site de variants rares. Une analyse de simulation a été réalisée pour évaluer la sensibilité et la spécificité. Les résultats sont acceptables. Une étude avec des données réelles a été réalisée. Il s'agit de données cas-témoins génétiques avec des personnes atteintes de la schizophrénie, des personnes atteintes de la bipolarité et des personnes n'étant pas atteinte de l'une ou l'autre de ces maladies. Pour chacune des deux maladies, nous étudions les effets spécifiques selon le sexe des gènes composés de variants rares sur la probabilité d'avoir la maladie. Pour la schizophrénie, 113 gènes composés de SNPs rares sont significativement associés à cette maladie. Aucune association spécifique au sexe n'a été détecté. Pour la bipolarité, 171 gènes composés de SNPs rares sont associés significativement à cette maladie. Des associations spécifiques selon le sexe ont été détectées. 21 gènes sont associés à la bipolarité spécifiquement chez les individus de sexe féminin et 24 gènes, spécifiquement chez ceux de sexe masculin. / Genome-wide association studies (GWAS) have discovered associations between variants and diseases. Some variant sites have been observed to be associated with multiple diseases. This phenomenon is called pleiotropy. This phenomenon is of importance for psychiatric problems (P. H. Lee et al., 2020). Also, associations between a disease and a variant for a particular sex are a subject of importance in recent studies. Several statistical methods have been proposed to identify pleiotropic effects of common sites. For rare variant sites, the MTAR method of Luo et al. (2020) has been shown to be more efficient than existing methods. MTAR tests the pleiotropic effect of genes on multiple traits. MTAR allows us to know if a rare variant site, such as a gene, is associated with multiple trait simultaneously. However, MTAR does not allow us to determine which subset of traits is associated with this variant. MTAR also does not reveal gender specific effects. We therefore propose a new statistical method making it possible to respond to these two flaws, either 1) determining the subset of traits or diseases associated with a rare variant sites and 2) determining the sex-specific effect for rare variant sites on a disease or a trait. A simulation analysis was performed to assess sensitivity and specificity. The results are reasonable. A study with real data have been realised. These are case-control data with people with schizophrenia, people with bipolar disorder, and people without either of these conditions. For each of the two diseases, we studied the specific effects by sex of genes with rare SNPs on the probability to have the disease. For schizophrenia, 113 genes with rare SNPs are significantly associated with this disease. No gender specific association was detected. For bipolarity, 171 genes with rare SNPs are significantly associated with this disease. Specific associations by sex have been detected. 21 genes are associated with bipolarity specifically for female genders and 24 genes specifically for male genders.
82

Méthodes statistiques d'ajustement pour les facteurs confondants en évaluation économique

Julmiste, Gaetane Raymonde 14 November 2024 (has links)
Ajuster adéquatement pour les variables confondantes est une problématique majeure en économie de la santé. Différentes méthodes ont été proposées. Les études qui ont comparé ces méthodes l'ont rarement fait à partir de données simulées, mais plutôt sur la base d'arguments conceptuels. Notre étude visait ainsi à réaliser des simulations de Monte-Carlo pour comparer les méthodes les plus recommandées dans la littérature telles que la régression par le bénéfice monétaire net et les régressions apparemment indépendantes, en générant des données pour les réponses en log-linéaire et linéaire. Nous avons estimé l'effet causal sous la forme d'un rapport de coût-efficacité différentiel et d'un bénéfice monétaire net, soit pour la population générale, soit chez les traités, afin de déterminer les méthodes qui contrôlent le mieux le biais en utilisant divers scénarios où la taille d'échantillon et les corrélations variaient. Seul la méthode d'appariement complet sur le score de propension ajusté pour tous les confondants permettait d'obtenir un biais faible. Des analyses supplémentaires ont permis de déterminer que lorsque les réponses sont générées selon des modèles log-linéaires, la modélisation linéaire de ces réponses induit un biais. Ce biais n'était pas atténué par la modélisation des confondants à l'aide de splines cubiques, alors qu'il était résorbé en utilisant l'estimation ciblée par maximum de vraisemblance couplé à l'apprentissage machine, d'autant que les coûts soient ajustés pour leurs propres confondants ainsi que les confondants simultanés des coûts et de l'efficacité, et que l'efficacité soit ajustée pour ses propres confondants et les confondants simultanés des coûts et de l'efficacité. Puisque les réponses en évaluation économique sont potentiellement souvent log-linéaires, nous recommandons l'utilisation de l'appariement complet en ajustant pour tous les confondants, ou l'utilisation d'apprentissage machine pour modéliser les réponses où chaque réponse est ajustée pour ses confondants et les confondants simultanés du coût et de l'efficacité. / Adjusting for confounding variables is a major issue in health economics. Various methods have been proposed. Studies that have compared these methods have rarely done so on the basis of simulated data, but rather on the basis of conceptual arguments. The aim of our study was therefore to carry out Monte Carlo simulations to compare the methods most recommended in the literature, such as regression by net monetary benefit and seemingly unrelated regressions, by generating log-linear or linear outcome data. We estimated the causal effect in the form of incremental cost-effectiveness ratio and net monetary benefit, either for the general population or among the treated, to determine which methods best controlled for bias using various scenarios where sample size and correlations varied. Only the full matching on a propensity score adjusted for all confounders achieved a low bias. Further analysis determined that when outcomes were generated according to log-linear models, linear modeling of these outcomes induced bias. This bias was not mitigated by modeling confounders using cubic splines, whereas it was removed using targeted maximum likelihood estimation coupled with machine learning, provided that costs were adjusted for their own confounders as well as simultaneous cost and effictiveness confounders, and effectiveness was adjusted for its own confounders and simultaneous cost and effectiveness confounders. Since outcomes in economic evaluation are potentially often log-linear, we recommend the use of full matching by adjusting for all confounders, or the use of machine learning to model outcomes where each outcome is adjusted for its confounders and the simultaneous confounders of cost and effectiveness.
83

Estimation de la taille de la population dans les expériences de capture-recapture

Yauck, Mamadou 28 March 2024 (has links)
La thèse présentée ici traite du problème de l'estimation de la taille de la population dans les modèles de capture-recapture. Elle s'intéresse, en particulier, à la question de l'estimation de la taille de la population dans le cadre d'une expérience de capture-recapture à structure d'échantillonnage imbriquée, qui combine les méthodes de population fermée à l'intérieur des périodes primaires (PP) et de population ouverte d'une PP à une autre : le design robuste. Cette thèse propose une méthodologie d'estimation de la taille de la population et de l'incertitude associée aux estimateurs obtenus dans le contexte du design robuste. Dans un premier temps, on aborde le problème de l'estimation des paramètres du design robuste dans le cas d'un nombre suffisamment élevé d'occasions de capture. On généralise le papier fondamental de Jolly (1965) au design robuste en proposant une procédure séquentielle d'estimation des paramètres pour la classe des modèles de design robuste présentés dans Rivest and Daigle (2004) et un estimateur de la variance des paramètres par bootstrap paramétrique. Ces résultats théoriques ont été appliqués à des données d'activation d'applications sur les téléphones intelligents. Les données sont recueillies sur une période d'un an et demi et concernent des utilisateurs de téléphones intelligents qui ont visité un grand concessionnaire automobile basé aux États-Unis. Dans un deuxième temps, on s'intéresse à l'estimation de la taille de la population à partir de deux sources d'information du design robuste: les données à l'intérieur d'une PP (ou intra-période) et les données d'une PP à une autre (ou inter-période). On démontre que les estimateurs de la taille de la population obtenus avec les informations intra-période et inter-période sont asymptotiquement indépendants pour une large classe de modèles de population fermée à l'intérieur des PP. Ainsi, l'estimateur du maximum de vraisemblance pour la taille de la population dans le cas du design robuste est asymptotiquement équivalent à un estimateur pondéré pour le modèle de population ouverte et le modèle de population fermée. On montre que l'estimateur pondéré diffère de celui donné dans Kendall et al. (1995); on démontre que leur estimateur n'est pas efficace, puis on donne une formule explicite pour son efficacité comparativement à l'estimateur pondéré. La perte d'efficacité est ensuite évaluée dans une étude de simulation, puis à travers un exemple tiré de Santostasi et al. (2016) et qui traite de l'estimation de la taille de la population d'une espèce de dauphins vivant dans le Golfe de Corinthe (Grèce). Enfin, on se propose d'étendre les résultats du problème précédent aux modèles de design robuste présentés dans Kendall et al. (1995) et implémentés dans MARK (White and Burnham, 1999). Dans le contexte du design robuste, on dérive l'estimateur du maximum de vraisemblance pour la taille de la population; on propose également trois méthodes d'estimation de la variance de l'erreur associée à l'estimateur. On démontre ensuite que l'estimateur du maximum de vraisemblance pour la taille de la population est plus efficace que l'estimateur des moments proposé par Kendall et al. (1995); la perte d'efficacité de l'estimateur de Kendall ainsi que la performance des trois méthodes d'estimation de la variance de l'erreur associée à l'estimateur du maximum de vraisemblance sont évaluées via une étude de simulation. / This thesis deals with the capture-recapture estimation of population sizes under a hierarchical study design where a capture-recapture experiment, involving secondary capture occasions, is carried out within each sampling period (SP) of an open population model: the robust design. This thesis proposes a methodology for the estimation of population sizes under the robust design and the uncertainty associated with the estimators. The first problem deals with the estimation of the parameters of a robust design with an arbitrary large number of capture occasions. To do so, we generalize the seminal paper of Jolly (1965) to the robust design and propose a sequential estimation procedure for the class of robust design models presented in Rivest and Daigle (2004). A simple parametric bootstrap variance estimator for the model parameters is also proposed. These results are used to analyze a data set about the mobile devices that visited the auto-dealerships of a major auto brand in a US metropolitan area over a period of one year and a half. The second problem deals with the estimation of population sizes using two sources of information for the robust design: the within and the between primary period data. We prove that the population size estimators derived from the two sources are asymptotically independent for a large class of closed population models. In this context, the robust design maximum likelihood estimator of population size is shown to be asymptotically equivalent to a weighted sum of the estimators for the open population Jolly-Seber model (Jolly 1965; Seber 1965) and for the closed population model. This article shows that the weighted estimator is more efficient than the moment estimator of Kendall et al.(1995). A closed form expression for the efficiency associated with this estimator is given and the loss of precision is evaluated in a MonteCarlo study and in a numerical example about the estimation of the size of dolphin populations living in the Gulf of Corinth (Greece) and discussed by Santostasi et al. (2016). The third problem deals with the estimation of population sizes under the robust design models presented in Kendall et al. (1995) and implemented in MARK (White and Burnham, 1999). We derive the maximum likelihood estimator for the population size and propose three methods of estimation for its uncertainty. We prove that the derived maximum likelihood estimator is more efficient than the moment estimator provided in Kendall et al. (1995). The loss of precision associated with the Kendall estimator and the performance of the three methods of estimation for the variance of the maximum likelihood estimator are evaluated in a MonteCarlo study.
84

Caractérisation statistique des propriétés du roc intact obtenues à partir d'essais de laboratoire pour deux projets miniers canadiens

Boudreau, Catherine 21 June 2024 (has links)
La conception des ouvrages miniers souterrains repose sur une caractérisation géotechnique du massif rocheux. Lors des essais en laboratoire sur le roc intact, les données géotechniques sont amassées suivant les recommandations prescrites par la Société internationale de mécanique des roches (SIMR) (Brown, 1981). Bien que les essais en laboratoire sur le roc intact soient effectués selon les recommandations de la SIMR, ils ne sont pas réalisés d’une manière optimale quant au nombre de spécimens testés, à la localisation des essais, à la temporalité des essais, aux critères de rejet de certains spécimens testés et à l’utilisation des résultats dans la définition du critère de Hoek-Brown. Avec le coût élevé des essais en laboratoire, il est primordial d’optimiser les campagnes d’essais en laboratoire et de s’assurer d’utiliser et de maximiser l’information provenant des résultats tout en s’assurant de leur représentativité. À l’aide de deux études de cas réalisées sur des sites miniers québécois, ce mémoire a pour objectif global d’effectuer la caractérisation statistique de paramètres géomécaniques dans le but d’optimiser les campagnes d’essais et de de maximiser l’information obtenue par l’entremise d’essais en laboratoire sur le roc intact. Les analyses statistiques permettront de mieux quantifier la connaissance des propriétés du roc intact dans le cadre d’un projet minier. Elles permettront également d’optimiser le nombre d’essais à réaliser tout en s’assurant de la représentativité des résultats. Finalement, elles permettront d’identifier plus efficacement de nouvelles cibles de caractérisation.
85

Stratégie d'échantillonnage des mesures LIBS in situ de la teneur en or dans des échantillons miniers : optimisation par analyse statistique

Nguegang Kamwa, Blandine 27 January 2024 (has links)
Au Québec, 19 mines d'or produisent plus de 1.8 milliard dollars canadiens d'or annuellement. Dans ces mines, des centaines d'échantillons de roches sont collectées quotidiennement, et envoyées au laboratoire afin de déterminer leurs concentrations en or. Étant donné que les résultats du laboratoire ne sont disponibles qu'après 24 à 48 heures, il s'en suit un impact direct négatif sur les activités minières. Les avancées technologiques des dernières années laissent croire que la spectroscopie sur plasma induite par laser (LIBS) pourrait constituer une technologie prometteuse pour mesurer en temps réel et in-situ, la teneur en or de la roche. Considérant la taille de chaque tir produit par le laser sur un échantillon de roche, à savoir 500 µm, de très nombreux tirs seront requis afin d'obtenir un résultat représentatif de l'échantillon analysé. À titre d'exemple, pour un échantillon de carotte de 50 cm de long, et une surface analysée comprise entre 70 et 80%, 10000 tirs lasers ont été effectués afin de s'assurer d'obtenir un résultat représentatif de l'échantillon, avec un temps d'acquisition d'une demi-journée en laboratoire, soit une durée trop longue pour une application pratique dans les mines. Pour cette raison, l'objectif de ce projet est de développer une stratégie afin de minimiser le nombre de tirs LIBS requis sur un échantillon à analyser, tout en demeurant représentatif de ce dernier, et ainsi obtenir une mesure fiable et précise de la teneur en or. Pour ce faire, une analyse statistique descriptive combinée à plusieurs motifs élaborés à partir des 10000 points de mesure est appliquée sur les données LIBS. En se fixant un compromis entre le nombre de tirs à réaliser sur un échantillon (roche) et le temps d'analyse, le motif défini « Boucle » minimise le mieux le nombre de tirs avec un temps d'analyse acceptable par une opération minière. À partir de ce dernier, un protocole d'échantillonnage a été élaboré, où pour être représentatif des échantillons de carottes, 1500 tirs sont nécessaires tandis que pour les échantillons de roches, seuls 100 tirs suffisent. Cependant, il serait important de pouvoir tester ce protocole d'échantillonnage sur plusieurs échantillons miniers afin de pouvoir valider ce dernier. / In Quebec, 19 gold mines produce more than C (dollar) 1.8 billion of gold annually. In these mines, hundreds of rock samples are collected daily and sent to the laboratory to determine their gold concentrations. Since laboratory results are only available after 24 to 48 hours, there is a direct negative impact on mining activities. Technological advances in recent years suggest that Laser Induced Breakdown Spectroscopy (LIBS) may be a promising technology for real-time and in-situ measurement of the gold content of rock samples. Considering the size of each shot produced by the laser on a rock sample, namely 500 µm, many shots will be required in order to obtain a representative result of the sample analyzed. For example, for a 50 cm long core sample, and a surface analyzed between 70 and 80%, 10,000 laser shots were fired to ensure to obtain a result representative of the sample, with an acquisition time of half a day in the laboratory, which is a too long period of time for a practical application in mines. For this reason, the objective of this project is to minimize the number of LIBS shots required on a sample to be analyzed, while remaining representative of the latter, and thus obtain a reliable and accurate measurement of the gold content. For this, a descriptive statistical analysis combined with several elaborate patterns is applied to the 10,000 LIBS data obtained. By setting a compromise between the number of shots to be made on a sample and the analysis time, the Loop pattern minimizes the number of shots with an acceptable analysis time. From the latter, a sampling protocol has been developed, where to be representative of core samples, 1500 shots are needed whereas for rock samples, only 100 shots are needed. However, it would be important to be
86

Intervalles de confiance pour une différence de deux proportions

Gagnon, Patrick 12 April 2018 (has links)
L'intervalle de confiance le plus connu pour une différence de deux proportions est l'intervalle de Wald. Cet intervalle a l'avantage d'être simple à construire, mais il est anti-conservateur. Il existe plusieurs intervalles alternatifs à l'intervalle deWald qui performent beaucoup mieux. Dans ce mémoire, on s'intéressera particulièrement à l'intervalle d'Agresti-Coull et à l'intervalle bayésien approximatif. Ces intervalles performent très bien tout en étant simples à construire. On regardera d'abord la performance de ces intervalles lorsqu'on a deux échantillons indépendants de tailles fixées au départ. On regardera aussi leur performance lorsque le nombre d'observations dépend des vraies proportions, soit dans une expérience à étapes multiples, soit dans une expérience à allocations séquentielles ou un plan adaptatif est utilisé.
87

Consumptive Use of Water by Crops in Arizona

Erie, L. J., French, Orrin F., Harris, Karl 09 1900 (has links)
Reprinted August 1968
88

Méthodes statistiques pour la mise en correspondance de descripteurs

Collier, Olivier 02 October 2013 (has links) (PDF)
De nombreuses applications, en vision par ordinateur ou en médecine notamment,ont pour but d'identifier des similarités entre plusieurs images ou signaux. On peut alors détecter des objets, les suivre, ou recouper des prises de vue. Dans tous les cas, les procédures algorithmiques qui traitent les images utilisent une sélection de points-clefs qu'elles essayent ensuite de mettre en correspondance par paire. Elles calculent pour chaque point un descripteur qui le caractérise, le discrimine des autres. Parmi toutes les procédures possibles,la plus utilisée aujourd'hui est SIFT, qui sélectionne les points-clefs, calcule des descripteurs et propose un critère de mise en correspondance globale. Dans une première partie, nous tentons d'améliorer cet algorithme en changeant le descripteur original qui nécessite de trouver l'argument du maximum d'un histogramme : en effet, son calcul est statistiquement instable. Nous devons alors également changer le critère de mise en correspondance de deux descripteurs. Il en résulte un problème de test non paramétrique dans lequel à la fois l'hypothèse nulle et alternative sont composites, et même non paramétriques. Nous utilisons le test du rapport de vraisemblance généralisé afin d'exhiber des procédures de test consistantes, et proposons une étude minimax du problème. Dans une seconde partie, nous nous intéressons à l'optimalité d'une procédure globale de mise en correspondance. Nous énonçons un modèle statistique dans lequel des descripteurs sont présents dans un certain ordre dans une première image, et dans un autre dans une seconde image. La mise en correspondance revient alors à l'estimation d'une permutation. Nous donnons un critère d'optimalité au sens minimax pour les estimateurs. Nous utilisons en particulier la vraisemblance afin de trouver plusieurs estimateurs consistants, et même optimaux sous certaines conditions. Enfin, nous nous sommes intéressés à des aspects pratiques en montrant que nos estimateurs étaient calculables en temps raisonnable, ce qui nous a permis ensuite d'illustrer la hiérarchie de nos estimateurs par des simulations
89

Développements récents sur l'estimation fonctionnelle par méthodes d'ondelettes

Chesneau, Christophe 03 April 2014 (has links) (PDF)
A ce jour, l'essentiel de mes travaux s'articule autour de l'estimation de fonctions inconnues émanant de phénomènes aléatoires. La richesse de ces phénomènes combinée avec l'amélioration constante des méthodes d'estimation nourrissent mon intérêt pour le sujet. J'ai toutefois choisi de me spécialiser dans les méthodes d'ondelettes. La principale raison est qu'elles bénéficient d'une grande faculté d'adaptation à la complexité du problème posé, tout en ayant des performances d'estimation remarquables. Cela est présenté dans la première partie de ce rapport. Les trois autres parties concernent trois de mes résultats les plus significatifs. En outre, ils sont applicables à une multitude de modèles statistiques, ouvrant ainsi un large champ d'applications, et améliorent certains aspects de résultats existants.
90

Méthode des réseaux en analyse de données, application à l'analyse de concordance

Tricot, Jean-Marie 29 June 1990 (has links) (PDF)
Dans les différents domaines de la statistique descriptive, les données se présentent sous forme de nuages de points; sur ceux-ci, on est souvent amené à faire des études de proximité ou, plus généralement, de similarité, permettant de faire des analyses de structure. Il en est ainsi en analyse de concordance où il s'agit d'apprécier le degré d'accord entre d observateurs évaluant le même ensemble de n sujets au moyen d'une échelle de valeurs possibles prises par une variable (on peut généraliser le problème à plusieurs variables).

Page generated in 0.0247 seconds