Spelling suggestions: "subject:"méthodes statistique""
21 |
Modèles d'analyse simultanée et conditionnelle pour évaluer les associations entre les haplotypes des gènes de susceptibilité et les traits des maladies complexes : application aux gènes candidats de l'ostéoporoseElfassihi, Latifa 17 April 2018 (has links)
Les maladies complexes sont des maladies multifactorielles dans lesquelles plusieurs gènes et facteurs environnementaux peuvent intervenir et interagir. De nombreuses études ont identifié des locus (gènes ou régions chromosomiques), avec ou sans effets marginaux, qui interagissent pour contribuer au risque de la maladie. Pour les études d'association par polymorphismes, plusieurs méthodes ont été développées récemment pour évaluer l'interaction gène-gène. Cependant, les études d'association par haplotypes donnent parfois une meilleure puissance pour détecter l'association. Mais, la majorité de ces dernières ne permet pas d'évaluer les interactions entre les haplotypes de deux gènes et celles qui le permettent présentent des restrictions, comme l'utilisation du phénotype de la maladie en dichotomique (présence ou absence de la maladie) ou encore n'ajustent pas pour les facteurs environnementaux. Cette thèse traite cette problématique en deux volets : méthodologique et appliqué. Au niveau méthodologique, cette thèse rapporte une nouvelle méthode statistique pour effectuer l'analyse simultanée et l'analyse conditionnelle de deux régions indépendantes (gènes ou régions chromosomiques) dans les études d'associations par haplotypes des maladies complexes. Une étude de simulation a été effectuée pour confirmer sa validité. En présence d'un effet d'interaction entre les haplotypes de deux gènes avec ou sans effets marginaux, les résultats de l'étude de simulation ont montré que notre modèle d'analyse conditionnelle a plus de puissance pour détecter l'association et donne une estimation plus précise des effets comparativement aux méthodes alternatives disponibles actuellement. Au niveau appliqué, l'approche de la cartographie fine dans un premier échantillon de Québec avec une réplication dans un échantillon indépendant de Toronto a été mise à profit pour raffiner l'étude de deux gènes candidats de l'ostéoporose : ESRRG (estrogen receptor-related gamma) et ESRRA (estrogen receptor-related alpha). Pour ESRRG, cette approche combinée aux deux méthodes d'analyse, par polymorphismes ou par haplotypes, confirma son implication dans l'étiologie de la maladie chez les femmes d'origine européenne, tandis que pour ESRRA, elle a constitué une investigation approfondie révélant une association dans un premier échantillon de femmes préménopausées de Québec, mais sans réplication dans un deuxième échantillon indépendant de femmes préménopausées de Toronto. Puisque les deux gènes étudiés appartiennent au même sentier métabolique, l'effet conditionnel de ESRRA sachant ESRRG a été évalué par notre méthode. Cette analyse a révélé une association dans un premier échantillon, mais, encore une fois, sans réplication dans le deuxième échantillon. Ces résultats suggèrent que le premier gène est un gène de susceptibilité de l'ostéoporose. Toutefois, notre étude n'était pas concluante en ce qui concerne l'effet du deuxième gène ainsi que son effet conditionnel sachant l'effet du premier. Ainsi, une réplication dans un échantillon indépendant, de même taille ou plus grande que celle de l'échantillon de Québec, s'avère nécessaire pour confirmer ou infirmer les résultats observés chez les femmes provenant de la région métropolitaine de Québec.
|
22 |
Simulations gaussiennes séquentielles en facteurs de ressources minérales en éléments des terres raresRaymond, Michaël 27 January 2024 (has links)
Ce mémoire présente les résultats d’estimation de ressources minérales en éléments des terres rares (ETR) réalisés à l’aide de simulations géostatistiques gaussiennes séquentielles (SGS) en facteurs spatialement décorrélés par la méthode MAF (Minimum/Maximum Autocorrelation Factors). Cette étude s’inscrit dans le cadre du projet de recherche « Caractérisation des gîtes de terres rares d’intrusions alcalines : géologie, métallogénie et géométallurgie du complexe syénitique de Kipawa » (FRQNT, 2017, p. 59). Les SGS se proposent comme une méthode alternative à la technique reconnue du krigeage ordinaire ayant été utilisée pour l’estimation des ressources minérales d’ETR du gisement de Kipawa, site à l’étude. Ce mémoire compare les résultats d’estimation des ressources minérales d’ETR des SGS à ceux du krigeage ordinaire. À cette fin, le site à l’étude est d’abord présenté en compagnie de la base de données conjointement utilisées par les deux méthodes. Ensuite, une revue de littérature aborde les notions et concepts nécessaires à la réalisation des SGS de cette étude. Une fois ces connaissances acquises, la méthode de recherche est développée. Son aboutissement permet de présenter les résultats et d’en discuter. Globalement, les résultats démontrent que les SGS en facteurs offrent l’avantage de procéder à l’estimation de ressources minérales d’ETR de façon multivariée, de limiter le lissage des résultats tout en fournissant une évaluation de leur incertitude. Les SGS proposent une distribution normale des ressources minérales en ETR totaux allant d’un minimum de 91 035 t à un maximum de 103 118 t. D’autre part, le krigeage ordinaire en estime, sans teneur de coupure, une valeur unique de 113 717 t. En conclusion, le tonnage évalué des ressources minérales en ETR du gisement Kipawa est moindre par la méthode des SGS que par le krigeage ordinaire. MOTS CLÉS : Simulations, géostatistique, simulations gaussiennes séquentielles (SGS), facteurs d’autocorrélation minimum/maximum (MAF), éléments des terres rares (ETR), ressources minérales. / This thesis presents the results of rare earth elements (REE) mineral resources estimate using Sequential Gaussian Simulations (SGS) of spatially decorrelated factors calculated from the Minimum/Maximum Autocorrelation Factors (MAF) method. This study is part of the research project "Characterization of REE deposits of alkaline intrusions: geology, metallogeny and geometallurgy of the Kipawa syenite complex" (FRQNT, 2017, p. 59). SGS are proposed as an alternative method to the acknowledge ordinary kriging technic which was used for the REE mineral resources estimation of the Kipawa deposit, site under study. This report compares the results of the SGS mineral resources estimate to those of ordinary kriging. To this end, the study site is first presented along with the database jointly used by the two methods. Then, a literature review discusses the notions and concepts required to carry out the SGS of this study. Once this knowledge acquired, the research method is developed. Afterward, the results are presented and discussed. Overall, results demonstrate that SGS of MAF factors offer the advantage of estimating REE mineral resources in a multivariate manner, limiting the smoothing of the results while providing an assessment of their uncertainty. The SGS propose a normal distribution of the total REE ranging from a minimum of 91 035 t to a maximum of 103 118 t. On the other hand, the ordinary kriging estimates a single value of 113 717 t in total REE with no cut-off grade. In conclusion, the SGS method evaluates a lesser tonnage of REE mineral ressources at the Kipawa deposit than the ordinary kriging technic. KEYWORDS: Simulations, Geostatistic, Sequential Gaussian Simulations (SGS), Min/Max Autocorrelation Factors (MAF), Rare Earth Elements (REE), Mineral resources.
|
23 |
La délinquance sexuelle : facteurs de risque et récidiveVachon, Claudya 27 January 2024 (has links)
La présente étude examine la récidive sexuelle - définie comme tout nouveau délit sexuel qui a été saisi par le système de justice et qui a engendré une sanction pénale - chez les auteurs d'infractions sexuelles adultes. L'échantillon comprend 759 individus d'âge adulte ayant commis au moins un crime sexuel de toute nature confondue. Ceux-ci avaient, à un moment ou à un autre de leur trajectoire délictuelle, fait l'objet d'une évaluation actuarielle à l'aide de l'outil Stable. Une analyse de régression logistique hiérarchique a été effectuée afin de déterminer le rôle contributif de certains facteurs statiques et dynamiques dans la répétition d'un comportement répréhensible de nature sexuelle. Les résultats indiquent que plus de la moitié des délits sexuels ont été perpétrées par les 236 récidivistes sexuels, alors que le taux de récidive de l'échantillon est de 31%. De plus, il existe des distinctions entre les facteurs criminogènes du récidiviste sexuel et celle de l'auteur d'un seu ldélit sexuel. Le premier se distingue par la prépondérance des problématiques d'ordre sexuel. Les précurseurs à l'agir criminel du second ne seraient pas très éloignés des facteurs sous tendant la commission d'un crime de délinquance générale. Ces résultats sont cohérents avec les données issues de la littérature et permettent de contribuer à améliorer les connaissances disponibles sur la délinquance sexuelle et sa récidive.
|
24 |
Méthodes statistiques d'ajustement pour les facteurs confondants en évaluation économiqueJulmiste, Gaetane Raymonde 14 November 2024 (has links)
Ajuster adéquatement pour les variables confondantes est une problématique majeure en économie de la santé. Différentes méthodes ont été proposées. Les études qui ont comparé ces méthodes l'ont rarement fait à partir de données simulées, mais plutôt sur la base d'arguments conceptuels. Notre étude visait ainsi à réaliser des simulations de Monte-Carlo pour comparer les méthodes les plus recommandées dans la littérature telles que la régression par le bénéfice monétaire net et les régressions apparemment indépendantes, en générant des données pour les réponses en log-linéaire et linéaire. Nous avons estimé l'effet causal sous la forme d'un rapport de coût-efficacité différentiel et d'un bénéfice monétaire net, soit pour la population générale, soit chez les traités, afin de déterminer les méthodes qui contrôlent le mieux le biais en utilisant divers scénarios où la taille d'échantillon et les corrélations variaient. Seul la méthode d'appariement complet sur le score de propension ajusté pour tous les confondants permettait d'obtenir un biais faible. Des analyses supplémentaires ont permis de déterminer que lorsque les réponses sont générées selon des modèles log-linéaires, la modélisation linéaire de ces réponses induit un biais. Ce biais n'était pas atténué par la modélisation des confondants à l'aide de splines cubiques, alors qu'il était résorbé en utilisant l'estimation ciblée par maximum de vraisemblance couplé à l'apprentissage machine, d'autant que les coûts soient ajustés pour leurs propres confondants ainsi que les confondants simultanés des coûts et de l'efficacité, et que l'efficacité soit ajustée pour ses propres confondants et les confondants simultanés des coûts et de l'efficacité. Puisque les réponses en évaluation économique sont potentiellement souvent log-linéaires, nous recommandons l'utilisation de l'appariement complet en ajustant pour tous les confondants, ou l'utilisation d'apprentissage machine pour modéliser les réponses où chaque réponse est ajustée pour ses confondants et les confondants simultanés du coût et de l'efficacité. / Adjusting for confounding variables is a major issue in health economics. Various methods have been proposed. Studies that have compared these methods have rarely done so on the basis of simulated data, but rather on the basis of conceptual arguments. The aim of our study was therefore to carry out Monte Carlo simulations to compare the methods most recommended in the literature, such as regression by net monetary benefit and seemingly unrelated regressions, by generating log-linear or linear outcome data. We estimated the causal effect in the form of incremental cost-effectiveness ratio and net monetary benefit, either for the general population or among the treated, to determine which methods best controlled for bias using various scenarios where sample size and correlations varied. Only the full matching on a propensity score adjusted for all confounders achieved a low bias. Further analysis determined that when outcomes were generated according to log-linear models, linear modeling of these outcomes induced bias. This bias was not mitigated by modeling confounders using cubic splines, whereas it was removed using targeted maximum likelihood estimation coupled with machine learning, provided that costs were adjusted for their own confounders as well as simultaneous cost and effictiveness confounders, and effectiveness was adjusted for its own confounders and simultaneous cost and effectiveness confounders. Since outcomes in economic evaluation are potentially often log-linear, we recommend the use of full matching by adjusting for all confounders, or the use of machine learning to model outcomes where each outcome is adjusted for its confounders and the simultaneous confounders of cost and effectiveness.
|
25 |
Modélisation asymétrique de titres financiersJbili, Walid 13 April 2018 (has links)
La théorie de Markowitz a toujours été au centre de la théorie de gestion de portefeuilles. Cependant, elle est l'objet de plusieurs critiques. Dans ce mémoire, on se propose de revoir certains postulats de la théorie de Markowitz. L'approche que préconise ce mémoire est de modéliser le portefeuille dans sa globalité au lieu des titres individuels. Cette approche vise à identifier une loi s'ajustant aux rendements (ou à une transformation puissance des rendements) des portefeuilles. L'identification de la loi s'appuiera sur des portefeuilles simulés et d'autres réels. Plusieurs méthodes seront exploitées pour identifier et vérifier l'adéquation de cette loi.
|
26 |
Comparaisons multidimensionnelles de bien-être et de pauvreté : méthodes, inférence et applicationsMaweki Batana, Yélé 13 April 2018 (has links)
L'objectif de cette thèse est de proposer une démarche statistique adéquate pour réaliser des comparaisons robustes en bien-être lorsqu'on traite de distributions multivariées. Après une revue critique des inférences statistiques basées sur des hypothèses composites, la formulation de type intersection-union a été retenue pour établir des comparaisons robustes et univoques en termes de dominance stricte. Davidson et Duclos (2006) proposent dans ce sens, une méthode basée sur le ratio de vraisemblance empirique pour tester la dominance stochastique dans le contexte de distributions univariées. Cette méthode est étendue ici aux distributions multivariées, ce qui, dans le cadre de l'analyse de la pauvreté et du bien-être, concorde avec l'évolution récente de la littérature qui favorise l'usage de plusieurs dimensions pour étudier la répartition du bien-être. Un premier exercice consiste à analyser les performances de la démarche proposée dans le contexte bidimensionnel. La démarche, basée sur la maximisation d'une fonction de vraisemblance empirique, teste l'hypothèse nulle de non dominance contre l'alternative de dominance. La statistique de test est pivotale, ce qui permet de réaliser des tests de bootstrap. Des simulations de Monte Carlo permettent d'étudier le niveau et la puissance des tests. Une fois les performances du test jugées acceptables, des applications sont réalisées pour analyser* les relations de dominance stochastique en pauvreté entre quelques pays africains. Pour définir les distributions, les deux dimensions considérées sont le statut nutritionnel et un indice de richesse estimé par les méthodes d'analyse factorielle à partir de données EDS (Enquêtes démographie et santé). Un troisième volet consiste à considérer le cas où l'une des deux dimensions de la distribution est une variable discrète. L'on teste alors des relations de dominance stochastique séquentielle en bien-être et en pauvreté, en utilisant une démarche statistique analogue à celle du chapitre précédent. Enfin, un dernier exercice analyse le phénomène de la mobilité qui constitue un aspect dynamique de la distribution de bien-être. Des conditions de dominance stochastique en mobilité au premier et au second ordre sont dérivées et des tests sont à nouveau réalisés sous l'hypothèse nulle de non dominance contre l'alternative de dominance. L'application est faite à partir des données américaines du PSID (Panel Studies of Income Dynamics).
|
27 |
Critère de sélection de variables pour les modèles de régression logistique conditionnelle mixte lorsque la structure des effets aléatoires est inconnueBenouari, Ouassima 23 September 2019 (has links)
Nous évaluons la perfomance du critère récemment proposé meanAIC comme critère de sélection de variables pour les modèles de régression logistique conditionnelle mixte. Il s’agit d’un critère basé sur l’information d’Akaike, calculable lorsque le modèle est ajusté à l’aide d’une méthode d’estimation en deux étapes. En outre, le calcul de meanAIC ne nécessite pas la spécification de la structure des effets aléatoires ; il est donc d’une grande utilité comme premier filtre pour les variables dans une première analyse où la structure des effets aléatoires est typiquement inconnue. Ce travail a été motivé par les applications en écologie, où la sélection de variables est traditionnellement basée sur les critères d’information plutôt que sur les méthodes de régularisation. Ces études utilisent les données télémétriques de déplacement animal collectées selon un plan d’échantillonnage cas-témoins apparié et analysées à l’aide d’un modèle de régression logistique conditionnelle mixte. Nous effectuons une étude de simulation pour évaluer la capacité de meanAIC à correctement identifier les covariables potentiellement importantes dans le modèle et nous illustrons son utilisation à l’aide de données de sélection d’habitat collectées sur des caribous / We assess the perfomance of the recently proposed criterion meanAIC as a variable selection criterion for mixed conditional logistic regression models. It is a criterion based on Akaike’s information, computable when the model is fitted with a two-step estimation method. In addition, the calculation of meanAIC does not require the specification of the random effects structure; it is thus of great use as a first covariates filter in the early stage of the analysis when the random effects structure is typically unknown. This work is motivated by applications in ecology where the model selection is traditionally based on information criteria rather than on regularization. These studies use animal movement telemetric data collected using a matched case-control sampling design that are analyzed with a mixed conditional logistic regression model. We conduct a simulation study to assess the ability of meanAIC to correctly identify potentially important covariates and illustrate its use by analyzing habitat selection data collected on caribou.
|
28 |
Évaluation de la validité des modèles de risque pour prédire l’incidence des gastroentérites d’origine hydrique au QuébecShemilt, Michèle 23 April 2018 (has links)
Les analyses de risque microbiologique, dont l'ÉQRM (évaluation quantitative du risque microbien) proposent de nouvelles techniques pour évaluer les conséquences sanitaires liées à la contamination microbiologique de l'eau potable. Ces modèles intègrent les données physico-chimiques et microbiologiques des usines de traitement d'eau pour quantifier un risque à la santé. Le projet visait à évaluer le lien entre le risque estimé selon un modèle ÉQRM et l’incidence de giardiase observée. Les banques de données des maladies à déclaration obligatoire et d’INFO-SANTÉ ont été utilisées pour comparer le résultat de l’analyse de risque à celui des analyses épidémiologiques. Les municipalités considérées les plus à risque par l'ÉQRM ont une incidence de gastroentérite et de parasitoses plus élevée. Cependant, l'ampleur du risque prédit ne correspond pas à celui observé. Il est souhaitable que les modèles d’ÉQRM incorporent des données populationnelles pour prédire avec une plus grande exactitude le risque épidémiologique.
|
29 |
Précision d'extrapolation des éphémérides des objets du système solaire. Application aux satellites de Saturne.Desmars, Josselin 26 June 2009 (has links) (PDF)
La précision globale des éphémérides est déterminée à la fois par la précision du modèle dynamique (précision interne) et par la qualité (précision et distribution) des observations utilisées pour l'ajustement du modèle (précision externe). La précision interne est bien estimée et de bonne qualité. En revanche, la précision externe est mal connue et tend à dégrader la qualité globale de l'éphéméride. L'un des moyens d'estimer la précision d'une éphéméride est la comparaison aux observations (O-C) qui n'est toutefois valable que pendant une période d'observations. En dehors de ces périodes, l'estimation de la précision reste difficile. L'objectif de ce travail est donc de mettre en lumière des méthodes statistiques qui permettent d'estimer la précision d'une éphéméride au cours du temps. Notre étude porte en particulier sur deux des huit satellites principaux de Saturne mais le cas d'un astéroîde est également étudié. Nous montrons que l'une des méthodes, le bootstrap, possède une implémentation simple et permet cette estimation en utilisant des hypothèses minimales sur la distribution des erreurs d'observations. La détermination de cette précision permet de mieux appréhender la manière d'utiliser les observations pour ajuster des théories. L'impact de la mission Gaia sur la précision des éphémérides peut également être mesurée. Un catalogue d'observations des satellites de Saturne, dont l'utilisation ne s'est pas limitée à l'ajustement du modèle, a été compilé. La longue période couverte par cette base de données autorise ainsi une mesure des forces de marées de Saturne, à travers la détection de l'accélération séculaire de la longitude moyenne de certains satellites.
|
30 |
Un modèle hybride pour le calcul de propriétés radiatives des plasmas chauds combinant niveaux, configurations et supraconfigurations à l'équilibre thermodynamique local.Porcherot, Quentin 17 January 2012 (has links) (PDF)
Dans les plasmas chauds et denses, la contribution des phénomènes radiatifs au transfert d'énergie est souvent prédominante. L'opacité de ces plasmas a donc une incidence majeure sur leur structure et leur évolution. En principe, le calcul raie par raie de l'opacité spectrale permet d'obtenir les résultats les plus précis, mais il nécessite souvent une grande quantité de ressources. À l'inverse, les méthodes statistiques de calcul d'opacité sont capables de prendre en compte un très grand nombre d'états excités, mais elles ne restituent pas les raies détaillées et ne sont pas toujours adaptées à des calculs destinés à la spectroscopie. L'objectif de la thèse est de calculer l'opacité de plasmas chauds en combinant ces deux approches. La méthode présentée a rendu possible le couplage d'un code de calcul d'opacités avec un code de structure atomique. Le modèle développé a été utilisé pour l'interprétation de spectres expérimentaux (laser, Z-pinch) et des pistes d'optimisation sont envisagées.
|
Page generated in 0.128 seconds