• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 6
  • 4
  • Tagged with
  • 19
  • 19
  • 18
  • 18
  • 11
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Contrôle, agentivité et apprentissage par renforcement / Control, agency and reinforcement learning in human decision-making

Théro, Héloïse 26 September 2018 (has links)
Le sentiment d’agentivité est défini comme le sentiment de contrôler nos actions, et à travers elles, les évènements du monde extérieur. Cet ensemble phénoménologique dépend de notre capacité d’apprendre les contingences entre nos actions et leurs résultats, et un algorithme classique pour modéliser cela vient du domaine de l’apprentissage par renforcement. Dans cette thèse, nous avons utilisé l’approche de modélisation cognitive pour étudier l’interaction entre agentivité et apprentissage par renforcement. Tout d’abord, les participants réalisant une tâche d’apprentissage par renforcement tendent à avoir plus d’agentivité. Cet effet est logique, étant donné que l’apprentissage par renforcement consiste à associer une action volontaire et sa conséquence. Mais nous avons aussi découvert que l’agentivité influence l’apprentissage de deux manières. Le mode par défaut pour apprendre des contingences action-conséquence est que nos actions ont toujours un pouvoir causal. De plus, simplement choisir une action change l’apprentissage de sa conséquence. En conclusion, l’agentivité et l’apprentissage par renforcement, deux piliers de la psychologie humaine, sont fortement liés. Contrairement à des ordinateurs, les humains veulent être en contrôle, et faire les bons choix, ce qui biaise notre aquisition d’information. / Sense of agency or subjective control can be defined by the feeling that we control our actions, and through them effects in the outside world. This cluster of experiences depend on the ability to learn action-outcome contingencies and a more classical algorithm to model this originates in the field of human reinforcementlearning. In this PhD thesis, we used the cognitive modeling approach to investigate further the interaction between perceived control and reinforcement learning. First, we saw that participants undergoing a reinforcement-learning task experienced higher agency; this influence of reinforcement learning on agency comes as no surprise, because reinforcement learning relies on linking a voluntary action and its outcome. But our results also suggest that agency influences reinforcement learning in two ways. We found that people learn actionoutcome contingencies based on a default assumption: their actions make a difference to the world. Finally, we also found that the mere fact of choosing freely shapes the learning processes following that decision. Our general conclusion is that agency and reinforcement learning, two fundamental fields of human psychology, are deeply intertwined. Contrary to machines, humans do care about being in control, or about making the right choice, and this results in integrating information in a one-sided way.
12

Apprentissage de modèles causaux par réseaux de neurones artificiels

Brouillard, Philippe 07 1900 (has links)
Dans ce mémoire par articles, nous nous intéressons à l’apprentissage de modèles causaux à partir de données. L’intérêt de cette entreprise est d’obtenir une meilleure compréhension des données et de pouvoir prédire l’effet qu’aura un changement sur certaines variables d’un système étudié. Comme la découverte de liens causaux est fondamentale en sciences, les méthodes permettant l’apprentissage de modèles causaux peuvent avoir des applications dans une pléthore de domaines scientifiques, dont la génomique, la biologie et l’économie. Nous présentons deux nouvelles méthodes qui ont la particularité d’être des méthodes non-linéaires d’apprentissage de modèles causaux qui sont posées sous forme d’un problème d’optimisation continue sous contrainte. Auparavant, les méthodes d’apprentissage de mo- dèles causaux abordaient le problème de recherche de graphes en utilisant des stratégies de recherche voraces. Récemment, l’introduction d’une contrainte d’acyclicité a permis d’abor- der le problème différemment. Dans un premier article, nous présentons une de ces méthodes: GraN-DAG. Sous cer- taines hypothèses, GraN-DAG permet d’apprendre des graphes causaux à partir de données observationnelles. Depuis la publication du premier article, plusieurs méthodes alternatives ont été proposées par la communauté pour apprendre des graphes causaux en posant aussi le problème sous forme d’optimisation continue avec contrainte. Cependant, aucune de ces méthodes ne supportent les données interventionnelles. Pourtant, les interventions réduisent le problème d’identifiabilité et permettent donc l’utilisation d’architectures neuronales plus expressives. Dans le second article, nous présentons une autre méthode, DCDI, qui a la particularité de pouvoir utiliser des données avec différents types d’interventions. Comme le problème d’identifiabilité est moins important, une des deux instanciations de DCDI est un approximateur de densité universel. Pour les deux méthodes proposées, nous montrons que ces méthodes ont de très bonnes performances sur des données synthétiques et réelles comparativement aux méthodes traditionelles. / In this thesis by articles, we study the learning of causal models from data. The goal of this entreprise is to gain a better understanding of data and to be able to predict the effect of a change on some variables of a given system. Since discovering causal relationships is fundamental in science, causal structure learning methods have applications in many fields that range from genomics, biology, and economy. We present two new methods that have the particularity of being non-linear methods learning causal models casted as a continuous optimization problem subject to a constraint. Previously, causal strutural methods addressed this search problem by using greedy search heuristics. Recently, a new continuous acyclity constraint has allowed to address the problem differently. In the first article, we present one of these non-linear method: GraN-DAG. Under some assumptions, GraN-DAG can learn a causal graph from observational data. Since the publi- cation of this first article, several alternatives methods have been proposed by the community by using the same continuous-constrained optimization formulation. However, none of these methods support interventional data. Nevertheless, interventions reduce the identifiability problem and allow the use of more expressive neural architectures. In the second article, we present another method, DCDI, that has the particularity to leverage data with several kinds of interventions. Since the identifiabiliy issue is less severe, one of the two instantia- tions of DCDI is a universal density approximator. For both methods, we show that these methods have really good performances on synthetic and real-world tasks comparatively to other classical methods.
13

Détection de l’invalidité et estimation d’un effet causal en présence d’instruments invalides dans un contexte de randomisation mendélienne

Boucher-Roy, David 08 1900 (has links)
La randomisation mendélienne est une méthode d’instrumentation utilisant des instruments de nature génétique afin d’estimer, via par exemple la régression des moindres carrés en deux étapes, une relation de causalité entre un facteur d’exposition et une réponse lorsque celle-ci est confondue par une ou plusieurs variables de confusion non mesurées. La randomisation mendélienne est en mesure de gérer le biais de confusion à condition que les instruments utilisés soient valides, c’est-à-dire qu’ils respectent trois hypothèses clés. On peut généralement se convaincre que deux des trois hypothèses sont satisfaites alors qu’un phénomène génétique, la pléiotropie, peut parfois rendre la troisième hypothèse invalide. En présence d’invalidité, l’estimation de l’effet causal de l’exposition sur la réponse peut être sévèrement biaisée. Afin d’évaluer la potentielle présence d’invalidité lorsqu’un seul instrument est utilisé, Glymour et al. (2012) ont proposé une méthode qu’on dénomme ici l’approche de la différence simple qui utilise le signe de la différence entre l’estimateur des moindres carrés ordinaires de la réponse sur l’exposition et l’estimateur des moindres carrés en deux étapes calculé à partir de l’instrument pour juger de l’invalidité de l’instrument. Ce mémoire introduit trois méthodes qui s’inspirent de cette approche, mais qui sont applicables à la randomisation mendélienne à instruments multiples. D’abord, on introduit l’approche de la différence globale, une simple généralisation de l’approche de la différence simple au cas des instruments multiples qui a comme objectif de détecter si un ou plusieurs instruments utilisés sont invalides. Ensuite, on introduit les approches des différences individuelles et des différences groupées, deux méthodes qui généralisent les outils de détection de l’invalidité de l’approche de la différence simple afin d’identifier des instruments potentiellement problématiques et proposent une nouvelle estimation de l’effet causal de l’exposition sur la réponse. L’évaluation des méthodes passe par une étude théorique de l’impact de l’invalidité sur la convergence des estimateurs des moindres carrés ordinaires et des moindres carrés en deux étapes et une simulation qui compare la précision des estimateurs résultant des différentes méthodes et leur capacité à détecter l’invalidité des instruments. / Mendelian randomization is an instrumentation method that uses genetic instruments to estimate, via two-stage least squares regression for example, a causal relationship between an exposure and an outcome when the relationship is confounded by one or more unmeasured confounders. Mendelian randomization can handle confounding bias provided that the instruments are valid, i.e., that they meet three key assumptions. While two of the three assumptions can usually be satisfied, the third assumption is often invalidated by a genetic phenomenon called pleiotropy. In the presence of invalid instruments, the estimate of the causal effect of exposure on the outcome may be severely biased. To assess the potential presence of an invalid instrument in single-instrument studies, Glymour et al. (2012) proposed a method, hereinafter referred to as the simple difference approach, which uses the sign of the difference between the ordinary least squares estimator of the outcome on the exposure and the two-stage least squares estimator calculated using the instrument. Based on this approach, we introduce three methods applicable to Mendelian randomization with multiple instruments. The first method is the global difference approach and corresponds to a simple generalization of the simple difference approach to the case of multiple instruments that aims to detect whether one or more instruments are invalid. Next, we introduce the individual differences and the grouped differences approaches, two methods that generalize the simple difference approach to identify potentially invalid instruments and provide new estimates of the causal effect of the exposure on the outcome. The methods are evaluated using a theoretical investigation of the impact that invalid instruments have on the convergence of the ordinary least squares and two-stage least squares estimators as well as with a simulation study that compares the accuracy of the respective estimators and the ability of the corresponding methods to detect invalid instruments.
14

Sur les estimateurs doublement robustes avec sélection de modèles et de variables pour les données administratives

Bahamyirou, Asma 10 1900 (has links)
Les essais cliniques randomisés (ECRs) constituent la meilleure solution pour obtenir des effets causaux et évaluer l’efficacité des médicaments. Toutefois, vu qu’ils ne sont pas toujours réalisables, les bases de données administratives servent de solution de remplacement. Le sujet principal de cette thèse peut être divisée en deux parties, le tout, repartie en trois articles. La première partie de cette thèse traite de l’utilisation des estimateurs doublement robustes en inférence causale sur des bases de données administratives avec intégration des méthodes d’apprentissage automatique. Nous pouvons citer, par exemple, l’estimateur par maximum de vraisemblance ciblé (TMLE) et l’estimateur par augmentation de l’inverse de la probabilité de traitement (AIPTW). Ces méthodes sont de plus en plus utilisées en pharmaco-épidémiologie pour l’estimation des paramètres causaux, comme l’effet moyen du traitement. Dans la deuxième partie de cette thèse, nous développons un estimateur doublement robuste pour les données administratives et nous étendons une méthode existante pour l’ajustement du biais de sélection utilisant un échantillon probabiliste de référence. Le premier manuscrit de cette thèse présente un outil de diagnostic pour les analystes lors de l’utilisation des méthodes doublement robustes. Ce manuscrit démontre à l’aide d’une étude de simulation l’impact de l’estimation du score de propension par des méthodes flexibles sur l’effet moyen du traitement, et ce, en absence de positivité pratique. L’article propose un outil capable de diagnostiquer l’instabilité de l’estimateur en absence de positivité pratique et présente une application sur les médicaments contre l’asthme durant la grossesse. Le deuxième manuscrit présente une procédure de sélection de modificateurs d’effet et d’estimation de l’effet conditionnel. En effet, cet article utilise une procédure de régularisation en deux étapes et peut être appliqué sur plusieurs logiciels standards. Finalement, il présente une application sur les médicaments contre l’asthme durant la grossesse. Le dernier manuscrit développe une méthodologie pour ajuster un biais de sélection dans une base de données administratives dans le but d’estimer une moyenne d’une population, et ce, en présence d’un échantillon probabiliste provenant de la même population avec des co-variables communes. En utilisant une méthode de régularisation, il montre qu’il est possible de sélectionner statistiquement les bonnes variables à ajuster dans le but de réduire l’erreur quadratique moyenne et la variance. Cet article décrit ensuite une application sur l’impact de la COVID-19 sur les Canadiens. / Randomized clinical trials (RCTs) are the gold standard for establishing causal effects and evaluating drug efficacy. However, RCTs are not always feasible and the usage of administrative data for the estimation of a causal parameter is an alternative solution. The main subject of this thesis can be divided into two parts, the whole comprised of three articles. The first part studies the usage of doubly robust estimators in causal inference using administrative data and machine learning. Examples of doubly robust estimators are Targeted Maximum Likelihood Estimation (TMLE; [73]) and Augmented Inverse Probability of Treatment Weighting (AIPTW; [51]). These methods are more and more present in pharmacoepidemiology [65, 102, 86, 7, 37]. In the second part of this thesis, we develop a doubly robust estimator and extend an existing one [121] for the setting of administrative data with a supplemental probability sample. The first paper of this thesis proposes a diagnostic tool that uses re-sampling methods to identify instability in doubly robust estimators when using data-adaptive methods in the presence of near practical positivity violations. It demonstrates the impact of machine learning methods for propensity score estimation when near practical positivity violations are induced. It then describes an analysis of asthma medication during pregnancy. The second manuscript develops a methodology to statistically select effect modifying variables using a two stage procedure in the context of a single time point exposure. It then describes an analysis of asthma medication during pregnancy. The third manuscript describes the development of a variable selection procedure using penalization for combining a nonprobability and probability sample in order to adjust for selection bias. It shows that we can statistically select the right subset of the variables when the true propensity score model is sparse. It demonstrates the benefit in terms of mean squared error and presents an application of the impact of COVID-19 on Canadians.
15

Perception du soutien à l’autonomie et pratique d’activité physique chez les femmes ayant été traitées pour un cancer du sein : une analyse par score de propension

Plante, Audrey 12 1900 (has links)
La majorité des femmes ayant été traitées pour un cancer du sein sont physiquement inactives alors que l’activité physique (AP) pourrait atténuer les conséquences néfastes du cancer et des traitements. Le soutien à l’autonomie par les professionnels de la santé peut améliorer l’adhésion et le maintien de l’AP. Or, peu d’études portent sur les populations en cancer et la plupart utilisent des devis qui limitent l’inférence causale. L’objectif du présent mémoire est de déterminer, à l’aide d’une approche en inférence causale, si la perception du soutien à l’autonomie (PSA) par des professionnels de la santé est associée à l’AP d’intensités légère, modérée et vigoureuse chez des femmes ayant été traitées pour un cancer du sein. Les données ont été collectées dans le cadre de l’étude longitudinale « Life After Breast Cancer : Moving On » (n=199). La PSA a été mesurée par le questionnaire Healthcare Climate Questionnaire. L’AP a été mesurée à l’aide d’accéléromètres triaxiaux GT3X. L’association entre la PSA et l’AP a été estimée à l’aide régressions linéaires et les estimations ajustées ont été obtenues par pondération par l’inverse de la probabilité de traitement (IPTW). Les résultats montrent l’absence d’associations entre la PSA et l’AP d’intensités légère (β^(95%IC) = -0,09 (-0,68 ; 0,49)), modérée (β^(95%IC) = -0,03 (-0,17 ; 0,11)) ou vigoureuse (β^(95%IC) = 0,00 (-0,03 ; 0,02)). D’autres formes de soutien à l’AP par les professionnels de la santé pourraient être envisagées pour encourager les femmes ayant été traitées pour un cancer du sein à adopter et maintenir une pratique régulière d’AP. / The majority of women that have been treated for breast cancer are physically inactive although physical activity (PA) could attenuate some of the adverse consequences of cancer and treatment. Autonomy support from health care professionals may improve PA adherence and maintenance. However, few studies on this topic focus on people treated for cancer and most use designs that limit causal inference. This master’s thesis aimed to determine, using a causal inference approach, whether or not perceived autonomy support (PAS) from health care professionals is associated with light, moderate, and vigorous intensity PA among women treated for breast cancer. Data were from the longitudinal study “Life After Breast Cancer: Moving On” (n=199). PAS was measured with the Healthcare Climate Questionnaire. PA was measured using the GT3X triaxial accelerometers. Associations between PAS and PA were estimated with linear regressions and adjusted estimations were obtained using propensity score-based inverse probability of treatment weights (IPTW). Results reveal no association between PAS and PA of light (β^(95%CI) = -0.09 (-0.68, 0.49)), moderate (β^(95%CI) = -0.03 (-0.17, 0.11)), or vigorous (β^(95%CI) = 0.00 (-0.03, 0.02)) intensity. Other forms of support for PA by health care professionals could be examined to encourage women to adopt and maintain regular PA.
16

Activité physique et santé mentale chez les jeunes au collégial

Doré, Isabelle 12 1900 (has links)
No description available.
17

Apprentissage basé sur le Qini pour la prédiction de l’effet causal conditionnel

Belbahri, Mouloud-Beallah 08 1900 (has links)
Les modèles uplift (levier en français) traitent de l'inférence de cause à effet pour un facteur spécifique, comme une intervention de marketing. En pratique, ces modèles sont construits sur des données individuelles issues d'expériences randomisées. Un groupe traitement comprend des individus qui font l'objet d'une action; un groupe témoin sert de comparaison. La modélisation uplift est utilisée pour ordonner les individus par rapport à la valeur d'un effet causal, par exemple, positif, neutre ou négatif. Dans un premier temps, nous proposons une nouvelle façon d'effectuer la sélection de modèles pour la régression uplift. Notre méthodologie est basée sur la maximisation du coefficient Qini. Étant donné que la sélection du modèle correspond à la sélection des variables, la tâche est difficile si elle est effectuée de manière directe lorsque le nombre de variables à prendre en compte est grand. Pour rechercher de manière réaliste un bon modèle, nous avons conçu une méthode de recherche basée sur une exploration efficace de l'espace des coefficients de régression combinée à une pénalisation de type lasso de la log-vraisemblance. Il n'y a pas d'expression analytique explicite pour la surface Qini, donc la dévoiler n'est pas facile. Notre idée est de découvrir progressivement la surface Qini comparable à l'optimisation sans dérivée. Le but est de trouver un maximum local raisonnable du Qini en explorant la surface près des valeurs optimales des coefficients pénalisés. Nous partageons ouvertement nos codes à travers la librairie R tools4uplift. Bien qu'il existe des méthodes de calcul disponibles pour la modélisation uplift, la plupart d'entre elles excluent les modèles de régression statistique. Notre librairie entend combler cette lacune. Cette librairie comprend des outils pour: i) la discrétisation, ii) la visualisation, iii) la sélection de variables, iv) l'estimation des paramètres et v) la validation du modèle. Cette librairie permet aux praticiens d'utiliser nos méthodes avec aise et de se référer aux articles méthodologiques afin de lire les détails. L'uplift est un cas particulier d'inférence causale. L'inférence causale essaie de répondre à des questions telle que « Quel serait le résultat si nous donnions à ce patient un traitement A au lieu du traitement B? ». La réponse à cette question est ensuite utilisée comme prédiction pour un nouveau patient. Dans la deuxième partie de la thèse, c’est sur la prédiction que nous avons davantage insisté. La plupart des approches existantes sont des adaptations de forêts aléatoires pour le cas de l'uplift. Plusieurs critères de segmentation ont été proposés dans la littérature, tous reposant sur la maximisation de l'hétérogénéité. Cependant, dans la pratique, ces approches sont sujettes au sur-ajustement. Nous apportons une nouvelle vision pour améliorer la prédiction de l'uplift. Nous proposons une nouvelle fonction de perte définie en tirant parti d'un lien avec l'interprétation bayésienne du risque relatif. Notre solution est développée pour une architecture de réseau de neurones jumeaux spécifique permettant d'optimiser conjointement les probabilités marginales de succès pour les individus traités et non-traités. Nous montrons que ce modèle est une généralisation du modèle d'interaction logistique de l'uplift. Nous modifions également l'algorithme de descente de gradient stochastique pour permettre des solutions parcimonieuses structurées. Cela aide dans une large mesure à ajuster nos modèles uplift. Nous partageons ouvertement nos codes Python pour les praticiens désireux d'utiliser nos algorithmes. Nous avons eu la rare opportunité de collaborer avec l'industrie afin d'avoir accès à des données provenant de campagnes de marketing à grande échelle favorables à l'application de nos méthodes. Nous montrons empiriquement que nos méthodes sont compétitives avec l'état de l'art sur les données réelles ainsi qu'à travers plusieurs scénarios de simulations. / Uplift models deal with cause-and-effect inference for a specific factor, such as a marketing intervention. In practice, these models are built on individual data from randomized experiments. A targeted group contains individuals who are subject to an action; a control group serves for comparison. Uplift modeling is used to order the individuals with respect to the value of a causal effect, e.g., positive, neutral, or negative. First, we propose a new way to perform model selection in uplift regression models. Our methodology is based on the maximization of the Qini coefficient. Because model selection corresponds to variable selection, the task is haunting and intractable if done in a straightforward manner when the number of variables to consider is large. To realistically search for a good model, we conceived a searching method based on an efficient exploration of the regression coefficients space combined with a lasso penalization of the log-likelihood. There is no explicit analytical expression for the Qini surface, so unveiling it is not easy. Our idea is to gradually uncover the Qini surface in a manner inspired by surface response designs. The goal is to find a reasonable local maximum of the Qini by exploring the surface near optimal values of the penalized coefficients. We openly share our codes through the R Package tools4uplift. Though there are some computational methods available for uplift modeling, most of them exclude statistical regression models. Our package intends to fill this gap. This package comprises tools for: i) quantization, ii) visualization, iii) variable selection, iv) parameters estimation and v) model validation. This library allows practitioners to use our methods with ease and to refer to methodological papers in order to read the details. Uplift is a particular case of causal inference. Causal inference tries to answer questions such as ``What would be the result if we gave this patient treatment A instead of treatment B?" . The answer to this question is then used as a prediction for a new patient. In the second part of the thesis, it is on the prediction that we have placed more emphasis. Most existing approaches are adaptations of random forests for the uplift case. Several split criteria have been proposed in the literature, all relying on maximizing heterogeneity. However, in practice, these approaches are prone to overfitting. In this work, we bring a new vision to uplift modeling. We propose a new loss function defined by leveraging a connection with the Bayesian interpretation of the relative risk. Our solution is developed for a specific twin neural network architecture allowing to jointly optimize the marginal probabilities of success for treated and control individuals. We show that this model is a generalization of the uplift logistic interaction model. We modify the stochastic gradient descent algorithm to allow for structured sparse solutions. This helps fitting our uplift models to a great extent. We openly share our Python codes for practitioners wishing to use our algorithms. We had the rare opportunity to collaborate with industry to get access to data from large-scale marketing campaigns favorable to the application of our methods. We show empirically that our methods are competitive with the state of the art on real data and through several simulation setting scenarios.
18

Methodological challenges in the comparative assessment of effectiveness and safety of oral anticoagulants in individuals with atrial fibrillation using administrative healthcare data

Gubaidullina, Liliya 08 1900 (has links)
La fibrillation auriculaire (FA), l’arythmie cardiaque la plus courante est un facteur de risque majeur pour le développement de l’accident vasculaire cérébral ischémique (AVC). Les anticoagulants oraux directs (AOD) ont largement remplacé la warfarine en usage clinique pour la prévention des AVC dans la FA. Cette recherche a examiné deux défis méthodologiques importants qui peuvent survenir dans les études observationnelles sur l’efficacité et l’innocuité comparatives des AOD et de la warfarine. Premièrement : un biais d’information résultant d’une classification erronée de l’exposition au traitement à la warfarine suite aux ajustements de doses fréquentes qui ne sont pas adéquatement consignés dans les données de dispensations pharmacologiques. Deuxièmement : un biais de sélection, en raison de la censure informative, généré par des mécanismes de censure différentiels, chez les patients exposés aux AOD, ou à la warfarine. À l’aide des données administratives du Québec, j’ai mené trois études de cohortes rétrospectives qui ont portées sur toutes les personnes ayant initié un anticoagulant oral de 2010 à 2016. Ces études étaient restreintes aux résidents du Québec couverts par le régime public d'assurance médicaments (environ 40% de la population au Québec), c’est-à-dire : des personnes âgées de 65 ans et plus; des bénéficiaires de l’aide sociale; des personnes qui n’ont pas accès à une assurance-maladie privée; et les personnes à leur charge. Dans la première étude, nous avons émis l'hypothèse que les données sur les réclamations en pharmacie ne reflètent pas correctement la durée de la dispensation de la warfarine. Les écarts entre les renouvellements consécutifs étaient plus grands pour la warfarine que les AOD. Dans cette étude, on a trouvé que l'écart moyen pour les usagers de la warfarine était de 9.3 jours (avec un intervalle de confiance de 95% [IC]: 8.97-9.59), l'apixaban de 3.08 jours (IC de 95%: 2.96--3.20), et de 3.15 jours pour le rivaroxaban (IC de 95%: 3.03-3.27). Les écarts entre les renouvellements consécutifs présentaient une plus grande variabilité chez les personnes qui prenaient de la warfarine comparativement à celles qui prenaient des AOD. Cette variation peut refléter les changements de posologie de la warfarine lorsque la dose quotidienne est ajustée par le professionnel de la santé en fonction des résultats du rapport normalisé international (INR). L’ajustement de la dose peut prolonger (ou raccourcir) la période couverte par le nombre de comprimés délivrés. Dans la deuxième étude, nous avons émis l'hypothèse que la définition de la durée d'exposition basée sur la variable des « jours fournis », disponible dans la base de données, et le délai de grâce fixe, entraîneront une erreur de classification différentielle de l’exposition à la warfarine par rapport aux AOD. Dans cette étude, on a utilisé deux approches pour définir la durée des dispensations : la variable des « jours fournis » disponible dans la base de données ainsi qu’une approche axée sur les données pour la définition de la durée de dispensation qui tient compte des antécédents de distribution précédents. La deuxième étude a révélé qu'en utilisant la variable des « jours fournis », la durée moyenne (et l'écart type) des durées des dispensations pour le dabigatran, le rivaroxaban, et la warfarine étaient de 19 (15), 19 (14), et de 13 (12) jours, respectivement. En utilisant l’approche fondée sur des données, les durées étaient de 20 (16), 19 (15), et de 15 (16) jours, respectivement. Ainsi, l'approche fondée sur les données s’est rapprochée de la variable des « jours fournis » pour les thérapies à dose standard telles que le dabigatran et le rivaroxaban. Une approche axée sur les données pour la définition de la durée de dispensation, qui tient compte des antécédents de distribution précédents, permet de mieux saisir la variabilité de la durée de dispensation de la warfarine par rapport à la méthode basée sur la variable des « jours fournis ». Toutefois, cela n’a pas eu d’impact sur les estimations du rapport de risque sur la sécurité comparative des AOD par rapport à la warfarine. Dans la troisième étude, nous avons émis l'hypothèse que lors de l'évaluation de l’effet d’un traitement continu avec des anticoagulants oraux (l'analyse per-protocole), la censure élimine les patients les plus malades du groupe des AOD et des patients en meilleure santé du groupe de warfarine. Cela peut baisser l'estimation de l'efficacité et de l'innocuité comparative en faveur des AOD. L’étude a démontré que les mécanismes de censure chez les initiateurs d’AOD et de warfarine étaient différents. Ainsi, certaines covariables pronostiquement significatives, telles que l’insuffisance rénale chronique et l’insuffisance cardiaque congestive, étaient associées avec une augmentation de la probabilité de censure chez les initiateurs d’AOD, et une diminution de la probabilité de censure chez les initiateurs de warfarine. Pour corriger le biais de sélection introduit par la censure, nous avons appliqué la méthode de pondération par la probabilité inverse de censure. Deux stratégies de spécification du modèle pour l’estimation des poids de censure ont été explorées : le modèle non stratifié, et le modèle stratifié en fonction de l’exposition. L’étude a démontré que lorsque les poids de censure sont générés sans tenir compte des dynamiques de censure spécifiques, les estimés ponctuels sont biaisés de 15% en faveur des AOD par rapport à l'ajustement des estimés ponctuels avec des poids de censure stratifiée selon l’exposition (rapport de risque: 1.41; IC de 95%: 1.34, 1.48 et rapport de risque: 1.26; IC de 95%: 1.20, 1.33, respectivement). Dans l’ensemble, les résultats de cette thèse ont d’importantes implications méthodologiques pour les futures études pharmacoépidémiologiques. À la lumière de ceux-ci, les résultats des études observationnelles précédentes peuvent être revus et une certaine hétérogénéité peut être expliquée. Les résultats pourraient également être extrapolés à d’autres questions cliniques. / Atrial fibrillation (AF), the most common cardiac arrhythmia is a major risk factor for the development of ischemic stroke. Direct oral anticoagulants (DOACs) replaced warfarin in clinical use for stroke prevention in AF. This research investigated two important methodological challenges that may arise in observational studies on the comparative effectiveness and safety of DOACs and warfarin. First, an information bias resulting from misclassification of exposure to dose-varying warfarin therapy when using days supplied value recorded in pharmacy claims data. Second, a selection bias due to informative censoring with differential censoring mechanisms in the DOACs- and the warfarin exposure groups. Using the Québec administrative databases, I conducted three retrospective cohort studies that included patients initiating an oral anticoagulant between 2010 and 2016. The studies were restricted to Québec residents covered by the public drug insurance plan (about 40% of Québec’s population), including those aged 65 years and older, welfare recipients, those not covered by private medical insurance, and their dependents. In the first study, we hypothesized that pharmacy claims data inadequately captured the duration of the dispensation of warfarin. Gaps between subsequent dispensations (refill gaps) and their variation are larger for warfarin than for DOACs. In this study, we found that the average refill gap for the users of warfarin was 9.3 days (95% confidence interval [CI]:8.97-9.59), apixaban 3.08 days (95%CI: 2.96--3.20), dabigatran 3.70 days (95%CI: 3.56-3.84) and rivaroxaban 3.15 days (95%CI: 3.03-3.27). The variance of refill gaps was greater among warfarin users than among DOAC users. This variation may reflect the changes in warfarin posology when the daily dose is adjusted by a physician or a pharmacist based on previously observed international normalized ratio (INR) results. The dose adjustment may lead to a prolongation of the period covered by the number of dispensed pills. In the second study, we hypothesized that the definition of duration of dispensation based on the days supplied value and a fixed grace period will lead to differential misclassification of exposure to warfarin and DOACs. This may bias the estimate of comparative safety in favor of DOACs. In this study, we used two approaches to define the duration of dispensations: the recorded days supplied value, and the longitudinal coverage approximation (data-driven) that may account for individual variation in drug usage patterns. The second study found that using the days supplied, the mean (and standard deviation) dispensation durations for dabigatran, rivaroxaban, and warfarin were 19 (15), 19 (14), and 13 (12) days, respectively. Using the data-driven approach, the durations were 20 (16), 19 (15), and 15 (16) days, respectively. Thus, the data-driven approach closely approximated the recorded days supplied value for the standard dose therapies such as dabigatran and rivaroxaban. For warfarin, the data-driven approach captured more variability in the duration of dispensations compared to the days supplied value, which may better reflect the true drug-taking behavior of warfarin. However, this did not impact the hazard ratio estimates on the comparative safety of DOACs vs. warfarin. In the third study, we hypothesized that when assessing the effect of continuous treatment with oral anticoagulants (per-protocol effect), censoring removes sicker patients from the DOACs group and healthier patients from the warfarin group. This may bias the estimate of comparative effectiveness and safety in favor of DOACs. The study showed that the mechanisms of censoring in the DOAC and the warfarin exposure groups were different. Thus, prognostically meaningful covariates, such as chronic renal failure and congestive heart failure, had an opposite direction of association with the probability of censoring in the DOACs and warfarin groups. To correct the selection bias introduced by censoring, we applied the inverse probability of censoring weights. Two strategies for the specification of the model for the estimation of censoring weights were explored: exposure-unstratified and exposure-stratified. The study found that exposure-unstratified censoring weights did not account for the differential mechanism of censoring across the treatment group and failed to eliminate the selection bias. The hazard ratio associated with continuous treatment with warfarin versus DOACs adjusted with exposure unstratified censoring weights was 15% biased in favor of DOACs compared to the hazard ratio adjusted with exposure-stratified censoring weights (hazard ratio: 1.41; 95% CI: 1.34, 1.48 and hazard ratio: 1.26; 95%CI: 1.20, 1.33, respectively). Overall, the findings of this thesis have important methodological implications for future pharmacoepidemiologic studies. Moreover, the results of the previous observational studies can be reappraised, and some heterogeneity can be explained. The findings can be extrapolated to other clinical questions.
19

Développement du diabète de type 2 et de la maladie cardiovasculaire reliée au diabète de type 1 chez l'enfant et rôles de l'activité physique et des comportements sédentaires

Harnois-Leblanc, Soren 05 1900 (has links)
Contexte : Le diabète de type 1 et de type 2 apporte un fardeau considérable sur la santé et la qualité de vie de l’enfant, étant associé à des complications microvasculaires et cardiovasculaires et à une mortalité précoce à l’âge adulte. Il est essentiel de prévenir le diabète et les complications associées chez les enfants à risque. Néanmoins, on détient encore peu de connaissances sur comment le diabète de type 2 se développe ainsi que sur la présence de maladie cardiovasculaire chez les jeunes avec diabète de type 1. De plus, en comprenant mieux le rôle des habitudes de vie, comme l’activité physique et les comportements sédentaires sur le développement du diabète de type 2 et de la maladie cardiovasculaire dans le diabète de type 1, nous pourrons identifier des nouvelles stratégies préventives chez les enfants à risque. Objectifs : 1) Investiguer l’histoire naturelle du diabète de type 2 de l’enfance jusqu’à la fin de l’adolescence et identifier les déterminants sociodémographiques, biologiques et reliés aux habitudes de vie durant l’enfance qui sont associés au développement du diabète de type 2. 2) Estimer l’effet de l’activité physique et les comportements sédentaires sur la sensibilité à l’insuline, la sécrétion d’insuline et la glycémie de l’enfance à la fin de l’adolescence. 3) Comparer des marqueurs de maladie cardiovasculaire précoce en rapport à la structure et fonction vasculaire et du myocarde entre des adolescents avec diabète de type 1 et des adolescents sans diabète. 4) Évaluer l’association entre l’activité physique, les comportements sédentaires et les marqueurs de maladie cardiovasculaire précoce chez les adolescents avec diabète de type 1 et les adolescents sans diabète. Méthodes : Les données des visites aux âges de 8-10, 10-12 et 15-17 ans de 630 enfants québécois avec histoire parentale d’obésité de la cohorte QUALITY ont été utilisées pour répondre aux 2 premiers objectifs. À chaque cycle d’évaluation, les enfants faisaient un test d’hyperglycémie orale provoquée avec prélèvements à 0, 30, 60, 90 et 120 minutes, à partir duquel les niveaux de glucose et d’insuline ont été mesurés. Les données transversales de l’étude CARDEA incluant 100 adolescents avec diabète de type 1 et 97 adolescents sans diabète âgés entre 14 et 18 ans ont été utilisées pour répondre aux objectifs 3 et 4. La rigidité artérielle a été mesurée avec le test de la vitesse d’onde de pouls et la fonction endothéliale par le test de dilatation médié par le flux sanguin de l’artère brachiale. La structure et fonction du myocarde était évaluée par imagerie par résonance magnétique. Dans les études QUALITY et CARDEA, l’activité physique et le temps sédentaire ont été mesuré avec le port d’accéléromètre pendant sept jours. Aussi dans les deux études, la diète était mesurée par rappels alimentaires de 24 heures, le temps d’écran et les facteurs sociodémographiques par questionnaire et le pourcentage de masse adipeuse par dual energy x-ray absorptiometry. Pour l’objectif 1, nous avons utilisé des modèles généralisés additifs à effets mixtes pour modéliser les variations de sensibilité et sécrétion d’insuline durant l’enfance et l’adolescence et une analyse par moyennage de modèle pour identifier les déterminants à l’enfance. Des modèles structuraux marginaux longitudinaux ont été utilisés pour répondre à l’objectif 2. Pour les objectifs 3 et 4, nous avons estimé des modèles de régression linéaire multivariable et les analyses pour l’objectif 4 ont été stratifiées selon le statut de diabète. Résultats : Nous avons observé que 21% des enfants avec histoire parentale d’obésité développent une dysglycémie (basé sur les critères de prédiabète ou diabète de type 2 pour la glycémie) persistante durant l’enfance et l’adolescence. De plus, la glycémie à jeun et 2-h étaient les deux seuls déterminants à l’enfance associés au risque de dysglycémie à l’adolescence. Néanmoins, nous avons observé qu’un niveau d’activité physique plus élevé, moins de temps sédentaire total et moins de temps d’écran améliorait la sensibilité à l’insuline et diminuait les besoins en sécrétion d’insuline durant l’enfance et l’adolescence. De plus, nous avons constaté que les adolescents avec diabète de type 1 avaient une moins bonne fonction endothéliale et une masse du ventricule gauche plus petite que les adolescents sans diabète. Enfin, l’activité physique est associée positivement à la masse du ventricule gauche chez les adolescents sans diabète. Le temps sédentaire est associé à une moins bonne fonction endothéliale, ainsi qu’à une masse du ventricule gauche et une épaisseur du mur du ventricule gauche plus petites chez les jeunes sans diabète seulement. Conclusion : Plusieurs enfants avec histoire parentale d’obésité développent un prédiabète. L’activité physique et les comportements sédentaires durant l’enfance et l’adolescence constituent des cibles pertinentes pour la prévention du diabète de type 2 chez le jeune via leur action sur la sensibilité et la sécrétion d’insuline. Une dysfonction endothéliale et des différences dans la structure du myocarde sont perceptibles dès l’adolescence chez les jeunes avec diabète de type 1. Davantage d’activité physique et moins de comportements sédentaires pourraient ralentir l’apparition des premiers signes de maladie cardiovasculaire à l’adolescence, mais leur contribution reste à être confirmée. / Background: Type 1 and type 2 diabetes represent a considerable burden on children's health and quality of life, being associated with microvascular and cardiovascular complications and early mortality in adulthood. Focusing on the prevention of diabetes and associated complications in children at risk is essential. Nevertheless, little is known about how type 2 diabetes develops in children and on the presence of early cardiovascular disease in youth with type 1 diabetes. Furthermore, by better understanding the role of lifestyle factors, such as physical activity and sedentary behaviors, on the development of type 2 diabetes and cardiovascular disease in type 1 diabetes, we will be able to identify new preventive strategies in children at risk. Objectives: 1) Investigate the natural history of type 2 diabetes from childhood to late adolescence and identify the sociodemographic, biological and lifestyle determinants in childhood associated with the development of type 2 diabetes. 2) Estimate the effect of physical activity and sedentary behaviors on insulin sensitivity, insulin secretion, and blood glucose levels from childhood to late adolescence. 3) Compare markers of early cardiovascular disease pertaining to vascular and myocardial structure and function between adolescents with type 1 diabetes and adolescents without diabetes. 4) Examine the association between physical activity, sedentary behaviors and markers of early cardiovascular disease in adolescents with type 1 diabetes and adolescents without diabetes. Methods: To address the first 2 objectives, data from ages 8-10, 10-12, and 15-17 years follow-up visits from the QUALITY cohort of 630 Quebec children with a parental history of obesity were used. At each research visit, children underwent an oral glucose tolerance test with samples taken at 0, 30, 60, 90 and 120 minutes, from which glucose and insulin levels were measured. For objectives 3 and 4, data stem from the cross-sectional CARDEA study of 100 adolescents with type 1 diabetes and 97 adolescents without diabetes aged 14 to 18 years. Arterial stiffness was measured with the pulse wave velocity test and endothelial function by the brachial artery flow-mediated dilatation test. Myocardial structure was assessed by cardiac magnetic resonance imaging. In both QUALITY and CARDEA studies, physical activity and sedentary time were measured with accelerometry over 7 days. Also in both studies, diet was measured by 24-hour dietary recalls, screen time and sociodemographic factors by questionnaire, and by dual energy x-ray absorptiometry. For Objective 1, we used additive generalized mixed models to study variations in insulin sensitivity and insulin secretion from childhood to late adolescence, and model averaging analysis to identify determinants in childhood. Longitudinal marginal structural models were used to address objective 2. For objectives 3 and 4, we estimated multivariable linear regression models, stratified by diabetes status for objective 4. Results: We found that among children with a parental history of obesity, 21% developed persistent dysglycemia (based on glycemia cut-points for prediabetes or type 2 diabetes) during childhood and adolescence, and that fasting and 2-h glycemia were the only two childhood determinants associated with risk of dysglycemia in adolescence. Nevertheless, we observed that higher levels of physical activity, less sedentary time (accelerometer-measured), and less screen time improved insulin sensitivity and decreased insulin secretion requirements during childhood and adolescence. In addition, we found that adolescents with type 1 diabetes had worse endothelial function and smaller left ventricular mass than adolescents without diabetes. Finally, physical activity was positively associated with left ventricular mass in adolescents without diabetes. Sedentary time was associated with poorer endothelial function and smaller left ventricular mass and left ventricular wall thickness in youth without diabetes only. Conclusions: Many children with a parental history of obesity develop prediabetes. Physical activity and sedentary behaviors during childhood and adolescence are relevant targets for the prevention of type 2 diabetes in youth through their action on insulin sensitivity and secretion. Endothelial dysfunction and differences in myocardial structure are noticeable as early as adolescence in young people with type 1 diabetes. More physical activity and less sedentary behavior could slow the onset of cardiovascular disease in adolescence, but their contribution remains to be confirmed.

Page generated in 0.0731 seconds