La méta-analyse (MA) en réseau, en généralisant la MA conventionnelle, permet d'évaluer toutes les comparaisons deux à deux possibles entre interventions. Les biais de publication ont reçu peu d’attention dans ce contexte. Nous avons évalué l’impact des biais de publication en utilisant un réseau de 74 essais randomisés évaluant 12 antidépresseurs contre placebo enregistrés à la FDA et un réseau de 51 essais parmi les 74 dont les résultats étaient publiés. Nous avons montré comment les biais de publication biaisaient les quantités d'effet estimées et le classement des traitements. L'effet du biais de publication peut différer entre MA en réseau et MA conventionnelle en ce que les biais affectant un traitement peuvent affecter le classement de tous les traitements. Nous avons ensuite généralisé un test de détection des biais à la MA en réseau. Il est basé sur la comparaison entre les nombres attendu et observé d’essais avec résultats statistiquement significatifs sur l’ensemble du réseau. Nous avons montré par des études de simulation que le test proposé avait une puissance correcte après ajustement sur l’erreur de type I, excepté lorsque la variance inter-essais était élevée. Par ailleurs, le test indiquait un signal significatif de biais sur le réseau d’essais d’antidépresseurs publiés. Enfin, nous avons introduit deux modèles d’analyse de sensibilité des résultats d'une MA en réseau aux biais de publication: un modèle de méta-régression qui relie la quantité d’effet estimée à son erreur standard, et un modèle de sélection dans lequel on estime la propension d’un essai à être publié puis l’on redresse le poids des essais en fonction de cette propension. Nous les avons appliqués aux réseaux d’essais d’antidépresseurs. Ce test et ces modèles d'ajustement tirent leur force de tous les essais du réseau, sous l’hypothèse qu'un biais moyen commun opère sur toutes les branches du réseau. / Network meta-analysis (NMA), a generalization of conventional MA, allows for assessing all possible pairwise comparisons between multiple treatments. Reporting bias, a major threat to the validity of MA, has received little attention in the context of NMA. We assessed the impact of reporting bias empirically using data from 74 FDA-registered placebo-controlled trials of 12 antidepressants and their 51 matching publications. We showed how reporting bias biased NMA-based estimates of treatments efficacy and modified ranking. The effect of reporting bias in NMAs may differ from that in classical meta-analyses in that reporting bias affecting only one drug may affect the ranking of all drugs. Then, we extended a test to detect reporting bias in network of trials. It compares the number of expected trials with statistically significant results to the observed number of trials with significant p-values across the network. We showed through simulation studies that the test was fairly powerful after adjustment for size, except when between-trial variance was substantial. Besides, it showed evidence of bias in the network of published antidepressant trials. Finally, we introduced two methods of sensitivity analysis for reporting bias in NMA: a meta-regression model that allows the effect size to depend on its standard error and a selection model that estimates the propensity of trial results being published and in which trials with lower propensity are weighted up in the NMA model. We illustrated their use on the antidepressant datasets. The proposed test and adjustment models borrow strength from all trials across the network, under the assumption that conventional MAs in the network share a common mean bias mechanism.
Identifer | oai:union.ndltd.org:theses.fr/2013PA05S025 |
Date | 28 March 2013 |
Creators | Trinquart, Ludovic |
Contributors | Paris 5, Chatellier, Gilles |
Source Sets | Dépôt national des thèses électroniques françaises |
Language | French |
Detected Language | French |
Type | Electronic Thesis or Dissertation, Text |
Page generated in 0.0026 seconds