• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 2
  • Tagged with
  • 6
  • 6
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modèles de regression en présence de compétition

Latouche, Aurélien 20 December 2004 (has links) (PDF)
L'analyse de survie concerne la modélisation des délais de réalisation d'un unique événement. Dans de nombreuses situations cependant, les individus sont soumis à plusieurs causes d'événement exclusives, définissant un cadre dit de risques concurrents ou compétitifs. <br />Ce travail de thèse a porté sur l'étude de modèles de régression dans ce cadre. Deux approches ont été envisagéés, l'une basée sur la fonction de risque instantané cause-spécifique et l'autre sur la <br />fonction de risque instantané associée à la fonction d'incidence cumulée (ou fonction de risque de sous-répartition). Dans les deux cas, nous avons considéré une formulation à risques proportionnels, c'est à dire un modèle de Cox dans le premier cas, et un modèle de Fine & Gray dans le second cas. <br />Dans un premier temps, l'implication d'un choix de modélisation a été étudiée dans le cadre de la planification d'un essai clinique ou d'une étude pronostique. Nous avons alors developpé<br />une formule de calcul du nombre de sujets nécessaire pour le modèle de Fine & Gray. <br />Puis, les conséquences d'un modèle mal spécifié pour la fonction de risque de sous répartition ont été evaluées, en étudiant l'influence sur l'estimation du paramètre de régression dans le modèle de Fine & Gray quand le vrai modèle est un modèle à risques proportionnels pour la fonction de risque cause- <br />spécifique. Nous avons ensuite étudié les implications de l'inclusion de covariables dépendantes du <br />temps dans le modèle de Fine & Gray. <br />Enfin, nous avons présenté une synthèse didactique sur la <br />stratégie d'utilisation des approches présentées dans ce travail de thèse.
2

Estimation non linéaire par ondelettes : régression et survie

Bouatou, Mohamed 28 March 1997 (has links) (PDF)
Dans ce travail, nous proposons de nouvelles approches d'estimation fonctionnelle pour des problèmes de régression et d'analyse de données de survie, et ce par l'utilisation de techniques adaptatives et non linéaires, fondées sur des décompositions en ondelettes. Les estimateurs qui en découlent, combinent les techniques d'estimation par projection orthogonale et celles de seuillage ou arbre de régression. Tout au long de ce travail, l'accent est mis sur l'importance que revêt le choix de la base optimale parmi une famille de bases d'ondelettes ou de paquets d'ondelettes exploitant au mieux la structure d'analyse multiéchelle qui leur est associée....
3

Randomized Clinical Trials in Oncology with Rare Diseases or Rare Biomarker-based Subtypes / Essais cliniques randomisés en oncologie dans les maladies rares ou en présence de sous-types rares identifiés par biomarqueurs

Bayar, Mohamed Amine 29 November 2019 (has links)
Le design standard des essais randomisés de phase III suppose le recrutement d'un grand nombre de patients pour assurer un risque α de 0.025 unilatéral et une puissance d'au moins 80%. Ceci s'avérer difficile dans les maladies rares, ou encore si le traitement cible une population spécifique définie par un sous-type moléculaire rare. Nous avons évalué par simulation la performance d'une série d'essais randomisés. Au terme de chaque essai, s'il est associé à une amélioration significative, le traitement expérimental devient le contrôle de l'essai suivant. Les designs ont été évalués pour différents taux de recrutement, différentes sévérités de la maladie, et différentes distributions hypothétiques des effets d'un futur traitement. Nous avons montré, que sous des hypothèses raisonnables, une série d'essais de plus petite taille et avec un risque α relâché est associée à un plus grand bénéfice à long terme que deux essais de design standard. Nous avons enrichi cette approche avec des designs plus flexibles incluant des analyses intermédiaires d'efficacité et/ou futilité, et des designs adaptatifs à trois bras avec sélection de traitement. Nous avons montré qu'une analyse intermédiaire avec une règle d'arrêt pour futilité était associé à un gain supplémentaire et à une meilleure maitrise du risque, contrairement aux règles d'arrêt pour efficacité qui ne permettent pas d'améliorer la performance. Les séries d'essais à trois bras sont systématiquement plus performants que les séries d'essais à deux bras. Dans la troisième de la thèse, nous avons étudié les essais randomisés évaluant un algorithme de traitement plutôt que l'efficacité d'un seul traitement. Le traitement expérimental est déterminé selon la mutation. Nous avons comparé deux méthodes basées sur le modèles de Cox à effets aléatoires pour l'estimation de l'effet traitement dans chaque mutation : Maximum Integrated Partial Likellihood (MIPL) en utilisant le package coxme et Maximum H-Likelihood (MHL) en utilisant le package frailtyHL. La performance de la méthode MIPL est légèrement meilleure. En présence d'un effet traitement hétérogène, les deux méthodes sousestime l'effet dans les mutations avec un large effet, et le surestime dans les mutations avec un modeste effet. / Large sample sizes are required in randomized trials designed to meet typical one-sided α-level of 0.025 and at least 80% power. This may be unachievable in a reasonable time frame even with international collaborations. It is either because the medical condition is rare, or because the trial focuses on an uncommon subset of patients with a rare molecular subtype where the treatment tested is deemed relevant. We simulated a series of two-arm superiority trials over a long research horizon (15 years). Within the series of trials, the treatment selected after each trial becomes the control treatment of the next one. Different disease severities, accrual rates, and hypotheses of how treatments improve over time were considered. We showed that compared with two larger trials with the typical one-sided α-level of 0.025, performing a series of small trials with relaxed α-levels leads on average to larger survival benefits over a long research horizon, but also to higher risk of selecting a worse treatment at the end of the research period. We then extended this framework with more 'flexible' designs including interim analyses for futility and/or efficacy, and three-arm adaptive designs with treatment selection at interim. We showed that including an interim analysis with a futility rule is associated with an additional survival gain and a better risk control as compared to series with no interim analysis. Including an interim analysis for efficacy yields almost no additional gain. Series based on three-arm trials are associated with a systematic improvement of the survival gain and the risk control as compared to series of two-arm trials. In the third part of the thesis, we examined the issue of randomized trials evaluating a treatment algorithm instead of a single drugs' efficacy. The treatment in the experimental group depends on the mutation, unlike the control group. We evaluated two methods based on the Cox frailty model to estimate the treatment effect in each mutation: Maximum Integrated Partial Likellihood (MIPL) using package coxme and Maximum H-Likelihood (MHL) using package frailtyHL. MIPL method performs slightly better. In presence of a heterogeneous treatment effect, the two methods underestimate the treatment effect in mutations where the treatment effect is large, and overestimates the treatment effect in mutations where the treatment effect is small.
4

Etude des délais de survenue des effets indésirables médicamenteux à partir des cas notifiés en pharmacovigilance : Problème de l'estimation d'une distribution en présence de données tronquées à droite

Leroy, Fanny 18 March 2014 (has links) (PDF)
Ce travail de thèse porte sur l'estimation paramétrique du maximum de vraisemblance pour des données de survie tronquées à droite, lorsque les délais de troncature sont considérés déterministes. Il a été motivé par le problème de la modélisation des délais de survenue des effets indésirables médicamenteux à partir des bases de données de pharmacovigilance, constituées des cas notifiés. Les distributions exponentielle, de Weibull et log-logistique ont été explorées.Parfois le caractère tronqué à droite des données est ignoré et un estimateur naïf est utilisé à la place de l'estimateur pertinent. Une première étude de simulations a montré que, bien que ces deux estimateurs - naïf et basé sur la troncature à droite - puissent être positivement biaisés, le biais de l'estimateur basé sur la troncature est bien moindre que celui de l'estimateur naïf et il en va de même pour l'erreur quadratique moyenne. De plus, le biais et l'erreur quadratique moyenne de l'estimateur basé sur la troncature à droite diminuent nettement avec l'augmentation de la taille d'échantillon, ce qui n'est pas le cas de l'estimateur naïf. Les propriétés asymptotiques de l'estimateur paramétrique du maximum de vraisemblance ont été étudiées. Sous certaines conditions, suffisantes, cet estimateur est consistant et asymptotiquement normal. La matrice de covariance asymptotique a été détaillée. Quand le délai de survenue est modélisé par la loi exponentielle, une condition d'existence de l'estimation du maximum de vraisemblance, assurant ces conditions suffisantes, a été obtenue. Pour les deux autres lois, une condition d'existence de l'estimation du maximum de vraisemblance a été conjecturée.A partir des propriétés asymptotiques de cet estimateur paramétrique, les intervalles de confiance de type Wald et de la vraisemblance profilée ont été calculés. Une seconde étude de simulations a montré que la couverture des intervalles de confiance de type Wald pouvait être bien moindre que le niveau attendu en raison du biais de l'estimateur du paramètre de la distribution, d'un écart à la normalité et d'un biais de l'estimateur de la variance asymptotique. Dans ces cas-là, la couverture des intervalles de la vraisemblance profilée est meilleure.Quelques procédures d'adéquation adaptées aux données tronquées à droite ont été présentées. On distingue des procédures graphiques et des tests d'adéquation. Ces procédures permettent de vérifier l'adéquation des données aux différents modèles envisagés.Enfin, un jeu de données réelles constitué de 64 cas de lymphomes consécutifs à un traitement anti TNF-α issus de la base de pharmacovigilance française a été analysé, illustrant ainsi l'intérêt des méthodes développées. Bien que ces travaux aient été menés dans le cadre de la pharmacovigilance, les développements théoriques et les résultats des simulations peuvent être utilisés pour toute analyse rétrospective réalisée à partir d'un registre de cas, où les données sur un délai de survenue sont aussi tronquées à droite.
5

Revues systématiques et méta-analyses en chirurgie cardiaque : défis et solutions

Ben Ali, Walid 03 1900 (has links)
Objectif: Explorer, adapter et développer de nouvelles méthodologies permettant de réaliser des revues systématiques et méta-analyses en chirurgie cardiaque. Méthodes: Le text mining et la citation chasing ont été utilisés pour l’optimisation de l’efficience et de la sensibilité de la recherche. Nous avons participé à l’évaluation des nouveaux outils (Risk of Bias 2.0 et Risk of bias in non-randomized studies of interventions) pour l’évaluation de la qualité des études randomisées et non randomisées et qui ont été adoptés pour nos projets futurs. Une nouvelle méthodologie graphique a été développée pour la réalisation des méta-analyses de données de survie. Résultats: Ces approches ont été utilisées pour répondre à diverses questions de recherche touchants différents aspects de la chirurgie cardiaque : 1) la rédaction des premières lignes directrices de l’Enhanced Recovery After Cardiac Surgery, 2) une revue systématique des résultats de la chirurgie valvulaire et aortique chez le transplanté cardiaque, démontrant les bons résultats de ces procédures dans une population à haut risque et l’émergence des techniques trans-cathéters dans la prise en charge de ces pathologies, 3) une méta-analyse portant sur les arythmies supra-ventriculaires chez les patients ayant eu une intervention de Fontan, concluant à un effet bénéfique de la technique du conduit extra-cardiaque et 4) une méta-analyse portant sur l’insuffisance aortique chez les patients porteurs d’assistance ventriculaire gauche, objectivant une incidence sous-estimée de cette situation clinique avec un impact significatif sur la survie de cette population de patients. Conclusion: Cette thèse aborde certaines contraintes de la littérature en chirurgie cardiaque comme la sensibilité sous optimale de la recherche systématique et les méta-analyses de données de survie, et a proposé des solutions. D’autres contraintes telles que les comparaisons multiples subsistent. Des recherches futures axées sur de nouvelles approches comme le network meta-analysis ou l’approche bayésienne pourraient offrir des solutions. / Objective: To explore, adapt and develop new methodologies for performing systematic reviews and meta-analyses in cardiac surgery. Methods: Text mining and citation chasing were used to optimize the efficiency and sensitivity of search process. We participated in the evaluation of new tools (Risk of Bias 2.0 and Risk of bias in non-randomized studies of interventions) for quality assessment of randomized and nonrandomized studies and we have adopted them for our future projects. A new graphic methodology has been developped for the performance of meta-analyses of time-to-event data. Results: These approaches have been used to answer various research questions touching different aspects of cardiac surgery: 1) writing the first guidelines of enhanced recovery after cardiac surgery, 2) a systematic review of the results of valvular surgery and aortic in cardiac transplantation, demonstrating good results of these procedures in a high-risk population and the emergence of trans-catheter techniques in the management of these pathologies, 3) a meta-analysis of supra-ventricular arrhythmias in patients who had a Fontan intervention, finding a beneficial effects of the extracardiac conduct technique and 4) a meta-analysis of aortic insufficiency in patients with left ventricular assist device, showing an under-estimated incidence of this clinical entity with a significant impact on the survival of this population of patients. Conclusion: This thesis addresses some of the short comings of the heart surgery literature such as the sensitivity of the systematic search and time-to-event data meta-anlysis and proposed novel solutions. Other issues such as the need to summarize a comprehensive and coherent set of comparisons remain. Future researchs focused on new approaches such as the network meta-analysis or the Bayesian approach can solve these issues.
6

Etude des délais de survenue des effets indésirables médicamenteux à partir des cas notifiés en pharmacovigilance : problème de l'estimation d'une distribution en présence de données tronquées à droite / Time to Onset of Adverse Drug Reactions : Spontaneously Reported Cases Based Analysis and Distribution Estimation From Right-Truncated Data

Leroy, Fanny 18 March 2014 (has links)
Ce travail de thèse porte sur l'estimation paramétrique du maximum de vraisemblance pour des données de survie tronquées à droite, lorsque les délais de troncature sont considérés déterministes. Il a été motivé par le problème de la modélisation des délais de survenue des effets indésirables médicamenteux à partir des bases de données de pharmacovigilance, constituées des cas notifiés. Les distributions exponentielle, de Weibull et log-logistique ont été explorées.Parfois le caractère tronqué à droite des données est ignoré et un estimateur naïf est utilisé à la place de l'estimateur pertinent. Une première étude de simulations a montré que, bien que ces deux estimateurs - naïf et basé sur la troncature à droite - puissent être positivement biaisés, le biais de l'estimateur basé sur la troncature est bien moindre que celui de l'estimateur naïf et il en va de même pour l'erreur quadratique moyenne. De plus, le biais et l'erreur quadratique moyenne de l'estimateur basé sur la troncature à droite diminuent nettement avec l'augmentation de la taille d'échantillon, ce qui n'est pas le cas de l'estimateur naïf. Les propriétés asymptotiques de l'estimateur paramétrique du maximum de vraisemblance ont été étudiées. Sous certaines conditions, suffisantes, cet estimateur est consistant et asymptotiquement normal. La matrice de covariance asymptotique a été détaillée. Quand le délai de survenue est modélisé par la loi exponentielle, une condition d'existence de l'estimation du maximum de vraisemblance, assurant ces conditions suffisantes, a été obtenue. Pour les deux autres lois, une condition d'existence de l'estimation du maximum de vraisemblance a été conjecturée.A partir des propriétés asymptotiques de cet estimateur paramétrique, les intervalles de confiance de type Wald et de la vraisemblance profilée ont été calculés. Une seconde étude de simulations a montré que la couverture des intervalles de confiance de type Wald pouvait être bien moindre que le niveau attendu en raison du biais de l'estimateur du paramètre de la distribution, d'un écart à la normalité et d'un biais de l'estimateur de la variance asymptotique. Dans ces cas-là, la couverture des intervalles de la vraisemblance profilée est meilleure.Quelques procédures d'adéquation adaptées aux données tronquées à droite ont été présentées. On distingue des procédures graphiques et des tests d'adéquation. Ces procédures permettent de vérifier l'adéquation des données aux différents modèles envisagés.Enfin, un jeu de données réelles constitué de 64 cas de lymphomes consécutifs à un traitement anti TNF-α issus de la base de pharmacovigilance française a été analysé, illustrant ainsi l'intérêt des méthodes développées. Bien que ces travaux aient été menés dans le cadre de la pharmacovigilance, les développements théoriques et les résultats des simulations peuvent être utilisés pour toute analyse rétrospective réalisée à partir d'un registre de cas, où les données sur un délai de survenue sont aussi tronquées à droite. / This work investigates the parametric maximum likelihood estimation for right-truncated survival data when the truncation times are considered deterministic. It was motivated by the modeling problem of the adverse drug reactions time-to-onset from spontaneous reporting databases. The families of the exponential, Weibull and log-logistic distributions were explored.Sometimes, right-truncation features of spontaneous reports are not taken into account and a naive estimator is used instead of the truncation-based estimator. Even if the naive and truncation-based estimators may be positively biased, a first simulation study showed that the bias of the truncation-based estimator is always smaller than the naive one and this is also true for the mean squared error. Furthermore, when the sample size increases, the bias and the mean squared error are almost constant for the naive estimator while they decrease clearly for the truncation-based estimator.Asymptotic properties of the truncation-based estimator were studied. Under sufficient conditions, this parametric truncation-based estimator is consistent and asymptotically normally distributed. The covariance matrix was detailed. When the time-to-onset is exponentially distributed, these sufficient conditions are checked as soon as a condition for the maximum likelihood estimation existence is satisfied. When the time-to-onset is Weibull or log-logistic distributed, a condition for the maximum likelihood estimation existence was conjectured.The asymptotic distribution of the maximum likelihood estimator makes it possible to derive Wald-type and profile likelihood confidence intervals for the distribution parameters. A second simulation study showed that the estimated coverage probability of the Wald-type confidence intervals could be far from the expected level because of a bias of the parametric maximum likelihood estimator, a gap from the gaussian distribution and a bias of the asymptotic variance estimator. In these cases, the profile likelihood confidence intervals perform better.Some goodness-of-fit procedures adapted to right-truncated data are presented. Graphical procedures and goodness-of-fit tests may be distinguished. These procedures make it possible to check the fit of different parametric families to the data.Illustrating the developed methods, a real dataset of 64 cases of lymphoma, that occurred after anti TNF-α treatment and that were reported to the French pharmacovigilance, was finally analyzed. Whilst an application to pharmacovigilance was led, the theoretical developments and the results of the simulation study may be used for any retrospective analysis from case registries where data are right-truncated.

Page generated in 0.0625 seconds