• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 5
  • Tagged with
  • 9
  • 9
  • 7
  • 7
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Examen de l'effet de potentialisation des médicaments antipsychotiques par les inhibiteurs de la recapture de la sérotonine pour traiter les symptômes négatifs de la schizophrénie : approche méta-analytique

Sepehry, Amir Ali January 2006 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
2

Incidence de la procédure expérimentale sur l'évaluation de l'efficacité des pharmacothérapies antidépressives / Impact of the experimental procedure on the measured effect of antidepressant therapies

Naudet, Florian 17 September 2013 (has links)
Les antidépresseurs sont les traitements pharmacologiques de choix de la dépression. Pourtant devant un nombre non négligeable d’études « négatives » et l’absence d’efficacité dans les dépressions peu sévères, la question de leur utilité reste controversée. Cette controverse présuppose que l’efficacité des antidépresseurs se mesure facilement. Pourtant, comme dans toute expérience, le dispositif expérimental peut influencer le résultat mis en évidence. L’objectif de cette thèse est justement d’explorer l’incidence de la procédure expérimentale sur l'effet mesuré des pharmacothérapies antidépressives. Est-ce que leur efficacité mesurée dans les études randomisées reflète leur effectivité (dans la « vraie vie ») ? Pour répondre à cette question, nous avons conduit une méta-analyse d’un large panel d’études de méthodologies très différentes. Une méta-régression a été réalisée pour modéliser la réponse au traitement en fonction des caractéristiques des études. Elle a permis de mettre en évidence 1/ une réponse supérieure dans les essais randomisés par rapport aux études observationnelles (possiblement plus représentatives de la « vraie vie »); 2/ une variation de la réponse en fonction de la durée de l’étude, du nombre de visites de suivi, de la population de patients inclus, du type d’analyse choisie, de la possibilité d’avoir un placebo et du design en aveugle. Une revue de la littérature apporte ensuite une perspective qualitative à la question posée. L’objectif était de décrire les dispositifs expérimentaux actuellement utilisés ou envisageables dans l’évaluation des antidépresseurs. La revue de la littérature 1/ a permis de préciser les limites des études actuelles en termes de validité interne (mesure des critères de jugement, attrition, levée de l’aveugle importance de la réponse placebo) et externe (difficultés majeures de généralisations des études); 2/ conduit à proposer une évaluation multimodale des antidépresseurs dans laquelle les études observationnelles auraient toute leur place. La question de la mesure est ensuite abordée à travers des simulations. Après avoir exploré l’impact du dispositif expérimental au niveau de l’essai en soi, le phénomène est analysé à un niveau plus global. Le choix a été fait d’un raisonnement par l’absurde, sur le terrain de la « comparative effectiveness ». L’objectif était de comparer les placebos d’antidépresseurs grâce à une méta-analyse en réseau. Ces comparaisons indirectes n’ont pas permis de mettre en évidence de différence entre placebos d’antidépresseurs. Un biais de publication a pu être mis en évidence et empêche de conclure formellement sur un résultat pourtant évident. Ce résultat ouvre une discussion sur le degré de confiance que l’on peut apporter à ce que l’on considère généralement comme des preuves scientifiques de l’effectivité de nos pratiques. Nos résultats impliquent un nouvel éclairage à la controverse sur les antidépresseurs en replaçant le débat sur le terrain épistémologique. / Antidepressant drugs have become the most prescribed and used pharmacological treatment for depressive disorders. Yet, their usefulness is still being debated in view of a significant number of “negative” studies and of their lack of efficacy in mild depressive disorders. This controversy presupposes that the efficacy of antidepressants can easily be measured. However, as in any experiment, the experimental method may influence the outcome. The aim of this thesis is precisely to explore the impact of the experimental procedures on the measured effect of antidepressant therapies. Also we ask the question of whether their efficacy measured in randomized trials reflects their “effectiveness” (in a “real life” setting)? To answer these questions, we performed a meta-analysis of a large number of studies with different methodologies. A meta-regression was performed to modelize the response to the treatment according to the studies’ characteristics. It highlighted 1/ a superior response in randomized trials compared to observational studies (possibly more representative of the “real life”); 2/ a variation of the response according to the duration of the study, to the number of follow-up visits, to the type of included patients, to the type of analysis, to the use or not of a placebo and to the use or not of a blind design. A review of the literature provides a qualitative prospect to the question. The objective was to describe the experimental designs used in the assessment of antidepressants and to identify possible innovations. The review of the literature 1/ has permitted to state precisely the limits of the studies in terms of internal validity (measurement of assessment criterions, attrition, unblinding, importance of the placebo response) and external validity (major difficulties with generalization of the studies’ results); 2/ leads to offer a multimodal evaluation of antidepressants in which observational studies would have their own place. Then the issue of measurement is specifically approached, using simulations. After exploring the impact of the experimental procedure at the level of the trial itself, the phenomenon is explored at a more global level. The choice of a reductio ad absurdum on the field of comparative effectiveness was decided. The aim was to compare the placebos of different antidepressants in a network meta-analysis. Indirect comparisons did not show any difference between placebos of antidepressants but a significant publication bias was detected. It does not allow drawing any firm conclusion on a result which is still obvious. This result invites discussion as to whether the evidence that we usually rely on provides us with a reasonable degree of certainty about the nature and effectiveness of our practices. Our results entail a new light on the controversy about the efficacy of antidepressants by replacing the debate on the epistemological ground.
3

Examen de l'effet de potentialisation des médicaments antipsychotiques par les inhibiteurs de la recapture de la sérotonine pour traiter les symptômes négatifs de la schizophrénie : approche méta-analytique

Sepehry, Amir Ali January 2006 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
4

L'analyse statistique du profil sensoriel revisitée par une approche base de données / Statistical analysis of sensory profiling data revisited by a database approach

Peltier, Caroline 25 September 2015 (has links)
Lors d’une épreuve d’analyse sensorielle, des sujets préalablement entrainés dégustent desproduits et les notent à l’aide de différents descripteurs afin d’établir des profils descriptifs.De nombreuses méthodes statistiques (ACP, ANOVA…) permettent d’analyser les donnéesobtenues, afin notamment d’obtenir des résultats sur les performances des sujets, et dereprésenter les produits sur des cartes.Durant ce travail de thèse, ces méthodes statistiques ont été revisitées par l’exploitationd’un grand nombre de jeux de données issus de la SensoBase (base de données contenantplus de 1000 jeux de données de profil sensoriel). Différentes méthodes de cartographie etd’analyse des performances des sujets ont ainsi été comparées, puis des améliorations ontété proposées. La prise en compte du scaling (tendance d’un sujet à disperser ses notes plus–ou moins- que le panel) et l’adaptation de cartes à des modèles statistiques spécifiques ontété tout particulièrement étudiées.Ce travail a abouti à la documentation de certaines pratiques de l’analyse sensorielle et àl’établissement de recommandations à destination des animateurs de panel. Les différentesméthodes proposées dans cette thèse ont été implémentées sous R (librairies CVAPack,MAMCAP, MultiMAM), et sont donc directement utilisables par tout animateur de panel.Tous ces outils sont transposables dans d’autres domaines scientifiques utilisant l’êtrehumain comme instrument de mesure (psychologie, économie..). / During a sensory evaluation, trained subjects taste and score products on differentdescriptors in order to obtain a descriptive profile of these products. The data are thenanalyzed by several statistical methods (PCA, ANOVA…) in order to monitor the subjectperformances and map the product space.This work aims to revisit these statistical methods thanks to the analysis of a large number ofdatasets of sensory profiling data from the SensoBase (a database containing more than athousand of datasets). Different statistical methods of mapping and analysis ofperformances were compared, then improved. We mainly focused on the so-called scalingeffect (tendency of the subject to spread his scores more or less than the panel) and onmaps related to specific statistical models.This works led to some findings about sensory analysis and recommendations for panelleaders. Furthermore, different statistical tools (R packages such as CVAPack, MAMCAP andMultiMAM) were offered. These tools could also be useful in other scientific fields usinghuman beings as a measurement instrument (psychology, economics, marketing,… ).
5

Distribution verticale du carbone dans les sols - Analyse bayésienne des profils des teneurs en carbone et de C14 / Vertical Distribution of carbon in Soils - Bayesian Analysis of carbon content and C14 profiles

Jreich, Rana 28 November 2018 (has links)
Le réchauffement climatique est un problème majeur pour le monde scientifique et les sociétés. La concentration de dioxyde de carbone a augmenté de 45% depuis la période préindustrielle (Harris, 2010), conséquence des activités humaines déséquilibrant le cycle du carbone mondial. Cela se traduit par un réchauffement de la planète avec des impacts dramatiques sur la terre et encore plus pour les populations fragiles.Parmi les solutions d'atténuation, une meilleure utilisation du sol est proposée. En effet, les sols ont la plus grande capacité d'échange de carbone avec l'atmosphère et renferment un stock important de carbone. Une augmentation minime du stock de carbone du sol, les échanges de carbone entre l'atmosphère et le sol plus favorables à la séquestration du carbone dans le sol compenseraient les émissions de carbone provenant de la combustion des combustibles fossiles. Cependant, la dynamique du carbone dans le sol souffre encore de connaissances insuffisantes. Il subsiste alors une grande incertitude quant à la réponse du carbone du sol aux changements climatiques et aux changements d'affectation des terres.Plusieurs modèles mécanistiques ont été développés pour mieux comprendre la dynamique du carbone du sol. Cependant, ces modèles mécanistes ont encore une vue incomplète des processus physiques affectant la matière organique (MO) du sol. Il faudra beaucoup de temps pour obtenir un modèle complet et à jour de la dynamique des sols.Dans ma thèse, nous avons proposé un modèle statistique bayésien visant à décrire la dynamique verticale du carbone du sol. Cela se fait grâce à la modélisation du carbone organique du sol et aussi des données radiocarbone, car elles illustrent le temps de séjour de la MO et donc la dynamique du carbone du sol. Cette approche statistique visait à mieux représenter les incertitudes sur la dynamique du carbone du sol et quantifier les effets des facteurs climatiques et environnementaux sur le carbone des sols superficiels et profonds.Cette méta-analyse a été réalisée sur une base de données de 344 profils, collectés à partir de 87 articles scientifiques et archéologiques et paléoclimatologiques, sous différentes conditions climatiques et environnementales.Un modèle non linéaire hiérarchique avec effets aléatoires a été proposé pour modéliser la dynamique verticale du radiocarbone en fonction de la profondeur. Les techniques de sélection bayésiennes, récemment publiées, ont été appliquées aux couches latentes de notre modèle, elles-mêmes liées par une relation linéaire aux facteurs climatiques et environnementaux. Le Bayesian Group Lasso, le Bayesian Sparse Group Selection(BSGS) et le Bayesian Effect Fusion(BEF) ont été testés pour identifier les principaux prédicteurs explicatifs catégoriels et le Stochastic Search Variable Selection pour identifier les prédicteurs explicatifs numériques influents. Une comparaison de ces techniques bayésiennes a été effectuée sur la base des critères de sélection du modèle bayésien pour spécifier quel modèle a le meilleur pouvoir prédictif En plus de la sélection de prédicteurs catégoriels, le BSGS permet de formuler une probabilité d'inclusion a posteriori pour chaque niveau dans les prédicteurs catégoriels comme type de sol et type d'écosystème. En outre, le BEF a permis de fusionner les types de sol et les types d’écosystèmes qui, selon le BEF, sont supposés avoir les mêmes effets sur nos réponses d’intérêts que la réponse du radiocarbone du sol arable.L'application de ces techniques a permis de prédire, en moyenne et au niveau mondial, la dynamique verticale du radiocarbone dans le cas d'une augmentation de température et de changement d’usage des sols. Par exemple, nous avons étudié l'impact de la déforestation des forêts tropicales et leur remplacement par des terres cultivées sur la dynamique du carbone du sol. La même analyse statistique a également été effectuée pour mieux comprendre la dynamique verticale de la teneur en carbone du sol. / Global warming is a major issue for both the scientific world and societies. The concentration of carbon dioxide has increased by 45% since the pre-industrial era (Harris, 2010) as a consequence of human activities, unbalancing the global carbon cycle. This results in global warming with dramatic impacts on the Earth, particularly for fragile populations.Amongst mitigation solutions, a better use of soil is proposed. Soils have the largest capacity of carbon exchanges with the atmosphere and contain a large stock of carbon. A tiny increase in this soil carbon stock and in carbon exchanges between atmosphere and soil would be more favorable to soil carbon sequestration and would compensate for carbon emissios from burning fossil fuel. However, soil carbon dynamics still suffers from insufficient knowledge. There remains therefore a huge uncertainty about the soil carbon response to climate and land-use changes.While several mechanistic models have been developed to better understand the dynamics of soil carbon, they provide an incomplete view of the physical processes affecting soil organic matter (OM). It will be long before a complete and updated soil dynamics model becomes available.In my thesis, I propose a Bayesian statistical model aiming at describing the vertical dynamics of soil carbon. This is done thanks to the modeling of both soil organic carbon and of radiocarbon data as they illustrate the residence time of organic matter and thus the soil carbon dynamics. The purpose of this statistical approach was to better represent the uncertainties on soil carbon dynamics and to quantify the effects of climatic and environmental factors on both surface and deep soil carbon.This meta-analysis was performed on a database of 344 profiles, collected from 87 soil science papers and the literature in archeology and paleoclimatology, under different climate conditions (temperature, precipitation, etc.) and environments (soil type and type of ecosystem).A hierarchical non-linear model with random effects was proposed to model the vertical dynamics of radiocarbon as a function of depth. Bayesian selection techniques, recently published, were applied to the latent layers of the model, which in turn are linked by a linear relationship to the climatic and environmental factors. The Bayesian Group Lasso with Spike and Slab Prior (BGL-SS), the Bayesian Sparse Group Selection (BSGS) and the Bayesian Effect Fusion model-based clustering (BEF) were tested to identify the significant categorical explanatory predictors (soil type, ecosystem type) and the Stochastic Search Variable Selection method to identify the influential numerical explanatory predictors. A comparison of these Bayesian techniques was made based on the Bayesian model selection criteria (the DIC (Deviance Information Criterion), the Posterior Predictive Check, etc.) to specify which model has the best predictive and adjustment power of the database profiles. In addition to selecting categorical predictors, the BSGS allows the formulation of an a posteriori inclusion probability for each level within the categorical predictors such as soil type and ecosystem type (9 soil types and 6 ecosystem types were considered in our study). Furthermore, the BEF made it possible to merge the types of soil as well as the types of ecosystem, which according to the BEF, are considered to have the same effects on the responses of interest here, such as the response of the topsoil radiocarbon.The application of these techniques allowed us to predict, on average and on a global level, the vertical dynamics of the radiocarbon in the case of a temperature increase of 1, 1.5 and 2 °C, and in the case of a change in vegetation cover. For example, we studied the impact of deforesting tropical forests and replacing them by cultivated land on soil carbon dynamics. The same statistical analysis was also done to better understand the vertical dynamics of soil carbon content.
6

Identification d’un réseau de gènes soumis à empreinte génomique parentale et son rôle dans le contrôle des transitions entre prolifération, quiescence et différenciation. / Identification of an imprinted gene network and its role in controlling transitions between proliferation, quiescence and differentiation.

Al Adhami, Hala 29 November 2012 (has links)
L'empreinte génomique parentale est un mécanisme de régulation épigénétique conduisant à la répression d'un allèle d'un gène en fonction de son origine parentale. Ce mécanisme affecte un nombre restreint de gènes chez les mammifères métathériens et euthériens. Ces gènes, dits gènes soumis à empreinte (GSE), ont des fonctions moléculaires variées et sans lien apparent. Cependant, deux thèmes reviennent de manière récurrente dans leurs fonctions: le contrôle de la croissance embryonnaire et la tumorigenèse. Ma thèse a consisté à démontrer l'existence d'un lien fonctionnel entre les GSE. Nous montrons que les GSE s'inscrivent dans un même réseau de co-expression transcriptionnelle et qu'ils sont co-régulés dans différentes situations biologiques lors des transitions entre les différents états cellulaires. En effet, une induction coordonnée de la plupart des GSE a lieu lors des sorties du cycle cellulaire, réversibles (quiescence) ou non (différenciation). Les perturbations individuelles de l'expression de plusieurs GSE dans le modèle des pré-adipocytes 3T3-L1 confirment un rôle du réseau des GSE dans le contrôle des transitions entre prolifération, quiescence et différenciation. De plus, l'analyse des gènes bi-alléliques inclus dans le même réseau de co-régulation que les GSE montre un enrichissement en gènes de la matrice extracellulaire. La fonction associée à ce réseau serait donc le contrôle des transitions entre les différents états cellulaires, via le remodelage de la matrice extracellulaire. Pour conclure, outre l'identification d'une fonction commune aux GSE, nos résultats suggèrent un scénario pour le ciblage de ces gènes par l'empreinte génomique parentale au cours de l'évolution des mammifères. / Genomic imprinting is an epigenetic mechanism leading to the repression of one allele of a gene, depending on its parental origin. This mechanism affects a small number of genes in metatherian and eutherian mammals. These genes, named imprinted genes (IGs), display various molecular functions and thus seem unrelated. However, their alterations are frequently associated with the control of embryonic growth and tumorigenesis. My PhD project has consisted in demonstrating a functional link between IGs. We show that IGs are frequently co-expressed and belong to a common gene network. They are co-regulated in biological situations corresponding to the transitions between different cellular states. Coordinated induction of most IGs takes place at the outputs of the cell cycle. Loss and gain of function experiments of several IGs in the 3T3-L1 pre-adipocyte model demonstrate a role of the IG network in controlling transitions between cellular states (proliferation, quiescence and differentiation). In addition to IGs, this network also includes bi-allelic genes, with many extracellular matrix genes. Therefore, the function associated with the IG network could be the fine control of transitions between cellular states through a remodeling of the extracellular matrix.To conclude, in addition to the identification of a common cellular function for IGs, our results suggest a possible scenario for the targeting of these genes by parental genomic imprinting during mammalian evolution.
7

Alimentation de caprins, ovins et bovins viande dans les régions chaudes. "Evaluation des besoins énergétiques et protéiques des animaux et réponses animales à l’alimentation. Evaluation du système d’unité d’alimentation INRA à prédire la valeur des ressources fourragères" / Nutrition of goats, sheep and cattle in tropical and warm conditions « Evaluation of energy and protein requirements and animal responses to diet. Evaluation of INRA system to predict nutritive value of forage resources »

Salah, Nizar 12 February 2015 (has links)
L’objectif général du projet de thèse était de produire des connaissances pour contribuer au développement de bonnes pratiques d’alimentation des caprins, ovins et bovins des régions chaudes. La méthodologie utilisée dans ce projet a croisé des méta-analyses à une approche expérimentale. Les besoins énergétiques d’entretien des caprins, ovins et bovins des régions chaudes seraient plus élevés que ceux des ruminants des régions tempérées. Ces différences ont été partiellement attribuées à la capacité des génotypes animaux de ces régions de mobiliser une fraction des nutriments ingérés à des fonctions non productives dont l’adaptation aux stress et le coût énergétique de l’ingestion et la digestion de rations plus fibreuses. Des besoins énergétiques pour la production du même ordre de grandeur que ceux des génotypes des régions tempérées ont été estimés. Nos estimations des besoins protéiques d’entretien et de production indiquent que ceux-ci sont plus élevés avec les génotypes tropicaux comparativement aux génotypes tempérés.La hiérarchie des besoins entre espèces varie avec leurs modalités d’expressions (expression du poids métabolique).Le système d’unité d’alimentation énergétique et protéique de l’INRA, basé sur une approche mécaniste de l’utilisation des aliments, conduit potentiellement à une bonne évaluation des ressources alimentaires. Cependant, certains coefficients doivent être révisés pour tenir compte de la composition spécifique des ressources fourragères disponibles en régions chaudes. / The overall aim of the thesis project was to generate knowledge to contribute to the development of good feeding practices for sheep goats and cattle in warm regions. The methodology used in this project crossed meta-analysis to an experimental approach. The maintenance energy requirements of goats, sheep and cattle in warm regions are higher than those of ruminants in temperate regions. These differences were partly attributed to the capacity of livestock genotypes of these regions to mobilize a fraction of the nutrients ingested for unproductive functions adaptation to stress and the energy cost of ingestion and digestion of more fibrous diets. The estimation for the energy requirements for production was the same order of magnitude as the genotypes of temperate regions. Our estimates of protein requirements for maintenance and production show that they are higher with tropical genotypes compared to temperate genotypes.The hierarchy of needs between species varies with their modes of expression (expression of metabolic weight).The energy and protein supply unit system of INRA, based on a mechanistic approach to the use of feed, potentially leads to a good assessment of food resources. However, some factors must be revised to reflect the specific composition of forage resources in warm regions.
8

Évaluation des modèles psychologiques du contrôle inhibiteur au moyen de l’IRM fonctionnelle : Plausibilité physiologique, bases neurales et applications cliniques dans la maladie de parkinson / Evaluation of the psychological models of the inhibitory control with functional MRI : physiological plausibility, neural bases and clinical applications in Parkinson's disease

Criaud, Marion 18 December 2015 (has links)
L'inhibition est au cœur du contrôle cognitif. Mais son étude est ardue parce qu'elle s'adapte mal des méthodes psychophysiologiques classiques. En effet si l'inhibition est efficacement implémentée, tout comportement observable est supprimé! En conséquence, les modèles psychologiques existants sont fragiles, et les méthodes d'imagerie rapportent des résultats discordants. Une méta-analyse a d'abord été utilisée pour montrer que les travaux classiques confondent activations liées aux mécanismes d'inhibition réactive et sélective et activations liées aux fonctions cognitives corolaires mises en jeu dans les tâches expérimentales. Cela nous a amené à proposer un modèle alternatif d'inhibition, conçu comme un verrouillage anticipé et non-sélectif (contrôle proactif). Ce modèle a d'abord été testé au moyen de deux expériences psychophysiques. Les résultats suggèrent que l'inhibition proactive est le mode de fonctionnement par défaut du système exécutif. Le modèle proactif a ensuite été éprouvé en même temps que ses deux concurrents (réactif sélectif et réactif non-sélectif) à l'aide d'une étude IRMf. Les résultats confirment que le modèle réactif sélectif est peu plausible, au contraire de ses deux concurrents plus récents et moins populaires. La dernière partie est consacrée aux conséquences cliniques de ce renversement théorique. Alors que le modèle standard assume que l'impulsivité est la seule conséquence de troubles de l'inhibition, le modèle proactif prédit aussi des difficultés à initier un mouvement. C'est ce que nous démontrons, en faisant le lien entre hyperactivation du réseau de contrôle proactif et l'akinésie chez le patient parkinsonien / The inhibition is a key function of the cognitive control. But its assessment is made difficult by its very definition. Indeed, if the inhibition is properly implemented, the observable outcomes are suppressed. In consequences, the existing psychological models are fragile, and the imaging results inconsistent. A meta-analysis was first used to prove that the classical studies confound activations related to the reactive and selective inhibition and the activity elicited by parallel functions involved in experimental tasks. This led us to propose a new model of inhibition, defined as proactive mechanisms implemented in anticipation of stimulation. This model was first tested with two behavioral experiments. The results suggest that proactive inhibition is the default mode of the executive control. The proactive model was then assessed together with its two competing models (reactive selective and reactive non-selective) in an fMRI study. The results confirmed that the reactive selective model is less plausible than the two non-selective models. Finally we focused on the clinical consequence of this theoretical upheaval. When the standard model predicts that the impulsivity is the only consequence of inhibition deficit, the proactive model also predicts a deficit in movement initiation. This is what we showed by associating a hyperactivation of the proactive control network and the akinesia in Parkinson’s disease
9

Développement de méthodes pour la validation de critères de substitution en survie : méta-analyses de cancer / Development of methods for the validation of time-to-event surrogate endpoints : meta-analysis of cancer

Sofeu, Casimir 12 December 2019 (has links)
Les critères de substitution peuvent être utilisés à la place du critère de jugement le plus pertinent pour évaluer l'efficacité d'un nouveau traitement. Dans un contexte de méta-analyse, l'approche classique pour la validation d'un critère de substitution est basée sur une stratégie d'analyse en deux étapes. Pour des critères de jugement à temps d’évènements, cette approche est souvent sujette à des problèmes d'estimations. Nous proposons une approche de validation en une étape s'appuyant sur des modèles conjoints à fragilités et à copules. Ces modèles incluent à la fois des effets aléatoires au niveau essai et au niveau individuel ou des fonctions de copule. Nous considérons des fonctions de risque de base non paramétriquesà l'aide des splines. Les paramètres des modèles et les fonctions de risque de base ont été estimés par une méthode semi-paramétrique, par maximisation de la vraisemblance marginale pénalisée, considérant différentes méthodes d'intégration numérique. La validation des critères de substitution à la fois au niveau individuel et au niveau essai a été faite à partir du tau de Kendall et du coefficient de détermination. Les études de simulation ont été faites pour évaluer les performances de nos modèles. Les modèles ont été appliqués aux données individuelles issues des méta-analyses sur le cancer afin de rechercher de potentiels critères de substitution à la survie globale. Les modèles étaient assez robustes avec réduction des problèmes de convergence et d'estimation rencontrés dans l'approche en deux étapes. Nous avons développé un package R convivial implémentant les nouveaux modèles. / Surrogate endpoint can be used instead of the most relevant clinical endpointto assess the efficiency of a new treatment. In a meta-analysis framework, the classical approach for the validation of surrogate endpoint is based on a two-step analysis. For failure time endpoints, this approach often raises estimation issues.We propose a one-step validation approach based on a joint frailty and a joint frailty-copula model.The models include both trial-level and individual-level random effects or copula functions. We chose a non-parametric form of the baseline hazard functions using splines. We estimated parameters and hazard functions using a semi-parametric penalized marginal likelihood method, considering various numerical integration methods. Both individual level and trial level surrogacy were evaluated using Kendall's tau and coefficient of determination. The performance of the estimators was evaluated using simulation studies. The models were applied to individual patient data meta-analyses in cancer clinical trials for assesing potentiel surrogate endpoint to overall survival.The models were quite robust with a reduction of convergence and model estimation issues encountered in the two-step approach.We developed a user friendly R package implementing the models.

Page generated in 0.4396 seconds