Spelling suggestions: "subject:"cliniques"" "subject:"liniques""
131 |
Optimisation du processus de développement du médicament grâce à la modélisation PK et les simulations d’études cliniquesColucci, Philippe 12 1900 (has links)
Le développement d’un médicament est non seulement complexe mais les retours sur investissment ne sont pas toujours ceux voulus ou anticipés. Plusieurs médicaments échouent encore en Phase III même avec les progrès technologiques réalisés au niveau de plusieurs aspects du développement du médicament. Ceci se traduit en un nombre décroissant de médicaments qui sont commercialisés. Il faut donc améliorer le processus traditionnel de développement des médicaments afin de faciliter la disponibilité de nouveaux produits aux patients qui en ont besoin. Le but de cette recherche était d’explorer et de proposer des changements au processus de développement du médicament en utilisant les principes de la modélisation avancée et des simulations d’essais cliniques.
Dans le premier volet de cette recherche, de nouveaux algorithmes disponibles dans le logiciel ADAPT 5® ont été comparés avec d’autres algorithmes déjà disponibles afin de déterminer leurs avantages et leurs faiblesses. Les deux nouveaux algorithmes vérifiés sont l’itératif à deux étapes (ITS) et le maximum de vraisemblance avec maximisation de l’espérance (MLEM). Les résultats de nos recherche ont démontré que MLEM était supérieur à ITS. La méthode MLEM était comparable à l’algorithme d’estimation conditionnelle de premier ordre (FOCE) disponible dans le logiciel NONMEM® avec moins de problèmes de rétrécissement pour les estimés de variances. Donc, ces nouveaux algorithmes ont été utilisés pour la recherche présentée dans cette thèse.
Durant le processus de développement d’un médicament, afin que les paramètres pharmacocinétiques calculés de façon noncompartimentale soient adéquats, il faut que la demi-vie terminale soit bien établie. Des études pharmacocinétiques bien conçues et bien analysées sont essentielles durant le développement des médicaments surtout pour les soumissions de produits génériques et supergénériques (une formulation dont l'ingrédient actif est le même que celui du médicament de marque, mais dont le profil de libération du médicament est différent de celui-ci) car elles sont souvent les seules études essentielles nécessaires afin de décider si un produit peut être commercialisé ou non. Donc, le deuxième volet de la recherche visait à évaluer si les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte pour un individu pouvaient avoir une incidence sur les conclusions d’une étude de bioéquivalence et s’ils devaient être soustraits d’analyses statistiques. Les résultats ont démontré que les paramètres calculer d’une demi-vie obtenue à partir d'une durée d'échantillonnage réputée trop courte influençaient de façon négative les résultats si ceux-ci étaient maintenus dans l’analyse de variance. Donc, le paramètre de surface sous la courbe à l’infini pour ces sujets devrait être enlevé de l’analyse statistique et des directives à cet effet sont nécessaires a priori. Les études finales de pharmacocinétique nécessaires dans le cadre du développement d’un médicament devraient donc suivre cette recommandation afin que les bonnes décisions soient prises sur un produit. Ces informations ont été utilisées dans le cadre des simulations d’essais cliniques qui ont été réalisées durant la recherche présentée dans cette thèse afin de s’assurer d’obtenir les conclusions les plus probables.
Dans le dernier volet de cette thèse, des simulations d’essais cliniques ont amélioré le processus du développement clinique d’un médicament. Les résultats d’une étude clinique pilote pour un supergénérique en voie de développement semblaient très encourageants. Cependant, certaines questions ont été soulevées par rapport aux résultats et il fallait déterminer si le produit test et référence seraient équivalents lors des études finales entreprises à jeun et en mangeant, et ce, après une dose unique et des doses répétées. Des simulations d’essais cliniques ont été entreprises pour résoudre certaines questions soulevées par l’étude pilote et ces simulations suggéraient que la nouvelle formulation ne rencontrerait pas les critères d’équivalence lors des études finales. Ces simulations ont aussi aidé à déterminer quelles modifications à la nouvelle formulation étaient nécessaires afin d’améliorer les chances de rencontrer les critères d’équivalence. Cette recherche a apporté des solutions afin d’améliorer différents aspects du processus du développement d’un médicament. Particulièrement, les simulations d’essais cliniques ont réduit le nombre d’études nécessaires pour le développement du supergénérique, le nombre de sujets exposés inutilement au médicament, et les coûts de développement. Enfin, elles nous ont permis d’établir de nouveaux critères d’exclusion pour des analyses statistiques de bioéquivalence.
La recherche présentée dans cette thèse est de suggérer des améliorations au processus du développement d’un médicament en évaluant de nouveaux algorithmes pour des analyses compartimentales, en établissant des critères d’exclusion de paramètres pharmacocinétiques (PK) pour certaines analyses et en démontrant comment les simulations d’essais cliniques sont utiles. / Drug development is complex with results often differing from those anticipated or sought after. Despite technological advances in the many fields which are a part of drug development, there are still many drugs that fail in the late stages of clinical development. Indeed, the success rate of drugs reaching commercialization is declining. Improvements to the conventional drug process are therefore required in order to facilitate development and allow new medications to be provided more rapidly to patients who require them. The aim of this Ph.D. project was to explore and propose ways to improve this inefficient drug development process with the use of advanced modeling and clinical trial simulations.
For the first part of this research, new algorithms available in ADAPT 5® were tested against other available algorithms in order to determine their potential strengths and weaknesses. The two new algorithms tested were the iterative two-stage and the maximum likelihood expectation maximization (MLEM) methods. Our results demonstrated that the MLEM algorithm was consistently better than the iterative two-stage algorithm. It was also comparable with the first order conditional estimate method available in NONMEM®, with significantly fewer shrinkage issues in the estimation of the variances. Therefore, these new tools were used for the clinical trial simulations performed during the course of this Ph.D. research.
In order to calculate appropriate noncompartmental pharmacokinetic parameter estimates during the drug development process, it is essential that the terminal elimination half-life be well characterized. Properly conducted and analyzed pharmacokinetic studies are essential to any drug development plan, and even more so for generic and supergeneric (a formulation similar to the reference product, containing the same active ingredient; however differing from the original reference product it its delivery process) submission where they often are the only pivotal studies that need to be done to decide if a drug product is good or not. Thus, the purpose of the second part of the research was to determine if the pharmacokinetic (PK) parameters obtained from a subject whose half-life is calculated from a sampling scheme duration that is considered too short could bias the bioequivalence conclusions of a study and if these parameters should be removed from statistical analyses. Results demonstrated that subjects with a long half-life relative to the duration of the sampling scheme negatively influenced results when these were maintained in the analysis of variance. Therefore, these subjects should be removed from the analyses and guidelines to this effect are required a priori. Pivotal pharmacokinetic studies done within the drug development process should therefore follow this recommendation to make sure that the right decision be taken on a drug product formulation. This information was utilized with the clinical trial simulations that were subsequently performed in this research in order to ensure the most accurate conclusions.
Finally, clinical trial simulations were used to improve the development process of a nonsteroidal anti-inflammatory drug. A supergeneric was being developed and results from a pilot study were promising. However, some results from the pilot study required closer attention to determine if the test and reference compounds were indeed equivalent and if the test compound would meet the equivalence criteria of the different required pivotal studies. Clinical trial simulations were therefore undertaken to address the multiple questions left unanswered by the pilot study and these suggested that the test compound would probably not meet the equivalence criteria. In addition, these results helped determine what modifications to the test drug would be required to meet the equivalence criteria. This research brought forward solutions to improve different aspects of the drug development process. Notably, clinical trial simulations reduced the number of studies that would have been done for a supergeneric, decreased the number of subjects unnecessarily exposed to a drug, lowered costs and helped established new criteria for the exclusion of subjects from analyses.
Research conducted during this Ph.D. provided concrete ways to improve the drug development process by evaluating some newly available tools for compartmental analyses, setting standards stipulating which estimated PK parameters should be excluded from certain PK analyses and illustrating how clinical trial simulations are useful to throughout the process.
|
132 |
Le processus spécifique de soins pour la personne adulte victime d'un traumatisme cranio-cérébral léger (TCCL) : perceptions des infirmières de l'urgence en traumatologie au QuébecLachapelle, Manon January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
|
133 |
L'évaluation systématique de la lombalgie selon les données probantesGilbert, Dominique 08 1900 (has links)
No description available.
|
134 |
Analyses prospectives de mortalité : approches actuarielle et biomédicale / Prospective analysis of longevity : actuarial and biomedical approachesDebonneuil, Edouard 25 June 2018 (has links)
La durée de vie humaine augmente dans le monde depuis quelques siècles. Cette augmentation a été plus importante que ne le prédisaient les spécialistes qui ont énoncé des limites. Malgré les incertitudes importantes sur l'avenir de la longévité, la biologie du vieillissement et ses applications semblent en passe de faire chuter les taux de mortalité aux grands âges, similairement à la chute des taux de mortalité infantile il y a 150 ans.L’industrie pharmaceutique prend conscience du potentiel des innovations biomédicales issues de la biologie du vieillissement, rachète des biotechs et développe des équipes en interne. Cela pourrait accélérer l'allongement de la vie.Cependant les tables des actuaires, à l'instar du modèle de type Lee Carter, tendent à prédire une décélération artificielle de la longévité et les risques calculés sont loin de représenter des avancées majeures issues de la biologie du vieillissement.Des modèles de mortalité future sont ici développés sans produire cette décélération. Il apparait qu'une augmentation voisine d'un trimestre par an était jusqu'à présent un meilleur prédicteur que les tendances de chaque pays. D'autres modèles prédisent des accélérations. Nous estimons les impacts sur les retraites.Les efforts pharmaceutiques en cours pour appliquer les résultats de la recherche biomédicale peuvent être craints du fait de leurs impacts sur les retraites. Nous étudions dans quelle mesure un méga fonds de longévité peut à la fois aider à financer les retraites par capitalisation et un grand nombre de développements pharmaceutiques: la mutualisation des risques cliniques permet de capter financièrement des succès biomédicaux liés à la longévité / The human lifespan has been increasing in the world for several centuries. This increase was greater than predicted by specialists who set limits to human age. Despite the significant uncertainties about the future of longevity, the biology of aging and its applications seem about to make old age mortality rates drop, at it happened to infant mortality 150 years ago.The pharmaceutical industry is becoming aware of the potential of biomedical innovations stemming from the biology of aging. It invests in biotechs and develops internal teams. This could accelerate life extension.In parallel, actuarial tables tend to artificially predict longevity decelerations, as for the Lee Carter model, and calculated longevity risks are far from representing major advances from biology of aging.Here, models that do not produce deceleration are developed. It appears that an increase of around one quarter per year was, until now, a better predictor than the trends of each country. Other models predict diverse accelerations, impacts on pensions are analyzed.Current pharmaceutical efforts to apply the results of biomedical research may be feared because of their impact on pensions. Here we study in what measure a longevity megafund can both help finance funded pension schemes and a large number of pharmaceutical developments: the pooling of clinical trial risks can financially capture longevity-related biomedical successes
|
135 |
Optimisation du processus de développement du médicament grâce à la modélisation PK et les simulations d’études cliniquesColucci, Philippe 12 1900 (has links)
No description available.
|
136 |
Trial design and analysis of endpoints in HIV vaccine trials / Schéma d’étude et analyses des données des essais vaccinaux du VIHRichert, Laura 28 October 2013 (has links)
Des données complexes sont fréquentes dans les essais cliniques récents et nécessitent des méthodes statistiques adaptées. La recherche vaccinale du VIH est un exemple d’un domaine avec des données complexes et une absence de critères de jugement validés dans les essais précoces. Cette thèse d’Université concerne des recherches méthodologiques sur la conception et les aspects statistiques des essais cliniques vaccinaux du VIH, en particulier sur les critères de jugement d’immunogénicité et les schémas d’essai de phase I-II. A l’aide des données cytokiniques multiplex, nous illustrons les aspects méthodologiques spécifiques à une technique de mesure. Nous proposons ensuite des définitions de critères de jugement et des méthodes statistiques adéquates pour l'analyse des données d'immunogénicité multidimensionnelles. En particulier, nous montrons l’intérêt des scores multivariés non-paramétriques, permettant de résumer l’information à travers différents marqueurs d’immunogénicité et de faire des comparaisons inter- et intra-groupe. Dans l’objectif de contribuer à la conception méthodologique des nouveaux essais vaccinaux, nous présentons la construction d’un schéma d’essai optimisé pour le développement clinique précoce. En imbriquant les phases I et II d’évaluation clinique, ce schéma permet d’accélerer le développement de plusieurs stratégies vaccinales en parallèle. L’intégration d’une règle d’arrêt est proposée dans des perspectives fréquentistes et Bayesiennes. Les méthodes mises en avant dans cette thèse sont transposables à d’autres domaines d’application avec des données complexes, telle que les données d’imagerie ou les essais d’autres immunothérapies. / Complex data are frequently recored in recent clinical trials and require the use of appropriate statistical methods. HIV vaccine research is an example of a domaine with complex data and a lack of validated endpoints for early-stage clinical trials. This thesis concerns methodological research with regards to the design and analysis aspects of HIV vaccine trials, in particular the definition of immunogenicity endpoints and phase I-II trial designs. Using cytokine multiplex data, we illustrate the methodological aspects specific to a given assay technique. We then propose endpoint definitions and statistical methods appropriate for the analysis of multidimensional immunogenicity data. We show in particular the value of non-parametric multivariate scores, which allow for summarizing information across different immunogenicity markers and for making statistical comparisons between and within groups. In the aim of contributing to the design of new vaccine trials, we present the construction of an optimized early-stage HIV vaccine design. Combining phase I and II assessments, the proposed design allows for accelerating the clinical development of several vaccine strategies in parallel. The integration of a stopping rule is proposed from both a frequentist and a Bayesian perspective. The methods advocated in this thesis are transposable to other research domains with complex data, such as imaging data or trials of other immune therapies.
|
137 |
Les critères de jugement centrés sur le patient dans les essais cliniques en oncologie thoracique / Patient-centered clinical endpoints in lung cancer trialsFiteni, Frédéric 14 October 2016 (has links)
La Survie globale (SG) est le critère de jugement de référence dans les essais cliniques en oncologie mais les critères de jugement dit intennédiaires centrés sur la tumeur qui sont évalués plus précocement sont de plus en plus utilisés comme critères substitutifs de la survie globale La qualité de vie (QdV) constitue un critère de jugement pour évaluer un bénéfice clinique direct pour le patient. Nos résultats ont montré que 32% des critères de jugement dans les essais de phase III de CBNPC avancés étaient pas du tout définis et seulement 43% était clairement défini et qu'aucun critère intermédiaire n'a démontré sa substitutivité sur la SG. Nous avons montré que la mesure, l'analyse et le report des données de QdV étaient hétérogènes entre les essais de phase III de CBNPC avancés d'où la nécessité de recommandations. Nous avons comparé longitudinalement la QdV chez 451 patients âgés de 70-89 ans atteints de CBNPC avancés randomisés entre une bichimiothérapie et une monochimiothérapie selon la technique du temps jusqu'à détérioration définitive (TJD) d'un score de QdV. Cette étude a montré : sur le plan clinique, le bénéfice du doublet de chimiothérapie pour les patients est renforcé par les données de QdV; sur le plan méthodologique: le TJD est une technique d'analyse faisable dans les essais de phase III de CBNPC et fournit des résultats faciles d'interprétation. Nous avons proposé l'utilisation de co-critères de jugement principaux associant QdV et critère centré sur la tumeur. Enfin, nous avons démontré la valeur pronostique de la dimension santé globale de QdV à baseline du questionnaire sur la SG chez les patients âgés atteints de CBNPC avancés. / Overall survival (OS) is the gold standard endpoint in oncology clinical trials. Nevertheless, intermediate tumor-centered endpoints which are assessed earlier are more and more used as surrogate of OS. Health-related quality of life is an endpoint which assesses a direct benefit for the patient. We demonstrated that 32% of endpoints in advanced non-small-cell lung phase III clinical trials were not defined at all, 43% were not clearly defined and none ofthem has demonstrated its surrogacy on OS. We demonstrated the weakness and the heterogeneity of the measurement, analysis, and reporting of HRQoL in phase III advanced NSCLC trials. Precise and uniform recommendations are needed. We longitudinally compared HRQoL using tüne until definitive deterioration (TUDD) method in 451 patients aged 70-89 years with advanced NSCLC randomly assigned to receive a doublet of chemotherapy or a monochemotherapy. We demonstrated the benefit of the doublet chemotherapy in terms ofHRQoL. On a methodological point ofview TUDD method is feasible and provide clinically meaningful results. We proposed another approach which would be to combine intermediate endpoint• with HRQoL as co-primary endpoints. Finally, we demonstrated the additional prognostic value of HRQoL data at baseline to identify vulnerable subpopulations in elderly NSCLC patients.
|
138 |
La transformation du corps humain en ressource biomédicale. Etude de droit international et européen / Processing the human body into a biomedical resource. Study of international and european lawAurey, Xavier 04 September 2015 (has links)
Transformé en une ressource biomédicale au profit du soin d’autrui (sang, tissus, cellules, etc.) ou de la recherche (sujet d’essai clinique), le corps est aujourd’hui soumis aux enjeux de la globalisation du monde médical. Un tel constat ne vient pas remettre en cause toute approche fondée sur les droits de l’Homme, mais il oblige à les repenser différemment, en incluant l’ensemble des acteurs en cause. Les droits de l’Homme doivent alors adapter leur vocabulaire, sans compromettre les valeurs qui sous-tendent leur régime. La thèse soutenue vise ainsi à démontrer que les principes tant de la bioéthique que du régime traditionnel des droits de l’Homme ne sont pas suffisants pour permettre la protection des individus dans le contexte spécifique de la transformation du corps humain en ressource biomédicale. Il est alors nécessaire d’apprendre aux acteurs de la normalisation technique de la biomédecine et du marché de la santé à traduire le langage des droits de l’Homme dans leurs propres dialectes. / Transformed into a biomedical resource for the benefit of the care of others (blood, tissues, cells, etc.) or research (clinical trial subject), the body is now subject to the challenges of the globalization of the medical world. Such finding won’t challenge all approach based on human rights, but it requires rethinking them differently, by including all stakeholders involved. Human rights must then adapt their vocabulary, without compromising their founding values. The thesis here developed aims to demonstrate that both the principles of bioethics and of human rights are not sufficient for the protection of individuals in the specific context of the transformation of the human body in biomedical resource. It is then necessary to teach all actors of the technical standardization of biomedicine and of health market to translate the language of human rights in their own dialects.
|
139 |
La routine vaccinale. Enquête sur un programme français de rationalisation par les nombres, 1949-1999. / Routinizing Vaccination. An inquiry into the French project of rationalizing immunization with numbers, 1949-1999.Thomas, Gaëtan 31 May 2018 (has links)
Cette thèse examine l’apport du travail statistique à la normalisation de la vaccination en France, des années 1950 au milieu des années 1990, une période au cours de laquelle la vaccination a fait l’objet de peu de controverses. Au moyen d’opérations statistiques de rationalisation, de régulation et de justification, l’épidémiologie (entendue comme un ensemble de pratiques plutôt qu’une discipline universitaire autonome) a largement contribué à maintenir cet état de fait – un processus que je qualifie de routinisation. L’enquête est construite sur des archives issues de diverses institutions, nationales et internationales, ainsi que sur une série d’entretiens avec les principaux acteurs du domaine. Elle éclaire le rôle d’un groupe d’épidémiologistes associés au Centre international de l’enfance (1949-1999), qui mit en œuvre un programme de rationalisation et de simplification de la vaccination. Dans cette période coloniale et postcoloniale, l’Afrique subsaharienne était un de leurs terrains de prédilection : ils y réalisèrent de nombreux essais, simultanément à leurs activités métropolitaines. L’implication de l’OMS dans le domaine de la vaccination a conforté la dimension internationale de cette routinisation : les épidémiologistes français se sont appropriés des opérations statistiques popularisées par Genève. À la fin de la période considérée, la controverse de la vaccination contre l’hépatite B a perturbé cette routinisation et mis en évidence un écart croissant entre les logiques de l’épidémiologie et l’expérience des individus vaccinés. Cette recherche éclaire d’une lumière nouvelle la façon dont l’intervention de santé publique la plus courante a été normalisée et gouvernée par des nombres. / This dissertation studies the entanglement between statistical production and the normalization of immunization practices in France from the 1950s to the mid-1990s, a period during which immunization remained largely uncontroversial. By rationalizing, regulating, and justifying immunization, epidemiology (understood as a collection of practices, rather than a discrete academic discipline) has contributed greatly to this normalization – a process I term “routinization.” This research project is based on archival findings, both in France and internationally, as well as a series of interviews with significant actors in the field. It is primarily focused on a group of epidemiologists affiliated with the Centre international de l’enfance (French International Children’s Center, 1949-1999), whose mission was to rationalize and simplify immunization for children. Throughout the institution’s history, which overlaps with the late colonial period and the process of de-colonization, there is a significant engagement with Francophone Africa: numerous trials were carried out simultaneously in Sub-Saharan Africa and the Paris region. The transnational nature of this activity is also due, in part, to the involvement of the World Health Organization in matters of immunization – French epidemiologists appropriated calculations popularized on a global scale. At the end of the period in question, the Hepatitis B vaccine controversy disrupted the routinization process and shed light on the rising gap between the discourse and practice of epidemiology and the experience of vaccinated individuals. This study offers new insights into the role of numbers in the maintenance and governance of the most common public health intervention.
|
140 |
Prognosis of cancer patients : input of standard and joint frailty models / Pronostic en cancérologie : apport des modèles à fragilité standards et conjointsMauguen, Audrey 28 November 2014 (has links)
La recherche sur le traitement des cancers a évolué durant les dernières années principalement dans une direction: la médecine personnalisée. Idéalement, le choix du traitement doit être basé sur les caractéristiques dupatient et de sa tumeur. Cet objectif nécessite des développements biostatistiques, pour pouvoir évaluer lesmodèles pronostiques, et in fine proposer le meilleur. Dans une première partie, nous considérons le problèmede l’évaluation d’un score pronostique dans le cadre de données multicentriques. Nous étendons deux mesuresde concordance aux données groupées analysées par un modèle à fragilité partagée. Les deux niveaux inter etintra-groupe sont étudiés, et l’impact du nombre et de la taille des groupes sur les performances des mesuresest analysé. Dans une deuxième partie, nous proposons d’améliorer la prédiction du risque de décès en tenantcompte des rechutes précédemment observées. Pour cela nous développons une prédiction issue d’un modèleconjoint pour un événement récurrent et un événement terminal. Les prédictions individuelles proposées sontdynamiques, dans le sens où le temps et la fenêtre de prédiction peuvent varier, afin de pouvoir mettre à jourla prédiction lors de la survenue de nouveaux événements. Les prédictions sont développées sur une série hospitalièrefrançaise, et une validation externe est faite sur des données de population générale issues de registres decancer anglais et néerlandais. Leurs performances sont comparées à celles d’une prédiction issue d’une approchelandmark. Dans une troisième partie, nous explorons l’utilisation de la prédiction proposée pour diminuer ladurée des essais cliniques. Les temps de décès non observés des derniers patients inclus sont imputés en utilisantl’information des patients ayant un suivi plus long. Nous comparons trois méthodes d’imputation : un tempsde survie moyen, un temps échantillonné dans une distribution paramétrique et un temps échantillonné dansune distribution non-paramétrique des temps de survie. Les méthodes sont comparées en termes d’estimationdes paramètres (coefficient et écart-type), de risque de première espèce et de puissance. / Research on cancer treatment has been evolving for last years in one main direction: personalised medicine. Thetreatment choice must be done according to the patients’ and tumours’ characteristics. This goal requires somebiostatistical developments, in order to assess prognostic models and eventually propose the best one. In a firstpart, we consider the problem of assessing a prognostic score when multicentre data are used. We extended twoconcordance measures to clustered data in the context of shared frailty model. Both the between-cluster andthe within-cluster levels are studied, and the impact of the cluster number and size on the performance of themeasures is investigated. In a second part, we propose to improve the prediction of the risk of death accountingfor the previous observed relapses. For that, we develop predictions from a joint model for a recurrent event anda terminal event. The proposed individual prediction is dynamic, both the time and the horizon of predictioncan evolve, so that the prediction can be updated at each new event time. The prediction is developed ona French hospital series, and externally validated on population-based data from English and Dutch cancerregistries. Its performances are compared to those of a landmarking approach. In a third part, we explore theuse of the proposed prediction to reduce the clinical trial duration. The non-observed death times of the lastincluded patients are imputed using the information of the patients with longer follow-up. We compared threemethods to impute the data: a survival mean time, a time sampled from the parametric distribution and atime sampled from a non-parametric distribution of the survival times. The comparison is made in terms ofparameters estimation (coefficient and standard-error), type-I error and power.
|
Page generated in 0.0621 seconds