• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 4
  • Tagged with
  • 9
  • 9
  • 7
  • 6
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation longitudinales de marqueur du VIH

Thiebaut, Rodolphe 17 December 2002 (has links) (PDF)
L'étude de l'évolution et de la valeur pronostique des marqueurs est très fréquente en<br />épidémiologie. Le taux de lymphocytes T CD4+ et la charge virale plasmatique sont des<br />marqueurs très important de l'infection par le virus de l'immunodéficience humaine (VIH).<br />La modélisation de l'évolution de ces marqueurs présente plusieurs difficultés<br />méthodologiques. D'une part, il s'agit de données répétées incomplètes c'est à dire pouvant<br />être manquantes du fait de la sortie d'étude de certains sujets et de la censure de la charge<br />virale liée à une limite de détection inférieure des techniques de mesure. D'autre part, ces<br />deux marqueurs étant corrélés, il est important de prendre en compte cette information dans le<br />modèle. Nous avons proposé des méthodes basées sur le maximum de vraisemblance pour<br />estimer les paramètres de modèles linéaires mixtes prenant en compte l'ensemble de ces<br />difficultés. Nous avons montré l'impact significatif de ces méthodes biostatistiques sur les<br />estimations et donc nous avons souligné l'importance de leur utilisation dans le cadre des<br />marqueurs du VIH. Pour promouvoir leur diffusion, nous avons présenté des possibilités<br />d'implémentation de certaines des méthodes proposées dans des logiciels statistiques<br />communs.
2

Prédiction du pronostic des patients atteints de muscoviscidose / Prognosis prediction of cystic fibrosis patients

Nkam Beriye, Dorette Lionelle 22 December 2017 (has links)
La mucoviscidose est à ce jour une maladie malheureusement incurable. Malgré les nombreux progrès réalisés dans la recherche à ce sujet, il reste indispensable d’avoir davantage une meilleure connaissance de la maladie afin de proposer des traitements encore plus adaptés aux patients. La majorité des traitements actuels visent principalement à réduire les symptômes de la maladie sans toutefois la guérir. A ce jour, la transplantation pulmonaire reste le moyen le plus adéquat pour améliorer la qualité de vie et prolonger la vie des patients dont l’état respiratoire s’est considérablement dégradé. Cependant les critères d’identification des patients éligibles à la transplantation pulmonaire sont assez variés. Il est donc nécessaire de fournir aux cliniciens des outils d’aide à la décision pour mieux identifier les patients nécessitant une transplantation pulmonaire. Pour ce faire, il est indispensable de connaitre d’une part, les facteurs pronostics de transplantation pulmonaire et d’autre part, de savoir convenablement pronostiquer la survenue de cet événement chez les sujets atteints de mucoviscidose. L’objectif de ce travail de thèse est de développer des outils pronostiques utiles à l’évaluation des choix thérapeutiques liés à la transplantation pulmonaire. Dans la première partie de ce travail, nous avons réévalué les facteurs pronostiques de la transplantation pulmonaire ou du décès chez les adultes atteints de mucoviscidose. Suite aux progrès thérapeutiques qui ont conduit à l’amélioration du pronostic au cours des dernières années, ce travail a permis d’identifier des facteurs pronostiques en adéquation avec l’état actuel de la recherche. Un deuxième travail a consisté à développer un modèle conjoint à classes latentes fournissant des prédictions dynamiques pour la transplantation pulmonaire ou le décès. Ce modèle a permis d’identifier trois profils d’évolution de la maladie et également d’actualiser le risque de survenue de la transplantation pulmonaire ou du décès à partir des données longitudinales du marqueur VEMS. Ces modèles pronostiques ont été développés à partir des données du registre français de la mucoviscidose et ont fourni de bonnes capacités prédictives en termes de discrimination et de calibration. / Cystic Fibrosis is unfortunately an incurable inherited disorder. Despite real progress in research, it is essential to always have a better understanding of the disease in order to provide suitable treatments to patients. Current treatments mostly aim to reduce the disease symptoms without curing it. Lung transplantation is proposed to cystic fibrosis patients with terminal respiratory failure with the aim of improving life expectancy and quality of life. However, criteria for referring patients for lung transplantation still vary widely among transplant centers. It is necessary to guide clinicians in identifying in a good way patients requiring an evaluation for lung transplantation. It is thus important to clearly identify prognostic factors related to lung transplantation and to predict in a good way the occurrence of this event in patients with cystic fibrosis. The aim of this work was to develop prognostic tools to assist clinicians in the evaluation of different therapeutic options related to lung transplantation. First, we reevaluated prognostic factors of lung transplantation or death in adult with cystic fibrosis. indeed, therapeutic progress in patients with cystic fibrosis has resulted in improved prognosis over the past decades. We identified prognostic factors related to the current state of research in the cystic fibrosis field. We further developed a joint model with latent classes which provided dynamic predictions for lung transplantation or death. This model identified three profile of the evolution of the disease and was able to update the risk of lung transplantation or death taking into account the evolution of the longitudinal marker FEV1 which describes the lung function. These prognostic models were developed using the French cystic fibrosis registry and provided good predictive accuracies in terms of discrimination and calibration.
3

Développement de méthodes pour la validation de critères de substitution en survie : méta-analyses de cancer / Development of methods for the validation of time-to-event surrogate endpoints : meta-analysis of cancer

Sofeu, Casimir 12 December 2019 (has links)
Les critères de substitution peuvent être utilisés à la place du critère de jugement le plus pertinent pour évaluer l'efficacité d'un nouveau traitement. Dans un contexte de méta-analyse, l'approche classique pour la validation d'un critère de substitution est basée sur une stratégie d'analyse en deux étapes. Pour des critères de jugement à temps d’évènements, cette approche est souvent sujette à des problèmes d'estimations. Nous proposons une approche de validation en une étape s'appuyant sur des modèles conjoints à fragilités et à copules. Ces modèles incluent à la fois des effets aléatoires au niveau essai et au niveau individuel ou des fonctions de copule. Nous considérons des fonctions de risque de base non paramétriquesà l'aide des splines. Les paramètres des modèles et les fonctions de risque de base ont été estimés par une méthode semi-paramétrique, par maximisation de la vraisemblance marginale pénalisée, considérant différentes méthodes d'intégration numérique. La validation des critères de substitution à la fois au niveau individuel et au niveau essai a été faite à partir du tau de Kendall et du coefficient de détermination. Les études de simulation ont été faites pour évaluer les performances de nos modèles. Les modèles ont été appliqués aux données individuelles issues des méta-analyses sur le cancer afin de rechercher de potentiels critères de substitution à la survie globale. Les modèles étaient assez robustes avec réduction des problèmes de convergence et d'estimation rencontrés dans l'approche en deux étapes. Nous avons développé un package R convivial implémentant les nouveaux modèles. / Surrogate endpoint can be used instead of the most relevant clinical endpointto assess the efficiency of a new treatment. In a meta-analysis framework, the classical approach for the validation of surrogate endpoint is based on a two-step analysis. For failure time endpoints, this approach often raises estimation issues.We propose a one-step validation approach based on a joint frailty and a joint frailty-copula model.The models include both trial-level and individual-level random effects or copula functions. We chose a non-parametric form of the baseline hazard functions using splines. We estimated parameters and hazard functions using a semi-parametric penalized marginal likelihood method, considering various numerical integration methods. Both individual level and trial level surrogacy were evaluated using Kendall's tau and coefficient of determination. The performance of the estimators was evaluated using simulation studies. The models were applied to individual patient data meta-analyses in cancer clinical trials for assesing potentiel surrogate endpoint to overall survival.The models were quite robust with a reduction of convergence and model estimation issues encountered in the two-step approach.We developed a user friendly R package implementing the models.
4

Méthodes statistiques pour les essais de phase I/II de thérapies moléculaires ciblées en cancérologie / Statistical Methods for Phase I/II Trials of Molecularly Targeted Agents in Oncology

Altzerinakou, Maria Athina 12 October 2018 (has links)
Les essais cliniques de phase I en cancérologie permettent d’identifier la dose optimale (DO), définie comme la dose maximale tolérée (DMT). Les approches conventionnelles de recherche de dose reposent uniquement sur les événements de toxicité observés au cours du premier cycle de traitement. Le développement des thérapies moléculaires ciblées (TMC), habituellement administrées sur de longues périodes, a remis en question cet objectif. Considérer uniquement le premier cycle de traitement n’est pas suffisant. De plus, comme l'activité n'augmente pas nécessairement de façon monotone avec la dose, la toxicité et l'activité doivent être prises en compte pour identifier la DO. Récemment, les biomarqueurs continus sont de plus en plus utilisés pour mesurer l'activité.L’objectif de cette thèse était de proposer et d'évaluer des designs adaptatifs pour identifier la DO. Nous avons développé deux designs de recherche de dose, basés sur une modélisation conjointe des mesures longitudinales de l'activité des biomarqueurs et de la première toxicité dose-limitante (DLT), avec un effet aléatoire partagé. En utilisant des propriétés de distribution normales asymétriques, l'estimation reposait sur la vraisemblance sans approximation ce qui est une propriété importante dans le cas de petits échantillons qui sont souvent disponibles dans ces essais. La DMT est associée à un certain risque cumulé de DLT sur un nombre prédéfini de cycles de traitement. La DO a été définie comme la dose la moins toxique parmi les doses actives, sous la contrainte de ne pas dépasser la DMT. Le second design étendait cette approche pour les cas d’une relation dose-activité qui pouvait atteindre un plateau. Un modèle à changement de pente a été implémenté. Nous avons évalué les performances des designs avec des études de simulations en étudiant plusieurs scénarios et divers degrés d'erreur de spécification des modèles.Finalement, nous avons effectué une analyse de 27 études des TMCs de phase I, en tant que monothérapie. Les études ont été réalisées par l'Institut National du Cancer. L'objectif principal était d'estimer le risque par cycle et l’incidence cumulative de la toxicité sévère, jusqu’à six cycles. Les analyses ont été effectuées séparément pour différents sous-groupes de doses, ainsi que pour les toxicités hématologiques et non-hématologiques. / Conventional dose-finding approaches in oncology of phase I clinical trials aim to identify the optimal dose (OD) defined as the maximum tolerated dose (MTD), based on the toxicity events observed during the first treatment cycle. The constant development of molecularly targeted agents (MTAs), usually administered in chronic schedules, has challenged this objective. Not only, the outcomes after the first cycle are of importance, but also activity does not necessarily increase monotonically with dose. Therefore, both toxicity and activity should be considered for the identification of the OD. Lately, continuous biomarkers are used more and more to monitor activity. The aim of this thesis was to propose and evaluate adaptive designs for the identification of the OD. We developed two dose-finding designs, based on a joint modeling of longitudinal continuous biomarker activity measurements and time to first dose limiting toxicity (DLT), with a shared random effect, using skewed normal distribution properties. Estimation relied on likelihood that did not require approximation, an important property in the context of small sample sizes, typical of phase I/II trials. We addressed the important case of missing at random data that stem from unacceptable toxicity, lack of activity and rapid deterioration of phase I patients. The MTD was associated to some cumulative risk of DLT over a predefined number of treatment cycles. The OD was defined as the lowest dose within a range of active doses, under the constraint of not exceeding the MTD. The second design extended this approach for cases of a dose-activity relationship that could reach a plateau. A change point model was implemented. The performance of the approaches was evaluated through simulation studies, investigating a wide range of scenarios and various degrees of data misspecification. As a last part, we performed an analysis of 27 phase I studies of MTAs, as monotherapy, conducted by the National Cancer Institut. The primary focus was to estimate the per-cycle risk and the cumulative incidence function of severe toxicity, over up to six cycles. Analyses were performed separately for different dose subgroups, as well as for hematologic and non-hematologic toxicities.
5

Modèles conjoints pour données longitudinales et données de survie incomplètes appliqués à l'étude du vieillissement cognitif

Dantan, Etienne 08 December 2009 (has links)
Dans l'étude du vieillissement cérébral, le suivi des personnes âgées est soumis à une forte sélection avec un risque de décès associé à de faibles performances cognitives. La modélisation de l'histoire naturelle du vieillissement cognitif est complexe du fait de données longitudinales et données de survie incomplètes. Par ailleurs, un déclin accru des performances cognitives est souvent observé avant le diagnostic de démence sénile, mais le début de cette accélération n'est pas facile à identifier. Les profils d'évolution peuvent être variés et associés à des risques différents de survenue d'un événement; cette hétérogénéité des déclins cognitifs de la population des personnes âgées doit être prise en compte. Ce travail a pour objectif d'étudier des modèles conjoints pour données longitudinales et données de survie incomplètes afin de décrire l'évolution cognitive chez les personnes âgées. L'utilisation d'approches à variables latentes a permis de tenir compte de ces phénomènes sous-jacents au vieillissement cognitif que sont l'hétérogénéité et l'accélération du déclin. Au cours d'un premier travail, nous comparons deux approches pour tenir compte des données manquantes dans l'étude d'un processus longitudinal. Dans un second travail, nous proposons un modèle conjoint à état latent pour modéliser simultanément l'évolution cognitive et son accélération pré-démentielle, le risque de démence et le risque de décès. / In cognitive ageing study, older people are highly selected by a risk of death associated with poor cognitive performances. Modeling the natural history of cognitive decline is difficult in presence of incomplete longitudinal and survival data. Moreover, the non observed cognitive decline acceleration beginning before the dementia diagnosis is difficult to evaluate. Cognitive decline is highly heterogeneous, e.g. there are various patterns associated with different risks of survival event. The objective is to study joint models for incomplete longitudinal and survival data to describe the cognitive evolution in older people. Latent variable approaches were used to take into account the non-observed mechanisms, e.g. heterogeneity and decline acceleration. First, we compared two approaches to consider missing data in longitudinal data analysis. Second, we propose a joint model with a latent state to model cognitive evolution and its pre-dementia acceleration, dementia risk and death risk.
6

Inférence dans les modèles conjoints et de mélange non-linéaires à effets mixtes / Inference in non-linear mixed effects joints and mixtures models

Mbogning, Cyprien 17 December 2012 (has links)
Cette thèse est consacrée au développement de nouvelles méthodologies pour l'analyse des modèles non-linéaires à effets mixtes, à leur implémentation dans un logiciel accessible et leur application à des problèmes réels. Nous considérons particulièrement des extensions des modèles non-linéaires à effets mixtes aux modèles de mélange et aux modèles conjoints. Dans la première partie, nous proposons, dans le but d'avoir une meilleure maîtrise de l'hétérogénéité liée aux données sur des patients issus de plusieurs clusters, des extensions des MNLEM aux modèles de mélange. Nous proposons ensuite de combiner l'algorithme EM, utilisé traditionnellement pour les modèles de mélanges lorsque les variables étudiées sont observées, et l'algorithme SAEM, utilisé pour l'estimation de paramètres par maximum de vraisemblance lorsque ces variables ne sont pas observées. La procédure résultante, dénommée MSAEM, permet ainsi d'éviter l'introduction d'une étape de simulation des covariables catégorielles latentes dans l'algorithme d'estimation. Cet algorithme est extrêmement rapide, très peu sensible à l'initialisation des paramètres, converge vers un maximum (local) de la vraisemblance et est implémenté dans le logiciel Monolix.La seconde partie de cette Thèse traite de la modélisation conjointe de l'évolution d'un marqueur biologique au cours du temps et les délais entre les apparitions successives censurées d'un évènement d'intérêt. Nous considérons entre autres, les censures à droite, les multiples censures par intervalle d'évènements répétés. Les paramètres du modèle conjoint résultant sont estimés en maximisant la vraisemblance jointe exacte par un algorithme de type MCMC-SAEM. Cette méthodologie est désormais disponible sous Monolix / The main goal of this thesis is to develop new methodologies for the analysis of non linear mixed-effects models, along with their implementation in accessible software and their application to real problems. We consider particularly extensions of non-linear mixed effects model to mixture models and joint models. The study of these two extensions is the essence of the work done in this document, which can be divided into two major parts. In the first part, we propose, in order to have a better control of heterogeneity linked to data of patient issued from several clusters, extensions of NLMEM to mixture models. We suggest in this Thesis to combine the EM algorithm, traditionally used for mixtures models when the variables studied are observed, and the SAEM algorithm, used to estimate the maximum likelihood parameters when these variables are not observed. The resulting procedure, referred MSAEM, allows avoiding the introduction of a simulation step of the latent categorical covariates in the estimation algorithm. This algorithm appears to be extremely fast, very little sensitive to parameters initialization and converges to a (local) maximum of the likelihood. This methodology is now available under the Monolix software. The second part of this thesis deals with the joint modeling of the evolution of a biomarker over time and the time between successive appearances of a possibly censored event of interest. We consider among other, the right censoring and interval censorship of multiple events. The parameters of the resulting joint model are estimated by maximizing the exact joint likelihood by using a MCMC-SAEM algorithm. The proposed methodology is now available under Monolix.
7

Study of dementia and cognitive decline accounting for selection by death / Prise en compte de la sélection par le décès dans l'étude de la démence et du déclin cognitif

Rouanet, Anais 14 December 2016 (has links)
Ce travail a pour but de développer des outils statistiques pour l'étude du déclin cognitif général ou précédant le diagnostic de démence, à partir de données de cohorte en tenant compte du risque compétitif de décès et de la censure par intervalle. Le temps de démence est censuré par intervalle dans les études de cohortes car le diagnostic de démence ne peut être établi qu'à l'occasion des visites qui peuvent être espacées de plusieurs années. Ceci induit une sous-estimation du risque de démence à cause du risque compétitif de décès : les sujets déments sont à fort risque de mourir, et peuvent donc décéder avant la visite de diagnostic. Dans la première partie, nous proposons un modèle conjoint à classes latentes pour données longitudinales corrélées à un événement censuré par intervalle, en compétition avec le décès. Appliqué à la cohorte Paquid, ce modèle permet d'identifier des profils de déclin cognitif associés à des risques différents de démence et de décès. En utilisant cette méthodologie, nous comparons ensuite des modèles pronostiques dynamiques pour la démence, traitant la censure par intervalle, basés sur des mesures répétées de marqueurs cognitifs. Dans la seconde partie, nous conduisons une étude comparative afin de clarifier l'interprétation des estimateurs du maximum de vraisemblance des modèles mixtes et conjoints et estimateurs par équations d'estimation généralisées (GEE), couramment utilisés dans le contexte de données longitudinales incomplètes et tronquées par le décès. Les estimateurs de maximum de vraisemblance ciblent le changement individuel chez les individus vivants. Les estimateurs GEE avec matrice de corrélation de travail indépendante, pondérés par l'inverse de la probabilité d'être observé sachant que le sujet est vivant, ciblent la trajectoire moyennée sur la population des survivants à chaque âge. Ces résultats justifient l'utilisation des modèles conjoints dans l'étude de la démence, qui sont des outils prometteurs pour mieux comprendre l'histoire naturelle de la maladie / The purpose of this work is to develop statistical tools to study the general or the prediagnosis cognitive decline, while accounting for the selection by death and interval censoring. In cohort studies, the time-to-dementia-onset is interval-censored as the dementia status is assessed intermittently. This issue can lead to an under-estimation of the risk of dementia, due to the competing risk of death: subjects with dementia are at high risk to die and can thus die prior to the diagnosis visit. First, we propose a joint latent class illness-death model for longitudinal data correlated to an interval-censored time-to-event, competing with the time-to-death. This model is applied on the Paquid cohort to identify profiles of pre-dementia cognitive declines associated with different risks of dementia and death. Using this methodology, we compare dynamic prognostic models for dementia based on repeated measures of cognitive markers, accounting for interval censoring. Secondly, we conduct a simulation study to clarify the interpretation of maximum likelihood estimators of joint and mixed models as well as GEE estimators, frequently used to handle incomplete longitudinal data truncated by death. Maximum likelihood estimators target the individual change among the subjects currently alive. GEE estimators with independent working correlation matrix, weighted by the inverse probability to be observed given that the subject is alive, target the population-averaged change among the dynamic population of survivors. These results justify the use of joint models in dementia studies, which are promising statistical tools to better understand the natural history of dementia
8

Modélisation conjointe de trajectoire socioprofessionnelle individuelle et de la survie globale ou spécifique / Joint modeling of individual socio-professional trajectory and overall or cause-specific survival

Karimi, Maryam 06 June 2016 (has links)
Appartenir à une catégorie socio-économique moins élevée est généralement associé à une mortalité plus élevée pour de nombreuses causes de décès. De précédentes études ont déjà montré l’importance de la prise en compte des différentes dimensions des trajectoires socio-économiques au cours de la vie. L’analyse des trajectoires professionnelles constitue une étape importante pour mieux comprendre ces phénomènes. L’enjeu pour mesurer l’association entre les parcours de vie des trajectoires socio-économiques et la mortalité est de décomposer la part respective de ces facteurs dans l’explication du niveau de survie des individus. La complexité de l’interprétation de cette association réside dans la causalité bidirectionnelle qui la sous-tend: Les différentiels de mortalité sont-ils dus à des différentielsd’état de santé initial influençant conjointement la situation professionnelle et la mortalité, ou l’évolution professionnelle influence-t-elle directement l’état de santé puis la mortalité?Les méthodes usuelles ne tiennent pas compte de l’interdépendance des changements de situation professionnelle et de la bidirectionnalité de la causalité qui conduit à un biais important dans l’estimation du lien causale entre situation professionnelle et mortalité. Par conséquent, il est nécessaire de proposer des méthodes statistiques qui prennent en compte des mesures répétées (les professions) simultanément avec les variables de survie. Cette étude est motivée par la base de données Cosmop-DADS qui est un échantillon de la population salariée française.Le premier objectif de cette thèse était d’examiner l’ensemble des trajectoires professionnelles avec une classification professionnelle précise, au lieu d’utiliser un nombre limité d’états dans un parcours professionnel qui a été considéré précédemment. A cet effet, nous avons défini des variables dépendantes du temps afinde prendre en compte différentes dimensions des trajectoires professionnelles, à travers des modèles dits de "life-course", à savoir critical period, accumulation model et social mobility model, et nous avons mis en évidence l’association entre les trajectoires professionnelles et la mortalité par cause en utilisant ces variables dans un modèle de Cox.Le deuxième objectif a consisté à intégrer les épisodes professionnel comme un sous-modèle longitudinal dans le cadre des modèles conjoints pour réduire le biais issude l’inclusion des covariables dépendantes du temps endogènes dans le modèle de Cox. Nous avons proposé un modèle conjoint pour les données longitudinales nominaleset des données de risques concurrents dans une approche basée sur la vraisemblance. En outre, nous avons proposé une approche de type méta-analyse pour résoudre les problèmes liés au temps des calculs dans les modèles conjoints appliqués à l’analyse des grandes bases de données. Cette approche consiste à combiner les résultats issus d’analyses effectuées sur les échantillons stratifiés indépendants. Dans la même perspective de l’utilisation du modèle conjoint sur les grandes bases de données, nous avons proposé une procédure basée sur l’avantage computationnel de la régression de Poisson.Cette approche consiste à trouver les trajectoires typesà travers les méthodes de la classification, et d’appliquerle modèle conjoint sur ces trajectoires types. / Being in low socioeconomic position is associated with increased mortality risk from various causes of death. Previous studies have already shown the importance of considering different dimensions of socioeconomic trajectories across the life-course. Analyses of professional trajectories constitute a crucial step in order to better understand the association between socio-economic position and mortality. The main challenge in measuring this association is then to decompose the respectiveshare of these factors in explaining the survival level of individuals. The complexity lies in the bidirectional causality underlying the observed associations:Are mortality differentials due to differences in the initial health conditions that are jointly influencing employment status and mortality, or the professional trajectory influences directly health conditions and then mortality?Standard methods do not consider the interdependence of changes in occupational status and the bidirectional causal effect underlying the observed association and that leads to substantial bias in estimating the causal link between professional trajectory and mortality. Therefore, it is necessary to propose statistical methods that consider simultaneously repeated measurements (careers) and survivalvariables. This study was motivated by the Cosmop-DADS database, which is a sample of the French salaried population.The first aim of this dissertation was to consider the whole professional trajectories and an accurate occupational classification, instead of using limitednumber of stages during life course and a simple occupational classification that has been considered previously. For this purpose, we defined time-dependent variables to capture different life course dimensions, namely critical period, accumulation model and social mobility model, and we highlighted the association between professional trajectories and cause-specific mortality using the definedvariables in a Cox proportional hazards model.The second aim was to incorporate the employment episodes in a longitudinal sub-model within the joint model framework to reduce the bias resulting from the inclusion of internal time-dependent covariates in the Cox model. We proposed a joint model for longitudinal nominal outcomes and competing risks data in a likelihood-based approach. In addition, we proposed an approach mimicking meta-analysis to address the calculation problems in joint models and large datasets, by extracting independent stratified samples from the large dataset, applying the joint model on each sample and then combining the results. In the same objective, that is fitting joint model on large-scale data, we propose a procedure based on the appeal of the Poisson regression model. This approach consist of finding representativetrajectories by means of clustering methods and then applying the joint model on these representative trajectories.
9

Mathematical modelling of image processing problems : theoretical studies and applications to joint registration and segmentation / Modélisation mathématique de problèmes relatifs au traitement d'images : étude théorique et applications aux méthodes conjointes de recalage et de segmentation

Debroux, Noémie 15 March 2018 (has links)
Dans cette thèse, nous nous proposons d'étudier et de traiter conjointement plusieurs problèmes phares en traitement d'images incluant le recalage d'images qui vise à apparier deux images via une transformation, la segmentation d'images dont le but est de délimiter les contours des objets présents au sein d'une image, et la décomposition d'images intimement liée au débruitage, partitionnant une image en une version plus régulière de celle-ci et sa partie complémentaire oscillante appelée texture, par des approches variationnelles locales et non locales. Les relations étroites existant entre ces différents problèmes motivent l'introduction de modèles conjoints dans lesquels chaque tâche aide les autres, surmontant ainsi certaines difficultés inhérentes au problème isolé. Le premier modèle proposé aborde la problématique de recalage d'images guidé par des résultats intermédiaires de segmentation préservant la topologie, dans un cadre variationnel. Un second modèle de segmentation et de recalage conjoint est introduit, étudié théoriquement et numériquement puis mis à l'épreuve à travers plusieurs simulations numériques. Le dernier modèle présenté tente de répondre à un besoin précis du CEREMA (Centre d'Études et d'Expertise sur les Risques, l'Environnement, la Mobilité et l'Aménagement) à savoir la détection automatique de fissures sur des images d'enrobés bitumineux. De part la complexité des images à traiter, une méthode conjointe de décomposition et de segmentation de structures fines est mise en place, puis justifiée théoriquement et numériquement, et enfin validée sur les images fournies. / In this thesis, we study and jointly address several important image processing problems including registration that aims at aligning images through a deformation, image segmentation whose goal consists in finding the edges delineating the objects inside an image, and image decomposition closely related to image denoising, and attempting to partition an image into a smoother version of it named cartoon and its complementary oscillatory part called texture, with both local and nonlocal variational approaches. The first proposed model addresses the topology-preserving segmentation-guided registration problem in a variational framework. A second joint segmentation and registration model is introduced, theoretically and numerically studied, then tested on various numerical simulations. The last model presented in this work tries to answer a more specific need expressed by the CEREMA (Centre of analysis and expertise on risks, environment, mobility and planning), namely automatic crack recovery detection on bituminous surface images. Due to the image complexity, a joint fine structure decomposition and segmentation model is proposed to deal with this problem. It is then theoretically and numerically justified and validated on the provided images.

Page generated in 0.0708 seconds