• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 5
  • 2
  • Tagged with
  • 17
  • 17
  • 12
  • 11
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modèles conjoints pour données longitudinales et données de survie incomplètes appliqués à l'étude du vieillissement cognitif

Dantan, Etienne 08 December 2009 (has links)
Dans l'étude du vieillissement cérébral, le suivi des personnes âgées est soumis à une forte sélection avec un risque de décès associé à de faibles performances cognitives. La modélisation de l'histoire naturelle du vieillissement cognitif est complexe du fait de données longitudinales et données de survie incomplètes. Par ailleurs, un déclin accru des performances cognitives est souvent observé avant le diagnostic de démence sénile, mais le début de cette accélération n'est pas facile à identifier. Les profils d'évolution peuvent être variés et associés à des risques différents de survenue d'un événement; cette hétérogénéité des déclins cognitifs de la population des personnes âgées doit être prise en compte. Ce travail a pour objectif d'étudier des modèles conjoints pour données longitudinales et données de survie incomplètes afin de décrire l'évolution cognitive chez les personnes âgées. L'utilisation d'approches à variables latentes a permis de tenir compte de ces phénomènes sous-jacents au vieillissement cognitif que sont l'hétérogénéité et l'accélération du déclin. Au cours d'un premier travail, nous comparons deux approches pour tenir compte des données manquantes dans l'étude d'un processus longitudinal. Dans un second travail, nous proposons un modèle conjoint à état latent pour modéliser simultanément l'évolution cognitive et son accélération pré-démentielle, le risque de démence et le risque de décès. / In cognitive ageing study, older people are highly selected by a risk of death associated with poor cognitive performances. Modeling the natural history of cognitive decline is difficult in presence of incomplete longitudinal and survival data. Moreover, the non observed cognitive decline acceleration beginning before the dementia diagnosis is difficult to evaluate. Cognitive decline is highly heterogeneous, e.g. there are various patterns associated with different risks of survival event. The objective is to study joint models for incomplete longitudinal and survival data to describe the cognitive evolution in older people. Latent variable approaches were used to take into account the non-observed mechanisms, e.g. heterogeneity and decline acceleration. First, we compared two approaches to consider missing data in longitudinal data analysis. Second, we propose a joint model with a latent state to model cognitive evolution and its pre-dementia acceleration, dementia risk and death risk.
12

Inférence dans les modèles conjoints et de mélange non-linéaires à effets mixtes / Inference in non-linear mixed effects joints and mixtures models

Mbogning, Cyprien 17 December 2012 (has links)
Cette thèse est consacrée au développement de nouvelles méthodologies pour l'analyse des modèles non-linéaires à effets mixtes, à leur implémentation dans un logiciel accessible et leur application à des problèmes réels. Nous considérons particulièrement des extensions des modèles non-linéaires à effets mixtes aux modèles de mélange et aux modèles conjoints. Dans la première partie, nous proposons, dans le but d'avoir une meilleure maîtrise de l'hétérogénéité liée aux données sur des patients issus de plusieurs clusters, des extensions des MNLEM aux modèles de mélange. Nous proposons ensuite de combiner l'algorithme EM, utilisé traditionnellement pour les modèles de mélanges lorsque les variables étudiées sont observées, et l'algorithme SAEM, utilisé pour l'estimation de paramètres par maximum de vraisemblance lorsque ces variables ne sont pas observées. La procédure résultante, dénommée MSAEM, permet ainsi d'éviter l'introduction d'une étape de simulation des covariables catégorielles latentes dans l'algorithme d'estimation. Cet algorithme est extrêmement rapide, très peu sensible à l'initialisation des paramètres, converge vers un maximum (local) de la vraisemblance et est implémenté dans le logiciel Monolix.La seconde partie de cette Thèse traite de la modélisation conjointe de l'évolution d'un marqueur biologique au cours du temps et les délais entre les apparitions successives censurées d'un évènement d'intérêt. Nous considérons entre autres, les censures à droite, les multiples censures par intervalle d'évènements répétés. Les paramètres du modèle conjoint résultant sont estimés en maximisant la vraisemblance jointe exacte par un algorithme de type MCMC-SAEM. Cette méthodologie est désormais disponible sous Monolix / The main goal of this thesis is to develop new methodologies for the analysis of non linear mixed-effects models, along with their implementation in accessible software and their application to real problems. We consider particularly extensions of non-linear mixed effects model to mixture models and joint models. The study of these two extensions is the essence of the work done in this document, which can be divided into two major parts. In the first part, we propose, in order to have a better control of heterogeneity linked to data of patient issued from several clusters, extensions of NLMEM to mixture models. We suggest in this Thesis to combine the EM algorithm, traditionally used for mixtures models when the variables studied are observed, and the SAEM algorithm, used to estimate the maximum likelihood parameters when these variables are not observed. The resulting procedure, referred MSAEM, allows avoiding the introduction of a simulation step of the latent categorical covariates in the estimation algorithm. This algorithm appears to be extremely fast, very little sensitive to parameters initialization and converges to a (local) maximum of the likelihood. This methodology is now available under the Monolix software. The second part of this thesis deals with the joint modeling of the evolution of a biomarker over time and the time between successive appearances of a possibly censored event of interest. We consider among other, the right censoring and interval censorship of multiple events. The parameters of the resulting joint model are estimated by maximizing the exact joint likelihood by using a MCMC-SAEM algorithm. The proposed methodology is now available under Monolix.
13

Méthodes longitudinales pour l’analyse de la qualité de vie relative à la santé en cancérologie / Longitudinal methods for the health-related quality of life analysis in oncology

Barbieri, Antoine 27 June 2016 (has links)
L’étude de la qualité de vie relative à la santé est un objectif prioritaire des essais cliniques en cancérologie pour évaluer l’efficacité d’une prise en charge ; elle est mesurée par le biais d’auto-questionnaire. Dans ce travail, nous proposons différentes modélisations statistiques pour l’analyse longitudinale de ce critère, ainsi que leur application sur des données issues de plusieurs essais cliniques. Une première partie présente les modèles issus de la théorie de réponse à l’item (IRT) pour réaliser une analyse longitudinale directement sur les données brutes (multi-réponses ordinales) et ce par dimension. Une fois replacés dans le contexte des modèles linéaires généralisés mixtes, une sélection conceptuelle de modèles IRT a conclu que le Graded response model semble le mieux adapté. Dans une seconde partie, nous proposons un modèle à équation structurelle permettant de prendre en compte conjointement l’aspect multidimensionnel et longitudinal de la qualité de vie. À l’aide de facteurs reflétés par des ensembles de variables observées, il permet de lier à chaque temps de mesure toutes les observations issues du questionnaire, tout en considérant également des variables explicatives. L’analyse longitudinale est réalisée sur le statut global de santé et les facteurs réduisant ainsi le nombre de tests. Enfin, une approche par mélanges de modèles mixtes est proposée pour obtenir des classes latentes à partir de trajectoires de qualité de vie. Cette approche a permis de caractériser des sous-populations homogènes et d’associer différente évolution de la qualité de vie suivant des profils particuliers de patients. / The health-related quality of life is a major objective in oncology clinical trials to improve patients’ care and better evaluate the impact of the treatments on their everyday life. Auto-questionnaires are usually used to measure this endpoint. In this work, different statistical models for the longitudinal analysis of health-related quality of life in oncology are proposed and applied to clinical trial data. First, we present different models derived from the item response theory (IRT) to achieve a longitudinal analysis directly on raw data (multi-response outcomes) for each dimension. Within the generalized linear mixed model background, a conceptual selection of the IRT models concluded that the graded response model seems to be the most suitable. Then, we propose a structural equation model which allows taking into account the multidimensional nature of data at each time and the longitudinal aspect induced by the repeated measurements. At each measurement time, the model allows to link all the observed variables issued from the questionnaire given explanatory variables. Two factors are estimated, each summarizing a set of observed variables. The longitudinal analysis is performed on the global health status and on the factors, thus reducing the number of tests. Finally, an approach based on a mixture of mixed models is used to obtain latent classes from quality of life trajectories. The approach has resulted in the identification of homogeneous subpopulations and their latent trajectory according to specific patient profiles.
14

Méthodes de méta-analyse pour l'estimation des émissions de N2O par les sols agricoles

Philibert, Aurore 16 November 2012 (has links) (PDF)
Le terme de méta-analyse désigne l'analyse statique d'un large ensemble de résultats provenant d'études individuelles pour un même sujet donné. Cette approche est de plus en plus étudiée dans différents domaines, notamment en agronomie. Dans cette discipline, une revue bibliographique réalisée dans le cadre de la thèse a cependant montré que les méta-analyses n'étaient pas toujours de bonne qualité. Les méta-analyses effectuées en agronomie étudient ainsi très rarement la robustesse de leurs conclusions aux données utilisées et aux méthodes statistiques. L'objectif de cette thèse est de démontrer et d'illustrer l'importance des analyses de sensibilité dans le cadre de la méta-analyse en s'appuyant sur l'exemple de l'estimation des émissions de N2O provenant des sols agricoles. L'estimation des émissions de protoxyde d'azote (N2O) est réalisée à l'échelle mondaile par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Le N2O est un puissant gaz à effet de serre avec un pouvoir de réchauffement 298 fois plus puissant que le CO2 sur une période de 100 ans. Les émissions de N2O ont la particularité de présenter une forte variabilité spatiale et temporelle. Deux bases de données sont utilisées dans ce travail : la base de données de Rochette et Janzen (2005) et celle de Stehfest et Bouwman (2006). Elles recensent de nombreuses mesures d'émissions de N2O réparties dans le monde provenant d'études publiées et ont joué un rôle important lors des estimations d'émissions de N2O réalisées par le GIEC. Les résultats montrent l'intérêt des modèles à effets aléatoires pour estimer les émissions de NO2 issues de sols agricoles. Ils sont bien adaptés à la structure des données (observations répétées sur un même site pour différentes doses d'engrais, avec plusieurs sites considérés). Ils permettent de distinguer la variabilité inter-sites de la variabilité intra-site et d'estimer l'effet de la dose d'engrais azoté sur les émissions de NO2. Dans ce mémoire, l'analyse de la sensibilité des estimations à la forme de la relation "Emission de N2O / Dose d'engrais azoté" a montré qu'une relation exponentielle était plus adaptée. Il apparait ainsi souhaitable de remplacer le facteur d'émission constant du GIEC (1% d'émission quelque soit la dose d'engrais azoté) par un facteur variable qui augmenterait en fonction de la dose. Nous n'avons par contre pas identifié de différence importante entre les méthodes d'inférence fréquentiste et bayésienne. Deux approches ont été proposées pour inclure des variables de milieu et de pratiques culturales dans les estimations de N2O. La méthode Random Forest permet de gérer les données manquantes et présente les meilleures prédictions d'émission de N2O. Les modèles à effets aléatoires permettent eux de prendre en compte ces variables explicatives par le biais d'une ou plusieurs mesures d'émission de N2O. Cette méthode permet de prédire les émissions de N2O pour des doses non testées comme le cas non fertilisé en parcelles agricoles. Les résultats de cette méthode sont cependant sensibles au plan d'expérience utilisé localement pour mesurer les émissions de N2O.
15

Classification non supervisée et sélection de variables dans les modèles mixtes fonctionnels. Applications à la biologie moléculaire.

Giacofci, Madison 22 October 2013 (has links) (PDF)
Un nombre croissant de domaines scientifiques collectent de grandes quantités de données comportant beaucoup de mesures répétées pour chaque individu. Ce type de données peut être vu comme une extension des données longitudinales en grande dimension. Le cadre naturel pour modéliser ce type de données est alors celui des modèles mixtes fonctionnels. Nous traitons, dans une première partie, de la classification non-supervisée dans les modèles mixtes fonctionnels. Nous présentons dans ce cadre une nouvelle procédure utilisant une décomposition en ondelettes des effets fixes et des effets aléatoires. Notre approche se décompose en deux étapes : une étape de réduction de dimension basée sur les techniques de seuillage des ondelettes et une étape de classification où l'algorithme EM est utilisé pour l'estimation des paramètres par maximum de vraisemblance. Nous présentons des résultats de simulations et nous illustrons notre méthode sur des jeux de données issus de la biologie moléculaire (données omiques). Cette procédure est implémentée dans le package R "curvclust" disponible sur le site du CRAN. Dans une deuxième partie, nous nous intéressons aux questions d'estimation et de réduction de dimension au sein des modèles mixtes fonctionnels et nous développons en ce sens deux approches. La première approche se place dans un objectif d'estimation dans un contexte non-paramétrique et nous montrons dans ce cadre, que l'estimateur de l'effet fixe fonctionnel basé sur les techniques de seuillage par ondelettes possède de bonnes propriétés de convergence. Notre deuxième approche s'intéresse à la problématique de sélection des effets fixes et aléatoires et nous proposons une procédure basée sur les techniques de sélection de variables par maximum de vraisemblance pénalisée et utilisant deux pénalités SCAD sur les effets fixes et les variances des effets aléatoires. Nous montrons dans ce cadre que le critère considéré conduit à des estimateurs possédant des propriétés oraculaires dans un cadre où le nombre d'individus et la taille des signaux divergent. Une étude de simulation visant à appréhender les comportements des deux approches développées est réalisée dans ce contexte.
16

Study of dementia and cognitive decline accounting for selection by death / Prise en compte de la sélection par le décès dans l'étude de la démence et du déclin cognitif

Rouanet, Anais 14 December 2016 (has links)
Ce travail a pour but de développer des outils statistiques pour l'étude du déclin cognitif général ou précédant le diagnostic de démence, à partir de données de cohorte en tenant compte du risque compétitif de décès et de la censure par intervalle. Le temps de démence est censuré par intervalle dans les études de cohortes car le diagnostic de démence ne peut être établi qu'à l'occasion des visites qui peuvent être espacées de plusieurs années. Ceci induit une sous-estimation du risque de démence à cause du risque compétitif de décès : les sujets déments sont à fort risque de mourir, et peuvent donc décéder avant la visite de diagnostic. Dans la première partie, nous proposons un modèle conjoint à classes latentes pour données longitudinales corrélées à un événement censuré par intervalle, en compétition avec le décès. Appliqué à la cohorte Paquid, ce modèle permet d'identifier des profils de déclin cognitif associés à des risques différents de démence et de décès. En utilisant cette méthodologie, nous comparons ensuite des modèles pronostiques dynamiques pour la démence, traitant la censure par intervalle, basés sur des mesures répétées de marqueurs cognitifs. Dans la seconde partie, nous conduisons une étude comparative afin de clarifier l'interprétation des estimateurs du maximum de vraisemblance des modèles mixtes et conjoints et estimateurs par équations d'estimation généralisées (GEE), couramment utilisés dans le contexte de données longitudinales incomplètes et tronquées par le décès. Les estimateurs de maximum de vraisemblance ciblent le changement individuel chez les individus vivants. Les estimateurs GEE avec matrice de corrélation de travail indépendante, pondérés par l'inverse de la probabilité d'être observé sachant que le sujet est vivant, ciblent la trajectoire moyennée sur la population des survivants à chaque âge. Ces résultats justifient l'utilisation des modèles conjoints dans l'étude de la démence, qui sont des outils prometteurs pour mieux comprendre l'histoire naturelle de la maladie / The purpose of this work is to develop statistical tools to study the general or the prediagnosis cognitive decline, while accounting for the selection by death and interval censoring. In cohort studies, the time-to-dementia-onset is interval-censored as the dementia status is assessed intermittently. This issue can lead to an under-estimation of the risk of dementia, due to the competing risk of death: subjects with dementia are at high risk to die and can thus die prior to the diagnosis visit. First, we propose a joint latent class illness-death model for longitudinal data correlated to an interval-censored time-to-event, competing with the time-to-death. This model is applied on the Paquid cohort to identify profiles of pre-dementia cognitive declines associated with different risks of dementia and death. Using this methodology, we compare dynamic prognostic models for dementia based on repeated measures of cognitive markers, accounting for interval censoring. Secondly, we conduct a simulation study to clarify the interpretation of maximum likelihood estimators of joint and mixed models as well as GEE estimators, frequently used to handle incomplete longitudinal data truncated by death. Maximum likelihood estimators target the individual change among the subjects currently alive. GEE estimators with independent working correlation matrix, weighted by the inverse probability to be observed given that the subject is alive, target the population-averaged change among the dynamic population of survivors. These results justify the use of joint models in dementia studies, which are promising statistical tools to better understand the natural history of dementia
17

Estimation non-paramétrique adaptative pour des modèles bruités / Nonparametric adaptive estimation in measurement error models

Mabon, Gwennaëlle 26 May 2016 (has links)
Dans cette thèse, nous nous intéressons au problème d'estimation de densité dans le modèle de convolution. Ce cadre correspond aux modèles avec erreurs de mesures additives, c'est-à-dire que nous observons une version bruitée de la variable d'intérêt. Pour mener notre étude, nous adoptons le point de vue de l'estimation non-paramétrique adaptative qui repose sur des procédures de sélection de modèle développées par Birgé & Massart ou sur les méthodes de Lepski. Cette thèse se divise en deux parties. La première développe des méthodes spécifiques d'estimation adaptative quand les variables d'intérêt et les erreurs sont des variables aléatoires positives. Ainsi nous proposons des estimateurs adaptatifs de la densité ou encore de la fonction de survie dans ce modèle, puis de fonctionnelles linéaires de la densité cible. Enfin nous suggérons une procédure d'agrégation linéaire. La deuxième partie traite de l'estimation adaptative de densité dans le modèle de convolution lorsque la loi des erreurs est inconnue. Dans ce cadre il est supposé qu'un échantillon préliminaire du bruit est disponible ou que les observations sont disponibles sous forme de données répétées. Les résultats obtenus pour des données répétées dans le modèle de convolution permettent d'élargir cette méthodologie au cadre des modèles linéaires mixtes. Enfin cette méthode est encore appliquée à l'estimation de la densité de somme de variables aléatoires observées avec du bruit. / In this thesis, we are interested in nonparametric adaptive estimation problems of density in the convolution model. This framework matches additive measurement error models, which means we observe a noisy version of the random variable of interest. To carry out our study, we follow the paradigm of model selection developped by Birgé & Massart or criterion based on Lepski's method. The thesis is divided into two parts. In the first one, the main goal is to build adaptive estimators in the convolution model when both random variables of interest and errors are distributed on the nonnegative real line. Thus we propose adaptive estimators of the density along with the survival function, then of linear functionals of the target density. This part ends with a linear density aggregation procedure. The second part of the thesis deals with adaptive estimation of density in the convolution model when the distribution is unknown and distributed on the real line. To make this problem identifiable, we assume we have at hand either a preliminary sample of the noise or we observe repeated data. So, we can derive adaptive estimation with mild assumptions on the noise distribution. This methodology is then applied to linear mixed models and to the problem of density estimation of the sum of random variables when the latter are observed with an additive noise.

Page generated in 0.0541 seconds