Spelling suggestions: "subject:"modèle linéaire mixed""
1 |
Prédiction phénotypique et sélection de variables en grande dimension dans les modèles linéaires et linéaires mixtes / Phenotypic prediction and variable selection in high dimensional linear and linear mixed modelsRohart, Florian 07 December 2012 (has links)
Les nouvelles technologies permettent l'acquisition de données génomiques et post-génomiques de grande dimension, c'est-à-dire des données pour lesquelles il y a toujours un plus grand nombre de variables mesurées que d'individus sur lesquels on les mesure. Ces données nécessitent généralement des hypothèses supplémentaires afin de pouvoir être analysées, comme une hypothèse de parcimonie pour laquelle peu de variables sont supposées influentes. C'est dans ce contexte de grande dimension que nous avons travaillé sur des données réelles issues de l’espèce porcine et de la technologie haut-débit, plus particulièrement le métabolome obtenu à partir de la spectrométrie RMN et des phénotypes mesurés post-mortem pour la plupart. L'objectif est double : d'une part la prédiction de phénotypes d’intérêt pour la production porcine et d'autre part l'explicitation de relations biologiques entre ces phénotypes et le métabolome. On montre, grâce à une analyse dans le modèle linéaire effectuée avec la méthode Lasso, que le métabolome a un pouvoir prédictif non négligeable pour certains phénotypes importants pour la production porcine comme le taux de muscle et la consommation moyenne journalière. Le deuxième objectif est traité grâce au domaine statistique de la sélection de variables. Les méthodes classiques telles que la méthode Lasso et la procédure FDR sont investiguées et de nouvelles méthodes plus performantes sont développées : nous proposons une méthode de sélection de variables en modèle linéaire basée sur des tests d'hypothèses multiples. Cette méthode possède des résultats non asymptotiques de puissance sous certaines conditions sur le signal. De part les données annexes disponibles sur les animaux telles que les lots dans lesquels ils ont évolués ou les relations de parentés qu'ils possèdent, les modèles mixtes sont considérés. Un nouvel algorithme de sélection d'effets fixes est développé et il s'avère beaucoup plus rapide que les algorithmes existants qui ont le même objectif. Grâce à sa décomposition en étapes distinctes, l’algorithme peut être combiné à toutes les méthodes de sélection de variables développées pour le modèle linéaire classique. Toutefois, les résultats de convergence dépendent de la méthode utilisée. On montre que la combinaison de cet algorithme avec la méthode de tests multiples donne de très bons résultats empiriques. Toutes ces méthodes sont appliquées au jeu de données réelles et des relations biologiques sont mises en évidence / Recent technologies have provided scientists with genomics and post-genomics high-dimensional data; there are always more variables that are measured than the number of individuals. These high dimensional datasets usually need additional assumptions in order to be analyzed, such as a sparsity condition which means that only a small subset of the variables are supposed to be relevant. In this high-dimensional context we worked on a real dataset which comes from the pig species and high-throughput biotechnologies. Metabolomic data has been measured with NMR spectroscopy and phenotypic data has been mainly obtained post-mortem. There are two objectives. On one hand, we aim at obtaining good prediction for the production phenotypes and on the other hand we want to pinpoint metabolomic data that explain the phenotype under study. Thanks to the Lasso method applied in a linear model, we show that metabolomic data has a real prediction power for some important phenotypes for livestock production, such as a lean meat percentage and the daily food consumption. The second objective is a problem of variable selection. Classic statistical tools such as the Lasso method or the FDR procedure are investigated and new powerful methods are developed. We propose a variable selection method based on multiple hypotheses testing. This procedure is designed to perform in linear models and non asymptotic results are given under a condition on the signal. Since supplemental data are available on the real dataset such as the batch or the family relationships between the animals, linear mixed models are considered. A new algorithm for fixed effects selection is developed, and this algorithm turned out to be faster than the usual ones. Thanks to its structure, it can be combined with any variable selection methods built for linear models. However, the convergence property of this algorithm depends on the method that is used. The multiple hypotheses testing procedure shows good empirical results. All the mentioned methods are applied to the real data and biological relationships are emphasized
|
2 |
Combinaisons markoviennes et semi-markoviennes de modèles de régression. Application à la croissance d'arbres forestiers.Chaubert-Pereira, Florence 05 November 2008 (has links) (PDF)
Ce travail est consacré à l'étude des combinaisons markoviennes et semi-markoviennes de modèles de régression, i.e. des mélanges finis de modèles de régression avec dépendances (semi-)markoviennes. Cette famille de modèles statistiques permet l'analyse de données structurées en phases successives synchrones entre individus, influencées par des covariables pouvant varier dans le temps et présentant une hétérogénéité inter-individuelle. L'algorithme d'inférence proposé pour les combinaisons (semi-)markoviennes de modèles linéaires généralisés est un algorithme du gradient EM. Pour les combinaisons (semi-)markoviennes de modèles linéaires mixtes, nous proposons des algorithmes de type MCEM où l'étape E se décompose en deux étapes de restauration conditionnelle: une pour les séquences d'états sachant les effets aléatoires (et les données observées) et une pour les effets aléatoires sachant les séquences d'états (et les données observées). Différentes méthodes de restauration conditionnelle sont présentées. Nous étudions deux types d'effets aléatoires: des effets aléatoires individuels et des effets aléatoires temporels. L'intérêt de cette famille de modèles est illustré par l'analyse de la croissance d'arbres forestiers en fonctions de facteurs climatiques. Ces modèles nous permettent d'identifier et de caractériser les trois principales composantes de la croissance (la composante ontogénique, la composante environnementale et la composante individuelle). Nous montrons que le poids de chaque composante varie en fonction de l'espèce et des interventions sylvicoles.
|
3 |
Hétérogénéité de la croissance de Betula Glandulosa en milieu subartique à l'échelle du paysageTrudel, Marilie January 2020 (has links) (PDF)
No description available.
|
4 |
Modèles statistiques pour l'étude de la progression de la maladie rénale chronique / Statistical models to study progression of chronic kidney diseaseBoucquemont, Julie 15 December 2014 (has links)
Cette thèse avait pour but d'illustrer l'intérêt de méthodes statistiques avancées lorsqu'on s'in téresse aux associations entre différents facteurs et la progression de la maladie rénale chronique (MRC). Dans un premier temps, une revue de la littérature a été effectuée alin d'identifier les méthodes classiquement utilisées pour étudier les facteurs de progression de la MRC ; leurs limites et des méthodes permettant de mieux prendre en compte ces limites ont été discutées. Notre second travail s'est concentré sur les analyses de données de survie et la prise en compte de la censure par intervalle, qui survient lorsque l'évènement d'intérêt est la progression vers un stade spécifique de la MRC, et le risque compétitif avec le décès. Une comparaison entre des modèles de survie standards et le modêle illness-death pour données censurées par intervalle nous a permis d'illustrer l'impact de la modélisation choisie sur les estimations à la fois des effets des facteurs de risque et des probabilités d'évènements, à partir des données de la cohorte NephroTest. Les autres travaux ont porté sur les analyses de données longitudinales de la fonction rénale. Nous avons illustré l'intérêt du modèle linéaire mixte dans ce contexte et présenté son extension pour la prise en compte de sous-populations de trajectoires de la fonction rénale différentes. Nous avons ainsi identifier cinq classes, dont une avec un déclin très rapide et une autre avec une amélioration de la fonction rénale au cours du temps. Des perspectives de travaux liés à la prédiction permettent enfin de lier les deux types d'analyses présentées dans la thèse. / The objective of this thesis was to illustrate the benefit of using advanced statistical methods to study associations between risk factors and chrouic kidney disease (CKD) progression. In a first time, we conducted a literature review of statistical methods used to investigate risk factors of CKD progression, identified important methodological issues, and discussed solutions. In our sec ond work, we focused on survival analyses and issues with interval-censoring, which occurs when the event of interest is the progression to a specifie CKD stage, and competing risk with death. A comparison between standard survival models and the illness-death mode! for interval-censored data allowed us to illustrate the impact of modeling on the estimates of both the effects of risk factors and the probabilities of events, using data from the NephroTest cohort. Other works fo cused on analysis of longitudinal data on renal function. We illustrated the interest of linear mixed mode! in this context and presented its extension to account for sub-populations with different trajectories of renal function. We identified five classes, including one with a strong decline and one with an improvement of renal function over time. Severa! perspectives on predictions bind the two types of analyses presented in this thesis.
|
5 |
Inférence robuste à la présence des valeurs aberrantes dans les enquêtesDongmo Jiongo, Valéry 12 1900 (has links)
Cette thèse comporte trois articles dont un est publié et deux en préparation. Le sujet central de la thèse porte sur le traitement des valeurs aberrantes représentatives dans deux aspects importants des enquêtes que sont : l’estimation des petits domaines et l’imputation en présence de non-réponse partielle.
En ce qui concerne les petits domaines, les estimateurs robustes dans le cadre des modèles au niveau des unités ont été étudiés. Sinha & Rao (2009) proposent une version robuste du meilleur prédicteur linéaire sans biais empirique pour la moyenne des petits domaines. Leur estimateur robuste est de type «plugin», et à la lumière des travaux de Chambers (1986), cet estimateur peut être biaisé dans certaines situations. Chambers et al. (2014) proposent un estimateur corrigé du biais. En outre, un estimateur de l’erreur quadratique moyenne a été associé à ces estimateurs ponctuels. Sinha & Rao (2009) proposent une procédure bootstrap paramétrique pour estimer l’erreur quadratique moyenne. Des méthodes analytiques sont proposées dans Chambers et al. (2014). Cependant, leur validité théorique n’a pas été établie et leurs performances empiriques ne sont pas pleinement satisfaisantes.
Ici, nous examinons deux nouvelles approches pour obtenir une version robuste du meilleur prédicteur linéaire sans biais empirique : la première est fondée sur les travaux de Chambers (1986), et la deuxième est basée sur le concept de biais conditionnel comme mesure de l’influence d’une unité de la population. Ces deux classes d’estimateurs robustes des petits domaines incluent également un terme de correction pour le biais. Cependant, ils utilisent tous les deux l’information disponible dans tous les domaines contrairement à celui de Chambers et al. (2014) qui utilise uniquement l’information disponible dans le domaine d’intérêt. Dans certaines situations, un biais non négligeable est possible pour l’estimateur de Sinha & Rao (2009), alors que les estimateurs proposés exhibent un faible biais pour un choix approprié de la fonction d’influence et de la constante de robustesse. Les simulations Monte Carlo sont effectuées, et les comparaisons sont faites entre les estimateurs proposés et ceux de Sinha & Rao (2009) et de Chambers et al. (2014). Les résultats montrent que les estimateurs de Sinha & Rao (2009) et de Chambers et al. (2014) peuvent avoir un biais important, alors que les estimateurs proposés ont une meilleure performance en termes de biais et d’erreur quadratique moyenne.
En outre, nous proposons une nouvelle procédure bootstrap pour l’estimation de l’erreur quadratique moyenne des estimateurs robustes des petits domaines. Contrairement aux procédures existantes, nous montrons formellement la validité asymptotique de la méthode bootstrap proposée. Par ailleurs, la méthode proposée est semi-paramétrique, c’est-à-dire, elle n’est pas assujettie à une hypothèse sur les distributions des erreurs ou des effets aléatoires. Ainsi, elle est particulièrement attrayante et plus largement applicable. Nous examinons les performances de notre procédure bootstrap avec les simulations Monte Carlo. Les résultats montrent que notre procédure performe bien et surtout performe mieux que tous les compétiteurs étudiés. Une application de la méthode proposée est illustrée en analysant les données réelles contenant des valeurs aberrantes de Battese, Harter & Fuller (1988).
S’agissant de l’imputation en présence de non-réponse partielle, certaines formes d’imputation simple ont été étudiées. L’imputation par la régression déterministe entre les classes, qui inclut l’imputation par le ratio et l’imputation par la moyenne sont souvent utilisées dans les enquêtes. Ces méthodes d’imputation peuvent conduire à des estimateurs imputés biaisés si le modèle d’imputation ou le modèle de non-réponse n’est pas correctement spécifié. Des estimateurs doublement robustes ont été développés dans les années récentes. Ces estimateurs sont sans biais si l’un au moins des modèles d’imputation ou de non-réponse est bien spécifié. Cependant, en présence des valeurs aberrantes, les estimateurs imputés doublement robustes peuvent être très instables. En utilisant le concept de biais conditionnel, nous proposons une version robuste aux valeurs aberrantes de l’estimateur doublement robuste. Les résultats des études par simulations montrent que l’estimateur proposé performe bien pour un choix approprié de la constante de robustesse. / This thesis focuses on the treatment of representative outliers in two important aspects of surveys: small area estimation and imputation for item non-response.
Concerning small area estimation, robust estimators in unit-level models have been studied. Sinha & Rao (2009) proposed estimation procedures designed for small area means, based on robustified maximum likelihood parameters estimates of linear mixed model and robust empirical best linear unbiased predictors of the random effect of the underlying model. Their robust methods for estimating area means are of the plug-in type, and in view of the results of Chambers (1986), the resulting robust estimators may be biased in some situations. Biascorrected estimators have been proposed by Chambers et al. (2014). In addition, these robust small area estimators were associated with the estimation of the Mean Square Error (MSE). Sinha & Rao (2009) proposed a parametric bootstrap procedure based on the robust estimates of the parameters of the underlying linear mixed model to estimate the MSE. Analytical procedures for the estimation of the MSE have been proposed in Chambers et al. (2014). However, their theoretical validity has not been formally established and their empirical performances are not fully satisfactorily.
Here, we investigate two new approaches for the robust version the best empirical unbiased estimator: the first one relies on the work of Chambers (1986), while the second proposal uses the concept of conditional bias as an influence measure to assess the impact of units in the population. These two classes of robust small area estimators also include a correction term for the bias. However, they are both fully bias-corrected, in the sense that the correction term takes into account the potential impact of the other domains on the small area of interest unlike the one of Chambers et al. (2014) which focuses only on the domain of interest. Under certain conditions, non-negligible bias is expected for the Sinha-Rao method, while the proposed methods exhibit significant bias reduction, controlled by appropriate choices of the influence function and tuning constants. Monte Carlo simulations are conducted, and comparisons are made between: the new robust estimators, the Sinha-Rao estimator, and the bias-corrected estimator. Empirical results suggest that the Sinha-Rao method and the bias-adjusted estimator of Chambers et al (2014) may exhibit a large bias, while the new procedures offer often better performances in terms of bias and mean squared error.
In addition, we propose a new bootstrap procedure for MSE estimation of robust small area predictors. Unlike existing approaches, we formally prove the asymptotic validity of the proposed bootstrap method. Moreover, the proposed method is semi-parametric, i.e., it does not rely on specific distributional assumptions about the errors and random effects of the unit-level model underlying the small-area estimation, thus it is particularly attractive and more widely applicable. We assess the finite sample performance of our bootstrap estimator through Monte Carlo simulations. The results show that our procedure performs satisfactorily well and outperforms existing ones. Application of the proposed method is illustrated by analyzing a well-known outlier-contaminated small county crops area data from North-Central Iowa farms and Landsat satellite images.
Concerning imputation in the presence of item non-response, some single imputation methods have been studied. The deterministic regression imputation, which includes the ratio imputation and mean imputation are often used in surveys. These imputation methods may lead to biased imputed estimators if the imputation model or the non-response model is not properly specified. Recently, doubly robust imputed estimators have been developed. However, in the presence of outliers, the doubly robust imputed estimators can be very unstable. Using the concept of conditional bias as a measure of influence (Beaumont, Haziza and Ruiz-Gazen, 2013), we propose an outlier robust version of the doubly robust imputed estimator. Thus this estimator is denoted as a triple robust imputed estimator. The results of simulation studies show that the proposed estimator performs satisfactorily well for an appropriate choice of the tuning constant.
|
6 |
Modèles de covariance pour l'analyse et la classification de signaux électroencéphalogrammes / Covariance models for electroencephalogramm signals analysis and classificationSpinnato, Juliette 06 July 2015 (has links)
Cette thèse s’inscrit dans le contexte de l’analyse et de la classification de signaux électroencéphalogrammes (EEG) par des méthodes d’analyse discriminante. Ces signaux multi-capteurs qui sont, par nature, très fortement corrélés spatialement et temporellement sont considérés dans le plan temps-fréquence. En particulier, nous nous intéressons à des signaux de type potentiels évoqués qui sont bien représentés dans l’espace des ondelettes. Par la suite, nous considérons donc les signaux représentés par des coefficients multi-échelles et qui ont une structure matricielle électrodes × coefficients. Les signaux EEG sont considérés comme un mélange entre l’activité d’intérêt que l’on souhaite extraire et l’activité spontanée (ou "bruit de fond"), qui est largement prépondérante. La problématique principale est ici de distinguer des signaux issus de différentes conditions expérimentales (classes). Dans le cas binaire, nous nous focalisons sur l’approche probabiliste de l’analyse discriminante et des modèles de mélange gaussien sont considérés, décrivant dans chaque classe les signaux en termes de composantes fixes (moyenne) et aléatoires. Cette dernière, caractérisée par sa matrice de covariance, permet de modéliser différentes sources de variabilité. Essentielle à la mise en oeuvre de l’analyse discriminante, l’estimation de cette matrice (et de son inverse) peut être dégradée dans le cas de grandes dimensions et/ou de faibles échantillons d’apprentissage, cadre applicatif de cette thèse. Nous nous intéressons aux alternatives qui se basent sur la définition de modèle(s) de covariance(s) particulier(s) et qui permettent de réduire le nombre de paramètres à estimer. / The present thesis finds itself within the framework of analyzing and classifying electroencephalogram signals (EEG) using discriminant analysis. Those multi-sensor signals which are, by nature, highly correlated spatially and temporally are considered, in this work, in the timefrequency domain. In particular, we focus on low-frequency evoked-related potential-type signals (ERPs) that are well described in the wavelet domain. Thereafter, we will consider signals represented by multi-scale coefficients and that have a matrix structure electrodes × coefficients. Moreover, EEG signals are seen as a mixture between the signal of interest that we want to extract and spontaneous activity (also called "background noise") which is overriding. The main problematic is here to distinguish signals from different experimental conditions (class). In the binary case, we focus on the probabilistic approach of the discriminant analysis and Gaussian mixtures are used, describing in each class the signals in terms of fixed (mean) and random components. The latter, characterized by its covariance matrix, allow to model different variability sources. The estimation of this matrix (and of its inverse) is essential for the implementation of the discriminant analysis and can be deteriorated by high-dimensional data and/or by small learning samples, which is the application framework of this thesis. We are interested in alternatives that are based on specific covariance model(s) and that allow to decrease the number of parameters to estimate.
|
7 |
Bioresorbable coronary stents : non-invasive quantitative assessment of edge and intrastent plaque – a 256-slice computed tomography longitudinal studyZdanovich, Evguenia 10 1900 (has links)
Les bioresorbable stents (BRS), en français intitulés tuteurs coronariens biorésorbables, sont constitués d’un polymère biorésorbable, plutôt que de métal, et ne créent pas d’artéfacts métalliques significatifs en tomodensitométrie (TDM). Cela permet une meilleure évaluation de la plaque coronarienne sous ces tuteurs en TDM qu’avec les anciens tuteurs qui sont en métal.
OBJECTIF: Évaluer l’évolution de la composition de la plaque, sa fraction lipidique (FL)— marqueur de vulnérabilité de la plaque, dans les 3 zones pré-tuteur (bord proximal), intra-tuteur et post-tuteur (bord distal), et le volume de la plaque entre 1 et 12 mois post-implantation de BRS.
MÉTHODOLOGIE: Il s’agit d’une étude observationnelle longitudinale réalisée chez 27 patients consécutifs (âge moyen 59,7 +/- 8,6 ans) et recrutés prospectivement pour une imagerie par TDM 256-coupes à 1 et 12 mois post-implantation de BRS (35 tuteurs total). Les objectifs primaires sont: volume de plaque totale et de FL (mm3) comparés entre 1 et 12 mois. Afin de tenir compte de la corrélation intra-patient, des analyses de variance des modèles linéaires mixtes avec ou sans spline sont utilisés avec deux facteurs répétés temps et zone/bloc (1 bloc= 5 mm en axe longitudinal). La valeur % FL= volume absolu du FL/ volume total de la plaque.
RÉSULTATS: Notre analyse par bloc ou par spline n’a pas démontré une différence significative dans les volumes de plaque ou des FL dans les zones pre- intra- and post-tuteur entre 1 et 12 mois.
CONCLUSION: Notre étude a réussi à démontrer la faisabilité d’une analyse non-invasive quantitative répétée de la plaque coronarienne et de la lumière intra-tuteur avec l’utilisation de TDM 256 coupes. Cette étude pilote n’a pas démontré de différence significative dans les volumes des plaques et atténuation entre 1- et 12- mois de follow-up post-implantation de BRS. Notre méthode pourrait être appliquée à l’évaluation des différents structures ou profils pharmacologiques de ces tuteurs. / Coronary bioresorbable stents (BRS) are made of a bioresorbable polymer rather than metal. Unlike metallic stents, BRS do not produce significant artifacts in computed tomography (CT) and are radiolucent in CT, making it possible to evaluate coronary plaque beneath an implanted stent.
PURPOSE: The purpose of our study was to evaluate the volumes of plaque and low attenuation plaque components (LAP —a marker of plaque vulnerability) of pre-, intra- and post-stent plaque location between 1 and 12 months post-implantation.
METHODS: In our prospective longitudinal study, we recruited 27 consecutive patients (mean age 59.7 +/- 8.6 years) with bioresorbable stents (n=35) for a 256-slice ECG-synchronized CT evaluation at 1 month and at 12 months post stent implantation. Total plaque volume (mm3) as well as absolute and relative (%) LAP volume per block in the pre-, intra- and post-stent zones were analyzed; comparison of 1 and 12 months post BRS implantation. Changes in these variables were assessed using mixed effects models with and without spline, which also accounted for correlation between repeated measurements with factors such as time and zone/block (1 block = 5 mm in longitudinal axis). The value % LAP= LAP absolute volume/ total plaque volume.
RESULTS: Our block or spline model analysis showed no significant difference in plaque or LAP volumes in pre-, intra- and post-stent zones measured at 1 month and at 12 months.
CONCLUSION: Our study demonstrates the feasibility of repeated non-invasive quantitative analysis of intrastent coronary plaque and in-stent lumen using a 256-channel CT scan. This pilot study did not show significant differences in plaque volume and attenuation between 1- and 12-month follow-up from stent implantation. The method we used could be applied to the evaluation of different stent structures or different pharmacological profiles of bioresorbable stents.
|
8 |
Towards understanding the functionality of foot orthosis based on foot structure and functionHajizadeh, Maryam 08 1900 (has links)
The raw data related to the second study of this thesis (Chapter 3) is available online in the section of supporting information at https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0232677. These files present the following data:
S1 File. The pattern of foot orthosis depression/reformation for healthy subjects during walking with sport versus regular foot orthosis.
S2 File. Raw data for the training session of sport foot orthosis. This Excel file consists three sheets in which the position of triad markers, the orientation of triad markers and the position of markers on plantar surface of foot orthosis are provided respectively.
S3 File. Raw data for walking with sport foot orthosis. This Excel file consists two sheets in which the position of triad markers and the orientation of triad markers are provided respectively for subject 1.
S4 File. The results of each participant during walking with sport foot orthosis. This .mat file includes “DispEachPoint” and “DispEachPointMean” which shows the displacement of each predicted marker on foot orthosis plantar surface during stance phase of walking relative to its corresponding position in static non weight-bearing for each trial and the average of trials respectively. In addition, “loc_stance” and “loc_meanstance” show the location of each predicted marker during stance phase of walking. “peaks” and “peaksMean” represent the minimum (depression) and maximum (reformation) value of displacement during walking
S5 File. The results of each participant during walking with regular foot orthosis. This .mat file includes “DispEachPoint” and “DispEachPointMean” which shows the displacement of each predicted marker on foot orthosis plantar surface during stance phase of walking relative to its corresponding position in static non weight-bearing for each trial and the average of trials respectively. In addition, “loc_stance” and “loc_meanstance” show the location of each predicted marker during stance phase of walking. “peaks” and “peaksMean” represent the minimum (depression) and maximum (reformation) value of displacement during walking / Les orthèses plantaires (OP) sont des dispositifs médicaux fréquemment utilisés pour réduire les douleurs et blessures de surutilisation, notamment chez les personnes ayant les pieds plats. Le port d'OP permettrait de corriger les altérations biomécaniques attribuées à la déformation du pied plat, que sont la perte de l’arche longitudinale médiale et la pronation excessive du pied. Cependant, le manque de compréhension de la fonction des OP entraine une grande variabilité des OP prescrites en milieu clinique. L'objectif de cette thèse est d'approfondir les connaissances sur l’effet des OP sur la biomécanique, de quantifier les déformations des OP à la marche et de mettre en relation ces déformations avec la biomécanique du pied.
La première étude a évalué la manière dont les différentes conceptions d'OP imposent des modifications dans le mouvement et le chargement appliqué sur le pied. Cet objectif a été atteint grâce à une revue systématique traitant des effets des OP sur la cinématique et la cinétique du membre inférieur pendant la marche chez des personnes ayant des pieds normaux. Les critères d'inclusion ont réduit les études à celles qui ont fait état des résultats pour les géométries les plus fréquentes des OP, à savoir les biseaux, les supports d’arche et les stabilisateurs de talon. La revue a mis en évidence que les orthèses avec un biseau médial peuvent réduire le moment d'éversion de la cheville. Aucune évidence significative n'a été trouvée dans notre méta-analyse sur l'efficacité des orthèses incluant des supports d’arche ou des stabilisateurs de talon. Les différents procédés et matériaux utilisés dans la conception des OP ainsi que les caractéristiques des pieds des participants pourraient expliquer la variabilité retrouvée au regard des effets des OP sur la biomécanique.
La deuxième étude a apporté des informations précieuses et inédites sur le comportement dynamique des OP à la marche. La cinématique du contour des OP a été utilisée pour prédire la déformation de leur surface plantaire pendant la marche chez 13 individus ayant des pieds normaux en utilisant un réseau de neurones artificiels. Une erreur moyenne inférieure à 0,6 mm a été obtenue pour nos prédictions. En plus de la précision des prédictions, le modèle a été capable de différencier le patron de déformations pour deux OP de rigidités différentes et entre les participants inclus dans l’étude.
Enfin, dans une troisième étude, nous avons identifié la relation entre la déformation des OP personnalisées et la biomécanique du pied à la marche chez 17 personnes avec des pieds plats. L'utilisation de modèles linéaires mixtes a permis d’exprimer les variations de la déformation des OP dans différentes régions en fonction des variables cinématiques du pied et de pressions plantaires. Cette étude a montré que l'interaction pied-OP varie selon les différentes régions de l’OP et les différentes phases du cycle de marche. Ainsi, des lignes directrices préliminaires ont été fournies afin de standardiser et optimiser la conception des OP.
Dans l'ensemble, les résultats de cette thèse justifient l'importance d’'intégrer des caractéristiques dynamiques du pied de chaque individu dans la conception d'OP personnalisées. Des études futures pourraient étendre les modèles de prédiction de l'interaction pied-OP en incluant d'autres paramètres biomécaniques tels que les moments articulaires, les activations musculaires et la morphologie du pied. De tels modèles pourraient être utilisés pour développer des fonctions coût pour l'optimisation de la conception des OP par une approche itérative utilisant la simulation par les éléments finis. / Foot orthoses (FOs) are frequently used medical devices to manage overuse injuries and pain in flatfoot individuals. Wearing FOs can result in improving the biomechanical alterations attributed to flatfoot deformity such as the loss of medial longitudinal arch and excessive foot pronation. However, a lack of a clear understanding of the function of FOs contributes to the highly variable FOs prescribed in clinical practice. The objective of this thesis was to deepen the knowledge about the biomechanical outcomes of FOs and to formulate the dynamic behaviour of FOs as a function of foot biomechanics during gait.
The primary study investigated how different designs of FOs impose alterations in foot motion and loading. This objective was achieved through a systematic review of all literature reporting the kinematics and kinetics of the lower body during walking with FOs in healthy individuals. The inclusion criteria narrowed the studies to the ones which reported the outcomes for common designs of FOs, namely posting, arch support, and heel support. The review identified some evidence that FOs with medial posting can decrease ankle eversion moment. No significant evidence was found in our meta-analysis for the efficiency of arch supported and heel supported FOs. The findings of this study revealed that differences in FO design and material as well as foot characteristics of participants could explain the variations in biomechanical outcomes of FOs.
The second study provided valuable information on the dynamic behaviour of customized FOs. The kinematics of FO contour was used to predict the deformation of FO plantar surface in 13 healthy individuals during walking using an artificial intelligence approach. An average error below 0.6 mm was achieved for our predictions. In addition to the prediction accuracy, the model was capable to differentiate between different rigidities of FOs and between included participants in terms of range and pattern of deformation.
Finally, the third study identified the relationship between the deformation of customized FOs and foot biomechanics in 17 flatfoot individuals during walking. The use of linear mixed models made it possible to identify the variables of foot kinematics and region-dependent plantar pressure that could explain the variations in FO deformation. This study showed that the foot-FO interaction changes over different regions of FO and different phases of gait cycle. In addition, some preliminary guidelines were provided to standardize and optimize the design of FOs.
Overall, the results of this thesis justify the importance of incorporating the dynamic characteristics of each individual’s foot into the design of customized FOs. Future studies can extend the predictive models for foot-FO interactions by including other determinants of foot biomechanics such as joint moments, muscle activation, and foot morphology. Based on such extended models, the cost functions could be devised for optimizing the designs of customized 3D printed FOs through an iterative approach using finite element modeling.
|
9 |
Regression modeling with missing outcomes : competing risks and longitudinal data / Contributions aux modèles de régression avec réponses manquantes : risques concurrents et données longitudinalesMoreno Betancur, Margarita 05 December 2013 (has links)
Les données manquantes sont fréquentes dans les études médicales. Dans les modèles de régression, les réponses manquantes limitent notre capacité à faire des inférences sur les effets des covariables décrivant la distribution de la totalité des réponses prévues sur laquelle porte l'intérêt médical. Outre la perte de précision, toute inférence statistique requière qu'une hypothèse sur le mécanisme de manquement soit vérifiée. Rubin (1976, Biometrika, 63:581-592) a appelé le mécanisme de manquement MAR (pour les sigles en anglais de « manquant au hasard ») si la probabilité qu'une réponse soit manquante ne dépend pas des réponses manquantes conditionnellement aux données observées, et MNAR (pour les sigles en anglais de « manquant non au hasard ») autrement. Cette distinction a des implications importantes pour la modélisation, mais en général il n'est pas possible de déterminer si le mécanisme de manquement est MAR ou MNAR à partir des données disponibles. Par conséquent, il est indispensable d'effectuer des analyses de sensibilité pour évaluer la robustesse des inférences aux hypothèses de manquement.Pour les données multivariées incomplètes, c'est-à-dire, lorsque l'intérêt porte sur un vecteur de réponses dont certaines composantes peuvent être manquantes, plusieurs méthodes de modélisation sous l'hypothèse MAR et, dans une moindre mesure, sous l'hypothèse MNAR ont été proposées. En revanche, le développement de méthodes pour effectuer des analyses de sensibilité est un domaine actif de recherche. Le premier objectif de cette thèse était de développer une méthode d'analyse de sensibilité pour les données longitudinales continues avec des sorties d'étude, c'est-à-dire, pour les réponses continues, ordonnées dans le temps, qui sont complètement observées pour chaque individu jusqu'à la fin de l'étude ou jusqu'à ce qu'il sorte définitivement de l'étude. Dans l'approche proposée, on évalue les inférences obtenues à partir d'une famille de modèles MNAR dits « de mélange de profils », indexés par un paramètre qui quantifie le départ par rapport à l'hypothèse MAR. La méthode a été motivée par un essai clinique étudiant un traitement pour le trouble du maintien du sommeil, durant lequel 22% des individus sont sortis de l'étude avant la fin.Le second objectif était de développer des méthodes pour la modélisation de risques concurrents avec des causes d'évènement manquantes en s'appuyant sur la théorie existante pour les données multivariées incomplètes. Les risques concurrents apparaissent comme une extension du modèle standard de l'analyse de survie où l'on distingue le type d'évènement ou la cause l'ayant entrainé. Les méthodes pour modéliser le risque cause-spécifique et la fonction d'incidence cumulée supposent en général que la cause d'évènement est connue pour tous les individus, ce qui n'est pas toujours le cas. Certains auteurs ont proposé des méthodes de régression gérant les causes manquantes sous l'hypothèse MAR, notamment pour la modélisation semi-paramétrique du risque. Mais d'autres modèles n'ont pas été considérés, de même que la modélisation sous MNAR et les analyses de sensibilité. Nous proposons des estimateurs pondérés et une approche par imputation multiple pour la modélisation semi-paramétrique de l'incidence cumulée sous l'hypothèse MAR. En outre, nous étudions une approche par maximum de vraisemblance pour la modélisation paramétrique du risque et de l'incidence sous MAR. Enfin, nous considérons des modèles de mélange de profils dans le contexte des analyses de sensibilité. Un essai clinique étudiant un traitement pour le cancer du sein de stade II avec 23% des causes de décès manquantes sert à illustrer les méthodes proposées. / Missing data are a common occurrence in medical studies. In regression modeling, missing outcomes limit our capability to draw inferences about the covariate effects of medical interest, which are those describing the distribution of the entire set of planned outcomes. In addition to losing precision, the validity of any method used to draw inferences from the observed data will require that some assumption about the mechanism leading to missing outcomes holds. Rubin (1976, Biometrika, 63:581-592) called the missingness mechanism MAR (for “missing at random”) if the probability of an outcome being missing does not depend on missing outcomes when conditioning on the observed data, and MNAR (for “missing not at random”) otherwise. This distinction has important implications regarding the modeling requirements to draw valid inferences from the available data, but generally it is not possible to assess from these data whether the missingness mechanism is MAR or MNAR. Hence, sensitivity analyses should be routinely performed to assess the robustness of inferences to assumptions about the missingness mechanism. In the field of incomplete multivariate data, in which the outcomes are gathered in a vector for which some components may be missing, MAR methods are widely available and increasingly used, and several MNAR modeling strategies have also been proposed. On the other hand, although some sensitivity analysis methodology has been developed, this is still an active area of research. The first aim of this dissertation was to develop a sensitivity analysis approach for continuous longitudinal data with drop-outs, that is, continuous outcomes that are ordered in time and completely observed for each individual up to a certain time-point, at which the individual drops-out so that all the subsequent outcomes are missing. The proposed approach consists in assessing the inferences obtained across a family of MNAR pattern-mixture models indexed by a so-called sensitivity parameter that quantifies the departure from MAR. The approach was prompted by a randomized clinical trial investigating the benefits of a treatment for sleep-maintenance insomnia, from which 22% of the individuals had dropped-out before the study end. The second aim was to build on the existing theory for incomplete multivariate data to develop methods for competing risks data with missing causes of failure. The competing risks model is an extension of the standard survival analysis model in which failures from different causes are distinguished. Strategies for modeling competing risks functionals, such as the cause-specific hazards (CSH) and the cumulative incidence function (CIF), generally assume that the cause of failure is known for all patients, but this is not always the case. Some methods for regression with missing causes under the MAR assumption have already been proposed, especially for semi-parametric modeling of the CSH. But other useful models have received little attention, and MNAR modeling and sensitivity analysis approaches have never been considered in this setting. We propose a general framework for semi-parametric regression modeling of the CIF under MAR using inverse probability weighting and multiple imputation ideas. Also under MAR, we propose a direct likelihood approach for parametric regression modeling of the CSH and the CIF. Furthermore, we consider MNAR pattern-mixture models in the context of sensitivity analyses. In the competing risks literature, a starting point for methodological developments for handling missing causes was a stage II breast cancer randomized clinical trial in which 23% of the deceased women had missing cause of death. We use these data to illustrate the practical value of the proposed approaches.
|
Page generated in 0.0584 seconds