• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 12
  • 1
  • Tagged with
  • 56
  • 56
  • 33
  • 33
  • 16
  • 15
  • 15
  • 12
  • 12
  • 10
  • 10
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Impact de la chasse sur la dynamique d'une population migratrice : le cas de la Grande Oie des neiges

Juillet, Cédric 17 April 2018 (has links)
En gestion des populations animales, le contrôle d’une population peut être atteint par la modification d’un ou plusieurs paramètres démographiques (survie, reproduction ou mouvements). La population de Grandes oies des neiges (Chen caerulescens atlantica), une espèce qui niche en Arctique, est aujourd’hui considérée surabondante suite à la croissance exponentielle de sa population à la fin du 20ème siècle. En 1999, des mesures spéciales de conservation visant à stabiliser la population via une augmentation du taux de récolte à la chasse ont été instaurées, la plus spectaculaire étant une saison de chasse durant la migration printanière au Québec. Cette thèse a pour objectif d’évaluer les effets de ces mesures sur les processus démographiques sous-jacents suivants : la survie, la reproduction et le recrutement des jeunes en tant que reproducteurs. Nous présentons d’abord un nouveau modèle statistique de survie qui permet de produire des estimés de survie non biaisés en présence d’incertitude sur la perte des marques auxiliaires utilisées pour la détection des individus. Ce modèle utilise toutes les informations provenant des recaptures vivantes, des observations et des reprises à la chasse d’individus marqués de 1993 à 2005. En contrastant deux périodes, avant et à partir de 1999, nous avons montré que la diminution de survie a été la plus marquée chez les adultes durant les migrations automnale et printanière au Québec relativement à la baisse observée l’hiver aux États-Unis. Basé sur des données de la principale colonie, Île Bylot, Nunavut (1995-2007), nous n’avons pas trouvé d’évidence d’un effet reporté de la pression de chasse au Québec durant le printemps sur différents paramètres de reproduction l’été suivant (densité de nid, date et taille de ponte), une fois pris en compte l’effet des conditions climatiques rencontrées durant la migration et à l’arrivée sur le site de nidification. Cependant, le taux de récolte des adultes au printemps après 1998 est apparu comme un facteur important affectant à la baisse le recrutement des jeunes dans la population au cours de la période 1992-2005. En lien avec la stratégie mixte de reproduction des oies qui utilisent à la fois des réserves exogènes et endogènes pour la reproduction, le mécanisme sous-jacent suggéré est un effet reporté du dérangement par la chasse sur l’alimentation au printemps via une diminution des réserves endogènes. Nous démontrons ainsi de façon empirique que si la chasse diminue la survie, elle peut aussi diminuer l’accès à la reproduction. Nous suggérons que la diminution de la productivité de la population qui avait déjà été documentée se ferait principalement via la décision de se reproduire ou non (recrutement et propension à se reproduire) plutôt que par une baisse du succès reproducteur (indépendamment de la décision de se reproduire). Cette population semble aujourd’hui stabilisée, mettant en évidence que ces mesures de conservation ont vraisemblablement porté leurs fruits.
22

Apprentissage statistique sur données longitudinales de grande taille et applications au design des jeux vidéo / Statistical learning for large longitudinal data and applications to video game design

Allart, Thibault 28 November 2017 (has links)
Cette thèse s'intéresse à l'analyse des données longitudinales, potentiellement grandes selon les trois axes suivants : nombre d'individus, fréquence d'observation et nombre de covariables. A partir de ces données, éventuellement censurées, nous considérons comme facteur d'étude le temps d'apparition d'un ou plusieurs évènements. Nous cherchons dans des classes de modèles à coefficients dépendant du temps à estimer l’intensité d’apparition des événements. Or les estimateurs actuels, ne permettent pas de traiter efficacement un grand nombre d’observations et/ou un grand nombre de covariables. Nous proposons un nouvel estimateur défini via la vraisemblance complète de Cox et une pénalisation permettant à la fois la sélection de variables et de forcer, quand c’est possible, les coefficients à être constants. Nous introduisons des algorithmes d'optimisation proximaux, permettant d'estimer les coefficients du modèle de manière efficace. L'implémentation de ces méthodes en C++ et dans le package R coxtv permet d'analyser des jeux de données de taille supérieure à la mémoire vive; via un streaming du flux de données et des méthodes d'apprentissage en ligne, telles que la descente de gradient stochastique proximale aux pas adaptatifs. Nous illustrons les performances du modèle sur des simulations en nous comparant aux méthodes existantes. Enfin, nous nous intéressons à la problématique du design des jeux vidéo. Nous montrons que l'application directe de ce modèle, sur les grands jeux de données dont dispose l'industrie du jeu vidéo, permet de mettre en évidence des leviers d'amélioration du design des jeux étudiés. Nous nous intéressons d'abord à l'analyse des composantes bas niveau, telles que les choix d'équipement fait par les joueurs au fils du temps et montrons que le modèle permet de quantifier l'effet de chacun de ces éléments de jeu, offrant ainsi aux designers des leviers d'amélioration direct du design. Enfin, nous montrons que le modèle permet de dégager des enseignements plus généraux sur le design tels que l'influence de la difficulté sur la motivation des joueurs. / This thesis focuses on longitudinal time to event data possibly large along the following tree axes : number of individuals, observation frequency and number of covariates. We introduce a penalised estimator based on Cox complete likelihood with data driven weights. We introduce proximal optimization algorithms to efficiently fit models coefficients. We have implemented thoses methods in C++ and in the R package coxtv to allow everyone to analyse data sets bigger than RAM; using data streaming and online learning algorithms such that proximal stochastic gradient descent with adaptive learning rates. We illustrate performances on simulations and benchmark with existing models. Finally, we investigate the issue of video game design. We show that using our model on large datasets available in video game industry allows us to bring to light ways of improving the design of studied games. First we have a look at low level covariates, such as equipment choices through time and show that this model allows us to quantify the effect of each game elements, giving to designers ways to improve the game design. Finally, we show that the model can be used to extract more general design recommendations such as dificulty influence on player motivations.
23

Validation des modèles statistiques tenant compte des variables dépendantes du temps en prévention primaire des maladies cérébrovasculaires

Kis, Loredana 07 1900 (has links)
L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition / The main interest of this research is the validation of a statistical method in pharmacoepidemiology. Specifically, we will compare the results of a previous study performed with a nested case-control which took into account the average exposure to treatment to : – results obtained in a cohort study, using the time-dependent exposure, with no adjustment for time since exposure ; – results obtained using the cumulative exposure weighted by the recent past ; – results obtained using the Bayesian model averaging. Covariates are estimated by the classical approach and by using a nonparametric Bayesian approach. In the later, the Bayesian model averaging will be used to model the uncertainty in the choice of models. To model the cumulative effect of exposure which varies over time, in the classical approach the function assigning weights according to recency will be estimated using regression splines. In order to compare the results with previous studies, a cohort of people diagnosed with hypertension will be constructed using the databases of the RAMQ and Med-Echo. The Cox model including two variables which vary in time will be used. The time-dependent variables considered in this paper are the dependent variable (first stroke event) and one of the independent variables, namely the exposure.
24

Contribution de la Théorie des Valeurs Extrêmes à la gestion et à la santé des systèmes

Diamoutene, Abdoulaye 26 November 2018 (has links) (PDF)
Le fonctionnement d'un système, de façon générale, peut être affecté par un incident imprévu. Lorsque cet incident a de lourdes conséquences tant sur l'intégrité du système que sur la qualité de ses produits, on dit alors qu'il se situe dans le cadre des événements dits extrêmes. Ainsi, de plus en plus les chercheurs portent un intérêt particulier à la modélisation des événements extrêmes pour diverses études telles que la fiabilité des systèmes et la prédiction des différents risques pouvant entraver le bon fonctionnement d'un système en général. C'est dans cette optique que s'inscrit la présente thèse. Nous utilisons la Théorie des Valeurs Extrêmes (TVE) et les statistiques d'ordre extrême comme outil d'aide à la décision dans la modélisation et la gestion des risques dans l'usinage et l'aviation. Plus précisément, nous modélisons la surface de rugosité de pièces usinées et la fiabilité de l'outil de coupe associé par les statistiques d'ordre extrême. Nous avons aussi fait une modélisation à l'aide de l'approche dite du "Peaks-Over Threshold, POT" permettant de faire des prédictions sur les éventuelles victimes dans l'Aviation Générale Américaine (AGA) à la suite d'accidents extrêmes. Par ailleurs, la modélisation des systèmes soumis à des facteurs d'environnement ou covariables passent le plus souvent par les modèles à risque proportionnel basés sur la fonction de risque. Dans les modèles à risque proportionnel, la fonction de risque de base est généralement de type Weibull, qui est une fonction monotone; l'analyse du fonctionnement de certains systèmes comme l'outil de coupe dans l'industrie a montré qu'un système peut avoir un mauvais fonctionnement sur une phase et s'améliorer sur la phase suivante. De ce fait, des modifications ont été apportées à la distribution de Weibull afin d'avoir des fonctions de risque de base non monotones, plus particulièrement les fonctions de risque croissantes puis décroissantes. En dépit de ces modifications, la prise en compte des conditions d'opérations extrêmes et la surestimation des risques s'avèrent problématiques. Nous avons donc, à partir de la loi standard de Gumbel, proposé une fonction de risque de base croissante puis décroissante permettant de prendre en compte les conditions extrêmes d'opérations, puis établi les preuves mathématiques y afférant. En outre, un exemple d'application dans le domaine de l'industrie a été proposé. Cette thèse est divisée en quatre chapitres auxquels s'ajoutent une introduction et une conclusion générales. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Le deuxième chapitre s'intéresse aux concepts de base de l'analyse de survie, particulièrement à ceux relatifs à l'analyse de fiabilité, en proposant une fonction de risque croissante-décroissante dans le modèle à risques proportionnels. En ce qui concerne le troisième chapitre, il porte sur l'utilisation des statistiques d'ordre extrême dans l'usinage, notamment dans la détection de pièces défectueuses par lots, la fiabilité de l'outil de coupe et la modélisation des meilleures surfaces de rugosité. Le dernier chapitre porte sur la prédiction d'éventuelles victimes dans l'Aviation Générale Américaine à partir des données historiques en utilisant l'approche "Peaks-Over Threshold"
25

Test de type-log rank pour l'évolution de la qualité de vie liée à la santé

Boisson, Véronique 03 December 2008 (has links) (PDF)
Les études épidémiologiques longitudinales sur la qualité de vie (QdV) connaissent un essor depuis quelques années, surtout pour les maladies chroniques où aucun traitement curatif n'existe. L'objectif de ces études est la surveillance de la santé incluant la QdV et la survie. Une telle surveillance repose sur la comparaison de l'évolution longitudinale de QdV entre groupes de patients. Aussi, avons nous élaboré un test global de type log-rank pour l'évolution longitudinale de QdV par rapport à un taux de dégradation de QdV pour deux groupes de patients. <br />Généralement lors de ces études, des questionnaires de QdV sont donnés à remplir aux patients permettant de calculer leur score de QdV. L'évolution de QdV se traduit par le concept de dégradation de QdV. Un taux critique x de dégradation de QdV peut être fixé. Les patients sont considérés comme dégradés si leur score de QdV est supérieur à x. Nous étendons la statistique du score de vraisemblance partielle afin de prendre en compte un taux x de dégradation de QdV préalablement fixé et montrons que le vecteur du processus de score normalisé converge vers un processus gaussien centré. Le taux x de dégradation de QdV est ensuite supposé variable. A l'aide de la théorie des processus empiriques nous prouvons la convergence en distribution de la statistique du score normalisé vers un processus gaussien. Ces travaux ont permis de construire, lorsque le taux x de dégradation de QdV est variable, un test de type log-rank permettant de comparer l'évolution longitudinale de la dégradation de QdV pour deux goupes de patients.<br />Des simulations et une application à une cohorte de patients infectés par le VIH sont présentées.
26

Validation des modèles statistiques tenant compte des variables dépendantes du temps en prévention primaire des maladies cérébrovasculaires

Kis, Loredana 07 1900 (has links)
L’intérêt principal de cette recherche porte sur la validation d’une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement : – aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d’ajustement pour le temps passé depuis l’exposition ; – aux résultats obtenus en utilisant l’exposition cumulative pondérée par le passé récent ; – aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l’approche classique ainsi qu’en utilisant l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles. La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps, dans l’approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d’hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l’exposition / The main interest of this research is the validation of a statistical method in pharmacoepidemiology. Specifically, we will compare the results of a previous study performed with a nested case-control which took into account the average exposure to treatment to : – results obtained in a cohort study, using the time-dependent exposure, with no adjustment for time since exposure ; – results obtained using the cumulative exposure weighted by the recent past ; – results obtained using the Bayesian model averaging. Covariates are estimated by the classical approach and by using a nonparametric Bayesian approach. In the later, the Bayesian model averaging will be used to model the uncertainty in the choice of models. To model the cumulative effect of exposure which varies over time, in the classical approach the function assigning weights according to recency will be estimated using regression splines. In order to compare the results with previous studies, a cohort of people diagnosed with hypertension will be constructed using the databases of the RAMQ and Med-Echo. The Cox model including two variables which vary in time will be used. The time-dependent variables considered in this paper are the dependent variable (first stroke event) and one of the independent variables, namely the exposure.
27

Problématiques statistiques rencontrées dans l’étude du traitement antirétroviral des adultes infectés par le VIH en Afrique subsaharienne / Statistical problems encountered in the study of antiretroviral treatment of adults infected with HIV in sub-Saharan Africa

Tchatchueng Mbougua, Jules Brice 12 June 2012 (has links)
Partant de problématiques statistiques rencontrées dans l'étude du traitement antirétroviral des adultes infectés par le virus de l'immunodéficience humaine (VIH) en Afrique subsaharienne, cette thèse cherche, d'une part, à favoriser la vulgarisation d'outils méthodologiques relativement récents auprès d'un public d'utilisateurs moins avertis et, d'autre part, à participer au développement de nouveaux outils. Le premier chapitre présente différentes méthodes de modélisation des données longitudinales dont des méthodes d'analyse de l'évolution d'un critère au cours du temps (les modèles linéaires mixtes généralisés et les modèles d'équations d'estimation généralisées) ou de la survenue d'un évènement au cours du temps (le modèle semi-paramétrique de Cox et ses extensions à la prise en compte des covariables dépendantes du temps et de la censure informative). Le deuxième chapitre s'intéresse aux tests de non-infériorité et propose deux développements de la procédure classique de ces tests pour les cas où la marge de non-infériorité est relative. Enfin, le troisième chapitre aborde la question des données manquantes et propose une extension de la méthode d'imputation multiple par les distributions conditionnelles univariées qui consiste à prendre en compte des effets non-linéaires des covariables dans les modèles d'imputation par des fonctions B-splines. Ces méthodes sont illustrées par des études sur le VIH au Cameroun et au Sénégal. / On the basis of statistical challenges encountered in study of antiretroviral treatment of adults infected with human immunodeficiency virus (HIV) in sub-Saharan Africa, this thesis aims to promote the dissemination of relatively recent methodological tools of less aware audience of users on one hand and to participate to development of new tools on the other hand. The first chapter presents various methods for modeling longitudinal data of which analysis methods for changing of a criterion over time (the generalized linear mixed models and models of generalized estimating equations) or the occurrence of an event over time (the semi-parametric Cox model and its extensions to take into account time-dependent covariates and informative censoring). The second chapter focuses on non-inferiority test and provides two developments of the classical procedure of these tests in cases where the non-inferiority margin is relative. The third chapter addresses the question of missing data and proposes an extension of the multiple imputation method based on fully conditional specification, to take into account nonlinear effects of covariates in the imputation models using B-splines functions. These methods are illustrated by studies on HIV in Cameroon and Senegal.
28

Modèles illness-death pour données censurées par intervalle : application à l'étude de la démence / Illness-death models for interval-censored data : application to dementia

Touraine, Celia 10 December 2013 (has links)
Lorsqu'on étudie la démence à partir de données de cohorte, les sujets sont suivis par intermittence ce qui donne lieu à des temps d'apparition de la démence censurés par intervalle et ont un risque important de décès, d'où un nombre non négligeable de sujets qui décèdent sans avoir été diagnostiqués déments. Le modèle adapté à l'étude de la démence dans ce contexte est un modèle illness-death dans lequel les sujets initialement non malades peuvent transiter vers l'état décédé directement ou en passant par l'état malade. La vraisemblance du modèle permet en particulier de tenir compte du fait que les sujets décédés sans diagnostic de démence ont pu passer par deux chemins différents entre leur dernière visite et leur décès. Elle ne se factorise pas comme dans le cas où les différents temps de transition sont connus exactement ; tous les paramètres sont donc estimés conjointement. Or, une pratique courante lorsqu'on s'intéresse aux facteurs de risque de démence consiste à considérer uniquement la transition de l'état non malade à l'état malade. Afin de pouvoir appliquer les techniques d'analyse de survie classiques, les sujets décédés sans diagnostic de démence sont artificiellement censurés à droite à leur dernière visite. La première partie de cette thèse permet de montrer que cette approche, contrairement à l'approche illness-death, peut induire des biais dans l'estimation des effets des facteurs de risque. Le fait de modéliser le décès en plus de la démence permet aussi d'exprimer des quantités directement liées au décès comme des espérances de vie ou le risque absolu de démence au cours de la vie entière. Dans la deuxième partie de cette thèse, nous nous efforçons de dégager toutes les quantités pertinentes d'un point de vue épidémiologique qui peuvent être exprimées dans un contexte illness-death. Elles peuvent être estimées en plus des différentes intensités de transition et des effets des facteurs de risque à l'aide du paquet R SmoothHazard, développé au cours de cette thèse. Enfin, la dernière partie de cette thèse consiste à prendre en compte l'hétérogénéité de nos données. Nous introduisons des effets aléatoires sur les trois transitions du modèle illness-death afin de prendre en compte des facteurs de risque partagés par les sujets appartenant à un même groupe. / In dementia research, difficulties arise when studying cohort data. Time-to-disease onset is interval censored because the diagnosis is made at intermittent follow-up visits. As a result, disease status at death is unknown for subjects who are disease-free at the last visit before death. The illness-death model allows initially disease-free subjects to first become ill and then die, or die directly. Those two possible trajectories of the subjects who died without dementia diagnosis can be taken into account into the likelihood. Unlike the case where transition times are exactly observed, the latter do not factorizes and parameters of the three transitions have to be estimated jointly. However, when studying risk factors of dementia, a common approach consists in artificially ending follow-up of subjects who died without dementia diagnosis by considering them as right censored at the last time they were seen without disease. The first part of the present work shows that this approach (unlike the illness-death modeling approach) can lead to biases when estimating risk factor effects of dementia. Modeling death in addition to disease also allows to consider quantities which are closely related with risk of death, like lifetime risk of disease or life expectancies. In the second part of this work, we detail all the quantities which are of epidemiological interest in an illness-death model. They can be estimated, in addition to the transition intensities and the effects or risk factors, using the R package SmoothHazard which has been implemented during this thesis. Finally, in the last part of this work, we consider shared frailty regression models for the three transitions of the illness-death model.
29

Le parcours de soin des greffés cardiaques en France : détermination des facteurs associés à leur accès à la greffe / Analysis of Care Pathways in Heart Transplantation in France : Factors Associated with Access to Transplantation

Cantrelle, Christelle 19 March 2018 (has links)
Le stade terminal de l’insuffisance cardiaque peut nécessiter l’inscription en liste d’attente pour une greffe cardiaque. L’offre en greffon étant faible, l’accès à cette thérapeutique est priorisé pour les malades les plus graves dans le système d’allocation actuel, faisant de l’équité un enjeu éthique et sociétal important. L’objectif de cette thèse, grâce à des méthodes originales et de nouvelles sources de données, était d’analyser les déterminants d’accès à la greffe cardiaque liés aux candidats et aux équipes de greffe en France sur une période récente et d’apporter des éléments nouveaux sur le parcours de soin de ces malades. L’analyse du devenir des candidats à une greffe cardiaque inscrits entre 2010 et 2013 en intégrant la méthode de risques compétitifs a permis de dissocier le risque médical du risque induit par le système d’allocation actuel. Nous avons ainsi trouvé 7 facteurs relatifs au candidat associés à un risque de mortalité élevé dont 4 reliés à la sévérité de l’insuffisance cardiaque et 3 non spécifiques de l’insuffisance cardiaque mais associés à un faible accès à la greffe. La prise en compte de l’effet centre sur les inscrits entre 2010 et 2014 grâce à un modèle mixte de survie a permis de déterminer les facteurs équipe associés à l’accès à la greffe. Parmi les 23 équipes de greffe en France, l’ajustement sur les facteurs candidat et équipe, permettait d’observer que 5 équipes avaient des résultats différents des autres dont 3 avec un accès défavorisé. La mise en évidence de disparités médicales, géographiques et structurelles, révélatrices de failles dans le système actuel d’allocation des greffons cardiaques, nous a permis d’étayer la discussion sur la mise en place d’un nouveau système d’attribution en France. L’attribution au patient plutôt qu’à l’équipe de greffe devrait être plus pertinente. Les méthodologies utilisées permettront d’évaluer précisément ces répercussions. Enfin, l’étude du parcours hospitalier un an avant greffe (2010-2015) à l’aide des données du PMSI a permis de constater un nombre élevé d’hospitalisations pré-inscription majoritairement liées à leur défaillance cardiaque et de longue durée, confirmant le caractère réfractaire de ces insuffisants cardiaques. Ce travail sera poursuivi par une étude approfondie de la consommation de soins de ces malades grâce aux données du SNDS, indispensable étape pour évaluer la prise en charge et estimer les besoins en greffe cardiaque. / Heart transplantation (HTx) is the preferred option for medically refractory advanced heart failure. Due to the small number of available grafts, current allocation policy in France, as in many other countries, is based on the severity of the candidate’s heart disease. This Ph. D thesis was designed to determine candidate and center factors associated with access to heart transplantation in France and in-hospital care pathways one year before heart transplantation using appropriate methodologies and the national hospital database. We first analyzed 1-year mortality in patients listed for HTx in France from 2010 to 2013 using competing risk models in order to distinguish patient-related predictors and the influence of allocation policy. We then distinguished the proportions explained by candidate characteristics and center factors with the persistent between-center variability on 1-year access to transplantation (2010-2014). These disparities are mediated by the severity of the candidate’s heart disease, the allocation system and listing practices rather than by transplant activity. These findings provide a new contribution to improve the heart transplant allocation scoring system in France. The study based on the nationwide administrative database overcomes a major limitation of the national transplantation registry by shedding light on the healthcare pathway of heart transplanted recipients (2010-2015) during the year prior to transplantation. These findings will be useful to assess the medical benefits and criteria for registration on the heart transplant waiting list. This study will be continued by a detailed analysis of the healthcare consumption of these patients based on French national health insurance (SNDS) data.
30

Mathematical modelling of neoadjuvant antiangiogenic therapy and prediction of post-surgical metastatic relapse in breast cancer patients / Modélisation mathématique de la thérapie antiangiogénique pré-opératoire et prédiction de la rechute métastatique post-opératoire dans le cancer du sein

Nicolò, Chiara 14 October 2019 (has links)
Pour les patients diagnostiqués avec un cancer au stade précoce, les décisions de traitement dépendent de l’évaluation du risque de rechute métastatique. Les outils de pronostic actuels sont fondés sur des approches purement statistiques, sans intégrer les connaissances disponibles sur les processus biologiques à l’oeuvre. L’objectif de cette thèse est de développer des modèles prédictifs du processus métastatique en utilisant une approche de modélisation mécaniste et la modélisation à effets mixtes. Dans la première partie, nous étendons un modèle mathématique du processus métastatique pour décrire la croissance de la tumeur primaire et de la masse métastatique totale chez des souris traitées avec le sunitinib (un inhibiteur de tyrosine kinase ayant une action anti-angiogénique) administré comme traitement néoadjuvant (i.e. avant exérèse de la tumeur primaire). Le modèle est utilisé pour tester des hypothèses expliquant les effets différentiels du sunitinib sur la tumeur primaire et les métastases. Des algorithmes d’apprentissage statistique sont utilisés pour évaluer la valeur prédictive des biomarqueurs sur les paramètres du modèle.Dans la deuxième partie de cette thèse, nous développons un modèle mécaniste pour la prédiction du temps de rechute métastatique et le validons sur des données cliniques des patientes atteintes d’un cancer du sein localisé. Ce modèle offre des prédictions personnalisées des métastases invisibles au moment du diagnostic, ainsi que des simulations de la croissance métastatique future, et il pourrait être utilisé comme un outil de prédiction individuelle pour aider à la gestion des patientes atteintes de cancer du sein. / For patients diagnosed with early-stage cancer, treatment decisions depend on the evaluation of the risk of metastatic relapse. Current prognostic tools are based on purely statistical approaches that relate predictor variables to the outcome, without integrating any available knowledge of the underlying biological processes. The purpose of this thesis is to develop predictive models of the metastatic process using an established mechanistic modelling approach and the statistical mixed-effects modelling framework.In the first part, we extend the mathematical metastatic model to describe primary tumour and metastatic dynamics in response to neoadjuvant sunitinib in clinically relevant mouse models of spontaneous metastatic breast and kidney cancers. The calibrated model is then used to test possible hypothesis for the differential effects of sunitinib on primary tumour and metastases, and machine learning algorithms are applied to assess the predictive power of biomarkers on the model parameters.In the second part of this thesis, we develop a mechanistic model for the prediction of the time to metastatic relapse and validate it on a clinical dataset of breast cancer patients. This model offers personalised predictions of the invisible metastatic burden at the time of diagnosis, as well as forward simulations of metastatic growth, and it could be used as a personalised prediction tool to assist in the routine management of breast cancer patients.

Page generated in 0.0785 seconds