• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 4
  • Tagged with
  • 12
  • 12
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Semi-Markov modeling of the loss of autonomy among elderly people : application to long-term care insurance / Modélisation semi-markovienne de la perte d'autonomie chez les personnes âgées : application à l'assurance dépendance

Biessy, Guillaume 28 November 2016 (has links)
Défi majeur aux sociétés modernes, la perte d’autonomie chez les personnes âgées, connue également sous le nom de dépendance se définit comme un état d’incapacité à effectuer seul tout ou partie des Actes de la Vie Quotidienne (AVQ). Elle apparaît dans la grande majorité des cas sous l’effet des pathologies chroniques liées au vieillissement. Devant les coûts importants liés à cet état, les assureurs privés ont développé une offre destinée à compléter l’aide publique. Pour quantifier le risque, un modèle multi-états est utilisé et se pose alors la question de l’estimation des probabilités de transition entre les états (l’autonomie, le décès ainsi qu’un ou plusieurs niveaux de dépendance). Sous l’hypothèse de Markov, ces dernières dépendent uniquement de l’état actuel, une hypothèse trop restrictive pour rendre compte de la complexité du processus de dépendance. Dans le cadre semi-markovien plus général, ces probabilités dépendent également du temps passé dans l’état actuel. Au cours de cette thèse, nous étudions la nécessité d’une modélisation semi-markovienne du processus. Nous mettons en évidence l’impact du temps passé en dépendance sur les probabilités de décès. Nous montrons par ailleurs que la prise en compte de la diversité induite par les pathologies permet d’améliorer sensiblement l’adéquation du modèle proposé aux données étudiées. Plus encore, nous établissons que la forme particulière de la probabilité de décès en fonction du temps passé en dépendance peut être expliquée par le mélange des groupes de pathologies qui constituent la population des individus dépendants. / A sizable challenge to modern societies, Long-Term Care (LTC) in elderly people may be defined as a state of incapacity to perform autonomously part of the Activities of Daily Living (ADL). In most cases, long-term care is caused by pathologies linked to aging. To cope with the sizeable costs linked to this state, private insurers have developed products in top of the public aid. To quantify the long-term care risk, multi-state models are used for which transition probabilities betweenstates (autononomy, death and one to several levels of LTC) need to be inferred. Under the Markov assumption, those probabilities only depend on the current state, this assumption being too restrictive in regards of the complexity of the underlying risk. In a semi-Markov framework, those probabilities also depends on the time spent in the current state. In this thesis, we emphasis the need for the semi-Markov modeling. We demonstrate the impact of time spent in LTC on death probabilities. Besides, we exhibit that taking into account the diversity induced by pathologies leads to sizable improvementsin the fit of the model to experience data. Furthermore, we highlight that the peculiar shape taken by death probabilities as a function of time spent in LTC may be explained by the mixture of pathology groups among the disabled population.
2

Conception d’un outil simple d'utilisation pour réaliser des analyses statistiques ajustées valorisant les données de cohortes observationnelles de pathologies chroniques : application à la cohorte DIVAT / Conception of an easy to use application allowing to perform adjusted statistical analysis for the valorization of observational data from cohorts of chronic disease : application to the DIVAT cohort

Le Borgne, Florent 06 October 2016 (has links)
En recherche médicale, les cohortes permettent de mieux comprendre l'évolution d'une pathologie et d'améliorer la prise en charge des patients. La mise en évidence de liens de causalité entre certains facteurs de risque et l'évolution de l'état de santé des patients est possible grâce à des études étiologiques. L'analyse de cohortes permet aussi d'identifier des marqueurs pronostiques de l'évolution d'un état de santé. Cependant, les facteurs de confusion constituent souvent une source de biais importante dans l'interprétation des résultats des études étiologiques ou pronostiques. Dans ce manuscrit, nous présentons deux travaux de recherche en Biostatistique dans la thématique des scores de propension. Dans le premier travail, nous comparons les performances de différents modèles permettant d'évaluer la causalité d'une exposition sur l'incidence d'un événement en présence de données censurées à droite. Dans le second travail, nous proposons un estimateur de courbes ROC dépendantes du temps standardisées et pondérées permettant d'estimer la capacité prédictive d'un marqueur en prenant en compte les facteurs de confusion potentiels.En cohérence avec l'objectif de fournir des outils statistiques adaptés, nous présentons également dans ce manuscrit une application nommée Plug-Stat®. En lien direct avec la base de données, elle permet de réaliser des analyses statistiques adaptées à la pathologie afin de faciliter la recherche épidémiologique et de mieux valoriser les données de cohortes observationnelles. / In medical research, cohorts help to better understandthe evolution of a pathology and improve the care ofpatients. Causal associations between risk factors andoutcomes are regularly studied through etiological studies. Cohorts analysis also allow the identification of new markers for the prediction of the patient evolution.However, confounding factors are often source of bias in the interpretation of the results of etiologic or prognostic studies.In this manuscript, we presented two research works in Biostatistics, the common topic being propensity scores.In the first work, we compared the performances of different models allowing to evaluate the causality of an exposure on an outcome in the presence of rightc ensored data. In the second work, we proposed anestimator of standardized and weighted time-dependentROC curves. This estimator provides a measure of theprognostic capacities of a marker by taking into accountthe possible confounding factors. Consistent with our objective to provide adapted statistical tools, we also present in this manuscript an application, so-calledPlug-Stat®. Directly linked with the database, it allows toperform statistical analyses adapted to the pathology in order to facilitate epidemiological studies and improve the valorization of data from observational cohorts.
3

Estimation adaptative avec des données transformées ou incomplètes. Application à des modèles de survie

Chagny, Gaëlle 05 July 2013 (has links) (PDF)
Cette thèse présente divers problèmes d'estimation fonctionnelle adaptative par sélection d'estimateurs en projection ou à noyaux, utilisant des critères inspirés à la fois de la sélection de modèles et des méthodes de Lepski. Le point commun de nos travaux est l'utilisation de données transformées et/ou incomplètes. La première partie est consacrée à une procédure d'estimation par "déformation'', dont la pertinence est illustrée pour l'estimation des fonctions suivantes : régression additive et multiplicative, densité conditionnelle, fonction de répartition dans un modèle de censure par intervalle, risque instantané pour des données censurées à droite. Le but est de reconstruire une fonction à partir d'un échantillon de couples aléatoires (X,Y). Nous utilisons les données déformées (ф(X),Y) pour proposer des estimateurs adaptatifs, où ф est une fonction bijective que nous estimons également (par exemple la fonction de répartition de X). L'intérêt est double : d'un point de vue théorique, les estimateurs ont des propriétés d'optimalité au sens de l'oracle ; d'un point de vue pratique, ils sont explicites et numériquement stables. La seconde partie s'intéresse à un problème à deux échantillons : nous comparons les distributions de deux variables X et Xₒ au travers de la densité relative, définie comme la densité de la variable Fₒ(X) (Fₒ étant la répartition de Xₒ). Nous construisons des estimateurs adaptatifs, à partir d'un double échantillon de données, possiblement censurées. Des bornes de risque non-asymptotiques sont démontrées, et des vitesses de convergences déduites.
4

Processus empiriques, estimation non paramétrique et données censurées.

Viallon, Vivian 01 December 2006 (has links) (PDF)
La théorie des processus empiriques joue un rôle central en statistique, puisqu'elle concerne l'ensemble des résultats limites généraux se rapportant aux échantillons aléatoires. En particulier, des lois uniformes du logarithme ont permis d'aborder de manière systématique la convergence en norme sup des estimateurs à noyau. Dans cette thèse, nous obtenons premièrement des lois fonctionnelles uniformes du logarithme pour les incréments du processus des quantiles normé, qui permettent d'établir des propriétés nouvelles des estimateurs basés sur les k-plus proches voisins. Le même type de résultat est ensuite obtenu pour les incréments du processus empirique de Kaplan-Meier, conduisant naturellement à des lois du logarithme uniformes pour des estimateurs de la densité et du taux de mortalité en présence de censure à droite. Dans le cas de la régression multivariée, des lois analogues sont obtenues pour des estimateurs à noyau, notamment dans le cas censuré. Enfin, nous développons un estimateur non paramétrique de la régression sous l'hypothèse du modèle additif dans le cas de censure à droite, permettant de se défaire du fléau de la dimension. Cet estimateur repose essentiellement sur la méthode d'intégration marginale.
5

Estimations non-paramétriques de coût médical et d'incidences d'événements cliniques = Application à l'évaluation médico-économique d'un dépistage pré-thérapeutique des toxicités du 5-fluorouracile

Traore, Sory 23 July 2010 (has links) (PDF)
Cette thèse traite des méthodes d'estimation non-paramétrique du coût médical et des incidences des événements cliniques qui le gérèrent. De telles méthodes d'analyse statistique existent déjà mais elles sont parfois mal employées à cause du biais introduit par les données quand on est en présence de censure, de récurrence des événements d'intérêt et de risques compétitifs. Le choix d'une méthode statistique d'estimation correcte pose souvent probléme dans ce contexte. Dans un premier temps, nous avons étudié les méthodes statistiques habituellement utilisées. Aucune de ces méthodes ne présentait le niveau de généralité pour prendre en compte simultanément toutes les situations souvent rencontrées. Dans un second temps, nous avons développé dans un cadre " multi-états " des approches non paramétriques permettant à la fois d'estimer le coût médical et les incidences d'événements qui le génèrent en présence de toutes ces situations. Les propriétés des estimateurs, en termes de biais et comportements asymptotiques ont ensuite été étudiées. Enfin, l'ensemble des méthodes étudiées et développées ont été appliquées à une étude de cas, l'évaluation médico-économique du dépistage pré-thérapeutique des toxicités du 5-fluorouracile mis au point par les équipes de recherche du laboratoire d'Oncopharmacologie et INSERM U892 du Centre Paul Papin d'Angers. Cette étude a montré que le dépistage pré-thérapeutique pourrait permettre de réduire significativement les incidences toxicités majeures et mortelles survenant pendant les deux cycles de traitement par le 5-FU. De plus, le coût supplémentaire que ce dépistage induit pourrait être significativement inférieur au coût des toxicités qu'il permet d'éviter quelque soit le type d'analyse économique considéré.
6

Estimation adaptative par sélection de partitions en rectangles dyadiques

Akakpo, Nathalie 07 December 2009 (has links) (PDF)
Dans cette thèse, nous étudions divers problèmes d'estimation par sélection d'estimateurs constants ou polynomiaux par morceaux sur des partitions en intervalles ou rectangles dyadiques, en utilisant un critère de type moindres carrés pénalisé adéquat. Nos travaux portent sur trois sujets différents. Nous nous intéressons tout d'abord à l'estimation d'une loi de probabilité discrète, ainsi qu'à une application à la détection de ruptures multiples. Puis, nous proposons un cadre unifié pour l'estimation fonctionnelle basée sur des données éventuellement censurées. Enfin, nous étudions simultanément l'estimation de densité multivariée et de densité conditionnelle pour des données dépendantes. Le choix de la collection de partitions en intervalles ou rectangles dyadiques s'avère intéressant aussi bien en théorie qu'en pratique. En effet, notre estimateur pénalisé vérifie dans chacun des cadres une inégalité de type oracle non-asymptotique, pour une pénalité bien choisie. Il atteint également la vitesse minimax à constante près sur de nombreuses classes de fonctions, dont la régularité est éventuellement à la fois non homogène et non isotrope. Cette propriété, qui à notre connaissance n'a été démontrée pour aucun autre estimateur, repose sur des résultats d'approximation dont les preuves sont inspirées d'un article de DeVore et Yu. Par ailleurs, le calcul de notre estimateur dans un cadre univarié est basé sur un algorithme de plus court chemin dont la complexité est seulement linéaire en la taille de l'échantillon.
7

Estimation non-paramétrique de données censurées dans un cadre multi-états

Geffray, Ségolen 03 November 2006 (has links) (PDF)
Cette thèse porte sur le modèle des risques concurrents et sur le modèle des évènements <br />récurrents.<br />Dans le cadre des risques concurrents, on s'intéresse aux fonctions <br />d'incidences cumulées : elles correspondent à la probabilité qu'un évènement d'un certain type se <br />produise avant un instant donné. Ces fonctions sont estimées de façon non-paramétrique au moyen <br />de l'estimateur de Aalen-Johansen. Des résultats d'approximation forte, de loi du logarithme <br />itéré et de convergence faible pour des processus basés sur l'estimateur de Aalen-Johansen sont <br />établis. Des bandes de confiance sont construites et simulées. Une extension du modèle de <br />Koziol-Green est aussi considérée.<br />Dans le cadre d'évènements récurrents, des fonctions d'incidences cumulées conditionnelles sont <br />estimées de façon non-paramétrique. Les estimateurs proposés sont consistants et leur <br />comportement à distance finie est illustré sur des données réelles et simulées.
8

Modèles illness-death pour données censurées par intervalle : application à l'étude de la démence / Illness-death models for interval-censored data : application to dementia

Touraine, Celia 10 December 2013 (has links)
Lorsqu'on étudie la démence à partir de données de cohorte, les sujets sont suivis par intermittence ce qui donne lieu à des temps d'apparition de la démence censurés par intervalle et ont un risque important de décès, d'où un nombre non négligeable de sujets qui décèdent sans avoir été diagnostiqués déments. Le modèle adapté à l'étude de la démence dans ce contexte est un modèle illness-death dans lequel les sujets initialement non malades peuvent transiter vers l'état décédé directement ou en passant par l'état malade. La vraisemblance du modèle permet en particulier de tenir compte du fait que les sujets décédés sans diagnostic de démence ont pu passer par deux chemins différents entre leur dernière visite et leur décès. Elle ne se factorise pas comme dans le cas où les différents temps de transition sont connus exactement ; tous les paramètres sont donc estimés conjointement. Or, une pratique courante lorsqu'on s'intéresse aux facteurs de risque de démence consiste à considérer uniquement la transition de l'état non malade à l'état malade. Afin de pouvoir appliquer les techniques d'analyse de survie classiques, les sujets décédés sans diagnostic de démence sont artificiellement censurés à droite à leur dernière visite. La première partie de cette thèse permet de montrer que cette approche, contrairement à l'approche illness-death, peut induire des biais dans l'estimation des effets des facteurs de risque. Le fait de modéliser le décès en plus de la démence permet aussi d'exprimer des quantités directement liées au décès comme des espérances de vie ou le risque absolu de démence au cours de la vie entière. Dans la deuxième partie de cette thèse, nous nous efforçons de dégager toutes les quantités pertinentes d'un point de vue épidémiologique qui peuvent être exprimées dans un contexte illness-death. Elles peuvent être estimées en plus des différentes intensités de transition et des effets des facteurs de risque à l'aide du paquet R SmoothHazard, développé au cours de cette thèse. Enfin, la dernière partie de cette thèse consiste à prendre en compte l'hétérogénéité de nos données. Nous introduisons des effets aléatoires sur les trois transitions du modèle illness-death afin de prendre en compte des facteurs de risque partagés par les sujets appartenant à un même groupe. / In dementia research, difficulties arise when studying cohort data. Time-to-disease onset is interval censored because the diagnosis is made at intermittent follow-up visits. As a result, disease status at death is unknown for subjects who are disease-free at the last visit before death. The illness-death model allows initially disease-free subjects to first become ill and then die, or die directly. Those two possible trajectories of the subjects who died without dementia diagnosis can be taken into account into the likelihood. Unlike the case where transition times are exactly observed, the latter do not factorizes and parameters of the three transitions have to be estimated jointly. However, when studying risk factors of dementia, a common approach consists in artificially ending follow-up of subjects who died without dementia diagnosis by considering them as right censored at the last time they were seen without disease. The first part of the present work shows that this approach (unlike the illness-death modeling approach) can lead to biases when estimating risk factor effects of dementia. Modeling death in addition to disease also allows to consider quantities which are closely related with risk of death, like lifetime risk of disease or life expectancies. In the second part of this work, we detail all the quantities which are of epidemiological interest in an illness-death model. They can be estimated, in addition to the transition intensities and the effects or risk factors, using the R package SmoothHazard which has been implemented during this thesis. Finally, in the last part of this work, we consider shared frailty regression models for the three transitions of the illness-death model.
9

Nouvelle approche de la fiabilité opérationnelle

Berthon, Julie 07 November 2008 (has links)
La thèse s'est effectuée dans le cadre d'une convention CIFRE entre l'Université Bordeaux I et l'entreprise Thales Avionics. Elle constitue une analyse originale de la fiabilité de matériels complexes, dans une perspective de maîtrise et d'amélioration de la fiabilité. La thèse comporte deux parties disjointes qui trouvent leur justification dans les problématiques rencontrées par l'industriel : - La première partie porte sur l'analyse des agrégats d'évènements indésirables (séries d'accidents, séries noires,...). Elle fait appel aux statistiques de balayage pour évaluer la probabilité d'occurrence d'un agrégat d'accidents. Une approche par simulation de Monte Carlo, puis un Réseau de Petri supportée par simulation de Monte Carlo, sont proposés. Plusieurs approches markoviennes sont ensuite développées. - La seconde partie porte sur l'analyse du retour d'expérience dans le cas où les informations disponibles sont uniquement les nombres de produits livrés et de défaillances constatées par unité de temps. Une méthodologie innovante, permettant d'obtenir la loi de fiabilité d'un matériel en fonction du flux de production et du flux de pannes observés, est exposée. / The thesis went within the scope of an agreement between the University Bordeaux I and the Thales Avionics company. It constitutes an original analysis of the reliability of complex materials equipments, with the prospect of control and improvement. The thesis consists of two separate parts connected to the problems met by the manufacturer: - The first part deals with the analysis of "clusters" of undesirable events (chain of disasters, series of failures,...). It appeals to the scan statistics in order to estimate the probability of occurrence of a cluster of events. A Monte Carlo simulation implemented in a dedicated algorithm, then a Monte Carlo simulation supported by a Petri net model, are proposed. Several markovian approaches are then developed. - The second part deals with the analysis of feedback in a non common context when the only information available is the number of equipments which are delivered during each period and the number of those which are removed during each period. An innovative approach, allowing to obtain the intrinsic failure rate of the materials under study according to the production flow and the removal flow, is explained.
10

Revisiting Species Sensitivity Distribution : modelling species variability for the protection of communities / La SSD revisitée : modéliser la variabilité des espèces pour protéger les communautés

Kon Kam King, Guillaume 29 October 2015 (has links)
La SSD (Species Sensitivity Distribution) est une méthode utilisée par les scientifiques et les régulateurs de tous les pays pour fixer la concentration sans danger de divers contaminants sources de stress pour l'environnement. Bien que fort répandue, cette approche souffre de diverses faiblesses sur le plan méthodologique, notamment parce qu'elle repose sur une utilisation partielle des données expérimentales. Cette thèse revisite la SSD actuelle en tentant de pallier ce défaut. Dans une première partie, nous présentons une méthodologie pour la prise en compte des données censurées dans la SSD et un outil web permettant d'appliquer cette méthode simplement. Dans une deuxième partie, nous proposons de modéliser l'ensemble de l'information présente dans les données expérimentales pour décrire la réponse d'une communauté exposée à un contaminant. A cet effet, nous développons une approche hiérarchique dans un paradigme bayésien. A partir d'un jeu de données décrivant l'effet de pesticides sur la croissance de diatomées, nous montrons l'intérêt de la méthode dans le cadre de l'appréciation des risques, de par sa prise en compte de la variabilité et de l'incertitude. Dans une troisième partie, nous proposons d'étendre cette approche hiérarchique pour la prise en compte de la dimension temporelle de la réponse. L'objectif de ce développement est d'affranchir autant que possible l'appréciation des risques de sa dépendance à la date de la dernière observation afin d'arriver à une description fine de son évolution et permettre une extrapolation. Cette approche est mise en œuvre à partir d'un modèle toxico-dynamique pour décrire des données d'effet de la salinité sur la survie d'espèces d'eau douce / Species Sensitivity Distribution (SSD) is a method used by scientists and regulators from all over the world to determine the safe concentration for various contaminants stressing the environment. Although ubiquitous, this approach suffers from numerous methodological flaws, notably because it is based on incomplete use of experimental data. This thesis revisits classical SSD, attempting to overcome this shortcoming. First, we present a methodology to include censored data in SSD with a web-tool to apply it easily. Second, we propose to model all the information present in the experimental data to describe the response of a community exposed to a contaminant. To this aim, we develop a hierarchical model within a Bayesian framework. On a dataset describing the effect of pesticides on diatom growth, we illustrate how this method, accounting for variability as well as uncertainty, provides benefits to risk assessment. Third, we extend this hierarchical approach to include the temporal dimension of the community response. The objective of that development is to remove the dependence of risk assessment on the date of the last experimental observation in order to build a precise description of its time evolution and to extrapolate to longer times. This approach is build on a toxico-dynamic model and illustrated on a dataset describing the salinity tolerance of freshwater species

Page generated in 0.4541 seconds