• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 14
  • 2
  • Tagged with
  • 39
  • 39
  • 20
  • 17
  • 11
  • 11
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Semi-Markov modeling of the loss of autonomy among elderly people : application to long-term care insurance / Modélisation semi-markovienne de la perte d'autonomie chez les personnes âgées : application à l'assurance dépendance

Biessy, Guillaume 28 November 2016 (has links)
Défi majeur aux sociétés modernes, la perte d’autonomie chez les personnes âgées, connue également sous le nom de dépendance se définit comme un état d’incapacité à effectuer seul tout ou partie des Actes de la Vie Quotidienne (AVQ). Elle apparaît dans la grande majorité des cas sous l’effet des pathologies chroniques liées au vieillissement. Devant les coûts importants liés à cet état, les assureurs privés ont développé une offre destinée à compléter l’aide publique. Pour quantifier le risque, un modèle multi-états est utilisé et se pose alors la question de l’estimation des probabilités de transition entre les états (l’autonomie, le décès ainsi qu’un ou plusieurs niveaux de dépendance). Sous l’hypothèse de Markov, ces dernières dépendent uniquement de l’état actuel, une hypothèse trop restrictive pour rendre compte de la complexité du processus de dépendance. Dans le cadre semi-markovien plus général, ces probabilités dépendent également du temps passé dans l’état actuel. Au cours de cette thèse, nous étudions la nécessité d’une modélisation semi-markovienne du processus. Nous mettons en évidence l’impact du temps passé en dépendance sur les probabilités de décès. Nous montrons par ailleurs que la prise en compte de la diversité induite par les pathologies permet d’améliorer sensiblement l’adéquation du modèle proposé aux données étudiées. Plus encore, nous établissons que la forme particulière de la probabilité de décès en fonction du temps passé en dépendance peut être expliquée par le mélange des groupes de pathologies qui constituent la population des individus dépendants. / A sizable challenge to modern societies, Long-Term Care (LTC) in elderly people may be defined as a state of incapacity to perform autonomously part of the Activities of Daily Living (ADL). In most cases, long-term care is caused by pathologies linked to aging. To cope with the sizeable costs linked to this state, private insurers have developed products in top of the public aid. To quantify the long-term care risk, multi-state models are used for which transition probabilities betweenstates (autononomy, death and one to several levels of LTC) need to be inferred. Under the Markov assumption, those probabilities only depend on the current state, this assumption being too restrictive in regards of the complexity of the underlying risk. In a semi-Markov framework, those probabilities also depends on the time spent in the current state. In this thesis, we emphasis the need for the semi-Markov modeling. We demonstrate the impact of time spent in LTC on death probabilities. Besides, we exhibit that taking into account the diversity induced by pathologies leads to sizable improvementsin the fit of the model to experience data. Furthermore, we highlight that the peculiar shape taken by death probabilities as a function of time spent in LTC may be explained by the mixture of pathology groups among the disabled population.
2

Modèles de mélange pour la classification non supervisée de données qualitatives et mixtes / Model-based clustering for categorical and mixed data sets

Marbac-Lourdelle, Matthieu 23 September 2014 (has links)
Cette thèse propose une contribution originale pour la classification non supervisée de données qualitatives ou de données mixtes. Les approches proposées sont à base de modèles probabilistes ayant pour but de modéliser la distribution des données observées. Dans les cas de données qualitatives ou mixtes, il est d'usage de supposer l'indépendance entre les variables conditionnellement à la classe. Cependant, cette approche s'avère biaisée lorsque l'hypothèse d'indépendance conditionnelle est erronée. L'objet de cette thèse est d'étudier et de proposer des modèles relâchant l'hypothèse d'indépendance conditionnelle. Ceux-ci doivent permettre de résumer chaque classe par quelques paramètres significatifs. La première partie de cette thèse porte sur la classification non supervisée de données qualitatives. Lorsque ces données sont corrélées au sein des classes, le statisticien est confronté à de nombreux problèmes combinatoires (grand nombre de paramètres et choix de modèle complexe). Notre approche consiste à relâcher l'hypothèse d'indépendance conditionnelle en regroupant les variables en blocs conditionnellement indépendants. Cette méthode nous amène à présenter deux modèles probabilistes. Ceux-ci définissent la distribution d'un bloc de manière à limiter le nombre de paramètres du modèle tout en fournissant un modèle facilement interprétable. Le premier modélise la distribution d'un bloc de variables par le mélange des deux distributions de dépendances extrêmes tandis que le second modèle utilise une distribution multinomiale par modes. La seconde partie de cette thèse porte sur la classification non supervisée de données mixtes. La difficulté spécifique à de telle données est due à l'absence de distribution de référence pour le cas de variables de différentes natures. Ainsi, on souhaite définir un modèle probabiliste respectant les deux contraintes suivantes. Tout d'abord, les distributions marginales de chacune des composantes doivent être des distributions classiques afin de faciliter l'interprétation du modèle. De plus, le modèle doit permettre de caractériser les dépendances intra-classes par quelques paramètres significatifs. Ce cahier des charges nous amène naturellement à utiliser la théorie des copules. Ainsi, nous proposons un modèle de mélange de copules gaussiennes que nous considérons comme la contribution majeure de cette thèse. Pour ce modèle, nous effectuons une inférence bayésienne à partir d'un échantillonneur de Gibbs. Les critères d'information classiques (BIC, ICL), nous permettent de répondre aux problématiques de choix de modèles. / This work is our contribution to the cluster analysis of categorical and mixed data. The methods proposed in this manuscript modelize the data distribution in a probabilistic framework. When the data are categorical or mixed, the classical model assumes the independence between the variables conditionally on class. However, this approach is biased when the variables are intra-class correlated. The aim of this thesis is to study and to present some mixture models which relax the conditional independence assumption. Moreover, they have to summarize each class with few characteristic parameters. The first part of this manuscript is devoted to the cluster analysis of categorical data. The categorical variables are difficult to cluster since they leave the statistician facing with many combinatorial challenges. In this context, our contribution consists in two parsimonious mixture models which allow to cluster categorical data presenting intra-class dependencies. The main idea of these models is to group the variables into conditionally independent blocks. By setting specific distributions for these blocks, both models consider the intra-classdependencies between the variables. The first approach modelizes the block distribution by a mixture of two extreme dependency distributions while the second approach modelizes it by a multinomial distribution per modes. The study of the cluster analysis of mixed data sets is the second objective of this work. The challenge is due to the lack of classical distributions for mixed variables. Thus, we defined a probabilistic model respecting two main constraints. Firstly, the one-dimensional margin distributions of the components are classical for each variables. Secondly, the model characterizes the main intra-class dependencies. This model is defined as a mixture of Gaussian copulas. The Bayesian inference is performed via a Gibbs sampler. The classical information criteria (BIC, ICL) permit to perform the model selection.
3

Reconnaissance de formes et suivi de mouvements en 4D temps-réel : Restauration de cartes de profondeur / 4d real time object recognition and tracking : depth map restoration

Brazey, Denis 09 December 2014 (has links)
Dans le cadre de cette thèse, nous nous intéressons à plusieurs problématiques liées au traitement de données 3D. La première concerne la détection et le suivi de personnes dans des séquences d'images de profondeur. Nous proposons une amélioration d'une méthode existante basée sur une étape de segmentation, puis de suivi des personnes. La deuxième problématique abordée est la détection et la modélisation de têtes dans un nuage de points 3D. Pour cela, nous adoptons une approche probabiliste basée sur un nouveau modèle de mélange sphérique. La dernière application traitée est liée à la restauration d'images de profondeur présentant des données manquantes. Nous proposons pour cela d'utiliser une méthode d'approximation de surface par Dm-splines d'interpolation avec changements d'échelle pour approximer et restaurer les données. Les résultats présentés illustrent l'efficacité des algorithmes développés. / In this dissertation, we are interested in several issues related to 3D data processing. The first one concerns people detection and tracking in depth map sequences. We propose an improvement of an existing method based on a segmentation stage followed by a tracking module. The second issue is head detection and modelling in 3D point clouds. In order to do this, we adopt a probabilistic approach based on a new spherical mixture model. The last considered application deals with the restoration of deteriorated depth maps. To solve this problem, we propose to use a surface approximation method based on interpolation Dm-splines with scale transforms to approximate and restore the image. Presented results illustrate the efficiency of the developed algorithms.
4

Analyse et représentation de la couverture pédologique : application à la caractérisation des unités cartographiques de sols pour le programme I.G.C.S d'un secteur du baugeois (49)

Collin Bellier, Céline 21 July 2006 (has links) (PDF)
Analyse et représentation de la couverture pédologique Application à la caractérisation des unités cartographiques de sols pour le programme I.G.C.S. d'un secteur du Baugeois. <br>Dans un contexte d'intérêt mondial pour les sols, ce travail se propose de comprendre l'organisation des sols à grande échelle sur un terrain sédimentaire du Baugeois. Quelle logique sous-tend la formation des unités de sols, et quelles représentations sont les plus appropriées ? Enfin, comment conserver l'état tridimensionnel de la couverture pédologique ? <br>La compréhension de l'organisation spatiale des sols s'appuie sur l'identification des facteurs et processus à l'origine de la variation des sols. Il s'agit donc d'une approche cartographique fondée sur l'analyse des processus pédogénétiques en cause. Les techniques d'acquisition des données se basent sur deux méthodes de cartographies complémentaires : (1) un échantillonnage systématique d'un sondage par hectare ; (2) un échantillonnage le long de séquences inspirées de l'" Analyse structurale ". Cet échantillonnage-ci a permis le prélèvement et l'analyse des matériaux sur profils pédologiques. Afin d'intégrer ces données dans l'environnement, elles ont été complétées par l'acquisition d'un M.N.A. de maille 10 m. <br>La granulométrie, en tant que principale donnée utilisée pour la compréhension de la pédogenèse, a permis la caractérisation des matériaux et horizons. Elle est à la base d'un système d'équations de mélanges de matériaux géologiques. Deux séquences perpendiculaires ont été particulièrement étudiées, une lithotoposéquence d'Ouest en Est, et une isoaltiséquence, selon une courbe de niveau choisie dans la zone la plus pentue. Le modèle de mélange a été développé sur la lithotoposéquence et appliqué à l'isoaltiséquence. Il permet : (1) de constater que les sols sont souvent issus du mélange de matériaux autochtones et allochtones, (2) de mettre en évidence que croupe et talweg ont des fonctionnements opposés, croupe sans apport allochtone ni érosion, talweg avec apports allochtones et érosion. <br>Trois modèles de représentation sont proposés : (1) le modèle conceptuel met en valeur l'hypothèse d'une pédogenèse polyphasique et l'importance de considérer la couverture pédologique comme un volume, (2) le modèle cartographique choroplète souligne les différentes interprétations et les choix possibles pour le nombre et la délimitation des unités cartographiques (3) enfin, un modèle statistique permet d'expliciter et de quantifier le modèle choroplète.
5

Modèles linéaires généralisés à effets aléatoires : contributions au choix de modèle et au modèle de mélange

Martinez, Marie-José 29 September 2006 (has links) (PDF)
Ce travail est consacré à l'étude des modèles linéaires généralisés à effets aléatoires (GL2M). Dans ces modèles, sous une hypothèse de distribution normale des effets aléatoires, la vraisemblance basée sur la distribution marginale du vecteur à expliquer n'est pas, en général, calculable de façon formelle. Dans la première partie de notre travail, nous revisitons différentes méthodes d'estimation non exactes par le biais d'approximations réalisées à différents niveaux selon les raisonnements. La deuxième partie est consacrée à la mise en place de critères de sélection de modèles au sein des GL2M. Nous revenons sur deux méthodes d'estimation nécessitant la construction de modèles linéarisés et nous proposons des critères basés sur la vraisemblance marginale calculée dans le modèle linéarisé obtenu à la convergence de la procédure d'estimation. La troisième et dernière partie s'inscrit dans le cadre des modèles de mélanges de GL2M. Les composants du mélange sont définis par des GL2M et traduisent différents états possibles des individus. Dans le cadre de la loi exponentielle, nous proposons une méthode d'estimation des paramètres du mélange basée sur une linéarisation spécifique à cette loi. Nous proposons ensuite une méthode plus générale puisque s'appliquant à un mélange de GL2M quelconques. Cette méthode s'appuie sur une étape de Metropolis-Hastings pour construire un algorithme de type MCEM. Les différentes méthodes développées sont testées par simulations.
6

Dynamiques et origines des matières en suspension sur de petits bassins versants agricoles sur schiste

Lefrançois, Julie 23 January 2007 (has links) (PDF)
Les matières en suspension (MES) participent à la dégradation des écosystèmes aquatiques en augmentant la turbidité de l'eau, en colmatant les frayères des Salmonidés et en véhiculant de nombreux polluants. La modification des pratiques agricoles et des aménagements du territoire (remembrement, arrachage de haies) sont à l'origine d'une production accrue de MES. Les objectifs de la thèse sont d'une part de décrire et d'expliquer la dynamique des MES pour des petits bassins versants en région d'élevage ; et d'autre part d'en identifier les origines. Une approche de terrain a été privilégiée ; elle repose sur le choix de trois bassins versants du Massif Armoricain comparables (superficie (<5 km²), pluviométrie, géologie) mais présentant une intensification agricole et une gestion des bords de cours d'eau différentes. La dynamique des MES est considérée à travers la variabilité de la relation concentration en MES-débit. L'origine des MES est d'abord perçue à partir de l'interprétation des relations concentration en MES-débit au cours de l'année et lors des crues, puis évaluée par des méthodes directes : mise en évidence de zones d'érosion par 137Cs et traçage géochimique des sources avec estimation de leur contribution dans les MES à l'aide d'un modèle de mélange. Nous avons montré que sur le Moulinet et les Violettes, les particules provenaient du cours d'eau lui-même (érosion des berges, remise en suspension de sédiments) et des zones proches du ruisseau et de leur dégradation par le bétail. Les mesures directes de la contribution des sources confirment l'implication du bétail dans la dynamique des MES, d'une part car l'érosion des zones proches des cours d'eau est accentuée en leur présence, d'autre part car leur piétinement fournit des particules de sols et de berges même dans des contextes peu érosifs. Cet apport de particules indépendant de l'hydrologie explique la part importante des flux hors crue. Sur le Coët Dan-Naizin, les abords du cours d'eau sont plus préservés grâce à une ripisylve bien développée : les particules proviennent essentiellement du cours d'eau lui-même et les flux moyens annuels de MES sont plus faibles. L'identification du rôle du bétail comme un paramètre déterminant de la dynamique des MES devrait permettre de proposer des aménagements visant à limiter la production de particules.
7

Modélisation et classification des données de grande dimension : application à l'analyse d'images.

Bouveyron, Charles 28 September 2006 (has links) (PDF)
Le thème principal d'étude de cette thèse est la modélisation et la classification des données de grande<br />dimension. Partant du postulat que les données de grande dimension vivent dans des sous-espaces de<br />dimensions intrinsèques inférieures à la dimension de l'espace original et que les données de classes<br />différentes vivent dans des sous-espaces différents dont les dimensions intrinsèques peuvent être aussi<br />différentes, nous proposons une re-paramétrisation du modèle de mélange gaussien. En forçant certains<br />paramètres à être communs dans une même classe ou entre les classes, nous exhibons une famille de 28 modèles gaussiens adaptés aux données de grande dimension, allant du modèle le plus général au modèle le plus parcimonieux. Ces modèles gaussiens sont ensuite utilisés pour la discrimination et la classification<br />automatique de données de grande dimension. Les classifieurs associés à ces modèles sont baptisés respectivement High Dimensional Discriminant Analysis (HDDA) et High Dimensional Data Clustering (HDDC) et<br />leur construction se base sur l'estimation par la méthode du maximum de vraisemblance des paramètres du<br />modèle. La nature de notre re-paramétrisation permet aux méthodes HDDA et HDDC de ne pas être perturbées par le mauvais conditionnement ou la singularité des matrices de covariance empiriques des classes et d'être<br />efficaces en terme de temps de calcul. Les méthodes HDDA et HDDC sont ensuite mises en dans le cadre d'une<br />approche probabiliste de la reconnaissance d'objets dans des images. Cette approche, qui peut être<br />supervisée ou faiblement supervisée, permet de localiser de manière probabiliste un objet dans une<br />nouvelle image. Notre approche est validée sur des bases d'images récentes et comparée aux meilleures<br />méthodes actuelles de reconnaissance d'objets.
8

Communication silencieuse: conversion de la parole chuchotée en parole claire

Tran, Viet-Anh 28 January 2010 (has links) (PDF)
La parole silencieuse ou murmurée est définie comme la production articulée de sons, avec très peu de vibration des cordes vocales dans le cas du chuchotement, et aucune vibration dans le cas du murmure, produite par les mouvements et les interactions des organes de la parole tels que la langue, le voile du palais, les lèvres, etc., dans le but d'éviter d'être entendue par plusieurs personnes. La parole silencieuse ou murmurée est utilisée généralement pour la communication privée et confidentielle ou peut être employée par les personnes présentant un handicap laryngé et qui ne peuvent pas parler normalement. Cependant, il est difficile d'employer directement la parole silencieuse (murmurée) pour la communication face à face ou avec un téléphone portable parce que le contenu linguistique et l'information paralinguistique dans le message prononcé sont dégradés fortement quand le locuteur murmure ou chuchote. Une piste récente de recherche est donc celle de la conversion de la parole silencieuse (ou murmurée) en voix claire afin d'avoir une voix plus intelligible et plus naturelle. Avec une telle conversion, des applications potentielles telles que la téléphonie silencieuse " ou des systèmes d'aides robustes pour les handicaps laryngés deviendraient envisageables. Notre travail dans cette thèse se concentre donc sur cette piste.
9

Âge d'entrée à l'école élémentaire, habiletés d'autorégulation en classe et devenir scolaire des enfants.

Cosnefroy, Olivier 28 October 2010 (has links) (PDF)
Les élèves français doivent légalement entrer à l'école élémentaire au mois de septembre de l'année civile où ils atteignent l'âge de six ans. Cela implique que, dans une même classe, il puisse exister une différence d'âge de 12 mois entre les élèves nés en début et en fin d'année. L'analyse de l'effet de ces différences d'âge d'entrée à l'école élémentaire sur le devenir scolaire des élèves constitue l'objectif principal de cette recherche. En s'appuyant sur deux échantillons de 10000 et 2000 écoliers, suivis longitudinalement à partir du cours préparatoire, cette recherche montre d'une part, que l'effet de l'âge d'entrée à l'école est un élément important dans l'explication des différences interindividuelles de réussite scolaire. D'autre part, elle souligne le pouvoir prédictif et discriminant de l'évaluation des habiletés d'autorégulation dans la classe. Enfin, l'examen des liens entre ces deux facteurs et les performances scolaires, par le biais de médiations simples, multiples et modérées, montre que les habiletés d'autorégulation évaluées dans le contexte de la classe constituent un médiateur significatif de l'effet de l'âge sur le devenir des élèves. De plus, les résultats suggèrent que, pour les élèves les plus jeunes, des interventions portées sur ces habiletés d'autorégulation pourraient réduire les inégalités scolaires liées à l'effet de l'âge et s'avérer d'autant plus bénéfiques que les élèves sont en difficulté en début de scolarité.
10

Estimation robuste des modèles de mélange sur des données distribuées

El Attar, Ali 12 July 2012 (has links) (PDF)
Cette thèse propose une contribution en matière d'analyse de données, dans la perspective de systèmes informatiques distribués non-centralisés, pour le partage de données numériques. De tels systèmes se développent en particulier sur internet, possiblement à large échelle, mais aussi, par exemple, par des réseaux de capteurs. Notre objectif général est d'estimer la distribution de probabilité d'un jeu de données distribuées, à partir d'estimations locales de cette distribution, calculées sur des sous- jeux de données locaux. En d'autres termes, il s'est agi de proposer une technique pour agréger des estimés locaux pour en faire un estimé global. Notre proposition s'appuie sur la forme particulière que doivent prendre toutes les distributions de probabilité manipulées : elles doivent se formuler comme un mélange de lois gaussiennes multivariées. Notre contribution est une solution à la fois décentralisée et statistiquement robuste aux modèles locaux aberrants, pour mener à bien l'agrégation globale, à partir d'agrégations locales de mélanges de lois gaussiennes. Ces agrégations locales ne requièrent un accès qu'aux seuls paramètres des modèles de mélanges, et non aux données originales.

Page generated in 0.0789 seconds