61 |
Méthodes d'analyse de données et modèles bayésiens appliqués au contexte des inégalités socio-territoriales de santé et des expositions environnementales / Data analysis techniques and Bayesian models applied to the context of social health inequalities and environmental exposuresLalloué, Benoit 06 December 2013 (has links)
Cette thèse a pour but d'améliorer les connaissances concernant les techniques d'analyse de données et certains modèles bayésiens dans le domaine de l'étude des inégalités sociales et environnementales de santé. À l'échelle géographique de l'IRIS sur les agglomérations de Paris, Marseille, Lyon et Lille, l'événement sanitaire étudié est la mortalité infantile dont on cherchera à expliquer le risque avec des données socio-économiques issues du recensement et des expositions environnementales comme la pollution de l'air, les niveaux de bruit et la proximité aux industries polluantes, au trafic automobile ou aux espaces verts. Deux volets principaux composent cette thèse. Le volet analyse de données détaille la mise au point d'une procédure de création d'indices socio-économiques multidimensionnels et la conception d'un package R l'implémentant, puis la création d'un indice de multi-expositions environnementales. Pour cela, on utilise des techniques d'analyse de données pour synthétiser l'information et fournir des indicateurs composites utilisables directement par les décideurs publics ou dans le cadre d'études épidémiologiques. Le second volet concerne les modèles bayésiens et explique le modèle « BYM ». Celui-ci permet de prendre en compte les aspects spatiaux des données et est mis en oeuvre pour estimer le risque de mortalité infantile. Dans les deux cas, les méthodes sont présentées et différents résultats de leur utilisation dans le contexte ci-dessus exposés. On montre notamment l'intérêt de la procédure de création d'indices socio-économiques et de multi-expositions, ainsi que l'existence d'inégalités sociales de mortalité infantile dans les agglomérations étudiées / The purpose of this thesis is to improve the knowledge about and apply data mining techniques and some Bayesian model in the field of social and environmental health inequalities. On the neighborhood scale on the Paris, Marseille, Lyon and Lille metropolitan areas, the health event studied is infant mortality. We try to explain its risk with socio-economic data retrieved from the national census and environmental exposures such as air pollution, noise, proximity to traffic, green spaces and industries. The thesis is composed of two parts. The data mining part details the development of a procedure of creation of multidimensional socio-economic indices and of an R package that implements it, followed by the creation of a cumulative exposure index. In this part, data mining techniques are used to synthesize information and provide composite indicators amenable for direct usage by stakeholders or in the framework of epidemiological studies. The second part is about Bayesian models. It explains the "BYM" model. This model allows to take into account the spatial dimension of the data when estimating mortality risks. In both cases, the methods are exposed and several results of their usage in the above-mentioned context are presented. We also show the value of the socio-economic index procedure, as well as the existence of social inequalities of infant mortality in the studied metropolitan areas
|
62 |
Place des outils d'analyse des séries temporelles dans la surveillance épidémiologique pour la détection des épidémies et leur analyse : élaboration de nouveaux outils de détection et d'analyse étiologique des épidémies appliqués à la surveillance épidémiologique / Time series analysis in health surveillance for outbreak detection and their etiological analysisBédubourg, Gabriel 17 December 2018 (has links)
La surveillance épidémiologique est le recueil systématique et continu d’informations sur l’état de santé des populations, leur analyse, leur interprétation et leur diffusion à tous les décideurs ayant besoin d’être informés. Un de ses objectifs est la détection des événements inhabituels, i.e. des épidémies, nécessitant la mise en place rapide de contre-mesures. Les objectifs de ce travail de thèse sont : (i) d’évaluer les principales méthodes statistiques de détection publiées et communément employées dans différents systèmes de surveillance épidémiologique, (ii) de proposer une nouvelle approche reposant sur la combinaison optimale de méthodes de détection statistique des épidémies et (iii) de développer une nouvelle méthode statistique d’analyse étiologique d’une épidémie à partir des données de surveillance épidémiologique collectées en routine par le système.Pour atteindre ces objectifs, nous évaluons les principales méthodes statistiques de la littérature, à partir d’un jeu publié de données simulées. Puis nous proposons une approche originale pour la détection des épidémies sur le principe de la combinaison de méthodes sélectionnées lors de l’étape précédente. Les performances de cette approche sont comparées aux précédentes selon la méthodologie utiliséeà la première étape. Enfin, nous proposons une méthode d’analyse étiologique d’une épidémie à partir des données de surveillance en employant des modèles statistiques adaptés aux séries chronologiques. / Public health surveillance is the ongoing, systematic collection, analysis, interpretation, and dissemination of data for use in public health action to reduce morbidity and mortality of health-related events and to improve health. One of its objectives is the detection of unusualevents, i.e. outbreaks, requiring the rapid implementation of countermeasures.The objectives of this work are: (i) to evaluate the main published statistical methods for outbreak detection commonly implemented in different public health surveillance systems, (ii) to propose a new approach based on the optimal combination of statistical methods foroutbreak detection and benchmark it to other methods; and (iii) develop a new statistical method for the etiological analysis of an outbreak from public health surveillance data routinely collected by the system. To achieve these objectives, as a first step, we evaluate the main statistical methods, from a published set of simulated public health surveillance data. Statistical methods have been evaluated for an operational purpose: for all simulated time series, we used the tuning parameters recommended by their authors for each algorithm when available. We propose sensitivity and specificity metrics suitable for these tools. Then we propose an original approach for outbreak detection based on combination of methods selected in the previous step. The performance of this approach is compared to the previous ones according to the methodology implemented in the first step.Finally, we propose a method for the etiological analysis of an outbreak from surveillance data by using statistical models suitable for time series analysis
|
63 |
Sismologie solaire et stellaireLambert, Pascal 21 March 2007 (has links) (PDF)
La thèse présentée ici se place dans le cadre de la sismologie du Soleil et des étoiles, dans une période de transition entre une bonne connaissance du Soleil grâce à l'héliosismologie et le développement actuel de l'astérosismologie, et, entre une vision statique et une vision dynamique des étoiles. Le but de mon travail a été de participer à cet effort en dépasser la vision statique des intérieurs stellaires et via le développement d'outils d'analyse des données des missions spatiales. Ainsi le modèle solaire standard actuel, la représentation théorique de l'intérieur solaire, présente des limites, mises en avant par une récente révision de ses abondances. Nous montrons que l'écart entre le modèle standard et les observations sismiques est fortement dégradé motivant l'introduction de processus dynamiques dans les modèles. Nous avons aussi entrepris l'introduction d'effets magnétiques dans les couches superficielles pour améliorer la prédiction des fréquences et l'analyse sismique. Les missions spatiales astérosismiques, présentes et futures, permettent d'avoir accès à des informations sur la dynamique des étoiles (rotation, convection, . . .). Pour améliorer ces informations contenues dans les spectres d'oscillations, il est nécessaire d'effectuer une bonne identification des modes ainsi qu'une extraction précise de ces paramètres. Nous montrons comment améliorer ceci en développant une analyse du diagramme-échelle basée sur la récente transformée en curvelette. Cette méthode a pu être validées grâce à des simulations ainsi que dans le cadre d'exercices pour la préparation à la mission CoRoT. Nous nous sommes également intéressé à l'étoile Procyon observée par MOST.
|
64 |
Etude théorique de processus photophysiques dans des protéines fluorescentesVallverdu, Germain 16 July 2009 (has links) (PDF)
Cette thèse présente une étude théorique de protéines de la famille de la Green Fluorescent Protein, GFP. Ces protéines permettent grâce à leur propriétés de fluorescence d'explorer un nombre croissant de processus biologiques in vivo. Les approches numériques, complémentaires aux études expérimentales, peuvent apporter une compréhension microscopique des processus mis en jeu et contribuer à l'interprétation des propriétés photophysiques de ces protéines. La première partie de ce manuscrit présente l'étude par simulation moléculaire de l'effet du changement de pH sur la structure de la Cerulean et sur son spectre d'absorption. Ces calculs nous ont permis d'établir que le décalage du spectre d'absorption, observé expérimentalement en fonction du pH, est dû à une isomérisation du chromophore liée au changement de l'orientation de la chaîne latérale d'un acide aminé proche. proteine La deuxième partie de ce manuscrit aborde l'étude d'un mécanisme de désactivation de la fluorescence dans la GFP. Nous avons proposé une approche, combinant des simulations de dynamique moléculaire biaisée et de dynamique brownienne, afin de déterminer la cinétique d'un mécanisme de désactivation de la fluorescence lié à une torsion du chromophore. Nous avons pu obtenir des distributions de temps de nème passage aux géométries critiques et en déduire des informations quantitatives sur le déclin de fluorescence. Les outils développés et leurs futurs développements permettront de progresser dans la compréhension de la relation entre l'isomérisation du chromophore, le pH et le déclin de la fluorescence qui sont étroitement liés dans les protéines fluorescentes.
|
65 |
Analyse de la variabilité de forme des signaux : Application aux signaux électrophysiologiquesBoudaoud, Sofiane 07 December 2006 (has links) (PDF)
Le sujet de la thèse est l'analyse de la variabilité de forme d'un ensemble de signaux avec comme principales applications le traitement des signaux électrophysiologiques mesurés sur la chaîne auditive et le cœur. Cette variabilité de forme des signaux est souvent présente dans les signaux issus de processus naturels et elle est porteuse d'information. Pour accéder à cette information, il est nécessaire de formaliser le concept d'écart de forme et de proposer des outils statistiques spécifiques. Certaines méthodes, issues de la communauté statistique, ont été récemment proposées pour analyser la variabilité présente dans un ensemble de signaux. Ces méthodes travaillent dans un cadre fonctionnel en considérant les données comme des observations de fonctions. Elles cherchent à éliminer la variabilité temporelle dans le but d'accéder à une variabilité d'amplitude par divers algorithmes dit de « recalage de courbes ». Dans cette thèse nous proposons de nouvelles méthodes d'analyse de forme qui utilisent aussi un réalignement temporel (ang : time warping) mais dont le sens diffère des approches de recalage de courbes. De plus, ces méthodes proposent une moyenne de forme et distance de forme permettant la mesure de la variabilité de forme. Au chapitre 1, nous présentons toutes ces méthodes et les comparons afin d'aider l'utilisateur à bien choisir suivant l'application dédiée. <br /><br />Au chapitre 2, nous nous intéressons à la caractérisation objective de l'acouphène, une sensation sonore fantôme. En effet, un problème majeur est l'absence de critère objectif pour le caractériser. Pour cela nous étudions l'activité spontanée composite (ASC) issue du nerf auditif et les potentiels évoqués (PE) issus de relais auditifs en présence de salicylate, un générateur d'acouphènes, chez le cochon d'Inde. La première partie du travail consiste en la présentation d'un modèle de génération de l'ASC. Ce modèle nous sert à tester en simulation des scénarios possibles d'altérations neurosensorielles en présence de salicylate. En complément de l'index spectral décrit dans la littérature, nous proposons d'employer un critère de similarité sur la distribution d'amplitude de l'ASC pour mesurer ces altérations. La seconde partie du chapitre consiste à étudier la variabilité temporelle des PE sur plusieurs relais auditifs en présence de salicylate. <br /><br />Au chapitre 3, nous montrons des applications de détection de pathologies à partir de l'analyse de forme d'une composante spécifique de l'ECG, l'onde P. Les pathologies concernées sont la fibrillation auriculaire et l'apnée du sommeil.
|
66 |
Coévolution dans les systèmes de villes : croissance et spécialisation des aires urbaines françaises de 1950 à 2000Paulus, Fabien 14 December 2004 (has links) (PDF)
Dans quelle mesure les mutations économiques qu'ont connues les pays développés dans la seconde moitié du XXe siècle ont-elles affecté la structure hiérarchique et la différenciation économique du système des villes ? Cette thèse met en œuvre des données et outils inédits pour étudier l'impact du passage d'une société industrielle à une « société de la connaissance » sur l'ensemble des villes françaises.<br /><br />A l'aide de la définition des Aires Urbaines, proposée par l'INSEE, nous montrons que la concentration pluriséculaire de la population dans le système des villes s'est poursuivie. En outre la composante régionale de la répartition de la croissance urbaine, favorisant les villes du sud, s'est accentuée entre 1950 et 2000, si bien que des trajectoires spécifiques de villes se dessinent.<br /><br />L'évolution des spécialisations économiques est par la suite appréciée à l'aide d'analyses multivariées. Celles-ci soulignent la permanence d'une différenciation ancienne des villes, trace de l'inégale diffusion des innovations de la première révolution industrielle. Les modalités d'adaptation des villes au changement économique, qui maintient une structure ancienne, traduisent la coévolution des villes dans le système. Mais nous montrons aussi l'émergence et le renforcement d'une dimension métropolitaine qui combine, pour la première fois dans l'histoire urbaine, taille des villes et spécialisation économique : les plus grandes villes se démarquent en captant préférentiellement les activités emblématiques du cycle d'innovation économique actuel. Ces résultats laissent entrevoir la possibilité d'une modification structurelle.
|
67 |
Exemples de solutions multivoques en statistiquesSebaagh, Lyne 01 June 1983 (has links) (PDF)
Le travail présenté traite d'un point de vue méthodologique nouveau, divers exemples. Pour chacun d'eux, on propose plusieurs solutions ouvrant la voie à la discussion
|
68 |
L'HYPERTEXTE COMME MODE D'EXPLOITATION DES RESULTATS D'OUTILS ET METHODES D'ANALYSE DE L'INFORMATION SCIENTIFIQUE ET TECHNIQUEGrivel, Luc 10 January 2001 (has links) (PDF)
L'analyse de l'Information Scientifique et Technique (IST) stockée dans les bases de données bibliographiques requiert l'exploitation coordonnée de différentes techniques. Deux méthodes permettant de classer et représenter sur une carte thématique un ensemble de documents en se basant sur les mots-clés qui les indexent sont étudiées en profondeur. Ces études montrent que l'analyse et l'interprétation des résultats obtenus par de tels outils supposent un mélange d'exploration informelle intuitive et d'exploitation méthodique de l'information élaborée par ces outils d'analyse. En partant d'une métaphore, la navigation dans un océan d'informations, il est établi la nécessité de construire automatiquement des hypertextes à partir des données à analyser, en leur incorporant une carte de navigation et des indicateurs de positionnement thématique. L'exploration de cette voie débouche sur la conception et le développement d'un système informatique basé sur SGML (Standard Generalized MarkUp Language), HENOCH, qui permet de rassembler et d'organiser dans un SGBD (Système de Gestion de Bases de Données) des données bibliographiques normalisées et traitées par diverses techniques (linguistiques, classificatoires, cartographiques), puis de distribuer ces informations sur INTERNET via une interface de navigation générée automatiquement et adaptée à l'analyse de l'information. Il est montré expérimentalement que le couplage d'un hypertexte et d'un SGBD permet de modéliser et de mettre en place concrètement des mécanismes d'exploration de différentes représentations de l'information qui assistent l'utilisateur dans son interprétation des résultats des méthodes d'analyse. Les hypertextes générés par ce système sont évalué positivement par les utilisateurs de l'INIST-CNRS, où s'est effectué cette recherche. Ils en ont apprécié notamment l'ergonomie de navigation. Ses points faibles se situent au niveau du suivi des évolutions thématiques d'un corpus dans le temps. En guise de conclusion, quelques pistes d'améliorations sont ébauchées.
|
69 |
Résultats et simulation en spectroscopie γ des noyaux déformés : cas des noyaux isomériques et tétraédriquesVancraeyenest, Aurélie 25 October 2010 (has links) (PDF)
Le travail présenté dans ce manuscrit regroupe deux études de spectroscopie γ. La première concerne les isomères des noyaux de néodyme autour de N=82. Ces noyaux, lorsqu'ils sont étudiés par des modèles de type Cranked-Nilsson-Strutinsky, présentent des états énergétiquement favorisés. Ils sont autant de candidats pour la recherche d'isomères de spin. Expérimentalement, un certain nombre d'états isomériques ont déjà été observés dans les noyaux de 138,139,140Nd sur lesquels porte cette étude. Afin de mieux caractériser ces états, une expérience a été menée en août 2009 à Jyväskylä auprès de l'ensemble de détection JUROGAM-RITU-GREAT. La réaction de fusion-évaporation 48Ca + 76Zr 144Nd* réalisée avec une cible mince a permis de produire majoritairement les noyaux 139,140Nd. Les noyaux produits, transportés au plan focal par le spectromètre RITU, sont implantés et le rayonnement émis par la décroissance des isomères est ensuite recueilli par l'ensemble de détection GREAT. Nous développerons l'analyse complète de cette expérience et nous montrerons les résultats émergents. Nous avons, par exemple, pu montrer l'alimentation du niveau 20+ de 140Nd ainsi que le placement énergétique du niveau isomérique du noyau 139Nd. La deuxième partie de ce travail s'articule autour de la recherche de la symétrie tétraédrique dans le noyau 156Gd. Cela a consisté à la fois en un travail de spectroscopie γ des bandes de parité positive de ce noyau, laquelle a fait émerger un certain nombre de nouvelles transitions. Le deuxième volet de cette étude consistait à simuler dans l'environnement ROOT - GEANT4 le seuil d'observation des signaux faibles avec le détecteur de rayonnements γ de nouvelle génération AGATA
|
70 |
Mesure du paramètre de corrélation angulaire bêta-neutrino dans la désintégration de l'6HeVelten, Ph. 24 June 2011 (has links) (PDF)
Le sujet de cette thèse est l'analyse des données de l'expérience LPCTrap d'octobre 2008. L'objectif était de mesurer le coefficient de corrélation angulaire b-v, abv, de la désintégration de l'6He avec une précision de 0.5%. La mise en évidence d'une déviation de la valeur de abv par rapport à la prédiction du Modèle Standard (MS) serait la signature indirecte d'un couplage de type tenseur dans la désintégration faible du noyau 6He qui mettrait en cause la structure V−A adoptée pour décrire l'interaction faible au sein du MS. Un piège de Paul est employé pour confiner les ions 6He+ dans un volume très restreint et pratiquement au repos afin de disposer d'une source de décroissances la mieux définie. La particule et l'ion de recul 6Li++ émis lors de la désintégration sont détectés en coïncidence par des détecteurs placés autour du piège. a bv est déterminé en comparant la distribution expérimentale du temps de vol de l'ion de recul à celle générée par une simulation Monte-Carlo. Durant cette thèse, une simulation basée sur GEANT4 a été développée, qui prend en compte la totalité des effets expérimentaux susceptibles de contribuer à l'erreur systématique de l'estimation de a bv, notamment la diffusion des électrons de basse énergie. Malgré une statistique expérimentale suffisante et une simulation aboutie, une estimation fiable de a bv s'est finalement révélée impossible à obtenir en raison d'un dysfonctionnement du détecteur d'ions. Une étude statistique exploratoire a été entreprise pour préciser le niveau de sensibilité de la technique de mesure aux tests des hypothèses du MS. Les outils développés dans cette thèse seront utilisés pour analyser les expériences futures.
|
Page generated in 0.0186 seconds