• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 327
  • 163
  • 35
  • 1
  • Tagged with
  • 517
  • 265
  • 108
  • 94
  • 92
  • 84
  • 80
  • 79
  • 75
  • 74
  • 61
  • 59
  • 58
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
441

Prédiction d’états mentaux futurs à partir de données de phénotypage numérique

Jean, Thierry 12 1900 (has links)
Le phénotypage numérique mobilise les nombreux capteurs du téléphone intelligent (p. ex. : accéléromètre, GPS, Bluetooth, métadonnées d’appels) pour mesurer le comportement humain au quotidien, sans interférence, et les relier à des symptômes psychiatriques ou des indicateurs de santé mentale. L’apprentissage automatique est une composante intégrale au processus de transformation de signaux bruts en information intelligible pour un clinicien. Cette approche émerge d’une volonté de caractériser le profil de symptômes et ses variations dans le temps au niveau individuel. Ce projet consistait à prédire des variables de santé mentale (p. ex. : stress, humeur, sociabilité, hallucination) jusqu’à sept jours dans le futur à partir des données du téléphone intelligent pour des patients avec un diagnostic de schizophrénie. Le jeu de données CrossCheck, composé d’un échantillon de 62 participants, a été utilisé. Celui-ci inclut 23,551 jours de signaux du téléphone avec 29 attributs et 6364 autoévaluations de l’état mental à l’aide d’échelles ordinales à 4 ancrages. Des modèles prédictifs ordinaux ont été employés pour générer des prédictions discrètes interprétables sur l’échelle de collecte de données. Au total, 240 modèles d’apprentissage automatique ont été entrainés, soit les combinaisons de 10 variables de santé mentale, 3 horizons temporels (même jour, prochain jour, prochaine semaine), 2 algorithmes (XGBoost, LSTM) et 4 tâches d’apprentissage (classification binaire, régression continue, classification multiclasse, régression ordinale). Les modèles ordinaux et binaires ont performé significativement au-dessus du niveau de base et des deux autres tâches avec une erreur moyenne absolue macro entre 1,436 et 0,767 et une exactitude balancée de 58% à 73%. Les résultats montrent l’effet prépondérant du débalancement des données sur la performance prédictive et soulignent que les mesures n’en tenant pas compte surestiment systématiquement la performance. Cette analyse ancre une série de considérations plus générales quant à l’utilisation de l’intelligence artificielle en santé. En particulier, l’évaluation de la valeur clinique de solutions d’apprentissage automatique présente des défis distinctifs en comparaison aux traitements conventionnels. Le rôle grandissant des technologies numériques en santé mentale a des conséquences sur l’autonomie, l’interprétation et l’agentivité d’une personne sur son expérience. / Digital phenotyping leverages the numerous sensors of smartphones (e.g., accelerometer, GPS, Bluetooth, call metadata) to measure daily human behavior without interference and link it to psychiatric symptoms and mental health indicators. Machine learning is an integral component of processing raw signals into intelligible information for clinicians. This approach emerges from a will to characterize symptom profiles and their temporal variations at an individual level. This project consisted in predicting mental health variables (e.g., stress, mood, sociability, hallucination) up to seven days in the future from smartphone data for patients with a diagnosis of schizophrenia. The CrossCheck dataset, which has a sample of 62 participants, was used. It includes 23,551 days of phone sensor data with 29 features, and 6364 mental state self-reports on 4-point ordinal scales. Ordinal predictive models were used to generate discrete predictions that can be interpreted using the guidelines from the clinical data collection scale. In total, 240 machine learning models were trained, i.e., combinations of 10 mental health variables, 3 forecast horizons (same day, next day, next week), 2 algorithms (XGBoost, LSTM), and 4 learning tasks (binary classification, continuous regression, multiclass classification, ordinal regression). The ordinal and binary models performed significantly better than the baseline and the two other tasks with a macroaveraged mean absolute error between 1.436 and 0.767 and a balanced accuracy between 58% and 73%. Results showed a dominant effect of class imbalance on predictive performance and highlighted that metrics not accounting for it lead to systematic overestimation of performance. This analysis anchors a series of broader considerations about the use of artificial intelligence in healthcare. In particular, assessing the clinical value of machine learning solutions present distinctive challenges when compared to conventional treatments. The growing role of digital technologies in mental health has implication for autonomy, sense-making, and agentivity over one’s experience.
442

Family, work and welfare states in Europe: women's juggling with multiple roles :a series of empirical essays / Famille, emploi et état-providence: la jonglerie des femmes avec leurs multiples rôles

O'Dorchai, Sile Padraigin 24 January 2007 (has links)
The general focus of this thesis is on how the family, work and the welfare system are intertwined. A major determinant is the way responsibilities are shared by the state, the market and civil society in different welfare state regimes. An introductory chapter will therefore be dedicated to the development of the social dimension in the process of European integration. A first chapter will then go deeper into the comparative analysis of welfare state regimes, to comment on the provision of welfare in societies with a different mix of state, market and societal welfare roles and to assess the adequacy of existing typologies as reflections of today’s changed socio-economic, political and gender reality. Although they stand strong on their own, these first two chapters also contribute to contextualising the research subject of the remainder of the thesis: the study and comparison of the differential situation of women and men and of mothers and non-mothers on the labour markets of the EU-15 countries as well as of the role of public policies with respect to the employment penalties faced by women, particularly in the presence of young children. In our analysis, employment penalties are understood in three ways: (i) the difference in full-time equivalent employment rates between mothers and non-mothers, (ii) the wage penalty associated with motherhood, and (iii) the wage gap between part-time and full-time workers, considering men and women separately. Besides from a gender point of view, employment outcomes and public policies are thus assessed comparatively for mothers and non-mothers. Because women choose to take part in paid employment, fertility rates will depend on their possibilities to combine employment and motherhood. As a result, motherhood-induced employment penalties and the role of public policies to tackle them should be given priority attention, not just by scholars, but also by politicians and policy-makers. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
443

Base de données sur la qualité des rejets urbains de temps de pluie : distribution de la pollution rejetée, dimensions des ouvrages d'interception

Saget, Agnès 16 December 1994 (has links) (PDF)
Les rejets urbains par temps de pluie entraînent des dégradations importantes dans les milieux récepteurs où ils sont rejetés sans traitement préalable. Parmi les campagnes de mesure françaises, effectuées depuis les années 70 à l'exutoire de bassins séparatifs ou unitaires, 17 d'entre elles ont été sélectionnées pour être intégrées dans la base de données constituée au CERGRENE avec l'aide financière de l'Agence de l'Eau Seine-Normandie. Son exploitation a pour objectifs de caractériser la pollution rejetée par temps de pluie (évaluation de masses annuellement rejetées, identification des caractéristiques des événements pluvieux les mieux reliées aux concentrations et aux masses par événement, description des événements les plus pollués, répartition de la masse en cours d'écoulement) et de fournir des éléments sur les dimensions des ouvrages de traitement. Il a fallu tout d'abord reconstituer les caractéristiques des événements pluvieux qui manquaient (volume écoulé, concentration moyenne ou masse produite). Pour cela, des équations de régression ont été établies site par site. Les ajustements obtenus ne sont pas tous de bonne qualité, à cause du nombre réduit de mesures disponibles ou du type des événements utilisés. Quand ils ne sont pas représentatifs de l'ensemble des événements de la campagne, la fiabilité des équations n'est pas assurée et leur domaine d'application ne contient pas tous les événements. Les masses annuelles ont pu être évaluées pour chaque site grâce aux reconstitutions précédentes. L'emploi des équations de régression a permis d'établir des intervalles de confiance autour des valeurs. Ces intervalles sont souvent très larges, et le nombre de sites est assez restreint. Par conséquent, la seule relation qui apparaît est celle qui est la plus évidente et qui existe entre les masses annuelles et les surfaces des sites. Concernant la répartition des masses de pollution en cours d'écoulement, leur forme est très variable d'un événement à un autre, sur un site donné. En moyenne, la pollution contenue dans la première partie de l'écoulement est légèrement supérieure à celle de la deuxième partie. Il y a néanmoins un nombre non négligeable d'événements pour lesquels la majeure partie de la masse de pollution est rejetée en fin d'écoulement. Lorsqu'on compare les sites, la pollution contenue dans les premiers flots (dans 20% de l'écoulement) varie sur les sites unitaires dans des intervalles qui sont les mêmes que sur les sites séparatifs. Pour traiter les rejets urbains de temps de pluie, des ouvrages de décantation (par stockage ou par traitement au fil de l'eau) sont reconnus être des outils efficaces. Nous avons calculé la masse interceptée par des ouvrages fictifs en faisant varier leurs dimensions (respectivement volume de stockage ou débit de traitement suivant le type d'ouvrage). Les reconstitutions utilisées conduisent à des intervalles de confiance très larges. Les résultats dépendent de la période de retour des événements pluvieux qui ont été utilisés. En première approximation, pour intercepter 80% de la masse produite sur une durée d'environ un an, il faut des volumes de l'ordre de 100 m3/ha act ou des débits de l'ordre de 10 1/s/ha act. Pour préciser ces chiffres, il faudrait disposer de longues séries d'événement de plusieurs années. Il serait alors possible en fonction de l'objectif (par exemple intercepter l'événement dont la période de retour est fixée ou intercepter la pollution rejetée pendant une année de pluviométrie moyenne) d'indiquer quelle dimension est la plus efficace.
444

Initialiser et calibrer un modèle de microsimulation dynamique stochastique : application au modèle SimVillages

Lenormand, Maxime 12 December 2012 (has links) (PDF)
Le but de cette thèse est de développer des outils statistiques permettant d'initialiser et de calibrer les modèles de microsimulation dynamique stochastique, en partant de l'exemple du modèle SimVillages (développé dans le cadre du projet Européen PRIMA). Ce modèle couple des dynamiques démographiques et économiques appliquées à une population de municipalités rurales. Chaque individu de la population, représenté explicitement dans un ménage au sein d'une commune, travaille éventuellement dans une autre, et possède sa propre trajectoire de vie. Ainsi, le modèle inclut-il des dynamiques de choix de vie, d'étude, de carrière, d'union, de naissance, de divorce, de migration et de décès. Nous avons développé, implémenté et testé les modèles et méthodes suivants : 1 / un modèle permettant de générer une population synthétique à partir de données agrégées, où chaque individu est membre d'un ménage, vit dans une commune et possède un statut au regard de l'emploi. Cette population synthétique est l'état initial du modèle. 2 / un modèle permettant de simuler une table d'origine-destination des déplacements domicile-travail à partir de données agrégées. 3 / un modèle permettant d'estimer le nombre d'emplois dans les services de proximité dans une commune donnée en fonction de son nombre d'habitants et de son voisinage en termes de service. 4 / une méthode de calibration des paramètres inconnus du modèle SimVillages de manière à satisfaire un ensemble de critères d'erreurs définis sur des sources de données hétérogènes. Cette méthode est fondée sur un nouvel algorithme d'échantillonnage séquentiel de type Approximate Bayesian Computation.
445

New statistical methods to assess the effect of time-dependent exposures in case-control studies

Cao, Zhirong 12 1900 (has links)
Contexte. Les études cas-témoins sont très fréquemment utilisées par les épidémiologistes pour évaluer l’impact de certaines expositions sur une maladie particulière. Ces expositions peuvent être représentées par plusieurs variables dépendant du temps, et de nouvelles méthodes sont nécessaires pour estimer de manière précise leurs effets. En effet, la régression logistique qui est la méthode conventionnelle pour analyser les données cas-témoins ne tient pas directement compte des changements de valeurs des covariables au cours du temps. Par opposition, les méthodes d’analyse des données de survie telles que le modèle de Cox à risques instantanés proportionnels peuvent directement incorporer des covariables dépendant du temps représentant les histoires individuelles d’exposition. Cependant, cela nécessite de manipuler les ensembles de sujets à risque avec précaution à cause du sur-échantillonnage des cas, en comparaison avec les témoins, dans les études cas-témoins. Comme montré dans une étude de simulation précédente, la définition optimale des ensembles de sujets à risque pour l’analyse des données cas-témoins reste encore à être élucidée, et à être étudiée dans le cas des variables dépendant du temps. Objectif: L’objectif général est de proposer et d’étudier de nouvelles versions du modèle de Cox pour estimer l’impact d’expositions variant dans le temps dans les études cas-témoins, et de les appliquer à des données réelles cas-témoins sur le cancer du poumon et le tabac. Méthodes. J’ai identifié de nouvelles définitions d’ensemble de sujets à risque, potentiellement optimales (le Weighted Cox model and le Simple weighted Cox model), dans lesquelles différentes pondérations ont été affectées aux cas et aux témoins, afin de refléter les proportions de cas et de non cas dans la population source. Les propriétés des estimateurs des effets d’exposition ont été étudiées par simulation. Différents aspects d’exposition ont été générés (intensité, durée, valeur cumulée d’exposition). Les données cas-témoins générées ont été ensuite analysées avec différentes versions du modèle de Cox, incluant les définitions anciennes et nouvelles des ensembles de sujets à risque, ainsi qu’avec la régression logistique conventionnelle, à des fins de comparaison. Les différents modèles de régression ont ensuite été appliqués sur des données réelles cas-témoins sur le cancer du poumon. Les estimations des effets de différentes variables de tabac, obtenues avec les différentes méthodes, ont été comparées entre elles, et comparées aux résultats des simulations. Résultats. Les résultats des simulations montrent que les estimations des nouveaux modèles de Cox pondérés proposés, surtout celles du Weighted Cox model, sont bien moins biaisées que les estimations des modèles de Cox existants qui incluent ou excluent simplement les futurs cas de chaque ensemble de sujets à risque. De plus, les estimations du Weighted Cox model étaient légèrement, mais systématiquement, moins biaisées que celles de la régression logistique. L’application aux données réelles montre de plus grandes différences entre les estimations de la régression logistique et des modèles de Cox pondérés, pour quelques variables de tabac dépendant du temps. Conclusions. Les résultats suggèrent que le nouveau modèle de Cox pondéré propose pourrait être une alternative intéressante au modèle de régression logistique, pour estimer les effets d’expositions dépendant du temps dans les études cas-témoins / Background: Case-control studies are very often used by epidemiologists to assess the impact of specific exposure(s) on a particular disease. These exposures may be represented by several time-dependent covariates and new methods are needed to accurately estimate their effects. Indeed, conventional logistic regression, which is the standard method to analyze case-control data, does not directly account for changes in covariate values over time. By contrast, survival analytic methods such as the Cox proportional hazards model can directly incorporate time-dependent covariates representing the individual entire exposure histories. However, it requires some careful manipulation of risk sets because of the over-sampling of cases, compared to controls, in case-control studies. As shown in a preliminary simulation study, the optimal definition of risk sets for the analysis of case-control data remains unclear and has to be investigated in the case of time-dependent variables. Objective: The overall objective is to propose and to investigate new versions of the Cox model for assessing the impact of time-dependent exposures in case-control studies, and to apply them to a real case-control dataset on lung cancer and smoking. Methods: I identified some potential new risk sets definitions (the weighted Cox model and the simple weighted Cox model), in which different weights were given to cases and controls, in order to reflect the proportions of cases and non cases in the source population. The properties of the estimates of the exposure effects that result from these new risk sets definitions were investigated through a simulation study. Various aspects of exposure were generated (intensity, duration, cumulative exposure value). The simulated case-control data were then analysed using different versions of Cox’s models corresponding to existing and new definitions of risk sets, as well as with standard logistic regression, for comparison purpose. The different regression models were then applied to real case-control data on lung cancer. The estimates of the effects of different smoking variables, obtained with the different methods, were compared to each other, as well as to simulation results. Results: The simulation results show that the estimates from the new proposed weighted Cox models, especially those from the weighted Cox model, are much less biased than the estimates from the existing Cox models that simply include or exclude future cases. In addition, the weighted Cox model was slightly, but systematically, less biased than logistic regression. The real life application shows some greater discrepancies between the estimates of the proposed Cox models and logistic regression, for some smoking time-dependent covariates. Conclusions: The results suggest that the new proposed weighted Cox models could be an interesting alternative to logistic regression for estimating the effects of time-dependent exposures in case-control studies.
446

Inférence doublement robuste en présence de données imputées dans les enquêtes

Picard, Frédéric 02 1900 (has links)
L'imputation est souvent utilisée dans les enquêtes pour traiter la non-réponse partielle. Il est bien connu que traiter les valeurs imputées comme des valeurs observées entraîne une sous-estimation importante de la variance des estimateurs ponctuels. Pour remédier à ce problème, plusieurs méthodes d'estimation de la variance ont été proposées dans la littérature, dont des méthodes adaptées de rééchantillonnage telles que le Bootstrap et le Jackknife. Nous définissons le concept de double-robustesse pour l'estimation ponctuelle et de variance sous l'approche par modèle de non-réponse et l'approche par modèle d'imputation. Nous mettons l'emphase sur l'estimation de la variance à l'aide du Jackknife qui est souvent utilisé dans la pratique. Nous étudions les propriétés de différents estimateurs de la variance à l'aide du Jackknife pour l'imputation par la régression déterministe ainsi qu'aléatoire. Nous nous penchons d'abord sur le cas de l'échantillon aléatoire simple. Les cas de l'échantillonnage stratifié et à probabilités inégales seront aussi étudiés. Une étude de simulation compare plusieurs méthodes d'estimation de variance à l'aide du Jackknife en terme de biais et de stabilité relative quand la fraction de sondage n'est pas négligeable. Finalement, nous établissons la normalité asymptotique des estimateurs imputés pour l'imputation par régression déterministe et aléatoire. / Imputation is often used in surveys to treat item nonresponse. It is well known that treating the imputed values as observed values may lead to substantial underestimation of the variance of the point estimators. To overcome the problem, a number of variance estimation methods have been proposed in the literature, including appropriate versions of resampling methods such as the jackknife and the bootstrap. We define the concept of doubly robust point and variance estimation under the so-called nonresponse and imputation model approaches. We focus on jackknife variance estimation, which is widely used in practice. We study the properties of several jackknife variance estimators under both deterministic and random regression imputation. We first consider the case of simple random sampling without replacement. The case of stratified simple random sampling and unequal probability sampling is also considered. A limited simulation study compares various jackknife variance estimators in terms of bias and relative stability when the sampling fraction is not negligible. Finally, the asymptotic normality of imputed estimator is established under both deterministic and random regression imputation.
447

Étude des déterminants démographiques de l’hypotrophie fœtale au Québec

Fortin, Émilie 04 1900 (has links)
Cette recherche vise à décrire l’association entre certaines variables démographiques telles que l’âge de la mère, le sexe, le rang de naissance et le statut socio-économique – représenté par l’indice de Pampalon – et l’hypotrophie fœtale au Québec. L’échantillon est constitué de 127 216 naissances simples et non prématurées ayant eu lieu au Québec entre le 1er juillet 2000 et le 30 juin 2002. Des régressions logistiques portant sur le risque d’avoir souffert d’un retard de croissance intra-utérine ont été effectuées pour l’ensemble du Québec ainsi que pour la région socio-sanitaire (RSS) de Montréal. Les résultats révèlent que les enfants de premier rang et les enfants dont la mère était âgée de moins de 25 ans ou de 35 ans et plus lors de l’accouchement ont un risque plus élevé de souffrir d’hypotrophie fœtale et ce dans l’ensemble du Québec et dans la RSS de Montréal. De plus, les résultats démontrent que le risque augmente plus la mère est défavorisée. Puisque l’indice de Pampalon est un proxy écologique calculé pour chaque aire de diffusion, les intervenants en santé publique peuvent désormais cibler géographiquement les femmes les plus à risque et adapter leurs programmes de prévention en conséquence. Ainsi, le nombre de cas d’hypotrophie fœtale, voire même la mortalité infantile, pourraient être réduits. / This study describes the association between demographic variables such as the mother’s age, the child’s gender and birth order, and the socio-economic status – that can now be assessed by the Pampalon Index – with intrauterine growth restriction (IUGR) in the province of Quebec. The analyses are based on a sample of 127,216 singletons and term births that occurred in the province of Quebec between July 1st, 2000 and June 30th, 2002. Logistics regressions on the risk of having suffered from IUGR were produced for the entire province of Quebec and for the health region of Montreal. In the province of Quebec and in the health region of Montreal, the results reveal that the risk of IUGR is higher for first-born infants, and for infants whose mother was under 25 years of age or aged 35 years and older. Moreover, the risk of IUGR increases with poverty. Since the Pampalon Index is calculated for each dissemination area, public health interventions can now target the most vulnerable women and reduce the number of IUGR cases or even infant mortality.
448

Facteurs de risque de chutes chez les aînés vivant dans la communauté et ayant recours aux services de soutien à domicile : covariables dépendantes du temps et événements récurrents

Leclerc, Bernard-Simon 09 1900 (has links)
Les chutes chez les personnes âgées représentent un problème majeur. Il n’est donc pas étonnant que l’identification des facteurs qui en accroissent le risque ait mobilisé autant d’attention. Les aînés plus fragiles ayant besoin de soutien pour vivre dans la communauté sont néanmoins demeurés le parent pauvre de la recherche, bien que, plus récemment, les autorités québécoises en aient fait une cible d’intervention prioritaire. Les études d’observation prospectives sont particulièrement indiquées pour étudier les facteurs de risque de chutes chez les personnes âgées. Leur identification optimale est cependant compliquée par le fait que l’exposition aux facteurs de risque peut varier au cours du suivi et qu’un même individu peut subir plus d’un événement. Il y a 20 ans, des chercheurs ont tenté de sensibiliser leurs homologues à cet égard, mais leurs efforts sont demeurés vains. On continue aujourd’hui à faire peu de cas de ces considérations, se concentrant sur la proportion des personnes ayant fait une chute ou sur le temps écoulé jusqu’à la première chute. On écarte du coup une quantité importante d’information pertinente. Dans cette thèse, nous examinons les méthodes en usage et nous proposons une extension du modèle de risques de Cox. Nous illustrons cette méthode par une étude des facteurs de risque susceptibles d’être associés à des chutes parmi un groupe de 959 personnes âgées ayant eu recours aux services publics de soutien à domicile. Nous comparons les résultats obtenus avec la méthode de Wei, Lin et Weissfeld à ceux obtenus avec d’autres méthodes, dont la régression logistique conventionnelle, la régression logistique groupée, la régression binomiale négative et la régression d’Andersen et Gill. L’investigation est caractérisée par des prises de mesures répétées des facteurs de risque au domicile des participants et par des relances téléphoniques mensuelles visant à documenter la survenue des chutes. Les facteurs d’exposition étudiés, qu’ils soient fixes ou variables dans le temps, comprennent les caractéristiques sociodémographiques, l’indice de masse corporelle, le risque nutritionnel, la consommation d’alcool, les dangers de l’environnement domiciliaire, la démarche et l’équilibre, et la consommation de médicaments. La quasi-totalité (99,6 %) des usagers présentaient au moins un facteur à haut risque. L’exposition à des risques multiples était répandue, avec une moyenne de 2,7 facteurs à haut risque distincts par participant. Les facteurs statistiquement associés au risque de chutes incluent le sexe masculin, les tranches d’âge inférieures, l’histoire de chutes antérieures, un bas score à l’échelle d’équilibre de Berg, un faible indice de masse corporelle, la consommation de médicaments de type benzodiazépine, le nombre de dangers présents au domicile et le fait de vivre dans une résidence privée pour personnes âgées. Nos résultats révèlent cependant que les méthodes courantes d’analyse des facteurs de risque de chutes – et, dans certains cas, de chutes nécessitant un recours médical – créent des biais appréciables. Les biais pour les mesures d’association considérées proviennent de la manière dont l’exposition et le résultat sont mesurés et définis de même que de la manière dont les méthodes statistiques d’analyse en tiennent compte. Une dernière partie, tout aussi innovante que distincte de par la nature des outils statistiques utilisés, complète l’ouvrage. Nous y identifions des profils d’aînés à risque de devenir des chuteurs récurrents, soit ceux chez qui au moins deux chutes sont survenues dans les six mois suivant leur évaluation initiale. Une analyse par arbre de régression et de classification couplée à une analyse de survie a révélé l’existence de cinq profils distinctifs, dont le risque relatif varie de 0,7 à 5,1. Vivre dans une résidence pour aînés, avoir des antécédents de chutes multiples ou des troubles de l’équilibre et consommer de l’alcool sont les principaux facteurs associés à une probabilité accrue de chuter précocement et de devenir un chuteur récurrent. Qu’il s’agisse d’activité de dépistage des facteurs de risque de chutes ou de la population ciblée, cette thèse s’inscrit dans une perspective de gain de connaissances sur un thème hautement d’actualité en santé publique. Nous encourageons les chercheurs intéressés par l’identification des facteurs de risque de chutes chez les personnes âgées à recourir à la méthode statistique de Wei, Lin et Weissfeld car elle tient compte des expositions variables dans le temps et des événements récurrents. Davantage de recherches seront par ailleurs nécessaires pour déterminer le choix du meilleur test de dépistage pour un facteur de risque donné chez cette clientèle. / Falls in the elderly represent a major problem. It is therefore not surprising that the identification of factors that may increase the risk of falls has received much attention. Frailer seniors who need support to live in the community remained nonetheless poorly documented, although more recently, the Québec authorities have given high priority to interventions that target this population. Risk factors for falls are usually identified by observational prospective studies. Their optimal identification is however complicated by the fact that exposure may vary during the follow-up, and that an individual may experience more than one event. Twenty years ago, some researchers attempted to sensitize their peers in this respect, but their efforts were vain. Researchers continue today to neglect these considerations and to use improper statistical techniques, focusing on the proportion of fallers or the time to first fall. In doing so, we discard a significant amount of relevant information. In this thesis, we review the existing methods and propose a Cox hazards extension. We apply it in the study of potential fall-risk factors associated with 959 community-dwelling seniors using home-care services. Finally, we compare the results of the proposed Wei, Lin, & Weissfeld (WLW) method with those of several other techniques, notably the conventional logistic regression, the pooled logistic regression, the negative binomial regression and the Andersen & Gill regression. At baseline and every six months thereafter, participants were visited at home in order to ascertain information about potential risk factors. Falls were monitored by use of a calendar and monthly phone calls. Baseline exposure variables and updated time-varying exposures include socio-demographic characteristics, BMI, nutritional risk, gait and balance, alcohol consumption, home hazards, and medications. Almost all (99.6%) of participants showed at least one high risk factor. Exposure to multiple risks was frequent, with an average of 2.7 different high-risk factors per participant. The risk factors significantly associated to the risk of falling include male sex, age, history of falling, Berg balance score, BMI, use of benzodiazepines, number of home hazards and residential facility for seniors. Results demonstrate that the usual methods of analyzing risk factors for falling (any sort of fall as well as those leading to medical consultations) are inappropriate, as they produce considerable biases relative to the WLW model using time-dependent covariates. Bias for the considered effect measures comes from the manner in which the observed data (both measured exposures and health outcomes) was measured and defined as well as the way in which the statistical analysis took into account this information. An additional part of the thesis was undertaken to identify risk profiles of subjects regarding the recurrence of falling, defined as participants who reported at least two falls within six months of initial assessment at entry in the study. A classification and regression tree analysis classified the population into five groups differing in risk of recurrent falling, based on history of falls in the three months prior to the initial interview, Berg balance score, type of housing, and usual alcohol consumption in the six months preceding study entry. The relative risks varied from 0.7 to 5.1. A subsequent survival analysis showed that the length of time before becoming a recurrent faller varies among risk profiles. This thesis discusses highly topical subjects about a target population and a fall-risk screening activity which are priorities in the public health sector in Québec. We encourage researchers interested in the identification of risk of falls among the elderly to use the statistical method of Wei, Lin and Weissfeld because it takes into account updated time-varying exposures and multiple events. More research will be necessary to determine the best screening test for a given risk-factor in this setting and population.
449

Surveillance de maladies chroniques à l'aide des données administratives : cas de l'asthme au Québec

Koné, Anna Josette January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
450

Statistiques appliquées en chirurgie cardiaque adulte : analyses de survie et applications du “propensity score”

Stevens, Louis-Mathieu 05 1900 (has links)
L'objectif principal de ce travail est d’étudier en profondeur certaines techniques biostatistiques avancées en recherche évaluative en chirurgie cardiaque adulte. Les études ont été conçues pour intégrer les concepts d'analyse de survie, analyse de régression avec “propensity score”, et analyse de coûts. Le premier manuscrit évalue la survie après la réparation chirurgicale de la dissection aigüe de l’aorte ascendante. Les analyses statistiques utilisées comprennent : analyses de survie avec régression paramétrique des phases de risque et d'autres méthodes paramétriques (exponentielle, Weibull), semi-paramétriques (Cox) ou non-paramétriques (Kaplan-Meier) ; survie comparée à une cohorte appariée pour l’âge, le sexe et la race utilisant des tables de statistiques de survie gouvernementales ; modèles de régression avec “bootstrapping” et “multinomial logit model”. L'étude a démontrée que la survie s'est améliorée sur 25 ans en lien avec des changements dans les techniques chirurgicales et d’imagerie diagnostique. Le second manuscrit est axé sur les résultats des pontages coronariens isolés chez des patients ayant des antécédents d'intervention coronarienne percutanée. Les analyses statistiques utilisées comprennent : modèles de régression avec “propensity score” ; algorithme complexe d'appariement (1:3) ; analyses statistiques appropriées pour les groupes appariés (différences standardisées, “generalized estimating equations”, modèle de Cox stratifié). L'étude a démontrée que l’intervention coronarienne percutanée subie 14 jours ou plus avant la chirurgie de pontages coronariens n'est pas associée à des résultats négatifs à court ou long terme. Le troisième manuscrit évalue les conséquences financières et les changements démographiques survenant pour un centre hospitalier universitaire suite à la mise en place d'un programme de chirurgie cardiaque satellite. Les analyses statistiques utilisées comprennent : modèles de régression multivariée “two-way” ANOVA (logistique, linéaire ou ordinale) ; “propensity score” ; analyses de coûts avec modèles paramétriques Log-Normal. Des modèles d’analyse de « survie » ont également été explorés, utilisant les «coûts» au lieu du « temps » comme variable dépendante, et ont menés à des conclusions similaires. L'étude a démontrée que, après la mise en place du programme satellite, moins de patients de faible complexité étaient référés de la région du programme satellite au centre hospitalier universitaire, avec une augmentation de la charge de travail infirmier et des coûts. / The main objective of this work is to study in depth advanced biostatistical techniques in adult cardiac surgery outcome research. The studies were designed to incorporate the concepts of survival analysis, regression analysis with propensity score, and cost analysis. The first manuscript assessed survival, and cardiovascular specific mortality, following surgical repair of acute ascending aortic dissection. The statistical analyses included survival analyses with multiphase parametric hazard regression and other parametric (exponential, Weibull), semi-parametric (Cox) or non-parametric models (Kaplan Meier), comparison with the survival of a matched cohort for age, gender and race using State lifetables, and modelization with bootstrapping and multinomial logit models. The study showed that the early and late survival following surgical repair has improved progressively over 25 years in association with noticeable changes in surgical techniques and preoperative diagnostic testing. The second manuscript focused on outcomes following isolated coronary artery bypass grafting in patients with a history of percutaneous coronary intervention. The statistical analyses included multivariable regression models with propensity score, complex matching algorithm (1:3) and appropriate statistical analyses for matched groups (standardized differences, generalized estimating equations, and survival analyses with stratified proportional hazards models). The study showed that remote prior percutaneous coronary intervention more than 14 days before coronary artery bypass grafting surgery was not associated with adverse outcomes at short or long-term follow-up. The third manuscript evaluated the financial consequences and the changes in case mix that occurred at an academic medical center subsequent to the implementation of a satellite cardiac surgery program. The statistical analyses included two-way ANOVA multivariable regression models (logistic, linear or ordinal), propensity score, and cost analyses using Log-Normal parametric models. “Survival” analyses models were also explored, using “cost” instead of “time” as the outcome of interest, and led to similar conclusions. The study showed that, after implementation of the satellite cardiac surgery program, fewer patients of lower complexity came to the academic medical center from the satellite program area, with a significant increase in nursing workload and costs.

Page generated in 0.0812 seconds