• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 139
  • 54
  • 13
  • 3
  • Tagged with
  • 204
  • 204
  • 124
  • 112
  • 55
  • 50
  • 34
  • 33
  • 32
  • 32
  • 25
  • 24
  • 23
  • 22
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Analyse bayésienne de la gerbe d'éclats provoquée pa l'explosion d'une bombe à fragmentation naturelle / Bayesian analysis of the sheaf of fragments caused by the explosion of a natural fragmentation bomb

Gayrard, Emeline 14 November 2019 (has links)
Durant cette thèse, une méthode d'analyse statistique sur la gerbe d'éclats d’une bombe, en particulier sur leurs masses, a été mise au point. Nous avions à disposition trois échantillons partiels de données expérimentales et un modèle mécanique simulant l'explosion d'un anneau. Dans un premier temps, un modèle statistique a été créé à partir du modèle mécanique fourni, pour générer des données pouvant être similaires à celles d'une expérience. Après cela, la distribution des masses a pu être étudiée. Les méthodes d'analyse classiques ne donnant pas de résultats suffisamment précis, une nouvelle méthode a été mise au point. Elle consiste à représenter la masse par une variable aléatoire construite à partir d'une base de polynômes chaos. Cette méthode donne de bons résultats mais ne permet pas de prendre en compte le lien entre les éclats d'une même charge. Il a donc été décidé ensuite de modéliser la masse par un processus stochastique, et non par une variable aléatoire. La portée des éclats, qui dépend en partie de la masse, a elle aussi été modélisée par un processus. Pour finir, une analyse de sensibilité a été effectuée sur cette portée avec les indices de Sobol. Ces derniers s'appliquant aux variables aléatoires, nous les avons adaptés aux processus stochastiques de manière à prendre en compte les liens entre les éclats. Dans la suite, les résultats de cette dernière analyse pourront être améliorés. Notamment, grâce à des indices présentés en dernière partie qui seraient adaptés aux variables dépendantes, et permettraient l'utilisation de processus stochastiques à accroissements non indépendants. / During this thesis, a method of statistical analysis on sheaf of bomb fragments, in particular on their masses, has been developed. Three samples of incomplete experimental data and a mechanical model which simulate the explosion of a ring were availables. First, a statistical model based on the mechanical model has been designed, to generate data similar to those of an experience. Then, the distribution of the masses has been studied. The classical methods of analysis being not accurate enough, a new method has been developed. It consists in representing the mass by a random variable built from a basis of chaos polynomials. This method gives good results however it doesn't allow to take into account the link between slivers. Therefore, we decided to model the masses by a stochastic process, and not a random variable. The range of fragments, which depends of the masses, has also been modeled by a process. Last, a sensibility analysis has been carried out on this range with Sobol indices. Since these indices are applied to random variables, it was necessary to adapt them to stochastic process in a way that take into account the links between the fragments. In the last part, it is shown how the results of this analysis could be improved. Specifically, the indices presented in the last part are adapted to dependent variables and therefore, they could be suitable to processes with non independent increases.
42

POLYNOMIAL CHAOS EXPANSION IN BIO- AND STRUCTURAL MECHANICS / MISE EN OEUVRE DU CHAOS POLYNOMIAL EN BIOMECANIQUE ET EN MECANIQUE DES STRUCTURES

Szepietowska, Katarzyna 12 October 2018 (has links)
Cette thèse présente une approche probabiliste de la modélisation de la mécanique des matériaux et des structures. Le dimensionnement est influencé par l'incertitude des paramètres d'entrée. Le travail est interdisciplinaire et les méthodes décrites sont appliquées à des exemples de biomécanique et de génie civil. La motivation de ce travail était le besoin d'approches basées sur la mécanique dans la modélisation et la simulation des implants utilisés dans la réparation des hernies ventrales. De nombreuses incertitudes apparaissent dans la modélisation du système implant-paroi abdominale. L'approche probabiliste proposée dans cette thèse permet de propager ces incertitudes et d’étudier leurs influences respectives. La méthode du chaos polynomial basée sur la régression est utilisée dans ce travail. L'exactitude de ce type de méthodes non intrusives dépend du nombre et de l'emplacement des points de calcul choisis. Trouver une méthode universelle pour atteindre un bon équilibre entre l'exactitude et le coût de calcul est encore une question ouverte. Différentes approches sont étudiées dans cette thèse afin de choisir une méthode efficace et adaptée au cas d’étude. L'analyse de sensibilité globale est utilisée pour étudier les influences des incertitudes d'entrée sur les variations des sorties de différents modèles. Les incertitudes sont propagées aux modèles implant-paroi abdominale. Elle permet de tirer des conclusions importantes pour les pratiques chirurgicales. À l'aide de l'expertise acquise à partir de ces modèles biomécaniques, la méthodologie développée est utilisée pour la modélisation de joints de bois historiques et la simulation de leur comportement mécanique. Ce type d’étude facilite en effet la planification efficace des réparations et de la rénovation des bâtiments ayant une valeur historique. / This thesis presents a probabilistic approach to modelling the mechanics of materials and structures where the modelled performance is influenced by uncertainty in the input parameters. The work is interdisciplinary and the methods described are applied to medical and civil engineering problems. The motivation for this work was the necessity of mechanics-based approaches in the modelling and simulation of implants used in the repair of ventral hernias. Many uncertainties appear in the modelling of the implant-abdominal wall system. The probabilistic approach proposed in this thesis enables these uncertainties to be propagated to the output of the model and the investigation of their respective influences. The regression-based polynomial chaos expansion method is used here. However, the accuracy of such non-intrusive methods depends on the number and location of sampling points. Finding a universal method to achieve a good balance between accuracy and computational cost is still an open question so different approaches are investigated in this thesis in order to choose an efficient method. Global sensitivity analysis is used to investigate the respective influences of input uncertainties on the variation of the outputs of different models. The uncertainties are propagated to the implant-abdominal wall models in order to draw some conclusions important for further research. Using the expertise acquired from biomechanical models, modelling of historic timber joints and simulations of their mechanical behaviour is undertaken. Such an investigation is important owing to the need for efficient planning of repairs and renovation of buildings of historical value.
43

Modélisation, analyse et optimisation de la résilience des infrastructures critiques interdépendantes / Modelling, analysis and optimization of interdependent critical infrastructures resilience

Liu, Xing 13 December 2017 (has links)
La résilience concerne une capacité importante d'un système à résister et à se remettre des événements perturbateurs. L'objectif de cette thèse est de construire un cadre d'analyse et d'optimisation de la résilience des infrastructures critiques interconnectées (ICIs). Dans ce travail, les contributions scientifiques originales comprennent: 1) une approche de modélisation générique pour décrire le comportement dynamique et les processus d'échec en cascade dans les ICIs. 2) basé sur le modèle proposé, une approche quantitative d'évaluation de la résilience de ICIs est développée, où les aspects d'atténuation et de récupération sont évalués; 3) afin de réduire le coût de calcul dans le cas de systèmes à grande échelle, trois méthodes Différentes échelle, trois méthodes différentes d'analyse de sensibilité globale (ANN estimation, ensemble-based, given-data estimation), sont mis en place pour identifier les paramètres de modèle les plus pertinents affectant la résilience du système, puis les performances de ces méthodes sont comparées;4) un modèle hiérarchique est développé pour caractériser les facteurs de stratégies d'amélioration de la résilience. Un problème d’optimisations multi-objectif est formulé et résolu par l'algorithme NSGA-II, afin de fournir un plan optimal pour l'amélioration de la résilience du système. Les méthodes proposées sont mises en œuvre dans les applications, par exemple, un réseau d'alimentation en gaz et un réseau électrique. / Resilience is the ability of a system to resist to and recover from disruptive events. The objective of this thesis is to build a framework of analysis and optimization of interconnected critical infrastructures (ICIs) resilience. In this work, the original scientific contributions include: 1) a generic modeling approach to describe the dynamic behavior and the physical cascading failure processes in ICIs.2) on the basis of the model, a quantitative resilience assessment approach for ICIs is proposed, where both the mitigation and recovery aspects of system resilience are evaluated; 3) in order to reduce the computational cost in the case of large-scale systems, three different global sensitivity analysis methods (ANN estimation, ensemblebased, give-data estimation) are implemented to identify the most relevant model parameters affecting the system resilience, and then the performance of these methods are compared; 4) a hierarchical model is developed to characterize the factors of resilience improvement strategies. A multi-objectives optimization problem is formulated and solved by NSGA-II algorithm, to provide the optimal plan for system resilience improvement. The methods proposed are implemented to applications, e.g., a gas supply network and an electrical power grid.
44

Analyse coût efficacité du pontage coronarien à coeur battant par rapport au pontage aortocoronarien conventionnel

Martin, Janet Frey January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
45

Modélisation de la demande énergétique des bâtiments à l'échelle urbaine : contribution de l'analyse de sensibilité à l'élaboration de modèles flexibles / Modeling energy demand of buildings at urban scale

Garcia Sanchez, David 29 October 2012 (has links)
Pour répondre aux enjeux énergétiques et climatiques, une des échelles d’action pertinentes est désormais celle du quartier ou de la ville. Des besoins de connaissance, d’outils d’aide à la décision et d’évaluation à cette échelle se manifestent de plus en plus. Un des volets concerne la modélisation de la demande d’énergie des bâtiments résidentiels, préalable à la mise en place d’actions de rénovation de l’existant ou à la valorisation de sources d’énergie locales. La diversité de situations de terrains, d’objectifs d’acteurs et de contextes de disponibilité de données incitent à rechercher des modèles flexibles, aptes à produire de l’information pour différentes applications, à partir de jeux alternatifs de données d’entrée, combinant des modèles de natures diverses (notamment physiques et statistiques) selon les besoins. Dans cet esprit, le présent travail cherche à explorer le potentiel de méthodes dites ascendantes, s’appuyant sur des modèles développés à l’origine pour la simulation à l’échelle d’un bâtiment isolé, mais extrapolés ici pour le parc de bâtiments d’une zone urbaine sur la base de bâtiments types. Les deux questions clés abordées sont celles de la sélection des bâtiments types et de la reconstitution des données d’entrée pertinentes sur le plan statistique pour la zone étudiée. Des techniques d’analyse de sensibilité, en particulier la méthode des effets élémentaires de Morris, ont été appliquées à un code de calcul thermique de bâtiment (ESP-r). Elles ont mis en évidence une réponse non linéaire du modèle, notamment du fait des interactions entre paramètres et de la dispersion des paramètres d’entrée. Elles ont permis d’identifier les paramètres les plus sensibles et les plus en interaction (concernant les bâtiments eux-mêmes, leur environnement ou leurs habitants), sur lesquels doit être concentré le travail de collecte ou de reconstitution statistique. Un modèle, dénommé MEDUS, de reconstitution de la distribution des besoins de chaleur sur un quartier à partir de trois typologies de bâtiments, a été développé et testé sur le secteur St-Félix à Nantes. Il est alimenté par des données INSEE à l’échelle d’un IRIS. Ses résultats sont analysés, à la fois sous l’angle de la pertinence des typologies choisies et dans une perspective d’application à l’échelle du quartier. / Urban scale is now considered as one of the most relevant scales to face energy and climate challenges. Specific needs for knowledge, decision making tools and evaluation are identified at urban scale. Modelling energy demand from residential buildings is one key aspect, priorto energy retrofitting of existing building asset or to valorisation of local energy sources. Diversity of local contexts, stake holder goals and data availability lead to search flexible models, with ability to produce information for different applications, from alternative input data sets, combining different types of basic models (namely both physical and statistical ones), according to user needs. The present work is exploring the potential of bottom-up approaches, based on engineering models, developed originally for isolated buildings. These models are extrapolated for the complete set of buildings in a city or neighbourhood, based on building archetypes. Two key questions tackled are the selection of suitable archetypes and the reconstitution of relevant input data, statistically representative for the area of interest Sensitivity analysis techniques have been applied to a thermal simulation programme (ESP-r), particularly the Morris elementary effects method. A non-linear response of the model has been emphasized, caused by scattering of input parameters and interaction effects. The most influencing and interacting parameters have been identified. They concern the buildings themselves, their environment and the inhabitants. Data collection or statistical reconstitution must be concentrated in priority to these main parameters. A model of the heat demand at a neighbourhood scale has been developed and tested on the sector St-Félix in Nantes. It is called MEDUS (Modelling Energy Demand at Urban Scale). Application is based on three building archetypes. Census data (INSEE) available at the sector scale are the main input data. Results are analyzed both to check archetype relevancy and to study a possible application for evaluating actions at sector scale, such as energy retrofitting.
46

Propagation d'incertitudes et analyse de sensibilité pour la modélisation de l'infiltration et de l'érosion / Uncertainty propagation and sensitivity analysis for infiltration and erosion modeling

Rousseau, Marie 17 December 2012 (has links)
Nous étudions la propagation et la quantification d'incertitudes paramétriques au travers de modèles hydrologiques pour la simulation des processus d'infiltration et d'érosion en présence de pluie et/ou de ruissellement. Les paramètres incertains sont décrits dans un cadre probabiliste comme des variables aléatoires indépendantes dont la fonction de densité de probabilité est connue. Cette modélisation probabiliste s'appuie sur une revue bibliographique permettant de cerner les plages de variations des paramètres. L'analyse statistique se fait par échantillonage Monte Carlo et par développements en polynômes de chaos. Nos travaux ont pour but de quantifier les incertitudes sur les principales sorties du modèle et de hiérarchiser l'influence des paramètres d'entrée sur la variabilité de ces sorties par une analyse de sensibilité globale. La première application concerne les effets de la variabilité et de la spatialisation de la conductivité hydraulique à saturation du sol dans le modèle d'infiltration de Green--Ampt pour diverses échelles spatiales et temporelles. Notre principale conclusion concerne l'importance de l'état de saturation du sol. La deuxième application porte sur le modèle d'érosion de Hairsine--Rose. Une des conclusions est que les interactions paramétriques sont peu significatives dans le modèle de détachement par la pluie mais s'avèrent importantes dans le modèle de détachement par le ruissellement / We study parametric uncertainty propagation and quantification in hydrological models for the simulation of infiltration and erosion processes in the presence of rainfall and/or runoff. Uncertain input parameters are treated in a probabilistic framework, considering them as independent random variables defined by a fixed probability density function. This probabilistic modeling is based on a literature review to identify the range of variation of input parameters. The output statistical analysis is realized by Monte Carlo sampling and by polynomial chaos expansions. Our analysis aims at quantifying uncertainties in model outputs and establishing a hierarchy within input parameters according to their influence on output variability by means of global sensitivity analysis. The first application concerns the variability and spatial localization of the soil saturated hydraulic conductivity in the Green-Ampt infiltration model at different spatial and temporal scales. Our main conclusion is the importance of the soil saturation state. The second application deals with the Harisine--Rose erosion model. One conclusion is that the parametric interactions are not significant in the rainfall detachment model, but they prove to be important in the runoff detachment model
47

Etude régionale des crues éclair de l'arc méditerranéen français. Elaboration de méthodologies de transfert à des bassins versants non jaugés / Flash floods in the french mediterranean region ; toward transfer methodologies for ungauged catchments

Garambois, Pierre-André 23 November 2012 (has links)
D’un point de vue climatique la région méditerranéenne est propice aux évènements pluvio-orageux intenses, particulièrement en automne. Ces pluies s’abattent sur des bassins versants escarpés. La promptitude des crues ne laisse qu’un temps très court pour la prévision. L’amplitude de ces crues dépend de la grande variabilité des pluies et des caractéristiques des bassins versants. Les réseaux d'observations ne sont habituellement pas adaptés à ces petites échelles spatiales et l'intensité des événements affecte souvent la fiabilité des données quand elles existent d’où l’existence de bassin non jaugés. La régionalisation en hydrologie s’attache à la détermination de variables hydrologiques aux endroits où ces données manquent. L’objectif de cette thèse est de contribuer à poser les bases d’une méthodologie adaptée à la transposition des paramètres d'un modèle hydrologique distribué dédié aux crues rapides de bassins versants bien instrumentés à des bassins versants non jaugés, et ce sur une large zone d’étude. L’outil utilisé est le modèle hydrologique distribué MARINE [Roux et al., 2011] dont l’une des originalités est de disposer d’un modèle adjoint permettant de mener à bien des calibrations et des analyses de sensibilité spatio-temporelles qui servent à améliorer la compréhension des mécanismes de crue et à l’assimilation de données en temps réel pour la prévision. L’étude des sensibilités du modèle MARINE aborde la compréhension des processus physiques. Une large gamme de comportements hydrologiques est explorée. On met en avant quelques types de comportements des bassins versants pour la région d’étude [Garambois et al., 2012a]. Une sélection des évènements de calibration et une technique de calibration multi évènements aident à l’extraction d’un jeu de paramètres par bassin versant. Ces paramétrisations sont testées sur des évènements de validation. Une méthode de décomposition de la variance des résultats conduit aux sensibilités temporelles du modèle à ses paramètres. Cela permet de mieux appréhender la dynamique des processus physiques rapides en jeu lors de ces crues [Garambois et al., 2012c]. Les paramétrisations retenues sont transférées à l’aide de similarités hydrologiques sur des bassins versants non jaugés, à des fins de prévision opérationnelle / Climate and orography in the Mediterranean region tend to promote intense rainfalls, particularly in autumn. Storms often hit steep catchments. Flood quickness only let a very short time lapse for forecasts. Peak flow intensity depends on the great variability of rainfalls and catchment characteristics. As a matter of facts, observation networks are not adapted to these small space-time scales and event severity often affects data fiability when they exist thus the notion of ungauged catchment emerges. Regionalization in hydrology seeks to determine hydrological variables at locations where these data lack. This work contributes to pose the bases of a methodology adapted to transpose parameterizations of a flash flood dedicated distributed hydrologic model from gauged catchments to ungauged ones, and for a large study area. The MARINE distributed hydrologic model is used [Roux et al., 2011], its originality lies in the automatically differentiated adjoint model able to perform calibrations and spatial-temporal sensitivity analysis, in order to improve understanding in flash flood generating mechanisms and real time data assimilation for hydrometeorological forecasts. MARINE sensitivity analysis addresses the question of physical process understanding. A large panel of hydrologic behaviours is explored. General catchment behaviours are highlighted for the study area [Garambois et al., 2012a]. Selected flood events and a multiple events calibration technique help to extract catchment parameter sets. Those parameterizations are tested on validation events. A variance decomposition method leads to parameter temporal sensitivity analysis. It enables better understanding in catching dynamics of physical processes involved in flash floods formation [Garambois et al., 2012c]. Parameterizations are then transfered from gauged catchments with hydrologic similarity to ungauged ones with a view to develop real time flood forecasting
48

Modélisation du bilan carboné et hydrique d’une forêt méditerranéenne à structure complexe : de l'année au siècle / Carbon and water budget modelling for a highly structured mediterranean forest : from years to century

Marie, Guillaume 19 September 2014 (has links)
Le bilan de carbone des écosystèmes forestiers implique de nombreux processus, rendant difficile la prédiction de leurs réponses aux changements climatiques. A des échelles larges, les processus écologiques ne peuvent être modélisés que de manière simplifiée et doivent donc se focaliser sur les processus importants. Par ailleurs, le développement de forêts mélangées est de plus en plus encouragé. Or ce type de forêt présente des degrés de complexité supplémentaires. D'une part la structuration du couvert en 3D est susceptible d'influencer les flux de carbone, et d'autre part les espèces coexistantes peuvent répondre de manière différentes aux changements climatiques. La forêt de Font-Blanche constitue un cas d'étude original car elle est spatialement hétérogène. De plus, les modèles climatiques prédisent une réduction importante des précipitations au cours du XXIe siècle en région méditerranéenne. Mais l'échelle du siècle peu être exigeante en temps de calcul lorsqu'on veut à prendre en compte la structure de la canopée. Dans cette these j'ai donc modifié le domaine d'utilisation d'un modèle d'écosystème méchaniste, de l'année au siècle, grâce à la technique méta-modélisation. Le méta-modéle a donné de bons résultats qui m'ont permis de réaliser une étude d'impact du changement climatique à l'échelle du siècle, sur la forest de Font-Blanche. Les résultats montrent que la représentation spatiale du couvert et l'effet de rétroiaction du bilan hydrique, jouent un rôle important et ne peuvent pas être simplifiés à long-terme à cause de la dynamique des espèces qui la composent qui représente la plus grande source de variations du bilan de carbone. / The carbon balance of forest ecosystems involves many complex processes. At larger scales, ecological processes can not be modelled in a simplified way, but these have not been clearly identified. Furthermore, the development of mixed forest is increasingly promoted and this type of stand has additional degrees of complexity. On the one hand, complex canopy structure is likely to influence carbon fluxes, and other coexisting species may respond differently to climate change. Font-Blanche forest is an original case study that has not been studied in modelling because of its heterogeneity. In add, climate models predict significant reductions in rainfall during the 21st century for the Mediterranean region; But the century time scale maybe very demanding in computation time if ones want to taking into account the canopy structure. Then in this thesis we are modified a 3D mechanistic forest ecosystem model (noTG) to extend its temporal scale from year to century, thanks to meta-modelling technique. The meta-modelling gives good results and we used the meta-modeled version of noTG (notgmeta) to predict carbon and water balance of Font-blanche forest between 2008-2100 according to differents climate change scenario. According to model simplification, we find that photosynthesis, soil respiration and plant respiration are stimulated until 2100 with a decrease of this stimulation at the end of the simulation. We find that spatial representation of canopy and feedback effect of the water balance plays an important role and can not be simplified in the long-term simulation since the dynamics of species represents the largest source of carbon balance variations.
49

Analyse des sensibilités des modèles internes de crédit pour l'étude de la variabilité des RWA / Sensitivity analysis of credit models for the assessment of the RWA variability

Sestier, Michael 04 October 2017 (has links)
Suite à la crise de 2007-2009, des études menées par le Comité de Bâle ont montré une grande dispersion des actifs pondérés du risque (RWA) entre les banques, dont une part significative proviendrait des hypothèses des modèles internes. De nouvelles réglementations visant à trouver un équilibre entre bonne représentation des risques, simplicité des approches et comparabilité ont dès lors été développées. Celles-ci proposent notamment l'ajout de contraintes sur les modèles/paramètres pour l'évaluation interne des RWA de crédit des portefeuilles bancaire et de négociation. Dans ce contexte, ces travaux de thèse consistent principalement en l'analyse de la pertinence de ces contraintes pour la réduction de la variabilité des RWA. Ils font largement recours aux méthodes d'analyses des sensibilités, notamment celles basées sur les décompositions de Hoeffding. Le traitement réglementaire des paramètres de crédit (les corrélations des défauts, les probabilités de défaut -PD -et les taux de perte en cas de défaut -LGD) forme la colonne vertébrale des développements. Au final, les conclusions des études menées semblent indiquer des résultats mitigés des réforn1es. D'une part, les contraintes sur les corrélations pour le portefeuille de négociation sont d'un impact faible sur la réduction de la variabilité des RWA. D'autre part, les contraintes sur les paramètres de PD et de LGD, ayant un impact plus important sur la réduction de la variabilité des RWA, devraient être considérées avec plus de prudence. La thèse fournit enfin des preuves que la variabilité est amplifiée par la mesure du risque réglementaire et les multiples sources de données de calibration des modèles. / In the aftermath of the 2007-2009 crisis, several studies led by the Base! Committee showed a large dispersion of risk-weighted assets (RWA) among banks, a significant part of which would come from the internal model's assumptions. Consequently, new regulations aiming at finding a balance between risk sensitivity, simplicity and comparability have then been developed. These ones notably include constraints on models / parameters for the internal assessment of the credit RWA for both the banking and the trading books. ln this context, the thesis work mainly consists in analyzing the relevance of such constraints to reduce the RWA variability. It makes extensive use of sensitivity analysis methods, particularly the ones based on the Hoeffding's decomposition. Regulatory treatments of the credit parameters (default correlations, default probabilities -DP -and loss given default -LGD) form the backbone of the developments. The findings suggest mixed results of the reforms. On the one hand, the constraints on the correlations for the trading book have a low impact on the RWA variability. On the other hand, the constraints on OP and LGD parameters, having a greater impact on the RWA variability, should be considered with more caution. The studies finally provide evidence that variability is amplified by the regulatory measurement of the risk and the multiple sources of calibration data.javascript:nouvelleZone('abstract');_ajtAbstract('abstract');
50

Stratégies palliatives à la non-randomisation en santé mentale : score de propension et techniques d’ajustement apparentées. Méthodologie appliquée à la prise en compte des facteurs de confusion dans le cas de la schizophrénie / Palliative management to non-randomisation in Mental Health : propensity score and related control methods. Methodology applied in the field of schizophrenia

Sarlon, Emmanuelle 09 January 2014 (has links)
Objectif : L’objectif est l’étude de plusieurs méthodes de prise en compte des facteurs de confusion, mesurés ou non mesurés, ce en situation observationnelle de population de patients psychotiques ou schizophrènes. Méthodes : Deux méthodes ont été utilisées : le score de propension (adaptés aux données mesurées) et les analyses de sensibilité (pour les informations non mesurées). Le champ d’application est celui de l’épidémiologie clinique en psychiatrie, et plus spécifiquement celui de la schizophrénie. Le développement s’appuie sur trois parties successives. La première partie met en exergue la question de la discussion du biais résiduel. Pour cela, on s’appuie sur les résultats d’une étude transversale d’exposition à un facteur contextuel (la prison), ce dans le cadre de la présence de troubles psychotiques (au sens axe DSM IV), à partir d’une méthodologie d’ajustement conventionnelle classique. La deuxième partie est une comparaison d’une technique d’ajustement classique à un ajustement par score de propension. Pour cela, on utilise les résultats issus d’une étude de cohorte avec la survenue d’un évènement selon l’exposition à un traitement en population schizophrène, à partir de l’utilisation du score de propension comme outil d’ajustement. La troisième partie est une synthèse sur la modélisation de l’incertitude et des biais de confusion non mesurés multiples. Les théories et méthodes sont décrites, puis appliquées aux résultats des deux études précédentes. Résultats : L’étude transversale, dont les résultats non montrés jusqu’à présent, permet de poser la problématique de la qualité de l’ajustement dans le cadre d’une exposition à un facteur en situation observationnelle. L’étude de cohorte permet de comparer une technique d’ajustement classique à un ajustement par score de propension (SP). Nous avons étudié plusieurs méthodes d’ajustement (multivarié standard, avec ajustement sur SP, avec appariement sur SP). Et nous mettons en évidence que, selon la méthode d’ajustement utilisée, les résultats obtenus sont différents. La méthode de stratification sur SP semble être la meilleure. Les méthodes de prise en compte des facteurs de confusion non mesurés sont ensuite étudiées. Une première étape fait état de l’apport des théories probabilistes et des techniques apparentées, ensuite une combinaison de ces théories est proposée avec une application pratique aux deux études présentées précédemment. Conclusion : Dans le cas des études observationnelles, l’objectif de ce travail a été d’étudier, de décrire et d’appliquer des techniques de modélisation pour mieux prendre en compte les différences initiales, potentiellement source de confusion. C’est un travail à la frontière entre la méthodologie, les biostatistiques et l’épidémiologie. Nous nous appuyons sur des difficultés rencontrées, en pratique en épidémiologie psychiatrique (pathologies mentales à étiologies multifactorielles et interdépendantes) pour proposer une approche pragmatique de la prise en compte optimale des facteurs de confusion potentiels, mesurés ou non mesurés. / Objective : To evaluate control methods for measured or unmeasured confusion bias, in observational situation of psychotic or schizophrenic patients. Methods : Propensity score method (for measured confusion bias) and analyses of sensibility (for unmeasured confusion bias) were applied in the field of psychiatric epidemiology, specifically in schizophrenia. In first, the question of residual bias was underlined by the results of a transversal study. The exposition at a contextual parameter (prison) was studied in link with psychotic disorders (DSM IV), with a classic control method.Second, to lead to an unbiased estimation of treatment effect, we compared a classic control method with a method based on propensity score. These approach were applied to a cohort of French schizophrenic patients where we studied the event (relapse) by the treatment exposition (polypharmacy or not).Third, we developed a synthesis on modelisation of uncertainty and non-measured confusion bias. Theories and methods were described, and then applied on results of previous studies. Results : The transversal study, with non-demonstrated results still then, allow us to reach the question of control quality in the case of exposition to a parameter in observational situation. The cohort study permit to compare a classic control method and propensity score (PS). We highlighted different results according to some control method. Stratification method on PS seemed to be the best method to predict relapse according to treatment exposition. Non-measured bias control methods were then described. And a combination of probabilistic methods was applied to the previous studies. Conclusion : In the case of observational studies, the objective was to study, to describe and to apply modelisation methods to take in account differences at baseline, potentially source of confusion bias. This research is at the crossroads of methodology, biostatistics and epidemiology.

Page generated in 0.4952 seconds