• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 14
  • 4
  • Tagged with
  • 18
  • 18
  • 11
  • 11
  • 7
  • 7
  • 6
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Thermosensibilité de la demande électrique : identification de la part non linéaire par couplage d'une modélisation bottom-up et de l'approche bayésienne / Temperature sensitivity of electricity demand : identification of the non linear part by coupling a bottom-up model and bayesian approach

Özkizilkaya, Özlem 12 December 2014 (has links)
La croissance du marché des pompes à chaleur contribue à l'augmentation de la thermosensibilité de la demande électrique. Il devient nécessaire de mieux comprendre l'impact des usages thermosensibles de l'électricité, notamment concernant ceux qui sont corrélés de manière non linéaire à la température extérieure. Dans cette optique, cette thèse vise à construire un cadre de modélisation qui permette i) d'analyser les facteurs d'influence de la thermosensibilité à partir d'une description physique des usages thermosensibles, et ii) de réaliser des diagnostics de ces paramètres d'influence tout en tenant compte des incertitudes associées. Une approche de modélisation hybride qui bénéficie des avantages de modèles statistiques et de modèles physiques est principalement employée pour répondre à ces questions.La première étape consiste à estimer la part thermosensible de la demande réelle par un modèle prédictif top-down. On développe ensuite un modèle d'analyse physique de la thermosensibilité à l'échelle régionale à partir de la thermique du bâtiment. On s'appuie notamment sur des modèles pseudo-physiques de performance de pompes à chaleur qui sont régressés sur des données constructeur ou des mesures de performances réelles. Un COP régional est déterminé pour l'ensemble des PAC installées. Enfin, les paramètres d'influence du modèle de thermosensibilité ainsi développé sont estimés à l'aide de l'approche bayésienne, qui offre un cadre pour le traitement de l'incertitude sous la forme de probabilités. Des coefficients équivalents de déperditions thermiques, une température intérieure équivalente ainsi que les parts du chauffage Joule et par PAC pour le parc de bâtiments régional ont été obtenus. / The growing heat pump market contributes to the increase in temperature sensitivity of electricity demand. It becomes necessary to understand the impact of temperature sensitive end-uses of electricity, including those which are correlated non-linearly to the outside temperature. In this context, this thesis aims to build a modeling framework to i) analyze the influencing factors of the temperature sensitivity of electricity demand from a physical description of temperature-sensitive equipment, and ii) to perform diagnoses of these parameters of influence by taking into account the associated uncertainties. A hybrid modeling approach that benefits the advantages of statistical models and physical models is used to answer these questions.Firstly, the temperature-sensitive part of electricity demand is estimated by a predictive top-down model. Then a physical model to analyze the temperature sensitivity at regional level is developed based on building thermal energy needs. A regional coefficient of performance (COP) is determined for the whole installed heat pumps by using pseudo-physical models which are regressed on manufacturer data or actual performance measures. Finally, the parameters of influence of the developed temperature sensitivity model are estimated using the Bayesian approach which provides a framework for the treatment of uncertainty in the form of probabilities. Equivalent coefficients of heat loss, an equivalent internal temperature, as well as the share of Joule heating and the share of heat pumps for the regional building stock are obtained.
12

Traitement et analyse de séries chronologiques continues de turbidité pour la formulation et le test de modèles des rejets urbains par temps de pluie / Treatment and analysis of continuous turbidities series for the test of urban stormwater quality models

Métadier, Marjolaine 14 February 2011 (has links)
Des approches parcimonieuses sont aujourd'hui développées pour la modélisation de la qualité des rejets urbains par temps de pluie, e adéquation avec la quantité de données disponibles. De plus, l'analyse des incertitudes apparaît comme un outil incontournable pour le test des modèles. Parallèlement, le développement des techniques de mesure en continu en réseau, spectrométrie et turbidité, permet l'obtention de données continues de flux de matières en suspension et de demande chimique en oxygène en grand nombre, apportant une information riche. Ce travail constitue une des premières études en hydrologie urbaine basée sur l'exploitation d'une grande base de données acquises par la mesure de la turbidité. Des mesures sur la période 2004-2008 ont été exploitées sur deux sites. Après traitement et validation, 263 et 239 événements pluvieux ont été retenus. L'analyse des données a permis la formulation d'hypothèses sur la génération des flux pour la proposition de modèles adaptés. Le test de l'approche multi-régression a confirmé la nécessité de construire des modèles locaux, basés sur une analyse approfondie des données. Les meilleurs modèles obtenus sont ceux pour la masse événementielle qui parviennent à reproduire en tendance la variabilité des observations. La méthode bayésienne a été utilisée pour le test d'un modèle d'Accumulation-Erosion-Transfert simple à l'échelle du bassin versant. Les premiers résultats mettent e défaut la structure du modèle testé. Cependant ces premiers tests ont démontré l'efficacité de la procédure d'analyse bayésienne, dont l'application du principe d'apprentissage permet d'améliorer de manière significative les structures des modèles. / More and more urban water managers are tackling the issue of water quality modelling. Current research works focus on parsimonious modelling approaches that match the amount of data available for calibration. Moreover uncertainties analysis now appears as an integrated step and a powerful tool in models testing. In parallel, development of in sewer continuous measurements based on spectrometry and turbidimetry techniques, provides large data base of continuous total suspended solids and chemical oxygen demand concentrations, providing much information on fluxes dynamics. This research work is one of the first studies in urban hydrology based on a large turbidity data base. Data from two sites have been treated and validated, with measurements over the period 2004-2008. 263 and 239 stormwater events were selected for the modelling work for the two sites. Data analysis provided insights for making assumptions on the pollutant fluxes generation and proposing adapted models. Test of multi-regression approach that it is necessary to build local approaches based on detailed data analysis. Best models were obtained for event mass, data variability could be reproduced in trend. Formal Bayesian approach was used for testing a simple global Accumulation-Erosion-Transfer model for Chassieu. First results evidenced the difficulties of the model to reproduce the dynamics variability. This may be due to the simple structure. However these first tests have demonstrated the efficiency of the Bayesian analysis procedure. ln particular, the application of the learning principle showed that model structure can be significantly and efficiently improved.
13

Apprentissage supervisé à partir des multiples annotateurs incertains / Supervised Learning from Multiple Uncertain Annotators

Wolley, Chirine 01 December 2014 (has links)
En apprentissage supervisé, obtenir les réels labels pour un ensemble de données peut être très fastidieux et long. Aujourd'hui, les récentes avancées d'Internet ont permis le développement de services d'annotations en ligne, faisant appel au crowdsourcing pour collecter facilement des labels. Néanmoins, le principal inconvénient de ces services réside dans le fait que les annotateurs peuvent avoir des niveaux d'expertise très hétérogènes. De telles données ne sont alors pas forcément fiables. Par conséquent, la gestion de l'incertitude des annotateurs est un élément clé pour l'apprentissage à partir de multiples annotateurs non experts. Dans cette thèse, nous proposons des algorithmes probabilistes qui traitent l'incertitude des annotateurs et la qualité des données durant la phase d'apprentissage. Trois modèles sont proposés: IGNORE permet de classer de nouvelles instances tout en évaluant les annotateurs en terme de performance d'annotation qui dépend de leur incertitude. X-IGNORE intègre la qualité des données en plus de l'incertitude des juges. En effet, X-IGNORE suppose que la performance des annotateurs dépend non seulement de leur incertitude mais aussi de la qualité des données qu'ils annotent. Enfin, ExpertS répond au problème de sélection d'annotateurs durant l'apprentissage. ExpertS élimine les annotateurs les moins performants, et se base ainsi uniquement sur les labels des bons annotateurs (experts) lors de l'étape d'apprentissage. De nombreuses expérimentations effectuées sur des données synthétiques et réelles montrent la performance et la stabilité de nos modèles par rapport à différents algorithmes de la littérature. / In supervised learning tasks, obtaining the ground truth label for each instance of the training dataset can be difficult, time-consuming and/or expensive. With the advent of infrastructures such as the Internet, an increasing number of web services propose crowdsourcing as a way to collect a large enough set of labels from internet users. The use of these services provides an exceptional facility to collect labels from anonymous annotators, and thus, it considerably simplifies the process of building labels datasets. Nonetheless, the main drawback of crowdsourcing services is their lack of control over the annotators and their inability to verify and control the accuracy of the labels and the level of expertise for each labeler. Hence, managing the annotators' uncertainty is a clue for learning from imperfect annotations. This thesis provides three algorithms when learning from multiple uncertain annotators. IGNORE generates a classifier that predict the label of a new instance and evaluate the performance of each annotator according to their level of uncertainty. X-Ignore, considers that the performance of the annotators both depends on their uncertainty and on the quality of the initial dataset to be annotated. Finally, ExpertS deals with the problem of annotators' selection when generating the classifier. It identifies experts annotators, and learn the classifier based only on their labels. We conducted in this thesis a large set of experiments in order to evaluate our models, both using experimental and real world medical data. The results prove the performance and accuracy of our models compared to previous state of the art solutions in this context.
14

Lois a priori non-informatives et la modélisation par mélange / Non-informative priors and modelization by mixtures

Kamary, Kaniav 15 March 2016 (has links)
L’une des grandes applications de la statistique est la validation et la comparaison de modèles probabilistes au vu des données. Cette branche des statistiques a été développée depuis la formalisation de la fin du 19ième siècle par des pionniers comme Gosset, Pearson et Fisher. Dans le cas particulier de l’approche bayésienne, la solution à la comparaison de modèles est le facteur de Bayes, rapport des vraisemblances marginales, quelque soit le modèle évalué. Cette solution est obtenue par un raisonnement mathématique fondé sur une fonction de coût.Ce facteur de Bayes pose cependant problème et ce pour deux raisons. D’une part, le facteur de Bayes est très peu utilisé du fait d’une forte dépendance à la loi a priori (ou de manière équivalente du fait d’une absence de calibration absolue). Néanmoins la sélection d’une loi a priori a un rôle vital dans la statistique bayésienne et par conséquent l’une des difficultés avec la version traditionnelle de l’approche bayésienne est la discontinuité de l’utilisation des lois a priori impropres car ils ne sont pas justifiées dans la plupart des situations de test. La première partie de cette thèse traite d’un examen général sur les lois a priori non informatives, de leurs caractéristiques et montre la stabilité globale des distributions a posteriori en réévaluant les exemples de [Seaman III 2012]. Le second problème, indépendant, est que le facteur de Bayes est difficile à calculer à l’exception des cas les plus simples (lois conjuguées). Une branche des statistiques computationnelles s’est donc attachée à résoudre ce problème, avec des solutions empruntant à la physique statistique comme la méthode du path sampling de [Gelman 1998] et à la théorie du signal. Les solutions existantes ne sont cependant pas universelles et une réévaluation de ces méthodes suivie du développement de méthodes alternatives constitue une partie de la thèse. Nous considérons donc un nouveau paradigme pour les tests bayésiens d’hypothèses et la comparaison de modèles bayésiens en définissant une alternative à la construction traditionnelle de probabilités a posteriori qu’une hypothèse est vraie ou que les données proviennent d’un modèle spécifique. Cette méthode se fonde sur l’examen des modèles en compétition en tant que composants d’un modèle de mélange. En remplaçant le problème de test original avec une estimation qui se concentre sur le poids de probabilité d’un modèle donné dans un modèle de mélange, nous analysons la sensibilité sur la distribution a posteriori conséquente des poids pour divers modélisation préalables sur les poids et soulignons qu’un intérêt important de l’utilisation de cette perspective est que les lois a priori impropres génériques sont acceptables, tout en ne mettant pas en péril la convergence. Pour cela, les méthodes MCMC comme l’algorithme de Metropolis-Hastings et l’échantillonneur de Gibbs et des approximations de la probabilité par des méthodes empiriques sont utilisées. Une autre caractéristique de cette variante facilement mise en œuvre est que les vitesses de convergence de la partie postérieure de la moyenne du poids et de probabilité a posteriori correspondant sont assez similaires à la solution bayésienne classique / One of the major applications of statistics is the validation and comparing probabilistic models given the data. This branch statistics has been developed since the formalization of the late 19th century by pioneers like Gosset, Pearson and Fisher. In the special case of the Bayesian approach, the comparison solution of models is the Bayes factor, ratio of marginal likelihoods, whatever the estimated model. This solution is obtained by a mathematical reasoning based on a loss function. Despite a frequent use of Bayes factor and its equivalent, the posterior probability of models, by the Bayesian community, it is however problematic in some cases. First, this rule is highly dependent on the prior modeling even with large datasets and as the selection of a prior density has a vital role in Bayesian statistics, one of difficulties with the traditional handling of Bayesian tests is a discontinuity in the use of improper priors since they are not justified in most testing situations. The first part of this thesis deals with a general review on non-informative priors, their features and demonstrating the overall stability of posterior distributions by reassessing examples of [Seaman III 2012].Beside that, Bayes factors are difficult to calculate except in the simplest cases (conjugate distributions). A branch of computational statistics has therefore emerged to resolve this problem with solutions borrowing from statistical physics as the path sampling method of [Gelman 1998] and from signal processing. The existing solutions are not, however, universal and a reassessment of the methods followed by alternative methods is a part of the thesis. We therefore consider a novel paradigm for Bayesian testing of hypotheses and Bayesian model comparison. The idea is to define an alternative to the traditional construction of posterior probabilities that a given hypothesis is true or that the data originates from a specific model which is based on considering the models under comparison as components of a mixture model. By replacing the original testing problem with an estimation version that focus on the probability weight of a given model within a mixture model, we analyze the sensitivity on the resulting posterior distribution of the weights for various prior modelings on the weights and stress that a major appeal in using this novel perspective is that generic improper priors are acceptable, while not putting convergence in jeopardy. MCMC methods like Metropolis-Hastings algorithm and the Gibbs sampler are used. From a computational viewpoint, another feature of this easily implemented alternative to the classical Bayesian solution is that the speeds of convergence of the posterior mean of the weight and of the corresponding posterior probability are quite similar.In the last part of the thesis we construct a reference Bayesian analysis of mixtures of Gaussian distributions by creating a new parameterization centered on the mean and variance of those models itself. This enables us to develop a genuine non-informative prior for Gaussian mixtures with an arbitrary number of components. We demonstrate that the posterior distribution associated with this prior is almost surely proper and provide MCMC implementations that exhibit the expected component exchangeability. The analyses are based on MCMC methods as the Metropolis-within-Gibbs algorithm, adaptive MCMC and the Parallel tempering algorithm. This part of the thesis is followed by the description of R package named Ultimixt which implements a generic reference Bayesian analysis of unidimensional mixtures of Gaussian distributions obtained by a location-scale parameterization of the model. This package can be applied to produce a Bayesian analysis of Gaussian mixtures with an arbitrary number of components, with no need to specify the prior distribution.
15

Observations et Modélisation des systèmes planétaires autour des étoiles proches

Lebreton, Jérémy 06 March 2013 (has links) (PDF)
Les disques de débris orbitant dans l'environnement des étoiles proches constituent un indicateur très important des propriétés des systèmes planétaires extra-solaires. Depuis l'espace et au sol, les moyens observationnels actuels permettent de déterminer dans divers domaines de longueurs d'ondes les propriétés spatiales de ces disques et celles des grains de poussières circumstellaires. Cette thèse aborde le sujet de la modélisation des disques de débris, à partir de données fournies par de multiples instruments, en premier lieu les télescopes spatiaux Hubble et Herschel, et les interféromètres infrarouges du VLTI, CHARA, et KIN. Mes premiers projets ont pris place dans le cadre de deux programmes-clés de l'Observatoire Spatial Herschel dédiés à l'étude des disques circumstellaires autour des étoiles proches. Au sein du projet GASPS, j'ai obtenu des observations spectro-photométriques de HD 181327, une jeune étoile (12[+8\-4] millions d'années, Ma) de type solaire entourée d'un anneau de débris massif de 90 unités astronomique (UA) de rayon vu aussi en lumière diffusée par le télescope spatial Hubble. La bonne détermination de la géométrie de l'anneau permet de se concentrer sur la modélisation de la distribution spectrale d'énergie, afin de mieux caractériser les propriétés des poussières. J'ai utilisé le code de transfert radiatif GRaTer et démontré que le système héberge une population de planétésimaux glacés, qui pourrait représenter une source d'eau et de volatils susceptible d'être libérée sur des planètes telluriques encore en formation. Je discute quelques résultats additionnels obtenus avec Herschel à propos de disques de débris jeunes, notamment HD 32297, et d'analogues faibles de la Ceinture de Kuiper. Les disques exo-zodiacaux (exozodis), analogues du nuage Zodiacal du Système Solaire, représentent une contrepartie chaude (ou tiède) aux disques de débris, résidant proche de la zone habitable (moins de quelques unités astronomiques) et encore mal connue. Ils sont révélés par leur émission proche et moyen infrarouge et peuvent être étudiés avec la précision et la résolution requises grace à l'interférométrie optique. Dans le cas de l'étoile β Pictoris (12[+8\-4] Ma), dont le disque est vu par la tranche, une fraction significative du disque externe diffuse de la lumière vers le champ de vue des interféromètres ; une composante interne chaude doit tout de même être invoquée pour justifier de l'excès mesuré dans l'infrarouge proche. En m'appuyant sur l'exemple de l'étoile Véga (440 ± 40 Ma), je présente la méthodologie employée et démontre que les exozodis chauds se caractérisent par une abondance de poussières sub-microniques, près de la distance de sublimation de l'étoile. D'un point de vue théorique, le mécanisme de production de ces petits grains non-liés est encore incompris. J'aborde plus en détails le cas du disque exozodiacal à deux composantes (chaude et tiède) de Fomalhaut (440 ± 40 Ma). Je développe une nouvelle méthode de calcul des distances de sublimation et recense les processus variés qui peuvent affecter un grain de poussière afin de fournir un cadre pour l'interprétation : l'exozodi chaud à ~0.1 - 0.2 UA serait la signature indirecte d'une ceinture d'astéroïdes située à ~2 UA à l'activité dynamique particulièrement intense. Finalement, je dresse un bilan des propriétés des disques de débris et de ce qu'ils peuvent nous apprendre quand on les compare au Système Solaire, et propose de futures directions de recherche pour explorer davantage les systèmes planétaires et leur dynamique.
16

Modélisation stochastique des marchés financiers et optimisation de portefeuille / Stochastic modeling of financial markets and portfolio optimization

Bonelli, Maxime 08 September 2016 (has links)
Cette thèse présente trois contributions indépendantes. La première partie se concentre sur la modélisation de la moyenne conditionnelle des rendements du marché actions : le rendement espéré du marché. Ce dernier est souvent modélisé à l'aide d'un processus AR(1). Cependant, des études montrent que lors de mauvaises périodes économiques la prédictibilité des rendements est plus élevée. Etant donné que le modèle AR(1) exclut par construction cette propriété, nous proposons d'utiliser un modèle CIR. Les implications sont étudiées dans le cadre d'un modèle espace-état bayésien. La deuxième partie est dédiée à la modélisation de la volatilité des actions et des volumes de transaction. La relation entre ces deux quantités a été justifiée par l'hypothèse de mélange de distribution (MDH). Cependant, cette dernière ne capture pas la persistance de la variance, à la différence des spécifications GARCH. Nous proposons un modèle à deux facteurs combinant les deux approches, afin de dissocier les variations de volatilité court terme et long terme. Le modèle révèle plusieurs régularités importantes sur la relation volume-volatilité. La troisième partie s'intéresse à l'analyse des stratégies d'investissement optimales sous contrainte «drawdown ». Le problème étudié est celui de la maximisation d'utilité à horizon fini pour différentes fonctions d'utilité. Nous calculons les stratégies optimales en résolvant numériquement l'équation de Hamilton-Jacobi-Bellman, qui caractérise le principe de programmation dynamique correspondant. En se basant sur un large panel d'expérimentations numériques, nous analysons les divergences des allocations optimales / This PhD thesis presents three independent contributions. The first part is concentrated on the modeling of the conditional mean of stock market returns: the expected market return. The latter is often modeled as an AR(1) process. However, empirical studies have found that during bad times return predictability is higher. Given that the AR(1) model excludes by construction this property, we propose to use instead a CIR model. The implications of this specification are studied within a flexible Bayesian state-space model. The second part is dedicated to the modeling of stocks volatility and trading volume. The empirical relationship between these two quantities has been justified by the Mixture of Distribution Hypothesis (MDH). However, this framework notably fails to capture the obvious persistence in stock variance, unlike GARCH specifications. We propose a two-factor model of volatility combining both approaches, in order to disentangle short-run from long-run volatility variations. The model reveals several important regularities on the volume-volatility relationship. The third part of the thesis is concerned with the analysis of optimal investment strategies under the drawdown constraint. The finite horizon expectation maximization problem is studied for different types of utility functions. We compute the optimal investments strategies, by solving numerically the Hamilton–Jacobi–Bellman equation, that characterizes the dynamic programming principle related to the stochastic control problem. Based on a large panel of numerical experiments, we analyze the divergences of optimal allocation programs
17

Approche bayésienne de l'évaluation de l'incertitude de mesure : application aux comparaisons interlaboratoires

Demeyer, Séverine 04 March 2011 (has links)
La modélisation par équations structurelles est très répandue dans des domaines très variés et nous l'appliquons pour la première fois en métrologie dans le traitement de données de comparaisons interlaboratoires. Les modèles à équations structurelles à variables latentes sont des modèles multivariés utilisés pour modéliser des relations de causalité entre des variables observées (les données). Le modèle s'applique dans le cas où les données peuvent être regroupées dans des blocs disjoints où chaque bloc définit un concept modélisé par une variable latente. La structure de corrélation des variables observées est ainsi résumée dans la structure de corrélation des variables latentes. Nous proposons une approche bayésienne des modèles à équations structurelles centrée sur l'analyse de la matrice de corrélation des variables latentes. Nous appliquons une expansion paramétrique à la matrice de corrélation des variables latentes afin de surmonter l'indétermination de l'échelle des variables latentes et d'améliorer la convergence de l'algorithme de Gibbs utilisé. La puissance de l'approche structurelle nous permet de proposer une modélisation riche et flexible des biais de mesure qui vient enrichir le calcul de la valeur de consensus et de son incertitude associée dans un cadre entièrement bayésien. Sous certaines hypothèses l'approche permet de manière innovante de calculer les contributions des variables de biais au biais des laboratoires. Plus généralement nous proposons un cadre bayésien pour l'amélioration de la qualité des mesures. Nous illustrons et montrons l'intérêt d'une modélisation structurelle des biais de mesure sur des comparaisons interlaboratoires en environnement. / Structural equation modelling is a widespread approach in a variety of domains and is first applied here to interlaboratory comparisons in metrology. Structural Equation Models with latent variables (SEM) are multivariate models used to model causality relationships in observed variables (the data). It is assumed that data can be grouped into separate blocks each describing a latent concept modelled by a latent variable. The correlation structure of the observed variables is transferred into the correlation structure of the latent variables. A Bayesian approach of SEM is proposed based on the analysis of the correlation matrix of latent variables using parameter expansion to overcome identifiability issues and improving the convergence of the Gibbs sampler. SEM is used as a powerful and flexible tool to model measurement bias with the aim of improving the reliability of the consensus value and its associated uncertainty in a fully Bayesian framework. The approach also allows to compute the contributions of the observed variables to the bias of the laboratories, under additional hypotheses. More generally a global Bayesian framework is proposed to improve the quality of measurements. The approach is illustrated on the structural equation modelling of measurement bias in interlaboratory comparisons in environment.
18

Approche bayésienne de l'évaluation de l'incertitude de mesure : application aux comparaisons interlaboratoires / Bayesian approach for the evaluation of measurement uncertainty applied to interlaboratory comparisons

Demeyer, Séverine 04 March 2011 (has links)
La modélisation par équations structurelles est très répandue dans des domaines très variés et nous l'appliquons pour la première fois en métrologie dans le traitement de données de comparaisons interlaboratoires. Les modèles à équations structurelles à variables latentes sont des modèles multivariés utilisés pour modéliser des relations de causalité entre des variables observées (les données). Le modèle s'applique dans le cas où les données peuvent être regroupées dans des blocs disjoints où chaque bloc définit un concept modélisé par une variable latente. La structure de corrélation des variables observées est ainsi résumée dans la structure de corrélation des variables latentes. Nous proposons une approche bayésienne des modèles à équations structurelles centrée sur l'analyse de la matrice de corrélation des variables latentes. Nous appliquons une expansion paramétrique à la matrice de corrélation des variables latentes afin de surmonter l'indétermination de l'échelle des variables latentes et d'améliorer la convergence de l'algorithme de Gibbs utilisé. La puissance de l'approche structurelle nous permet de proposer une modélisation riche et flexible des biais de mesure qui vient enrichir le calcul de la valeur de consensus et de son incertitude associée dans un cadre entièrement bayésien. Sous certaines hypothèses l'approche permet de manière innovante de calculer les contributions des variables de biais au biais des laboratoires. Plus généralement nous proposons un cadre bayésien pour l'amélioration de la qualité des mesures. Nous illustrons et montrons l'intérêt d'une modélisation structurelle des biais de mesure sur des comparaisons interlaboratoires en environnement. / Structural equation modelling is a widespread approach in a variety of domains and is first applied here to interlaboratory comparisons in metrology. Structural Equation Models with latent variables (SEM) are multivariate models used to model causality relationships in observed variables (the data). It is assumed that data can be grouped into separate blocks each describing a latent concept modelled by a latent variable. The correlation structure of the observed variables is transferred into the correlation structure of the latent variables. A Bayesian approach of SEM is proposed based on the analysis of the correlation matrix of latent variables using parameter expansion to overcome identifiability issues and improving the convergence of the Gibbs sampler. SEM is used as a powerful and flexible tool to model measurement bias with the aim of improving the reliability of the consensus value and its associated uncertainty in a fully Bayesian framework. The approach also allows to compute the contributions of the observed variables to the bias of the laboratories, under additional hypotheses. More generally a global Bayesian framework is proposed to improve the quality of measurements. The approach is illustrated on the structural equation modelling of measurement bias in interlaboratory comparisons in environment.

Page generated in 0.0526 seconds