• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 13
  • 2
  • Tagged with
  • 32
  • 16
  • 12
  • 10
  • 10
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Estimation bayésienne empirique pour les plans d'expérience non équilibrés

El-Habti, Ahmed 06 1900 (has links) (PDF)
Dans notre travail de mémoire, nous présentons l'approche bayésienne empirique dans l'inférence statistique. Les premiers articles dans ce domaine ont été publiés par Rabbins (1951, 1955, 1980). Robbins a utilisé une méthode non paramétrique (Maritz et Lwin (1989)) pour estimer la densité marginale. Plus tard, Morris (1983) a introduit l'approche paramétrique bayésienne empirique (voir aussi Efron et Morris (1973) (a), Casella (1985)). Nous décrivons les deux approches pour l'estimation de la moyenne de la loi gaussienne, de la loi de Poisson et de la loi exponentielle. Pour le cas gaussien, nous adaptons une méthodologie proposée par Angers (1992) pour l'estimation bayésienne hiérarchique à l'estimation bayésienne empirique dans le but d'obtenir des estimations plus robustes. Nous nous intéressons à l'estimation de la moyenne gaussienne et de la moyenne de la loi de Poisson quand les tailles des groupes sont inégales. Pour le cas gaussien, nous utilisons un estimateur du type James-Stein d'après Berger et Bock (1976) pour incorporer les tailles inégales. Dans le cas de la loi de Poisson, nous utilisons une méthode proposée par Maritz et Lwin (1989). Nous étudions également les estimateurs bayésiens empiriques pour estimer une moyenne exponentielle. Pour ce cas, nous avons introduit un nouvel estimateur bayésien empirique qui semble prometteur. Dans le cas gaussien, nous illustrons les approches en utilisant des banques de données pertinentes. Dans les autres cas, nous effectuons les études de simulation. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Analyse bayésienne, bayésien empirique, estimateur de stein, estimateur minimax, plans d'expérience non équilibrés.
2

Estimation et prévision améliorées du paramètre d'une loi binomiale

Nemiri, Ahmed 03 1900 (has links) (PDF)
Dans ce mémoire, on présente une étude sur l'estimation et la prévision du paramètre binomial. Le Chapitre 1 traite de l'estimation ponctuelle et de la prévision du paramètre binomial. En suivant l'approche de Brown (2008a), on commence ce chapitre par la description de six estimateurs : trivial, moyenne générale, Bayes empirique paramétrique avec la méthode des moments, Bayes empirique paramétrique avec la méthode du maximum de vraisemblance, Bayes empirique non paramétrique et James-Stein. Ensuite, on évalue ces estimateurs en se servant de la base de données de baseball 2005 de Brown (2008b) et on finit par la comparaison des performances de ces estimateurs entre elles, selon leurs écarts quadratiques totaux normalisés. Le Chapitre 2 traite de l'estimation par intervalle de confiance et de la prévision du paramètre binomial. Dans ce chapitre, on étudie cinq intervalles de confiance en suivant l'approche de Brown, Cai et DasGupta (1999) et (2001) : standard ICs, Wilson ICw, Agresti-Coull ICac, maximum de vraisemblance ICrv et Jeffreys bilatéral ICj. En premier, vu l'importance particulière de l'intervalle standard, on calcule théoriquement, avec un n modéré, la déviation du biais, de la variance et des coefficients d'asymétrie et d'aplatissement de la variable aléatoire Wn = (n1/2(p-p) / √pq) loi→ N (0,1) par rapport à leurs valeurs asymptotiques correspondantes 0, 1, 0 et 3. Ensuite, on approxime la probabilité de couverture et la longueur moyenne de chacun des cinq intervalles de confiance mentionnés plus haut par un développement d'Edgeworth d'ordres 1 et 2. Enfin, en se servant de la même base de données de baseball 2005, on détermine ces intervalles ainsi que leurs probabilités de couverture et leurs longueurs moyennes et on compare leurs performances entre elles, selon leurs probabilités de couverture et leurs longueurs moyennes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : estimateur de Bayes empirique paramétrique, méthode des moments, méthode du maximum de vraisemblance, estimateur de Bayes empirique non paramétrique, estimateur de James-Stein, développement d'Edgeworth d'ordres 1 et 2, intervalle de Wald (standard), intervalle de Wilson , intervalle d'Agresti-Coull, intervalle du rapport de vraisemblance, intervalle de Jeffreys bilatéral, programmes en R.
3

Recherche d'une représentation des données efficace pour la fouille des grandes bases de données

Boullé, Marc 24 September 2007 (has links) (PDF)
La phase de préparation du processus de fouille des données est critique pour la qualité des résultats et consomme typiquement de l'ordre de 80% d'une étude. Dans cette thèse, nous nous intéressons à l'évaluation automatique d'une représentation, en vue de l'automatisation de la préparation des données. A cette fin, nous introduisons une famille de modèles non paramétriques pour l'estimation de densité, baptisés modèles en grille. Chaque variable étant partitionnée en intervalles ou groupes de valeurs selon sa nature numérique ou catégorielle, l'espace complet des données est partitionné en une grille de cellules résultant du produit cartésien de ces partitions univariées. On recherche alors un modèle où l'estimation de densité est constante sur chaque cellule de la grille. Du fait de leur très grande expressivité, les modèles en grille sont difficiles à régulariser et à optimiser. Nous avons exploité une technique de sélection de modèles selon une approche Bayesienne et abouti à une évaluation analytique de la probabilité a posteriori des modèles. Nous avons introduit des algorithmes d'optimisation combinatoire exploitant les propriétés de notre critère d'évaluation et la faible densité des données en grandes dimensions. Ces algorithmes ont une complexité algorithmique garantie, super-linéaire en nombre d'individus. Nous avons évalué les modèles en grilles dans de nombreux contexte de l'analyse de données, pour la classification supervisée, la régression, le clustering ou le coclustering. Les résultats démontrent la validité de l'approche, qui permet automatiquement et efficacement de détecter des informations fines et fiables utiles en préparation des données.
4

Régression robuste bayésienne à l'aide de distributions à ailes relevées

Schiller, Ian January 2008 (has links) (PDF)
Dans ce mémoire nous nous intéressons à des méthodes d'estimations robustes de la pente de la droite de régression linéaire simple ainsi que du paramètre d'échelle de la densité des erreurs en présence de valeurs aberrantes dans l'échantillon de données. Une revue des méthodes d'estimations des paramètres de la droite de régression est présentée. Nous y analysons numériquement les différentes méthodes afin de décrire le comportement des estimateurs en présence d'une valeur aberrante dans l'échantillon. Une méthode d'estimation bayésienne est présentée afin d'estimer la pente de la droite de régression lorsque le paramètre d'échelle est connu. Nous exprimons le problème d'estimation de la pente de la droite de régression en un problème d'estimation d'un paramètre de position, ce qui nous permet d'utiliser les résultats de robustesse bayésienne pour un paramètre de position. Le comportement de cet estimateur est ensuite étudié numériquement lorsqu'il y a une valeur aberrante dans l'échantillon de données. Enfin, nous explorons une méthode bayésienne d'estimation simultanée du paramètre d'échelle et de la pente de la droite de régression. Nous exprimons le problème comme une estimation des paramètres de position et échelle même si les résultats de robustesse bayésienne pour ce cas ne sont pas encore publiés. Nous étudions tout de même le comportement des estimateurs de façon numérique. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Régression linéaire, Inférence bayésienne, Robustesse, Valeurs aberrantes, Densités à ailes relevées, Densités GEP (Generalized exponential power), P-credence.
5

Essais en finance internationale

Zhang, Lin January 2009 (has links) (PDF)
Cette thèse traite trois questions en finance internationale: (i) les effets du défaut partiel relatif à la dette souveraine sur le partage du risque international, (ii) la coordination imparfaite avec des créanciers multiples asymétriquement informés et ses implications politiques pour résoudre le problème de coordination lié à la dette souveraine, et (iii) le rendement empirique d'un modèle pour une petite économie ouverte avec l'indexation de salaire partiel lorsque les coûts de ressources entraînés par les dispersions des prix et des salaires sont considérés. Le chapitre l introduit le défaut partiel dans un modèle de deux pays afin de résoudre l'anomalie relative aux corrélations croisées de la consommation. Principalement, les modèles standard de cycles réels internationaux génèrent des corrélations croisées de la consommation qui sont plus élevées que celles de l'output, tandis que dans les données l'opposé est vrai. Le défaut partiel est introduit en supposant qu'un pays défaillant est exclu temporairement à l'accès aux marchés financiers internationaux, et a la possibilité de renégocier ses dettes. Le modèle généralise la sanction d'exclusion permanente au cas de défaut utilisée dans les modèles de cycles réels internationaux avec des marchés incomplets endogènes. Dans ces modèles, bien que le partage du risque international soit davantage réduit, l'anomalie liée aux corrélations croisées de la consommation reste irrésolue. De plus, la menace d'exclusion n'est ni crédible dans un contexte de finance globalisée, ni cohérente avec les faits observés que le défaut est plutôt partiel que complet, et que les emprunteurs souverains peuvent emprunter après les défauts. Les résultats démontrent que: (i) la différence entre la corrélation croisée de la consommation et celle de l'output est décroissante par rapport au nombre de périodes d'exclusion; (ii) le modèle avec défaut partiel peut générer la différence qui concorde bien avec celle dans les données. Le chapitre II analyse la coordination imparfaite avec des créanciers multiples dans un jeu global et ses implications politiques pour résoudre le problème de coordination lié à la dette souveraine. Des créanciers plus informés ou plus optimistes réduisent-ils la vulnérabilité d'un projet à la ruée des créanciers? Pour répondre à cette question, nous développons un modèle dans lequel un grand créancier et un continuum de petits créanciers indépendamment décident de reéchelonner la dette ou de liquider à la base de leurs informations privées sur la liquidité de l'emprunteur et la rentabilité du projet jusqu'à sa maturité. Nos résultats montrent qu'une amélioration de la qualité des informations ou une perception plus optimiste sur la rentabilité du projet de la part du grand créancier augmente la volonté de reéchelonner leurs dettes des petits créanciers, et donc réduit la probabilité de défaut du projet. Au niveau national, le problème de coordination est souvent résolu par la cour sur la faillite, tandis que dans un contexte international, telle institution supranationale n'existe pas. Le modèle développé dans ce chapitre permet d'évaluer les mécanismes conçus pour résoudre le problème de coordination relatif à la dette souveraine. Nous proposons également un mécanisme qui génère le même résultat qu'une cour nationale sur la faillite. Le chapitre III développe un modèle d'une petite économie ouverte dans lequel l'indexation partielle est permise, et l'estime avec les données canadiennes utilisant les techniques d'estimation Bayésienne. Les travaux empiriques avec les modèles d'équilibre général stochastique et dynamique tels que Christiano, Eichenbaum et Evans (2005) imposent que les salaires et les prix non-ajustés sont complètement indexés à l'inflation retardée. Cette spécification a l'avantage de concorder avec l'inflation positive tendancielle observée dans les données sans nécessiter de considérer les coûts de ressources entraînés par les dispersions des prix et des salaires. Pourtant, l'évidence empirique pour appuyer cette spécification est manquante. Par contre, la base de données sur les conventions collectives au Canada montre que seulement une petite proportion de contrats de travail contient des clauses d'indexation aux coûts de la vie. Les résultats montrent que: (i) les salaires sont partiellement indexés à l'inflation retardée; (ii) le rendement empirique décroit avec une version du modèle dans lequel les salaires sont complètement indexés à l'inflation retardée; (iii) le modèle avec indexation partielle capte bien la dynamique de l'économie canadienne. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Cycles réels internationaux, Défaut partiel, Coordination, Dette souveraine, Petite économie ouverte, Inférence Bayésienne.
6

Consolidation de l'information hydrologique disponible localement et régionalement pour l'estimation probabiliste du régime des crues

Ribatet, Mathieu 10 December 2007 (has links) (PDF)
Le praticien, lors de l'étape de prédétermination des débits de crue, est souvent confronté à un jeu de données restreint. Dans notre travail de recherche, nous avons proposé trois nouveaux modèles probabilistes spécialement conçus pour l'estimation des caractéristiques du régime des crues en contexte partiellement jaugé. Parmi ces modèles, deux d'entre eux sont des modèles dits régionaux, i.e. intégrant de l'information en provenance de stations ayant un comportement réputé similaire à celui du site étudié. Ces modèles, basés sur la théorie Bayésienne, ont montré une grande robustesse au degré d'hétérogénéité des sites appartenant à la région. De même, il est apparu que pour l'estimation des forts quantiles (T > 50 ans), l'idée d'un paramètre régional contrôlant l'extrapolation est pertinente mais doit d'être intégrée de manière souple et non imposée au sein de la vraisemblance. L'information la plus précieuse dont le praticien dispose étant celle en provenance du site d'étude, le troisième modèle proposé revient sur l'estimation à partir des seules données contemporaines au site d'étude. Ce nouveau modèle utilise une information plus riche que celle issue d'un échantillonnage classique de v.a.i.id. maximales puisque toute la chronique est exploitée. Dès lors, même avec seulement cinq années d'enregistrement et grâce à une modélisation de la dépendance entres les observations successives, la taille des échantillons exploités est alors bien plus importante. Nous avons montré que pour l'estimation des quantiles de crues, ce modèle surpasse très nettement les approches locales classiquement utilisées en hydrologie. Ce résultat est d'autant plus vrai lorsque les périodes de retour deviennent importantes. Enfin, part construction, cette approche permet également d'obtenir une estimation probabiliste de la dynamique des crues.
7

Une étude comparative de méthodes d'assimilation de données pour des modèles océaniques

Ruggiero, Giovanni Abdelnur 13 March 2014 (has links) (PDF)
Cette thèse a développé et mis en œuvre des algorithmes itératifs d'assimilation de données pour un modèle d'océan aux équations primitives, et les a comparés avec d'autres méthodes d'AD bien établis tels que le 4Dvar et le Singular Evolutive Extended Kalman (SEEK) Filtre /lisseur. Le modèle numérique utilisé est le modèle NEMO. Il a été configuré pour simuler la circulation typique subtropicale en double gyre. Les nouveaux algorithmes itératifs proposés, semblables au Nudging direct et rétrograde - BFN, sont tous basés sur une séquence d'intégrations alternées du modèle direct et rétrograde. Ce sont le ''Backward Smoother'' (BS), qui utilise le modèle rétrograde pour propager librement des observations "futures" en rétrograde dans le temps, et le ''Back and Forth Kalman Filter'' (BFKF), qui utilise également le modèle rétrograde pour propager les observations en arrière dans le temps, mais qui à chaque fois qu'un lot d'observations est disponible, réalise une étape de mise à jour du système similaire à l'étape de mise à jour du filtre SEEK. Le formalisme Bayésien a été utilisé pour dériver ces méthodes, ce qui signifie qu'ils peuvent être utilisés avec n'importe quelle méthode qui estime la probabilité postérieure du système par des méthodes séquentielles. Les résultats montrent que l'avantage principal des méthodes basées sur le BFN est l'utilisation du modèle rétrograde pour propager les informations des observations en arrière dans le temps.
8

Estimation du taux de mortalité sous contraintes d'ordre pour des données censurées ou tronquées /

Younes, Hassan, January 2005 (has links)
Thèse (D. en mathématiques)--Université du Québec à Montréal, 2005. / En tête du titre: Université du Québec à Montréal. Bibliogr.: f. [102]-107. Publié aussi en version électronique.
9

Analyse de mélanges à partir de signaux de chromatographie gazeuse / Analysis of gaseous mixture from gas chromatography signal.

Bertholon, Francois 23 September 2016 (has links)
Les dispositifs dédiés à l’analyse de gaz ont de nombreuses applications, notamment le contrôle de la qualité de l’air et des gaz naturels ou industriels, ou l’étude des gaz respiratoires. Le LETI travaille en collaboration avec la société APIX sur une nouvelle génération de dispositifs microsystèmes combinant des étapes de préparation des échantillons, de séparation des composants gazeux par des dispositifs de microchromatographie intégrés sur silicium, et de transduction par des détecteurs NEMS (Nano Electro Mechanical Systems) à base de nanocantilevers utilisés comme des détecteurs dits gravimétriques. Ces capteurs NEMS sont constitués de nano poutres vibrantes dont la fréquence de résonance dépend de la masse de matière déposée sur la poutre. Ces poutres sont fonctionnalisées avec un matériau capable d’adsorber puis de désorber certains composants ciblés. Lors du passage d’une impulsion de matière dans la colonne chromatographique au niveau d’un NEMS, le signal, défini par sa fréquence de résonance instantanée en fonction du temps, varie. Le pic observé sur ce signal traduira le pic de matière dans la colonne et permettra d’estimer la concentration du composant. Partant de l’ensemble des signaux mesurés sur l’ensemble des capteurs, l’objectif du traitement du signal est de fournir le profil moléculaire, c’est-à-dire la concentration de chaque composant, et d’estimer le pouvoir calorifique supérieur (PCS) associé. Le défi est d’associer une haute sensibilité pour détecter de très petites quantités de composants, et des capacités de séparation efficaces pour s’affranchir de la complexité du mélange et identifier la signature des molécules ciblées. L’objectif de cette thèse en traitement du signal est de travailler sur la formalisation des problèmes d’analyse des signaux abordés et d’étendre notre méthodologie d’analyse reposant sur l’approche problème inverse associée à un modèle hiérarchique de la chaîne d’analyse, aux dispositifs de microchromatographie gazeuse intégrant des capteurs NEMS multiples. La première application visée est le suivi du pouvoir calorifique d’un gaz naturel. Les ruptures concernent notamment la décomposition de signaux NEMS, la fusion multi-capteurs, l’autocalibrage et le suivi dynamique temporel. Le travail comportera des phases d’expérimentation réalisées notamment sur le banc d’analyse de gaz du laboratoire commun APIX-LETI. / The chromatography is a chemical technique to separate entities from a mixture. In this thesis, we will focused on the gaseous mixture, and particularly on the signal processing of gas chromatography. To acquire those signal we use different sensors. However whatever the sensor used, we obtain a peaks succession, where each peak corresponds to an entity present in the mixture. Our aim is then to analyze gaseous mixtures from acquired signals, by characterizing each peaks. After a bibliographic survey of the chromatography, we chose the Giddings and Eyring distribution to describe a peak shape. This distribution define the probability that a molecule walking randomly through the chromatographic column go out at a given time. Then we propose analytical model of the chromatographic signal which corresponds to a peak shape mixture model. Also in first approximation, this model is considered as Gaussian mixture model. To process those signals, we studied two broad groups of methods, executed upon real data and simulated data. The first family of algorithms consists in a Bayesian estimation of unknown parameters of our model. The order of mixture model can be include in the unknown parameters. It corresponds also to the number of entity in the gaseous mixture. To estimate those parameters, we use a Gibbs sampler, and Markov Chain Monte Carlo sampling, or a variational approach. The second methods consists in a sparse representation of the signal upon a dictionary. This dictionary includes a large set of peak shapes. The sparsity is then characterized by the number of components of the dictionary needed to describe the signal. At last we propose a sparse Bayesian method.
10

Quantification of modelling uncertainties in turbulent flow simulations / Quantification des incertitudes de modélisation dans les écoulements turbulents

Edeling, Wouter Nico 14 April 2015 (has links)
Le but de cette thèse est de faire des simulations prédictives à partir de modèles de turbulence de type RANS (Reynolds-Averaged Navier-Stokes). Ces simulations font l'objet d'un traitement systématique du modèle, de son incertitude et de leur propagation par le biais d'un modèle de calcul prédictif aux incertitudes quantifiées. Pour faire cela, nous utilisons le cadre robuste de la statistique Bayesienne.La première étape vers ce but a été d'obtenir une estimation de l'erreur de simulations RANS basées sur le modèle de turbulence de Launder-Sharma k-e. Nous avons recherché en particulier à estimer des incertitudes pour les coefficients du modele, pour des écoulements de parois en gradients favorable et défavorable. Dans le but d'estimer la propagation des coefficients qui reproduisent le plus précisemment ces types d'écoulements, nous avons étudié 13 configurations différentes de calibrations Bayesienne. Chaque calibration était associée à un gradient de pression spécifique gràce à un modèle statistique. Nous representont la totalite des incertitudes dans la solution avec une boite-probabilite (p-box). Cette boîte-p représente aussi bien les paramètres de variabilité de l'écoulement que les incertitudes epistemiques de chaque calibration. L'estimation d'un nouvel écoulement de couche-limite est faite pour des valeurs d'incertitudes générées par cette information sur l'incertitude elle-même. L'erreur d'incertitude qui en résulte est consistante avec les mesures expérimentales.Cependant, malgré l'accord avec les mesures, l'erreur obtenue était encore trop large. Ceci est dû au fait que la boite-p est une prédiction non pondérée. Pour améliorer cela, nous avons développé une autre approche qui repose également sur la variabilité des coefficients de fermeture du modèle, au travers de multiples scénarios d'écoulements et de multiples modèles de fermeture. La variabilité est là encore estimée par le recours à la calibration Bayesienne et confrontée aux mesures expérimentales de chaque scénario. Cependant, un scénario-modèle Bayesien moyen (BMSA) est ici utilisé pour faire correspondre les distributions a posteriori à un scénario (prédictif) non mesuré. Contrairement aux boîtes-p, cette approche est une approche pondérée faisant appel aux probabilités des modèles de turbulence, déterminée par les données de calibration. Pour tous les scénarios de prédiction considérés, la déviation standard de l'estimation stochastique est consistante avec les mesures effectuées.Les résultats de l'approche BMSA expriment des barres d'erreur raisonnables. Cependant, afin de l'appliquer à des topologies plus complexes et au-delà de la classe des écoulements de couche-limite, des techniques de modeles de substitution doivent être mises en places. La méthode de la collocation Stochastique-Simplex (SSC) est une de ces techniques et est particulièrement robuste pour la propagation de distributions d'entrée incertaines dans un code de calcul. Néanmois, son utilisation de la triangulation Delaunay peut entrainer un problème de coût prohibitif pour les cas à plus de 5 dimensions. Nous avons donc étudié des moyens pour améliorer cette faible scalabilité. En premier lieu, c'est dans ce but que nous avons en premier proposé une technique alternative d'interpolation basée sur le probleme 'Set-Covering'. Deuxièmement, nous avons intégré la méthode SSC au cadre du modèle de réduction à haute dimension (HDMR) dans le but d'éviter de considérer tous les espaces de haute dimension en même temps.Finalement, avec l'utilisation de notre technique de modelisation de substitution (surrogate modelling technique), nous avons appliqué le cadre BMSA à un écoulement transsonique autour d'un profil d'aile. Avec cet outil nous sommes maintenant capable de faire des simulations prédictives d'écoulements auparavant trop coûteux et offrant des incertitudes quantifiées selon les imperfections des différents modèles de turbulence. / The goal of this thesis is to make predictive simulations with Reynolds-Averaged Navier-Stokes (RANS) turbulence models, i.e. simulations with a systematic treatment of model and data uncertainties and their propagation through a computational model to produce predictions of quantities of interest with quantified uncertainty. To do so, we make use of the robust Bayesian statistical framework.The first step toward our goal concerned obtaining estimates for the error in RANS simulations based on the Launder-Sharma k-e turbulence closure model, for a limited class of flows. In particular we searched for estimates grounded in uncertainties in the space of model closure coefficients, for wall-bounded flows at a variety of favourable and adverse pressure gradients. In order to estimate the spread of closure coefficients which reproduces these flows accurately, we performed 13 separate Bayesian calibrations. Each calibration was at a different pressure gradient, using measured boundary-layer velocity profiles, and a statistical model containing a multiplicative model inadequacy term in the solution space. The results are 13 joint posterior distributions over coefficients and hyper-parameters. To summarize this information we compute Highest Posterior-Density (HPD) intervals, and subsequently represent the total solution uncertainty with a probability box (p-box). This p-box represents both parameter variability across flows, and epistemic uncertainty within each calibration. A prediction of a new boundary-layer flow is made with uncertainty bars generated from this uncertainty information, and the resulting error estimate is shown to be consistent with measurement data.However, although consistent with the data, the obtained error estimates were very large. This is due to the fact that a p-box constitutes a unweighted prediction. To improve upon this, we developed another approach still based on variability in model closure coefficients across multiple flow scenarios, but also across multiple closure models. The variability is again estimated using Bayesian calibration against experimental data for each scenario, but now Bayesian Model-Scenario Averaging (BMSA) is used to collate the resulting posteriors in an unmeasured (prediction) scenario. Unlike the p-boxes, this is a weighted approach involving turbulence model probabilities which are determined from the calibration data. The methodology was applied to the class of turbulent boundary-layers subject to various pressure gradients. For all considered prediction scenarios the standard-deviation of the stochastic estimate is consistent with the measurement ground truth.The BMSA approach results in reasonable error bars, which can also be decomposed into separate contributions. However, to apply it to more complex topologies outside the class of boundary-layer flows, surrogate modelling techniques must be applied. The Simplex-Stochastic Collocation (SSC) method is a robust surrogate modelling technique used to propagate uncertain input distributions through a computer code. However, its use of the Delaunay triangulation can become prohibitively expensive for problems with dimensions higher than 5. We therefore investigated means to improve upon this bad scalability. In order to do so, we first proposed an alternative interpolation stencil technique based upon the Set-Covering problem, which resulted in a significant speed up when sampling the full-dimensional stochastic space. Secondly, we integrated the SSC method into the High-Dimensional Model-Reduction framework in order to avoid sampling high-dimensional spaces all together.Finally, with the use of our efficient surrogate modelling technique, we applied the BMSA framework to the transonic flow over an airfoil. With this we are able to make predictive simulations of computationally expensive flow problems with quantified uncertainty due to various imperfections in the turbulence models.

Page generated in 0.0407 seconds