• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 2
  • Tagged with
  • 9
  • 9
  • 9
  • 4
  • 4
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Analyse de sensibilité pour la simulation numérique des écoulements compressibles en aérodynamique externe / Sensitivity analysis for numerical simulation of compressible flows in external aerodynamics

Resmini, Andrea 11 December 2015 (has links)
L'analyse de sensibilité pour la simulation numérique des écoulements compressibles en aérodynamique externe par rapport à la discrétisation de maillage et aux incertitudes liées à des paramètres d'entrées du modèle a été traitée 1- par le moyen des méthodes adjointes pour le calcul de gradient et 2- par approximations stochastiques non-intrusives basées sur des grilles creuses. 1- Une méthode d'adaptation de maillages goal-oriented basée sur les dérivées totales des fonctions aérodynamiques d'intérêt par rapport aux nœuds du maillage a été introduite sous une forme améliorée. La méthode s'applique au cadre de volumes finis pour des écoulements RANS pour des maillages mono-bloc et multi-bloc structurés. Des applications 2D pour des écoulements transsoniques ainsi que subsonique détaché atour d'un profil pour l'estimation du coefficient de traînée sont présentées. L'apport de la méthode proposée est vérifié. 2- Les méthodes du polynôme de chaos généralisé sous forme pseudospectrale creuse et de la collocation stochastique construite sur des grilles creuses isotropes et anisotropes sont examinées. Les maillages anisotropes sont obtenus par le biais d'une méthode adaptive basée sur l'analyse de sensibilité globale. L'efficacité des ces approximations est testée avec des fonctions test et des écoulements aérodynamiques visqueux autour d'un profil en présence d'incertitudes géométriques et opérationnelles. L'intégration des méthodes et aboutissements 1- et 2- dans une approche couplée permettrait de contrôler de façon équilibrée l'erreur déterministe/stochastique goal-oriented. / Sensitivity analysis for the numerical simulation of external aerodynamics compressible flows with respect to the mesh discretization and to the model input parametric uncertainty has been addressed respectively 1- through adjoint-based gradient computation techniques and 2- through non-intrusive stochastic approximation methods based on sparse grids. 1- An enhanced goal-oriented mesh adaptation method based on aerodynamic functional total derivatives with respect to mesh coordinates in a RANS finite-volume mono-block and non-matching multi-block structured grid framework is introduced. Applications to 2D RANS flow about an airfoil in transonic and detached subsonic conditions for the drag coefficient estimation are presented. The asset of the proposed method is patent. 2- The generalized Polynomial Chaos in its sparse pseudospectral form and stochastic collocation methods based on both isotropic and dimension-adapted sparse grids obtained through an improved dimension-adaptivity method driven by global sensitivity analysis are considered. The stochastic approximations efficiency is assessed on multi-variate test functions and airfoil viscous aerodynamics simulation in the presence of geometrical and operational uncertainties. Integration of achievements 1- and 2- into a coupled approach in future work will pave the way for a well-balanced goal-oriented deterministic/stochastic error control.
2

Analyse de sensibilité pour systèmes hyperboliques non linéaires / Sensitivity analysis for nonlinear hyperbolic equations of conservation laws

Fiorini, Camilla 11 July 2018 (has links)
L’analyse de sensibilité (AS) concerne la quantification des changements dans la solution d’un système d’équations aux dérivées partielles (EDP) dus aux varia- tions des paramètres d’entrée du modèle. Les techniques standard d’AS pour les EDP, comme la méthode d’équation de sensibilité continue, requirent de dériver la variable d’état. Cependant, dans le cas d’équations hyperboliques l’état peut présenter des dis- continuités, qui donc génèrent des Dirac dans la sensibilité. Le but de ce travail est de modifier les équations de sensibilité pour obtenir un syst‘eme valable même dans le cas discontinu et obtenir des sensibilités qui ne présentent pas de Dirac. Ceci est motivé par plusieurs raisons : d’abord, un Dirac ne peut pas être saisi numériquement, ce qui pourvoit une solution incorrecte de la sensibilité au voisinage de la discontinuité ; deuxièmement, les pics dans la solution numérique des équations de sensibilité non cor- rigées rendent ces sensibilités inutilisables pour certaines applications. Par conséquent, nous ajoutons un terme de correction aux équations de sensibilité. Nous faisons cela pour une hiérarchie de modèles de complexité croissante : de l’équation de Burgers non visqueuse au système d’Euler quasi-1D. Nous montrons l’influence de ce terme de correction sur un problème d’optimisation et sur un de quantification d’incertitude. / Sensitivity analysis (SA) concerns the quantification of changes in Partial Differential Equations (PDEs) solution due to perturbations in the model input. Stan- dard SA techniques for PDEs, such as the continuous sensitivity equation method, rely on the differentiation of the state variable. However, if the governing equations are hyperbolic PDEs, the state can exhibit discontinuities yielding Dirac delta functions in the sensitivity. We aim at modifying the sensitivity equations to obtain a solution without delta functions. This is motivated by several reasons: firstly, a Dirac delta function cannot be seized numerically, leading to an incorrect solution for the sensi- tivity in the neighbourhood of the state discontinuity; secondly, the spikes appearing in the numerical solution of the original sensitivity equations make such sensitivities unusable for some applications. Therefore, we add a correction term to the sensitivity equations. We do this for a hierarchy of models of increasing complexity: starting from the inviscid Burgers’ equation, to the quasi 1D Euler system. We show the influence of such correction term on an optimization algorithm and on an uncertainty quantification problem.
3

Quantification d'incertitudes aléatoires et épistémiques dans la prédiction d'instabilités aéroélastiques / Quantification of aleatory and epistemic uncertainties in the prediction of aeroelastic instabilities

Nitschke, Christian Thomas 01 February 2018 (has links)
La vitesse critique de flottement est un facteur essentiel à la conception aéronautique car elle caractérise le régime de vol au-delà duquel l’aéronef risque de subir un mécanisme de ruine. L’objectif de cette thèse est d’étudier l’impact des incertitudes d’origines aléatoires et épistémiques sur la limite de stabilité linéaire pour des configurations aéroélastiques idéalisées. Dans un premier temps, un problème de propagation directe d’incertitudes aléatoires relatives à des paramètres de fabrication d’une aile en forme de plaque en matériau composite stratifié a été considéré. La représentation du matériau par la méthode polaire lève la contrainte de grande dimensionnalité du problème stochastique initial et permet l’utilisation du Chaos Polynômial. Cependant, la corrélation introduite par cette paramétrisation nécessite une adaptation de la base polynômiale. Enfin, un algorithme d’apprentissage automatique a été employé pour traiter des discontinuités dans le comportement modal des instabilités aéroélastiques. Le second volet de la thèse concerne la quantification d’incertitudes de modélisation de caractère épistémique qui sont introduites au niveau de l’opérateur aérodynamique. Ces travaux, menés à partir d’un formalisme Bayésien, permettent non seulement d’établir des probabilités de modèle, mais aussi de calibrer les coefficients des modèles dans un contexte stochastique afin d’obtenir des prédictions robustes pour la vitesse critique. Enfin, une étude combinée des deux types d’incertitude permet d’améliorer le processus de calibration. / The critical flutter velocity is an essential factor in aeronautic design because it caracterises the flight envelope outside which the aircraft risks to be destroyed. The goal of this thesis is the study of the impact of uncertainties of aleatory and epistemic origin on the linear stability limit of idealised aeroelastic configurations. First, a direct propagation problem of aleatory uncertainties related to manufacturing parameters of a rectangular plate wing made of a laminated composite material was considered. The representation of the material through the polar method alleviates the constraint of the high number of dimensions of the initial stochastic problem, which allows the use of polynomial chaos. However, the correlation which is introduced by this parametrisation requires an adaption of the polynomial basis. Finally, a machine learning algorithm is employed for the treatment of discontinuities in the modal behaviour of the aeroelastic instabilities. The second part of the thesis is about the quantification of modelling uncertainties of epistemic nature which are introduced in the aerodynamic operator. This work, which is conducted based on a Bayesian formalism, allows not only to establish model probabilities, but also to calibrate the model coefficients in a stochastic context in order to obtain robust predictions for the critical velocity. Finally, a combined study of the two types of uncertainty allows to improve the calibration process.
4

Méthode d'analyse de sensibilité et propagation inverse d'incertitude appliquées sur les modèles mathématiques dans les applications d'ingénierie / Methods for sensitivity analysis and backward propagation of uncertainty applied on mathematical models in engineering applications

Alhossen, Iman 11 December 2017 (has links)
Dans de nombreuses disciplines, les approches permettant d'étudier et de quantifier l'influence de données incertaines sont devenues une nécessité. Bien que la propagation directe d'incertitudes ait été largement étudiée, la propagation inverse d'incertitudes demeure un vaste sujet d'étude, sans méthode standardisée. Dans cette thèse, une nouvelle méthode de propagation inverse d'incertitude est présentée. Le but de cette méthode est de déterminer l'incertitude d'entrée à partir de données de sortie considérées comme incertaines. Parallèlement, les méthodes d'analyse de sensibilité sont également très utilisées pour déterminer l'influence des entrées sur la sortie lors d'un processus de modélisation. Ces approches permettent d'isoler les entrées les plus significatives, c'est à dire les plus influentes, qu'il est nécessaire de tester lors d'une analyse d'incertitudes. Dans ce travail, nous approfondirons tout d'abord la méthode d'analyse de sensibilité de Sobol, qui est l'une des méthodes d'analyse de sensibilité globale les plus efficaces. Cette méthode repose sur le calcul d'indices de sensibilité, appelés indices de Sobol, qui représentent l'effet des données d'entrées (vues comme des variables aléatoires continues) sur la sortie. Nous démontrerons ensuite que la méthode de Sobol donne des résultats fiables même lorsqu'elle est appliquée dans le cas discret. Puis, nous étendrons le cadre d'application de la méthode de Sobol afin de répondre à la problématique de propagation inverse d'incertitudes. Enfin, nous proposerons une nouvelle approche de la méthode de Sobol qui permet d'étudier la variation des indices de sensibilité par rapport à certains facteurs du modèle ou à certaines conditions expérimentales. Nous montrerons que les résultats obtenus lors de ces études permettent d'illustrer les différentes caractéristiques des données d'entrée. Pour conclure, nous exposerons comment ces résultats permettent d'indiquer les meilleures conditions expérimentales pour lesquelles l'estimation des paramètres peut être efficacement réalisée. / Approaches for studying uncertainty are of great necessity in all disciplines. While the forward propagation of uncertainty has been investigated extensively, the backward propagation is still under studied. In this thesis, a new method for backward propagation of uncertainty is presented. The aim of this method is to determine the input uncertainty starting from the given data of the uncertain output. In parallel, sensitivity analysis methods are also of great necessity in revealing the influence of the inputs on the output in any modeling process. This helps in revealing the most significant inputs to be carried in an uncertainty study. In this work, the Sobol sensitivity analysis method, which is one of the most efficient global sensitivity analysis methods, is considered and its application framework is developed. This method relies on the computation of sensitivity indexes, called Sobol indexes. These indexes give the effect of the inputs on the output. Usually inputs in Sobol method are considered to vary as continuous random variables in order to compute the corresponding indexes. In this work, the Sobol method is demonstrated to give reliable results even when applied in the discrete case. In addition, another advancement for the application of the Sobol method is done by studying the variation of these indexes with respect to some factors of the model or some experimental conditions. The consequences and conclusions derived from the study of this variation help in determining different characteristics and information about the inputs. Moreover, these inferences allow the indication of the best experimental conditions at which estimation of the inputs can be done.
5

Advanced polyhedral discretization methods for poromechanical modelling / Méthodes de discrétisation avancées pour la modélisation hydro-poromécanique

Botti, Michele 27 November 2018 (has links)
Dans cette thèse, on s’intéresse à de nouveaux schémas de discrétisation afin de résoudre les équations couplées de la poroélasticité et nous présentons des résultats analytiques et numériques concernant des problèmes issus de la poromécanique. Nous proposons de résoudre ces problèmes en utilisant les méthodes Hybrid High-Order (HHO), une nouvelle classe de méthodes de discrétisation polyédriques d’ordre arbitraire. Cette thèse a été conjointement financée par le Bureau de Recherches Géologiques et Minières (BRGM) et le LabEx NUMEV. Le couplage entre l’écoulement souterrain et la déformation géomécanique est un sujet de recherche crucial pour les deux institutions de cofinancement. / In this manuscript we focus on novel discretization schemes for solving the coupled equations of poroelasticity and we present analytical and numerical results for poromechanics problems relevant to geoscience applications. We propose to solve these problems using Hybrid High-Order (HHO) methods, a new class of nonconforming high-order methods supporting general polyhedral meshes. This Ph.D. thesis was conjointly founded by the Bureau de recherches géologiques et minières (BRGM) and LabEx NUMEV. The coupling between subsurface flow and geomechanical deformation is a crucial research topic for both cofunding institutions.
6

Uncertainty quantification in the simulation of road traffic and associated atmospheric emissions in a metropolitan area / Quantification d'incertitude en simulation du trafic routier et de ses émissions atmosphériques à l'échelle métropolitaine

Chen, Ruiwei 25 May 2018 (has links)
Ce travail porte sur la quantification d'incertitude dans la modélisation des émissions de polluants atmosphériques dues au trafic routier d'une aire urbaine. Une chaîne de modélisations des émissions de polluants atmosphériques est construite, en couplant un modèle d’affectation dynamique du trafic (ADT) avec un modèle de facteurs d’émission. Cette chaîne est appliquée à l’agglomération de Clermont-Ferrand (France) à la résolution de la rue. Un métamodèle de l’ADT est construit pour réduire le temps d’évaluation du modèle. Une analyse de sensibilité globale est ensuite effectuée sur cette chaîne, afin d’identifier les entrées les plus influentes sur les sorties. Enfin, pour la quantification d’incertitude, deux ensembles sont construits avec l’approche de Monte Carlo, l’un pour l’ADT et l’autre pour les émissions. L’ensemble d’ADT est évalué et amélioré grâce à la comparaison avec les débits du trafic observés, afin de mieux échantillonner les incertitudes / This work focuses on the uncertainty quantification in the modeling of road traffic emissions in a metropolitan area. The first step is to estimate the time-dependent traffic flow at street-resolution for a full agglomeration area, using a dynamic traffic assignment (DTA) model. Then, a metamodel is built for the DTA model set up for the agglomeration, in order to reduce the computational cost of the DTA simulation. Then the road traffic emissions of atmospheric pollutants are estimated at street resolution, based on a modeling chain that couples the DTA metamodel with an emission factor model. This modeling chain is then used to conduct a global sensitivity analysis to identify the most influential inputs in computed traffic flows, speeds and emissions. At last, the uncertainty quantification is carried out based on ensemble simulations using Monte Carlo approach. The ensemble is evaluated with observations in order to check and optimize its reliability
7

Schémas aux résidus distribués et méthodes à propagation des ondes pour la simulation d’écoulements compressibles diphasiques avec transfert de chaleur et de masse / Residual distribution schemes and wave propagation methods for the simulation of two-phase compressible flows with heat and mass transfer

Carlier, Julien 06 December 2019 (has links)
Ce travail a pour thème la simulation numérique d’écoulements diphasiques dans un contexte industriel. En effet, la simulation d’écoulements diphasiques est un domaine qui présente de nombreux défis, en raison de phénomènes complexes qui surviennent, comme la cavitation et autres transferts entre les phases. En outre, ces écoulements se déroulent généralement dans des géométries complexes rendant difficile une résolution efficiente. Les modèles que nous considérons font partie de la catégorie des modèles à interfaces diffuses et permettent de prendre en compte aisément les différents transferts entre les phases. Cette classe de modèles inclut une hiérarchie de sous-modèles pouvant simuler plus ou moins d’interactions entre les phases. Pour mener à bien cette étude nous avons en premier lieu comparé les modèles diphasiques dits à quatre équations et six équations, en incluant les effets de transfert de masse. Nous avons ensuite choisi de nous concentrer sur le modèle à quatre équations. L’objectif majeur de notre travail a alors été d’étendre les méthodes aux résidus distribués à ce modèle. Dans le contexte des méthodes de résolution numérique, il est courant d’utiliser la forme conservative des équations de bilan. En effet, la résolution sous forme non-conservative conduit à une mauvaise résolution du problème. Cependant, résoudre les équations sous forme non-conservative peut s’avérer plus intéressant d’un point de vue industriel. Dans ce but, nous utilisons une approche développée récemment permettant d’assurer la conservation en résolvant un système sous forme non-conservative, à condition que la forme conservative soit connue. Nous validons ensuite notre méthode et l’appliquons à des problèmes en géométries complexes. Finalement, la dernière partie de notre travail est dédiée à étudier la validité des modèles à interfaces diffuses pour des applications à des problèmes industriels réels. On cherche alors, en utilisant des méthodes de quantification d’incertitude, à obtenir les paramètres rendant nos simulations les plus vraisemblables et cibler les éventuels développements pouvant rendre nos simulations plus réalistes. / The topic of this thesis is the numerical simulation of two-phase flows in an industrial framework. Two-phase flows modelling is a challenging domain to explore, mainly because of the complex phenomena involved, such as cavitation and other transfer processes between phases. Furthermore, these flows occur generally in complex geometries, which makes difficult the development of efficient resolution methods. The models that we consider belong to the class of diffuse interface models, and they allow an easy modelling of transfers between phases. The considered class of models includes a hierarchy of sub-models, which take into account different levels of interactions between phases. To pursue our studies, first we have compared the so-called four-equation and six-equation two-phase flow models, including the effects of mass transfer processes. We have then chosen to focus on the four-equation model. One of the main objective of our work has been to extend residual distribution schemes to this model. In the context of numerical solution methods, it is common to use the conservative form of the balance law. In fact, the solution of the equations under a non-conservative form may lead to a wrong solution to the problem. Nonetheless, solving the equations in non-conservative form may be more interesting from an industrial point of view. To this aim, we employ a recent approach, which allows us to ensure conservation while solving a non-conservative system, at the condition of knowing its conservative form. We then validate our method and apply it to problems with complex geometry. Finally, the last part of our work is dedicated to the evaluation of the validity of the considered diffuse interface model for applications to real industrial problems. By using uncertainty quantification methods, the objective is to get parameters that make our simulations the most plausible, and to target the possible extensions that can make our simulations more realistic.
8

Discrétisation de processus à des temps d’arrêt et Quantification d'incertitude pour des algorithmes stochastiques / Discretization of processes at stopping times and Uncertainty quantification of stochastic approximation limits

Stazhynski, Uladzislau 12 December 2018 (has links)
Cette thèse contient deux parties qui étudient deux sujets différents. Les Chapitres 1-4 sont consacrés aux problèmes de discrétisation de processus à des temps d’arrêt. Dans le Chapitre 1 on étudie l'erreur de discrétisation optimale pour des intégrales stochastiques par rapport à une semimartingale brownienne multidimensionnelle continue. Dans ce cadre on établit une borne inférieure trajectorielle pour la variation quadratique renormalisée de l'erreur. On fournit une suite de temps d’arrêt qui donne une discrétisation asymptotiquement optimale. Cette suite est définie comme temps de sortie d'ellipsoïdes aléatoires par la semimartingale. Par rapport aux résultats précédents on permet une classe de semimartingales assez large. On démontre qui la borne inférieure est exacte. Dans le Chapitre 2 on étudie la version adaptative au modèle de la discrétisation optimale d’intégrales stochastique. Dans le Chapitre 1 la construction de la stratégie optimale utilise la connaissance du coefficient de diffusion de la semimartingale considérée. Dans ce travail on établit une stratégie de discrétisation asymptotiquement optimale qui est adaptative au modèle et n'utilise pas aucune information sur le modèle. On démontre l'optimalité pour une classe de grilles de discrétisation assez générale basée sur les technique de noyau pour l'estimation adaptative. Dans le Chapitre 3 on étudie la convergence en loi des erreurs de discrétisation renormalisées de processus d’Itô pour une classe concrète et assez générale de grilles de discrétisation données par des temps d’arrêt. Les travaux précédents sur le sujet considèrent seulement le cas de dimension 1. En plus ils concentrent sur des cas particuliers des grilles, ou démontrent des résultats sous des hypothèses abstraites. Dans notre travail on donne explicitement la distribution limite sous une forme claire et simple, les résultats sont démontré dans le cas multidimensionnel pour le processus et pour l'erreur de discrétisation. Dans le Chapitre 4 on étudie le problème d'estimation paramétrique pour des processus de diffusion basée sur des observations à temps d’arrêt. Les travaux précédents sur le sujet considèrent que des temps d'observation déterministes, fortement prévisibles ou aléatoires indépendants du processus. Sous des hypothèses faibles on construit une suite d'estimateurs consistante pour une classe large de grilles d'observation données par des temps d’arrêt. On effectue une analyse asymptotique de l'erreur d'estimation. En outre, dans le cas du paramètre de dimension 1, pour toute suite d'estimateurs qui vérifie un TCL sans biais, on démontre une borne inférieure uniforme pour la variance asymptotique; on montre que cette borne est exacte. Les Chapitres 5-6 sont consacrés au problème de quantification d'incertitude pour des limites d'approximation stochastique. Dans le Chapitre 5 on analyse la quantification d'incertitude pour des limites d'approximation stochastique (SA). Dans notre cadre la limite est définie comme un zéro d'une fonction donnée par une espérance. Cette espérance est prise par rapport à une variable aléatoire pour laquelle le modèle est supposé de dépendre d'un paramètre incertain. On considère la limite de SA comme une fonction de cette paramètre. On introduit un algorithme qui s'appelle USA (Uncertainty for SA). C'est une procédure en dimension croissante pour calculer les coefficients de base d'expansion de chaos de cette fonction dans une base d'un espace de Hilbert bien choisi. La convergence de USA dans cet espace de Hilbert est démontré. Dans le Chapitre 6 on analyse le taux de convergence dans L2 de l'algorithme USA développé dans le Chapitre 5. L'analyse est non trivial à cause de la dimension infinie de la procédure. Le taux obtenu dépend du modèle et des paramètres utilisés dans l'algorithme USA. Sa connaissance permet d'optimiser la vitesse de croissance de la dimension dans USA. / This thesis consists of two parts which study two separate subjects. Chapters 1-4 are devoted to the problem of processes discretization at stopping times. In Chapter 1 we study the optimal discretization error of stochastic integrals, driven by a multidimensional continuous Brownian semimartingale. In this setting we establish a path wise lower bound for the renormalized quadratic variation of the error and we provide a sequence of discretization stopping times, which is asymptotically optimal. The latter is defined as hitting times of random ellipsoids by the semimartingale at hand. In comparison with previous available results, we allow a quite large class of semimartingales and we prove that the asymptotic lower bound is attainable. In Chapter 2 we study the model-adaptive optimal discretization error of stochastic integrals. In Chapter 1 the construction of the optimal strategy involved the knowledge about the diffusion coefficient of the semimartingale under study. In this work we provide a model-adaptive asymptotically optimal discretization strategy that does not require any prior knowledge about the model. In Chapter 3 we study the convergence in distribution of renormalized discretization errors of Ito processes for a concrete general class of random discretization grids given by stopping times. Previous works on the subject only treat the case of dimension 1. Moreover they either focus on particular cases of grids, or provide results under quite abstract assumptions with implicitly specified limit distribution. At the contrast we provide explicitly the limit distribution in a tractable form in terms of the underlying model. The results hold both for multidimensional processes and general multidimensional error terms. In Chapter 4 we study the problem of parametric inference for diffusions based on observations at random stopping times. We work in the asymptotic framework of high frequency data over a fixed horizon. Previous works on the subject consider only deterministic, strongly predictable or random, independent of the process, observation times, and do not cover our setting. Under mild assumptions we construct a consistent sequence of estimators, for a large class of stopping time observation grids. Further we carry out the asymptotic analysis of the estimation error and establish a Central Limit Theorem (CLT) with a mixed Gaussian limit. In addition, in the case of a 1-dimensional parameter, for any sequence of estimators verifying CLT conditions without bias, we prove a uniform a.s. lower bound on the asymptotic variance, and show that this bound is sharp. In Chapters 5-6 we study the problem of uncertainty quantification for stochastic approximation limits. In Chapter 5 we analyze the uncertainty quantification for the limit of a Stochastic Approximation (SA) algorithm. In our setup, this limit is defined as the zero of a function given by an expectation. The expectation is taken w.r.t. a random variable for which the model is assumed to depend on an uncertain parameter. We consider the SA limit as a function of this parameter. We introduce the so-called Uncertainty for SA (USA) algorithm, an SA algorithm in increasing dimension for computing the basis coefficients of a chaos expansion of this function on an orthogonal basis of a suitable Hilbert space. The almost-sure and Lp convergences of USA, in the Hilbert space, are established under mild, tractable conditions. In Chapter 6 we analyse the L2-convergence rate of the USA algorithm designed in Chapter 5.The analysis is non-trivial due to infinite dimensionality of the procedure. Moreover, our setting is not covered by the previous works on infinite dimensional SA. The obtained rate depends non-trivially on the model and the design parameters of the algorithm. Its knowledge enables optimization of the dimension growth speed in the USA algorithm, which is the key factor of its efficient performance.
9

Correspondance entre régression par processus Gaussien et splines d'interpolation sous contraintes linéaires de type inégalité. Théorie et applications. / Correspondence between Gaussian process regression and interpolation splines under linear inequality constraints. Theory and applications

Maatouk, Hassan 01 October 2015 (has links)
On s'intéresse au problème d'interpolation d'une fonction numérique d'une ou plusieurs variables réelles lorsque qu'elle est connue pour satisfaire certaines propriétés comme, par exemple, la positivité, monotonie ou convexité. Deux méthodes d'interpolation sont étudiées. D'une part, une approche déterministe conduit à un problème d'interpolation optimale sous contraintes linéaires inégalité dans un Espace de Hilbert à Noyau Reproduisant (RKHS). D'autre part, une approche probabiliste considère le même problème comme un problème d'estimation d'une fonction dans un cadre bayésien. Plus précisément, on considère la Régression par Processus Gaussien ou Krigeage pour estimer la fonction à interpoler sous les contraintes linéaires de type inégalité en question. Cette deuxième approche permet également de construire des intervalles de confiance autour de la fonction estimée. Pour cela, on propose une méthode d'approximation qui consiste à approcher un processus gaussien quelconque par un processus gaussien fini-dimensionnel. Le problème de krigeage se ramène ainsi à la simulation d'un vecteur gaussien tronqué à un espace convexe. L'analyse asymptotique permet d'établir la convergence de la méthode et la correspondance entre les deux approches déterministeet probabiliste, c'est le résultat théorique de la thèse. Ce dernier est vu comme unegénéralisation de la correspondance établie par [Kimeldorf and Wahba, 1971] entre estimateur bayésien et spline d'interpolation. Enfin, une application réelle dans le domainede l'assurance (actuariat) pour estimer une courbe d'actualisation et des probabilités dedéfaut a été développée. / This thesis is dedicated to interpolation problems when the numerical function is known to satisfy some properties such as positivity, monotonicity or convexity. Two methods of interpolation are studied. The first one is deterministic and is based on convex optimization in a Reproducing Kernel Hilbert Space (RKHS). The second one is a Bayesian approach based on Gaussian Process Regression (GPR) or Kriging. By using a finite linear functional decomposition, we propose to approximate the original Gaussian process by a finite-dimensional Gaussian process such that conditional simulations satisfy all the inequality constraints. As a consequence, GPR is equivalent to the simulation of a truncated Gaussian vector to a convex set. The mode or Maximum A Posteriori is defined as a Bayesian estimator and prediction intervals are quantified by simulation. Convergence of the method is proved and the correspondence between the two methods is done. This can be seen as an extension of the correspondence established by [Kimeldorf and Wahba, 1971] between Bayesian estimation on stochastic process and smoothing by splines. Finally, a real application in insurance and finance is given to estimate a term-structure curve and default probabilities.

Page generated in 0.1639 seconds