Spelling suggestions: "subject:"3analyse dde ensibilité"" "subject:"3analyse dde extensibilité""
31 |
Analyse de sensibilité globale et polynômes de chaos pour l'estimation des paramètres : application aux transferts en milieu poreux / Sensitivity analysis and polynomial chaos expansion for parameter estimation : application to transfer in porous mediaFajraoui, Noura 21 January 2014 (has links)
La gestion des transferts des contaminants en milieu poreux représentent une préoccupation croissante et revêtent un intérêt particulier pour le contrôle de la pollution dans les milieux souterrains et la gestion de la ressource en eau souterraine, ou plus généralement la protection de l’environnement. Les phénomènes d’écoulement et de transport de polluants sont décrits par des lois physiques traduites sous forme d'équations algébro-différentielles qui dépendent d'un grand nombre de paramètres d'entrée. Pour la plupart, ces paramètres sont mal connus et souvent ne sont pas directement mesurables et/ou leur mesure peut être entachée d’incertitude. Ces travaux de thèse concernent l’étude de l’analyse de sensibilité globale et l’estimation des paramètres pour des problèmes d’écoulement et de transport en milieux poreux. Pour mener à bien ces travaux, la décomposition en polynômes de chaos est utilisée pour quantifier l'influence des paramètres sur la sortie des modèles numériques utilisés. Cet outil permet non seulement de calculer les indices de sensibilité de Sobol mais représente également un modèle de substitution (ou métamodèle) beaucoup plus rapide à exécuter. Cette dernière caractéristique est alors exploitée pour l'inversion des modèles à partir des données observées. Pour le problème inverse, nous privilégions l'approche Bayésienne qui offre un cadre rigoureux pour l'estimation des paramètres. Dans un second temps, nous avons développé une stratégie efficace permettant de construire des polynômes de chaos creux, où seuls les coefficients dont la contribution sur la variance du modèle est significative, sont retenus. Cette stratégie a donné des résultats très encourageants pour deux problèmes de transport réactif. La dernière partie de ce travail est consacrée au problème inverse lorsque les entrées du modèle sont des champs stochastiques gaussiens spatialement distribués. La particularité d'un tel problème est qu'il est mal posé car un champ stochastique est défini par une infinité de coefficients. La décomposition de Karhunen-Loève permet de réduire la dimension du problème et également de le régulariser. Toutefois, les résultats de l'inversion par cette méthode fournit des résultats sensibles au choix à priori de la fonction de covariance du champ. Un algorithme de réduction de la dimension basé sur un critère de sélection (critère de Schwartz) est proposé afin de rendre le problème moins sensible à ce choix. / The management of transfer of contaminants in porous media is a growing concern and is of particular interest for the control of pollution in underground environments and management of groundwater resources, or more generally the protection of the environment. The flow and transport of pollutants are modeled by physical and phenomenological laws that take the form of differential-algebraic equations. These models may depend on a large number of input parameters. Most of these parameters are well known and are often not directly observable.This work is concerned with the impact of parameter uncertainty onto model predictions. To this end, the uncertainty and sensitivity analysis is an important step in the numerical simulation, as well as inverse modeling. The first study consists in estimating the model predictive uncertainty given the parameters uncertainty and identifying the most relevant ones. The second study is concerned with the reduction of parameters uncertainty from available observations.This work concerns the study of global sensitivity analysis and parameter estimation for problems of flow and transport in porous media. To carry out this work, the polynomials chaos expansion is used to quantify the influence of the parameters on the predictions of the numerical model. This tool not only calculate Sobol' sensitivity indices but also provides a surrogate model (or metamodel) that is faster to run. This feature is then exploited for models inversion when observations are available. For the inverse problem, we focus on Bayesian approach that offers a rigorous framework for parameter estimation.In a second step, we developed an effective strategy for constructing a sparse polynomials chaos expansion, where only coefficients whose contribution to the variance of the model is significant, are retained. This strategy has produced very encouraging results for two reactive transport problems.The last part of this work is devoted to the inverse problem when the inputs of the models are spatially distributed. Such an input is then treated as stochastic fields. The peculiarity of such a problem is that it is ill-posed because a stochastic field is defined by an infinite number of coefficients. The Karhunen-Loeve reduces the dimension of the problem and also allows regularizing it. However, the inversion with this method provides results that are sensitive to the presumed covariance function. An algorithm based on the selection criterion (Schwartz criterion) is proposed to make the problem less sensitive to this choice.
|
32 |
Impact de la variabilité des données météorologiques sur une maison basse consommation. Application des analyses de sensibilité pour les entrées temporelles. / Impact of the variability of weather data on a low energy house. Application of sensitivity analysis for correlated temporal inputs.Goffart, Jeanne 12 December 2013 (has links)
Ce travail de thèse s'inscrit dans le cadre du projet ANR FIABILITE qui porte sur la fiabilité des logiciels de simulation thermique dynamique et plus particulièrement sur les sources potentielles de biais et d'incertitude dans le domaine de la modélisation thermique et énergétique des bâtiments basse consommation. Les sollicitations telles que les occupants, la météo ou encore les scénarios de consommation des usages font partie des entrées les plus incertaines et potentiellement les plus influentes sur les performances d'un bâtiment basse consommation. Il est nécessaire pour pouvoir garantir des performances de déterminer les dispersions de sortie associées à la variabilité des entrées temporelles et d'en déterminer les variables responsables pour mieux réduire leur variabilité ou encore concevoir le bâtiment de manière robuste. Pour répondre à cette problématique, on se base sur les indices de sensibilité de Sobol adaptés aux modèles complexes à grandes dimensions tels que les modèles de bâtiment pour la simulation thermique dynamique. La gestion des entrées fonctionnelles étant un verrou scientifique pour les méthodes d'analyse de sensibilité standard, une méthodologie originale a été développée dans le cadre de cette thèse afin de générer des échantillons compatibles avec l'estimation de la sensibilité. Bien que la méthode soit générique aux entrées fonctionnelles, elle a été validée dans ce travail de thèse pour le cas des données météorologiques et tout particulièrement à partir des fichiers météo moyens (TMY) utilisés en simulation thermique dynamique. Les deux aspects principaux de ce travail de développement résident dans la caractérisation de la variabilité des données météorologiques et dans la génération des échantillons permettant l'estimation de la sensibilité de chaque variable météorologique sur la dispersion des performances d'un bâtiment. A travers différents cas d'application dérivés du modèle thermique d'une maison basse consommation, la dispersion et les paramètres influents relatifs à la variabilité météorologique sont estimés. Les résultats révèlent un intervalle d'incertitude sur les besoins énergétiques de l'ordre de 20% à 95% de niveau de confiance, dominé par la température extérieure et le rayonnement direct. / This thesis is part of the ANR project FIABILITE dealing with the reliability of dynamic thermal simulation softwares and particularly with the potential sources of bias and uncertainties in the field of thermal and energy modeling of low consumption buildings. The solicitations such as the occupancy schedules, the weather data or the usage scenarios are among the most uncertain and potentially most influential inputs on the performance of a low energy building. To ensure the efficiency of such buildings, we need to determine the outputs dispersion associated with the uncertainty of the temporal inputs as well as to emphasize the variables responsible for the dispersion of the output in order to design the building in a robust manner. To address this problem, we have used the sensitivity indices of Sobol adapted to complex models with high dimensions, such as building models for dynamic thermal simulations. The management of the functional inputs being a lock for the scientific methods of standard sensitivity analysis, an innovative methodology was developed in the framework of this thesis in order to generate consistent samples with the estimate of the sensitivity. Although the method can incorporate generic functional inputs, it has been validated in this thesis using meteorological data and especially the typical meteorological year (TMY files) used in dynamic thermal simulations. The two main aspects of this development work lie in the characterization of the variability of meteorological data and the generation of samples to estimate the sensitivity of each weather variable dispersion on the thermal and energy performances of a building. Through various case studies derived from the thermal model of a low-energy house, the dispersion and influential parameters for meteorological variability are estimated. Results show a large range of uncertainties in the energy requirements from about 20 % at a confidence level of 95%.
|
33 |
Recherche de la performance en simulation thermique dynamique : application à la réhabilitation des bâtiments / Performance research with thermal dynamic simulation : application for buildings rehabilitationRabouille, Mickael 07 November 2014 (has links)
Le secteur du bâtiment est en évolution et se doit de répondre aux problématiques environnementales actuelles aussi bien dans la construction neuve que dans la réhabilitation. La simulation thermique offre le moyen de répondre à cette problématique, mais se limite à une estimation des performances spécifiques aux paramètres qui ont été définis. Ce travail de thèse propose une méthodologie basée sur les puissances de calcul actuelles pour évaluer le comportement du bâtiment sur différentes plages de variation des entrées. Ces variations permettront, en fonction des propriétés qui leur sont attribuées, de rechercher des solutions de réhabilitation ou d'évaluer l'incertitude sur les sorties du modèle thermique. Afin de réaliser cela, des méthodes d'analyse de sensibilité performantes sont utilisées à travers un outil d'analyse spécifiquement développé pour le logiciel de simulation EnergyPlus. Cet outil permet une évaluation quasi automatique du modèle énergétique de bâtiment via : des techniques d'échantillonnage éprouvées LHS et LP-Tau, des techniques d'analyse performante pour un nombre de simulations réduit RBD-FAST et RBD-SOBOL, une gestion avancée des entrées et sorties permettant une évaluation détaillée du bâtiment, quelle que soit sa géométrie. Les techniques d'analyse de sensibilité sont employées pour proposer une vision précise des principales relations présentes au sein du modèle. Pour répondre à la contrainte du coût de calcul, la recherche de solution est réalisée à travers un méta-modèle issu d'une décomposition en polynôme de chaos. Une interface graphique utilise cette approximation du modèle complexe du bâtiment pour proposer de façon instantanée une vision claire du comportement de chaque entrée sur les sorties, ainsi que leurs tendances et les plages de variation idéales afin de choisir des solutions. Il est possible de coupler la recherche de solution à l'analyse d'incertitude afin de proposer des solutions robustes et identifier les principales raisons d'un écart entre simulation et réalité. La méthodologie des travaux de thèse encourage à l'optimisation de la compréhension du modèle plus qu'à la recherche d'une solution particulière.L'objectif de la démarche est de fournir des outils d'analyse afin d'aider l'expert dans la recherche de solution et ainsi de mettre en place des représentations graphiques qui facilitent la compréhension du système bâtiment, pour un gain en transparence et l'intégration de nombreuses contraintes de projet. / The building sector is evolving and has to meet the current environmental issues in both new construction and rehabilitation. The thermal simulation provides the mean to address this problem, but the estimated performance is limited to a specific set of parameters that have been defined. This thesis proposes a methodology based on the increased computing power to assess the building behaviour on different ranges of the inputs variation. Depending on the properties allocated to them, the changes of the variations will allow to seek solutions to restore or to assess the uncertainty in the outputs of the thermal model. To achieve this, effective sensitivity analysis methods are used across an analysis tool specifically developed for the simulation software EnergyPlus. This tool allows an almost automatic evaluation of the energy model building thanks to the proven sampling techniques such as LHS and LP-Tau; the efficient analysis techniques like RBD-FAST and RBD-SOBOL in order to reduce the number of simulations; an advanced management of the inputs and the outputs for a detailed assessment of the building regardless of its geometry. The sensitivity analysis techniques are used to provide an accurate picture of these key relationships within the model. To meet the constraints of the computational cost, the search for a solution is achieved through a metamodel from a Polynomial Chaos Expansion PCE. A GUI uses the approximation of the complex model of the building to provide instantly a clear vision of the behaviour of each entry on the outputs, their trends and their ideal ranges of variation to choose solutions. It is possible to couple the search for a solution to the uncertainty analysis to provide robust solutions and identify the main reason for the gap between simulation and reality. The methodology of the PhD work promotes the optimization of the model understanding more than looking for a specific solution. The purpose of the approach is to provide analytical tools to assist the expert in the search for a solution and so, develop graphical representations that facilitate the understanding of the building system for a gain in transparency and integration of many design constraints.
|
34 |
Quantification des incertitudes et analyse de sensibilité pour codes de calcul à entrées fonctionnelles et dépendantes / Stochastic methods for uncertainty treatment of functional variables in computer codes : application to safety studiesNanty, Simon 15 October 2015 (has links)
Cette thèse s'inscrit dans le cadre du traitement des incertitudes dans les simulateurs numériques, et porte plus particulièrement sur l'étude de deux cas d'application liés aux études de sûreté pour les réacteurs nucléaires. Ces deux applications présentent plusieurs caractéristiques communes. La première est que les entrées du code étudié sont fonctionnelles et scalaires, les entrées fonctionnelles étant dépendantes entre elles. La deuxième caractéristique est que la distribution de probabilité des entrées fonctionnelles n'est connue qu'à travers un échantillon de ces variables. La troisième caractéristique, présente uniquement dans un des deux cas d'étude, est le coût de calcul élevé du code étudié qui limite le nombre de simulations possibles. L'objectif principal de ces travaux de thèse était de proposer une méthodologie complète de traitement des incertitudes de simulateurs numériques pour les deux cas étudiés. Dans un premier temps, nous avons proposé une méthodologie pour quantifier les incertitudes de variables aléatoires fonctionnelles dépendantes à partir d'un échantillon de leurs réalisations. Cette méthodologie permet à la fois de modéliser la dépendance entre les variables fonctionnelles et de prendre en compte le lien entre ces variables et une autre variable, appelée covariable, qui peut être, par exemple, la sortie du code étudié. Associée à cette méthodologie, nous avons développé une adaptation d'un outil de visualisation de données fonctionnelles, permettant de visualiser simultanément les incertitudes et les caractéristiques de plusieurs variables fonctionnelles dépendantes. Dans un second temps, une méthodologie pour réaliser l'analyse de sensibilité globale des simulateurs des deux cas d'étude a été proposée. Dans le cas d'un code coûteux en temps de calcul, l'application directe des méthodes d'analyse de sensibilité globale quantitative est impossible. Pour pallier ce problème, la solution retenue consiste à construire un modèle de substitution ou métamodèle, approchant le code de calcul et ayant un temps de calcul très court. Une méthode d'échantillonnage uniforme optimisé pour des variables scalaires et fonctionnelles a été développée pour construire la base d'apprentissage du métamodèle. Enfin, une nouvelle approche d'approximation de codes coûteux et à entrées fonctionnelles a été explorée. Dans cette approche, le code est vu comme un code stochastique dont l'aléa est dû aux variables fonctionnelles supposées incontrôlables. Sous ces hypothèses, plusieurs métamodèles ont été développés et comparés. L'ensemble des méthodes proposées dans ces travaux a été appliqué aux deux cas d'application étudiés. / This work relates to the framework of uncertainty quantification for numerical simulators, and more precisely studies two industrial applications linked to the safety studies of nuclear plants. These two applications have several common features. The first one is that the computer code inputs are functional and scalar variables, functional ones being dependent. The second feature is that the probability distribution of functional variables is known only through a sample of their realizations. The third feature, relative to only one of the two applications, is the high computational cost of the code, which limits the number of possible simulations. The main objective of this work was to propose a complete methodology for the uncertainty analysis of numerical simulators for the two considered cases. First, we have proposed a methodology to quantify the uncertainties of dependent functional random variables from a sample of their realizations. This methodology enables to both model the dependency between variables and their link to another variable, called covariate, which could be, for instance, the output of the considered code. Then, we have developed an adaptation of a visualization tool for functional data, which enables to simultaneously visualize the uncertainties and features of dependent functional variables. Second, a method to perform the global sensitivity analysis of the codes used in the two studied cases has been proposed. In the case of a computationally demanding code, the direct use of quantitative global sensitivity analysis methods is intractable. To overcome this issue, the retained solution consists in building a surrogate model or metamodel, a fast-running model approximating the computationally expensive code. An optimized uniform sampling strategy for scalar and functional variables has been developed to build a learning basis for the metamodel. Finally, a new approximation approach for expensive codes with functional outputs has been explored. In this approach, the code is seen as a stochastic code, whose randomness is due to the functional variables, assumed uncontrollable. In this framework, several metamodels have been developed and compared. All the methods proposed in this work have been applied to the two nuclear safety applications.
|
35 |
Optimisation de formes paramétriques en grande dimensionFroment, Pierre 24 April 2014 (has links)
Les méthodes actuelles d’optimisation de formes permettent des gains importants vis-à-vis des fonctions à optimiser. Elles sont largement utilisées par les industriels, notamment dans l’automobile comme chez Renault. Parmi ces approches, l’optimisation de formes paramétriques permet d’obtenir rapidement une géométrie optimale sous réserve que l’espace de conception soit assez restreint pour pouvoir être parcouru en un temps de simulation raisonnable. Ce manuscrit présente deux méthodes d’optimisation de formes paramétriques en grande dimension pour des applications nécessitant des coûts de calculs importants, par exemple en mécanique des fluides. Une manière originale de reconstruire un modèle CAO paramétré à partir d’une surface morte est présentée au préalable. Nous proposons une approche pour identifier les zones interdites de l’espace de conception ainsi que leurs gestions dans une boucle d’optimisation par plans d’expériences. La première méthode s’appuie sur des techniques statistiques pour lever le verrou du nombre de degrés de liberté et utilise une optimisation à deux niveaux de fidélité pour minimiser les temps de calcul. Cette méthode en rupture avec le processus industriel habituel a été appliquée pour optimiser le coefficient de trainée aérodynamique d’un véhicule. La seconde méthode se base sur l’exploitation des gradients fournis par les solveurs adjoints, c’est-à-dire sur les sensibilités du critère (comme l’uniformité d’un écoulement par exemple) par rapport aux degrés de liberté de l’optimisation. Cette méthode innovante et en rupture avec les approches classiques permet de lever très naturellement le verrou du nombre de paramètres. Cependant, les gradients fournis par les logiciels ne sont pas donnés par rapport aux paramètres CAO mais par rapport aux nœuds du maillage. Nous proposons donc une façon d’étendre ces gradients jusqu’aux paramètres CAO. Des exemples académiques ont permis de montrer la pertinence et la validité de notre approche. / Current design loops for shape optimizations allow significant improvements in relation to the functions that need to be optimized. They are widely used in industry, particularly in the car industry like Renault. Among these approaches, parametric shape optimization allows rapid enhancement of the shape, on the condition that the design space is confined enough in order to be explored within a reasonable computational time. This Thesis introduces two CAD-based large-scale shape optimization methods for products requiring significant computational cost, for example in fluid mechanics. An original way to create a parameterized CAD model developed from a dead geometry is presented first. We propose an approach to identify the restricted areas of the design space and their managements in an optimization loop that uses a design of experiments. The first method is based on statistical techniques to circumvent the difficulties of large-scale optimizations and uses a two-level multi-fidelity modelling approach to minimize the computational time. This method, breaking away from the usual industrial process, was applied to optimize the aerodynamic drag coefficient of a car body. The second method is based on the gradients provided by adjoint solvers, that is to say on the sensitivity of the cost function (such as the uniformity deviation for example) with respect to the design points or displacement boundaries. This innovative method breaking away from classical approaches naturally gets over the number of degrees of freedom. However, the sensitivities provided by softwares are not computed with respect to CAD parameters but with respect to the coordinates of the vertices of the surface mesh. Thus, we propose a way to extend these gradients to CAD parameters. Academic test cases have proved the efficiency and accuracy of our method.
|
36 |
Analyse de sensibilité pour la simulation numérique des écoulements compressibles en aérodynamique externe / Sensitivity analysis for numerical simulation of compressible flows in external aerodynamicsResmini, Andrea 11 December 2015 (has links)
L'analyse de sensibilité pour la simulation numérique des écoulements compressibles en aérodynamique externe par rapport à la discrétisation de maillage et aux incertitudes liées à des paramètres d'entrées du modèle a été traitée 1- par le moyen des méthodes adjointes pour le calcul de gradient et 2- par approximations stochastiques non-intrusives basées sur des grilles creuses. 1- Une méthode d'adaptation de maillages goal-oriented basée sur les dérivées totales des fonctions aérodynamiques d'intérêt par rapport aux nœuds du maillage a été introduite sous une forme améliorée. La méthode s'applique au cadre de volumes finis pour des écoulements RANS pour des maillages mono-bloc et multi-bloc structurés. Des applications 2D pour des écoulements transsoniques ainsi que subsonique détaché atour d'un profil pour l'estimation du coefficient de traînée sont présentées. L'apport de la méthode proposée est vérifié. 2- Les méthodes du polynôme de chaos généralisé sous forme pseudospectrale creuse et de la collocation stochastique construite sur des grilles creuses isotropes et anisotropes sont examinées. Les maillages anisotropes sont obtenus par le biais d'une méthode adaptive basée sur l'analyse de sensibilité globale. L'efficacité des ces approximations est testée avec des fonctions test et des écoulements aérodynamiques visqueux autour d'un profil en présence d'incertitudes géométriques et opérationnelles. L'intégration des méthodes et aboutissements 1- et 2- dans une approche couplée permettrait de contrôler de façon équilibrée l'erreur déterministe/stochastique goal-oriented. / Sensitivity analysis for the numerical simulation of external aerodynamics compressible flows with respect to the mesh discretization and to the model input parametric uncertainty has been addressed respectively 1- through adjoint-based gradient computation techniques and 2- through non-intrusive stochastic approximation methods based on sparse grids. 1- An enhanced goal-oriented mesh adaptation method based on aerodynamic functional total derivatives with respect to mesh coordinates in a RANS finite-volume mono-block and non-matching multi-block structured grid framework is introduced. Applications to 2D RANS flow about an airfoil in transonic and detached subsonic conditions for the drag coefficient estimation are presented. The asset of the proposed method is patent. 2- The generalized Polynomial Chaos in its sparse pseudospectral form and stochastic collocation methods based on both isotropic and dimension-adapted sparse grids obtained through an improved dimension-adaptivity method driven by global sensitivity analysis are considered. The stochastic approximations efficiency is assessed on multi-variate test functions and airfoil viscous aerodynamics simulation in the presence of geometrical and operational uncertainties. Integration of achievements 1- and 2- into a coupled approach in future work will pave the way for a well-balanced goal-oriented deterministic/stochastic error control.
|
37 |
Identification et modélisation de phénomènes vibratoires non-linéaires dans les amortisseursBenaziz, Marouane 20 December 2013 (has links)
Les phénomènes vibratoires à haute fréquence dans les amortisseurs sont défavorables du point de vue de la qualité sonore du véhicule. Les efforts transmis de l’amortisseur à la caisse, situés dans une bande de fréquences entre 200 Hz et 800 Hz, sont responsables du bruit que l’on appelle « gloglottement ». Ce bruit nait dans l’amortisseur lorsque la voiture roule sur une route dégradée et se transmet à la caisse par voie solidienne. La compréhension du phénomène de gloglottement et sa prédiction nécessitent l’identification des mécanismes physiques qui vont générer des pics d’efforts et des vibrations hautes fréquences. Ceux-ci sont liés aux comportements de l’huile de l’amortisseur, des composants mécaniques internes et des interactions entre ces éléments. Les moyens mis en oeuvre pour cette étude sont d’une part le développement d’un modèle d’amortisseur qui prend en compte la modélisation de la dynamique des clapets, des effets de « stiction » des clapets, du frottement et des relations entre les pertes de charges et les débits. D’autre part, une campagne d’essais a permis de construire le modèle et de le valider. La simulation permet de reproduire les phénomènes physiques observés à la mesure et ainsi d’identifier les mécanismes à l’origine du bruit, comme l’ouverture du clapet à ressort et la « stiction » à l’ouverture du clapet anti-retour. La sensibilité de la réponse vibratoire haute fréquence du modèle vis-à-vis de ses paramètres est évaluée avec la méthode de Morris. De plus, des orientations sont données sur la valeur des paramètres de conception dans le but de minimiser les pics d’efforts générés par l’amortisseur. / High-frequency vibratory phenomena in shock absorbers are not suitable for the car sound quality. Forces (in the frequency range [200-800] Hz) transmitted from the shock absorber to the car body are responsible for the so-called "rattling noise". This structure-borne noise is starting from the shock absorber when the car drives over a rough road and is transmitted to the car body by structural transfer path. In order to understand and predict the phenomena, physical mechanisms generating high-frequency vibrations and peaks in the shock absorber response must be identified. These mechanisms are closely related to oil behaviour, internal mechanical components and interactions between all these elements. The present work consists on the one hand in modelling the shock absorber taking into account valve dynamics, valve stiction, friction and loss of pressure relations in the orifices. On the other hand, experimental shock absorber testing was conducted in order to build the model and to validate it. Model simulations reproduce observed phenomena in the experiments and helped us to identify the mechanisms leading to structure-borne noise, like spring valve opening and check-valve stiction. Sensitivity of the model response due to its input parameters was evaluated with Morris method. Moreover, some guidances are given in order to reduce the level of structure-borne noise generated by the shock absorber.
|
38 |
Quantification des incertitudes liées aux simulations d'écoulement dans un réservoir pétrolier à l'aide de surfaces de réponse non linéairesFetel, Emmanuel 12 January 2007 (has links)
Ce travail propose un ensemble de méthodes dédiées à la quantification des incertitudes sur la simulation des écoulements dans un réservoir pétrolier. Ces méthodes sont basées sur l’utilisation de surfaces de réponse approchant la relation, le plus souvent inconnue et non linéaire, entre les paramètres incertains du réservoir et les variables de production. L’ensemble proposé contient ainsi des algorithmes de construction ou d’analyse (échantillonnage, analyse de sensibilité, inversion bayésienne d’un historique de production) de surfaces de réponse. Ces méthodes ont été tout d’abord développés dans un cadre déterministe puis étendues à la prise en compte de simulation d’écoulement secondaires et de paramètres incertains stochastiques caractérisés par un impact aléatoire sur la production. Les principales considérations de se travail sont de tenir compte d’un grand nombre de paramètres incertains, de données de production bruitée et de pourvoir modéliser une réponse de forme complexe / This work develops several methodologies to assess uncertainty on oil reservoir production. Taking in consideration that flow simulations are time consuming it uses response surfaces to approximate the relationship between reservoir uncertain parameters and production variables. First deterministic methods are developed to construct and analyze such surfaces: construction algorithms are the discrete smooth interpolation and the dual kriging while analysis methods are the variance based sensitivity analysis and the bayesian inversion of production history. This framework is then extended to include fast flow simulation results and to handle stochastic parameters characterized by a random effect on reservoir production. These methodologies are developed based on the following considerations: the number of uncertain parameters is usually large, data may be noisy if some parameters are neglected and the complex relationship between uncertain parameters and reservoir production
|
39 |
Méthodes de gestion des données manquantes en épidémiologie. : Application en cancérologie / Methods for handling missing data in epidemiology : application in oncologyResseguier, Noémie 04 December 2013 (has links)
La problématique de la gestion des données manquantes dans les études épidémiologiques est un sujet qui intéressera tous les chercheurs impliqués dans l’analyse des données recueillies et dans l’interprétation des résultats issus de ces analyses. Et même si la question de la gestion des données manquantes et de leur impact sur la validité des résultats obtenus est souvent discutée, cesont souvent les méthodes de traitement des données manquantes les plus simples mais pas toujours les plus valides qui sont utilisées en pratique. L’utilisation de chacune de ces méthodes suppose un certain nombre d’hypothèses sous lesquelles les résultats obtenus sont valides, mais il n’est pas toujours possible de tester ces hypothèses. L’objectif de ce travail était (i) de proposer une revue des différentes méthodes de traitement des données manquantes utilisées en épidémiologie en discutant les avantages et les limites de chacune de ces méthodes, (ii) de proposer une stratégie d’analyse afin d’étudier la robustesse des résultats obtenues via les méthodes classiques de traitement des données manquantes à l’écart aux hypothèses qui, bien que non testables, sont nécessaires à la validité de ces résultats, et (iii) de proposer quelques applications sur des données réelles des différents point discutés dans les deux premières parties. / The issue of how to deal with missing data in epidemiological studies is a topic which concerns every researcher involved in the analysis of collected data and in the interpretation of the results produced by these analyses. And even if the issue of the handling of missing data and of their impact on the validity of the results is often discussed, simple, but not always appropriate methods to deal with missing data are commonly used. The use of each of these methods is based on some hypotheses under which the obtained results are valid, but it is not always possible to test these hypotheses. The objective of this work was (i) to propose a review of various methods to handle missing data used in the field of epidemiology, and to discuss the advantages and disadvantages of each of these methods, (ii) to propose a strategy of analysis in order to study the robustness of the results obtained via classical methods to handle missing data to the departure from hypotheses which are required for the validity of these results, although they are not testable, and (iii) to propose some applications on real data of the issues discussed in the first two sections.
|
40 |
Sensitivity analysis of a filtering algorithm for wind lidar measurements / Analyse de sensibilité d’un algorithme de filtrage pour les mesures de vent par lidarRieutord, Thomas 13 November 2017 (has links)
L’industrie éolienne et l’aéronautique ont des besoins importants en matière de mesure de vent dans les premières centaines de mètres de l’atmosphère. Les lidars sont des instruments répandus et éprouvés pour ce type de mesure. Cependant, leurs qualités d’acquisition sont atténuées par un bruit de mesure systématique. En utilisant des techniques sur le filtrage nonlinéaire nous avons participé au développement d'un algorithme qui améliore l’estimation du vent et de la turbulence. Cet algorithme est basé sur une représentation de l’atmosphère par des particules fluides. Il utilise un modèle lagrangien stochastique de turbulence et un filtrage par sélection génétique. Son efficacité dépend du réglage de certains paramètres, fixés à une valeur acceptable à l’issue de la phase de développement. Mais l’influence de ces paramètres n’a jamais été étudiée. Ce travail de thèse répond à cette question par une analyse de sensibilité basée sur la décomposition de variance. De nouveaux estimateurs pour les indices de Sobol, utilisant des régression pénalisées, ont été testés. Ces estimateurs mettent les indices de Sobol les plus petits automatiquement à zéro pour faciliter l’interprétation globale. L’analyse de sensibilité permet de réduire le système à 9 entrées et 5 sorties à un système de 3 entrées (le nombre de particules, le bruit d’observation réel et le bruit d’observation donné au filtre) et 2 sorties (la pente du spectre de vent et l’erreur sur le vent). Grâce à ce système réduit, nous mettons en évidence une méthode de réglage des paramètres d’entrée les plus importants. Le bruit d’observation donné au filtre est bien réglé lorsque la pente du spectre est à la valeur cible de -5/3. Une fois ce bruit réglé, l’erreur sur le vent est minimale avec une expression connue. / Wind energy industry and airport safety are in need of atmospheric observations. Remote sensors, such as lidars, are well proven and common technology to provide wind measurements in the first hundreds of meters of altitude. However, acquisition abilities of lidars are polluted by measurement noise. Using non-linear filtering techniques, we took part at the development of an algorithm improving wind and turbulence estimations. The process is based on a representation of the atmosphere with fluid particles. It uses a stochastic Lagrangian model of turbulence and a genetic selection filtering technique. Its efficiency depends of the setting of various parameters. Their values were fixed experimentally during the development phase. But their influence has never been assessed. This work addresses this question with a variance-based sensitivity analysis. New estimators of Sobol indices, using penalized regression have been tested. These estimators ensure the lowest Sobol indices automatically go to zero so the overall interpretation is simplified. The sensitivity analysis allows to reduce the system from 5 outputs and 9 inputs to 3 inputs (number of particles, real observation noise, observation noise given to the filter) and 2 outputs (wind spectrum slope, root-mean-squared error on wind). With this reduced system we determined a procedure to correctly set the most important parameters. The observation noise given to the filter is well set when the wind spectrum slope has the expected value of -5/3. Once it is set correctly, the error on wind is minimum and its expression is known.
|
Page generated in 0.0787 seconds