• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 30
  • 7
  • 4
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 53
  • 32
  • 18
  • 17
  • 17
  • 16
  • 15
  • 11
  • 10
  • 10
  • 9
  • 9
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Modeling turbulence using optimal large eddy simulation

Chang, Henry, 1976- 03 July 2012 (has links)
Most flows in nature and engineering are turbulent, and many are wall-bounded. Further, in turbulent flows, the turbulence generally has a large impact on the behavior of the flow. It is therefore important to be able to predict the effects of turbulence in such flows. The Navier-Stokes equations are known to be an excellent model of the turbulence phenomenon. In simple geometries and low Reynolds numbers, very accurate numerical solutions of the Navier-Stokes equations (direct numerical simulation, or DNS) have been used to study the details of turbulent flows. However, DNS of high Reynolds number turbulent flows in complex geometries is impractical because of the escalation of computational cost with Reynolds number, due to the increasing range of spatial and temporal scales. In Large Eddy Simulation (LES), only the large-scale turbulence is simulated, while the effects of the small scales are modeled (subgrid models). LES therefore reduces computational expense, allowing flows of higher Reynolds number and more complexity to be simulated. However, this is at the cost of the subgrid modeling problem. The goal of the current research is then to develop new subgrid models consistent with the statistical properties of turbulence. The modeling approach pursued here is that of "Optimal LES". Optimal LES is a framework for constructing models with minimum error relative to an ideal LES model. The multi-point statistics used as input to the optimal LES procedure can be gathered from DNS of the same flow. However, for an optimal LES to be truly predictive, we must free ourselves from dependence on existing DNS data. We have done this by obtaining the required statistics from theoretical models which we have developed. We derived a theoretical model for the three-point third-order velocity correlation for homogeneous, isotropic turbulence in the inertial range. This model is shown be a good representation of DNS data, and it is used to construct optimal quadratic subgrid models for LES of forced isotropic turbulence with results which agree well with theory and DNS. The model can also be filtered to determine the filtered two-point third-order correlation, which describes energy transfer among filtered (large) scales in LES. LES of wall-bounded flows with unresolved wall layers commonly exhibit good prediction of mean velocities and significant over-prediction of streamwise component energies in the near-wall region. We developed improved models for the nonlinear term in the filtered Navier-Stokes equation which result in better predicted streamwise component energies. These models involve (1) Reynolds decomposition of the nonlinear term and (2) evaluation of the pressure term, which removes the divergent part of the nonlinear models. These considerations significantly improved the performance of our optimal models, and we expect them to apply to other subgrid models as well. / text
42

Evaluation et développement de modèles sous-maille pour la simulation des grandes échelles du mélange turbulent basés sur l'estimation optimale et l'apprentissage supervisé / Evaluation et development of subgrid scale models for large eddy simulation of mixing based on optimal estimator and machin learning

Vollant, Antoine 20 October 2015 (has links)
Dans ce travail, des méthodes de diagnostics et des techniques de développement de modèles sous-maille sont proposées pour la simulation des grandes échelles (SGE) du mélange turbulent. Plusieurs modèles sous-maille issus de ces stratégies sont ainsi présentés pour illustrer ces méthodes.Le principe de la SGE est de résoudre les grandes échelles de l'écoulement responsables des transferts principaux et de modéliser l'action des petites échelles de l'écoulement sur les échelles résolues. Au cours de ce travail, nous nous sommes appuyés sur le classement des modèles sous-maille en deux catégories. Les modèles "fonctionnels" qui s'attachent à reproduire les transferts énergétiques entre les échelles résolues et les échelles modélisées et les modèles "structurels" qui cherchent à bien reproduire le terme sous-maille. Le premier enjeu important a été d'évaluer la performance des modèles sous-maille en prenant en compte leur comportement à la fois fonctionnel (capacité à reproduire les transferts d'énergie) et structurel (capacité à reproduire le terme sous-maille exact). Des diagnosctics des modèles sous-maille ont pu être conduits avec l'utilisation de la notion d'estimateur optimal ce qui permet de connaitre le potentiel d'amélioration structurelle des modèles. Ces principes ont dans un premier temps servi au développement d'une première famille de modèles sous-maille algébrique appelée DRGM pour "Dynamic Regularized Gradient Model". Cette famille de modèles s'appuie sur le diagnostic structurel des termes issus de la régularisation des modèles de la famille du gradient. D'après les tests menés, cette nouvelle famille de modèle structurel a de meilleures performances fonctionnelles et structurelles que les modèles de la famille du gradient. L'amélioration des performances fonctionnelles consiste à supprimer la prédiction excessive de transferts inverses d'énergie (backscatter) observés dans les modèles de la famille du gradient. Cela permet ainsi de supprimer le comportement instable classiquement observé pour cette famille de modèles. La suite de ce travail propose ensuite d'utiliser l'estimateur optimal directement comme modèle sous-maille. Comme l'estimateur optimal fournit le modèle ayant la meilleure performance structurelle pour un jeu de variables donné, nous avons recherché le jeu de variable optimisant cette performance. Puisque ce jeu comporte un nombre élevé de variables, nous avons utilisé les fonctions d'approximation de type réseaux de neurones pour estimer cet estimateur optimal. Ce travail a mené au nouveau modèle substitut ANNM pour "Artificial Neural Network Model". Ces fonctions de substitution se construisent à partir de bases de données servant à émuler les termes exacts nécessaire à la détermination de l'estimateur optimal. Les tests de ce modèle ont montré qu'il avait de très bonnes perfomances pour des configurations de simulation peu éloignées de la base de données servant à son apprentissage, mais qu'il pouvait manquer d'universalité. Pour lever ce dernier verrou, nous avons proposé une utilisation hybride des modèles algébriques et des modèles de substitution à base de réseaux de neurones. La base de cette nouvelle famille de modèles ACM pour "Adaptative Coefficient Model" s'appuie sur les décompositions vectorielles et tensorielles des termes sous-maille exacts. Ces décompositions nécessitent le calcul de coefficients dynamiques qui sont modélisés par les réseaux de neurones. Ces réseaux bénéficient d'une méthode d'apprentissage permettant d'optimiser directement les performances structurelles et fonctionnelles des modèles ACM. Ces modèles hybrides allient l'universalité des modèles algébriques avec la performance élevée mais spécialisée des fonctions de substitution. Le résultat conduit à des modèles plus universels que l'ANNM. / This work develops subgrid model techniques and proposes methods of diagnosis for Large Eddy Simulation (LES) of turbulent mixing.Several models from these strategies are thus presented to illustrate these methods.The principle of LES is to solve the largest scales of the turbulent flow responsible for major transfers and to model the action of small scales of flowon the resolved scales. Formally, this operation leads to filter equations describing turbulent mixing. Subgrid terms then appear and must bemodeled to close the equations. In this work, we rely on the classification of subgrid models into two categories. "Functional" models whichreproduces the energy transfers between the resolved scales and modeled scales and "Structural" models that seek to reproduce the exact subgrid termitself. The first major challenge is to evaluate the performance of subgrid models taking into account their functional behavior (ability to reproduce theenergy transfers) and structural behaviour (ability to reproduce the term subgrid exactly). Diagnostics of subgrid models have been enabled with theuse of the optimal estimator theory which allows the potential of structural improvement of the model to be evaluated.These methods were initially involved for the development of a first family of models called algebraic subgrid $DRGM$ for "Dynamic Regularized GradientModel". This family of models is based on the structural diagnostic of terms given by the regularization of the gradient model family.According to the tests performed, this new structural model's family has better functional and structural performance than original model's family of thegradient. The improved functional performance is due to the vanishing of inverse energy transfer (backscatter) observed in models of thegradient family. This allows the removal of the unstable behavior typically observed for this family of models.In this work, we then propose the use of the optimal estimator directly as a subgrid scale model. Since the optimal estimator provides the modelwith the best structural performance for a given set of variables, we looked for the set of variables which optimize that performance. Since this set of variablesis large, we use surrogate functions of artificial neural networks type to estimate the optimal estimator. This leads to the "Artificial Neural Network Model"(ANNM). These alternative functions are built from databases in order to emulate the exact terms needed to determine the optimal estimator. The tests of this modelshow that he it has very good performance for simulation configurations not very far from its database used for learning, so these findings may fail thetest of universality.To overcome this difficulty, we propose a hybrid method using an algebraic model and a surrogate model based on artificial neural networks. Thebasis of this new model family $ACM$ for "Adaptive Coefficient Model" is based on vector and tensor decomposition of the exact subgrid terms. Thesedecompositions require the calculation of dynamic coefficients which are modeled by artificial neural networks. These networks have a learning method designedto directlyoptimize the structural and functional performances of $ACM$. These hybrids models combine the universality of algebraic model with high performance butvery specialized performance of surrogate models. The result give models which are more universal than ANNM.
43

Physical parameterisations for a high resolution operational numerical weather prediction model / Paramétrisations physiques pour un modèle opérationnel de prévision météorologique à haute résolution

Gerard, Luc 31 August 2001 (has links)
Les modèles de prévision opérationnelle du temps résolvent numériquement les équations de la mécanique des fluides en calculant l'évolution de champs (pression, température, humidité, vitesses) définis comme moyennes horizontales à l'échelle des mailles d'une grille (et à différents niveaux verticaux).<p><p>Les processus d'échelle inférieure à la maille jouent néanmoins un rôle essentiel dans les transferts et les bilans de chaleur, humidité et quantité de mouvement. Les paramétrisations physiques visent à évaluer les termes de source correspondant à ces phénomènes, et apparaissant dans les équations des champs moyens aux points de grille.<p><p>Lorsque l'on diminue la taille des mailles afin de représenter plus finement l'évolution des phénomènes atmosphériques, certaines hypothèses utilisées dans ces paramétrisations perdent leur validité. Le problème se pose surtout quand la taille des mailles passe en dessous d'une dizaine de kilomètres, se rapprochant de la taille des grands systèmes de nuages convectifs (systèmes orageux, lignes de grain).<p><p>Ce travail s'inscrit dans le cadre des développements du modèle à mailles fines ARPÈGE ALADIN, utilisé par une douzaine de pays pour l'élaboration de prévisions à courte échéance (jusque 48 heures).<p><p>Nous décrivons d'abord l'ensemble des paramétrisations physiques du modèle.<p>Suit une analyse détaillée de la paramétrisation actuelle de la convection profonde. Nous présentons également notre contribution personnelle à celle ci, concernant l'entraînement de la quantité de mouvement horizontale dans le nuage convectif.<p>Nous faisons ressortir les principaux points faibles ou hypothèses nécessitant des mailles de grandes dimensions, et dégageons les voies pour de nouveaux développements.<p>Nous approfondissons ensuite deux des aspects sortis de cette discussion: l'usage de variables pronostiques de l'activité convective, et la prise en compte de différences entre l'environnement immédiat du nuage et les valeurs des champs à grande échelle. Ceci nous conduit à la réalisation et la mise en œuvre d'un schéma pronostique de la convection profonde.<p>A ce schéma devraient encore s'ajouter une paramétrisation pronostique des phases condensées suspendues (actuellement en cours de développement par d'autres personnes) et quelques autres améliorations que nous proposons.<p>Des tests de validation et de comportement du schéma pronostique ont été effectués en modèle à aire limitée à différentes résolutions et en modèle global. Dans ce dernier cas l'effet du nouveau schéma sur les bilans globaux est également examiné.<p>Ces expériences apportent un éclairage supplémentaire sur le comportement du schéma convectif et les problèmes de partage entre la schéma de convection profonde et le schéma de précipitation de grande échelle.<p><p>La présente étude fait donc le point sur le statut actuel des différentes paramétrisations du modèle, et propose des solutions pratiques pour améliorer la qualité de la représentation des phénomènes convectifs.<p><p>L'utilisation de mailles plus petites que 5 km nécessite enfin de lever l'hypothèse hydrostatique dans les équations de grande échelle, et nous esquissons les raffinements supplémentaires de la paramétrisation possibles dans ce cas.<p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
44

Study of variational ensemble methods for image assimilation / Étude de méthodes d'ensemble variationelles pour l'assimilation d'images

Yang, Yin 16 December 2014 (has links)
Les méthodes hybrides combinant les méthodes de 4D Variationnelle et le filtre de Kalman d'ensemble fournissent un cadre flexible. Dans ce cadre, les avantages potentiels par rapport à chaque méthode (e.g. la matrice de covariances d'erreur d'ébauche dépendant d'écoulement, la capacité d'obtenir explicitement la matrice de covariances d'erreur d'analyse, la procédure de minimisation itérative et l'assimilation simultanée de toutes les observations dans un intervalle de temps etc.) peuvent être conservés. Dans cette thèse, un système d'ensemblist-4DVar renforcé a été proposé et a été analysé en détail dans le cas du modèle de 2D shallow-water. Nous avons proposé un nouveau schéma de boucle imbriquée dans laquelle la matrice de covariances d'erreur d'ébauche est mis à jour pour chaque boucle externe. Nous avons aussi élaboré différents schémas de mise à jour ensemble avec deux stratégies de localisation et exploité les liens entre la matrice de covariances d'erreur d'analyse et la matrice hessienne de la fonction coût. Toutes ces variantes ont été testées avec les données réelles de l'image capturés par Kinect et les données d'image associés à un modèle de Surface Quasi-Géostrophique, respectivement. A la deuxième étape, un système d'estimation des paramètres à partir de notre méthode ensemblist-4DVar proposée est conçu. Cette formulation nous permet de estimer des paramètres d'une incertitude de stress tenseur. Et cette incertitude de stress tenseur est dérivé d'un point de vue de phénomène d'écoulement entraînée par un processus stochastique. Enfin, un premier effort est fait pour l'assimilation des données d'image à haute résolution avec le modèle dynamique sur une grille plus grossière. / The hybrid methods combing the 4D variational method and the ensemble Kalman filter provide a flexible framework. In such framework the potential advantages with respect to each method (e.g. the flow-dependent background error covariance, the ability to explicitly get the analysis error covariance matrix, the iterative minimization procedure and the simultaneously assimilation of all observations with in a time span etc.) can be retained. In this thesis, an enhanced ensemble-based 4DVar scheme is proposed and has been analyzed in detail in the case of the 2D shallow water model. Several variations related to this method are introduced and tested. We proposed a new nested loop scheme in which the background error covariance matrix is updated for each outer loop. We also devised different ensemble update schemes together with two localization schemes. And we exploited the links between the analysis error covariance matrix and the inverse Hessian of our 4D cost function. All these variants have been tested with the real Kinect-captured image data and synthetic image data associated with a SQG (Surface Quasi-Geostrophic) model, respectively. At the second stage, a parameter estimation scheme of our proposed ensemble-based variational method is devised. Such formulation allows the parameter estimation of an uncertainty subgrid stress tensor. And this uncertainty subgrid stress tensor is derived from a perspective of flow phenomenon driven by a stochastic process. Finally, a first effort is made to assimilation high-resolution image data with the dynamical model running on a much coarser grid.
45

Particle subgrid scale modeling in large-eddy simulation of particle-laden turbulence

Cernick, Matthew J. 04 1900 (has links)
<p>This thesis is concerned with particle subgrid scale (SGS) modeling in large-eddy simulation (LES) of particle-laden turbulence. Although most particle-laden LES studies have neglected the effect of the subgrid scales on the particles, several particle SGS models have been proposed in the literature. In this research, the approximate deconvolution method (ADM), and the stochastic models of Fukagata et al. (2004), Shotorban and Mashayek (2006) and Berrouk et al. (2007) are analyzed. The particle SGS models are assessed by conducting both a priori and a posteriori tests of a periodic box of decaying, homogeneous and isotropic turbulence with an initial Reynolds number of Re=74. The model results are compared with particle statistics from a direct numerical simulation (DNS). Particles with a large range of Stokes numbers are tested using various filter sizes and stochastic model constant values. Simulations with and without gravity are performed to evaluate the ability of the models to account for the crossing trajectory and continuity effects. The results show that ADM improves results but is only capable of recovering a portion of the SGS turbulent kinetic energy. Conversely, the stochastic models are able to recover sufficient energy, but show a large range of results dependent on Stokes number and filter size. The stochastic models generally perform best at small Stokes numbers. Due to the random component, the stochastic models are unable to predict preferential concentration.</p> / Master of Applied Science (MASc)
46

Reduced-Order Modeling of Complex Engineering and Geophysical Flows: Analysis and Computations

Wang, Zhu 14 May 2012 (has links)
Reduced-order models are frequently used in the simulation of complex flows to overcome the high computational cost of direct numerical simulations, especially for three-dimensional nonlinear problems. Proper orthogonal decomposition, as one of the most commonly used tools to generate reduced-order models, has been utilized in many engineering and scientific applications. Its original promise of computationally efficient, yet accurate approximation of coherent structures in high Reynolds number turbulent flows, however, still remains to be fulfilled. To balance the low computational cost required by reduced-order modeling and the complexity of the targeted flows, appropriate closure modeling strategies need to be employed. In this dissertation, we put forth two new closure models for the proper orthogonal decomposition reduced-order modeling of structurally dominated turbulent flows: the dynamic subgrid-scale model and the variational multiscale model. These models, which are considered state-of-the-art in large eddy simulation, are carefully derived and numerically investigated. Since modern closure models for turbulent flows generally have non-polynomial nonlinearities, their efficient numerical discretization within a proper orthogonal decomposition framework is challenging. This dissertation proposes a two-level method for an efficient and accurate numerical discretization of general nonlinear proper orthogonal decomposition closure models. This method computes the nonlinear terms of the reduced-order model on a coarse mesh. Compared with a brute force computational approach in which the nonlinear terms are evaluated on the fine mesh at each time step, the two-level method attains the same level of accuracy while dramatically reducing the computational cost. We numerically illustrate these improvements in the two-level method by using it in three settings: the one-dimensional Burgers equation with a small diffusion parameter, a two-dimensional flow past a cylinder at Reynolds number Re = 200, and a three-dimensional flow past a cylinder at Reynolds number Re = 1000. With the help of the two-level algorithm, the new nonlinear proper orthogonal decomposition closure models (i.e., the dynamic subgrid-scale model and the variational multiscale model), together with the mixing length and the Smagorinsky closure models, are tested in the numerical simulation of a three-dimensional turbulent flow past a cylinder at Re = 1000. Five criteria are used to judge the performance of the proper orthogonal decomposition reduced-order models: the kinetic energy spectrum, the mean velocity, the Reynolds stresses, the root mean square values of the velocity fluctuations, and the time evolution of the proper orthogonal decomposition basis coefficients. All the numerical results are benchmarked against a direct numerical simulation. Based on these numerical results, we conclude that the dynamic subgrid-scale and the variational multiscale models are the most accurate. We present a rigorous numerical analysis for the discretization of the new models. As a first step, we derive an error estimate for the time discretization of the Smagorinsky proper orthogonal decomposition reduced-order model for the Burgers equation with a small diffusion parameter. The theoretical analysis is numerically verified by two tests on problems displaying shock-like phenomena. We then present a thorough numerical analysis for the finite element discretization of the variational multiscale proper orthogonal decomposition reduced-order model for convection-dominated convection-diffusion-reaction equations. Numerical tests show the increased numerical accuracy over the standard reduced-order model and illustrate the theoretical convergence rates. We also discuss the use of the new reduced-order models in realistic applications such as airflow simulation in energy efficient building design and control problems as well as numerical simulation of large-scale ocean motions in climate modeling. Several research directions that we plan to pursue in the future are outlined. / Ph. D.
47

Evaluation of statistical cloud parameterizations

Brück, Heiner Matthias 04 November 2016 (has links) (PDF)
This work is motivated by the question: how much complexity is appropriate for a cloud parameterization used in general circulation models (GCM). To approach this question, cloud parameterizations across the complexity range are explored using general circulation models and theoretical Monte-Carlo simulations. Their results are compared with high-resolution satellite observations and simulations that resolve the GCM subgrid-scale variability explicitly. A process-orientated evaluation is facilitated by GCM forecast simulations which reproduce the synoptic state. For this purpose novel methods were develop to a) conceptually relate the underlying saturation deficit probability density function (PDF) with its saturated cloudy part, b) analytically compute the vertical integrated liquid water path (LWP) variability, c) diagnose the relevant PDF-moments from cloud parameterizations, d) derive high-resolution LWP from satellite observations and e) deduce the LWP statistics by aggregating the LWP onto boxes equivalent to the GCM grid size. On this basis, this work shows that it is possible to evaluate the sub-grid scale variability of cloud parameterizations in terms of cloud variables. Differences among the PDF types increase with complexity, in particular the more advanced cloud parameterizations can make use of their double Gaussian PDF in conditions, where cumulus convection forms a separate mode with respect to the remainder of the grid-box. Therefore, it is concluded that the difference between unimodal and bimodal PDFs is more important, than the shape within each mode. However, the simulations and their evaluation reveals that the advanced parameterizations do not take full advantage of their abilities and their statistical relationships are broadly similar to less complex PDF shapes, while the results from observations and cloud resolving simulations indicate even more complex distributions. Therefore, this work suggests that the use of less complex PDF shapes might yield a better trade-off. With increasing model resolution initial weaknesses of simpler, e.g. unimodal PDFs, will be diminished. While cloud schemes for coarse-resolved models need to parameterize multiple cloud regimes per grid-box, higher spatial resolution of future GCMs will separate them better, so that the unimodal approximation improves.
48

Modélisation d'écoulements atmosphériques stratifiés par Large-Eddy Simulation à l'aide de Code_Saturne / Large-eddy simulation of stratified atmospheric flows with the CFD code Code_Saturne

Dall'Ozzo, Cédric 14 June 2013 (has links)
La modélisation par simulation des grandes échelles (Large-Eddy Simulation - LES) des processus physiques régissant la couche limite atmosphérique (CLA) demeure complexe de part la difficulté des modèles à capter l'évolution de la turbulence entre différentes conditions de stratification. De ce fait, l'étude LES du cycle diurne complet de la CLA comprenant des situations convectives la journée et des conditions stables la nuit est très peu documenté. La simulation de la couche limite stable où la turbulence est faible, intermittente et qui est caractérisée par des structures turbulentes de petite taille est tout particulièrement compliquée. En conséquence, la capacité de la LES à bien reproduire les conditions météorologiques de la CLA, notamment en situation stable, est étudiée à l'aide du code de mécanique des fluides développé par EDF R&D, Code_Saturne. Dans une première étude, le modèle LES est validé sur un cas de couche limite convective quasi stationnaire sur terrain homogène. L'influence des modèles sous-maille de Smagorinsky, Germano-Lilly, Wong-Lilly et WALE (Wall-Adapting Local Eddy-viscosity) ainsi que la sensibilité aux méthodes de paramétrisation sur les champs moyens, les flux et les variances est discutées. Dans une seconde étude le cycle diurne complet de la CLA pendant la campagne de mesure Wangara est modélisé. L'écart aux mesures étant faible le jour, ce travail se concentre sur les difficultés rencontrées la nuit à bien modéliser la couche limite stable. L'impact de différents modèles sous-maille ainsi que la sensibilité au coefficient de Smagorinsky ont été analysés. Par l'intermédiaire d'un couplage radiatif réalisé en LES, les répercussions du rayonnement infrarouge et solaire sur le jet de basse couche nocturne et le gradient thermique près de la surface sont exposées. De plus l'adaptation de la résolution du domaine à l'intensité de la turbulence et la forte stabilité atmosphérique durant l'expérience Wangara sont commentées. Enfin un examen des oscillations numériques inhérentes à Code_Saturne est réalisé afin d'en limiter les effets / Large-eddy simulation (LES) of the physical processes in the atmospheric boundary layer (ABL) remains a complex subject. LES models have difficulties to capture the evolution of the turbulence in different conditions of stratification. Consequently, LES of the whole diurnal cycle of the ABL including convetive situations in daytime and stable situations in the night time is seldom documented. The simulation of the stable atmospheric boundary layer which is characterized by small eddies and by weak and sporadic turbulence is espacialy difficult. Therefore The LES ability to well reproduce real meteorological conditions, particularly in stable situations, is studied with the CFD code developed by EDF R&D, Code_Saturne. The first study consist in validate LES on a quasi-steady state convective case with homogeneous terrain. The influence of the subgrid-scale models (Smagorinsky model, Germano-Lilly model, Wong-Lilly model and Wall-Adapting Local Eddy-viscosity model) and the sensitivity to the parametrization method on the mean fields, flux and variances are discussed.In a second study, the diurnal cycle of the ABL during Wangara experiment is simulated. The deviation from the measurement is weak during the day, so this work is focused on the difficulties met during the night to simulate the stable atmospheric boundary layer. The impact of the different subgrid-scale models and the sensitivity to the Smagorinsky constant are been analysed. By coupling radiative forcing with LES, the consequences of infra-red and solar radiation on the nocturnal low level jet and on thermal gradient, close to the surface, are exposed. More, enhancement of the domain resolution to the turbulence intensity and the strong atmospheric stability during the Wangara experiment are analysed. Finally, a study of the numerical oscillations inherent to Code_Saturne is realized in order to decrease their effects
49

Simula??es num?ricas de correntes gravitacionais com elevado n?mero de Reynolds

Frantz, Ricardo Andr? Schuh 09 March 2018 (has links)
Submitted by PPG Engenharia e Tecnologia de Materiais (engenharia.pg.materiais@pucrs.br) on 2018-06-05T13:28:29Z No. of bitstreams: 1 frantz2018simulacoes.pdf: 23131075 bytes, checksum: e748910d1820968a07c86be9461b7489 (MD5) / Approved for entry into archive by Sheila Dias (sheila.dias@pucrs.br) on 2018-06-12T12:40:17Z (GMT) No. of bitstreams: 1 frantz2018simulacoes.pdf: 23131075 bytes, checksum: e748910d1820968a07c86be9461b7489 (MD5) / Made available in DSpace on 2018-06-12T12:49:08Z (GMT). No. of bitstreams: 1 frantz2018simulacoes.pdf: 23131075 bytes, checksum: e748910d1820968a07c86be9461b7489 (MD5) Previous issue date: 2018-03-09 / Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior - CAPES / This work investigates the method of large-eddy simulation (LES) in the context of gravity currents, which is found necessary since it allows a substantial increase in the order of magnitude of the characteristic Reynolds number used in numerical simulations, approaching them with natural scales, in addition to significantly reducing the computational cost. The implicit large eddy simulation (ILES) methodology, based on the spectral vanishing viscosity model, is unprecedentedly employed in the context of gravity currents, is compared against with explicit methods such as the static and dynamic Smagorisnky. The evaluation of the models is performed based on statistics from a direct numerical simulation (DNS). Results demonstrate that the first model based purely on numerical dissipation, introduced by means of the second order derivative, generates better correlations with the direct simulation. Finally, experimental cases of the literature, in different flow configurations, are reproduced numerically showing good agreement in terms of the front position evolution. / Este trabalho investiga o m?todo de simula??o de grandes escalas (LES) no contexto de correntes gravitacionais. O mesmo se faz necess?rio, visto que possibilita um aumento substancial da ordem de grandeza do n?mero de Reynolds caracter?stico utilizado em simula??es num?ricas, aproximando os mesmos de escalas naturais, al?m de reduzir significativamente o custo computacional dos c?lculos. A avalia??o dos modelos ? realizada utilizando uma base de dados de simula??o num?rica direta (DNS). A metodologia de simula??o de grandes escalas impl?cita (ILES), baseada no modelo de viscosidade turbulenta espectral, ? colocado a prova de maneira in?dita no contexto de correntes de gravidade com m?todos expl?citos dispon?veis na literatura. Resultados demonstram que o mesmo, baseado puramente em dissipa??o num?rica introduzida por meio do comportamento dos esquemas de derivada de segunda ordem, gera melhores correla??es com as estat?sticas baseadas em campos m?dios da simula??o direta. Por fim, casos experimentais da literatura, em diferentes configura??es de escoamento, s?o reproduzidos numericamente.
50

Simulation aux Grandes Echelles et chimie complexe pour la modélisation de la structure chimique des flammes turbulentes / Large Eddy Simulations and complex chemistry for modeling the chemical structure of turbulent flames

Mehl, Cédric 12 June 2018 (has links)
La Simulation aux Grandes Echelles (SGE) est appliquée à des brûleurs industriels pour prédire de nombreux phénomènes physiques complexes, tel que l’allumage ou la formation de polluants. La prise en compte de réactions chimiques détaillées est alors indispensable pour obtenir des résultats précis. L’amélioration des moyens de calculs permet de réaliser des simulations de brûleurs avec une chimie de plus en plus détaillée. La principale problématique est le couplage entre les réactions chimiques et l’écoulement turbulent. Bien que la dynamique de flamme soit souvent bien reproduite avec les modèles actuels, la prédiction de phénomènes complexes comme la formation de polluants reste une tâche difficile. En particulier, des études ont montré que l’influence du plissement de sous-maille sur la structure chimique des flammes n’était pas prise en compte de manière précise. Deux modèles basés sur le filtrage explicite des fronts de flammes sont étudiés dans cette thèse afin d’améliorer la prédiction de polluants en combustion turbulente prémélangée : (i) le premier modèle met en jeu une méthode de déconvolution des variables filtrées ; (ii) le second modèle implique l’optimisation de la chimie pour obtenir des flammes turbulentes filtrées. L’objectif de la thèse est d’obtenir une prédiction précise des polluants à coût de calcul réduit. / Large Eddy Simulation (LES) is applied to industrial burners to predict a wide range of complex physical phenomena, such as flame ignition and pollutants formation. The prediction accuracy is tightly linked to the ability to describe in detail the chemical reactions and thus the flame chemical structure. With the improvement of computational clusters, the simulation of industrial burners with detailed chemistry becomes possible. A major issue is then to couple detailed chemical mechanisms to turbulent flows. While the flame dynamics is often correctly simulated with stateof- the-art models, the prediction of complex phenomena such as pollutants formation remains a difficult task. Several investigations show that, in many models, the impact of flame subgrid scale wrinkling on the chemical flame structure is not accurately taken into account. Two models based on explicit flame front filtering are explored in this thesis to improve pollutants formation in turbulent premixed combustion: (i) a model based on deconvolution of filtered scalars; (ii) a model involving the optimization of chemistry to reproduce filtered turbulent flames. The objective of the work is to achieve high accuracy in pollutants formation prediction at low computational costs.

Page generated in 0.0332 seconds