• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 14
  • 6
  • Tagged with
  • 48
  • 30
  • 17
  • 17
  • 16
  • 10
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Evaluation et développement de modèles sous-maille pour la simulation des grandes échelles du mélange turbulent basés sur l'estimation optimale et l'apprentissage supervisé / Evaluation et development of subgrid scale models for large eddy simulation of mixing based on optimal estimator and machin learning

Vollant, Antoine 20 October 2015 (has links)
Dans ce travail, des méthodes de diagnostics et des techniques de développement de modèles sous-maille sont proposées pour la simulation des grandes échelles (SGE) du mélange turbulent. Plusieurs modèles sous-maille issus de ces stratégies sont ainsi présentés pour illustrer ces méthodes.Le principe de la SGE est de résoudre les grandes échelles de l'écoulement responsables des transferts principaux et de modéliser l'action des petites échelles de l'écoulement sur les échelles résolues. Au cours de ce travail, nous nous sommes appuyés sur le classement des modèles sous-maille en deux catégories. Les modèles "fonctionnels" qui s'attachent à reproduire les transferts énergétiques entre les échelles résolues et les échelles modélisées et les modèles "structurels" qui cherchent à bien reproduire le terme sous-maille. Le premier enjeu important a été d'évaluer la performance des modèles sous-maille en prenant en compte leur comportement à la fois fonctionnel (capacité à reproduire les transferts d'énergie) et structurel (capacité à reproduire le terme sous-maille exact). Des diagnosctics des modèles sous-maille ont pu être conduits avec l'utilisation de la notion d'estimateur optimal ce qui permet de connaitre le potentiel d'amélioration structurelle des modèles. Ces principes ont dans un premier temps servi au développement d'une première famille de modèles sous-maille algébrique appelée DRGM pour "Dynamic Regularized Gradient Model". Cette famille de modèles s'appuie sur le diagnostic structurel des termes issus de la régularisation des modèles de la famille du gradient. D'après les tests menés, cette nouvelle famille de modèle structurel a de meilleures performances fonctionnelles et structurelles que les modèles de la famille du gradient. L'amélioration des performances fonctionnelles consiste à supprimer la prédiction excessive de transferts inverses d'énergie (backscatter) observés dans les modèles de la famille du gradient. Cela permet ainsi de supprimer le comportement instable classiquement observé pour cette famille de modèles. La suite de ce travail propose ensuite d'utiliser l'estimateur optimal directement comme modèle sous-maille. Comme l'estimateur optimal fournit le modèle ayant la meilleure performance structurelle pour un jeu de variables donné, nous avons recherché le jeu de variable optimisant cette performance. Puisque ce jeu comporte un nombre élevé de variables, nous avons utilisé les fonctions d'approximation de type réseaux de neurones pour estimer cet estimateur optimal. Ce travail a mené au nouveau modèle substitut ANNM pour "Artificial Neural Network Model". Ces fonctions de substitution se construisent à partir de bases de données servant à émuler les termes exacts nécessaire à la détermination de l'estimateur optimal. Les tests de ce modèle ont montré qu'il avait de très bonnes perfomances pour des configurations de simulation peu éloignées de la base de données servant à son apprentissage, mais qu'il pouvait manquer d'universalité. Pour lever ce dernier verrou, nous avons proposé une utilisation hybride des modèles algébriques et des modèles de substitution à base de réseaux de neurones. La base de cette nouvelle famille de modèles ACM pour "Adaptative Coefficient Model" s'appuie sur les décompositions vectorielles et tensorielles des termes sous-maille exacts. Ces décompositions nécessitent le calcul de coefficients dynamiques qui sont modélisés par les réseaux de neurones. Ces réseaux bénéficient d'une méthode d'apprentissage permettant d'optimiser directement les performances structurelles et fonctionnelles des modèles ACM. Ces modèles hybrides allient l'universalité des modèles algébriques avec la performance élevée mais spécialisée des fonctions de substitution. Le résultat conduit à des modèles plus universels que l'ANNM. / This work develops subgrid model techniques and proposes methods of diagnosis for Large Eddy Simulation (LES) of turbulent mixing.Several models from these strategies are thus presented to illustrate these methods.The principle of LES is to solve the largest scales of the turbulent flow responsible for major transfers and to model the action of small scales of flowon the resolved scales. Formally, this operation leads to filter equations describing turbulent mixing. Subgrid terms then appear and must bemodeled to close the equations. In this work, we rely on the classification of subgrid models into two categories. "Functional" models whichreproduces the energy transfers between the resolved scales and modeled scales and "Structural" models that seek to reproduce the exact subgrid termitself. The first major challenge is to evaluate the performance of subgrid models taking into account their functional behavior (ability to reproduce theenergy transfers) and structural behaviour (ability to reproduce the term subgrid exactly). Diagnostics of subgrid models have been enabled with theuse of the optimal estimator theory which allows the potential of structural improvement of the model to be evaluated.These methods were initially involved for the development of a first family of models called algebraic subgrid $DRGM$ for "Dynamic Regularized GradientModel". This family of models is based on the structural diagnostic of terms given by the regularization of the gradient model family.According to the tests performed, this new structural model's family has better functional and structural performance than original model's family of thegradient. The improved functional performance is due to the vanishing of inverse energy transfer (backscatter) observed in models of thegradient family. This allows the removal of the unstable behavior typically observed for this family of models.In this work, we then propose the use of the optimal estimator directly as a subgrid scale model. Since the optimal estimator provides the modelwith the best structural performance for a given set of variables, we looked for the set of variables which optimize that performance. Since this set of variablesis large, we use surrogate functions of artificial neural networks type to estimate the optimal estimator. This leads to the "Artificial Neural Network Model"(ANNM). These alternative functions are built from databases in order to emulate the exact terms needed to determine the optimal estimator. The tests of this modelshow that he it has very good performance for simulation configurations not very far from its database used for learning, so these findings may fail thetest of universality.To overcome this difficulty, we propose a hybrid method using an algebraic model and a surrogate model based on artificial neural networks. Thebasis of this new model family $ACM$ for "Adaptive Coefficient Model" is based on vector and tensor decomposition of the exact subgrid terms. Thesedecompositions require the calculation of dynamic coefficients which are modeled by artificial neural networks. These networks have a learning method designedto directlyoptimize the structural and functional performances of $ACM$. These hybrids models combine the universality of algebraic model with high performance butvery specialized performance of surrogate models. The result give models which are more universal than ANNM.
32

Nanocristaux optiquement non linéaires pour des applications en imagerie biologique : synthèse et caractérisations d'iodate de fer en microémulsions / Nonlinear optical response of nanocrystals for biological imaging applications : synthesis and characterizations of iron iodate in microemulsions

El Kass, Moustafa 07 December 2011 (has links)
Le développement de nanomatériaux à propriétés optiques et fonctionnalisés pour un marquage spécifique est en plein essor dans le domaine de l'imagerie biologique. Parmi les agents de contraste exogènes déjà utilisés, les marqueurs fluorescents tels que les nanocristaux semi-conducteurs (CdSe/ZnS,…) et les molécules organiques naturelles (GFP,…) ou synthétiques (fluorescéine,…) souffrent respectivement de clignotements (blinking) et de photo-blanchiment (bleaching) c'est-à-dire d'une faible tenue au rayonnement lumineux incident. Récemment, la microscopie de Génération de Second Harmonique (GSH) à partir de structures non-centrosymétriques de certains matériaux ou molécules optiquement non linéaires (ONL), s'est révélée un outil particulièrement prometteur. Les inconvénients du clignotement et du photo-blanchiment sont en effet absents pour le processus non linéaire de GSH. De plus, le principe de fonctionnement des marqueurs ONL repose sur un processus non résonant, contrairement aux marqueurs fluorescents, ce qui est un avantage décisif pour le choix de la longueur d'onde d'excitation des nanosondes. Pour des illuminations dans le proche infrarouge, cela permet de limiter l'énergie déposée dans le milieu biologique, d'augmenter la profondeur d'imagerie et enfin de bien séparer spectralement les signaux des marqueurs ONL de l'auto-fluorescence naturelle de certains échantillons. Notre objectif, dans ce contexte, était la synthèse et la caractérisation de nouvelles nanosondes ONL de forme sphérique et de taille inférieure à 100nm. Le matériau de structure cristalline non centrosymétrique retenu est l'iodate de fer (Fe(IO3)3) car ses éléments chimiques sont peu toxiques et que ses propriétés paramagnétiques peuvent également donner un contraste en imagerie par résonance magnétique (IRM) ce qui est potentiellement intéressant par rapport à d'autres cristaux ONL tels que ZnO, KNbO3, BaTiO3 et KTP. D'un point de vue synthèse, les microémulsions inverses sont bien référencées dans la littérature pour leur rôle de gabarit permettant un bon contrôle de la taille et de la morphologie des nanomatériaux obtenus par co-précipitation. Dans ce travail, les nano-réacteurs ont été préparés à partir des systèmes AOT/alcane/eau et Triton/1-hexanol/cyclohexane/eau. De manière très originale et pratique, le développement d'un banc optique de diffusion Hyper-Rayleigh (HRS) a permis de suivre in-situ et en temps réel les cinétiques de cristallisation des nanoparticules de Fe(IO3)3 en fonction de conditions expérimentales variables. Les mécanismes de croissance et de cristallisation des nano-bâtonnets de Fe(IO3)3 ont été élucidés en combinant d'autres techniques physico-chimiques usuelles comme la diffraction des rayons X, la diffusion dynamique de la lumière et la microscopie électronique en transmission. Nous avons démontré que la température et la nature du tensioactif influencent les forces d'interaction à l'interface organique-inorganique ce qui permet, pour certaines conditions expérimentales, de réduire la taille et la polydispersité des nanocristaux en fin de processus. Toutefois, avant d'envisager l'utilisation de ces derniers en tant que marqueurs optiques spécifiques, il est nécessaire d'encapsuler ces nanocristaux en raison de la faible stabilité du composé aux pH physiologiques. Les premiers essais de stabilisation en microémulsions par une couche de silice ont permis d'obtenir des nanoparticules de taille ~ 10 nm avec une forte réponse ONL. La caractérisation complète et la fonctionnalisation de ces nanostructures ainsi qu'une optimisation des interactions à l'interface particules – films de tensioactifs constituent les perspectives de ce travail. / The development of functionalized nanomaterials with optical properties for a site-specific labeling or conjugation has undergone a rapid growth in the biological imaging field. Among the exogenous contrast agents which are already used, fluorescent nanocrystals such as semi-conductor (CdSe / ZnS, ...) and natural organic molecules (GFP, ...) or synthetic molecules (fluorescein, ...) suffer from blinking and photobleaching, respectively. Recently, Second Harmonic Generation (SHG) from acentric structures of some Non-Linear Optical (NLO) materials or organic molecules appeared to be particularly promising. Indeed, the major disadvantages of blinking and photobleaching are absent in the SHG process. Additionally, imaging of NLO probes is based on a non-resonant process, contrary to traditional fluorescent probes, which is key in terms of excitation wavelength. Near infrared illumination can limit the energy deposited in the biological tissues, increase the imaging depth and, finally, the SHG signal can be more readily spectrally resolved from the natural auto-fluorescence. The main objectives of this thesis were the synthesis and characterization of new NLO nanoprobes with a spherical shape and a size lower than 100 nm. The non-centrosymmetric material of interest is iron iodate (Fe(IO3)3). Its chemical elements are non toxic and its paramagnetic response may also provide a contrast in Magnetic Resonance Imaging (MRI) which is not the case of the other NLO crystals such as ZnO, KNbO3, BaTiO3 and KTP. From a synthesis point of view, reverse microemulsions are well documented in the literature as good templates for the size and shape control of nanomaterials obtained by a coprecipitation reaction. In this work, nanoreactors were prepared from the AOT/alkane/water and Triton/1-hexanol /cyclohexane/water systems..A very original and convenient setup based on the Hyper-Rayleigh Scattering (HRS) was implemented so that the real-time crystallization kinetics of the growing acentric iron iodate nanocrystals in microemulsions could be measured according to different experimental conditions. We demonstrate that HRS is a fast, valuable and nondestructive alternative to probe in-situ the crystallization and growth dynamics of Fe(IO3)3 nanorods whereas the growth mechanism was elucidated by a combination of Dynamic Light Scattering, X-ray diffraction and Transmission Electron Microscopy experiments. The binding interaction between surfactant molecules and colloidal particles was studied as a function of the synthesis temperature as well as the surfactant nature. In some experimental conditions the size and polydispersity of the final nanorods can be thus reduced. However, the use of iron iodate as specific NLO optical probes is so far restricted due to its low stability at physiological pH. Preliminary encapsulation tests by a thin silica-coating in reverse microemulsions show the presence of ~ 10nm nanocparticles with a strong NLO response. The complete characterization and functionalization of these nanostructures as well as the optimization of the binding interactions at the organic-inorganic interface are the prospects of this work
33

Turbulent combustion modeling for Large Eddy Simulation of non-adiabatic stratified flames / Modélisation de la combustion turbulente pour la simulation aux grandes échelles de flammes non-adiabatiques stratifiées en richesse

Mercier, Renaud 04 September 2015 (has links)
La conception des chambres de combustion industrielles (chambres de combustion aéronautiques, fours industriels, etc.) requiert une prédiction fine des phénomènes physiques dominants. En particulier, l’interaction flamme turbulence aux échelles résolues et non-résolues, l’impact de la composition et du mélange des réactifs, l’impact des pertes thermiques et de la diffusion différentielle doivent être capturés fidèlement. C’est dans ce contexte que le modèle de combustion turbulente F-TACLES (Filtered TAbulated Chemistryfor Large Eddy Simulation) a été développé afin de coupler une méthode de chimie tabulée (FPI) avec le formalisme de la simulation aux grandes échelles(LES).Dans cette thèse, le modèle F-TACLES, initialement développé pour des écoulements adiabatiques, est étendu à la prise en compte des pertes thermiques. Un formalisme adapté à l’utilisation de bases de chimie tabulée calculées avec la diffusion différentielle est aussi proposé. Ces développements sont validés sur deux configurations : le brûleur TSF et le brûleur SWB.La modélisation de l’interaction flamme-turbulence est ensuite étudiée. Une étude de sensibilité du modèle de plissement de sous-maille de Charlette et al. (2002) à ses paramètres et sous-modèles est réalisée sur le brûleur SWB.En particulier, une méthode d’estimation dynamique des paramètres est aussi évaluée et montre d’excellents résultats. Une généralisation du formalisme de la LES pour les écoulements réactifs est ensuite proposée afin de prendre en compte explicitement les deux filtres mis en jeu dans les simulations : le filtre associé à l’écoulement et le filtre associé à la flamme. Deux stratégies de fermetures sont proposées en se basant sur des modèles existants (F-TACLES et TFLES). Le modèle obtenu, appelé modèle F2-TACLES, est ensuite validé et comparé avec F-TACLES sur la configuration semi-industrielle PRECCINSTA.Pour terminer, la capacité du modèle F-TACLES à capturer l’impact des pertes thermiques et de la composition des gaz frais sur la topologie de flammes est évaluée. Cette étude est réalisée sur une série de flammes CH4-H2-Air turbulentes en giration et prenant des formes différentes en fonction du niveau de pertes thermiques et de la composition des réactifs. / The design of industrial combustion chambers (aeronautical engines, industrial furnaces, etc.) require a fine prediction of the different governing phenomena. Flame-turbulence interaction at resolved and unresolved scales, impact of reactants composition and mixing process, impact of heat losses and differential diffusion have to be correctly captured in such configurations. For that purpose,the turbulent combustion model F-TACLES (Filtered Tabulated Chemistry forLarge Eddy Simulation) has been developed to couple tabulated chemistry with large eddy simulation (LES) formalism.In this thesis, the F-TACLES model, initially developed for unity Lewis number and adiabatic flows, is extended to account for heat losses. A formalism allowing the use of chemical databases (1-D premixed flames) computed with differential diffusion is also proposed. The extended model is validated on two different configurations: the TSF burner and the SWB burner. Modeling of flame-turbulence interaction is then studied. For unresolved flame turbulence interactions, a sensitivity analysis of the Charlette et al. (2002) sub-grid scale wrinkling model to its own parameters and sub-models is performed on the SWB burner. A dynamic estimation of the model parameter is also assessed and showed very promising results. For resolved flame-turbulence interactions, a generalized formalism of the LES of reactive flows is proposed in order to account explicitly for both flame and flow filters. Two closure strategies are proposed based on the F-TACLES and TFLES models. The F2-TACLESmodel is then validated and compared to the original formulation of the FTACLES model. This study is performed on the lean premixed semi-industrial PRECCINSTA burner.The ability of the extended F-TACLES model to capture the impact of both heat losses and fresh gas composition on the flame topology is assessed. This study is conducted on a CH4-H2-Air turbulent and swirling flame series. These flames exhibit very different shapes depending on the level of heat losses and fuel composition.
34

Study of variational ensemble methods for image assimilation / Étude de méthodes d'ensemble variationelles pour l'assimilation d'images

Yang, Yin 16 December 2014 (has links)
Les méthodes hybrides combinant les méthodes de 4D Variationnelle et le filtre de Kalman d'ensemble fournissent un cadre flexible. Dans ce cadre, les avantages potentiels par rapport à chaque méthode (e.g. la matrice de covariances d'erreur d'ébauche dépendant d'écoulement, la capacité d'obtenir explicitement la matrice de covariances d'erreur d'analyse, la procédure de minimisation itérative et l'assimilation simultanée de toutes les observations dans un intervalle de temps etc.) peuvent être conservés. Dans cette thèse, un système d'ensemblist-4DVar renforcé a été proposé et a été analysé en détail dans le cas du modèle de 2D shallow-water. Nous avons proposé un nouveau schéma de boucle imbriquée dans laquelle la matrice de covariances d'erreur d'ébauche est mis à jour pour chaque boucle externe. Nous avons aussi élaboré différents schémas de mise à jour ensemble avec deux stratégies de localisation et exploité les liens entre la matrice de covariances d'erreur d'analyse et la matrice hessienne de la fonction coût. Toutes ces variantes ont été testées avec les données réelles de l'image capturés par Kinect et les données d'image associés à un modèle de Surface Quasi-Géostrophique, respectivement. A la deuxième étape, un système d'estimation des paramètres à partir de notre méthode ensemblist-4DVar proposée est conçu. Cette formulation nous permet de estimer des paramètres d'une incertitude de stress tenseur. Et cette incertitude de stress tenseur est dérivé d'un point de vue de phénomène d'écoulement entraînée par un processus stochastique. Enfin, un premier effort est fait pour l'assimilation des données d'image à haute résolution avec le modèle dynamique sur une grille plus grossière. / The hybrid methods combing the 4D variational method and the ensemble Kalman filter provide a flexible framework. In such framework the potential advantages with respect to each method (e.g. the flow-dependent background error covariance, the ability to explicitly get the analysis error covariance matrix, the iterative minimization procedure and the simultaneously assimilation of all observations with in a time span etc.) can be retained. In this thesis, an enhanced ensemble-based 4DVar scheme is proposed and has been analyzed in detail in the case of the 2D shallow water model. Several variations related to this method are introduced and tested. We proposed a new nested loop scheme in which the background error covariance matrix is updated for each outer loop. We also devised different ensemble update schemes together with two localization schemes. And we exploited the links between the analysis error covariance matrix and the inverse Hessian of our 4D cost function. All these variants have been tested with the real Kinect-captured image data and synthetic image data associated with a SQG (Surface Quasi-Geostrophic) model, respectively. At the second stage, a parameter estimation scheme of our proposed ensemble-based variational method is devised. Such formulation allows the parameter estimation of an uncertainty subgrid stress tensor. And this uncertainty subgrid stress tensor is derived from a perspective of flow phenomenon driven by a stochastic process. Finally, a first effort is made to assimilation high-resolution image data with the dynamical model running on a much coarser grid.
35

Méthodologie pour l'évaluation de la résistance à l'ouverture d'une maille de filet / Methodology for the evaluation of the resistance to opening of a netting mesh

Morvan, Barthélémy 06 December 2016 (has links)
L'évaluation de la résistance à l'ouverture des mailles dans les filets de pêche est un enjeu important pour l'évaluation de la sélectivité des chaluts, et plus largement des engins de pêche. Les objectifs de cette thèse sont de développer et d'évaluer une méthodologie pour l'évaluation de la résistance à l'ouverture des mailles dans les filets. Différentes méthodes existent déjà (Sala et al., 2007, Priour and Cognard, 2011, Balash, 2012, De la Prada and Gonzales, 2013). Notre objectif est de proposer une méthode expérimentale simple et ne nécessitant pas d'équipements coûteux pour pouvoir être déployée facilement dans les laboratoires et dans l'industrie de la pêche, combinée avec un modèle numérique capable de représenter le comportement mécanique non-linéaire d'un filet. Le filet, constitué de fils tressés ou toronnés, en Polyéthylène ou Polyamide, présente une structure complexe. De plus, les filets peuvent être soumis à de grandes déformations. Afin d'étudier la réponse mécanique des filets à différents types de sollicitations et de créer une base de données expérimentale, de nombreux essais ont été effectués sur un large éventail de filets de pêche. Plusieurs méthodes numériques pour l'évaluation de la résistance à l'ouverture des mailles à partir de données expérimentales ont été développées. Ces travaux offrent une avancée scientifique pour l'évaluation de la résistance à l'ouverture des mailles : malgré le comportement mécanique visco-élasto-plastique des échantillons de filet, une méthodologie plus simple et plus précise que celles existantes, basée sur un dispositif expérimental simple et un modèle éléments finis libre de droits, est présentée. / The evaluation of the mesh resistance to opening in fishing nets is an important issue to assess the selectivity of trawls, and more broadly of fishing gear. The objectives of this thesis are to develop and to assess a methodology for the evaluation of the mesh resistance to opening in netting structures. Several methods are already proposed (Sala et al., 2007, Priour and Cognard, 2011, Balash, 2012, De la Prada and Gonzales, 2013). This thesis aims at proposing a simple experimental test that does not require expensive devices to be easily spread in laboratories and in the fishing industry, a simple test combined with a numerical model able to represent the non-linear mechanical behaviour of a tested netting panel. The netting structure, constituted of braided or stranded twines, made of Polyethylene or Polyamide, is complex. Moreover, the fishing nets can be subjected to large deformation. In order to study the mechanical response of netting samples to different types of solicitations and to obtain experimental data, numerous experimental tests were performed on a large range of netting samples. Several numerical methods for the evaluation of the mesh resistance to opening using experimental data were developed. This work offers scientific advance for the evaluation of the mesh resistance to opening: despite the visco-elasto-plastic mechanical behaviour of netting samples, one more accurate and simpler methodology than the existing ones, based on a simple experimental set up and on a free of rights finite element model, is presented.
36

Changements d'échelles en modélisation de la qualité de l'air et estimation des incertitudes associées

Bourdin-Korsakissok, Irène 15 December 2009 (has links) (PDF)
L'évolution des polluants dans l'atmosphère dépend de phénomènes variés, tels que les émissions, la météorologie, la turbulence ou les transformations physico-chimiques, qui ont des échelles caractéristiques spatiales et temporelles très diverses. Il est très difficile, par conséquent, de représenter l'ensemble de ces échelles dans un modèle de qualité de l'air. Les modèles eulériens de chimie-transport, couramment utilisés, ont une résolution bien supérieure à la taille des plus petites échelles. Cette thèse propose une revue des processus physiques mal représentés par les modèles de qualité de l'air, et de la variabilité sous-maille qui en résulte. Parmi les méthodes possibles permettant de mieux prendre en compte les différentes échelles , deux approches ont été développées : le couplage entre un modèle local et un modèle eulérien, ainsi qu'une approche statistique de réduction d'échelle. (1) Couplage de modèles : l'une des principales causes de la variabilité sous-maille réside dans les émissions, qu'il s'agisse des émissions ponctuelles ou du trafic routier. En particulier, la taille caractéristique d'un panache émis par une cheminée très inférieure à l'échelle spatiale bien résolue par les modèles eulériens. Une première approche étudiée dans la thèse est un traitement sous maille des émissions ponctuelles, en couplant un modèle gaussien à bouffées pour l'échelle locale à un modèle eulérien (couplage appelé panache sous-maille). L'impact de ce traitement est évalué sur des cas de traceurs à l'échelle continentale (ETEX-I et Tchernobyl) ainsi que sur un cas de photochimie à l'échelle de la région parisienne. Différents aspects sont étudiés, notamment l'incertitude due aux paramétrisations du modèle local, ainsi que l'influence de la résolution du maillage eulérien. (2) Réduction d'échelle statistique : une seconde approche est présentée, basée sur des méthodes statistiques de réduction d'échelle. Il s'agit de corriger l'erreur de représentativité du modèle aux stations de mesures. En effet, l'échelle de représentativité d'une station de mesure est souvent inférieure à l'échelle traitée par le modèle (échelle d'une maille), et les concentrations à la station sont donc mal représentées par le modèle. En pratique, il s'agit d'utiliser des relations statistiques entre les concentrations dans les mailles du modèle et les concentrations aux stations de mesure, afin d'améliorer les prévisions aux stations. L'utilisation d'un ensemble de modèles permet de prendre en compte l'incertitude inhérente aux paramétrisations des modèles. Avec cet ensemble, différentes techniques sont utilisées, de la régression simple à la décomposition en composantes principales, ainsi qu'une technique nouvelle appelée " composantes principales ajustées ". Les résultats sont présentés pour l'ozone à l'échelle européenne, et analysés notamment en fonction du type de station concerné (rural, urbain ou périurbain)
37

Modélisation d'écoulements atmosphériques stratifiés par Large-Eddy Simulation à l'aide de Code_Saturne / Large-eddy simulation of stratified atmospheric flows with the CFD code Code_Saturne

Dall'Ozzo, Cédric 14 June 2013 (has links)
La modélisation par simulation des grandes échelles (Large-Eddy Simulation - LES) des processus physiques régissant la couche limite atmosphérique (CLA) demeure complexe de part la difficulté des modèles à capter l'évolution de la turbulence entre différentes conditions de stratification. De ce fait, l'étude LES du cycle diurne complet de la CLA comprenant des situations convectives la journée et des conditions stables la nuit est très peu documenté. La simulation de la couche limite stable où la turbulence est faible, intermittente et qui est caractérisée par des structures turbulentes de petite taille est tout particulièrement compliquée. En conséquence, la capacité de la LES à bien reproduire les conditions météorologiques de la CLA, notamment en situation stable, est étudiée à l'aide du code de mécanique des fluides développé par EDF R&D, Code_Saturne. Dans une première étude, le modèle LES est validé sur un cas de couche limite convective quasi stationnaire sur terrain homogène. L'influence des modèles sous-maille de Smagorinsky, Germano-Lilly, Wong-Lilly et WALE (Wall-Adapting Local Eddy-viscosity) ainsi que la sensibilité aux méthodes de paramétrisation sur les champs moyens, les flux et les variances est discutées. Dans une seconde étude le cycle diurne complet de la CLA pendant la campagne de mesure Wangara est modélisé. L'écart aux mesures étant faible le jour, ce travail se concentre sur les difficultés rencontrées la nuit à bien modéliser la couche limite stable. L'impact de différents modèles sous-maille ainsi que la sensibilité au coefficient de Smagorinsky ont été analysés. Par l'intermédiaire d'un couplage radiatif réalisé en LES, les répercussions du rayonnement infrarouge et solaire sur le jet de basse couche nocturne et le gradient thermique près de la surface sont exposées. De plus l'adaptation de la résolution du domaine à l'intensité de la turbulence et la forte stabilité atmosphérique durant l'expérience Wangara sont commentées. Enfin un examen des oscillations numériques inhérentes à Code_Saturne est réalisé afin d'en limiter les effets / Large-eddy simulation (LES) of the physical processes in the atmospheric boundary layer (ABL) remains a complex subject. LES models have difficulties to capture the evolution of the turbulence in different conditions of stratification. Consequently, LES of the whole diurnal cycle of the ABL including convetive situations in daytime and stable situations in the night time is seldom documented. The simulation of the stable atmospheric boundary layer which is characterized by small eddies and by weak and sporadic turbulence is espacialy difficult. Therefore The LES ability to well reproduce real meteorological conditions, particularly in stable situations, is studied with the CFD code developed by EDF R&D, Code_Saturne. The first study consist in validate LES on a quasi-steady state convective case with homogeneous terrain. The influence of the subgrid-scale models (Smagorinsky model, Germano-Lilly model, Wong-Lilly model and Wall-Adapting Local Eddy-viscosity model) and the sensitivity to the parametrization method on the mean fields, flux and variances are discussed.In a second study, the diurnal cycle of the ABL during Wangara experiment is simulated. The deviation from the measurement is weak during the day, so this work is focused on the difficulties met during the night to simulate the stable atmospheric boundary layer. The impact of the different subgrid-scale models and the sensitivity to the Smagorinsky constant are been analysed. By coupling radiative forcing with LES, the consequences of infra-red and solar radiation on the nocturnal low level jet and on thermal gradient, close to the surface, are exposed. More, enhancement of the domain resolution to the turbulence intensity and the strong atmospheric stability during the Wangara experiment are analysed. Finally, a study of the numerical oscillations inherent to Code_Saturne is realized in order to decrease their effects
38

Simulation aux Grandes Echelles et chimie complexe pour la modélisation de la structure chimique des flammes turbulentes / Large Eddy Simulations and complex chemistry for modeling the chemical structure of turbulent flames

Mehl, Cédric 12 June 2018 (has links)
La Simulation aux Grandes Echelles (SGE) est appliquée à des brûleurs industriels pour prédire de nombreux phénomènes physiques complexes, tel que l’allumage ou la formation de polluants. La prise en compte de réactions chimiques détaillées est alors indispensable pour obtenir des résultats précis. L’amélioration des moyens de calculs permet de réaliser des simulations de brûleurs avec une chimie de plus en plus détaillée. La principale problématique est le couplage entre les réactions chimiques et l’écoulement turbulent. Bien que la dynamique de flamme soit souvent bien reproduite avec les modèles actuels, la prédiction de phénomènes complexes comme la formation de polluants reste une tâche difficile. En particulier, des études ont montré que l’influence du plissement de sous-maille sur la structure chimique des flammes n’était pas prise en compte de manière précise. Deux modèles basés sur le filtrage explicite des fronts de flammes sont étudiés dans cette thèse afin d’améliorer la prédiction de polluants en combustion turbulente prémélangée : (i) le premier modèle met en jeu une méthode de déconvolution des variables filtrées ; (ii) le second modèle implique l’optimisation de la chimie pour obtenir des flammes turbulentes filtrées. L’objectif de la thèse est d’obtenir une prédiction précise des polluants à coût de calcul réduit. / Large Eddy Simulation (LES) is applied to industrial burners to predict a wide range of complex physical phenomena, such as flame ignition and pollutants formation. The prediction accuracy is tightly linked to the ability to describe in detail the chemical reactions and thus the flame chemical structure. With the improvement of computational clusters, the simulation of industrial burners with detailed chemistry becomes possible. A major issue is then to couple detailed chemical mechanisms to turbulent flows. While the flame dynamics is often correctly simulated with stateof- the-art models, the prediction of complex phenomena such as pollutants formation remains a difficult task. Several investigations show that, in many models, the impact of flame subgrid scale wrinkling on the chemical flame structure is not accurately taken into account. Two models based on explicit flame front filtering are explored in this thesis to improve pollutants formation in turbulent premixed combustion: (i) a model based on deconvolution of filtered scalars; (ii) a model involving the optimization of chemistry to reproduce filtered turbulent flames. The objective of the work is to achieve high accuracy in pollutants formation prediction at low computational costs.
39

Représentation des nuages chauds dans le modèle météorologique « MERCURE » : Application aux panaches d'aéroréfrigérants et aux précipitations orographiques

BOUZEREAU, Emmanuel 14 December 2004 (has links) (PDF)
Un schéma semi-spectral de microphysique chaude à 2 moments est mis en place dans le modèle météorologique « MERCURE ». Une nouvelle écriture du flux de flottabilité () est proposée ; elle est cohérente avec le corrigendum de Mellor (1977) mais diffère de Bougeault (1981). La microphysique nuageuse est validée par des simulations numériques d'une quinzaine de cas de panaches d'aéroréfrigérants qui sont comparées aux données provenant d'une campagne de mesures réalisées au Bugey en 1980. Des résultats satisfaisants sont obtenus sur la forme du panache, sur les champs de température et de vitesse verticale et sur les spectres de gouttelettes ; cependant les simulations ont tendance à surestimer le contenu en eau liquide. Le schéma microphysique est aussi testé sur les simulations de cas académiques de précipitations orographiques de Chaumerliac et al. (1987) et Richard et Chaumerliac (1989). Lors des simulations, nous retrouvons l'action de différents termes microphysiques.
40

Extraction de surfaces à partir d'images tridimensionnelles : approche discrète et approche par modèle déformable

Lachaud, Jacques-Olivier 09 February 1998 (has links) (PDF)
Cette thèse porte sur l'extraction de représentations géométriques à partir d'images tridimensionnelles. Ces représentations ont d'importantes applications dans les domaines médicaux (examen non invasif et simulation, détection de pathologies, chirurgie assistée par ordinateur, fabrication de prothèses, etc) et biologiques (analyse des structures microscopiques et de leur fonctionnement). Deux approches peuvent être suivies~ : - Les méthodes de reconstruction discrète fournissent rapidement une représentation géométrique de ces données, mais laissent de côté l'aspect segmentation de l'image en ses constituants. Parmi ces méthodes, les plus utilisées sont~ : le marching-cubes, qui construit une surface triangulée, et le suivi de surface, qui délimite une surface digitale. En introduisant des considérations de topologie digitale, nous montrons l'équivalence de ces deux représentations. De cette manière, leurs propriétés respectives peuvent être combinées efficacement. - Les méthodes basées sur les modèles déformables réunissent les opérations de segmentation et de reconstruction en un seul processus~ : le modèle recherche les constituants de l'image en se déformant sous l'action de contraintes externes, issues de l'image, et internes, dérivées de sa structure géométrique. Les modèles existants sont souvent limités à l'extraction de formes simples. Nous proposons un modèle déformable générique, basé sur une triangulation de surface, et capable d'adapter automatiquement la topologie de sa maille aux déformations imposées à sa géométrie. Cette capacité permet au modèle d'appréhender les formes arbitrairement complexes de l'image et de les extraire de l'esquisse aux détails par une approche multi-résolution. Enfin, nous présentons l'application de ce modèle à des données biomédicales de modalités variées. Les résultats sont comparés à ceux obtenus par reconstruction discrète, puis combinés afin de tirer parti des avantages spécifiques des deux approches.

Page generated in 0.0445 seconds