• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 6
  • Tagged with
  • 14
  • 14
  • 11
  • 7
  • 7
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Inverse problems and data assimilation methods applied on protein polymerisation / Problèmes inverses et méthodes d’assimilation de données appliquées à la polymérisation de protéines

Armiento, Aurora 13 January 2017 (has links)
Cette thèse a pour objectif la mise en place d'une stratégie mathématique pour l'étude du processus physique de l'agrégation des protéines. L'étude de ce processus largement inconnu est particulièrement importante puisqu'il a été identifiée comme un élément clé d'une vaste gamme de maladies incurables, appelées maladies amyloïdes. Les maladies à prions appartiennent à cette classe et sont causées par l'agrégation d'une configuration mal pliée de la protéine prion. Notre travail contribue à la recherche sur les maladies à prions, en se concentrant sur deux types d'agrégats : les oligomères et les fibres.Les oligomères suspectés d'être les agrégats les plus toxiques sont étudiés dans la première partie de cette thèse. Nous fondons notre travail sur l'analyse de deux types de données expérimentales. D'une part, nous considérons les données de dispersion statique de la lumière (SLS), qui peuvent être interprétées biologiquement comme la mesure de la taille moyenne des oligomères et mathématiquement comme le deuxième moment de la concentration des agrégats. D'autre part, nous considérons les données de distribution de taille d'oligomère collectées à plusieurs instants en utilisant la Chromatographie d'Exclusion de Taille (SEC). Notre étude conduit à la conclusion importante selon laquelle au moins deux types différents d'oligomères sont présents. De plus, nous proposons une description de l'interaction entre ces oligomères en proposant pour la première fois un modèle à deux espèces. Notre modèle est composé d'un ensemble d'ODE avec les taux cinétiques comme paramètres. La description qualitative fournie par ce modèle a été couplée à l'information contenue dans les données expérimentales de SLS dans le cadre de l'assimilation de données. Au moyen de la méthode du filtre de Kalman étendue, nous résolvons un problème inverse non linéaire, estimant ainsi les coefficients cinétiques associés aux données expérimentales. Pour valider ce modèle, nous avons comparé notre estimation aux données expérimentales de SEC, en observant un très bon accord entre les deux. Notre caractérisation des espèces d'oligomères peut conduire à de nouvelles stratégies pour concevoir un premier traitement ciblé pour les maladies à prions.La méthodologie appliquée à l'étude des oligomères peut être considérée comme une première étape dans l'analyse des fibres. En raison des propriétés physiques de ces agrégats, des expériences moins nombreuses et moins précises peuvent être effectuées, et une approche mathématique peut donc apporter une contribution précieuse à leur étude. Notre contribution est de proposer une stratégie générale pour estimer l'état initial d'un système de fibres. Inspiré par la théorie de Lifshitz-Slyozov, nous décrivons ce système par une équation de transport couplée à une équation intégrale. L'estimation est faite en utilisant quelques observations empiriques sur le système. Nous considérons le cas général d'observation d'un moment d'ordre $n$. Il est en effet possible de mesurer le moment d'ordre $1$ par fluorescence de thioflavine T ou le moment d'ordre $2$ par SLS. Nous proposons une solution théorique et numérique du problème d'estimation de la condition initiale dans le cas linéaire d'un système de dépolymérisation. En particulier, pour des taux de dépolymérisation constants, nous proposons une stratégie de régularisation par noyau, qui fournit une première caractérisation de l'estimation. Dans le cas de taux de dépolymérisation variables, nous proposons la méthode d'assimilation variationnelle 4d-Var et la méthode d'assimilation de données séquentielle du filtrage de Kalman. Ces deux méthodes sont plus générales et peuvent être facilement adaptée pour traiter différents problèmes. Ce problème inverse est particulièrement intéressant puisqu'il peut également être appliqué dans d'autres domaines tels que le cycle cellulaire ou la formation de poussière. / The aim of this PhD thesis is to set up a mathematical strategy to investigate the physical process of protein aggregation. The study of this largely unknown process is particularly important since it has been identified as a key feature of a wide class of incurable diseases, called amyloid diseases. Prion diseases belong to this class and are caused by the aggregation of a misfolded configuration of the prion protein. Our work contributes to the research on prion diseases, by focusing on two kinds of aggregates: oligomers and fibrils. Oligomers, which are suspected of being the most toxic aggregates, are studied in the first part of this thesis. We base our work on the analysis of two types of experimental data. On the one hand, we consider Static Light Scattering (SLS) data, which can be interpreted biologically as the measurement of the average oligomer size and mathematically as the second moment of aggregate concentration. On the other hand, we consider oligomer size distribution data collected at several instants by using Size Exclusion Chromatography (SEC). Our study leads to the important conclusion that at least two different types of oligomers are present. Moreover, we provide a description of the interaction between these oligomers by proposing, for the first time, a two-species model. Our model is composed of a set of ODEs with the kinetic rates as parameters. The qualitative description provided by this model has been coupled to the information contained in the noisy experimental SLS data in a data assimilation framework. By means of the extended Kalman filter method, we solve a non-linear inverse problem, thereby estimating the kinetic coefficients associated to the experimental data. To validate this model we have compared our estimation to the experimental SEC data, observing a very good agreement between the two. Our oligomer species characterisation may lead to new strategies to design a first targeted treatment for prion diseases. The methodology applied to the study of oligomers can be seen as a first step in the analysis of fibrils. Due to the physical properties of these aggregates, fewer and less precise experiments can be performed and so a mathematical approach can provide a valuable contribution to their study. Our contribution is to propose a general strategy to estimate the initial condition of a fibril system. Inspired by the Lifshitz-Slyozov theory, we describe this system by a transport equation coupled with an integral equation. The estimation is performed making use of some empirical observations on the system. We consider the general case of observing a moment of order $n$. It is indeed possible to measure the first moment by Thioflavine T fluorescence or the second moment by SLS. We provide a theoretical and numerical solution of the initial condition estimation problem in the linear case of a depolymerising system. In particular, for constant depolymerisation rates, we propose a kernel regularisation strategy, that provides a first characterisation of the estimation. In the variable depolymerisation rates, we outline the variational data assimilation method $4$d-Var.This method is more general and can be easily adapted to treat different problems. This inverse problem is particularly interesting since it can also be applied in other fields such as the cell cycle or dust formation.
2

Large-Scale Simulations Using First and Second Order Adjoints with Applications in Data Assimilation

Zhang, Lin 23 July 2007 (has links)
In large-scale air quality simulations we are interested in the influence factors which cause changes of pollutants, and optimization methods which improve forecasts. The solutions to these problems can be achieved by incorporating adjoint models, which are efficient in computing the derivatives of a functional with respect to a large number of model parameters. In this research we employ first order adjoints in air quality simulations. Moreover, we explore theoretically the computation of second order adjoints for chemical transport models, and illustrate their feasibility in several aspects. We apply first order adjoints to sensitivity analysis and data assimilation. Through sensitivity analysis, we can discover the area that has the largest influence on changes of ozone concentrations at a receptor. For data assimilation with optimization methods which use first order adjoints, we assess their performance under different scenarios. The results indicate that the L-BFGS method is the most efficient. Compared with first order adjoints, second order adjoints have not been used to date in air quality simulation. To explore their utility, we show the construction of second order adjoints for chemical transport models and demonstrate several applications including sensitivity analysis, optimization, uncertainty quantification, and Hessian singular vectors. Since second order adjoints provide second order information in the form of Hessian-vector product instead of the entire Hessian matrix, it is possible to implement applications for large-scale models which require second order derivatives. Finally, we conclude that second order adjoints for chemical transport models are computationally feasible and effective. / Master of Science
3

Assimilation variationnelle de données altimétriques dans le modèle océanique NEMO : exploration de l'effet des non-linéarités dans une configuration simplifiée à haute résolution / Variational altimetric data assimilation in the oceanographic numerical model NEMO : investigation of the impact of nonlinearities in an academic configuration at high resolution

Bouttier, Pierre-Antoine 04 February 2014 (has links)
Un enjeu majeur des modèles océaniques est de représenter fidèlement les circulations méso- et subméso-échelles afin de simuler leur importante contribution dans la circulation générale et dans le budget énergétique de l'océan. La poursuite de cet objectif se traduit par une augmentation de la résolution spatiale et temporelle à la fois des modèles et des réseaux d'observation de l'océan. Cependant, à ces petites échelles, la dynamique de l'écoulement revêt un caractère fortement turbulent ou non-linéaire. Dans ce contexte, les méthodes actuelles d'assimilation de données (AD), variationnelles en particulier, sont généralement moins performantes que dans un contexte (quasi-) linéaire.L'objectif de cette thèse est d'explorer sous divers aspects le comportement des méthodes variationnelles d'AD dans un modèle d'océan non-linéaire. Pour ce faire, nous avons réalisé une série d'expériences dites "jumelles" en assimilant des données altimétriques simulées suivant les caractéristiques des satellites altimétriques Jason-1 et SARAL/AltiKA . À l'aide de ces expériences, nous analysons sous différents angles les problématiques posées par les non-linéarités à l'AD. Enfin, nous ouvrons plusieurs pistes d'amélioration de l'efficacité du système d'AD dans ce contexte.Ce travail est basé sur le logiciel de modélisation océanique NEMO, incluant la configuration de bassin océanique turbulent idéalisé SEABASS, à différentes résolutions spatiales. Dans la continuité de la plateforme de recherche en AD avec NEMO, NEMO-ASSIM, nous avons utilisé et contribué au développement de cet ensemble d'outil, comprenant, entre autre, opérateur d'observation, modèles linéaire tangent et adjoint de NEMO, permettant de mener à bien notre étude. Le système d'AD variationnelle utilisé est le logiciel NEMOVAR.Les résultats présentés tentent de lier les échelles caractéristiques des structures d'erreurs d'analyse et l'activité aux petites échelles. Pour ce faire, nous avons utilisé une large gamme de diagnostics, e.g. erreur quadratique moyenne spatiale et temporelle, caractéristiques des fonctions coûts, caractérisation de l'hypothèse linéaire tangente, PSD des champs d'erreurs d'analyse.Nos expériences montrent que le 4DVAR incrémental contrôle efficacement la trajectoire analysée au 1/4° pour de longues fenêtres d'AD (2 mois). Lorsque la résolution augmente, la convergence de l'algorithme apparaît plus lente voire inexistante sous certaines conditions. Cependant, l'algorithme permet encore de réduire convenablement l'erreur d'analyse. Enfin, l'algorithme 3DFGAT se révèle beaucoup moins performant, quelle que soit la résolution.De plus, nous montrons également l'importance de l'adéquation entre la circulation simulée et l'échantillonnage altimétrique, en terme d'échelles spatiales représentées, pour obtenir de meilleures performances. Enfin, nous avons exploré la stratégie de minimisation dite "progressive", permettant d'accélérer la convergence du 4DVAR à haute résolution. / A current stake for numerical ocean models is to adequately represent meso- and small-scale activity, in order to simulate its crucial role in the general ocean circulation and energy budget. It is therefore also a challenge for data assimilation (DA) methods to control these scales. However this small-scale activity is strongly linked to the nonlinear or turbulent character of the flow, whereas DA methods are generally much less efficient in such contexts than in (almost) linear ones. For variational DA methods as incremental 4DVAR, non-linearities imply convergence difficulty, the cost functions to be minimised presenting multiple local minima.The purpose of this thesis is to address this problem specifically, by exploring the behaviour of variational DA methods in a non-linear ocean model. To achieve this objective, a series of "twin" experiments assimilating simulated altimeter data, following the characteristics of altimetric satellite Jason-1 and SARAL/AltiKA, are analyzed. We also find different ways to improve efficiency of variational algorithms applied to turbulent circulations.This work is based on oceanic modelisation software called NEMO, including a idealized turbulent oceanic basin configuration, SEABASS, and DA components (e.g. Observation operator, Linear Tangent and Adjoint Models). Thanks to NEMO-ASSIM research platform, we have used and developed this set of tools. The used variational DA system itself is NEMOVAR.We present results characterizing scales and structures of the analysis error along the assimilation process, as well as tentative links with small scale activity. To study both the algorithm convergence and the analysis and forecast errors in a qualitative and quantitative way, a large spectrum of systematic diagnostics has been employed, e.g. spatial and temporal RMSE, cost function characteristics, projection of error fields on EOFs, validity of the tangent linear hypothesis, PSD of error fields.In our experiments, it appears that the incremental 4DVAR algorithm proved to be quite robust for long DA windows at eddy-permitting resolution.When the model horizontal resolution increases, the convergence of the minimisation algorithm is poorer but the 4DVAR method still controls efficiently analysis error.It has also been shown that the 4DVAR algorithm is clearly more performant than 3DFGAT for both considered resolutions.Moreover we investigate some strategies for DA in such nonlinear contexts, with the aim of reducing the analysis error. We performed so-called progressive incremental 4DVAR to improve the algorithm convergence for longer assimilation windows. Finally, we show that the adequation in represented flow scales between the model and the altimetric sampling is crucial to obtain the best error analysis reduction.
4

Méthodes variationnelles d'ensemble itératives pour l'assimilation de données non-linéaire : Application au transport et la chimie atmosphérique / Iterative ensemble variational methods for nonlinear data assimilation : Application to transport and atmospheric chemistry

Haussaire, Jean-Matthieu 23 June 2017 (has links)
Les méthodes d'assimilation de données sont en constante évolution pour s'adapter aux problèmes à résoudre dans les multiples domaines d’application. En sciences de l'atmosphère, chaque nouvel algorithme a d'abord été implémenté sur des modèles de prévision numérique du temps avant d'être porté sur des modèles de chimie atmosphérique. Ce fut le cas des méthodes variationnelles 4D et des filtres de Kalman d'ensemble par exemple. La nouvelle génération d'algorithmes variationnels d'ensemble quadridimensionnels (EnVar 4D) ne fait pas exception. Elle a été développée pour tirer partie des deux approches variationnelle et ensembliste et commence à être appliquée au sein des centres opérationnels de prévision numérique du temps, mais n'a à ce jour pas été testée sur des modèles opérationnels de chimie atmosphérique.En effet, la complexité de ces modèles rend difficile la validation de nouvelles méthodes d’assimilation. Il est ainsi nécessaire d'avoir à disposition des modèles d’ordre réduit, qui doivent être en mesure de synthétiser les phénomènes physiques à l'{oe}uvre dans les modèles opérationnels tout en limitant certaines des difficultés liées à ces derniers. Un tel modèle, nommé L95-GRS, a donc été développé. Il associe la météorologie simpliste du modèle de Lorenz-95 à un module de chimie de l'ozone troposphérique avec 7 espèces chimiques. Bien que de faible dimension, il reproduit des phénomènes physiques et chimiques observables en situation réelle. Une méthode d'assimilation de donnée, le lisseur de Kalman d'ensemble itératif (IEnKS), a été appliquée sur ce modèle. Il s'agit d'une méthode EnVar 4D itérative qui résout le problème non-linéaire variationnel complet. Cette application a permis de valider les méthodes EnVar 4D dans un contexte de chimie atmosphérique non-linéaire, mais aussi de soulever les premières limites de telles méthodes.Fort de cette expérience, les résultats ont été étendus au cas d’un modèle réaliste de prévision de pollution atmosphérique. Les méthodes EnVar 4D, via l'IEnKS, ont montré leur potentiel pour tenir compte de la non-linéarité du modèle de chimie dans un contexte maîtrisé, avec des observations synthétiques. Cependant, le passage à des observations réelles d'ozone troposphérique mitige ces résultats et montre la difficulté que représente l'assimilation de données en chimie atmosphérique. En effet, une très forte erreur est associée à ces modèles, provenant de sources d'incertitudes variées. Deux démarches doivent alors être entreprises pour pallier ce problème.Tout d’abord, la méthode d’assimilation doit être en mesure de tenir compte efficacement de l’erreur modèle. Cependant, la majorité des méthodes sont développées en supposant au contraire un modèle parfait. Pour se passer de cette hypothèse, une nouvelle méthode a donc été développée. Nommée IEnKF-Q, elle étend l'IEnKS au cas avec erreur modèle. Elle a été validée sur un modèle jouet, démontrant sa supériorité par rapport à des méthodes d'assimilation adaptées naïvement pour tenir compte de l’erreur modèle.Toutefois, une telle méthode nécessite de connaître la nature et l'amplitude exacte de l'erreur modèle qu'elle doit prendre en compte. Aussi, la deuxième démarche consiste à recourir à des outils statistiques pour quantifier cette erreur modèle. Les algorithmes d'espérance-maximisation, de emph{randomize-then-optimize} naïf et sans biais, un échantillonnage préférentiel fondé sur l'approximation de Laplace, ainsi qu'un échantillonnage avec une méthode de Monte-Carlo par chaînes de Markov, y compris transdimensionnelle, ont ainsi été évalués, étendus et comparés pour estimer l'incertitude liée à la reconstruction du terme source des accidents des centrales nucléaires de Tchernobyl et Fukushima-Daiichi.Cette thèse a donc enrichi le domaine de l'assimilation de données EnVar 4D par ses apports méthodologiques et en ouvrant la voie à l’application de ces méthodes sur les modèles de chimie atmosphérique / Data assimilation methods are constantly evolving to adapt to the various application domains. In atmospheric sciences, each new algorithm has first been implemented on numerical weather prediction models before being ported to atmospheric chemistry models. It has been the case for 4D variational methods and ensemble Kalman filters for instance. The new 4D ensemble variational methods (4D EnVar) are no exception. They were developed to take advantage of both variational and ensemble approaches and they are starting to be used in operational weather prediction centers, but have yet to be tested on operational atmospheric chemistry models.The validation of new data assimilation methods on these models is indeed difficult because of the complexity of such models. It is hence necessary to have at our disposal low-order models capable of synthetically reproducing key physical phenomenons from operational models while limiting some of their hardships. Such a model, called L95-GRS, has therefore been developed. It combines the simple meteorology from the Lorenz-95 model to a tropospheric ozone chemistry module with 7 chemical species. Even though it is of low dimension, it reproduces some of the physical and chemical phenomenons observable in real situations. A data assimilation method, the iterative ensemble Kalman smoother (IEnKS), has been applied to this model. It is an iterative 4D EnVar method which solves the full non-linear variational problem. This application validates 4D EnVar methods in the context of non-linear atmospheric chemistry, but also raises the first limits of such methods.After this experiment, results have been extended to a realistic atmospheric pollution prediction model. 4D EnVar methods, via the IEnKS, have once again shown their potential to take into account the non-linearity of the chemistry model in a controlled environment, with synthetic observations. However, the assimilation of real tropospheric ozone concentrations mitigates these results and shows how hard atmospheric chemistry data assimilation is. A strong model error is indeed attached to these models, stemming from multiple uncertainty sources. Two steps must be taken to tackle this issue.First of all, the data assimilation method used must be able to efficiently take into account the model error. However, most methods are developed under the assumption of a perfect model. To avoid this hypothesis, a new method has then been developed. Called IEnKF-Q, it expands the IEnKS to the model error framework. It has been validated on a low-order model, proving its superiority over data assimilation methods naively adapted to take into account model error.Nevertheless, such methods need to know the exact nature and amplitude of the model error which needs to be accounted for. Therefore, the second step is to use statistical tools to quantify this model error. The expectation-maximization algorithm, the naive and unbiased randomize-then-optimize algorithms, an importance sampling based on a Laplace proposal, and a Markov chain Monte Carlo simulation, potentially transdimensional, have been assessed, expanded, and compared to estimate the uncertainty on the retrieval of the source term of the Chernobyl and Fukushima-Daiichi nuclear power plant accidents.This thesis therefore improves the domain of 4D EnVar data assimilation by its methodological input and by paving the way to applying these methods on atmospheric chemistry models
5

Multiscale data assimilation approaches and error characterisation applied to the inverse modelling ofatmospheric constituent emission fields / Assimilation de données multi-échelle et caractérisation des erreurs pour la modélisation inverse des sources de polluants atmosphériques

Koohkan, Mohammad Reza 20 December 2012 (has links)
Dans les études géophysiques, l'assimilation de données a pour but d'estimer l'état d'un système ou les paramètres d'un modèle physique de façon optimale. Pour ce faire, l'assimilation de données a besoin de trois types d'informations : des observations, un modèle physique/numérique et une description statistique de l'incertitude associée aux paramètres du système. Dans ma thèse, de nouvelles méthodes d'assimilation de données sont utilisées pour l'étude de la physico-chimie de l'atmosphère: (i) On y utilise de manière conjointe la méthode 4D-Var avec un modèle sous-maille statistique pour tenir compte des erreurs de représentativité. (ii) Des échelles multiples sont prises en compte dans la méthode d'estimation BLUE. (iii) Enfin, la méthode du maximum de vraisemblance est appliquée pour estimer des hyper-paramètres qui paramètrisent les erreurs à priori. Ces trois approches sont appliquées de manière spécifique à des problèmes de modélisation inverse des sources de polluant atmosphérique. Dans une première partie, la modélisation inverse est utilisée afin d'estimer les émissions de monoxyde de carbone sur un domaine représentant la France. Les stations du réseau d'observation considérées sont impactées par les erreurs de représentativité. Un modèle statistique sous-maille est introduit. Il est couplé au système 4D-Var afin de réduire les erreurs de représentativité. En particulier, les résultats de la modélisation inverse montrent que la méthode 4D-Var seule n'est pas adaptée pour gérer le problème de représentativité. Le système d'assimilation des données couplé conduit à une meilleure représentation de la variabilité de la concentration de CO avec une amélioration très significative des indicateurs statistiques. Dans une deuxième partie, on évalue le potentiel du réseau IMS (International Monitoring System) du CTBTO pour l'inversion d'une source accidentelle de radionucléides. Pour évaluer la performance du réseau, une grille multi-échelle adaptative pour l'espace de contrôle est optimisée selon un critère basé sur les degrés de liberté du signal (DFS). Les résultats montrent que plusieurs régions restent sous-observées par le réseau IMS. Dans la troisième et dernière partie, sont estimés les émissions de Composés Organiques Volatils (COVs) sur l'Europe de l'ouest. Cette étude d'inversion est faite sur la base des observations de 14 COVs extraites du réseau EMEP. L'évaluation des incertitudes des valeurs des inventaires d'émission et des erreurs d'observation sont faites selon le principe du maximum de vraisemblance. La distribution des inventaires d'émission a été supposée tantôt gaussienne et tantôt semi-normale. Ces deux hypothèses sont appliquées pour inverser le champs des inventaires d'émission. Les résultats de ces deux approches sont comparés. Bien que la correction apportée sur les inventaires est plus forte avec l'hypothèse Gaussienne que semi-normale, les indicateurs statistiques montrent que l'hypothèse de la distribution semi-normale donne de meilleurs résultats de concentrations que celle Gaussienne. / Data assimilation in geophysical sciences aims at optimally estimating the state of the system or some parameters of the system's physical model. To do so, data assimilation needs three types of information: observations and background information, a physical/numerical model, and some statistical description that prescribes uncertainties to each componenent of the system.In my dissertation, new methodologies of data assimilation are used in atmospheric chemistry and physics: the joint use of a 4D-Var with a subgrid statistical model to consistently account for representativeness errors, accounting for multiple scale in the BLUE estimation principle, and a better estimation of prior errors using objective estimation of hyperparameters. These three approaches will be specifically applied to inverse modelling problems focussing on the emission fields of tracers or pollutants. First, in order to estimate the emission inventories of carbon monoxide over France, in-situ stations which are impacted by the representativeness errors are used. A subgrid model is introduced and coupled with a 4D-Var to reduce the representativeness error. Indeed, the results of inverse modelling showed that the 4D-Var routine was not fit to handle the representativeness issues. The coupled data assimilation system led to a much better representation of theCO concentration variability, with a significant improvement of statistical indicators, and more consistent estimation of the CO emission inventory. Second, the evaluation of the potential of the IMS (International Monitoring System) radionuclide network is performed for the inversion of an accidental source. In order to assess the performance of the global network, a multiscale adaptive grid is optimised using a criterion based on degrees of freedom for the signal (DFS). The results show that several specific regions remain poorly observed by the IMS network. Finally, the inversion of the surface fluxes of Volatile Organic Compounds (VOC) are carried out over Western Europe using EMEP stations. The uncertainties of the background values of the emissions, as well as the covariance matrix of the observation errors, are estimated according to the maximum likelihood principle. The prior probability density function of the control parameters is chosen to be Gaussian or semi-normal distributed. Grid-size emission inventories are inverted under these two statistical assumptions. The two kinds of approaches are compared. With the Gaussian assumption, the departure between the posterior and the prior emission inventories is higher than when using the semi-normal assumption, but that method does not provide better scores than the semi-normal in a forecast experiment.
6

Développement et comparaison de méthodes d'assimilation de données de rang réduit dans un modèle de circulation océanique : application à l'océan Pacifique Tropical

ROBERT, Céline 21 December 2004 (has links) (PDF)
Ce travail porte sur la comparaison de deux familles de méthodes d'assimilation de données de rang réduit en océanographie physique : l'approche séquentielle de type filtre SEEK et l'approche variationnelle de type 4D-Var réduit. Cette comparaison est d'abord effectuée dans un cadre idéal d'expériences jumelles puis dans un cadre réaliste avec l'assimilation de profils réels de température dans l'océan Pacifique Tropical sur une année. Les caractéristiques propres à chaque méthode sont mises en évidence. La pertinence physique des résultats est vérifiée par comparaison avec des données indépendantes. On présente enfin une méthode hybride combinant l'estimation d'erreur du filtrage du SEEK et le lissage du 4D-Var réduit.
7

Uncertainty Quantification and Uncertainty Reduction Techniques for Large-scale Simulations

Cheng, Haiyan 03 August 2009 (has links)
Modeling and simulations of large-scale systems are used extensively to not only better understand a natural phenomenon, but also to predict future events. Accurate model results are critical for design optimization and policy making. They can be used effectively to reduce the impact of a natural disaster or even prevent it from happening. In reality, model predictions are often affected by uncertainties in input data and model parameters, and by incomplete knowledge of the underlying physics. A deterministic simulation assumes one set of input conditions, and generates one result without considering uncertainties. It is of great interest to include uncertainty information in the simulation. By ``Uncertainty Quantification,'' we denote the ensemble of techniques used to model probabilistically the uncertainty in model inputs, to propagate it through the system, and to represent the resulting uncertainty in the model result. This added information provides a confidence level about the model forecast. For example, in environmental modeling, the model forecast, together with the quantified uncertainty information, can assist the policy makers in interpreting the simulation results and in making decisions accordingly. Another important goal in modeling and simulation is to improve the model accuracy and to increase the model prediction power. By merging real observation data into the dynamic system through the data assimilation (DA) technique, the overall uncertainty in the model is reduced. With the expansion of human knowledge and the development of modeling tools, simulation size and complexity are growing rapidly. This poses great challenges to uncertainty analysis techniques. Many conventional uncertainty quantification algorithms, such as the straightforward Monte Carlo method, become impractical for large-scale simulations. New algorithms need to be developed in order to quantify and reduce uncertainties in large-scale simulations. This research explores novel uncertainty quantification and reduction techniques that are suitable for large-scale simulations. In the uncertainty quantification part, the non-sampling polynomial chaos (PC) method is investigated. An efficient implementation is proposed to reduce the high computational cost for the linear algebra involved in the PC Galerkin approach applied to stiff systems. A collocation least-squares method is proposed to compute the PC coefficients more efficiently. A novel uncertainty apportionment strategy is proposed to attribute the uncertainty in model results to different uncertainty sources. The apportionment results provide guidance for uncertainty reduction efforts. The uncertainty quantification and source apportionment techniques are implemented in the 3-D Sulfur Transport Eulerian Model (STEM-III) predicting pollute concentrations in the northeast region of the United States. Numerical results confirm the efficacy of the proposed techniques for large-scale systems and the potential impact for environmental protection policy making. ``Uncertainty Reduction'' describes the range of systematic techniques used to fuse information from multiple sources in order to increase the confidence one has in model results. Two DA techniques are widely used in current practice: the ensemble Kalman filter (EnKF) and the four-dimensional variational (4D-Var) approach. Each method has its advantages and disadvantages. By exploring the error reduction directions generated in the 4D-Var optimization process, we propose a hybrid approach to construct the error covariance matrix and to improve the static background error covariance matrix used in current 4D-Var practice. The updated covariance matrix between assimilation windows effectively reduces the root mean square error (RMSE) in the solution. The success of the hybrid covariance updates motivates the hybridization of EnKF and 4D-Var to further reduce uncertainties in the simulation results. Numerical tests show that the hybrid method improves the model accuracy and increases the model prediction quality. / Ph. D.
8

Réduction de modèle et contrôle d'écoulements / Reduced-order modelling and flow control

Tissot, Gilles 02 October 2014 (has links)
Le contrôle d'écoulements turbulents est un enjeu majeur en aérodynamique. Cependant, la présence d'un grand nombre de degrés de libertés et d'une dynamique complexe rend délicat la modélisation dynamique de ces écoulements qui est pourtant nécessaire à la conception d'un contrôle efficace. Au cours de cette thèse, différentes directions ont été suivies afin de développer des modèles réduits dans des configurations réalistes d'écoulements et d'utiliser ces modèles pour le contrôle.Premièrement, la décomposition en modes dynamiques (DMD), et certaines de ses variantes, ont été exploitées en tant que base réduite afin d'extraire au mieux le comportement dynamique de l'écoulement. Par la suite, nous nous sommes intéressés à l'assimilation de données 4D-Var qui permet de combiner des informations inhomogènes provenant d'un modèle dynamique, d'observations et de connaissances a priori du système. Nous avons ainsi élaboré des modèles réduits POD et DMD d'un écoulement turbulent autour d'un cylindre à partir de données expérimentales PIV. Finalement, nous avons considéré le contrôle d'écoulement dans un contexte d'interaction fluide/structure. Après avoir montré que les mouvements de solides immergés dans le fluide pouvaient être représentés comme une contrainte supplémentaire dans le modèle réduit, nous avons stabilisé un écoulement de sillage de cylindre par oscillation verticale. / Control of turbulent flows is still today a challenge in aerodynamics. Indeed, the presence of a high number of active degrees of freedom and of a complex dynamics leads to the need of strong modelling efforts for an efficient control design. During this PhD, various directions have been followed in order to develop reduced-order models of flows in realistic situations and to use it for control. First, dynamic mode decomposition (DMD), and some of its variants, have been exploited as reduced basis for extracting at best the dynamical behaviour of the flow. Thereafter, we were interested in 4D-variational data assimilation which combines inhomogeneous informations coming from a dynamical model, observations and an a priori knowledge of the system. POD and DMD reduced-order models of a turbulent cylinder wake flow have been successfully derived using data assimilation of PIV measurements. Finally, we considered flow control in a fluid-structure interaction context. After showing that the immersed body motion can be represented as an additional constraint in the reduced-order model, we stabilized a cylinder wake flow by vertical oscillations.
9

Vers une prise en compte des erreurs-modèle en assimilation de données 4D-variationnelle. <br />Application à un modèle réaliste d'océan

Vidard, Arthur 20 December 2001 (has links) (PDF)
L'assimilation de données est une classe de méthode mathématiques très usitées en météorologie ou en océanographie. Elle permettent de recomposer de façon adéquate l'état du système au moyen des informations fournies par le modèle d'une part et les observations d'autre part. Parmi celles-ci, les méthodes d'assimilation variationnelles ont connu récemment un fort développement jusqu'à fournir les méthodes opérationnelles dans les principaux centres de météorologie. Cependant ces méthodes ne prennent généralement pas en compte l'inexactitude des modèles. Tout au long de cette thèse, on s'est attaché à décrire et expérimenter des variantes " modèle inexacte " de la méthode 4D-Variationnelle applicable tant du point de vue algorithmique que du coût en temps de calcul.<br />Deux méthodes sont étudiées plus en détail. Premièrement, le Nudging optimal qui consiste en adjoindre au 4D-Var un rappel newtonien de l'état du modèle vers les observations et dont l'amplitude sera estimé par contrôle optimal. D'autre part le " contrôle de l'erreur systématique " considère l'erreur modèle comme étant un terme ne variant pas, ou très peu, dans le temps, ce terme étant également estimé par contrôle.<br />Dans un premier temps ces méthodes sont appliquées à des cas académiques de modèles simplifiés en assimilant des données simulées. La méthode de contrôle de la part systématique de l'erreur est ensuite appliquée à un modèle d'océan aux équations primitives dans le cadre d'une expérience réaliste afin de valider les bons résultats obtenus pour les configurations académiques.
10

Study of Ozone Sensitivity to Precursors at High Spatial Resolution Using the Modified CMAQ-ADJ Model

Dang, Hongyan January 2012 (has links)
In this thesis, I apply the adjoint for the Community Multiscale Air Quality model (hereafter CMAQ-ADJ) in a high spatial resolution study of the sensitivity of ozone to several of its precursors in the regions surrounding the Great Lakes. CMAQ-ADJ was originally developed for low spatial resolution applications. In order to use it in high spatial resolution (12 km) studies, it was necessary to resolve a conflict between the pre-set fixed output time step interval in CMAQ-ADJ and the CMAQ-calculated irregular synchronization time-step and also to modify the meteorological interface for the backward model integrations. To increase computation efficiency, the chemistry time-step in the modified CMAQ-ADJ is checkpointed instead of being re-calculated in the backward part of the model as before. I used the modified model to analyze the sensitivity of ozone to precursor species for cases of assumed high ozone episode in two target locations in southwestern and east-central Ontario. The studies examined the influence of pre-existing ozone, NO, CO, anthropogenic volatile organic compounds (VOCs) and isoprene on ozone level changes for the 69 hours immediately preceding the assumed high ozone event. The results are dominated by the long-distance advection, local meteorology (lake breezes), air temperature, the underlying surface features, and emissions in the pollutant pathway. Both production and titration of ozone by NOx is evident at different times and locations in the simulations. The industrial Midwest U.S. and Ohio Valley have been shown to be an important source of anthropogenic emission of NO and most VOCs that contribute to high ozone events in southwestern and east-central Ontario. Isoprene from the northern forest suppresses ozone in both target regions, with a greater magnitude in east-central Ontario. The response of ozone level in the two selected receptor regions in Ontario to different VOCs depends on the type of VOC, the time and location they are emitted, and the air temperature. Increasing VOC emissions in urban areas such as Toronto and Ottawa in the morning can enhance the ozone level by late afternoon. Increasing VOCs except ethylene and formaldehyde in regions with large VOC/NOx ratio in the morning tends to suppress the ozone level by late afternoon. Among all the species examined, NO has the largest impact on the target ozone level changes. CO is very unlikely to significantly influence the ozone level changes in southwestern or east-central Ontario.

Page generated in 0.113 seconds