• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 84
  • 57
  • 13
  • 12
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 212
  • 212
  • 75
  • 38
  • 35
  • 34
  • 34
  • 24
  • 24
  • 18
  • 18
  • 18
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Assimilation de réflectances satellitaires du domaine visible et proche infrarouge dans un modèle détaillé de manteau neigeux / Assimilation of satellite visible and near-infrared reflectances into a detailed snowpack model

Charrois, Luc 05 January 2017 (has links)
Une modélisation précise du manteau neigeux saisonnier est indispensable pour comprendre son évolution et améliorer la prévention d risque d’avalanche. Le Centre d’Études de la Neige (CEN) développe depuis plus de 20 ans un modèle de manteau neigeux nommé Crocus dédié à simuler son évolution et ses propriétés physiques uniquement à partir de variables météorologiques de surface. Les erreurs du modèle et l’imprécision des forçages météorologiques sont des sources inévitables d’incertitudes dans les prévisions de Crocus.Contraindre le modèle avec des observations peut être un moyen de minimiser l’impact de ces incertitudes dans les simulations. En raison de la faible densité des réseaux de mesures in situ et de la forte variabilité spatiale du manteau neigeux, il est vraisemblable que seule l’imagerie satellitaire puisse permettre une contrainte efficace du modèle. Le spectroradiomètre MODIS,fournissant quotidiennement des informations sur la surface terrestre à une résolution de 250m, est bien adapté pour l’observation du couvert nival. Ce capteur opère dans les domaines du visible et de l’infrarouge où les réflectances mesurées (rapport du flux solaire réfléchi surincident selon les longueurs d’onde) sont sensibles à certaines propriétés du manteau neigeux.Le nouveau schéma radiatif TARTES de Crocus est en mesure de simuler l’évolution de ces réflectances, ce qui ouvre la voie à l’assimilation des réflectances MODIS.L’objectif de la thèse est d’explorer l’assimilation des réflectances MODIS dans le modèle de manteau neigeux Crocus, dans une perspective opérationnelle à moyen terme. Ce projet s’appuie fortement sur l’expertise en modélisation physique et radiative du manteau neigeux et en assimilation de données présente au Centre d’Études de la Neige et au Laboratoire de Glaciologie et Géophysique de l’Environnement à Grenoble.Le projet s’est déroulé en deux étapes pour répondre aux questions suivantes :Les réflectances optiques satellitaires possèdent-elles un contenu informatif capable de contraindre efficacement le modèle Crocus ?Quels sont les obstacles à surmonter pour parvenir à l’assimilation effective des réflectances optiques mesurées par satellites ?Un filtre particulaire est utilisé comme méthode d’assimilation pour évaluer l’apport des réflectances sur les estimations du manteau neigeux en termes de hauteur de neige et son équivalent en eau liquide. Le choix de ce filtre, permis par la petite dimension du problème,est conforté par sa facilité d’implémentation au vu des contraintes fortes du modèle Crocus.Les expériences conduites dans cette étude sont réalisées au niveau du Col du Lautaret et du Col de Porte (Alpes françaises). Des expériences d’assimilation d’observations virtuelles démontrent le potentiel des réflectances spectrales pour guider Crocus dans ses estimations du manteau neigeux. L’erreur quadratique moyenne (RMSE) des variables intégrées de la hauteur de neige et de son équivalent en eau est réduite de près de moitié par l’assimilation des observations. L’efficacité de l’assimilation est cependant fortement dépendante de la distribution temporelle des observations.Des expériences d’assimilation de réflectances réelles mettent en évidence une grande sensibilité des résultats de l’assimilation à la qualité des observations. La conversion et le traitement des données MODIS au sommet de l’atmosphère (TOA) en réflectances de surface sont la cause de fortes incertitudes dans ces données. Les biais occasionnés et une mauvaise caractérisation de ces erreurs détériorent les estimations du manteau neigeux. Le contrôle qualité et la sélection des données satellitaires sont à ce titre une priorité dans la perspective d’assimilation des données satellitaires.Ce travail démontre ainsi le potentiel des données spatiales pour le suivi et la prévision du manteau neigeux, potentiel qu’il conviendra d’exploiter dans un futur proche. / An accurate seasonal snowpack modeling is needed to study its evolution and to improvethe avalanche hazard forecast. For 20 years, the snow study center (CEN) has developed asnowpack model named Crocus to simulate the snow cover and its physical properties drivenby near-surface meteorological conditions. Model and meteorological forcing errors are themain uncertainties in the Crocus forecasts. Constraining the model with observations canminimize the impacts of these uncertainties on simulations. Because of the low density ofground-based measurement networks combined to the high spatial variability of the snowcover, satellite observations should be the best way to constrain the model. The MODISspectroradiometer which provides daily surface information at 250 m spatial resolution isappropriated to study the snow cover. The visible and near-infrared reflectances (definedas the fraction of incident solar flux that is reflected by the surface) measured by MODISare strongly sensitive to physical properties of the snowpack. The radiative transfer modelTARTES, recently implemented into Crocus, calculates the same spectral reflectances and so,opens routes to data assimilation of MODIS reflectances.The aim of this thesis is to investigates the assimilation of the MODIS reflectances into thesnowpack model Crocus in an operational perspective. This work benefits from the expertisein physical and radiative snowpack modeling as well as data assimilation from two laboratoriesof Grenoble, the snow study center and the Laboratory of Glaciology and Geophysics of theEnvironment.The project took place in two steps to answer the following questions:Do MODIS reflectances offer an informative content allowing an efficient constraint ofthe Crocus snowpack model?What are the challenges associated to the assimilation of remotely-based optical reflectances?A particle filter is used as data assimilation scheme to evaluate the ability of opticalreflectance data assimilation to improve snow depth and snow water equivalent simulations.The choice of this filter, allowed by the small size of the problem, is based on its ease ofimplementation regarding the severe constraints of the Crocus model. The experiments wereconducted at the Col du Lautaret and the Col de Porte in the French Alps.The assimilation of synthetic observations demonstrates the potential of spectral reflectancesto constraint the Crocus snowpack model simulations. The root-mean square errors(RMSE) of bulk variables like snow depth and snow water equivalent are reduced by a factorof roughly 2 after assimilation. However, the performance of assimilation is highly dependenton the temporal distribution of the observations.The assimilation of real reflectances shows a high sensitivity to the quality of the assimilatedobservations. Converting MODIS top of atmosphere reflectances into surface reflectancesintroduces uncertainties in these data. Resulting biases and a poor characterization of errorsdeteriorate the estimation of the snowpack. Screening methods prior assimilation are thereforea priority in the prospect of satellite data assimilation.This work demonstrates the potential of remotely-based data assimilation to monitor and forecast the snow cover, potential which should be used in the near future.
122

Assimilation rétrospective de données par lissage de rang réduit : application et évaluation dans l'Atlantique Tropical / Retrospective data assimilation with a reduced-rank smoother : application and evaluation in the tropical Atlantic

Freychet, Nicolas 11 January 2012 (has links)
Le filtre de Kalman est largement utilisé pour l'assimilation de données en océanographie opérationnelle, notamment dans le cadre de prévisions. Néanmoins, à l'heure où les applications de l'assimilation de données tendent à se diversifier, notamment avec les réanalyses, la formulation tridimensionnelle (3D) du filtre n'utilise pas de façon optimale les observations. L'extension de ces méthodes 3D (filtre) à une formulation 4D (appelés lisseurs), permet de mieux tirer partie des observations en les assimilant de façon rétrograde. Nous étudions dans cette thèse la mise en place et les effets d'un lisseur de rang réduit sur les réanalyses, dans le cadre d'une configuration réaliste de la circulation océanique en Atlantique tropical. Ce travail expose dans un premier temps les aspects sensibles mais nécessaires de l'implémentation du lisseur, avec notamment la paramétrisation des statistiques d'erreur et leur évolution temporelle. Les apports du lissage sur les réanalyses sont ensuite étudiés, en comparant la qualité de la solution lissée par rapport à la solution filtrée. Ces résultats permettent d'exposer les bienfaits d'une assimilation 4D. On observe notamment une diminution de l'erreur globale de environ 15% sur les variables assimilées, ainsi qu'une bonne capacité du lisseur à fournir une solution cohérente avec la dynamique de référence. Ce point est illustré par le rephasage de certaines structures sensibles comme les anneaux du Brésil. Enfin, un cas moins en accord avec la théorie mais plus facile à mettre en pratique (et plus souvent utilisé dans les centres opérationnels), l'interpolation optimale, a permis d'étudier les apports du lissage et ses limites dans une telle configuration. L'évolution temporelle des erreurs pour le lissage s'est ainsi révélée nécessaire pour garder un maximum de cohérence avec les erreurs réelles. Néanmoins, le lisseur montre tout de même des résultats encourageant avec l'interpolation optimale en abaissant le niveau global d'erreur (de 10 à 15%). / The Kalman filter is widely used in data assimilation for operational oceanography, in particular for forecasting problems. Yet, now that data assimilation applications tend to diversify, with reanalysis problems for instance, the three-dimensional (3D) formulation of the filter doesn't allow an optimal use of the observations. The four-dimensional extention of the 3D methods, called smoothers, allows a better use of the observations, assimilating them on a retrospective way. We study in this work the implementation and the effects of a reduced-rank smoother on reanalysis, with a realistic tropical Atlantic ocean circulation model. First we expose some sensitive steps required for the smoother implementation, most notably the covariances evolution parametrisation of the filter. The smoother's benefits for reanalysis are then exposed, compare to a 3D reanalysis. It shows that the global error can be reduced by 15% on assimilated variables (like temperature). The smoother also leads to an analyzed solution dynamically closer to the reference (compare to the filter), as we can observe with phasing of Brazil rings for instance. Finally, we studied a case of smoothing based on optimal interpolation (instead of the filter). This case is inconsistent with the theory but often used in operational centers. Results shows that the smoother can improve the reanalysis solution in an OI case (reducing the global error from 10 to 15%), but still the dynamical evolution of error covariances (filter) are needed to get a correction according with the real error structures.
123

Local Ensemble Transform Kalman Filter for Earth-System Models: An application to Extreme Events

January 2018 (has links)
abstract: Earth-system models describe the interacting components of the climate system and technological systems that affect society, such as communication infrastructures. Data assimilation addresses the challenge of state specification by incorporating system observations into the model estimates. In this research, a particular data assimilation technique called the Local Ensemble Transform Kalman Filter (LETKF) is applied to the ionosphere, which is a domain of practical interest due to its effects on infrastructures that depend on satellite communication and remote sensing. This dissertation consists of three main studies that propose strategies to improve space- weather specification during ionospheric extreme events, but are generally applicable to Earth-system models: Topic I applies the LETKF to estimate ion density with an idealized model of the ionosphere, given noisy synthetic observations of varying sparsity. Results show that the LETKF yields accurate estimates of the ion density field and unobserved components of neutral winds even when the observation density is spatially sparse (2% of grid points) and there is large levels (40%) of Gaussian observation noise. Topic II proposes a targeted observing strategy for data assimilation, which uses the influence matrix diagnostic to target errors in chosen state variables. This strategy is applied in observing system experiments, in which synthetic electron density observations are assimilated with the LETKF into the Thermosphere-Ionosphere- Electrodynamics Global Circulation Model (TIEGCM) during a geomagnetic storm. Results show that assimilating targeted electron density observations yields on average about 60%–80% reduction in electron density error within a 600 km radius of the observed location, compared to 15% reduction obtained with randomly placed vertical profiles. Topic III proposes a methodology to account for systematic model bias arising ifrom errors in parametrized solar and magnetospheric inputs. This strategy is ap- plied with the TIEGCM during a geomagnetic storm, and is used to estimate the spatiotemporal variations of bias in electron density predictions during the transitionary phases of the geomagnetic storm. Results show that this strategy reduces error in 1-hour predictions of electron density by about 35% and 30% in polar regions during the main and relaxation phases of the geomagnetic storm, respectively. / Dissertation/Thesis / Doctoral Dissertation Applied Mathematics 2018
124

La décomposition en polynôme du chaos pour l'amélioration de l'assimilation de données ensembliste en hydraulique fluviale / Polynomial chaos expansion in fluvial hydraulics in Ensemble data assimilation framework

El Moçayd, Nabil 01 March 2017 (has links)
Ce travail porte sur la construction d'un modèle réduit en hydraulique fluviale avec une méthode de décomposition en polynôme du chaos. Ce modèle réduit remplace le modèle direct afin de réduire le coût de calcul lié aux méthodes ensemblistes en quantification d'incertitudes et assimilation de données. Le contexte de l'étude est la prévision des crues et la gestion de la ressource en eau. Ce manuscrit est composé de cinq parties, chacune divisée en chapitres. La première partie présente un état de l'art des travaux en quantification des incertitudes et en assimilation de données dans le domaine de l'hydraulique ainsi que les objectifs de la thèse. On présente le cadre de la prévision des crues, ses enjeux et les outils dont on dispose pour prévoir la dynamique des rivières. On présente notamment la future mission SWOT qui a pour but de mesurer les hauteurs d'eau dans les rivières avec un couverture globale à haute résolution. On précise notamment l'apport de ces mesures et leur complémentarité avec les mesures in-situ. La deuxième partie présente les équations de Saint-Venant, qui décrivent les écoulements dans les rivières, ainsi qu'une discrétisation numérique de ces équations, telle qu'implémentée dans le logiciel Mascaret-1D. Le dernier chapitre de cette partie propose des simplifications des équations de Saint-Venant. La troisième partie de ce manuscrit présente les méthodes de quantification et de réduction des incertitudes. On présente notamment le contexte probabiliste de la quantification d'incertitudes et d'analyse de sensibilité. On propose ensuite de réduire la dimension d'un problème stochastique quand on traite de champs aléatoires. Les méthodes de décomposition en polynômes du chaos sont ensuite présentées. Cette partie dédiée à la méthodologie s'achève par un chapitre consacré à l'assimilation de données ensemblistes et à l'utilisation des modèles réduits dans ce cadre. La quatrième partie de ce manuscrit est dédiée aux résultats. On commence par identifier les sources d'incertitudes en hydraulique que l'on s'attache à quantifier et réduire par la suite. Un article en cours de révision détaille la validation d'un modèle réduit pour les équations de Saint-Venant en régime stationnaire lorsque l'incertitude est majoritairement portée par les coefficients de frottement et le débit à l'amont. On montre que les moments statistiques, la densité de probabilité et la matrice de covariances spatiales pour la hauteur d'eau sont efficacement et précisément estimés à l'aide du modèle réduit dont la construction ne nécessite que quelques dizaines d'intégrations du modèle direct. On met à profit l'utilisation du modèle réduit pour réduire le coût de calcul du filtre de Kalman d'Ensemble dans le cadre d'un exercice d'assimilation de données synthétiques de type SWOT. On s'intéresse précisément à la représentation spatiale de la donnée telle que vue par SWOT: couverture globale du réseau, moyennage spatial entre les pixels observés. On montre notamment qu'à budget de calcul donné les résultats de l'analyse d'assimilation de données qui repose sur l'utilisation du modèle réduit sont meilleurs que ceux obtenus avec le filtre classique. On s'intéresse enfin à la construction du modèle réduit en régime instationnaire. On suppose ici que l'incertitude est liée aux coefficients de frottement. Il s'agit à présent de juger de la nécessité du recalcul des coefficients polynomiaux au fil du temps et des cycles d'assimilation de données. Pour ce travail seul des données in-situ ont été considérées. On suppose dans un deuxième temps que l'incertitude est portée par le débit en amont du réseau, qui est un vecteur temporel. On procède à une décomposition de type Karhunen-Loève pour réduire la taille de l'espace incertain aux trois premiers modes. Nous sommes ainsi en mesure de mener à bien un exercice d'assimilation de données. Pour finir, les conclusions et les perspectives de ce travail sont présentées en cinquième partie. / This work deals with the formulation of a surrogate model for the shallow water equations in fluvial hydraulics with a chaos polynomial expansion. This reduced model is used instead of the direct model to reduce the computational cost of the ensemble methods in uncertainty quantification and data assimilation. The context of the study is the flood forecasting and the management of water resources. This manuscript is composed of five parts, each divided into chapters. The first part presents a state of art of uncertainty quantification and data assimilation in the field of hydraulics as well as the objectives of this thesis. We present the framework of flood forecasting, its stakes and the tools available (numerical and observation) to predict the dynamics of rivers. In particular, we present the SWOT2 mission, which aims to measure the height of water in rivers with global coverage at high resolution. We highlight particularty their contribution and their complementarity with the in-situ measurements. The second part presents the shallow water equations, which describe the flows in the rivers. We are particularly interested in a 1D representation of the equations.We formulate a numerical discretization of these equations, as implemented in the Mascaret software. The last chapter of this part proposes some simplifications of the shallow-water equations. The third part of this manuscript presents the uncertainty quantification and reduced order methods. We present particularly the probabilistic context which makes it possible to define well-defined problem of uncertainty quantification and sensitivity analysis. It is then proposed to reduce the size of a stochastic problem when dealing with random fields in the context of geophysical models. The methods of chaos polynomial expansion are then presented ; we present in particular the different strategies for the computation of the polynomial coefficients. This section devoted to methodology concludes with a chapter devoted to Ensemble based data assimilation (specially the Ensemble Kalman filter) and the use of surrogate models in this framework. The fourth part of this manuscript is dedicated to the results. The first step is to identify the sources of uncertainty in hydraulics that should be quantified and subsequently reduced. An article, in the review state, details the method and the validation of a polynomial surrogate model for shallow water equations in steady state when the uncertainty is mainly carried by the friction coefficients and upstream inflow. The study is conducted on the river Garonne. It is shown that the statistical moments, the probability density and the spatial covariance matrice for the water height are efficiently and precisely estimated using the reduced model whose construction requires only a few tens of integrations of the direct model. The use of the surrogate model is used to reduce the computational cost of the Ensemble Kalman filter in the context of a synthetic SWOT like data assimilation exercise. The aim is to reconstruct the spatialized friction coefficients and the upstream inflow. We are interested precisely in the spatial representation of the data as seen by SWOT : global coverage of the network, spatial averaging between the observed pixels. We show in particular that at the given calculation budget (2500 simulations of the direct model) the results of the data assimilation analysis based on the use of the polynomial surrogate model are better than those obtained with the classical Ensemble Kalman filter. We are then interested in the construction of the reduced model in unsteady conditions. It is assumed initially that the uncertainty is carried with the friction coefficients. It is now necessary to judge the need for the recalculation of polynomial coefficients over time and data assimilation cycles. For this work only ponctual and in-situ data were considered. It is assumed in a second step that the uncertainty is carried by the upstr
125

Assimilação 3DVAR no WRF e a Previsão do Tempo no Sul do Brasil / 3DVAR Assimilation in WRF and the Weather Prediction in the South of Brazil

Beck, Vinicius Carvalho, Beck, Vinicius Carvalho 23 May 2013 (has links)
Made available in DSpace on 2014-08-20T14:25:46Z (GMT). No. of bitstreams: 1 dissertacao_vinicius_beck.pdf: 4949761 bytes, checksum: c6f13ff7be7f00316975865c6d3cf811 (MD5) Previous issue date: 2013-05-23 / The procedure to combine mathematical models with noise data, in order to improve numerical weather forecasting by statistical methods, is an important and challenging meteorology research field, known as data assimilation. The 3DVAR approach, state of art in data assimilation technique, is applied in this study. The aim of present development is to evaluate the results of the data assimilation from INMET automatic stations and soundings in Southern Region of Brazil in the weather forecasts of the WRF model with data assimilation via 3DVAR method, analyzing in each processed case, if the forecasting reproduces the synoptic scenario observed, with better prediction then the WRF without data assimilation. The specific aim is to evaluate the assimilation procedure of two precipitation events occurred in the year 2012. This study is especially important, because the INMET automatic weather stations data are not transmitted by GTS. Therefore, these data were not assimilated by prediction systems generated by global models, such as GFS, which provides initial and boundary conditions for regional models, such as WRF. The results show that the WRF with data assimilation procedure, reproduces satisfactorily the true synoptic scenario observed in the two cases evaluated and produces better forecasts then WRF without data assimilation. The thermodynamic analysis showed that the WRF with data assimilation producing vertical profiles of air temperature and dew point temperature very close to the observed profiles, with small improvement in prediction as compared with the WRF without assimilation. Additional experiments indicate that data assimilated from other sources, in addition to the INMET automatic weather stations and soundings stations, as well as the increases of horizontal resolution in the integration of the WRF with inclusion of subset, provide significant improvements in weather forecasting fields. / O procedimento de combinar modelos matemáticos com dados imprecisos e que apresentam ruídos, para melhorar a previsão do tempo por método estatístico, constitui uma importante e desafiadora linha de pesquisa em meteorologia, conhecida como assimilação de dados. O método 3DVAR, que é uma das técnicas que representam o estado da arte em assimilação de dados, é aplicado neste estudo. O objetivo do presente trabalho é avaliar os resultados da assimilação dos dados observados das estações automáticas do INMET e de radiossondagens da Região Sul do Brasil na previsão do modelo WRF com assimilação 3DVAR, analisando em cada caso processado, se os prognósticos reproduzem o cenário sinótico observado e melhoram a previsão do WRF sem assimilação. O objetivo específico é avaliar o procedimento de assimilação em dois eventos de precipitação ocorridos no ano de 2012. O estudo é especialmente importante, visto que os dados das estações automáticas do INMET não são transmitidos no GTS; portanto, não são assimilados pelos sistemas de previsões geradas por modelos globais, como o GFS, que proporcionam as condições iniciais e de contorno de modelos regionais, como o WRF. Os resultados mostram que o WRF com assimilação de dados reproduziu satisfatoriamente o cenário sinótico observado nos dois casos analisados e produziu prognósticos melhores do que os do WRF sem assimilação. As análises termodinâmicas mostraram que o WRF com assimilação de dados produziu perfis verticais de temperatura do ar e temperatura do ponto de orvalho bem próximos dos perfis observados, com pequena melhora na previsão em relação ao WRF sem assimilação. Experimentos adicionais indicam que a assimilação de dados de outras fontes, além das estações automáticas do INMET e radiossondagens, bem como o aumento da resolução espacial na integração do WRF com a inclusão de um subdomínio, resultam em melhora significativa na previsão dos campos meteorológicos.
126

Assimilation variationnelle des données dans le modèle de surface continentale ORCHIDEE grâce au logiciel YAO / Variarional data assimilation in the land surface model ORCHIDEE using YAO

Benavides Pinjosovsky, Hector Simon 27 March 2014 (has links)
Un modèle de surface continentale (LSM en anglais) est un modèle numérique décrivant les échanges d'eau et d'énergie entre la surface terrestre et l'atmosphère. La physique de la surface de la terre comprend une vaste collection de processus complexes. L'équilibre entre la complexité du modèle et sa résolution, confronté à des limitations de calcul, représente une question fondamentale dans le développement d'un LSM. Les observations des phénomènes étudiés sont nécessaires afin d’adapter la valeur des paramètres du modèle à des variables reproduisant le monde réel. Le processus d'étalonnage consiste en une recherche des paramètres du modèle qui minimisent l’écart entre les résultats du modèle et un ensemble d'observations. Dans ce travail, nous montrons comment l'assimilation variationnelle de données est appliquée aux bilans d'énergie et d'eau du modèle de surface continentale ORCHIDEE afin d’étalonner les paramètres internes du modèle. Cette partie du modèle est appelé SECHIBA. Le logiciel YAO est utilisé pour faciliter la mise en œuvre de l'assimilation variationnelle 4DVAR. Une analyse de sensibilité a été réalisée afin d'identifier les paramètres les plus influents sur la température. Avec la hiérarchie des paramètres obtenue, des expériences jumelles à partir d'observations synthétiques ont été mises en œuvre. Les résultats obtenus suggèrent que l'assimilation de la température de surface a le potentiel d'améliorer les estimations de variables, en ajustant correctement les paramètres de contrôle. Enfin, plusieurs assimilations ont été faites en utilisant des observations de données réelles du site SMOSREX à Toulouse, France. Les expériences faites en utilisant différentes valeurs initiales pour les paramètres, montrent les limites de l'assimilation de la température pour contraindre les paramètres de contrôle. Même si l'estimation des variables est améliorée, ceci est dû à des valeurs finales des paramètres aux limites des intervalles prescrit de la fonction de coût. Afin de parvenir à un minimum, il faudrait permettre aux paramètres de visiter des valeurs irréalistes. Les résultats montrent que SECHIBA ne simule pas correctement simultanément la température et les flux et la relation entre les deux n’est pas toujours cohérente selon le régime (ou les valeurs des paramètres que l’on utilise). Il faut donc travailler sur la physique pour mieux simuler la température. En outre, la sensibilité des paramètres à la température n’est pas toujours suffisante, donnant une fonction de coût plate dans l’espace des paramètres prescrit. Nos résultats montrent que le système d'assimilation mis en place est robuste, puisque les résultats des expériences jumelles sont satisfaisants. Le couplage entre l'hydrologie et la thermodynamique dans SECHIBA doit donc être revu afin d'améliorer l'estimation des variables. Une étude exhaustive de l'erreur des mesures doit être menée afin de récupérer des termes de pondération dans la fonction de coût. Enfin, l'assimilation d'autres variables telles que l'humidité du sol peut maintenant être réalisée afin d'évaluer l'impact sur les performances de l’assimilation. / A land surface model (LSM) is a numerical model describing the exchange of water and energy between the land surface and the atmosphere. Land surface physics includes an extensive collection of complex processes. The balance between model complexity and resolution, subject to computational limitations, represents a fundamental query in the development of a LSM. With the purpose of adapting the value of the model parameters to values that reproduces results in the real world, measurements are necessary in order to compare to our estimations to the real world. The calibration process consists in an optimization of model parameters for a better agreement between model results and a set of observations, reducing the gap between the model and the available measurements. Here we show how variational data assimilation is applied to the energy and water budgets modules of the ORCHIDEE land surface model in order to constrain the model internal parameters. This part of the model is denoted SECHIBA. The adjoint semi-generator software denoted YAO is used as a framework to implement the 4DVAR assimilation. A sensitivity analysis was performed in order to identify the most influent parameters to temperature. With the parameter hierarchy resolved, twin experiments using synthetic observations were implemented for controlling the most sensitive parameters. Results obtained suggest that land surface temperature assimilation has the potential of improving the output estimations by adjusting properly the control parameters. Finally, several assimilations were made using observational meteorology dataset from the SMOSREX site in Toulouse, France. The experiments implemented, using different prior values for the parameters, show the limits of the temperature assimilation to constrain control parameters. Even though variable estimation is slightly improved, this is due to final parameter values are at the edge of a variation interval in the cost function. Effectively reaching a minimum would require allowing the parameters to visit unrealistic values. SECHIBA does not correctly simulates simultaneously temperature and fluxes and the relationship between the two is not always consistent according to the regime (or parameter values that are used). We must therefore work on the physical aspects to better simulate the temperature. Likewise, the parameter sensitivity to temperature is not always sufficient, giving as a result a flat cost function. Our results show that the assimilation system implemented is robust, since performances results in twin experiments are satisfactory. The coupling between the hydrology and the thermodynamics in SECHIBA must be reviewed in order to improve variable estimation. An exhaustive study of the prior errors in the measurements must be conducted in order to retrieve more adapted weighing terms in the cost function. Finally, the assimilation of other variables such as soil moisture should be performed to evaluate the impacts in constraining control parameters
127

Inversion régionale des sources de poussières désertiques / Regional inversion of desert dust sources

Escribano, Jerónimo 09 March 2017 (has links)
Dans cette thèse, nous concevons et appliquons un système d'assimilation de données pour l'estimation des sources de poussières désertiques à l'échelle régionale. Nous assimilons des données d'épaisseur optique des aérosols à partir de produits satellitaires dans une configuration régionale d'un modèle de circulation générale, couplé à un modèle d'aérosol et à un module de production de poussières. Le vecteur de contrôle dans le système d'assimilation est composé des facteurs de correction pour les émissions obtenues par l'ébauche du module de production de poussières. Nous concentrons nos inversions sur l'Afrique du Nord et la péninsule arabique pour une période d'un an. Nous décrivons le module de production de poussières et le système d'assimilation. Les résultats de l'inversion et la validation par rapport à des mesures indépendantes sont ensuite présentés en détail. Nous poursuivons cette thèse en mettant l'accent sur la sensibilité des émissions de poussières au jeu de données d'observation. Pour cela, nous avons assimilé cinq produits différents d'épaisseur optique d'aérosols dans notre système d'assimilation de données. Nous avons identifié des erreurs systématiques dans le modèle et dans les observations, ainsi que les limites et les avantages de notre approche. Nous avons accordé une attention particulière à la définition des statistiques d'erreur et à la procédure numérique pour calculer les analyses. Nous proposons et mettons en oeuvre un schéma de correction de biais dans l'espace des observations, et nous évaluons sa performance. / In this thesis we design and apply a data assimilation system for the estimation of mineral dust emission fluxes at the regional scale. We assimilate aerosol optical depth retrievals from satellite-borned instruments in a regional configuration of a general circulation model, coupled to an aerosol model and to a dust production module. The control variable in the assimilation system are correction factors for the prior emissions of the dust production module. We focus our inversions over North Africa and the Arabian Peninsula for a one-year period. We describe the dust production module and the assimilation system. The inversion results and the validation against independent measurements is presented in detail. We continue this thesis with a focus on the sensitivity of the inferred dust emissions with respect to the observational dataset assimilated. For this purpose, we have assimilated five different aerosol optical depth retrievals in our data assimilation system. We have identified systematic errors in the model, in the observations and limitations and advantages of our approach. We have given special attention to the definition of the error statistics and the numerical procedure to compute the analyses. We propose and implement a bias correction scheme in the observational space, and we evaluate its performance.
128

Méthodes variationnelles d'ensemble itératives pour l'assimilation de données non-linéaire : Application au transport et la chimie atmosphérique / Iterative ensemble variational methods for nonlinear data assimilation : Application to transport and atmospheric chemistry

Haussaire, Jean-Matthieu 23 June 2017 (has links)
Les méthodes d'assimilation de données sont en constante évolution pour s'adapter aux problèmes à résoudre dans les multiples domaines d’application. En sciences de l'atmosphère, chaque nouvel algorithme a d'abord été implémenté sur des modèles de prévision numérique du temps avant d'être porté sur des modèles de chimie atmosphérique. Ce fut le cas des méthodes variationnelles 4D et des filtres de Kalman d'ensemble par exemple. La nouvelle génération d'algorithmes variationnels d'ensemble quadridimensionnels (EnVar 4D) ne fait pas exception. Elle a été développée pour tirer partie des deux approches variationnelle et ensembliste et commence à être appliquée au sein des centres opérationnels de prévision numérique du temps, mais n'a à ce jour pas été testée sur des modèles opérationnels de chimie atmosphérique.En effet, la complexité de ces modèles rend difficile la validation de nouvelles méthodes d’assimilation. Il est ainsi nécessaire d'avoir à disposition des modèles d’ordre réduit, qui doivent être en mesure de synthétiser les phénomènes physiques à l'{oe}uvre dans les modèles opérationnels tout en limitant certaines des difficultés liées à ces derniers. Un tel modèle, nommé L95-GRS, a donc été développé. Il associe la météorologie simpliste du modèle de Lorenz-95 à un module de chimie de l'ozone troposphérique avec 7 espèces chimiques. Bien que de faible dimension, il reproduit des phénomènes physiques et chimiques observables en situation réelle. Une méthode d'assimilation de donnée, le lisseur de Kalman d'ensemble itératif (IEnKS), a été appliquée sur ce modèle. Il s'agit d'une méthode EnVar 4D itérative qui résout le problème non-linéaire variationnel complet. Cette application a permis de valider les méthodes EnVar 4D dans un contexte de chimie atmosphérique non-linéaire, mais aussi de soulever les premières limites de telles méthodes.Fort de cette expérience, les résultats ont été étendus au cas d’un modèle réaliste de prévision de pollution atmosphérique. Les méthodes EnVar 4D, via l'IEnKS, ont montré leur potentiel pour tenir compte de la non-linéarité du modèle de chimie dans un contexte maîtrisé, avec des observations synthétiques. Cependant, le passage à des observations réelles d'ozone troposphérique mitige ces résultats et montre la difficulté que représente l'assimilation de données en chimie atmosphérique. En effet, une très forte erreur est associée à ces modèles, provenant de sources d'incertitudes variées. Deux démarches doivent alors être entreprises pour pallier ce problème.Tout d’abord, la méthode d’assimilation doit être en mesure de tenir compte efficacement de l’erreur modèle. Cependant, la majorité des méthodes sont développées en supposant au contraire un modèle parfait. Pour se passer de cette hypothèse, une nouvelle méthode a donc été développée. Nommée IEnKF-Q, elle étend l'IEnKS au cas avec erreur modèle. Elle a été validée sur un modèle jouet, démontrant sa supériorité par rapport à des méthodes d'assimilation adaptées naïvement pour tenir compte de l’erreur modèle.Toutefois, une telle méthode nécessite de connaître la nature et l'amplitude exacte de l'erreur modèle qu'elle doit prendre en compte. Aussi, la deuxième démarche consiste à recourir à des outils statistiques pour quantifier cette erreur modèle. Les algorithmes d'espérance-maximisation, de emph{randomize-then-optimize} naïf et sans biais, un échantillonnage préférentiel fondé sur l'approximation de Laplace, ainsi qu'un échantillonnage avec une méthode de Monte-Carlo par chaînes de Markov, y compris transdimensionnelle, ont ainsi été évalués, étendus et comparés pour estimer l'incertitude liée à la reconstruction du terme source des accidents des centrales nucléaires de Tchernobyl et Fukushima-Daiichi.Cette thèse a donc enrichi le domaine de l'assimilation de données EnVar 4D par ses apports méthodologiques et en ouvrant la voie à l’application de ces méthodes sur les modèles de chimie atmosphérique / Data assimilation methods are constantly evolving to adapt to the various application domains. In atmospheric sciences, each new algorithm has first been implemented on numerical weather prediction models before being ported to atmospheric chemistry models. It has been the case for 4D variational methods and ensemble Kalman filters for instance. The new 4D ensemble variational methods (4D EnVar) are no exception. They were developed to take advantage of both variational and ensemble approaches and they are starting to be used in operational weather prediction centers, but have yet to be tested on operational atmospheric chemistry models.The validation of new data assimilation methods on these models is indeed difficult because of the complexity of such models. It is hence necessary to have at our disposal low-order models capable of synthetically reproducing key physical phenomenons from operational models while limiting some of their hardships. Such a model, called L95-GRS, has therefore been developed. It combines the simple meteorology from the Lorenz-95 model to a tropospheric ozone chemistry module with 7 chemical species. Even though it is of low dimension, it reproduces some of the physical and chemical phenomenons observable in real situations. A data assimilation method, the iterative ensemble Kalman smoother (IEnKS), has been applied to this model. It is an iterative 4D EnVar method which solves the full non-linear variational problem. This application validates 4D EnVar methods in the context of non-linear atmospheric chemistry, but also raises the first limits of such methods.After this experiment, results have been extended to a realistic atmospheric pollution prediction model. 4D EnVar methods, via the IEnKS, have once again shown their potential to take into account the non-linearity of the chemistry model in a controlled environment, with synthetic observations. However, the assimilation of real tropospheric ozone concentrations mitigates these results and shows how hard atmospheric chemistry data assimilation is. A strong model error is indeed attached to these models, stemming from multiple uncertainty sources. Two steps must be taken to tackle this issue.First of all, the data assimilation method used must be able to efficiently take into account the model error. However, most methods are developed under the assumption of a perfect model. To avoid this hypothesis, a new method has then been developed. Called IEnKF-Q, it expands the IEnKS to the model error framework. It has been validated on a low-order model, proving its superiority over data assimilation methods naively adapted to take into account model error.Nevertheless, such methods need to know the exact nature and amplitude of the model error which needs to be accounted for. Therefore, the second step is to use statistical tools to quantify this model error. The expectation-maximization algorithm, the naive and unbiased randomize-then-optimize algorithms, an importance sampling based on a Laplace proposal, and a Markov chain Monte Carlo simulation, potentially transdimensional, have been assessed, expanded, and compared to estimate the uncertainty on the retrieval of the source term of the Chernobyl and Fukushima-Daiichi nuclear power plant accidents.This thesis therefore improves the domain of 4D EnVar data assimilation by its methodological input and by paving the way to applying these methods on atmospheric chemistry models
129

Assimilation de données ensembliste et couplage de modèles hydrauliques 1D-2D pour la prévision des crues en temps réel. Application au réseau hydraulique "Adour maritime / Ensemblist data assimilation and 1D-2D hydraulic model coupling for real-time flood forecasting. Application to the "Adour maritime" hydraulic network

Barthélémy, Sébastien 12 May 2015 (has links)
Les inondations sont un risque naturel majeur pour les biens et les personnes. Prévoir celles-ci, informer le grand public et les autorités sont de la responsabilité des services de prévision des crues. Pour ce faire ils disposent d'observations in situ et de modèles numériques. Néanmoins les modèles numériques sont une représentation simplifiée et donc entachée d'erreur de la réalité. Les observations quant à elle fournissent une information localisée et peuvent être également entachées d'erreur. Les méthodes d'assimilation de données consistent à combiner ces deux sources d'information et sont utilisées pour réduire l'incertitude sur la description de l'état hydraulique des cours d'eau et améliorer les prévisisons. Ces dernières décennies l'assimilation de données a été appliquée avec succès à l'hydraulique fluviale pour l'amélioration des modèles et pour la prévision des crues. Cependant le développement de méthodes d'assimilation pour la prévision en temps réel est contraint par le temps de calcul disponible et par la conception de la chaîne opérationnelle. Les méthodes en question doivent donc être performantes, simples à implémenter et peu coûteuses. Un autre défi réside dans la combinaison des modèles hydrauliques de dimensions différentes développés pour décrire les réseaux hydrauliques. Un modèle 1D est peu coûteux mais ne permet pas de décrire des écoulement complexes, contrairement à un modèle 2D. Le simple chainage des modèles 1D et 2D avec échange des conditions aux limites n'assure pas la continuité de l'état hydraulique. Il convient alors de coupler les modèles, tout en limitant le coût de calcul. Cette thèse a été financée par la région Midi-Pyrénées et le SCHAPI (Service Central d'Hydrométéorolgie et d'Appui à la Prévisions des Inondations) et a pour objectif d'étudier l'apport de l'assimilation de données et du couplage de modèles pour la prévision des crues. Elle se décompose en deux axes : Un axe sur l'assimilation de données. On s'intéresse à l'émulation du filtre de Kalman d'Ensemble (EnKF) sur le modèle d'onde de crue. On montre, sous certaines hypothèses, qu'on peut émuler l'EnKF avec un filtre de Kalman invariant pour un coût de calcul réduit. Dans un second temps nous nous intéressons à l'application de l'EnKF sur l'Adour maritime avec un modèle Saint-Venant. Nous en montrons les limitations dans sa version classique et montrons les avantages apportés par des méthodes complémentaires d'inflation et d'estimation des covariances d'erreur d'observation. L'apport de l'assimilation des données in situ de hauteurs d'eau sur des cas synthétiques et sur des crues réelles a été démontré et permet une correction spatialisée des hauteurs d'eau et des débits. En conséquence, on constate que les prévisions à court terme sont améliorées. Nous montrons enfin qu'un système de prévisions probabilistes sur l'Adour dépend de la connaissance que l'on a des forçages amonts ; un axe sur le couplage de modèles hydrauliques. Sur l'Adour 2 modèles co-existent : un modèle 1D et un modèle 2D au niveau de Bayonne. Deux méthodes de couplage ont été implémentées. Une première méthode, dite de "couplage à interfaces", combine le 1D décomposé en sous-modèles couplés au 2D au niveau frontières liquides de ce dernier. Une deuxième méthode superpose le 1D avec le 2D sur la zone de recouvrement ; le 1D force le 2D qui, quand il est en crue, calcule les termes d'apports latéraux pour le 1D, modélisant les échanges entre lit mineur et lit majeur. Le coût de calcul de la méthode par interfaces est significativement plus élevé que celui associé à la méthode de couplage par superposition, mais assure une meilleure continuité des variables. En revanche, la méthode de superposition est immédiatement compatible avec l'approche d'assimilation de données sur la zone 1D. / Floods represent a major threat for people and society. Flood forecasting agencies are in charge of floods forecasting, risk assessment and alert to governmental authorities and population. To do so, flood forecasting agencies rely on observations and numerical models. However numerical models and observations provide an incomplete and inexact description of reality as they suffer from various sources of uncertianties. Data assimilation methods consists in optimally combining observations with models in order to reduce both uncertainties in the models and in the observations, thus improving simulation and forecast. Over the last decades, the merits of data assimilation has been greatly demonstrated in the field of hydraulics and hydrology, partly in the context of model calibration or flood forecasting. Yet, the implementation of such methods for real application, under computational cost constraints as well as technical constraints remains a challenge. An other challenge arises when the combining multidimensional models developed over partial domains of catchment. For instance, 1D models describe the mono-dimensional flow in a river while 2D model locally describe more complex flows. Simply chaining 1D and 2D with boundary conditions exchange does not suffice to guarantee the coherence and the continuity of both water level and discharge variables between 1D and 2D domains. The solution lies in dynamical coupling of 1D and 2D models, yet an other challenge when computational cost must be limited. This PhD thesis was funded by Midi-Pyrénées region and the french national agency for flood forecasting SCHAPI. It aims at demonstrating the merits of data assimilation and coupling methods for floof forecasting in the framework of operational application. This thesis is composed of two parts : A first part dealing with data assimilation. It was shown that, under some simplifying assumptions, the Ensemble Kalman filter algorithm (EnKF) can be emulated with a cheaper algorithm : the invariant Kalman filter. The EnKF was then implemented ovr the "Adour maritime" hydraulic network on top of the MASCARET model describing the shallow water equations. It was found that a variance inflation algorithm can further improve data assimlation results with the EnKF. It was shown on synthetical and real cases experiments that data assimilation provides an hydraulic state that is in great agreement with water level observations. As a consequence of the sequential correction of the hydraulic state over time, the forecasts were also greatly improved by data assimilation over the entire hydraulic network for both assimilated and nonassimilated variables, especially for short term forecasts. It was also shown that a probabilistic prediction system relies on the knowledge on the upstream forcings ; A second part focusses on hydraulic models coupling. While the 1D model has a great spatial extension and describes the mono-dimensional flow, the 2D model gives a focus on the Adour-Nive confluence in the Bayonne area. Two coupling methods have been implemented in this study : a first one based on the exchange of the state variables at the liquid boundaries of the models and a second one where the models are superposed. While simple 1D or chained 1D-2D solutions provide an incomplete or discontinuous description of the hydraulic state, both coupling methods provide a full and dynamically coherent description of water level and discharge over the entire 1D-2D domain. On the one hand, the interface coupling method presents a much higher computational cost than the superposition methods but the continuity is better preserved. On the other hand, the superposition methods allows to combine data assimilation of the 1D model and 1D-2D coupling. The positive impact of water level in-situ observations in the 1D domain was illustrated over the 2D domain for a flood event in 2014.
130

Modèles multi-échelles pour l'analyse d'images : application à la turbulence

Zille, Pascal 07 November 2014 (has links)
Cette étude a pour cadre l’analyse d’images dans un contexte multi-échelles, une attention particulière étant portée sur les images fluides dans un contexte turbulent. Nous traitons en premier lieu le problème de l’estimation de mouvement. Dans un contexte multi-échelles, on néglige bien souvent dans un premier temps la contribution des fines échelles du problème. Nous proposons, pour pallier ce problème, plusieurs termes d’attache aux données dérivant de l’OFCE. Ceux-ci permettent, à chaque niveau d’échelle, la prise en compte de ces composantes fines échelles. Les performances de ces termes sont expérimentalement démontrées sur des images générales et fluides. Nous abordons en second lieu le problème de super-résolution d’images de scalaires passifs : nous souhaitons reconstruire, de manière explicite, certains détails manquants au sein d’images basse résolution données. Pour cela, nous utilisons plusieurs modèles issus de la simulation des grandes échelles ainsi que des méthodes d’assimilation de données permettant d’assurer une certaine cohérence temporelle de la solution. Les approches présentées sont expérimentalement étudiées sur différentes séquences d’images. Enfin, nous proposons une méthode d’estimation multi-résolution permettant de combiner de manière simultanée les informations issues des différents niveaux de résolution. / This thesis is concerned with image analysis within a multi-scale framework. Specific attention is given to fluid images in the presence of turbulence. In a first part, we adress the problem of multi-scale motion estimation from image sequences. Starting from OFCE equation, we derive several image data terms allowing to take into account, while estimating the solution coarse scales, the contribution of the finer scales components usually neglected in classic approaches. The performances of the resulting estimators is demonstrated on both general and fluid images. The second step of this study is concerned with the problem of passive scalar images super- resolution : starting from low resolution input images, we aim at recovering some of the missing high frequencies. We proposed several methods inspired by the LES framework, as well as data assimilation techniques, in order to ensure the solution consistency over time. Such approaches are experimented and compared over various image sequences. Finally, we propose a multi-resolution estimation method simultaneously combining informations from different grid levels.

Page generated in 0.1145 seconds