• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 84
  • 57
  • 13
  • 12
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 212
  • 212
  • 75
  • 38
  • 35
  • 34
  • 34
  • 24
  • 24
  • 18
  • 18
  • 18
  • 17
  • 17
  • 17
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Paramétrisations stochastiques de processus biogéochimiques non résolus dans un modèle couplé NEMO/PISCES de l'Atlantique Nord : Applications pour l'assimilation de données de la couleur de l'océan / Stochastic parameterizations of unresolved biogeochemical processes in a coupled NEMO/PISCES model of the north Atlantic

Garnier, Florent 10 May 2016 (has links)
En dépit de progrès croissants durant la dernière décennie, la complexité des écosystèmes marins est encore imparfaitement simulée par les modèles.Les formulations des processus biogéochimiques sont en général établies de manière empirique et contraintes par une multitude de paramètres.Il est ainsi généralement admis que leurs incertitudes impactent fortement l'estimation de la production primaire, dont le rôle dans le cycle du carbone est primordial.Analyser les impacts de l'incertitude des modèles est donc nécessaire pour améliorer la représentation des caractéristiques biogéochimiques de l'océan.Dans le contexte d'assimilation de données de la couleur de l'océan, la définition des erreurs de prévision représente de plus un important verrou aux performances des systèmes.Ces points seront analysés dans cette thèse. L'objectif sera d'examiner, dans un contexte de modélisation/assimilation, la pertinence d'utiliser une approche probabiliste basée sur une simulation explicite des incertitudes biogéochimiques du modèle couplé au 1/4° NEMO/PISCES sur l'océan Atlantique Nord.A partir d'une simulation déterministe du modèle PISCES, nous proposerons une méthode pour générer des processus aléatoires, AR(1), permettant d'inclure des structures spatiales et temporelles de corrélations.A chaque pas de temps, ces perturbations aléatoires seront ensuite introduites dans le modèle par l'intermédiaire de paramétrisations stochastiques.Elles simuleront 2 différentes classes d'incertitudes: les incertitudes sur les paramètres biogéochimiques du modèle et les incertitudes dues aux échelles non résolues dans le cas d'équations non linéaires. L'utilisation de paramétrisations stochastiques permettra ainsi d'élaborer une version probabiliste du modèle PISCES, à partir de laquelle nous pourrons réaliser une simulation d'ensemble de 60 membres.La pertinence de cette simulation d'ensemble sera évaluée par comparaison avec les observations de la couleur de l'océan SeaWIFS. Nous montrerons en particulier que la simulation d'ensemble conserve les structures de grande échelle présentes dans la simulation déterministe.En utilisant les distributions de probabilité définies par les membres de l'ensemble, nous montrerons que l'ensemble capture l'information des observations avec une bonne estimation de leurs statistiques d'erreur (fiabilité statistique). L'intérêt de l'approche probabiliste sera ainsi d'abord évalué dans un contexte de modélisation biogéochimique. / In spite of recent advances, biogeochemical models are still unable to represent the full complexity of marine ecosystems.Since mathematical formulations are still based on empirical laws involving many parameters, it is now well established that the uncertainties inherent to the biogeochemical complexity strongly impact the model response.Improving model representation therefore requires to properly describe model uncertainties and their consequences.Moreover, in the context of ocean color data assimilation, one of the major issue rely on our ability to characterize the model uncertainty (or equivalently the model error) in order to maximize the efficiency of the assimilation system.This is exactly the purpose of this PhD which investigates the potential of using random processes to simulate some biogeochemical uncertaintiesof the 1/4° coupled physical–biogeochemical NEMO/PISCES model of the North Atlantic ocean.Starting from a deterministic simulation performed with the original PISCES formulation, we propose a genericmethod based on AR(1) random processes to generate perturbations with temporal and spatial correlations.These perturbations are introduced into the model formulations to simulate 2 classes of uncertainties: theuncertainties on biogeochemical parameters and the uncertainties induced by unresolved scales in the presenceof non-linear processes. Using these stochastic parameterizations, a probabilistic version of PISCES is designedand a 60-member ensemble simulation is performed.The implications of this probabilistic approach is assessed using the information of the probability distributions given of this ensemble simulationThe relevance and the impacts of the stochastic parameterizations are assessed from a comparison with SeaWIFS satellite data.In particular, it is shown that the ensemble simulation is able to produce a better estimate of the surface chlorophyll concentration than the first guess deterministic simulation.Using SeaWIFS ocean color data observations, the statistical consistency (reliability) of this prior ensemble is demonstrated using rank histograms.Finally, the relevance of our approach in the prospect of ocean color data assimilation is demonstrated by considering a 3D optimal analysis of the ensemble (one updateat one time step) performed from the statistic errors of the stochastic ensemble simulation previously stated.During this experiment, the high resolution SeaWIFS ocean color data are assimilated using a Ensemble Transform Kalman Filter (ETKF) analysis scheme and the non gaussian behaviour and non linear relationshipbetween variables are taken into account using anamorphic transformations.More specifically, we show that the analysis of SeaWIFS data improves the representation and the ensemble statistics of chlorophyll concentrations.
152

Apport des observations IASI pour la description des variables nuageuses du modèle AROME dans le cadre de la campagne HyMeX / Contribution of IASI radiances for the description of cloud variables in the AROME model in the context of the HyMeX campaign

Martinet, Pauline 24 September 2013 (has links)
Les données satellitaires représentent aujourd'hui la vaste majorité des observations assimilées dans les modèles de prévision numérique du temps. Leur exploitation reste cependant sous-optimale, seulement 10% du volume total est assimilé en opérationnel. Environ 80% des données infrarouges étant affectées par les nuages, il est primordial de développer l'assimilation des observations satellitaires dans les zones nuageuses. L'exploitation du sondeur hyperspectral infrarouge IASI a déjà permis une amélioration des prévisions météorologiques grâce à sa précision et son contenu en information jamais inégalés. Son utilisation dans les zones nuageuses reste cependant très complexe à cause de la forte non-linéarité des processus nuageux dans l'infrarouge. Cette thèse propose donc une méthode permettant d'exploiter au mieux les observations nuageuses du sondeur IASI. Un modèle de transfert radiatif avancé utilisant les propriétés microphysiques du nuage a été évalué. Cette méthode présente l'avantage majeur d'utiliser les profils de condensats nuageux produits par les modèles de prévision. Grâce à ce nouveau schéma, les profils de contenus en eau nuageuse ont pu être inversés avec succès à partir des observations IASI et d'un schéma d'assimilation variationnelle uni-dimensionnel (1D-Var). L'impact de ces observations en termes d'analyse et d'évolution des variables nuageuses dans le modèle de prévision a aussi été évalué. Cette étude est une première évaluation du choix des variables de contrôle utilisées lors des inversions. Un modèle simplifié uni-colonne du modèle de prévision AROME a permis de faire évoluer les profils analysés par le 1D-Var sur une période de trois heures. Des résultats prometteurs ont montré la bonne conservation de l'incrément d'analyse pendant plus d'une heure et demie de prévision. La formation des systèmes fortement précipitants étant fortement liée aux contenus en eau nuageuse, ces résultats encourageants laissent entrevoir des retombées majeures pour la prévision des évènements de pluie intense et les applications de prévision numérique à très courte échéance. / Nowadays, most data assimilated in numerical weather prediction come from satellite observations. However, the exploitation of satellite data is still sub-optimal with only 10 to 15% of these data assimilated operationally. Keeping in mind that about 80% of infrared data are affected by clouds, it is a priority to develop the assimilation of cloud-affected satellite data. The hyperspectral infrared sounder IASI has already contributed to the improvement of weather forecasts thanks to its far better spectral resolution and information content compared to previous instruments. The use of cloud-affected IASI radiances is still very complicated due to the high non-linearity of clouds in the infrared. This PhD work suggests an innovative way to take advantage of cloud-affected radiances observed by IASI. An advanced radiative transfer model using cloud microphysical properties has been evaluated. This method has the advantage of using cloud water content profiles directly produced by numerical weather prediction models. Thanks to this new scheme, profiles of cloud water contents have been successfully retrieved from IASI cloud-affected radiances with a one dimensional variational assimilation scheme (1D-Var). The impact of these data in terms of analysis and evolution of cloud variables has been evaluated in a numerical weather prediction model. This study is the first step in evaluating the choice that has been made for the control variables used during the retrievals. A simplified one-dimensional version of the AROME model was used to run three-hour forecasts from the 1D-Var analysed profiles. Promising results have shown a good maintenance of the analysis increment during more than one hour and a half of forecast. In regard to these encouraging results, a positive impact on nearcasting applications and forecasts of heavy rainfall events, which are highly coupled to cloud variables, can be expected in the future.
153

Contribution de la future mission altimétrique à large fauchée SWOT pour la modélisation hydrologique à grande échelle / Contribution of the wide-swath altimetry mission SWOT to improve large-scale hydrological modeling

Emery, Charlotte 03 February 2017 (has links)
L'objectif scientifique de ce travail de thèse est d'améliorer l'estimation des flux d'eau à la surface des continents, à l'échelle saisonnière et interannuelle (de quelques années à décennale). En particulier, il s'agit d'étudier l'apport de données satellites, notamment de la future mission SWOT (Surface Water and Ocean Topography, lancement prévu en 2021), pour l'étude de la partie continentale du cycle de l'eau à l'échelle globale, à l'aide du modèle global de surfaces continentales ISBA-TRIP (Intéractions Sol-Biosphère-Atmosphère/Total Runoff and Integrating Pathways). Dans ce travail de thèse, j'explore le potentiel des données d'altimétrie satellitaire, pour corriger certains paramètres du modèle de routage de rivière TRIP et aussi pour corriger ses variables d'état. Pour ce faire, une plateforme d'assimilation de données virtuelles SWOT, mais aussi de données d'altimètres nadirs actuels a été mise en place. Mais avant l'assimilation de ces données de télédétection, il a été nécessaire de faire une analyse de sensibilité du modèle TRIP à ses paramètres, pour déterminer quels paramètres ont le plus d'influence sur les observables SWOT et qui donc pourront être corrigés. L'analyse de sensibilité (ANOVA) a alors été menée sur les principaux paramètres de TRIP. L'analyse de sensibilité a été menée sur le bassin de L'Amazone et les résultats ont été publiés. Les résultats ont montré que les hauteurs d'eau simulées sont sensibles aux paramètres géomorphologiques locaux exclusivement tandis que les débits simulés sont sensibles à l'ensemble des paramètres amont (selon le réseau de routage TRIP) et surtout au paramètre lié au temps de résidence des eaux souterraines. Enfin, les anomalies de hauteurs présentent des sensibilités similaires aux hauteurs d'eau mais avec des variations temporelles plus marquées. Ces résultats nous ont permis de faire les choix algorithmiques dans le cadre de l'assimilation de données. Ensuite, je me suis concentrée sur le développement de la maquette d'assimilation de données consistant en un Filtre de Kalman d'Ensemble (EnKF) et permet de faire soit de l'estimation de paramètres, soit de l'estimation d'état. La maquette en " estimation de paramètres " est testée et validée par une série d'expériences jumelles. On a assimilé des pseudo-observations de hauteurs et d'anomalies d'eau le long des traces du satellite SWOT, afin de corriger les coefficients de Manning du lit de la rivière, avec possibilité d'étendre à d'autres paramètres. Les premiers résultats montrent que la maquette est capable de retrouver la bonne distribution des coefficients de Manning en assimilant les hauteurs d'eau et les anomalies. Pour l'estimation d'état, on réalise des étapes d'assimilation journalières pour corriger le stock d'eau initial (condition initiale du modèle), en assimilant des débits estimés à partir de séries altimétriques de côtes d'eau ENVISAT. A partir de courbe de tarage hauteurs d'eau-débits calibrées sur le bassin de l'Amazone avec le modèle hydrologique MGB-IPH, les côtes d'eau ont été transformées en " débits altimétriques " que l'on assimile alors dans la maquette. Ces expériences d'estimation d'état nous permettent de sortir du cadre idéalisé des expériences jumelles en assimilant des données réelles, mais nous permet aussi de tester l'apport d'un premier jeu de données de débits provenant de mesures satellites, qui préfigure le futur produit de débit SWOT. Les résultats montrent que les erreurs sur le débits sont globalement améliorées : le run libre donne un RMSE de 2,79x103 m3/s (73,6 %) par rapport aux données in situ disponible sur le bassin et le run corrigé un RMSE de 1,98 x 103 m3/s (53,9 %). / Scientific objective of this PhD work is to improve water fluxes estimation on the continental surfaces, at interanual and interseasonal scale (from few years to decennial time period). More specifically, it studies contribution of remotely-sensed measurements to improve hydrology model. Notably, this work focuses on the incoming SWOT mission (Surface Water and Ocean Topography, launch scheduled for 2021) for the study of the continental water cycle at global scale, and using the land surface model ISBA-TRIP. In this PhD work, I explore the potential of satellite data to correct both input parameters of the river routing scheme TRIP and its state variables. To do so, a data assimilation platform has been set to assimilate SWOT virtual observation as well as discharge estimated from real nadir altimetry data. Beforehand, it was necessary to do a sensibility analysis of TRIP model to its parameters. The aim of such study was to highlight what are the most impacting parameters on SWOT-observed variables and therefore select the ones to correct via data assimilation. The sensibility analysis (ANOVA) has been led on TRIP main parameters. The study has been done over the Amazon basin. The results showed that the simulated water levels are sensitive to local geomorphological parmaters exclusively. On the other hand, the simulated discharges are sensitive to upstream parameters (according to the TRIP river routing network) and more particularly to the groundwater time constant. Finally, water anomalies present sensitivities similar to those of the water levels but with more pronounced temporal variations. These results also lead me to do some choices in the implementation of the assimilation scheme and have been published. Therefore, in the second part of my PhD, I focused on developing a data assimilation platform which consists in an Ensemble Kalman Filter (EnKF). It could either correct the model input parameters or directly its state. A series of twin experiments is used to test and validate the parameter estimation module of the platform. SWOT virtual-observations of water heights and anomalies along SWOT tracks are assimilated to correct the river manning coefficient, with the possibility to easily extend to other parameters. First results show that the platform is able to recover the "true" Manning distribution assimilating SWOT-like water heights and anomalies. In the state estimation mode, daily assimilation cycles are realized to correct TRIP river water storage initial state by assimilating ENVISAT-based discharge. Those observations are derived from ENVISAT water elevation measures, using rating curves from the MGB-IPH hydrological model (calibrated over the Amazon using in situ gages discharge). Using such kind of observation allows going beyond idealized twin experiments and also to test contribution of a remotely-sensed discharge product, which could prefigure the SWOT discharge product. The results show that discharge after assimilation are globally improved : the root-mean-square error between the analysis discharge ensemble mean and in situ discharges is reduced by 28 \%, compared to the root-mean-square error between the free run and in situ discharges (RMSE are respectively equal to 2.79 x 103 m3/s and 1.98 x 103 m3/s).
154

Application de l'assimilation de données à  la mécanique des fluides numérique : de la turbulence isotrope aux écoulements urbains / Application of data assimilation to computational fluid dynamics : from isotropic turbulence to urban flows

Mons, Vincent 18 November 2016 (has links)
Dans cette thèse, l'application de l'assimilation de données (AD) à la MFN est étudiée, avec comme objectif global de contribuer à l'amélioration de la prévision numérique d'écoulements complexes. L'AD consiste à fusionner les outils de prévision numérique avec des données expérimentales afin d'améliorer l'estimation des paramètres d'entrée du code MFN. Les aspects méthodologiques de l'AD et son application pour des études physiques sont tous deux examinés dans cette thèse. Dans un premier temps, l'AD est utilisée pour une étude théorique de la turbulence de grille. Un modèle spectral pour les écoulements turbulents homogènes et anisotropes est également proposé. Plusieurs méthodes d'AD sont ensuite implémentées pour un code MFN et appliquées à la reconstruction d'écoulements instationnaires et compressibles en présence d'incertitudes sur des paramètres d'entrée de grandes dimensions afin d'évaluer les forces et faiblesses respectives de ces techniques. Des stratégies pour le placement optimal de réseaux de capteurs sont élaborées afin d'améliorer les performances du processus d'AD. Enfin, l'AD est appliquée à l'identification de sources de polluants et à la reconstruction de conditions météorologiques pour des écoulements en milieu urbain prédits par Simulation des Grandes Echelles. / In this thesis, we investigate the use of various data assimilation (DA) techniques in the context of CFD, with the ultimate goal of enhancing the prediction of real-world flows. DA consists in merging numerical predictions and experimental observations in order to improve the estimation of the CFD solver inputs. Both methodological aspects of DA and its potential application to physics investigations are explored for various flow configurations. First, DA is considered for the theoretical analysis of grid turbulence decay. Fundamental aspects of anisotropic homogeneous turbulence are also investigated through spectral modelling. Various DA methodologies are deployed in conjunction with a Navier-Stokes solver and are assessed for the reconstruction of unsteady compressible flows with large control vectors. Sensor placement strategies are developed to enhance the performances of the DA process. Finally, a first application of DA to Large Eddy Simulations of full-scale urban flows is proposed with the aim of identifying source and wind parameters from concentration measurements.
155

Sensibilité des assimilations d'ensemble globales et régionales aux conditions initialites et aux conditions limites latérales / Sensitivity of global and regional ensemble assimilation to initial conditions and lateral boundary conditions

El Ouaraini, Rachida 16 April 2016 (has links)
La mise en œuvre de méthodes d'assimilation d'ensemble est une technique assez récente visant à simuler les erreurs d'analyse et de prévision d'un système d'assimilation de données. Cela permet d'une part d'estimer des covariances spatiales des erreurs de prévision, qui sont un ingrédient essentiel des systèmes d'assimilation de données, dans la mesure où elles permettent de filtrer et de propager spatialement l'information observée. La dépendance de ces covariances d'erreur à la situation météorologique devient ainsi accessible avec ces techniques d'ensemble. D'autre part, l'assimilation d'ensemble est également une méthode de plus en plus utilisée pour fournir des perturbations initiales aux systèmes de prévision d'ensemble. Une telle approche peut être mise en place non seulement dans un système modélisant l'atmosphère sur l'ensemble du globe, mais aussi dans un système régional à aire limitée, en utilisant dans ce cas des conditions limites latérales appropriées. Le sujet de thèse proposé consiste à examiner certaines propriétés de sensibilité de ces techniques d'assimilation d'ensemble dans ces deux types de contextes (à savoir global et régional, respectivement). Il s'agit premièrement d'étudier la sensibilité d'un système global d'assimilation d'ensemble à son initialisation. Cela sera mené en comparant une technique d'initialisation "à froid" (basée sur des perturbations initiales nulles) avec une méthode basée sur des perturbations initiales tirées d'un modèle de covariance. Dans une deuxième partie, la sensibilité d'une assimilation d'ensemble régionale aux conditions limites latérales sera examinée. Dans cette perspective, une comparaison entre différentes techniques de production des perturbations latérales sera réalisée. Il s'agit notamment de comparer les approches basées sur des perturbations latérales qui sont soit nulles, soit tirées d'un ensemble global, ou encore produites à l'aide d'un modèle de covariance. Ces études de sensibilité seront menées d'une part en utilisant des expérimentations avec les systèmes global Arpege et régional Aladin. Ce travail s'appuiera d'autre part sur une formalisation des équations qui gouvernent l'évolution des perturbations au sein d'une assimilation d'ensemble. Ces études devraient permettre de documenter les propriétés de ces assimilations d'ensemble, et de définir des stratégies de mise en œuvre en grandeur réelle pour l'assimilation de données ainsi qu'éventuellement pour la prévision d'ensemble. / The implementation of ensemble assimilation methods is a fairly recent technique used to simulate the analysis and forecast errors within a data assimilation system. On the one hand, this allows to estimate the spatial covariances of forecast errors, which are an essential component in data assimilation systems, insofar as they are used to filter and disseminate spatially the observed information. The dependence of such error covariances to the weather situation becomes accessible with these ensemble techniques. On the other hand, the ensemble assimilation is a method increasingly used to provide initial perturbations to ensemble prediction systems. Such approach may be implemented not only in a system modeling the atmosphere throughout the globe, but also in a regional system with limited area using suitable lateral boundary conditions. The proposed thesis consists on examining some sensitivity properties of these ensemble assimilation techniques in both contexts (global and regional, respectively). In the first part, the sensitivity of a global ensemble assimilation system to its initialization will be examined. This will be conducted by comparing a "cold" initialization technique (initial perturbations equal to zero) with a method based on initial perturbations drawn from a covariance model. In the second part, the sensitivity of a regional ensemble assimilation to lateral boundary conditions will be considered. In this context, a comparison between different techniques producing lateral boundaries will be achieved. It involves comparing approaches using lateral boundaries which are equal to zero or drawn from a global ensemble, or generated using a covariance model. These sensitivity studies will be conducted using experiments using the global and regional modeling systems, Arpège and Aladin respectively. Furthermore, this work will be based on a formalization of the equations governing the evolution of perturbations in an ensemble assimilation. These studies should help to document the ensemble assimilation properties, and develop strategies for implementing in real scale for data assimilation and possibly for ensemble prediction system.
156

Modélisation et assimilation d’observations satellitaires micro-ondes dans les systèmes dépressionnaires tropicaux / Modelling and assimilation of rainy microwave satellite observations in tropical systems

Guerbette, Jérémy 04 April 2016 (has links)
Cette thèse s’inscrit dans la problématique de l’utilisation des observations satellitaires pour l’assimilation en prévision numérique du temps dans les régions nuageuses pluvieuses. Les travaux sont abordés en lien avec l’amélioration de la prévision des cyclones tropicaux et s’appuient sur la mission satellitaire innovante MEGHATROPIQUES couvrant les zones tropicales avec une répétitivité temporelle inégalée et en particulier sur le sondeur micro-ondes d’humidité SAPHIR à 183 GHz. Nous avons utilisé le modèle de prévision numérique du temps ALADIN-Réunion opérationnel à Météo-France depuis 2006 dont le domaine couvre une large partie de l’océan Indien avec une résolution horizontale de 8 km, ainsi que le modèle de transfert radiatif RTTOV-SCATT qui offre un bon compromis entre sa précision pour décrire les atmosphères diffusantes et sa rapidité d’exécution. Dans un premier temps nous avons optimisé le choix des propriétés radiatives des précipitations solides afin de simuler au mieux les températures de brillance SAPHIR avec les modèles ALADIN-Réunion et RTTOV-SCATT. Nous avons ensuite proposé une méthode d’inversion des températures de brillance SAPHIR en zones nuageuses basée sur une méthode bayésienne permettant de restituer des profils atmosphériques corrigés. Ces profils inversés ont été validés pour une situation particulière associée au cyclone Benilde (Décembre 2011). Les profils d’humidité spécifique ont alors été introduits comme de nouvelles observations dans l’assimilation variationnelle tridimensionnelle (3D-Var) du modèle ALADIN-Réunion. La capacité du système 3D-Var à contraindre le champ d’humidité analysé vers les profils inversés est démontrée, ainsi que l’amélioration des prévisions de précipitations à courte échéance. Toutefois, la prévision du cyclone Benilde est de moins bonne qualité avec ces observations additionnelles. Plusieurs pistes sont proposées pour expliquer et améliorer ces premiers résultats. Finalement, une étude a été réalisée pour préparer les évolutions des modèles de prévision numérique. Nous avons examiné la capacité d’une version d’ALADIN-Réunion avec un schéma de convection profonde pronostique à simuler le cycle de vie du cyclone Bejisa (Décembre 2013 - Janvier 2014). Des améliorations significatives sont notées à la fois sur la trajectoire et l’intensification de ce système tropical. De manière cohérente, la simulation des températures de brillance SAPHIR en zones nuageuses est en meilleur accord avec les observations. Un modèle à plus fine échelle (AROME) résolvant explicitement la convection profonde (résolution horizontale de 2.5 km) est appelé à remplacer le modèle ALADIN-Réunion. Sa capacité à décrire le système Bejisa est démontrée. Toutefois il apparaît que le choix optimal pour le type de particule décrivant les précipitations solides fait pour ALADIN-Réunion n’est pas adapté à la simulation des températures de brillance SAPHIR avec AROME et RTTOV-SCATT. Les causes de cette incohérence sont expliquées. / This thesis is focused on the use of satellite observations within cloudy and rainy areas for assimilation in numerical weather prediction models. The activities have been undertaken in the context of tropical cyclone forecasting. They have taken advantage of the recent satellite mission MEGHA-TROPIQUES covering tropical regions with an unprecedented temporal revisit with a focus on the humidity sounder SAPHIR at 183 GHz. We have used the numerical weather prediction model ALADIN-Réunion that is operational at Météo-France since 2006 and covers a large fraction of the Indian ocean with a 8 km horizontal resolution. The radiative transfer model RTTOV-SCATT has also been considered, since it provides a good compromise between its accuracy to simulate scattering atmospheres and its computational cost. In a first step, the choice of the radiative properties for solid precipitating particles has been optimized in order to improve the simulation of SAPHIR brightness temperatures with ALADIN-Réunion and RTTOV-SCATT models. Then, an inversion method of cloudy SAPHIR brightness temperatures based on the bayesian technique has been chosen in order to retrieve improved atmospheric profiles. The retrieved profiles have been validated for a case study corresponding to the tropical cyclone Benilde (December 2011). Profiles of specific humidity have been introduced as new observations in the tridimensional variational assimilation (3D-Var) system of the ALADIN-Réunion model. The capacity of the 3D-Var system to constrain the humidity analysis towards the retrieved profiles is demonstrated, together with improved short-range precipitation forecasts. On the other hand, the prediction of the tropical cyclone Benilde is degraded with these additional observations. A number of reasons are provided to explain and improve these first results. Finally, a study has been done to prepare future evolutions of numerical weather prediction models. We have examined the skill of a version of the ALADIN-Réunion model with a prognostic deep moist convection scheme to simulate the life cycle of tropical cyclone Bejisa (December 2013 - January 2014). Significant improvements have been noticed on the trajectory and on the intensification of this tropical system. Consistently, the simulation of SAPHIR brightness temperatures is in better agreement with observations. A fine scale model (AROME) describing explicitly deep moist convection is planned to replace the ALADIN-Réunion model. Its ability to describe the cyclone Bejisa is demonstrated. However, it appears that the optimal choice of the solid particle made for ALADIN-Réunion is not suited for the simulation of SAPHIR brightness temperatures with AROME and RTTOV-SCATT. Explanations are given of such inconsistency.
157

Ensemble-based data assimilation and depth inversion on the Kootenai River, ID, USA

Landon, Kyle C. 30 August 2012 (has links)
Velocity measurements from drifter GPS records are assimilated and used in an ensemble-based inversion technique to extract the river bathymetry. The method is tested on a deep meandering reach and a shallow braided reach of the Kootenai River in Idaho, USA. The Regional Ocean Modeling System (ROMS) is used to model numerous statistically varied bathymetries to create an ensemble of hydrodynamic states. These states, the drifter observations, and the uncertainty of each are combined to form a cost function which is minimized to produce an estimated velocity ���eld. State augmentation is then used to relate the velocity ���eld to bathymetry. Our goals are to assess whether ROMS can accurately reproduce the Kootenai River ���ow to an extent that depth inversion is feasible, investigate if drifter paths are sensitive enough to bottom topography to make depth inversion possible, and to establish practical limitations of the present methodology. At both test sites, the depth inversion method produced an estimate of bathymetry that was more accurate and more skillful than the prior estimate. / Graduation date: 2013
158

Formalisation et automatisation de YAO, générateur de code pour l’assimilation variationnelle de données

Nardi, Luigi 08 March 2011 (has links)
L’assimilation variationnelle de données 4D-Var est une technique très utilisée en géophysique, notamment en météorologie et océanographie. Elle consiste à estimer des paramètres d’un modèle numérique direct, en minimisant une fonction de coût mesurant l’écart entre les sorties du modèle et les mesures observées. La minimisation, qui est basée sur une méthode de gradient, nécessite le calcul du modèle adjoint (produit de la transposée de la matrice jacobienne avec le vecteur dérivé de la fonction de coût aux points d’observation). Lors de la mise en œuvre de l’AD 4D-Var, il faut faire face à des problèmes d’implémentation informatique complexes, notamment concernant le modèle adjoint, la parallélisation du code et la gestion efficace de la mémoire. Afin d’aider au développement d’applications d’AD 4D-Var, le logiciel YAO qui a été développé au LOCEAN, propose de modéliser le modèle direct sous la forme d’un graphe de flot de calcul appelé graphe modulaire. Les modules représentent des unités de calcul et les arcs décrivent les transferts des données entre ces modules. YAO est doté de directives de description qui permettent à un utilisateur de décrire son modèle direct, ce qui lui permet de générer ensuite le graphe modulaire associé à ce modèle. Deux algorithmes, le premier de type propagation sur le graphe et le second de type rétropropagation sur le graphe permettent, respectivement, de calculer les sorties du modèle direct ainsi que celles de son modèle adjoint. YAO génère alors le code du modèle direct et de son adjoint. En plus, il permet d’implémenter divers scénarios pour la mise en œuvre de sessions d’assimilation.Au cours de cette thèse, un travail de recherche en informatique a été entrepris dans le cadre du logiciel YAO. Nous avons d’abord formalisé d’une manière plus générale les spécifications deYAO. Par la suite, des algorithmes permettant l’automatisation de certaines tâches importantes ont été proposés tels que la génération automatique d’un parcours “optimal” de l’ordre des calculs et la parallélisation automatique en mémoire partagée du code généré en utilisant des directives OpenMP. L’objectif à moyen terme, des résultats de cette thèse, est d’établir les bases permettant de faire évoluer YAO vers une plateforme générale et opérationnelle pour l’assimilation de données 4D-Var, capable de traiter des applications réelles et de grandes tailles. / Variational data assimilation 4D-Var is a well-known technique used in geophysics, and in particular in meteorology and oceanography. This technique consists in estimating the control parameters of a direct numerical model, by minimizing a cost function which measures the misfit between the forecast values and some actual observations. The minimization, which is based on a gradient method, requires the computation of the adjoint model (product of the transpose Jacobian matrix and the derivative vector of the cost function at the observation points). In order to perform the 4DVar technique, we have to cope with complex program implementations, in particular concerning the adjoint model, the parallelization of the code and an efficient memory management. To address these difficulties and to facilitate the implementation of 4D-Var applications, LOCEAN is developing the YAO framework. YAO proposes to represent a direct model with a computation flow graph called modular graph. Modules depict computation units and edges between modules represent data transfer. Description directives proper to YAO allow a user to describe its direct model and to generate the modular graph associated to this model. YAO contains two core algorithms. The first one is a forward propagation algorithm on the graph that computes the output of the numerical model; the second one is a back propagation algorithm on the graph that computes the adjoint model. The main advantage of the YAO framework, is that the direct and adjoint model programming codes are automatically generated once the modular graph has been conceived by the user. Moreover, YAO allows to cope with many scenarios for running different data assimilation sessions.This thesis introduces a computer science research on the YAO framework. In a first step, we have formalized in a more general way the existing YAO specifications. Then algorithms allowing the automatization of some tasks have been proposed such as the automatic generation of an “optimal” computational ordering and the automatic parallelization of the generated code on shared memory architectures using OpenMP directives. This thesis permits to lay the foundations which, at medium term, will make of YAO a general and operational platform for data assimilation 4D-Var, allowing to process applications of high dimensions.
159

Multiscale data assimilation approaches and error characterisation applied to the inverse modelling ofatmospheric constituent emission fields

Koohkan, Mohammad Reza, Koohkan, Mohammad Reza 20 December 2012 (has links) (PDF)
Data assimilation in geophysical sciences aims at optimally estimating the state of the system or some parameters of the system's physical model. To do so, data assimilation needs three types of information: observations and background information, a physical/numerical model, and some statistical description that prescribes uncertainties to each componenent of the system.In my dissertation, new methodologies of data assimilation are used in atmospheric chemistry and physics: the joint use of a 4D-Var with a subgrid statistical model to consistently account for representativeness errors, accounting for multiple scale in the BLUE estimation principle, and a better estimation of prior errors using objective estimation of hyperparameters. These three approaches will be specifically applied to inverse modelling problems focussing on the emission fields of tracers or pollutants. First, in order to estimate the emission inventories of carbon monoxide over France, in-situ stations which are impacted by the representativeness errors are used. A subgrid model is introduced and coupled with a 4D-Var to reduce the representativeness error. Indeed, the results of inverse modelling showed that the 4D-Var routine was not fit to handle the representativeness issues. The coupled data assimilation system led to a much better representation of theCO concentration variability, with a significant improvement of statistical indicators, and more consistent estimation of the CO emission inventory. Second, the evaluation of the potential of the IMS (International Monitoring System) radionuclide network is performed for the inversion of an accidental source. In order to assess the performance of the global network, a multiscale adaptive grid is optimised using a criterion based on degrees of freedom for the signal (DFS). The results show that several specific regions remain poorly observed by the IMS network. Finally, the inversion of the surface fluxes of Volatile Organic Compounds (VOC) are carried out over Western Europe using EMEP stations. The uncertainties of the background values of the emissions, as well as the covariance matrix of the observation errors, are estimated according to the maximum likelihood principle. The prior probability density function of the control parameters is chosen to be Gaussian or semi-normal distributed. Grid-size emission inventories are inverted under these two statistical assumptions. The two kinds of approaches are compared. With the Gaussian assumption, the departure between the posterior and the prior emission inventories is higher than when using the semi-normal assumption, but that method does not provide better scores than the semi-normal in a forecast experiment.
160

Transport optimal pour l'assimilation de données images / Optimal transportation for images data assimilation

Feyeux, Nelson 08 December 2016 (has links)
Pour prédire l'évolution d'un système physique, nous avons besoin d'initialiser le modèle mathématique le représentant, donc d'estimer la valeur de l'état du système au temps initial. Cet état n'est généralement pas directement mesurable car souvent trop complexe. En revanche, nous disposons d'informations du système, prises à des temps différents, incomplètes, mais aussi entachées d'erreurs, telles des observations, de précédentes estimations, etc. Combiner ces différentes informations partielles et imparfaites pour estimer la valeur de l'état fait appel à des méthodes d'assimilation de données dont l'idée est de trouver un état initial proche de toutes les informations. Ces méthodes sont très utilisées en météorologie. Nous nous intéressons dans cette thèse à l'assimilation d'images, images qui sont de plus en plus utilisées en tant qu'observations. La spécificité de ces images est leur cohérence spatiale, l'oeil humain peut en effet percevoir des structures dans les images que les méthodes classiques d'assimilation ne considèrent généralement pas. Elles ne tiennent compte que des valeurs de chaque pixel, ce qui résulte dans certains cas à des problèmes d'amplitude dans l'état initial estimé. Pour résoudre ce problème, nous proposons de changer d'espace de représentation des données : nous plaçons les données dans un espace de Wasserstein où la position des différentes structures compte. Cet espace, équipé d'une distance de Wasserstein, est issue de la théorie du transport optimal et trouve beaucoup d'applications en imagerie notamment.Dans ce travail nous proposons une méthode d'assimilation variationnelle de données basée sur cette distance de Wasserstein. Nous la présentons ici, ainsi que les algorithmes numériques liés et des expériences montrant ses spécificités. Nous verrons dans les résultats comment elle permet de corriger ce qu'on appelle erreurs de position. / Forecasting of a physical system is computed by the help of a mathematical model. This model needs to be initialized by the state of the system at initial time. But this state is not directly measurable and data assimilation techniques are generally used to estimate it. They combine all sources of information such as observations (that may be sparse in time and space and potentially include errors), previous forecasts, the model equations and error statistics. The main idea of data assimilation techniques is to find an initial state accounting for the different sources of informations. Such techniques are widely used in meteorology, where data and particularly images are more and more numerous due to the increasing number of satellites and other sources of measurements. This, coupled with developments of meteorological models, have led to an ever-increasing quality of the forecast.Spatial consistency is one specificity of images. For example, human eyes are able to notice structures in an image. However, classical methods of data assimilation do not handle such structures because they take only into account the values of each pixel separately. In some cases it leads to a bad initial condition. To tackle this problem, we proposed to change the representation of an image: images are considered here as elements of the Wasserstein space endowed with the Wasserstein distance coming from the optimal transport theory. In this space, what matters is the positions of the different structures.This thesis presents a data assimilation technique based on this Wasserstein distance. This technique and its numerical procedure are first described, then experiments are carried out and results shown. In particularly, it appears that this technique was able to give an analysis of corrected position.

Page generated in 0.1273 seconds