171 |
Assimilation de données pour les problèmes non-Gaussiens : méthodologie et applications à la biogéochimie marine / Data assimilation for non Gaussian problems : methodology and applications to biogeochemistryMetref, Sammy 27 November 2015 (has links)
L'assimilation de données pour les géosciences est une discipline cherchant à améliorer notre connaissance d'un système physique en se basant sur l'information issue de modèles numériques simulant ce système et sur l'information issue des mesures observant ce système. Les méthodes d'assimilation de données traditionnellement utilisées (e.g. le 4DVar ou les filtres de Kalman d'ensemble) reposent sur des hypothèses de Gaussianité des probabilités en jeu et de linéarité des modèles. Avec la complexification des modèles et des réseaux d'observations, ces hypothèses sont de plus en plus injustifiées et donc pénalisantes. Cette complexification est particulièrement forte en océanographie couplée à la biogéochimie marine.Les objectifs de cette thèse sont de mieux comprendre l'apparition des non-Gaussianités dans un problème d'estimation, d'envisager une méthode d'assimilation de données adaptée aux problèmes fortement non-Gaussiens et, dans le cadre du couplage de la dynamique océanique et de la biogéochimie marine, d'explorer la pertinence de l'utilisation de méthodes non-Gaussiennes.Dans un premier temps, une étude méthodologique est conduite. Cette étude, appuyé par des illustrations avec le modèle de Lorenz à trois variables, permet de mettre en évidence les limitations des méthodes traditionnellement utilisées, face à des problèmes non-Gaussiens. Cette étude aboutit sur le développement d'un filtre d'assimilation de données d'ensemble entièrement non-Gaussien : le Multivariate Rank Histogram Filter (MRHF).Il est montré que le MRHF est performant dans des régimes fortement non-Gaussiens (notamment dans un régime bimodal) pour un nombre de membres relativement faible.Dans un second temps, une étude numérique est conduite. Cette étude est réalisée aux travers d'expériences jumelles basées sur un modèle vertical 1D, ModECOGeL, couplant la dynamique et la biogéochimie en mer Ligure. Nous simulons différents réseaux d'observations combinant des profils in situ et des données satellites. Plusieurs méthodes d'assimilation sont alors comparées à l'aide de diagnostics d'évaluation d'ensemble avancés.Nos expériences montrent l'impact du réseau d'observations et des variables de contrôle, sur le degré de non-Gaussianité d'un problème d'estimation. Le contrôle de la partie dynamique du modèle par des observations de la dynamique à différentes fréquences est un problème quasi-Gaussien, qu'un filtre aux moindres carrés, tel l'Ensemble Transform Kalman Filter, résout bien. En revanche pour ces mêmes observations, le contrôle de la biogéochimie s'avère être un problème non-Gaussien et nécessite l'utilisation d'un filtre non-Gaussien.Enfin, il est montré que l'assimilation de la couleur de l'eau, pour le contrôle mixte de la dynamique et de la biogéochimie, est améliorée par des méthodes adaptées aux non-Gaussianités, tel l'Ensemble Kalman Filter anamorphosé. De plus, l'augmentation de la fréquence d'observation de la couleur de l'eau rend incontournable l'utilisation de filtres fondamentalement non-Gaussiens comme le MRHF. / Data assimilation for Geosciences is a discipline seeking to improve our knowledge of a physical system based on the information from numerical models simulating this system and the information from the measures observing this system. The data assimilation methods traditionally used (eg the 4DVAR or the ensemble Kalman filters) are based on assumptions of Gaussianity of the probabilities involved and linearity of the models. With the increasing complexity of models and observation networks, these assumptions are increasingly unjustified and therefore penalizing. This complexity is particularly strong in oceanography coupled with marine biogeochemistry.The objectives of this thesis are to understand the appearance of non Gaussianity in an estimation problem, to think out a data assimilation method adapted to highly non Gaussian problems and, in the coupling of ocean dynamics and marine biogeochemistry, to explore the relevance of the use of non Gaussian methods.At first, a methodological study is conducted. This study, supported by illustrations with the three variable Lorenz model, allows to highlight the limitations of traditional methods when facing non Gaussian problems. This study led to the development of a fully non Gaussian data assimilation filter : the Multivariate Rank Histogram Filter (MRHF).It is shown that the MRHF is efficient in highly non Gaussian regimes (including in a bimodal regime) for a relatively small number of members.Secondly, a numerical study is conducted. This study is conducted with twin experiments based on a 1D vertical model, ModECOGeL, coupling dynamics and biogeochemistry in the Ligurian Sea. We simulate different observation networks combining in situ profiles and satellite data. Several data assimilation methods are then compared using advanced ensemble evaluation diagnoses.Our experiments show the impact of observation networks and controled variables on the degree of non Gaussianity in an estimation problem. The control of the dynamic part of the model by observations of the dynamics at different frequencies is a quasi Gaussian problem, which a least squared filter such as the Ensemble Transform Kalman Filter solves well. In contrast, for the same observations, the control of biogeochemistry proves to be a non Gaussian problem and requires the use of a non Gaussian filter. Finally, it is shown that assimilation of ocean color data, for the joint control of the dynamic and the biogeochemistry, is improved by methods adapted for non Gaussianities such as the Anamorphosed Ensemble Kalman Filter. In addition, increasing the ocean color observation frequency makes unavoidable the use of fundamentally non Gaussian filters such as the MRHF.
|
172 |
Previsão de vazão usando estimativas de precipitação por satélite e assimilação de dadosQuiroz Jiménez, Karena January 2017 (has links)
Neste estudo, trata-se de avaliar fontes de precipitação baseadas em estimativas por satélite e técnicas de assimilação de dados para previsão de vazões por meio do modelo hidrológico distribuído MGB-IPH. A insuficiente representatividade espacial dos pluviômetros torna difícil a correta representação dos campos de precipitações. Por outro lado, as estimativas de satélite, embora forneçam uma descrição espacial mais consistente, são potencialmente menos acuradas. Sendo assim, procura-se utilizar métodos que combinem os dados de ambas as fontes para gerar um campo de precipitação mais consistente. Neste trabalho, implementaramse dois modelos de combinação pluviômetro-satélite, CHUVSAT e MERGEHQ, através de uma metodologia de interpolação. Por outro lado, as técnicas de assimilação de dados acoplados aos modelos de previsão hidrológica são também de interesse neste estudo, pois minimizam as incertezas associadas ao processo de calibração de parâmetros, às variáveis de estado e dados de entrada do modelo hidrológico. Para esse propósito, escolheu-se a bacia do rio Tocantins e implementou-se particularmente a técnica de assimilação de dados de tipo sequencial chamado na literatura de filtro de partículas, conjuntamente com o método de filtro Kalman por conjunto e o método de assimilação AsMGB atualmente acoplado ao modelo MGB-IPH. O estudo mostra que a precipitação combinada utilizada como dado de entrada na simulação hidrológica permitiu reproduzir adequadamente os hidrogramas observados para o período de calibração e validação. Já para o caso das vazões resultantes, durante a etapa de previsão, a precipitação combinada mostrou-se com melhor desempenho em termos estatísticos que os métodos sem combinar, sobretudo após 24 horas de antecedência. Finalmente, a técnica de assimilação de dados por filtro de partículas conseguiu absorver os erros da simulação melhorando as medidas de desempenho na etapa de previsão sendo superior ao modelo de previsão sem considerar assimilação. / The objective of this study is to evaluate precipitation sources based on satellite estimates and data assimilation techniques for prediction of flows by means of the distributed hydrological model MGB-IPH. The insufficient spatial availability of rain gauges makes difficult to represent precipitation fields appropriately. In contrast, satellite estimates, although providing a more consistent spatial description, are potentially less accurate. Thus, raingauge satellite merging methods that combine data from both sources to generate a more consistent precipitation field are used herein. For this purpose, two models namely CHUVSAT and MERGEHQ were implemented using an interpolation technique. On the other hand, data assimilation techniques coupled with hydrological forecasting models are also assessed in this study. The assimilation process minimizes the uncertainties associated with the parameter calibration procedure, variable state and hydrological input data. In this manner, the sequential data assimilation technique namely particle filter in conjunction with the Kalman filter method and the assimilation method AsMGB, which is currently coupled to the MGBIPH model, were implemented and applied to the Tocantis basin. The obtained results showed that the combined precipitation used as input data in the hydrological simulation allowed reproducing adequately the observed hydrograms for the periods of calibration and validation. In the case of the resulting flows during the forecast stage, the merging precipitation was shown to perform better in statistical terms than the uncombined methods, especially after 24 hours in advance. Finally, the data assimilation technique by particle filter was able to absorb all simulation errors, improving the performance measures in the forecasting stage, thus being superior to the forecasting model without considering assimilation.
|
173 |
Continuous data assimilation for Navier-Stokes-alpha model = Assimilação contínua de dados para o modelo Navier-Stokes-alpha / Assimilação contínua de dados para o modelo Navier-Stokes-alphaAlbanez, Débora Aparecida Francisco, 1984- 04 October 2014 (has links)
Orientadores: Milton da Costa Lopes Filho, Helena Judith Nussenzveig Lopes / Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica / Made available in DSpace on 2018-08-25T00:41:15Z (GMT). No. of bitstreams: 1
Albanez_DeboraAparecidaFrancisco_D.pdf: 3117782 bytes, checksum: 4f8e30c3d217ed3a6d26e9924d4df7ab (MD5)
Previous issue date: 2014 / Resumo: Motivados pela existênca de um número finito de parâmetros determinantes (graus de liberdade), tais como modos, nós e médias espaciais locais para sistemas dinâmicos dissipativos, principalmente as equações de Navier-Stokes, apresentamos nesta tese um novo algoritmo de assimilação contínua de dados para o modelo tridimensional das equações Navier-Stokes-alpha, o qual consiste na introdução de um tipo geral de operador interpolante de aproximação (construído a partir de medições observacionais) dentro das equações de Navier-Stokes-alpha. O principal resultado garante condições sob a resolução espacial de dimensão finita dos dados coletados, suficientes para que a solução aproximada, construída a partir desses dados coletados, convirja para a referente solução que não conhecemos (realidade física) no tempo. Essas condições são dadas em termos de alguns parâmetros físicos, tais como a viscosidade cinemática, o tamanho do domínio e o termo de força / Abstract: Motivated by the presence of the finite number of determining parameters (degrees of freedom) such as modes, nodes and local spatial averages for dissipative dynamical systems, specially Navier-Stokes equations, we present in this thesis a new continuous data assimilation algorithm for the three-dimensional Navier-Stokes-alpha model, which consists of introducing a general type of approximation interpolation operator, (that is constructed from observational measurements), into the Navier-Stokes-alpha equations. The main result provides conditions on the finite-dimensional spatial resolution of the collected data, sufficient to guarantee that the approximating solution, that is obtained from these collected data, converges to the unkwown reference solution (physical reality) over time. These conditions are given in terms of some physical parameters, such as kinematic viscosity, the size of the domain and the forcing term / Doutorado / Matematica / Doutora em Matemática
|
174 |
Reconstitution de la convection du manteau terrestre par assimilation de données séquentielle / Reconstruction of Mantle Circulation Using Sequential Data AssimilationBocher, Marie 25 November 2016 (has links)
Cette thèse vise à proposer de nouvelles méthodes permettant de reconstruire la circulation dans le manteau terrestre et l'évolution de la tectonique de surface pour les deux cents derniers millions d'années. Nous utilisons des modèles numériques de convection mantellique dans lesquels la dynamique de surface est comparable à la tectonique terrestre. En combinant ces modèles avec des reconstructions de la tectonique des plaques il est possible d'estimerla structure et l'évolution du champ de température dans le manteau. Jusqu'à présent, l'inclusion des reconstructions de la tectonique des plaques se faisait en imposant des conditions aux limites du modèle (équilibre des forces, vitesses imposées...). Ces techniques, bien que permettant de tester la validité de différents scénarios tectoniques alternatifs, n'autorisent pas de rétroaction dynamique de la convection mantellique sur la tectonique de surface.Dans ce travail, nous avons développé des techniques d'assimilation de données permettant d'intégrer les reconstructions de la tectonique des plaques dans un modèle numérique tout en laissant se développer de manière auto-cohérente cette rétroaction. Les techniques développées permettent également de prendre en compte les incertitudes associées aux reconstructions de la tectonique des plaques et de calculer les erreurs sur l'estimation finale de la circulationmantellique.Dans un premier temps, nous avons développé un filtre de Kalman suboptimal qui permet d'estimer la structure et l'évolution de la circulation mantellique la plus probable à partir d'un modèle numérique de convection et d'une sérietemporelle d'observations de surface, ainsi que de leurs incertitudes respectives.Ce filtre a été testé sur des expériences synthétiques. Celles-ci consistent à tenter de retrouver une évolution témoin à partir d'une série temporelle de données issues de cette évolution. Ces expériences ont montré qu'il était possible, enprincipe, de reconstruire la structure et l'évolution de l'ensemble du manteau à partir d'observations de vitesses et de flux de chaleur à la surface.Dans un second temps, nous avons développé un filtre de Kalman d'ensemble. Ce filtre permet non seulement d'estimer de manière plus précise la géométrie des structures mantelliques, mais aussi les incertitudes sur cette estimation. / This dissertation focuses on the developpement of data assimilation methods to reconstruct the circulation of the Earth's mantle and the evolution of its surface tectonics for the last 200~Myrs. We use numerical models of mantle convection in which the surface dynamics is similar to the Earth's. By combining these models with plate tectonics reconstructions, it is possible to estimate the structure and evolution of the temperature field of the mantle. So far, the assimilation of plate tectonics reconstructions was done by imposing specific boundary conditions in the model (force balance, imposed velocities...). These techniques, although insightful to test the likeliness of alternative tectonic scenarios, do not allow the full expression of the dynamical feedback between mantle convection and surface tectonics. We develop sequential data assimilation techniques able to assimilate plate tectonics reconstructions in a numerical model while simultaneously letting this dynamicalfeedback develop self-consistently. Moreover, these techniques take into account errors in plate tectonics reconstructions, and compute the error on the final estimation of mantle circulation.First, we develop a suboptimal Kalman filter. This filter estimates the most likely structure and evolution of mantle circulation from a numerical model of mantle convection, a time series of surface observations and the uncertainty on both. This filter was tested on synthetic experiments. The principle of a synthetic experiment is to apply the data assimilation algorithm to a set of synthetic observations obtained from a reference run, and to then compare the obtained estimation of the evolution with the reference evolution. The synthetic experiments we conducted showed that it was possible, in principle, to reconstruct the structure and evolution of the whole mantle from surface velocities and heat flux observations.Second, we develop an Ensemble Kalman Filter. Instead of estimating the most likely evolution, an ensemble of possible evolutions are computed. This technique leads to a better estimation of the geometry of mantle structures and a more complete estimation of the uncertainties associated.
|
175 |
Downscaling wind energy resource from mesoscale to local scale by nesting and data assimilation with a CFD model / Descente en échelle de la ressource en énergie éolienne de la mésoéchelle à l'échelle locale par imbrication et assimilation de données à l'aide d'un modèle de CFDDuraisamy Jothiprakasam, Venkatesh 14 May 2014 (has links)
Le développement de la production d'énergie éolienne nécessite des méthodes précises et bien établies pour l'évaluation de la ressource éolienne, étape essentielle dans la phase avant-projet d'une future ferme. Au cours de ces deux dernières décennies, les modèles d'écoulements linéaires ont été largement utilisés dans l'industrie éolienne pour l'évaluation de la ressource et pour la définition de la disposition des turbines. Cependant, les incertitudes des modèles linéaires dans la prévision de la vitesse du vent sur terrain complexe sont bien connues. Elles conduisent à l'utilisation de modèles CFD, capables de modéliser les écoulements complexes de manière précise autour de caractéristiques géographiques spécifiques. Les modèles méso-échelle peuvent prédire le régime de vent à des résolutions de plusieurs kilomètres mais ne sont pas bien adaptés pour résoudre les échelles spatiales inférieures à quelques centaines de mètres. Les modèles de CFD peuvent capter les détails des écoulements atmosphériques à plus petite échelle, mais nécessitent de documenter précisément les conditions aux limites. Ainsi, le couplage entre un modèle méso-échelle et un modèle CFD doit permettre d'améliorer la modélisation fine de l'écoulement pour les applications dans le domaine de l'énergie éolienne en comparaison avec les approches opérationnelles actuelles. Une campagne de mesure d'un an a été réalisée sur un terrain complexe dans le sud de la France durant la période 2007-2008. Elle a permis de fournir une base de données bien documentée à la fois pour les paramètres d'entrée et les données de validation. La nouvelle méthodologie proposée vise notamment à répondre à deux problématiques: le couplage entre le modèle méso-échelle et le modèle CFD en prenant en compte une forte variation spatiale de la topographie sur les bords du domaine de simulation, et les erreurs de prédiction du modèle méso-échelle. Le travail réalisé ici a consisté à optimiser le calcul du vent sur chaque face d'entrée du modèle CFD à partir des valeurs issues des verticales du modèle de méso-échelle, puis à mettre en œuvre une assimilation de données basée sur la relaxation newtonienne (nudging). La chaîne de modèles considérée ici est composée du modèle de prévision de Météo-France ALADIN et du code de CFD open-source Code_Saturne. Le potentiel éolien est ensuite calculé en utilisant une méthode de clustering, permettant de regrouper les conditions météorologiques similaires et ainsi réduire le nombre de simulations CFD nécessaires pour reproduire un an (ou plus) d'écoulement atmosphérique sur le site considéré. La procédure d'assimilation est réalisée avec des mesures issues d'anémomètre à coupelles ou soniques. Une analyse détaillée des simulations avec imbrication et avec ou sans assimilation de données est d'abord présentée pour les deux directions de vent dominantes, avec en particulier une étude de sensibilité aux paramètres intervenant dans l'imbrication et dans l'assimilation. La dernière partie du travail est consacrée au calcul du potentiel éolien en utilisant une méthode de clustering. La vitesse annuelle moyenne du vent est calculée avec et sans assimilation, puis est comparée avec les mesures non assimilées et les résultats du modèle WAsP. L'amélioration apportée par l'assimilation de données sur la distribution des écarts avec les mesures est ainsi quantifiée pour différentes configurations / The development of wind energy generation requires precise and well-established methods for wind resource assessment, which is the initial step in every wind farm project. During the last two decades linear flow models were widely used in the wind industry for wind resource assessment and micro-siting. But the linear models inaccuracies in predicting the wind speeds in very complex terrain are well known and led to use of CFD, capable of modeling the complex flow in details around specific geographic features. Mesoscale models (NWP) are able to predict the wind regime at resolutions of several kilometers, but are not well suited to resolve the wind speed and turbulence induced by the topography features on the scale of a few hundred meters. CFD has proven successful in capturing flow details at smaller scales, but needs an accurate specification of the inlet conditions. Thus coupling NWP and CFD models is a better modeling approach for wind energy applications. A one-year field measurement campaign carried out in a complex terrain in southern France during 2007-2008 provides a well documented data set both for input and validation data. The proposed new methodology aims to address two problems: the high spatial variation of the topography on the domain lateral boundaries, and the prediction errors of the mesoscale model. It is applied in this work using the open source CFD code Code_Saturne, coupled with the mesoscale forecast model of Météo-France (ALADIN). The improvement is obtained by combining the mesoscale data as inlet condition and field measurement data assimilation into the CFD model. Newtonian relaxation (nudging) data assimilation technique is used to incorporate the measurement data into the CFD simulations. The methodology to reconstruct long term averages uses a clustering process to group the similar meteorological conditions and to reduce the number of CFD simulations needed to reproduce 1 year of atmospheric flow over the site. The assimilation procedure is carried out with either sonic or cup anemometers measurements. First a detailed analysis of the results obtained with the mesoscale-CFD coupling and with or without data assimilation is shown for two main wind directions, including a sensitivity study to the parameters involved in the coupling and in the nudging. The last part of the work is devoted to the estimate of the wind potential using clustering. A comparison of the annual mean wind speed with measurements that do not enter the assimilation process and with the WAsP model is presented. The improvement provided by the data assimilation on the distribution of differences with measurements is shown on the wind speed and direction for different configurations
|
176 |
Méthodes des bases réduites pour la modélisation de la qualité de l'air urbaine / Reduced basis methods for urban air quality modelingHammond, Janelle K. 13 November 2017 (has links)
L'objectif principal de cette thèse est le développement d'outils numériques peu coûteux pour la cartographie de concentrations de polluants a partir de mesures et de modèles déterministes avancés. Le développement mondial et l'urbanisation des populations génèrent une hausse d’émissions et d'expositions. A n d'estimer les expositions individuelles et évaluer leur association à des pathologies diverses, les campagnes de mesure de qualité de l'air, et des études épidémiologiques sur les effets de santé de la pollution sont devenues plus courantes. Cependant, les concentrations de pollution de l'air sont très variables en temps et en espace. La sensibilité et la précision de ces études est souvent détériorée par de mauvais classements des expositions dus aux estimations grossières des expositions individuelles. Les méthodes d'assimilation de données intègrent des données de mesures et des modèles mathématiques a n de mieux approximer le champ de concentration. Quand ces méthodes sont basées sur un modèle de qualité de l'air (AQM) déterministe avancé, elles sont capables de fournir des approximations détaillées et de petite échelle. Ces informations précises permettront de meilleures estimations d'exposition. Néanmoins, ces méthodes sont souvent tr es coûteuses. Elles nécessitent la résolution a plusieurs reprises du modèle, qui peut être coûteux soi-même. Dans ce travail nous enquêtons sur la combinaison des méthodes des bases réduites (RB) et d'assimilation de données pour des AQM avancés a l'échelle urbaine. Nous souhaitons diminuer le coût de résolution en exploitant les RB, et incorporer des données de mesure a n d'améliorer la qualité de la solution. On étend la méthode de Parameterized-Background Data-Weak (PBDW) pour des AQMs basés sur la physique. Cette méthode est capable d'estimer de façon rapide et "online" des concentrations de polluants à l'échelle du quartier. Elle se sert des AQMs disponibles dans une procédure non intrusive et efficace par rapport aux temps de calculs pour réduire le coût de résolution par des centaines de fois. Les résultats de PBDW sont comparés à la méthode d'interpolation empirique généralisée (GEIM) et à une méthode inverse usuelle, la méthode adjointe, a n de mesurer l'efficacité de la PBDW. Cette comparaison montre la possibilité d'augmenter la précision de la solution, et d'une grande réduction en temps de calcul par rapport à des méthodes classiques. Dans nos applications sur un modèle imparfait, l'étude a fourni des estimations d'état avec erreur d'approximation de moins de 10% presque partout. Les résultats se montrent prometteurs pour la reconstruction en temps réel de champs de pollution sur de grands domaines par la PBDW / The principal objective of this thesis is the development of low-cost numerical tools for spatial mapping of pollutant concentrations from field observations and advanced deterministic models. With increased pollutant emissions and exposure due to mass urbanization and development worldwide, air quality measurement campaigns and epidemiology studies of the association between air pollution and adverse health effects have become increasingly common. However, as air pollution concentrations are highly variable spatially and temporally, the sensitivity and accuracy of these epidemiology studies is often deteriorated by exposure misclassi cation due to poor estimates of individual exposures. Data assimilation methods incorporate available measurement data and mathematical models to provide improved approximations of the concentration. These methods, when based on an advanced deterministic air quality models (AQMs), could provide spatially-rich small-scale approximations and can enable better estimates of effects and exposures. However, these methods can be computationally expensive. They require repeated solution of the model, which could itself be costly. In this work we investigate a combined reduced basis (RB) data assimilation method for use with advanced AQMs on urban scales. We want to diminish the cost of resolution, using RB arguments, and incorporate measurement data to improve the quality of the solution. We extend the Parameterized-Background Data-Weak (PBDW) method to physically-based AQMs. This method can rapidly estimate "online" pollutant concentrations at urban scale, using available AQMs in a non-intrusive and computationally effcient manner, reducing computation times by factors up to hundreds. We apply this method in case studies representing urban residential pollution of PM2.5, and we study the stability of the method depending on the placement or air quality sensors. Results from the PBDW are compared to the Generalized Empirical Interpolation Method (GEIM) and a standard inverse problem, the adjoint method, in order to measure effciency of the method. This comparison shows possible improvement in precision and great improvement in computation cost with respect to classical methods. We fi nd that the PBDW method shows promise for the real-time reconstruction of a pollution eld in large-scale problems, providing state estimation with approximation error generally under 10% when applied to an imperfect model
|
177 |
Sequential Monte Carlo methods for probabilistic forecasts and uncertainty assessment in hydrologic modeling / 逐次モンテカルロ法を用いた確率的水文予測と水文モデリングにおける不確実性評価Noh, Seong Jin 23 January 2013 (has links)
Kyoto University (京都大学) / 0048 / 新制・課程博士 / 博士(工学) / 甲第17261号 / 工博第3663号 / 新制||工||1557(附属図書館) / 30018 / 京都大学大学院工学研究科都市環境工学専攻 / (主査)教授 椎葉 充晴, 教授 寶 馨, 准教授 立川 康人 / 学位規則第4条第1項該当
|
178 |
Study of variational ensemble methods for image assimilation / Étude de méthodes d'ensemble variationelles pour l'assimilation d'imagesYang, Yin 16 December 2014 (has links)
Les méthodes hybrides combinant les méthodes de 4D Variationnelle et le filtre de Kalman d'ensemble fournissent un cadre flexible. Dans ce cadre, les avantages potentiels par rapport à chaque méthode (e.g. la matrice de covariances d'erreur d'ébauche dépendant d'écoulement, la capacité d'obtenir explicitement la matrice de covariances d'erreur d'analyse, la procédure de minimisation itérative et l'assimilation simultanée de toutes les observations dans un intervalle de temps etc.) peuvent être conservés. Dans cette thèse, un système d'ensemblist-4DVar renforcé a été proposé et a été analysé en détail dans le cas du modèle de 2D shallow-water. Nous avons proposé un nouveau schéma de boucle imbriquée dans laquelle la matrice de covariances d'erreur d'ébauche est mis à jour pour chaque boucle externe. Nous avons aussi élaboré différents schémas de mise à jour ensemble avec deux stratégies de localisation et exploité les liens entre la matrice de covariances d'erreur d'analyse et la matrice hessienne de la fonction coût. Toutes ces variantes ont été testées avec les données réelles de l'image capturés par Kinect et les données d'image associés à un modèle de Surface Quasi-Géostrophique, respectivement. A la deuxième étape, un système d'estimation des paramètres à partir de notre méthode ensemblist-4DVar proposée est conçu. Cette formulation nous permet de estimer des paramètres d'une incertitude de stress tenseur. Et cette incertitude de stress tenseur est dérivé d'un point de vue de phénomène d'écoulement entraînée par un processus stochastique. Enfin, un premier effort est fait pour l'assimilation des données d'image à haute résolution avec le modèle dynamique sur une grille plus grossière. / The hybrid methods combing the 4D variational method and the ensemble Kalman filter provide a flexible framework. In such framework the potential advantages with respect to each method (e.g. the flow-dependent background error covariance, the ability to explicitly get the analysis error covariance matrix, the iterative minimization procedure and the simultaneously assimilation of all observations with in a time span etc.) can be retained. In this thesis, an enhanced ensemble-based 4DVar scheme is proposed and has been analyzed in detail in the case of the 2D shallow water model. Several variations related to this method are introduced and tested. We proposed a new nested loop scheme in which the background error covariance matrix is updated for each outer loop. We also devised different ensemble update schemes together with two localization schemes. And we exploited the links between the analysis error covariance matrix and the inverse Hessian of our 4D cost function. All these variants have been tested with the real Kinect-captured image data and synthetic image data associated with a SQG (Surface Quasi-Geostrophic) model, respectively. At the second stage, a parameter estimation scheme of our proposed ensemble-based variational method is devised. Such formulation allows the parameter estimation of an uncertainty subgrid stress tensor. And this uncertainty subgrid stress tensor is derived from a perspective of flow phenomenon driven by a stochastic process. Finally, a first effort is made to assimilation high-resolution image data with the dynamical model running on a much coarser grid.
|
179 |
Contribution à la prévision des crues sur le bassin du Lez : modélisation de la relation pluie-débit en zone karstique et impact de l'assimilation de débits / Improving flood forecasting in the Lez Catchment : modeling the rainfall-runoff relationship in karstic regions and the impact of assimilating discharge dataCoustau, Mathieu 13 December 2011 (has links)
Les crues « éclair » parfois dévastatrices qui touchent les bassins versants méditerranéens du Sud de la France sont difficiles à anticiper. Leur prévision passe par l'utilisation de modèles pluie-débit, dont l'efficacité est encore limitée par les incertitudes liées notamment à la variabilité spatiale des pluies méditerranéennes et à la caractérisation de l'état hydrique initial des hydrosystèmes. Dans le cas de bassins karstiques, à ces incertitudes s'ajoutent celles liées à la dynamique des aquifères et à leur rôle sur la formation des crues. La première partie de ce travail de thèse propose un modèle pluie-débit horaire, distribué, événementiel et parcimonieux pour reproduire les crues « éclair » à l'exutoire du bassin karstique du Lez (Montpellier) de 114 km2. Le modèle est évalué non seulement sur la qualité des simulations de débits mais aussi sur la qualité de son initialisation obtenu grâce à une relation entre sa condition initiale et divers indicateurs de l'état hydrique de l'hydrosystème. Calibré sur 21 épisodes de crues, le modèle fournit des simulations satisfaisantes, et sa condition initiale est significativement corrélée à l'indice d'humidité Hu2 du modèle SIM de Météo-France ou à la piézométrie dans l'aquifère du Lez. Les pluies mesurées par radar en début d'automne sont de bonne qualité et conduisent à une amélioration des simulations de débit et de l'estimation de la condition initiale du modèle. En revanche, les pluies mesurées par radar en fin d'automne sont de moindre qualité et n'améliorent pas les simulations. Face aux incertitudes liées à la paramétrisation du modèle ou à l'estimation des pluies radar, la deuxième partie du travail de thèse analyse l'apport de l'assimilation des débits observés pour corriger en temps réel les paramètres les plus sensibles du modèle et notamment sa condition initiale ou les pluies radar en entrée du modèle. La procédure d'assimilation de données a été mise en place à l'aide du coupleur PALM, qui permet de relier modèle hydrologique à l'algorithme d'assimilation. La correction de la condition initiale du modèle permet généralement d'améliorer les prévisions (sous hypothèse de pluie future connue); la correction de la pluie a des effets similaires. Néanmoins les limites de cette correction sont atteintes dans le cas où le modèle ne reproduit pas de façon satisfaisante la partie initiale de montée des eaux, ce qui pourra être amélioré par la suite. Finalement, ce travail de thèse montre que la complexité d'un bassin karstique peut être représentée efficacement à l'aide d'un nombre réduit de paramètres, pour simuler les débits, et contribue à l'amélioration des outils opérationnels pour la prévision des crues. / The sometimes devastating flash floods which affect the Mediterranean watersheds of the South of France are difficult to anticipate. Flood forecasting requires the use of rainfall-runoff models which are limited in their efficiency by uncertainty related to the spatial variability of Mediterranean rainfall and the characterization of the initial hydric state of the system. In karstic catchments, these uncertainties are added to those due to aquifer dynamics and their role in flood genesis. The first part of this work will present a distributed event-based parsimonious hourly rainfall-runoff model in order to reconstruct flash flood events at the outlet of the 114 km2 Lez Catchment (Montpellier). The model is evaluated not only for the quality of the simulations produced, but for the quality of its parameter initialization obtained using a relationship between the initial condition and various hydric state indicators of the system. Calibrated using 21 flood episodes, the model produces satisfactory simulations and its initial condition is significantly correlated with the Hu2 soil humidity index of the Météo-France model or piezometers measuring the Lez aquifer. Radar rainfall data measured in early fall are of good quality and lead to improved discharge simulations and an improved estimation of the model initial condition. However, rainfall measured by radar in late fall are of poor quality and do not improve the simulations. Confronted with the uncertainty related to model parametrization or the estimation of radar rainfall, the second part of this dissertation analyzes improvements achieved by assimilating observed discharge measurements in order to perform real-time corrections to the most sensitive model parameters and notably the initial condition and the radar rainfall input to the model. The data assimilation procedure was implemented with the help of the PALM coupling software which allows for the linking of the hydrological model with the assimilation algorithm. Correcting the initial condition allowed for, on average, the improvement of forecasting (under a known future rainfall hypothesis); correcting the rainfall had similar effects. Nevertheless, the limits of this approach are reached when the model is unable to satisfactorily reproduce the rising limb of the hydrograph, a problem which may be addressed by future research. Finally, this body of work demonstrates that the complexity of a karstic catchment can be efficiently represented with a reduced number of parameters in order to simulate discharges and contribute to the improvement of operational tools for flood forecasting.
|
180 |
Prédiction des éruptions solaires par assimilation de données avec les modèles d’avalanchesThibeault, Christian 08 1900 (has links)
Les éruptions solaires sont des tempêtes de rayonnement électromagnétique, de particules relativistes et parfois de masse coronale provoquées par la libération d’énergie magnétique provenant de la couronne solaire. Si ces tempêtes atteignent l'environnement terrestre, elles peuvent poser un danger à la santé des astronautes en hautes orbites et causer des perturbations importantes sur les systèmes GPS. Dans certains cas, elles peuvent même induire des dommages aux infrastructures technologiques, dont les réseaux électriques.
La prédiction des éruptions solaires est donc considérée comme un des plus importants défis de la météorologie spatiale. Par contre, à ce jour, aucune méthode présentée dans la littérature n’est capable de produire des prédictions fiables, ce qui met en évidence la nature complexe du déclenchement des éruptions solaires. Nous présentons donc dans ce mémoire une méthode alternative aux techniques statistiques habituelles, basée sur l'assimilation de données couplée avec des modèles rapides en automate cellulaire appelés modèles d'avalanche.
Les modèles d'avalanche sont une simplification drastique de la physique du déclenchement des éruptions solaires. Malgré leur simplicité, ils reproduisent assez bien les statistiques à long terme de la taille des éruptions. Nous présentons dans ce mémoire des analyses empiriques de la capacité prédictive de quatre modèles: le modèle de Lu et Hamilton (LH) (Lu & Hamilton, 1991, ApJ, 412, 841-852), deux modèles à forçage déterministes (D) (Strugarek & Charbonneau, 2014, SoPh, 289(8), 2993-3015) et finalement deux modèles maximisant l'énergie libérée, appelées modèles DMC, qui sont fortement inspirés du modèle présenté par Farhang et al. (2018, ApJ, 859(1), 41). Les modèles DMC ont été développés dans le cadre de cette maîtrise et donc un chapitre de ce mémoire est dédié à leur présentation et aux analyses plus détaillées de leurs caractéristiques. Nous montrons que pour les modèles D ainsi que les modèles DMC, une mémoire existe entre les évènements simulés de grandes tailles, malgré la forte stochasticité de chacun de ces modèles.
Nous présentons de plus dans ce mémoire un nouveau protocole de prédiction des éruptions solaires, utilisant l'assimilation de données couplée avec les modèles d'avalanches. Notre protocole se base sur une méthode de recuit simulé pour ajuster la condition initiale du modèle jusqu'à ce qu'elle reproduise de façon satisfaisante une série d'évènements observés. Une fois cette condition initiale optimisée produite, la simulation qui en résulte représente notre prédiction. Nous montrons dans ce mémoire le succès de notre protocole à bien assimiler une centaine d'observations synthétiques (produit par les modèles d'avalanche eux-mêmes). / Solar flares are sudden releases of electromagnetic radiation, relativistic particles and occasionally coronal mass, caused by the release of magnetic energy from the solar corona. They pose a danger to astronauts in high orbits and directly impact the Earth, including significant disturbances on GPS systems, and can even cause damage to technological infrastructures, including electrical networks. Predicting solar flares is therefore considered to be one of the most critical challenges in space weather. However, no method presented in the literature can produce reliable predictions, highlighting the complex nature of the triggering of solar flares. We, therefore, present in this thesis an alternative method to the usual statistical forecasting techniques. Our method is based on data assimilation coupled with computationally inexpensive cellular automaton models called avalanche models.
Avalanche models are a drastic simplification of the physics underlying the triggering of solar flares. Despite their simplicity, they reproduce reasonably well the long-term statistics of solar flares sizes. In this thesis, we present empirical analyses of the predictive capabilities of four models: the Lu and Hamilton (LH) model (Lu & Hamilton, 1991, ApJ, 412, 841-852), two deterministic-driven (D) models (Strugarek & Charbonneau, 2014, SoPh, 289(8), 2993-3015) and finally two models using the principle of minimum energy during magnetic reconnection, called DMC models, which are strongly inspired by the models presented by Farhang et al. (2018, ApJ, 859(1), 41). The DMC models were developed during this project; therefore, a chapter of this thesis is dedicated to their presentation and more detailed analyses of their characteristics. We show that for D and DMC models, a memory exists between large simulated events, despite the high stochasticity present within each of these models.
We finally present in this thesis a new protocol for predicting solar flares, using data assimilation coupled with avalanche models. Our protocol is based on a simulated annealing method to adjust the initial condition of the model until it satisfactorily reproduces a series of observed events. Once this optimal initial condition is found, the resulting simulation produces our prediction. In this thesis, we show our algorithm's success in assimilating hundreds of synthetic observations (produced by the avalanche models themselves).
|
Page generated in 0.0272 seconds