181 |
Kovariantní model chyb pro asimilaci radarové odrazivosti do numerického modelu předpovědi počasí / Model of error covariances for the assimilation of radar reflectivity into a NWP modelSedláková, Klára January 2018 (has links)
MODEL OF ERROR COVARIANCES FOR THE ASSIMILATION OF RADAR REFLECTIVITY INTO NWP MODEL Predicting events with a severe convection is not easy due to the small spatial scale and rapid development of this phenomenon. But being able to predict such events is important in view of the dangerous phenomena that accompany these events, such as flash floods, strong winds, hailstorms or atmospheric electricity. Improved forecast can be achieved by more precisely defined initial conditions that enter the model. These data must match the scale of the studied phenomenon. Therefore, radar data is used in this case. Although the NWP model should describe real processes due to the simplifications and approximations the model's behavior does not entirely correspond the reality. Therefore, if we want the model to generate precipitation, we must ensure that the values of the model variables and their relationship are such that the process is started. To find out these relationships, we want to use a covariant model. In this paper, we focused on the correlation analysis of the model variables in the regions of convection between radar reflection, its conversion to the intensity of precipitation and other model variables. The COSMO data with a horizontal resolution of 2.8 km were used, which were describing approximately...
|
182 |
Simulation du métabolisme de la Seine par assimilation de données en continu / Simulation of metabolism of Seine River by continuous data assimilationWang, Shuaitao 06 September 2019 (has links)
Cette thèse a pour objectif d'implémenter un schéma d'assimilation de données dans le modèle hydro-biogéochimique ProSe, afin d’assimiler les mesures en continu d’oxygène dissous de la colonne d’eau et de déterminer l’évolution temporelle des propriétés physiologiques des communautés vivantes. Dans un premier temps, une nouvelle version parallélisée de ProSe, ProSe-P, est développée en couplant les librairies hydraulique, de transport et biogéochimique (C-RIVE). Dans un deuxième temps, une analyse de sensibilité du module C-RIVE permet d'identifier un nombre restreint de paramètres influençant fortement les concentrations en oxygène dissous. Basé sur cette sélection, un algorithme de filtrage particulaire est implémenté afin d'assimiler séquentiellement les données haute fréquence d'oxygène dissous. Le couple ProSe-P-filtre particulaire, ProSe-PA, est ensuite appliqué sur un cas synthétique afin d'identifier les paramètres numériques pertinents et de valider l'efficacité du filtre particulaire pour les modèles de qualité de l'eau en rivière. Enfin, les mesures en continu d'O2 dissous de l'année 2011 en Seine sont assimilées par ProSe-PA. Les résultats montrent que ProSe-PA améliore significativement la simulation des concentrations en oxygène dissous, notamment les dynamiques alguales et les chutes d'oxygène pendant les périodes de crise. L'application aux données réelles révèle cependant les limites de l'approche développée, notamment la sensibilité aux conditions aux limites. Plusieurs pistes sont proposées afin d'améliorer les performances de ProSe-PA. / The aim of the thesis is to implement a data assimilation scheme in the hydro-biogeochemical model ProSe, in order to assimilate continuous measurements of dissolved oxygen in the water column and to determine the temporal evolution of the physiological properties of the communities of living species. First, a new parallel version of ProSe, ProSe-P, is developed coupling the three packages: hydrodynamic, transport and biogeochemical (C-RIVE). Second, a sensitivity analysis of the C-RIVE model allows the identification of a limited number of influentiel parameters controlling the dissolved oxygen concentrations. Based on the selection, a particle filtering algorithm is implemented in order to assimilate sequentially the high frequency oxygen data. The coupling ProSe-P-particle filtre, ProSe-PA is then applied on a synthetic case to tune the numerical settings for the data assimilation and to test the efficiency of the particle filter in river water quality models. Finally, the continuous measurements of dissolved oxygen of the year 2011 in the Seine River are assimilated by ProSe-PA. The results show that ProSe-PA improves significantly the simulation of the dissolved oxygen concentrations, especially the dynamics of algal blooms periods and the fast chute of O2 for the critical periods. This application to the real oxygen data reveals however some limits of the developed approach, especially the sensitivity to the boundary conditions. Some ideas are proposed to improve the performances of ProSe-PA.
|
183 |
METHODS AND ANALYSIS OF MULTIPHASE FLOW AND INTERFACIAL PHENOMENA IN MEDICAL DEVICESJavad Eshraghi (12442575) 21 April 2022 (has links)
<p> </p>
<p>Cavitation, liquid slosh, and splashes are ubiquitous in science and engineering. However, these phenomena are not fully understood. Yet to date, we do not understand when or why sometimes the splash seals, and other times does not. Regarding cavitation, a high temporal resolution method is needed to characterize this phenomenon. The low temporal resolution of experimental data suggests a model-based analysis of this problem. However, high-fidelity models are not always available, and even for these models, the sensitivity of the model outputs to the initial input parameters makes this method less reliable since some initial inputs are not experimentally measurable. As for sloshing, the air-liquid interface area and hydrodynamic stress for the liquid slosh inside a confined accelerating cylinder have not been experimentally measured due to the challenges for direct measurement.</p>
|
184 |
Formalisation et automatisation de YAO, générateur de code pour l’assimilation variationnelle de données / Formalisation and automation of YAO, code generator for variational data assimilationNardi, Luigi 08 March 2011 (has links)
L’assimilation variationnelle de données 4D-Var est une technique très utilisée en géophysique, notamment en météorologie et océanographie. Elle consiste à estimer des paramètres d’un modèle numérique direct, en minimisant une fonction de coût mesurant l’écart entre les sorties du modèle et les mesures observées. La minimisation, qui est basée sur une méthode de gradient, nécessite le calcul du modèle adjoint (produit de la transposée de la matrice jacobienne avec le vecteur dérivé de la fonction de coût aux points d’observation). Lors de la mise en œuvre de l’AD 4D-Var, il faut faire face à des problèmes d’implémentation informatique complexes, notamment concernant le modèle adjoint, la parallélisation du code et la gestion efficace de la mémoire. Afin d’aider au développement d’applications d’AD 4D-Var, le logiciel YAO qui a été développé au LOCEAN, propose de modéliser le modèle direct sous la forme d’un graphe de flot de calcul appelé graphe modulaire. Les modules représentent des unités de calcul et les arcs décrivent les transferts des données entre ces modules. YAO est doté de directives de description qui permettent à un utilisateur de décrire son modèle direct, ce qui lui permet de générer ensuite le graphe modulaire associé à ce modèle. Deux algorithmes, le premier de type propagation sur le graphe et le second de type rétropropagation sur le graphe permettent, respectivement, de calculer les sorties du modèle direct ainsi que celles de son modèle adjoint. YAO génère alors le code du modèle direct et de son adjoint. En plus, il permet d’implémenter divers scénarios pour la mise en œuvre de sessions d’assimilation.Au cours de cette thèse, un travail de recherche en informatique a été entrepris dans le cadre du logiciel YAO. Nous avons d’abord formalisé d’une manière plus générale les spécifications deYAO. Par la suite, des algorithmes permettant l’automatisation de certaines tâches importantes ont été proposés tels que la génération automatique d’un parcours “optimal” de l’ordre des calculs et la parallélisation automatique en mémoire partagée du code généré en utilisant des directives OpenMP. L’objectif à moyen terme, des résultats de cette thèse, est d’établir les bases permettant de faire évoluer YAO vers une plateforme générale et opérationnelle pour l’assimilation de données 4D-Var, capable de traiter des applications réelles et de grandes tailles. / Variational data assimilation 4D-Var is a well-known technique used in geophysics, and in particular in meteorology and oceanography. This technique consists in estimating the control parameters of a direct numerical model, by minimizing a cost function which measures the misfit between the forecast values and some actual observations. The minimization, which is based on a gradient method, requires the computation of the adjoint model (product of the transpose Jacobian matrix and the derivative vector of the cost function at the observation points). In order to perform the 4DVar technique, we have to cope with complex program implementations, in particular concerning the adjoint model, the parallelization of the code and an efficient memory management. To address these difficulties and to facilitate the implementation of 4D-Var applications, LOCEAN is developing the YAO framework. YAO proposes to represent a direct model with a computation flow graph called modular graph. Modules depict computation units and edges between modules represent data transfer. Description directives proper to YAO allow a user to describe its direct model and to generate the modular graph associated to this model. YAO contains two core algorithms. The first one is a forward propagation algorithm on the graph that computes the output of the numerical model; the second one is a back propagation algorithm on the graph that computes the adjoint model. The main advantage of the YAO framework, is that the direct and adjoint model programming codes are automatically generated once the modular graph has been conceived by the user. Moreover, YAO allows to cope with many scenarios for running different data assimilation sessions.This thesis introduces a computer science research on the YAO framework. In a first step, we have formalized in a more general way the existing YAO specifications. Then algorithms allowing the automatization of some tasks have been proposed such as the automatic generation of an “optimal” computational ordering and the automatic parallelization of the generated code on shared memory architectures using OpenMP directives. This thesis permits to lay the foundations which, at medium term, will make of YAO a general and operational platform for data assimilation 4D-Var, allowing to process applications of high dimensions.
|
185 |
Modélisation spatio-temporelle de la pollution atmosphérique urbaine à partir d'un réseau de surveillance de la qualité de l'air / Spatio-temporal modelling of atmospheric pollution based on observations provided by an air quality monitoring network at a regional scaleComan, Adriana 26 September 2008 (has links)
Cette étude est consacrée à la modélisation spatio-temporelle de la pollution atmosphérique urbaine en utilisant un ensemble de méthodes statistiques exploitant les mesures de concentrations de polluants (NO2, O3) fournies par un réseau de surveillance de la qualité de l'air (AIRPARIF). Le principal objectif visé est l'amélioration de la cartographie des champs de concentration de polluants (le domaine d'intérêt étant la région d'Île-de-France) en utilisant, d'une part, des méthodes d'interpolation basées sur la structure spatiale ou spatio-temporelle des observations (krigeage spatial ou spatio-temporel), et d'autre part, des algorithmes, prenant en compte les mesures, pour corriger les sorties d'un modèle déterministe (Filtre de Kalman d'Ensemble). Les résultats obtenus montrent que dans le cas du dioxyde d'azote la cartographie basée uniquement sur l'interpolation spatiale (le krigeage) conduit à des résultats satisfaisants, car la répartition spatiale des stations est bonne. En revanche, pour l'ozone, c'est l'assimilation séquentielle de données appliquée au modèle (CHIMERE) qui permet une meilleure reconstitution de la forme et de la position du panache pendant les épisodes de forte pollution analysés. En complément de la cartographie, un autre but de ce travail est d'effectuer localement la prévision des niveaux d'ozone sur un horizon de 24 heures. L'approche choisie est celle mettant en œuvre des méthodes de type réseaux neuronaux. Les résultats obtenus en appliquant deux types d'architectures neuronales indiquent une précision correcte surtout pour les 8 premières heures de l'horizon de prédiction / This study is devoted to the spatio-temporal modelling of air pollution at a regional scale using a set of statistical methods in order to treat the measurements of pollutant concentrations (NO2, O3) provided by an air quality monitoring network (AIRPARIF). The main objective is the improvement of the pollutant _elds mapping using either interpolation methods based on the spatial or spatio-temporal structure of the data (spatial or spatiotemporal kriging) or some algorithms taking into account the observations, in order to correct the concentrations simulated by a deterministic model (Ensemble Kalman Filter). The results show that nitrogen dioxide mapping based only on spatial interpolation (kriging) gives the best results, while the spatial repartition of the monitoring sites is good. For the ozone mapping it is the sequential data assimilation that leads us to a better reconstruction of the plume's form and position for the analyzed cases. Complementary to the pollutant mapping, another objective was to perform a local prediction of ozone concentrations on a 24-hour horizon; this task was performed using Artificial Neural Networks. The performance indices obtained using two types of neural architectures indicate a fair accuracy especially for the first 8 hours of prediction horizon
|
186 |
Contribution à la perception augmentée de scènes dynamiques : schémas temps réels d’assimilation de données pour la mécanique du solide et des structures / Contribution to augmented observation of dynamic scenes : real time data assimilation schemes for solid and structure mechanicsGoeller, Adrien 19 January 2018 (has links)
Dans le monde industriel comme dans le monde scientifique, le développement de capteurs a toujours répondu à la volonté d’observer l’inobservable. La caméra rapide fait partie de ceux-là puisqu’elle permet de dévoiler des dynamiques invisibles, de la formation de fissure au vol du moustique. Dans un environnement extrêmement concurrentiel, ces caméras sont principalement limitées par le nombre d’images acquises par seconde. Le but de cette thèse est d’augmenter la capacité de dévoiler la dynamique invisible en enrichissant l’acquisition initiale par des modèles dynamiques. La problématique consiste alors à élaborer des méthodes permettant de relier en temps réel un modèle et la perception d’un système réel. Les bénéfices de cette utilisation offrent ainsi la possibilité de faire de l’interpolation, de la prédiction et de l’identification. Cette thèse est composée de trois parties. La première est axée sur la philosophie du traitement vidéo et propose d’utiliser des modèles élémentaires et génériques. Un algorithme d’estimation de grands mouvements est proposé mais l’approche actuellement proposée n’est pas assez générique pour être exploitée dans un contexte industriel. La deuxième partie propose d’utiliser des méthodes d’assimilation de données séquentielle basées sur la famille des filtres de Kalman afin d’associer un modèle avec des observations par caméras rapides pour des systèmes mécaniques. La troisième partie est une application à l’analyse modale expérimentale non linéaire. Deux schémas d’assimilation temps réel multicapteurs sont présentés et leur mise en œuvre est illustrée pour de la reconstruction 3D et de la magnification. / The development of sensors has always followed the ambition of industrial and scientific people to observe the unobservable. High speed cameras are part of this adventure, revealing invisible dynamics such as cracks formation or subtle mosquito flight. Industrial high speed vision is a very competitive domain in which cameras stand out through their acquisition speed. This thesis aims to broaden their capacity by augmenting the initial acquisition with dynamic models. This work proposes to develop methods linking in real time a model with a real system. Aimed benefits are interpolation, prediction and identification. Three parts are developed. The first one is based on video processing and submits to use kinematic elementary and generic models. An algorithm of motion estimation for large movements is proposed but the generic nature does not allow a sufficient knowledge to be conclusive. The second part proposes using sequential data assimilation methods known as Kalman filters. A scheme to assimilate video data with a mechanical model is successfully implemented. An application of data assimilation in modal analysis is developed. Two multi sensors real time assimilation schemes for nonlinear modal identification are proposed. These schemes are integrated in two applications on 3D reconstruction and motion magnification.
|
187 |
Estimation des flux de CO2 et de CH4 en France en utilisant les concentrations atmosphériques du réseau ICOS et les techniques d'assimilation de données / Estimation of the CO2 and CH4 fluxes in France using atmospheric concentrations from ICOS network and data-assimilation techniquesEl yazidi, Abdelhadi 01 October 2018 (has links)
Depuis la révolution industrielle, les croissances économique et démographique ont augmenté de manière exponentielle induisant l’augmentation de la combustion d’énergies fossiles, telles que le charbon, le pétrole, et le gaz naturel. La combustion de ces sources d’énergie conduit à l’émission de gaz à effet de serre, principalement le dioxyde de carbone (CO2) et le méthane (CH4), qui par leur accumulation dans l’atmosphère entraînent une augmentation de l’effet de serre. Selon le GIEC (Groupe d'experts Intergouvernemental sur l'Évolution du Climat), l’implication des émissions anthropiques dans l’augmentation de l’effet de serre est extrêmement probable avec un pourcentage de certitude qui dépasse 95%. Toutefois, l’estimation des bilans régionaux d'émissions de GES reste très incertaine. L’objectif de cette thèse est de contribuer à l’amélioration de l’estimation des bilans régionaux de GES en France, en utilisant pour la première fois les concentrations atmosphériques du CO2 et de CH4 mesurées par le réseau ICOS (Integrated Carbon Observation System) et la modélisation inverse à l’échelle régionale.Dans un premier temps, on s’est focalisé sur l’étude des concentrations mesurées de CO2, CH4 et CO (monoxyde de carbone) fournis par des stations de surface. Cette étude a pour objectif l'identification des mesures atmosphériques contaminées par les émissions locales (quelques kilomètres au tour de la station) et qui provoque ce qu’on appelle « les pics de concentrations ». Trois méthodes ont été appliquées sur des séries temporelles fournies par quatre stations du réseau ICOS, afin de déterminer leur degré de contamination. Les résultats des différentes méthodes ont été comparés entre eux, puis comparés à un inventaire de données contaminées préparé manuellement par les gestionnaires des stations. Cette comparaison a permis l’évaluation de la performance des trois méthodes pour la détection réussie des pics. À l’issue de ce travail, la méthode la plus performante a été proposée pour effectuer un nettoyage automatique des séries de mesure du réseau ICOS.Dans un deuxième temps, le modèle régional de chimie-transport CHIMERE est utilisé pour simuler les concentrations atmosphériques du CO2 et du CH4 de l’année 2014 sur un domaine centré sur la France. L’objectif de cette étude est d’étudier la sensibilité des concentrations simulées en utilisant différentes données d’entrées. Premièrement, on étudie la sensibilité des concentrations simulées par rapport au transport en utilisant deux modèles météorologiques AROME et ECMWF. Deuxièmes, on analyse la sensibilité des concentrations simulées face aux différentes cartes d’émissions. Dans cette dernière étape, on étudie les différences entre les cartes d’émissions anthropiques séparément des cartes d’émissions biogéniques. Ce travail nous permet de quantifier à la fois les erreurs liées aux transports et les erreurs liées aux flux d’émissions. La meilleure combinaison des données d’entrée va être sélectionnée pour l’étape d’inversion des flux.Dans un dernier plan, les mesures atmosphériques des concentrations de CO2 et du CH4 sont utilisées par le système d’inversion PYMAI (Berchet et coll., 2013 et 2015) afin d’estimer les bilans régionaux d'émissions des principaux GES en France. L’inversion s’est exécutée pour un mois d’hiver (janvier) et un mois d’été (juillet) en utilisant le modèle de transport CHIMERE forcé par ECMWF et les flux de surface (EDGAR et VPRM). Le résultat de ce travail permet une réduction des incertitudes des bilans nationaux à hauteur de 35 %, et la quantification les émissions de CO2 et de CH4 à l'échelle nationale et régionale. Par contre, cette inversion ne contraint que partiellement les flux d’émissions. Cependant, la question sur l’efficacité de la quantité d’informations disponibles ressort à nouveau. / Since the industrial revolution, the economic and the demographic growths have increased exponentially,leading to an enhancement of the fossil fuels combustion, such as coal, oil, and natural gas. Consumingthese source of energy amplifies the greenhouse gas emissions, mainly carbon dioxide (CO2) and methane(CH4), whose accumulation in the atmosphere lead to the increase of the greenhouse effect. According tothe 5th assessment report of the Intergovernmental Panel on Climate Change (IPCC), it is extremely likely(95-100% of certainty) that the observed increase in the greenhouse effect is related to the increase of theanthropogenic emissions. However, the estimations of the GHG budget at the regional and the nationalscales remains highly uncertain. The aim of this thesis is to improve the estimation of the CO2 and CH4fluxes in France, using data assimilation techniques and atmospheric measurements provided by theIntegrated Carbon Observation System (ICOS) network.The first phase focuses on analyzing the measured CO2, CH4, and CO (Carbon monoxide) atmosphericconcentrations provided by surface monitoring stations. This study is concerned with the problem ofidentifying atmospheric data influenced by local emissions that can result in spikes in the GHG time series.Three methods are implemented on continuous measurements of four contrasted atmospheric sites. The aimof this analysis is to evaluate the performance of the used methods for the correctly detect the contaminateddata. This work allows us to select the most reliable method that was proposed to perform daily spikedetection in the ICOS Atmospheric Thematic Centre Quality Control (ATC-QC) software.Secondly, we simulate the atmospheric concentrations of CO2 and CH4 using the chemistry transport modelCHIMERE in a domain centered over France for the year 2014. The objective of this study is to evaluate thesensitivity of simulated concentrations using different input data (sensitivity to the meteorological transportand sensitivity to the surface fluxes). This work led to the quantification of both the transport and surfacefluxes errors based on the combination of different simulations. Thus, the most reliable combination of thebest input data was selected for the flux inversion study.Lastly, the measured CO2 and CH4 concentrations are used by the PYMAI inversion system (Berchet et al.,2013 and 2015) in order to estimate the CO2 and CH4 fluxes in France. The Inversion is performed for onemonth in winter (January) and one month in summer (July), using the transport model CHIMERE. Theinversion results have provided very interesting results for the regional estimation of the CO2 and CH4surface fluxes in France with an uncertainty reduction that may attain 35% of the national totals.
|
188 |
Assimilation de données et recalage rapide de modèles mécaniques complexes / Data assimilation and fast model-updating of complex mechanicalmodelsMarchand, Basile 29 November 2017 (has links)
Depuis plusieurs années, les évolutions considérables survenues au niveau des moyens de calcul à disposition ont entraîné de nouvelles pratiques de simulation des structures mécaniques. Parmi ces nouvelles pratiques celle qui motive ces travaux de thèse est le paradigme Dynamic Data Driven Application Systems (DDDAS). L’idée fondatrice de cette approche est de mettre en place un dialogue entre un système physique et son modèle numérique. L’objectif est alors de (i) permettre un recalage du modèle numérique à l’aide de mesures faites sur le système physique ; (ii) contrôler l’évolution du système physique à l’aide de la prédiction faite par la simulation numérique. La difficulté majeure est de réaliser ce dialogue en temps réel. Ces travaux de thèse se focalisent sur l’étape de recalage de modèle du paradigme DDDAS. La problématique est alors de développer des méthodes et outils de résolution de problèmes inverses prenant en compte diverses contraintes à savoir : (i) une robustesse vis-à-vis des données corrompues ; (ii) une généricité permettant de considérer une grande variété de problèmes et de modèles mécaniques ; (iii) un temps de calcul réduit afin de tendre vers un recalage de modèle en temps réel. Le point de départ de ces travaux est l’Erreur en Relation de Comportement modifiée, approche énergétique dédiée à la résolution des problèmes inverses en mécanique, s’étant notamment illustrée par sa grande robustesse vis-à-vis des bruits de mesure. Dans un premier temps, afin de garantir un processus d’identification rapide, nous avons couplé l’Erreur en Relation de Comportement modifiée avec la réduction de modèle PGD dans le cadre de modèle linéaire, permettant ainsi de mettre en place un processus d’identification rapide et automatique. Ensuite, dans le but d’être appliquée au paradigme DDDAS, nous avons développé une démarche d’identification reposant sur un processus d’assimilation de données (le filtre de Kalman) et utilisant l’Erreur en Relation de Comportement modifiée comme opérateur d’observation toujours dans le cadre de problèmes linéaires. Nous avons ensuite étendu cette méthode d’assimilation de données à la problématique de l’identification de champs de paramètres en introduisant une séparation des discrétisations spatiales et des outils provenant de l’adaptation de maillage. Nous avons ensuite abordé la problématique des modèles mécaniques non-linéaires, au travers de modèles d’endommagement et de visco-plasticité. Pour cela nous avons dans un premier temps reformulé et étendu le concept d’Erreur en Relation de Comportement modifiée à ce cadre non-linéaire matériau et nous avons mis en place un processus de résolution dédié, s’inspirant de la méthode LaTIn. Pour finir nous avons introduit cette reformulation de l’Erreur en Relation de Comportement modifiée au sein de la méthode d’assimilation de données développée précédemment afin de traiter le recalage dynamique de modèles non-linéaires. / For several years, the considerable changes that have occurredin computing tools have led to new practices in the simulation of mechanical structures. Among them, the motivation for this work is the Dynamic Data Driven Application Systems paradigm (DDDAS). The founding idea of this approach is to establish a dialogue between a physical system and its numericalmodel. The objective is then to (i) allow a calibration of the numerical model by means of measurements performed on the physical system; (ii) control the evolution of the physical system using theprediction given by numerical simulation. The major difficulty is to realize this dialogue in real time. This work focuses on the model updating step of the DDDAS paradigm. The problem is then to develop methods and tools to solve inverse problems taking into account various constraints, namely: (i) robustness with respect to corrupted data; (ii) genericity for considering a wide variety of problems and mechanical models; (iii) a reduced computation time in order to tend towards a real-time model updating.The starting point of this work is the modified Constitutive Relation Error, an energetic approach dedicated to the solution of inverse problems in mechanics, notably illustrated by its robustness with respect to measurement noises. First, in order to guarantee a fast identification process, we have coupled the modified Constitutive Relation Error with the PGD model reduction in the linear model framework, thus enabling a fast and automatic identification process. Then, in order to be applied to the DDDAS paradigm, we have developed an identification method based on a data assimilation process (the Kalman filter) and using the modified Constitutive Relation Error as an observer alwayswithin the framework of linear problems. We have then extended this data assimilation approach to the problem of the identification of parameter fields by introducing a separation of the spatial discretizations and by introducing tools resulting from the mesh adaptation framework. We have then addressed the problem of non-linear mechanical models, through damage and visco-plasticitymodels. To this end, we have first recast and extended the concept of the modified Constitutive Relation Error to this nonlinear material framework and we have implemented a dedicated resolution process, based on the LaTIn method. Finally, we have introduced this reformulation of the modified Constitutive Relation Error in the previously data assimilation method in order to process the model updating of nonlinear models.
|
189 |
[pt] AVALIANDO O USO DO ALGORITMO RANDOM FOREST PARA SIMULAÇÃO EM RESERVATÓRIOS MULTI-REGIÕES / [en] EVALUATING THE USE OF RANDOM FOREST REGRESSOR TO RESERVOIR SIMULATION IN MULTI-REGION RESERVOIRSIGOR CAETANO DINIZ 22 June 2023 (has links)
[pt] Simulação de reservatórios de óleo e gás é uma demanda comum em engenharia de petróleo e pesquisas relacionadas, que pode requerer um elevado custo computacional de tempo e processamento ao resolver um problema matemático. Além disso, alguns métodos de caracterização de reservatórios necessitam múltiplas iterações, resultando em muitas simulações para obter um resultado. Também podemos citar os métodos baseados em conjunto, tais como o ensemble Kalman filter, o EnKF, e o Ensemble Smoother With Multiple Data Assimilation,o ES-MDA, que requerem muitas simulações. Em contrapartida, o uso de aprendizado de máquina cresceu bastante na indústria de energia. Isto pode melhorar a acurácia de predição, otimizar estratégias e outros. Visando reduzir as complexidades de simulação de reservatórios, este trabalho investiga o uso de aprendizado de máquina como uma alternativa a simuladores convencionais. O modelo Random Forest Regressor é testado para reproduzir respostas de pressão em um reservatório multi-região radial composto. Uma solução analítica é utilizada para gerar o conjunto de treino e teste para o modelo. A partir de experimentação e análise, este trabalho tem o objetivo de suplementar a utilização de aprendizado de máquina na indústria de energia. / [en] Oil and gas reservoir simulation is a common demand in petroleum
engineering, and research, which may have a high computational cost, solving
a mathematical numeric problem, or high computational time. Moreover,
several reservoir characterization methods require multiple iterations, resulting
in many simulations to obtain a reasonable characterization. It is also
possible to mention ensemble-based methods, such as the ensemble Kalman
filter, EnKF, and the Ensemble Smoother With Multiple Data Assimilation,
ES-MDA, which demand lots of simulation runs to provide the output
result. As a result, reservoir simulation might be a complex subject to
deal with when working with reservoir characterization. The use of machine
learning has been increasing in the energy industry. It can improve the
accuracy of reservoir predictions, optimize production strategies, and many
other applications. The complexity and uncertainty of reservoir models pose
significant challenges to traditional modeling approaches, making machine
learning an attractive solution. Aiming to reduce reservoir simulation’s
complexities, this work investigates using a machine-learning model as an
alternative to conventional simulators. The Random Forest regressor model
is experimented with to reproduce pressure response solutions for multi-region
radial composite reservoirs. An analytical approach is employed to create
the training dataset in the following procedure: the permeability is sorted
using a specific distribution, and the output is generated using the analytical
solution. Through experimentation and analysis, this work aims to advance
our understanding of using machine learning in reservoir simulation for the
energy industry.
|
190 |
Sources of Ensemble Forecast Variation and their Effects on Severe Convective Weather ForecastsThead, Erin Amanda 06 May 2017 (has links)
The use of numerical weather prediction (NWP) has brought significant improvements to severe weather outbreak forecasting; however, determination of the primary mode of severe weather (in particular tornadic and nontornadic outbreaks) continues to be a challenge. Uncertainty in model runs contributes to forecasting difficulty; therefore it is beneficial to a forecaster to understand the sources and magnitude of uncertainty in a severe weather forecast. This research examines the impact of data assimilation, microphysics parameterizations, and planetary boundary layer (PBL) physics parameterizations on severe weather forecast accuracy and model variability, both at a mesoscale and synoptic-scale level. NWP model simulations of twenty United States tornadic and twenty nontornadic outbreaks are generated. In the first research phase, each case is modeled with three different modes of data assimilation and a control. In the second phase, each event is modeled with 15 combinations of physics parameterizations: five microphysics and three PBL, all of which were designed to perform well in convective weather situations. A learning machine technique known as a support vector machine (SVM) is used to predict outbreak mode for each run for both the data assimilated model simulations and the different parameterization simulations. Parameters determined to be significant for outbreak discrimination are extracted from the model simulations and input to the SVM, which issues a diagnosis of outbreak type (tornadic or nontornadic) for each model run. In the third phase, standard synoptic parameters are extracted from the model simulations and a k-means cluster analysis is performed on tornadic and nontornadic outbreak data sets to generate synoptically distinct clusters representing atmospheric conditions found in each type of outbreak. Variations among the synoptic features in each cluster are examined across the varied physics parameterization and data assimilation runs. Phase I found that conventional and HIRS-4 radiance assimilation performs best of all examined assimilation variations by lowering false alarm ratios relative to other runs. Phase II found that the selection of PBL physics produces greater spread in the SVM classification ability. Phase III found that data assimilation generates greater model changes in the strength of synoptic-scale features than either microphysics or PBL physics parameterization.
|
Page generated in 0.0407 seconds