• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 33
  • 16
  • 3
  • Tagged with
  • 161
  • 161
  • 71
  • 47
  • 39
  • 39
  • 29
  • 27
  • 26
  • 24
  • 23
  • 23
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Méthodes des bases réduites pour la modélisation de la qualité de l'air urbaine / Reduced basis methods for urban air quality modeling

Hammond, Janelle K. 13 November 2017 (has links)
L'objectif principal de cette thèse est le développement d'outils numériques peu coûteux pour la cartographie de concentrations de polluants a partir de mesures et de modèles déterministes avancés. Le développement mondial et l'urbanisation des populations génèrent une hausse d’émissions et d'expositions. A n d'estimer les expositions individuelles et évaluer leur association à des pathologies diverses, les campagnes de mesure de qualité de l'air, et des études épidémiologiques sur les effets de santé de la pollution sont devenues plus courantes. Cependant, les concentrations de pollution de l'air sont très variables en temps et en espace. La sensibilité et la précision de ces études est souvent détériorée par de mauvais classements des expositions dus aux estimations grossières des expositions individuelles. Les méthodes d'assimilation de données intègrent des données de mesures et des modèles mathématiques a n de mieux approximer le champ de concentration. Quand ces méthodes sont basées sur un modèle de qualité de l'air (AQM) déterministe avancé, elles sont capables de fournir des approximations détaillées et de petite échelle. Ces informations précises permettront de meilleures estimations d'exposition. Néanmoins, ces méthodes sont souvent tr es coûteuses. Elles nécessitent la résolution a plusieurs reprises du modèle, qui peut être coûteux soi-même. Dans ce travail nous enquêtons sur la combinaison des méthodes des bases réduites (RB) et d'assimilation de données pour des AQM avancés a l'échelle urbaine. Nous souhaitons diminuer le coût de résolution en exploitant les RB, et incorporer des données de mesure a n d'améliorer la qualité de la solution. On étend la méthode de Parameterized-Background Data-Weak (PBDW) pour des AQMs basés sur la physique. Cette méthode est capable d'estimer de façon rapide et "online" des concentrations de polluants à l'échelle du quartier. Elle se sert des AQMs disponibles dans une procédure non intrusive et efficace par rapport aux temps de calculs pour réduire le coût de résolution par des centaines de fois. Les résultats de PBDW sont comparés à la méthode d'interpolation empirique généralisée (GEIM) et à une méthode inverse usuelle, la méthode adjointe, a n de mesurer l'efficacité de la PBDW. Cette comparaison montre la possibilité d'augmenter la précision de la solution, et d'une grande réduction en temps de calcul par rapport à des méthodes classiques. Dans nos applications sur un modèle imparfait, l'étude a fourni des estimations d'état avec erreur d'approximation de moins de 10% presque partout. Les résultats se montrent prometteurs pour la reconstruction en temps réel de champs de pollution sur de grands domaines par la PBDW / The principal objective of this thesis is the development of low-cost numerical tools for spatial mapping of pollutant concentrations from field observations and advanced deterministic models. With increased pollutant emissions and exposure due to mass urbanization and development worldwide, air quality measurement campaigns and epidemiology studies of the association between air pollution and adverse health effects have become increasingly common. However, as air pollution concentrations are highly variable spatially and temporally, the sensitivity and accuracy of these epidemiology studies is often deteriorated by exposure misclassi cation due to poor estimates of individual exposures. Data assimilation methods incorporate available measurement data and mathematical models to provide improved approximations of the concentration. These methods, when based on an advanced deterministic air quality models (AQMs), could provide spatially-rich small-scale approximations and can enable better estimates of effects and exposures. However, these methods can be computationally expensive. They require repeated solution of the model, which could itself be costly. In this work we investigate a combined reduced basis (RB) data assimilation method for use with advanced AQMs on urban scales. We want to diminish the cost of resolution, using RB arguments, and incorporate measurement data to improve the quality of the solution. We extend the Parameterized-Background Data-Weak (PBDW) method to physically-based AQMs. This method can rapidly estimate "online" pollutant concentrations at urban scale, using available AQMs in a non-intrusive and computationally effcient manner, reducing computation times by factors up to hundreds. We apply this method in case studies representing urban residential pollution of PM2.5, and we study the stability of the method depending on the placement or air quality sensors. Results from the PBDW are compared to the Generalized Empirical Interpolation Method (GEIM) and a standard inverse problem, the adjoint method, in order to measure effciency of the method. This comparison shows possible improvement in precision and great improvement in computation cost with respect to classical methods. We fi nd that the PBDW method shows promise for the real-time reconstruction of a pollution eld in large-scale problems, providing state estimation with approximation error generally under 10% when applied to an imperfect model
122

Préparation à la mission SWOT (Surface Water Ocean Topography) : Apport de l'altimétrie à large fauchée à la modélisation grande échelle des processus hydrologiques et hydrodynamiques en Afrique de l'Ouest / The SWOT satellite mission : Contribution of the large swath altimetry for improving the hydrological and hydrodynamic processes of a large scale model

Pedinotti, Vanessa 21 February 2013 (has links)
Le bassin versant du fleuve Niger est directement influencé par les fluctuations de la mousson africaine, qui impactent les ressources en eau et entraînent des évènements extrêmes tels que des inondations ou des sécheresses. En retour, les forts taux d'évaporation observés dans le Delta intérieur du Niger, large région annuellement inondée, impactent le climat, au moins à l'échelle régionale. Une meilleure compréhension des processus hydrodynamiques de ce bassin ne peut cependant être obtenue sans un réseau d'observations ayant une couverture spatiale et temporelle suffisante. La mission SWOT fournira des cartes 2D de hauteurs et pente des eaux de surface avec une résolution encore jamais atteinte en altimétrie (50 à 100 mètres). Cette thèse s'inscrit dans le cadre de la phase de préparation à la mission SWOT et se propose d'offrir des perspectives d'utilisation de ces données satellites pour l'amélioration des modèles d'hydrologie globale. Dans un premier temps, le modèle hydrologique du CNRM, ISBA-TRIP, incluant un schéma d'inondations et un réservoir simple d'aquifères ajouté durant cette thèse est évalué sur le bassin du Niger à l'aide de multiples observations in-situ et satellites. L'étude montre que le modèle simule de façon cohérente l'évolution des eaux de surface, des zones inondées, et les anomalies de stock d'eau sur le bassin. Ensuite, un schéma d'assimilation de données est mis en place afin d'optimiser un des paramètres clés en hydrologie, le coefficient de Manning. Ce coefficient, décrivant la propriété du sol à 'retenir' les flux d'eau, influence fortement la dynamique des eaux de surface, et notamment les hauteurs d'eau et le débit. L'assimilation des données SWOT est appliquée dans le cadre d'une expérience jumelle, qui consiste à considérer une simulation de référence, appelée 'vérité', de laquelle sont issues les observations virtuelles de hauteur d'eau SWOT. L'étude montre que l'assimilation des hauteurs d'eau SWOT permet l'optimisation du coefficient de Manning, distribué spatialement, malgré l'hypothèse d'équifinalité. Les hauteurs d'eau et les débits sont considérablement améliorés, et on obtient une meilleure simulation des anomalies de stocks d'eau sur le bassin ainsi que des zones inondées sur le Delta intérieur du Niger (occurrence, intensité). Enfin, le potentiel des données SWOT pour améliorer les prévisions hydrologiques sur des périodes plus longues que celle de la phase d'assimilation est mis en évidence. / The hydrologic and hydrodynamic processes of the Niger basin are largely influenced by the West African monsoon variabilty. In the last 3 decades these variations have resulted in an increase of extreme events such as floods and droughts. Retrospectively, the climate might be impacted by the evaporation fluxes from the inner Delta flooded region, at least regionally. A better understanding of the Niger basin water cycle is a crucial issue for water resources management but requires observation datasets with a large spatial and temporal coverage. The SWOT satellite mission will provide 2D global maps of water level and slope at an unprecedented resolution (50 to 100 meters). Within the framework of the preparation of the SWOT mission, this thesis aims at proposing a SWOT data assimilation strategy for the improvement of global scale hydrological models. First, the ISBA-TRIP hydrological model from CNRM is evaluated over the Niger basin. This model includes an inundation scheme and simple aquifer reservoir. The model diagnostics are compared to an extensive set of in-situ and satellite observations. According to its relative simple physics, the model is able to simulate in a realistic manner, the continental water dynamics : discharge, water levels, floods, total water storage variations. Sensitivity tests are also performed to determine the most sensitve ISBA-TRIP parameters. Among them, the Manning coefficient has a key role in the flow dynamics but its estimation is difficult and usually based on geomorphologic relationships. The second part of this work consists in setting up a SWOT data assimilation strategy for the optimization of the ISBA-TRIP parameters. Since the SWOT observations are not available yet and also to assess the skills of the assimilation method, the study is carried out in the framework of an Observing System Simulation Experiment (OSSE). The corrected parameter is the Manning coefficient, spatially distributed over the river. The assimilation allows a good improvement of the relative bias of discharge and water level over the river. The Manning coefficient is also globally improved and tends to an optimal value. Moreover, the water storage anomalies and flooded fraction are also better simulated. Finally, the study shows that the method is useful for hydrological forecasting over longer time periods than those of the calibration.
123

Contribution à la prévision des crues sur le bassin du Lez : modélisation de la relation pluie-débit en zone karstique et impact de l'assimilation de débits / Improving flood forecasting in the Lez Catchment : modeling the rainfall-runoff relationship in karstic regions and the impact of assimilating discharge data

Coustau, Mathieu 13 December 2011 (has links)
Les crues « éclair » parfois dévastatrices qui touchent les bassins versants méditerranéens du Sud de la France sont difficiles à anticiper. Leur prévision passe par l'utilisation de modèles pluie-débit, dont l'efficacité est encore limitée par les incertitudes liées notamment à la variabilité spatiale des pluies méditerranéennes et à la caractérisation de l'état hydrique initial des hydrosystèmes. Dans le cas de bassins karstiques, à ces incertitudes s'ajoutent celles liées à la dynamique des aquifères et à leur rôle sur la formation des crues. La première partie de ce travail de thèse propose un modèle pluie-débit horaire, distribué, événementiel et parcimonieux pour reproduire les crues « éclair » à l'exutoire du bassin karstique du Lez (Montpellier) de 114 km2. Le modèle est évalué non seulement sur la qualité des simulations de débits mais aussi sur la qualité de son initialisation obtenu grâce à une relation entre sa condition initiale et divers indicateurs de l'état hydrique de l'hydrosystème. Calibré sur 21 épisodes de crues, le modèle fournit des simulations satisfaisantes, et sa condition initiale est significativement corrélée à l'indice d'humidité Hu2 du modèle SIM de Météo-France ou à la piézométrie dans l'aquifère du Lez. Les pluies mesurées par radar en début d'automne sont de bonne qualité et conduisent à une amélioration des simulations de débit et de l'estimation de la condition initiale du modèle. En revanche, les pluies mesurées par radar en fin d'automne sont de moindre qualité et n'améliorent pas les simulations. Face aux incertitudes liées à la paramétrisation du modèle ou à l'estimation des pluies radar, la deuxième partie du travail de thèse analyse l'apport de l'assimilation des débits observés pour corriger en temps réel les paramètres les plus sensibles du modèle et notamment sa condition initiale ou les pluies radar en entrée du modèle. La procédure d'assimilation de données a été mise en place à l'aide du coupleur PALM, qui permet de relier modèle hydrologique à l'algorithme d'assimilation. La correction de la condition initiale du modèle permet généralement d'améliorer les prévisions (sous hypothèse de pluie future connue); la correction de la pluie a des effets similaires. Néanmoins les limites de cette correction sont atteintes dans le cas où le modèle ne reproduit pas de façon satisfaisante la partie initiale de montée des eaux, ce qui pourra être amélioré par la suite. Finalement, ce travail de thèse montre que la complexité d'un bassin karstique peut être représentée efficacement à l'aide d'un nombre réduit de paramètres, pour simuler les débits, et contribue à l'amélioration des outils opérationnels pour la prévision des crues. / The sometimes devastating flash floods which affect the Mediterranean watersheds of the South of France are difficult to anticipate. Flood forecasting requires the use of rainfall-runoff models which are limited in their efficiency by uncertainty related to the spatial variability of Mediterranean rainfall and the characterization of the initial hydric state of the system. In karstic catchments, these uncertainties are added to those due to aquifer dynamics and their role in flood genesis. The first part of this work will present a distributed event-based parsimonious hourly rainfall-runoff model in order to reconstruct flash flood events at the outlet of the 114 km2 Lez Catchment (Montpellier). The model is evaluated not only for the quality of the simulations produced, but for the quality of its parameter initialization obtained using a relationship between the initial condition and various hydric state indicators of the system. Calibrated using 21 flood episodes, the model produces satisfactory simulations and its initial condition is significantly correlated with the Hu2 soil humidity index of the Météo-France model or piezometers measuring the Lez aquifer. Radar rainfall data measured in early fall are of good quality and lead to improved discharge simulations and an improved estimation of the model initial condition. However, rainfall measured by radar in late fall are of poor quality and do not improve the simulations. Confronted with the uncertainty related to model parametrization or the estimation of radar rainfall, the second part of this dissertation analyzes improvements achieved by assimilating observed discharge measurements in order to perform real-time corrections to the most sensitive model parameters and notably the initial condition and the radar rainfall input to the model. The data assimilation procedure was implemented with the help of the PALM coupling software which allows for the linking of the hydrological model with the assimilation algorithm. Correcting the initial condition allowed for, on average, the improvement of forecasting (under a known future rainfall hypothesis); correcting the rainfall had similar effects. Nevertheless, the limits of this approach are reached when the model is unable to satisfactorily reproduce the rising limb of the hydrograph, a problem which may be addressed by future research. Finally, this body of work demonstrates that the complexity of a karstic catchment can be efficiently represented with a reduced number of parameters in order to simulate discharges and contribute to the improvement of operational tools for flood forecasting.
124

Prédiction des éruptions solaires par assimilation de données avec les modèles d’avalanches

Thibeault, Christian 08 1900 (has links)
Les éruptions solaires sont des tempêtes de rayonnement électromagnétique, de particules relativistes et parfois de masse coronale provoquées par la libération d’énergie magnétique provenant de la couronne solaire. Si ces tempêtes atteignent l'environnement terrestre, elles peuvent poser un danger à la santé des astronautes en hautes orbites et causer des perturbations importantes sur les systèmes GPS. Dans certains cas, elles peuvent même induire des dommages aux infrastructures technologiques, dont les réseaux électriques. La prédiction des éruptions solaires est donc considérée comme un des plus importants défis de la météorologie spatiale. Par contre, à ce jour, aucune méthode présentée dans la littérature n’est capable de produire des prédictions fiables, ce qui met en évidence la nature complexe du déclenchement des éruptions solaires. Nous présentons donc dans ce mémoire une méthode alternative aux techniques statistiques habituelles, basée sur l'assimilation de données couplée avec des modèles rapides en automate cellulaire appelés modèles d'avalanche. Les modèles d'avalanche sont une simplification drastique de la physique du déclenchement des éruptions solaires. Malgré leur simplicité, ils reproduisent assez bien les statistiques à long terme de la taille des éruptions. Nous présentons dans ce mémoire des analyses empiriques de la capacité prédictive de quatre modèles: le modèle de Lu et Hamilton (LH) (Lu & Hamilton, 1991, ApJ, 412, 841-852), deux modèles à forçage déterministes (D) (Strugarek & Charbonneau, 2014, SoPh, 289(8), 2993-3015) et finalement deux modèles maximisant l'énergie libérée, appelées modèles DMC, qui sont fortement inspirés du modèle présenté par Farhang et al. (2018, ApJ, 859(1), 41). Les modèles DMC ont été développés dans le cadre de cette maîtrise et donc un chapitre de ce mémoire est dédié à leur présentation et aux analyses plus détaillées de leurs caractéristiques. Nous montrons que pour les modèles D ainsi que les modèles DMC, une mémoire existe entre les évènements simulés de grandes tailles, malgré la forte stochasticité de chacun de ces modèles. Nous présentons de plus dans ce mémoire un nouveau protocole de prédiction des éruptions solaires, utilisant l'assimilation de données couplée avec les modèles d'avalanches. Notre protocole se base sur une méthode de recuit simulé pour ajuster la condition initiale du modèle jusqu'à ce qu'elle reproduise de façon satisfaisante une série d'évènements observés. Une fois cette condition initiale optimisée produite, la simulation qui en résulte représente notre prédiction. Nous montrons dans ce mémoire le succès de notre protocole à bien assimiler une centaine d'observations synthétiques (produit par les modèles d'avalanche eux-mêmes). / Solar flares are sudden releases of electromagnetic radiation, relativistic particles and occasionally coronal mass, caused by the release of magnetic energy from the solar corona. They pose a danger to astronauts in high orbits and directly impact the Earth, including significant disturbances on GPS systems, and can even cause damage to technological infrastructures, including electrical networks. Predicting solar flares is therefore considered to be one of the most critical challenges in space weather. However, no method presented in the literature can produce reliable predictions, highlighting the complex nature of the triggering of solar flares. We, therefore, present in this thesis an alternative method to the usual statistical forecasting techniques. Our method is based on data assimilation coupled with computationally inexpensive cellular automaton models called avalanche models. Avalanche models are a drastic simplification of the physics underlying the triggering of solar flares. Despite their simplicity, they reproduce reasonably well the long-term statistics of solar flares sizes. In this thesis, we present empirical analyses of the predictive capabilities of four models: the Lu and Hamilton (LH) model (Lu & Hamilton, 1991, ApJ, 412, 841-852), two deterministic-driven (D) models (Strugarek & Charbonneau, 2014, SoPh, 289(8), 2993-3015) and finally two models using the principle of minimum energy during magnetic reconnection, called DMC models, which are strongly inspired by the models presented by Farhang et al. (2018, ApJ, 859(1), 41). The DMC models were developed during this project; therefore, a chapter of this thesis is dedicated to their presentation and more detailed analyses of their characteristics. We show that for D and DMC models, a memory exists between large simulated events, despite the high stochasticity present within each of these models. We finally present in this thesis a new protocol for predicting solar flares, using data assimilation coupled with avalanche models. Our protocol is based on a simulated annealing method to adjust the initial condition of the model until it satisfactorily reproduces a series of observed events. Once this optimal initial condition is found, the resulting simulation produces our prediction. In this thesis, we show our algorithm's success in assimilating hundreds of synthetic observations (produced by the avalanche models themselves).
125

Simulation du métabolisme de la Seine par assimilation de données en continu / Simulation of metabolism of Seine River by continuous data assimilation

Wang, Shuaitao 06 September 2019 (has links)
Cette thèse a pour objectif d'implémenter un schéma d'assimilation de données dans le modèle hydro-biogéochimique ProSe, afin d’assimiler les mesures en continu d’oxygène dissous de la colonne d’eau et de déterminer l’évolution temporelle des propriétés physiologiques des communautés vivantes. Dans un premier temps, une nouvelle version parallélisée de ProSe, ProSe-P, est développée en couplant les librairies hydraulique, de transport et biogéochimique (C-RIVE). Dans un deuxième temps, une analyse de sensibilité du module C-RIVE permet d'identifier un nombre restreint de paramètres influençant fortement les concentrations en oxygène dissous. Basé sur cette sélection, un algorithme de filtrage particulaire est implémenté afin d'assimiler séquentiellement les données haute fréquence d'oxygène dissous. Le couple ProSe-P-filtre particulaire, ProSe-PA, est ensuite appliqué sur un cas synthétique afin d'identifier les paramètres numériques pertinents et de valider l'efficacité du filtre particulaire pour les modèles de qualité de l'eau en rivière. Enfin, les mesures en continu d'O2 dissous de l'année 2011 en Seine sont assimilées par ProSe-PA. Les résultats montrent que ProSe-PA améliore significativement la simulation des concentrations en oxygène dissous, notamment les dynamiques alguales et les chutes d'oxygène pendant les périodes de crise. L'application aux données réelles révèle cependant les limites de l'approche développée, notamment la sensibilité aux conditions aux limites. Plusieurs pistes sont proposées afin d'améliorer les performances de ProSe-PA. / The aim of the thesis is to implement a data assimilation scheme in the hydro-biogeochemical model ProSe, in order to assimilate continuous measurements of dissolved oxygen in the water column and to determine the temporal evolution of the physiological properties of the communities of living species. First, a new parallel version of ProSe, ProSe-P, is developed coupling the three packages: hydrodynamic, transport and biogeochemical (C-RIVE). Second, a sensitivity analysis of the C-RIVE model allows the identification of a limited number of influentiel parameters controlling the dissolved oxygen concentrations. Based on the selection, a particle filtering algorithm is implemented in order to assimilate sequentially the high frequency oxygen data. The coupling ProSe-P-particle filtre, ProSe-PA is then applied on a synthetic case to tune the numerical settings for the data assimilation and to test the efficiency of the particle filter in river water quality models. Finally, the continuous measurements of dissolved oxygen of the year 2011 in the Seine River are assimilated by ProSe-PA. The results show that ProSe-PA improves significantly the simulation of the dissolved oxygen concentrations, especially the dynamics of algal blooms periods and the fast chute of O2 for the critical periods. This application to the real oxygen data reveals however some limits of the developed approach, especially the sensitivity to the boundary conditions. Some ideas are proposed to improve the performances of ProSe-PA.
126

Contribution à la perception augmentée de scènes dynamiques : schémas temps réels d’assimilation de données pour la mécanique du solide et des structures / Contribution to augmented observation of dynamic scenes : real time data assimilation schemes for solid and structure mechanics

Goeller, Adrien 19 January 2018 (has links)
Dans le monde industriel comme dans le monde scientifique, le développement de capteurs a toujours répondu à la volonté d’observer l’inobservable. La caméra rapide fait partie de ceux-là puisqu’elle permet de dévoiler des dynamiques invisibles, de la formation de fissure au vol du moustique. Dans un environnement extrêmement concurrentiel, ces caméras sont principalement limitées par le nombre d’images acquises par seconde. Le but de cette thèse est d’augmenter la capacité de dévoiler la dynamique invisible en enrichissant l’acquisition initiale par des modèles dynamiques. La problématique consiste alors à élaborer des méthodes permettant de relier en temps réel un modèle et la perception d’un système réel. Les bénéfices de cette utilisation offrent ainsi la possibilité de faire de l’interpolation, de la prédiction et de l’identification. Cette thèse est composée de trois parties. La première est axée sur la philosophie du traitement vidéo et propose d’utiliser des modèles élémentaires et génériques. Un algorithme d’estimation de grands mouvements est proposé mais l’approche actuellement proposée n’est pas assez générique pour être exploitée dans un contexte industriel. La deuxième partie propose d’utiliser des méthodes d’assimilation de données séquentielle basées sur la famille des filtres de Kalman afin d’associer un modèle avec des observations par caméras rapides pour des systèmes mécaniques. La troisième partie est une application à l’analyse modale expérimentale non linéaire. Deux schémas d’assimilation temps réel multicapteurs sont présentés et leur mise en œuvre est illustrée pour de la reconstruction 3D et de la magnification. / The development of sensors has always followed the ambition of industrial and scientific people to observe the unobservable. High speed cameras are part of this adventure, revealing invisible dynamics such as cracks formation or subtle mosquito flight. Industrial high speed vision is a very competitive domain in which cameras stand out through their acquisition speed. This thesis aims to broaden their capacity by augmenting the initial acquisition with dynamic models. This work proposes to develop methods linking in real time a model with a real system. Aimed benefits are interpolation, prediction and identification. Three parts are developed. The first one is based on video processing and submits to use kinematic elementary and generic models. An algorithm of motion estimation for large movements is proposed but the generic nature does not allow a sufficient knowledge to be conclusive. The second part proposes using sequential data assimilation methods known as Kalman filters. A scheme to assimilate video data with a mechanical model is successfully implemented. An application of data assimilation in modal analysis is developed. Two multi sensors real time assimilation schemes for nonlinear modal identification are proposed. These schemes are integrated in two applications on 3D reconstruction and motion magnification.
127

Estimation des flux de CO2 et de CH4 en France en utilisant les concentrations atmosphériques du réseau ICOS et les techniques d'assimilation de données / Estimation of the CO2 and CH4 fluxes in France using atmospheric concentrations from ICOS network and data-assimilation techniques

El yazidi, Abdelhadi 01 October 2018 (has links)
Depuis la révolution industrielle, les croissances économique et démographique ont augmenté de manière exponentielle induisant l’augmentation de la combustion d’énergies fossiles, telles que le charbon, le pétrole, et le gaz naturel. La combustion de ces sources d’énergie conduit à l’émission de gaz à effet de serre, principalement le dioxyde de carbone (CO2) et le méthane (CH4), qui par leur accumulation dans l’atmosphère entraînent une augmentation de l’effet de serre. Selon le GIEC (Groupe d'experts Intergouvernemental sur l'Évolution du Climat), l’implication des émissions anthropiques dans l’augmentation de l’effet de serre est extrêmement probable avec un pourcentage de certitude qui dépasse 95%. Toutefois, l’estimation des bilans régionaux d'émissions de GES reste très incertaine. L’objectif de cette thèse est de contribuer à l’amélioration de l’estimation des bilans régionaux de GES en France, en utilisant pour la première fois les concentrations atmosphériques du CO2 et de CH4 mesurées par le réseau ICOS (Integrated Carbon Observation System) et la modélisation inverse à l’échelle régionale.Dans un premier temps, on s’est focalisé sur l’étude des concentrations mesurées de CO2, CH4 et CO (monoxyde de carbone) fournis par des stations de surface. Cette étude a pour objectif l'identification des mesures atmosphériques contaminées par les émissions locales (quelques kilomètres au tour de la station) et qui provoque ce qu’on appelle « les pics de concentrations ». Trois méthodes ont été appliquées sur des séries temporelles fournies par quatre stations du réseau ICOS, afin de déterminer leur degré de contamination. Les résultats des différentes méthodes ont été comparés entre eux, puis comparés à un inventaire de données contaminées préparé manuellement par les gestionnaires des stations. Cette comparaison a permis l’évaluation de la performance des trois méthodes pour la détection réussie des pics. À l’issue de ce travail, la méthode la plus performante a été proposée pour effectuer un nettoyage automatique des séries de mesure du réseau ICOS.Dans un deuxième temps, le modèle régional de chimie-transport CHIMERE est utilisé pour simuler les concentrations atmosphériques du CO2 et du CH4 de l’année 2014 sur un domaine centré sur la France. L’objectif de cette étude est d’étudier la sensibilité des concentrations simulées en utilisant différentes données d’entrées. Premièrement, on étudie la sensibilité des concentrations simulées par rapport au transport en utilisant deux modèles météorologiques AROME et ECMWF. Deuxièmes, on analyse la sensibilité des concentrations simulées face aux différentes cartes d’émissions. Dans cette dernière étape, on étudie les différences entre les cartes d’émissions anthropiques séparément des cartes d’émissions biogéniques. Ce travail nous permet de quantifier à la fois les erreurs liées aux transports et les erreurs liées aux flux d’émissions. La meilleure combinaison des données d’entrée va être sélectionnée pour l’étape d’inversion des flux.Dans un dernier plan, les mesures atmosphériques des concentrations de CO2 et du CH4 sont utilisées par le système d’inversion PYMAI (Berchet et coll., 2013 et 2015) afin d’estimer les bilans régionaux d'émissions des principaux GES en France. L’inversion s’est exécutée pour un mois d’hiver (janvier) et un mois d’été (juillet) en utilisant le modèle de transport CHIMERE forcé par ECMWF et les flux de surface (EDGAR et VPRM). Le résultat de ce travail permet une réduction des incertitudes des bilans nationaux à hauteur de 35 %, et la quantification les émissions de CO2 et de CH4 à l'échelle nationale et régionale. Par contre, cette inversion ne contraint que partiellement les flux d’émissions. Cependant, la question sur l’efficacité de la quantité d’informations disponibles ressort à nouveau. / Since the industrial revolution, the economic and the demographic growths have increased exponentially,leading to an enhancement of the fossil fuels combustion, such as coal, oil, and natural gas. Consumingthese source of energy amplifies the greenhouse gas emissions, mainly carbon dioxide (CO2) and methane(CH4), whose accumulation in the atmosphere lead to the increase of the greenhouse effect. According tothe 5th assessment report of the Intergovernmental Panel on Climate Change (IPCC), it is extremely likely(95-100% of certainty) that the observed increase in the greenhouse effect is related to the increase of theanthropogenic emissions. However, the estimations of the GHG budget at the regional and the nationalscales remains highly uncertain. The aim of this thesis is to improve the estimation of the CO2 and CH4fluxes in France, using data assimilation techniques and atmospheric measurements provided by theIntegrated Carbon Observation System (ICOS) network.The first phase focuses on analyzing the measured CO2, CH4, and CO (Carbon monoxide) atmosphericconcentrations provided by surface monitoring stations. This study is concerned with the problem ofidentifying atmospheric data influenced by local emissions that can result in spikes in the GHG time series.Three methods are implemented on continuous measurements of four contrasted atmospheric sites. The aimof this analysis is to evaluate the performance of the used methods for the correctly detect the contaminateddata. This work allows us to select the most reliable method that was proposed to perform daily spikedetection in the ICOS Atmospheric Thematic Centre Quality Control (ATC-QC) software.Secondly, we simulate the atmospheric concentrations of CO2 and CH4 using the chemistry transport modelCHIMERE in a domain centered over France for the year 2014. The objective of this study is to evaluate thesensitivity of simulated concentrations using different input data (sensitivity to the meteorological transportand sensitivity to the surface fluxes). This work led to the quantification of both the transport and surfacefluxes errors based on the combination of different simulations. Thus, the most reliable combination of thebest input data was selected for the flux inversion study.Lastly, the measured CO2 and CH4 concentrations are used by the PYMAI inversion system (Berchet et al.,2013 and 2015) in order to estimate the CO2 and CH4 fluxes in France. The Inversion is performed for onemonth in winter (January) and one month in summer (July), using the transport model CHIMERE. Theinversion results have provided very interesting results for the regional estimation of the CO2 and CH4surface fluxes in France with an uncertainty reduction that may attain 35% of the national totals.
128

Assimilation de données et recalage rapide de modèles mécaniques complexes / Data assimilation and fast model-updating of complex mechanicalmodels

Marchand, Basile 29 November 2017 (has links)
Depuis plusieurs années, les évolutions considérables survenues au niveau des moyens de calcul à disposition ont entraîné de nouvelles pratiques de simulation des structures mécaniques. Parmi ces nouvelles pratiques celle qui motive ces travaux de thèse est le paradigme Dynamic Data Driven Application Systems (DDDAS). L’idée fondatrice de cette approche est de mettre en place un dialogue entre un système physique et son modèle numérique. L’objectif est alors de (i) permettre un recalage du modèle numérique à l’aide de mesures faites sur le système physique ; (ii) contrôler l’évolution du système physique à l’aide de la prédiction faite par la simulation numérique. La difficulté majeure est de réaliser ce dialogue en temps réel. Ces travaux de thèse se focalisent sur l’étape de recalage de modèle du paradigme DDDAS. La problématique est alors de développer des méthodes et outils de résolution de problèmes inverses prenant en compte diverses contraintes à savoir : (i) une robustesse vis-à-vis des données corrompues ; (ii) une généricité permettant de considérer une grande variété de problèmes et de modèles mécaniques ; (iii) un temps de calcul réduit afin de tendre vers un recalage de modèle en temps réel. Le point de départ de ces travaux est l’Erreur en Relation de Comportement modifiée, approche énergétique dédiée à la résolution des problèmes inverses en mécanique, s’étant notamment illustrée par sa grande robustesse vis-à-vis des bruits de mesure. Dans un premier temps, afin de garantir un processus d’identification rapide, nous avons couplé l’Erreur en Relation de Comportement modifiée avec la réduction de modèle PGD dans le cadre de modèle linéaire, permettant ainsi de mettre en place un processus d’identification rapide et automatique. Ensuite, dans le but d’être appliquée au paradigme DDDAS, nous avons développé une démarche d’identification reposant sur un processus d’assimilation de données (le filtre de Kalman) et utilisant l’Erreur en Relation de Comportement modifiée comme opérateur d’observation toujours dans le cadre de problèmes linéaires. Nous avons ensuite étendu cette méthode d’assimilation de données à la problématique de l’identification de champs de paramètres en introduisant une séparation des discrétisations spatiales et des outils provenant de l’adaptation de maillage. Nous avons ensuite abordé la problématique des modèles mécaniques non-linéaires, au travers de modèles d’endommagement et de visco-plasticité. Pour cela nous avons dans un premier temps reformulé et étendu le concept d’Erreur en Relation de Comportement modifiée à ce cadre non-linéaire matériau et nous avons mis en place un processus de résolution dédié, s’inspirant de la méthode LaTIn. Pour finir nous avons introduit cette reformulation de l’Erreur en Relation de Comportement modifiée au sein de la méthode d’assimilation de données développée précédemment afin de traiter le recalage dynamique de modèles non-linéaires. / For several years, the considerable changes that have occurredin computing tools have led to new practices in the simulation of mechanical structures. Among them, the motivation for this work is the Dynamic Data Driven Application Systems paradigm (DDDAS). The founding idea of this approach is to establish a dialogue between a physical system and its numericalmodel. The objective is then to (i) allow a calibration of the numerical model by means of measurements performed on the physical system; (ii) control the evolution of the physical system using theprediction given by numerical simulation. The major difficulty is to realize this dialogue in real time. This work focuses on the model updating step of the DDDAS paradigm. The problem is then to develop methods and tools to solve inverse problems taking into account various constraints, namely: (i) robustness with respect to corrupted data; (ii) genericity for considering a wide variety of problems and mechanical models; (iii) a reduced computation time in order to tend towards a real-time model updating.The starting point of this work is the modified Constitutive Relation Error, an energetic approach dedicated to the solution of inverse problems in mechanics, notably illustrated by its robustness with respect to measurement noises. First, in order to guarantee a fast identification process, we have coupled the modified Constitutive Relation Error with the PGD model reduction in the linear model framework, thus enabling a fast and automatic identification process. Then, in order to be applied to the DDDAS paradigm, we have developed an identification method based on a data assimilation process (the Kalman filter) and using the modified Constitutive Relation Error as an observer alwayswithin the framework of linear problems. We have then extended this data assimilation approach to the problem of the identification of parameter fields by introducing a separation of the spatial discretizations and by introducing tools resulting from the mesh adaptation framework. We have then addressed the problem of non-linear mechanical models, through damage and visco-plasticitymodels. To this end, we have first recast and extended the concept of the modified Constitutive Relation Error to this nonlinear material framework and we have implemented a dedicated resolution process, based on the LaTIn method. Finally, we have introduced this reformulation of the modified Constitutive Relation Error in the previously data assimilation method in order to process the model updating of nonlinear models.
129

Modélisation des structures locales de covariance des erreurs de prévision à l'aide des ondelettes

Pannekoucke, Olivier 20 March 2008 (has links) (PDF)
La représentation des variations spatio-temporelles des fonctions de covariance d'erreur d'ébauche reste un problème majeur dans les algorithmes d'assimilation. Dans cette thèse le diagnostic des variations géographiques des corrélations locales est introduit via le diagnostic de la portée locale. L'estimation de cette portée ainsi que les propriétés de l'estimation sont étudiés en détail. Ce travail utilise des ondelettes sphériques, suivant la formulation introduite par Mike Fisher (ECMWF), pour modéliser les fonctions de corrélation locale "du jour". Il est montré que cette formulation moyenne spatialement les corrélations locales, permettant de réduire le bruit d'échantillonnage. D'autre part, cette formulation ondelette fournit une estimation robuste même pour un petit ensemble. Elle est aussi capable de capturer la dynamique spatio-temporelle des corrélations, ceci est illustré à l'aide de la dynamique des portées locales du jour.
130

Assimilation de données d'images télédétectées en météorologie

Michel, Yann 17 December 2008 (has links) (PDF)
L'évolution libre des fluides géostrophiques turbulents bidimensionnels fait apparaitre des tourbillons présentant une grande cohérence spatio-temporelle. Les écoulements atmosphériques tridimensionnels présentent également ce genre de structures cohérentes, notamment dans les champs de tourbillon potentiel. Certains aspects de la cyclogenèse semblent gouvernés, ou très sensibles, à la position et à l'intensité de ces anomalies. Les images des satellites géostationnaires permettent par ailleurs de visualiser les signatures de ces phénomènes, appelées intrusions sèches. Une première partie du travail adapte des outils de traitement d'image à la détection et au suivi des intrusions sèches sur les images vapeur d'eau. On utilise une approche basée sur des multi-seuillages et le suivi automatisé de structures (logiciel RDT). Le développement de caractéristiques supplémentaires s'avère nécessaire afin de sélectionner les intrusions associées à des événements dynamiques importants. L'une d'entre elles utilise l'information sur le courant-jet à partir de vents d'altitude de l'ébauche. Un deuxième volet s'applique à dégager une méthodologie de correction des structures en tourbillon potentiel à partir de ces informations. L'assimilation de données conventionnelle ne permet pas d'initialiser spécifiquement les structures. Nous décrivons les méthodes alternatives et étudions les possibilités, et limitations, d'une méthodologie basée sur l'assimilation de pseudo-observations. Cela débouche en particulier sur une version renouvelée de la relation entre vapeur d'eau et tourbillon potentiel. Les outils développés sont appliqués à la prévision de la tempête des Landes (2006). L'utilisation de données de concentration d'ozone est finalement évoquée comme une méthode alternative d'initialisation du tourbillon potentiel à la tropopause

Page generated in 0.1347 seconds