Spelling suggestions: "subject:"modélisation inverse"" "subject:"odélisation inverse""
1 |
Inverse modelling and optimisation in numerical groundwater flow models using proper orthogonal decomposition / Modélisation inverse et optimisation pour les écoulements souterrains par décomposition orthogonale aux valeurs propres.Wise, John Nathaniel 12 January 2015 (has links)
Des simulateurs numériques sont couramment utilisés pour la prédiction et l'optimisation de l'exploitation d'aquifères et pour la détermination de paramètres physiques (e.g perméabilité) par calcul inverse. L'équation de Richards, décrit l'écoulement d'un fluide dans un milieu poreux non saturé. C'est une équation aux dérivées partielles non linéaires, dont la résolution numérique en grande dimension 3D est très coûteuse et en particulier pour du calcul inverse.Dans ce travail, une méthode de réduction de modèle (ROM) est proposée par une décomposition orthogonale propre (POD) afin de réduire significativement le temps de calcul, tout maîtrisant la précision. Une stratégie de cette méthode est de remplacer localement dans l'algorithme d'optimisation, le modèle fin par un modèle réduit type POD. La méthode de Petroc-Galerkin POD est d'abord appliquée à l'équation de Richards et testée sur différents cas, puis adaptée en linéarisant les termes non linéaires. Cette adaptation ne fait pas appel à une technique d'interpolation et réduit le temps de calcul d'un facteur [10;100]. Bien qu'elle ajoute de la complexité du ROM, cette méthode évite d'avoir à ajuster les paramètres du noyau, comme c'est le cas dans les méthodes du POD par interpolation. Une exploration des propriétés d'interpolation et d'extrapolation inhérentes aux méthodes intrusives est ensuite faite. Des qualités d'extrapolation intéressantes permettent de développer une méthode d'optimisation nécessitant de petits plans d'expériences (DOE). La méthode d'optimisation recrée localement des modèles précis sur l'espace des paramètres, en utilisant une classification à vecteurs de support non linéaire pour délimiter la zone où le modèle est suffisamment précis, la région de confiance. Les méthodes sont appliquées sur un cas d'école en milieu non saturé régit par l'équation de Richards, ainsi que sur un aquifère situé dans le "Table Mountain Group" près de la ville du Cap en Afrique du Sud. / The Richards equation describes the movement of an unsaturated fluid through a porous media, and is characterised as a non-linear partial differential equation. The equation is subject to a number of parameters and is typically computationnaly expensive to solve. To determine the parameters in the Richards equation, inverse modelling studies often need to be undertaken. As a solution to overcome the computational expense incurred in inverse modelling, the use of Proper Orthogonal Decomposition (POD) as a Reduced Order Modelling (ROM) method is proposed in this thesis to speed-up individual simulations. The Petrov-Galerkin POD approach is initially applied to the Richards equation and tested on different case studies. However, due to the non-linear nature of the Richards equation the method does not result in significant speed up times. Subsquently, the Petrov-Galerkin method is adapted by linearising the nonlinear terms in the equation, resulting in speed-up times in the range of [10,100]., The adaptation, notably, does not use any interpolation techniques, favouring an intrusive, but physics-based, approach. While the use of intrusive POD approaches add to the complexity of the ROM, it avoids the problem of finding kernel parameters typically present in interpolative POD approaches. Furthermore, the interpolative and possible extrapolation properties inherent to intrusive PODROM's are explored. The good extrapolation propertie, within predetermined bounds, of intrusive POD's allows for the development of an optimisation approach requiring a very small Design of Experiments (DOE). The optimisation method creates locally accurate models within the parameters space usign Support Vector Classification. The limits of the locally accurate model are called the confidence region. The methods are demonstrated on a hypothetical unsaturated case study requiring the Richards equation, and on true case study in the Table Mountain Group near Cape Town, South Africa.
|
2 |
Estimation des sources et puits de méthane : bilan planétaire et impacts de la modélisation du transport atmosphérique / Estimation of methane sources and sinks : global budget and impacts of atmospheric transport modellingLocatelli, Robin 11 December 2014 (has links)
Une meilleure connaissance du cycle biogéochimique du méthane est un élémentfondamental dans la compréhension du changement climatique actuel. La modélisationinverse est une des méthodes permettant d’estimer les sources et puits de méthaneen combinant l’information venant d’observations atmosphériques, d’une connaissancea priori des flux de méthane, et d’un modèle de chimie-transport. Cependant, leserreurs liées à la modélisation du transport atmosphérique sont apparues comme unelimitation de plus en plus dominante de cette méthode suite à l’augmentation dunombre et de la diversité des observations.Après avoir montré que l’impact des erreurs de transport sur les inversions des flux deméthane pouvait être important, j’ai cherché à améliorer les capacités de la versionoffline de LMDz, modèle de transport utilisé pour simuler le transport atmosphériquedans le système inverse du LSCE. Pour cela, j’ai intégré des développements récents(paramétrisation de la convection profonde, de la diffusion verticale et du mélangenon-local dans la couche limite) et raffiné la résolution horizontale et verticale.En exploitant les différentes versions disponibles de LMDz, neuf inversions atmosphériquesont été réalisées, estimant les sources et puits de méthane entre 2006 et 2012.Deux périodes de fortes émissions ont été mises en évidence : en 2007 et en 2010,qui ont principalement été attribuées à des anomalies dans les régions tropicales et enChine, où des événements climatiques majeurs ont été observés (Amérique du Sud etAsie du Sud-Est) et où le développement économique se poursuit à un rythme soutenu(Chine), même si les émissions de certains inventaires sont surestimées. / A better knowledge of the methane biogeochemical cycle is fundamental for a betterunderstanding of climate change. Inverse modelling is one powerful tool to derivemethane sources and sinks by optimally combining information from atmospheric observations of methane mixing ratios, from process-based models and inventories ofmethane emissions and sinks, and from a chemistry-transport model used to link emissionsto atmospheric mixing ratios. However, uncertainties related to the modelling ofatmospheric transport are becoming a serious limitation for inverse modelling due tothe increasing number and type of observations.After showing that the impact of transport errors on current atmospheric inversionscould be significant, I tried to improve the representation of atmospheric transport inthe inverse system used at LSCE. Thus, I have tested new physical parameterizations(deep convection, vertical diffusion and non-local transport within the boundary layer)in the LMDz model and adapted it to finer horizontal and vertical resolutions. Thesedevelopments were integrated into the inverse system.Nine inversions have been performed using the different versions of LMDz in order toestimate methane emissions over the period 2006-2012. Two years of strong methaneemissions have been highlighted in 2007 and in 2010. These anomalies have beenmainly attributed to anomalies in the Tropics and in China, where major climate eventshave been observed (Tropical South America and South East Asia) and where economicdevelopment is carrying on with a fast pace (China), even if emissions magnitude andtrend reported in inventories are found to be overestimated.
|
3 |
Dispersion atmosphérique et modélisation inverse pour la reconstruction de sources accidentelles de polluants / Atmospheric dispersion and inverse modelling for the reconstruction of accidental sources of pollutantsWiniarek, Victor 04 March 2014 (has links)
Les circonstances pouvant conduire à un rejet incontrôlé de polluants dans l'atmosphère sont variées : il peut s'agir de situations accidentelles, par exemples des fuites ou explosions sur un site industriel, ou encore de menaces terroristes : bombe sale, bombe biologique, notamment en milieu urbain. Face à de telles situations, les objectifs des autorités sont multiples : prévoir les zones impactées à court terme, notamment pour évacuer les populations concernées ; localiser la source pour pouvoir intervenir directement sur celle-ci ; enfin déterminer les zones polluées à plus long terme, par exemple par le dépôt de polluants persistants, et soumises à restriction de résidence ou d'utilisation agricole. Pour atteindre ces objectifs, des modèles numériques peuvent être utilisés pour modéliser la dispersion atmosphérique des polluants. Après avoir rappelé les processus physiques qui régissent le transport de polluants dans l'atmosphère, nous présenterons les différents modèles à disposition. Le choix de l'un ou l'autre de ces modèles dépend de l'échelle d'étude et du niveau de détails (topographiques notamment) désiré. Nous présentons ensuite le cadre général (bayésien) de la modélisation inverse pour l'estimation de sources. Le principe est l'équilibre entre des informations a priori et des nouvelles informations apportées par des observations et le modèle numérique. Nous mettons en évidence la forte dépendance de l'estimation du terme source et de son incertitude aux hypothèses réalisées sur les statistiques des erreurs a priori. Pour cette raison nous proposons plusieurs méthodes pour estimer rigoureusement ces statistiques. Ces méthodes sont appliquées sur des exemples concrets : tout d'abord un algorithme semi-automatique est proposé pour la surveillance opérationnelle d'un parc de centrales nucléaires. Un second cas d'étude est la reconstruction des termes sources de césium-137 et d'iode-131 consécutifs à l'accident de la centrale nucléaire de Fukushima Daiichi. En ce qui concerne la localisation d'une source inconnue, deux stratégies sont envisageables : les méthodes dites paramétriques et les méthodes non-paramétriques. Les méthodes paramétriques s'appuient sur le caractère particulier des situations accidentelles dans lesquelles les émissions de polluants sont généralement d'étendue limitée. La source à reconstruire est alors paramétrisée et le problème inverse consiste à estimer ces paramètres, en nombre réduit. Dans les méthodes non-paramétriques, aucune hypothèse sur la nature de la source (ponctuelle, localisée, ...) n'est réalisée et le système cherche à reconstruire un champs d'émission complet (en 4 dimensions). Plusieurs méthodes sont proposées et testées sur des situations réelles à l'échelle urbaine avec prise en compte des bâtiments, pour lesquelles les méthodes que nous proposons parviennent à localiser la source à quelques mètres près, suivant les situations modélisées et les méthodes inverses utilisées / Uncontrolled releases of pollutant in the atmosphere may be the consequence of various situations : accidents, for instance leaks or explosions in an industrial plant, or terrorist attacks such as biological bombs, especially in urban areas. In the event of such situations, authorities' objectives are various : predict the contaminated zones to apply first countermeasures such as evacuation of concerned population ; determine the source location ; assess the long-term polluted areas, for instance by deposition of persistent pollutants in the soil. To achieve these objectives, numerical models can be used to model the atmospheric dispersion of pollutants. We will first present the different processes that govern the transport of pollutants in the atmosphere, then the different numerical models that are commonly used in this context. The choice between these models mainly depends of the scale and the details one seeks to take into account.We will then present the general framework of inverse modeling for the estimation of source. Inverse modeling techniques make an objective balance between prior information and new information contained in the observation and the model. We will show the strong dependency of the source term estimation and its uncertainty towards the assumptions made on the statistics of the prior errors in the system. We propose several methods to estimate rigorously these statistics. We will apply these methods on different cases, using either synthetic or real data : first, a semi-automatic algorithm is proposed for the operational monitoring of nuclear facilities. The second and third studies concern the source term estimation of the accidental releases from the Fukushima Daiichi nuclear power plant. Concerning the localization of an unknown source of pollutant, two strategies can be considered. On one hand parametric methods use a limited number of parameters to characterize the source term to be reconstructed. To do so, strong assumptions are made on the nature of the source. The inverse problem is hence to estimate these parameters. On the other hand non-parametric methods attempt to reconstruct a full emission field. Several parametric and non-parametric methods are proposed and evaluated on real situations at a urban scale, with a CFD model taking into account buildings influence on the air flow. In these experiments, some proposed methods are able to localize the source with a mean error of some meters, depending on the simulated situations and the inverse modeling methods
|
4 |
Estimation des paramètres hydrodynamiques des sols à partir d'une modélisation inverse de données d'infiltration et de résistivité électrique.Schneider, Sébastien 10 October 2008 (has links) (PDF)
L'objectif proposé pour ce travail est la mise au point d'une méthode d'inversion des paramètres hydrodynamiques du sol (paramètres de Mualem-van Genuchten) par le biais d'une modélisation inverse d'une expérience d'infiltration sous succion pendant laquelle des mesures de résistivité électrique sont réalisées dans la zone où se développe le bulbe d'infiltration. Après avoir suggéré dans un premier chapitre l'intérêt d'une telle méthode et les avantages qu'elle pourrait comporter (mesures non invasives réalisées in situ, estimation des paramètres par une expérience unique qui aboutit en principe à un jeu cohérent de paramètres), on a démontré numériquement, dans un second chapitre, que la méthode proposée peut conduire aux résultats escomptés. Pour cela des représentations de la fonction objective ont été proposées, et des scénarios d'inversion ont été construits et testés (algorithme de Levenberg-Marquardt). Trois paramètres hydrodynamiques ont été inversés lors de cette étude numérique (a, n, et Ks) et deux textures de sol ont été testées (textures limoneuse et sablo-limoneuse). On a cherché à inverser également les paramètres pétrophysiques qui assurent, via la relation de Rhoades et al. (1976), la correspondance entre la teneur en eau volumique du sol et sa résistivité électrique. Cette étude numérique a montré que la méthode est adaptée à la détermination des paramètres de Mualemvan Genuchten, mais que les paramètres pétrophysiques ne peuvent être inversés correctement. Le troisième et dernier chapitre a porté sur la réalisation d'expériences de terrain et des inversions numériques associées. Trois sols de textures différentes (sableuse, limoneuse, et argileuse) ont été testés, et, à chaque fois, 4 scénarios d'inversion ont été réalisés. Ces scénarios différaient par le fait que qr était optimisé ou non, et par le fait que la dispersivité était inversée ou non. Il a été observé, dans le cas du sol limoneux, que la méthode conduit vers une estimation correcte des paramètres de Mualemvan Genuchten, que les paramètres de Rhoades ne peuvent être inversés qu'avec une incertitude très large, et que la dispersivité est, elle aussi, estimée avec une incertitude importante. En ce qui concerne les sols sableux et argileux, les paramètres de Mualemvan Genuchten ont été optimisés avec des incertitudes plus importantes que dans le cas du sol limoneux, et une optimisation correcte du paramètre de dispersivité n'a pas été possible. De nombreuses améliorations pourraient être envisagées dans le futur afin de rendre la méthode plus performante: optimisation du choix des quadripôles utilisés pour les mesures de résistivité électrique, resserrement des distances entre les électrodes, réalisations d'infiltration avec des eaux de forces ioniques différentes, utilisation d'algorithmes d'inversions plus sophistiqués (méthodes stochastiques).
|
5 |
Modélisation de la dispersion atmosphérique du mercure, du plomb et du cadmium à l'échelle européenne.Roustan, Yelva 12 December 2005 (has links) (PDF)
Le plomb, le mercure et le cadmium sont les métaux lourds identifiés comme les plus préoccupants dans le cadre de la pollution atmosphérique à longue distance. Comprendre et modéliser leur comportement permet la prise de décision efficace pour réduire leur impact sur l'homme et son environnement. Les deux premières parties de cette thèse portent sur la modélisation de ces polluants trace en vue de l'étude d'impact à l'échelle européenne. Le mercure en étant principalement présent sous forme gazeuse et susceptible d'interagir chimiquement se distingue des autres métaux lourds essentiellement portés par les particules fines et considérés comme inertes. La troisième partie de cette thèse présente un développement méthodologique basé sur l'utilisation d'une approche adjointe permettant de quantifier les sensibilités du modèle développé aux différents forçages utilisés mais également d'affiner ceux-ci par modélisation inverse.
|
6 |
Dispersion atmosphérique et modélisation inverse pour la reconstruction de sources accidentelles de polluantsWiniarek, Victor 04 March 2014 (has links) (PDF)
Les circonstances pouvant conduire à un rejet incontrôlé de polluants dans l'atmosphère sont variées : il peut s'agir de situations accidentelles, par exemples des fuites ou explosions sur un site industriel, ou encore de menaces terroristes : bombe sale, bombe biologique, notamment en milieu urbain. Face à de telles situations, les objectifs des autorités sont multiples : prévoir les zones impactées à court terme, notamment pour évacuer les populations concernées ; localiser la source pour pouvoir intervenir directement sur celle-ci ; enfin déterminer les zones polluées à plus long terme, par exemple par le dépôt de polluants persistants, et soumises à restriction de résidence ou d'utilisation agricole. Pour atteindre ces objectifs, des modèles numériques peuvent être utilisés pour modéliser la dispersion atmosphérique des polluants. Après avoir rappelé les processus physiques qui régissent le transport de polluants dans l'atmosphère, nous présenterons les différents modèles à disposition. Le choix de l'un ou l'autre de ces modèles dépend de l'échelle d'étude et du niveau de détails (topographiques notamment) désiré. Différentes méthodes de modélisation inverse pour reconstruire des sources accidentelles sont ensuite présentées, de même que des méthodes d'estimations des erreurs a priori, auxquelles les résultats de l'inversion sont particulièrement sensibles. Plusieurs cas d'application, en utilisant des données synthétiques et des données réelles, sont proposés, notamment l'estimation de termes sources consécutifs à l'accident de Fukushima en mars 2011. Par nos méthodes, nous avons estimé que les rejets de césium-137 se situent en 12 et 19 PBq, avec une incertitude comprise en 15 et 65%, et que les rejets d'iode-131 se situent entre 190 et 380 PBq avec une incertitude comprise entre 5 et 10%. En ce qui concerne la localisation d'une source inconnue, deux stratégies sont envisageables : les méthodes dites paramétriques et les méthodes non-paramétriques. Les méthodes paramétriques s'appuient sur le caractère particulier des situations accidentelles dans lesquelles les émissions de polluants sont généralement d'étendue limitée. La source à reconstruire est alors paramétrisée et le problème inverse consiste à estimer ces paramètres, en nombre réduit. Dans les méthodes non-paramétriques, aucune hypothèse sur la nature de la source (ponctuelle, localisée, ...) n'est réalisée et le système cherche à reconstruire un champs d'émission complet (en 4 dimensions). Plusieurs méthodes sont proposées et testées sur des situations réelles à l'échelle urbaine avec prise en compte des bâtiments, pour lesquelles les méthodes que nous proposons parviennent à localiser la source avec une erreur moyenne de 20m (soit 10% de la taille du domaine d'étude), suivant les situations modélisées et les méthodes inverses utilisées.
|
7 |
Modélisation du rôle du biofilm dans le fonctionnement du réseau trophique de la vasière de Brouage (Bassin de Marennes-Oléron) : influence sur les flux de carbone et conséquences sur la stabilité / Modeling of the role of the biofilm in the functioning of the Brouage mudflat food web (Marennes-Oléron bay) : influence on the carbon flows and consequences on the stabilitySaint-Béat, Blanche 11 December 2012 (has links)
La vasière intertidale de Brouage, écosystème très étudié localement de longue date, a fait l’objet depuis 5 ans d’analyses plus approfondies notamment sur le devenir du biofilm microbien se formant à la surface des sédiments à marée basse. Ce travail de thèse s’inscrit dans cette optique. Il propose, par le couplage d’outils mathématiques et écologiques, d’analyser le réseau trophique de la vasière de Brouage sous différentes conditions abiotiques à partir de la synthèse des données les plus récentes. La modélisation inverse a permis d’estimer les flux manquants du réseau trophique. Les calculs d’indices d’analyse des réseaux écologiques ou ENA (Ecological Network Analysis) ont caractérisé la structure et le fonctionnement du réseau trophique.Un premier travail méthodologique, basé sur la dégradation-reconstruction d’un jeu de données très complet, a défini la meilleure fonction, la moyenne, pour le choix d’une seule solution pour chaque flux à la sortie de la modélisation inverse. La moyenne est la meilleure fonction puisque son utilisation aboutit à une bonne estimation des flux manquants quel que soit le niveau d’information intégré au modèle. Cette fonction permet aussi une bonne préservation de la structure et du fonctionnement du réseau trophique ainsi reconstruit. Le réseau trophique de la vasière de Brouage à basse mer a été étudié sous un aspect saisonnier par l’opposition de l’été et de l’hiver, l’hiver étant caractérisé par la présence d’oiseaux migrateurs sur la vasière. L’activité limicole des oiseaux est soutenue en hiver par une forte production du microphytobenthos et un fort recyclage de la matière. L’organisation interne et la spécialisation des flux restent cependant semblables pour les deux saisons considérées. Dans un deuxième temps, le réseau trophique à pleine mer en été a été modélisé sous différentes conditions hydrodynamiques permettant ou pas la remise en suspension du biofilm microbien. La comparaison entre ces deux situations met en évidence l’effet de la remise en suspension sur le couplage benthos-pelagos. Le système soumis à la remise en suspension présente un très faible indice de recyclage lié à la faible intégration au réseau trophique pélagique du carbone particulaire benthique remis en suspension. De plus, la remise en suspension provoque une augmentation de l’activité du système couplée à une faible spécialisation des flux, ce qui est supposé déstabiliser le système. / The Brouage mudflat is an intertidal ecosystem which has been studied locally for a long time. During the last 5 years, in depth studies have especially focused on the fate of the microbial biofilm which develops at the surface of the sediments at low tide. The present Ph.D. work was accomplished in this framework. It proposes, through the synthesis of the most recent data, to combine mathematical and ecological tools to analyze the Brouage food web under different abiotic conditions. The inverse modeling allowed estimating the unknown flows of the food web. The calculation of the ENA (Ecological Network Analysis) indices characterized the structure and the functioning of the food web. A methodological work, based on the degradation/reconstruction of a complete data set, determined the best function, the mean, to choose a single solution for each flow among the set of values estimated by the inverse modeling. The mean is the best function because it leads to a good estimation of the unknown flows irrespective of the quantity of information integrated in the model. Moreover, this function allows a good conservation of the structure and functioning of the reconstructed food web.The Brouage food web at low tide was investigated with a seasonal approach by the opposition of the summer and the winter food webs, the latest being characterized by the presence of migratory shorebirds. The shorebird activity is sustained by a strong primary production and a strong recycling. Nevertheless, the internal organization and the specialization remain similar for the two seasons. In a second step, the food web at high tide was modeled under different hydrodynamical conditions sufficient or not to induce the resuspension of the microbial biofilm. The comparison between the two food webs highlights the effect of the resuspension on the benthos-pelagos coupling. The recycling activity is low due to the low integration of the resuspended benthic particulate carbon in the pelagic food web during resuspension. Additionally, the resuspension leads to an increase of the activity of the whole system coupled with a drop of the specialization of the trophic pathways that is supposed to destabilize the system.
|
8 |
Construction optimale de réseaux fixes et mobiles pour la surveillance opérationnelle des rejets accidentels atmosphériquesAbida, Rachid 19 February 2010 (has links) (PDF)
Mon travail de thèse se situe dans le contexte général de l'optimisation de réseaux de mesure de pollution atmosphérique, mais plus spécifiquement centré sur la surveillance des rejets accidentels de radionucléides dans l'air. Le problème d'optimisation de réseaux de mesure de la qualité de l'air a été abordé dans la littérature. En revanche, il n'a pas été traité dans le contexte de la surveillance des rejets accidentels atmosphériques. Au cours de cette thèse nous nous sommes intéressés dans un premier temps à l'optimisation du futur réseau de télésurveillance des aérosols radioactifs dans l'air, le réseau DESCARTES. Ce réseau sera mis en œuvre par l'Institut de Radioprotection et de Sûreté Nucléaire (IRSN), afin de renforcer son dispositif de surveillance de radionucléides en France métropolitaine. Plus précisément, l'objectif assigné à ce réseau est de pouvoir mesurer des rejets atmosphériques de radionucléides, provenant de l'ensemble des installations nucléaires françaises ou étrangères. Notre principal rôle était donc de formuler des recommandations vis-à-vis aux besoins exprimés par l'IRSN, concernant la construction optimale du futur réseau. Á cette fin, l'approche que nous avons considérée pour optimiser le réseau (le futur réseau), vise à maximiser sa capacité à extrapoler les concentrations d'activité mesurées sur les stations du réseau sur tout le domaine d'intérêt. Cette capacité est évaluée quantitativement à travers une fonction de coût, qui mesure les écarts entre les champs de concentrations extrapolés et ceux de références. Ces derniers représentent des scénarios de dispersion accidentels provenant des 20 centrales nucléaires françaises et, calculés sur une année de météorologie. Nos résultats soulignent notamment l'importance du choix de la fonction coût dans la conception optimale du futur réseau de surveillance. Autrement dit, la configuration spatiale du réseau optimal s'avère extrêmement sensible à la forme de la fonction coût utilisée. La deuxième partie de mon travail s'intéresse essentiellement au problème du ciblage d'observations en cas d'un rejet accidentel de radionucléides, provenant d'une centrale nucléaire. En effet, en situation d'urgence, une prévision très précise en temps réel de la dispersion du panache radioactif est vivement exigée par les décideurs afin d'entreprendre des contre-mesures plus appropriées. Cependant, la précision de la prévision du panache est très dépendante de l'estimation du terme source de l'accident. À cet égard, les techniques d'assimilation de données et de modélisation inverse peuvent être appliquées. Toutefois, le nuage radioactif peut être localement très mince et pourrait s'échapper à une partie importante du réseau local, installé autour de la centrale nucléaire. Ainsi, un déploiement de stations de mesure mobiles en suivant l'évolution du nuage pourrait contribuer à améliorer l'estimation du terme source. À cet effet, nous avons exploré la possibilité d'améliorer la qualité de la prévision numérique du panache radioactif, en couplant une stratégie de déploiement optimal de stations mobiles avec un schéma d'assimilation de données pour la reconstruction séquentielle du panache radioactif. Nos résultats montrent que le gain d'information apporté par les observations ciblées est nettement mieux que l'information apportée par les observations fixes.
|
9 |
Simulation numérique et assimilation de données variationnelle pour la dispersion atmosphérique de polluantsQuélo, Denis 08 December 2004 (has links) (PDF)
Ce travail a permis de développer un modèle de chimie-transport tridimensionnel Polair3D pour simuler la pollution photochimique. Des comparaisons aux mesures d'ozone et d'oxydes d'azote sur la région de Lille pour l'année 1998 l'ont validé à l'échelle régionale. La méthode d'assimilation de données 4D-var a été implémentée. Elle est basée sur le modèle adjoint de Polair3D qui a été obtenu par différenciation automatique. Une application à la modélisation inverse des émissions sur Lille avec des observations réelles a montré que l'inversion de paramètres temporels d'émissions d'oxydes d'azote permet d'améliorer notablement les prévisions. La sensibilité de "second-ordre" permet d'étudier la sensibilité de l'inversion au système d'assimilation de données lui-même en calculant son conditionnement. Cette problématique est illustrée sur deux applications: la dispersion de radionucléides à petite échelle et la chimie atmosphérique, caractérisée par sa disparité d'échelles temporelles.
|
10 |
Modélisation du rôle du biofilm dans le fonctionnement du réseau trophique de la vasière de Brouage (Bassin de Marennes-Oléron) : influence sur les flux de carbone et conséquences sur la stabilitéSaint-Béat, Blanche 11 December 2012 (has links) (PDF)
La vasière intertidale de Brouage, écosystème très étudié localement de longue date, a fait l'objet depuis 5 ans d'analyses plus approfondies notamment sur le devenir du biofilm microbien se formant à la surface des sédiments à marée basse. Ce travail de thèse s'inscrit dans cette optique. Il propose, par le couplage d'outils mathématiques et écologiques, d'analyser le réseau trophique de la vasière de Brouage sous différentes conditions abiotiques à partir de la synthèse des données les plus récentes. La modélisation inverse a permis d'estimer les flux manquants du réseau trophique. Les calculs d'indices d'analyse des réseaux écologiques ou ENA (Ecological Network Analysis) ont caractérisé la structure et le fonctionnement du réseau trophique.Un premier travail méthodologique, basé sur la dégradation-reconstruction d'un jeu de données très complet, a défini la meilleure fonction, la moyenne, pour le choix d'une seule solution pour chaque flux à la sortie de la modélisation inverse. La moyenne est la meilleure fonction puisque son utilisation aboutit à une bonne estimation des flux manquants quel que soit le niveau d'information intégré au modèle. Cette fonction permet aussi une bonne préservation de la structure et du fonctionnement du réseau trophique ainsi reconstruit. Le réseau trophique de la vasière de Brouage à basse mer a été étudié sous un aspect saisonnier par l'opposition de l'été et de l'hiver, l'hiver étant caractérisé par la présence d'oiseaux migrateurs sur la vasière. L'activité limicole des oiseaux est soutenue en hiver par une forte production du microphytobenthos et un fort recyclage de la matière. L'organisation interne et la spécialisation des flux restent cependant semblables pour les deux saisons considérées. Dans un deuxième temps, le réseau trophique à pleine mer en été a été modélisé sous différentes conditions hydrodynamiques permettant ou pas la remise en suspension du biofilm microbien. La comparaison entre ces deux situations met en évidence l'effet de la remise en suspension sur le couplage benthos-pelagos. Le système soumis à la remise en suspension présente un très faible indice de recyclage lié à la faible intégration au réseau trophique pélagique du carbone particulaire benthique remis en suspension. De plus, la remise en suspension provoque une augmentation de l'activité du système couplée à une faible spécialisation des flux, ce qui est supposé déstabiliser le système.
|
Page generated in 0.1395 seconds