• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 33
  • 16
  • 3
  • Tagged with
  • 161
  • 161
  • 71
  • 47
  • 39
  • 39
  • 29
  • 27
  • 26
  • 24
  • 23
  • 23
  • 22
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Assimilation variationnelle de données altimétriques dans le modèle océanique NEMO : exploration de l'effet des non-linéarités dans une configuration simplifiée à haute résolution / Variational altimetric data assimilation in the oceanographic numerical model NEMO : investigation of the impact of nonlinearities in an academic configuration at high resolution

Bouttier, Pierre-Antoine 04 February 2014 (has links)
Un enjeu majeur des modèles océaniques est de représenter fidèlement les circulations méso- et subméso-échelles afin de simuler leur importante contribution dans la circulation générale et dans le budget énergétique de l'océan. La poursuite de cet objectif se traduit par une augmentation de la résolution spatiale et temporelle à la fois des modèles et des réseaux d'observation de l'océan. Cependant, à ces petites échelles, la dynamique de l'écoulement revêt un caractère fortement turbulent ou non-linéaire. Dans ce contexte, les méthodes actuelles d'assimilation de données (AD), variationnelles en particulier, sont généralement moins performantes que dans un contexte (quasi-) linéaire.L'objectif de cette thèse est d'explorer sous divers aspects le comportement des méthodes variationnelles d'AD dans un modèle d'océan non-linéaire. Pour ce faire, nous avons réalisé une série d'expériences dites "jumelles" en assimilant des données altimétriques simulées suivant les caractéristiques des satellites altimétriques Jason-1 et SARAL/AltiKA . À l'aide de ces expériences, nous analysons sous différents angles les problématiques posées par les non-linéarités à l'AD. Enfin, nous ouvrons plusieurs pistes d'amélioration de l'efficacité du système d'AD dans ce contexte.Ce travail est basé sur le logiciel de modélisation océanique NEMO, incluant la configuration de bassin océanique turbulent idéalisé SEABASS, à différentes résolutions spatiales. Dans la continuité de la plateforme de recherche en AD avec NEMO, NEMO-ASSIM, nous avons utilisé et contribué au développement de cet ensemble d'outil, comprenant, entre autre, opérateur d'observation, modèles linéaire tangent et adjoint de NEMO, permettant de mener à bien notre étude. Le système d'AD variationnelle utilisé est le logiciel NEMOVAR.Les résultats présentés tentent de lier les échelles caractéristiques des structures d'erreurs d'analyse et l'activité aux petites échelles. Pour ce faire, nous avons utilisé une large gamme de diagnostics, e.g. erreur quadratique moyenne spatiale et temporelle, caractéristiques des fonctions coûts, caractérisation de l'hypothèse linéaire tangente, PSD des champs d'erreurs d'analyse.Nos expériences montrent que le 4DVAR incrémental contrôle efficacement la trajectoire analysée au 1/4° pour de longues fenêtres d'AD (2 mois). Lorsque la résolution augmente, la convergence de l'algorithme apparaît plus lente voire inexistante sous certaines conditions. Cependant, l'algorithme permet encore de réduire convenablement l'erreur d'analyse. Enfin, l'algorithme 3DFGAT se révèle beaucoup moins performant, quelle que soit la résolution.De plus, nous montrons également l'importance de l'adéquation entre la circulation simulée et l'échantillonnage altimétrique, en terme d'échelles spatiales représentées, pour obtenir de meilleures performances. Enfin, nous avons exploré la stratégie de minimisation dite "progressive", permettant d'accélérer la convergence du 4DVAR à haute résolution. / A current stake for numerical ocean models is to adequately represent meso- and small-scale activity, in order to simulate its crucial role in the general ocean circulation and energy budget. It is therefore also a challenge for data assimilation (DA) methods to control these scales. However this small-scale activity is strongly linked to the nonlinear or turbulent character of the flow, whereas DA methods are generally much less efficient in such contexts than in (almost) linear ones. For variational DA methods as incremental 4DVAR, non-linearities imply convergence difficulty, the cost functions to be minimised presenting multiple local minima.The purpose of this thesis is to address this problem specifically, by exploring the behaviour of variational DA methods in a non-linear ocean model. To achieve this objective, a series of "twin" experiments assimilating simulated altimeter data, following the characteristics of altimetric satellite Jason-1 and SARAL/AltiKA, are analyzed. We also find different ways to improve efficiency of variational algorithms applied to turbulent circulations.This work is based on oceanic modelisation software called NEMO, including a idealized turbulent oceanic basin configuration, SEABASS, and DA components (e.g. Observation operator, Linear Tangent and Adjoint Models). Thanks to NEMO-ASSIM research platform, we have used and developed this set of tools. The used variational DA system itself is NEMOVAR.We present results characterizing scales and structures of the analysis error along the assimilation process, as well as tentative links with small scale activity. To study both the algorithm convergence and the analysis and forecast errors in a qualitative and quantitative way, a large spectrum of systematic diagnostics has been employed, e.g. spatial and temporal RMSE, cost function characteristics, projection of error fields on EOFs, validity of the tangent linear hypothesis, PSD of error fields.In our experiments, it appears that the incremental 4DVAR algorithm proved to be quite robust for long DA windows at eddy-permitting resolution.When the model horizontal resolution increases, the convergence of the minimisation algorithm is poorer but the 4DVAR method still controls efficiently analysis error.It has also been shown that the 4DVAR algorithm is clearly more performant than 3DFGAT for both considered resolutions.Moreover we investigate some strategies for DA in such nonlinear contexts, with the aim of reducing the analysis error. We performed so-called progressive incremental 4DVAR to improve the algorithm convergence for longer assimilation windows. Finally, we show that the adequation in represented flow scales between the model and the altimetric sampling is crucial to obtain the best error analysis reduction.
52

Calage en ligne d'un modèle dynamique de trafic routier pour l'estimation en temps réel des conditions de circulation / Online calibration of a dynamic traffic model for real time estimation of traffic states

Clairais, Aurélien 12 April 2019 (has links)
Les modèles de trafic ont une importance capitale pour la compréhension et la prévision des phénomènes liés aux conditions de circulation. Ils représentent une aide précieuse à tous les niveaux de gestion du trafic. Cette thèse s'attache aux problématiques liées à la gestion du trafic au quotidien. Pour les gestionnaires de réseaux, quatre enjeux sont traités. L'enjeu de rapidité renvoie au choix de l'échelle de représentation et la formulation du modèle d'écoulement. Le modèle retenu est le modèle LWR lagrangien-spatial. La fiabilité est un enjeu relatif à la prise en compte des erreurs de modèles dans les estimations des conditions de circulation. La réactivité est décrite comme la capacité de la méthode à prendre en compte en temps réel les états de trafic captés. Enfin, l'adaptabilité renvoie à la capacité des paramètres de la méthode à évoluer en tenant compte des situations de trafic observées. Les verrous scientifiques que les travaux présentés cherchent à lever s'articulent autour des quatre enjeux décrits précédemment. L'intégration de la propagation des incertitudes directement dans le modèle d'écoulement représente un premier verrou. Ensuite, la production d'indicateurs opérationnels rendant compte de la fiabilité des résultats. Concernant l'enjeu de réactivité, les verrous scientifiques traités sont la mise en place d'un schéma d'assimilation de données séquentiel et le calage des conditions internes du modèle d'écoulement intégrant les erreurs de modèle et d'observation. Enfin, concernant l'enjeu de réactivité, le verrou scientifique associé est le calage en ligne des paramètres du modèle d'écoulement. Un modèle de suivi d'erreur où les variables du modèle d'écoulement sont distribuées selon des mélanges de gaussienne est développé. Le suivi des erreurs dans le modèle est réalisé grâce à une méthode de perturbation adaptée à la formulation multi-composantes des mélanges de gaussiennes. Une analyse de sensibilité est menée afin d'établir le lien entre la robustesse de la méthode proposée et la discrétisation du réseau, le nombre de composantes dans le mélange de gaussiennes et les erreurs sur les paramètres du modèle d'écoulement. Ce modèle permet la production d'indicateurs opérationnels et leurs erreurs associées rendant compte de la fiabilité des conditions de circulation ainsi estimées. Le processus d'assimilation séquentielle permet d'estimer et de prévoir les conditions de trafic en accord avec les observations en cas de demande et d'offre non calées. L'état a posteriori est calculé à l'aide d'une formulation bayésienne connaissant les états a priori et les observations. Deux méthodes de mise à jour du modèle ont été testées. Devant les incohérences du modèle, introduites par la méthode de substitution des états a priori par les états a posteriori, la mise à jour agit aussi sur les véhicules via l'ajout, la suppression, l'avancement ou le retardement de leurs temps de passage. La validation des concepts étudiés est réalisée sur un réseau composé d'un simple lien homogène sans discontinuité. Lorsque les paramètres de l'écoulement du trafic ne sont pas calés, l'assimilation de données seule ne permet pas de propager correctement les états de trafic en accord avec la situation observée. Le calage des paramètres d'écoulement est traité dans un chapitre d'ouverture dans lequel des pistes de recherche sont suggérées afin de proposer des solutions à ce dernier verrou scientifique. Les travaux de cette thèse ouvrent la voie à des perspectives de recherche et opérationnelles. En effet, il est intéressant de quantifier le renforcement apporté par les méthodes modèle-centrées aux méthodes données-centrées usuelles dans l'estimation en temps réel et la prévision à court-terme des conditions de circulation. De plus, les méthodes développées, associées aux pistes de recherche évoquées, pourraient représenter un apport considérable aux outils d'aide à la gestion du trafic au quotidien. / Traffic models are of paramount importance for understanding and forecasting traffic dynamics. They represent a significant support for all the stages of traffic management. This thesis focuses on issues related to daily traffic management. For road network managers, four challenges are addressed. The speed refers to the choice of the scale of representation and formulation of the flow model. The selected model is the Lagrangian-Space LWR model. The reliability is associated to the integration of the model errors in the traffic conditions estimation process. The reactivity is described as the capacity of the method to take into account the prevailling traffic states in real time. Finally, the versatility refers to the capacity of the method parameters to evolve considering the observed traffic situations.The scientific challenges that the presented works aim are based on the four issues. The integration of the uncertainties into the flow model is a first challenge. Then, the production of operational indicators that account for the reliability of the results is discussed. Concerning the reactivity, the addressed scientific challenges are the establishment of a vehicle indexes based sequential data assimilation process and the calibration of the model's internal conditions. Finally, concerning the versatility, the associated scientific question is the online calibration of the parameters of the traffic flow model. A model for tracking the errors,assumed to be distributed following Gaussian mixtures, is developped. The error tracking is achieved thanks to an original perturbation method designed for multi-modal Gaussian mixtures. A sensitivity analysis is performed in order to establish a link between the designed method's robustness and the discretization of the network, the number of modes in the Gaussian mixture and the errors on the flow model's parameters. The data assimilation process enables to propagate traffic conditions in accordance with the observed situation in case of non-calibrated demand and supply. The posterior state is calculated by means of a Bayesian inference formulation knowing the prior and observed states. Two methods for model update have been tested. Facing model inconsistencies introduced by the method of substituting \textit{prior} states by \textit{posterior} states, the update acts also on the vehicles by means of addition, deletion, advancing and delaying of the passing times. The validation of the proposed solutions is achieved on a network composed of a simple homogeneous link without discontinuity. When the parameters of the traffic flow models are not calibrated, the data assimilation alone is not able to propagate the traffic states in accordance with the observed situation. The calibration of the parameters is addressed in an opening chapter in which several research avenues are proposed to resolve this last scientific question. The works in this thesis pave the way to perspectives in both research and operational domains. Indeed, it is interesting to quantify the reinforcement brought by model centered methods to usual data centered methods for the real time estimation and the short term forecasting of traffic conditions. Furthermore, the developed methods, associated to the cited research avenues, may represent a significant intake in the daily traffic management tools.
53

Quantification de la vapeur d'eau atmosphérique par GPS et apport à la prévision des événements cévenols

Boniface, Karen 30 October 2009 (has links) (PDF)
La vapeur d'eau varie largement dans l'atmosphère avec des concentrations allant de la saturation dans les tropiques à des zones presque sèches au-dessus des zones continentales élevées. Une bonne connaissance du contenu en vapeur d'eau dans l'air est nécessaire pour la prévision des changements de phases, notamment les précipitations. La mesure de la variabilité de la vapeur d'eau est une lacune des systèmes d'observation. Par ailleurs, il est apparu que le positionnement précis des antennes GPS était affecté par la variation de l'indice de réfraction dans la troposphère, ce qui rend particulièrement difficile l'estimation de la composante verticale. Cette variation est directement liée à la distribution des variables pression, température et humidité sur les trajets satellite-récepteur. On s'intéresse ici à l'étude des précipitations intenses et notamment aux épisodes Cévenols. Ce travail de thèse consiste à vérifier la validité de la mesure GPS pour la quantification de la vapeur d'eau en la comparant avec des mesures issues de radiosondage et des sorties de modèle météorologique. On cherche à analyser si la quantification de vapeur d'eau par GPS permet de caractériser les forts événements précipitants (cumuls supérieurs à 150 mm) à l'aide d'observations conjointes sur les flux de surface. On étudie ensuite l'impact de l'assimilation de données GPS issues d'un réseau GPS dense sur la prévision des cumuls de pluies dans le modèle à hauterésolution (2.5 km) AROME de Météo France. Finalement on évalue la qualité et l'apport de la mesure de vapeur d'eau par GPS en mer dans le cadre d'une campagne de mesure VAPIMED).
54

Assimilation de données: les propriétés asymptotiques du filtre de Kalman d'ensemble

Tran, Vu Duc 29 June 2009 (has links) (PDF)
Cette thèse porte sur les méthodes d'assimilation de données, qui consistent à combiner des informations provenant d'un modèle dynamique avec des observations. Nous présentons des méthodes d'assimilation les plus connues: l'interpolation statistique, les méthodes variationnelles d'assimilation de données et les méthodes séquentielles d'assimilation de données. Nous nous intéressons particulièrement au filtre de Kalman d'ensemble qui est de plus en plus utilisé dans les applications océanographiques. Le filtre de Kalman d'ensemble a été proposé initialement comme une approximation du filtre de Kalman pour les modèles linéaires gaussiens de grande dimension, il a ensuite été étendu au cas du modèle non linéaire gaussien. Il existe très peu de résultats théoriques sur les propriétés asymptotiques du filtre de Kalman d'ensemble, alors qu'il est connu que le filtre particulaire converge vers le filtre bayésien optimal quand le nombre de particules tend vers l'infini. Nous démontrons dans cette thèse que, quand le nombre d'éléments tend vers l'infini, dans le cas où la fonction du modèle dynamique est continue et localement lipschitzienne avec un accroissement au plus polynomial à l'infini, les éléments du filtre de Kalman d'ensemble convergent vers les éléments indépendants et identiquement distribués selon une loi qui diffère de la loi a posteriori du filtre bayésien optimal dans le cas général. Dans le cas du modèle linéaire gaussien, cette loi asymptotique n'est autre que la loi a posteriori du filtre de Kalman. Nous présentons aussi des résultats de simulations du filtre de Kalman d'ensemble et du filtre particulaire sur un modèle linéaire gaussien simple et sur le modèle de Lorenz afin de comparer la performance des deux filtres à l'asymptotique et aussi dans le cas où le nombre d'éléments d'ensemble est faible.
55

Assimilation de données par filtrage pour les systèmes hyperboliques du second ordre - Applications à la mécanique cardiaque

Moireau, Philippe 12 December 2008 (has links) (PDF)
L'objectif est de formuler des méthodes d'assimilation de données adaptées à la simulation du comportement mécanique du coeur tout au long d'un battement cardiaque, afin de bénéficier du développement des techniques d'imagerie et de l'intérêt croissant des cliniciens pour la simulation numérique. Nous présentons une stratégie originale par filtrage, adaptée à l'estimation de systèmes mécaniques, et plus généralement de systèmes hyperboliques du second ordre, avec des conditions initiales et des paramètres inconnus. La trajectoire est estimée via des observateurs de Luenberger efficaces exploitant la stabilisation par feedback à des fins d'estimation. A la différence d'approches Kalmaniennes classiques, ces filtres peuvent être numériquement adaptés à des systèmes issus de la discrétisation d'EDPs, et la stabilité exponentielle du système de l'erreur d'observation assure la convergence de l'estimateur. Ainsi, nous analysons en particulier la stratégie collocalisée du "Direct Velocity Feedback" utilisée en contrôle des structures. Nous formulons aussi une méthode originale dans le cas de mesures de positions, et par extension de contours dans une image. Pour les paramètres, nous étendons ensuite l'estimateur en ajoutant une dynamique paramétrique fictive. Les observateurs d'état précédents restreignent alors l'incertitude à l'espace paramétrique afin d'y appliquer des filtres de rang réduit H2 ou Hinfini. La convergence de l'estimateur en résultant est mathématiquement démontrée, et illustrée en estimant des paramètres distribués de type raideurs et contractilités, avec la perspective d'aide au diagnostic de régions infarcies du muscle cardiaque.
56

Vers une prise en compte des erreurs-modèle en assimilation de données 4D-variationnelle. <br />Application à un modèle réaliste d'océan

Vidard, Arthur 20 December 2001 (has links) (PDF)
L'assimilation de données est une classe de méthode mathématiques très usitées en météorologie ou en océanographie. Elle permettent de recomposer de façon adéquate l'état du système au moyen des informations fournies par le modèle d'une part et les observations d'autre part. Parmi celles-ci, les méthodes d'assimilation variationnelles ont connu récemment un fort développement jusqu'à fournir les méthodes opérationnelles dans les principaux centres de météorologie. Cependant ces méthodes ne prennent généralement pas en compte l'inexactitude des modèles. Tout au long de cette thèse, on s'est attaché à décrire et expérimenter des variantes " modèle inexacte " de la méthode 4D-Variationnelle applicable tant du point de vue algorithmique que du coût en temps de calcul.<br />Deux méthodes sont étudiées plus en détail. Premièrement, le Nudging optimal qui consiste en adjoindre au 4D-Var un rappel newtonien de l'état du modèle vers les observations et dont l'amplitude sera estimé par contrôle optimal. D'autre part le " contrôle de l'erreur systématique " considère l'erreur modèle comme étant un terme ne variant pas, ou très peu, dans le temps, ce terme étant également estimé par contrôle.<br />Dans un premier temps ces méthodes sont appliquées à des cas académiques de modèles simplifiés en assimilant des données simulées. La méthode de contrôle de la part systématique de l'erreur est ensuite appliquée à un modèle d'océan aux équations primitives dans le cadre d'une expérience réaliste afin de valider les bons résultats obtenus pour les configurations académiques.
57

SIMULATIONS NUMERIQUES D'EPISODES DE PRECIPITATIONS INTENSES DOCUMENTES LORS DE LA CAMPAGNE DE MESURES MAP (MESOSCALE ALPINE PROGRAMME)

Lascaux, Franck 14 November 2005 (has links) (PDF)
Des épisodes de précipitations intenses se produisent fréquemment sur les Alpes durant la saison automnale, occasionnant régulièrement de nombreux dégâts matériels et humains.<br />L'amélioration de leur prévision est un enjeu majeur de la météorologie opérationnelle actuelle.<br />En 1999, le programme MAP (Mesoscale Alpine Programme) a été mis en place afin de recueillir une base de données importante décrivant plusieurs de ces épisodes.<br />Certains de ces épisodes ont été simulés à l'aide du modèle non-hydrostatique Meso-NH.<br />L'attention est d'abord portée sur la sensibilité de la prévision d'un épisode fortement convectif au schéma microphysique utilisé, ainsi qu'aux conditions initiales. Ensuite l'étude est élargie à deux autres évènements et il est mis en évidence des comportements microphysiques différents en fonction des caractéristiques du flux incident.
58

Modélisation inverse pour l'optimisation des sources primaires de pollution atmosphérique à l'échelle régionale

Pison, Isabelle 07 December 2005 (has links) (PDF)
La pollution atmosphérique à l'échelle régionale est le bilan des interactions entre des processus très différents: les émissions , la chimie, le transport, le mélange et le dépôt des espèces gazeuses. La prévision de la qualité de l'air nécessite donc l'utilisation de modèles, qui prennent en compte les émissions par le biais de cadastres. Les concentrations de polluants simulées dépendent fortement des émissions utilisées. Or, les cadastres utilisés pour les représenter comportent de grandes incertitudes. Comme il est difficile actuellement d'affiner leurs méthodes de construction, il reste la possibilité d'ajouter de l'information aux cadastres existant. L'optimisation des émissions utilise l'information contenue dans les mesures pour obtenir le cadastre qui minimise la différence entre les concentrations simulées et mesurées.<br /><br />Une méthode d'inversion des émissions anthropiques à l'échelle régionale, utilisant les mesures de routine et basée sur le modèle CHIMERE et son adjoint, a été élaborée et validée. Une technique de krigeage permet d'utiliser de façon optimale les informations disponibles dans l'espace des concentrations. L'enchaînement de cycles krigeage-optimisation améliore la qualité des résultats. Une technique d'agrégation spatiale dynamique est utilisée pour réduire la dimension du problème.<br /><br />Les émissions de NOx du cadastre élaboré par AIRPARIF pour l'Ile-de-France ont été inversées pendant les étés 1998 et 1999, les épisodes de la campagne ESQUIF étant étudiés en détail. L'optimisation corrige des écarts importants entre concentrations mesurées et simulées. Cependant, d'une façon générale, le niveau de fiabilité des résultats diminue avec la densité du réseau de mesure. Les résultats présentant le plus haut niveau de confiance concernent donc les flux d'émission les plus intenses d'Ile-de-France. Les corrections apportées à la masse moyenne émise dans l'ensemble du domaine et aux profils temporels correspondant sont en accord avec l'estimation de l'incertitude sur le cadastre pour les NOx (15%) obtenue lors de la campagne ESQUIF.
59

Assimilation de données pour la prédiction de paramètres hydrodynamiques et écologiques : cas de la lagune de l'Oder

Bertino, Laurent 07 December 2001 (has links) (PDF)
La gestion des milieux océaniques et côtiers nécessite des prédictions à court terme de leurs caractéristiques physiques et écologiques. Le succès des méthodes d'Assimilation de Données (AD) en météorologie montre que les données in-situ peuvent être incorporées dans des modèles dynamiques pour en améliorer les prédictions. <br /><p><br />Ce travail se focalise sur l'AD séquentielle (ADS), dérivée de la théorie de l'estimation statistique, en particulier le filtre de Kalman. Les obstacles auxquels se heurte l'application du filtre de Kalman aux systèmes océanographiques sont de deux sortes :<ul> <br /><li>des obstacles théoriques du fait de la non-linéarité des équations décrivant la dynamique physique et écologique du système alors que le filtre de Kalman est optimal pour des systèmes linéaires,<br /><li>des obstacles pratiques car les systèmes tridimensionnels sont discrétisés à haute résolution pour décrire précisément leur dynamique. On obtient des espaces d'état de l'ordre du million de paramètres, ce qui rend la méthode encombrante du point de vue de l'espace mémoire et des temps de calcul requis, cruciaux pour des applications en prédiction opérationnelle.</ul><br /><p><br />Dans le cas général il n'existe pas encore de solution qui réponde à ces deux exigences, mais des approximations classiques issues du filtre de Kalman sont utilisées, soit par un développement limité (Extended Kalman Filter EKF) soit par une méthode de Monte Carlo (Ensemble Kalman Filter EnKF). Puisque le filtre de Kalman et ses extensions EKF et EnKF utilisent une estimation linéaire pour la correction des résultats du modèle, formellement équivalente à un krigeage à moyenne connue, des modifications inspirées de la géostatistique sont proposées pour tenir compte des biais et des non linéarités. <br /><p><br />Deux méthodes courantes en ADS océanographique, le filtre de Kalman RRSQRT (déduit de l'EKF par approximation en valeurs propres dominantes) et l'EnKF, sont comparées dans un cas fictif de modèle écologique 1-D d'une colonne d'eau. Le filtre de Kalman RRSQRT est ensuite appliqué à l'ADS de hauteurs d'eau de la lagune de l'Oder dans le modèle hydrodynamique TRIM3D. L'estimation est améliorée en utilisant seulement trois stations et les temps d'initialisation du modèle sont considérablement réduits. Enfin, l'EnKF est appliqué à l'assimilation conjointe de hauteurs d'eau (5 stations) et de données de salinité (2 stations) de la lagune de l'Oder dans TRIM3D. Les difficultés liées à l'application de l'ADS aux modèles d'advection-diffusion sont mises en évidence.
60

Assimilation de données photochimiques et prévision de la pollution troposphérique

BLOND, Nadège 20 December 2002 (has links) (PDF)
Les Modèles de Chimie-Transport (CTM) simulent aujourd'hui de façon assez réaliste les concentrations des espèces responsables de la pollution photochimique estivale. Cependant, la complexité des phénomènes mis en jeu et la variabilité spatiale et temporelle des émissions de polluants sont telles que, quel que soit le modèle utilisé, il est impossible de reproduire parfaitement ces concentrations. Lorsqu'un paramètre interne ou d'entrée du modèle est mal décrit une erreur importante peut etre observée certains jours. Le modèle CHIMERE est un CTM couvrant la majeur partie de l'Europe avec une résolution d'une cinquantaine de kilomètres. Il offre la possibilité de zoomer et de simuler de façon plus détaillée les concentrations des polluants sur des régions clefs, telles que l'Ile-de-France et la région de Berre et de Marseille.<br /><br />Les simulations de ce modèle ont été compaés avec des observations de surface et des données aéroportées de la campagne d'Etude et Simulation de la QUalité de l'Air en Ile-de-France (ESQUIF) à l'échelle européenne et régionale. Cette comparaison a permis ainsi de quantifier l'erreur globale commise sur les concentrations d'ozone et de son précurseur, le dioxyde d'azote. Différentes méthodes (Interpolation Statistique, Krigeage) ont été testées et adaptées au cas de la pollution dans le but de corriger cette erreur. Elles ont été comparées et validées de manière objective. Il a été montré que la combinaison des observations de surface et des simulations du modèle permet d'obtenir efficacement des cartes tridimensionnelles (i.e. des analyses) de concentration des deux polluants, plus réalistes que les simulations brutes.<br /><br />Les expériences menées depuis trois ans dans le cadre du projet PIONEER (Prévisibilité et Incertitude de l'Ozone à l'échelle Européenne et Régionale) montrent que l'erreur de prévision peut éventuellement se propager d'une région vers une autre. Les analyses des concentrations d'ozone, produites à l'échelle européenne ont été également utilisées pour réinitialiser le modèle de prévision. L'objectif était alors de savoir s'il est possible d'améliorer aussi les prévisions à court termes en utilisant de meilleurs états initiaux que les prévisions de la veille.

Page generated in 0.1235 seconds