Spelling suggestions: "subject:"prévision"" "subject:"révision""
91 |
Prévision des crues éclair par réseaux de neurones : généralisation aux bassins non jaugés / Flash floods forecasting using neural networks : generalizing to ungauged basinsArtigue, Guillaume 03 December 2012 (has links)
Dans les régions méditerranéennes françaises, des épisodes pluvieux diluviens se produisent régulièrement et provoquent des crues très rapides et volumineuses que l'on appelle crues éclair. Elles font fréquemment de nombreuses victimes et peuvent, sur un seul évènement, coûter plus d'un milliard d'euros. Face à cette problématique, les pouvoirs publics mettent en place des parades parmi lesquelles la prévision hydrologique tient une place essentielle.C'est dans ce contexte que le projet BVNE (Bassin Versant Numérique Expérimental) a été initié par le SCHAPI (Service Central d'Hydrométéorologie et d'Appui à la Prévision des Inondations) dans le but d'améliorer la prévision des crues rapides. Ces travaux s'inscrivent dans le cadre de ce projet et ont trois objectifs principaux : réaliser des prévisions sur des bassins capables de ces réactions qu'ils soient correctement jaugés, mal jaugés ou non jaugés.La zone d'étude choisie, le massif des Cévennes, concentre la majorité de ces épisodes hydrométéorologiques intenses en France. Ce mémoire la présente en détails, mettant en avant ses caractéristiques les plus influentes sur l'hydrologie de surface. Au regard de la complexité de la relation entre pluie et débit dans les bassins concernés et de la difficulté éprouvée par les modèles à base physique à fournir des informations précises en mode prédictif sans prévision de pluie, l'utilisation de l'apprentissage statistique par réseaux de neurones s'est imposée dans la recherche d'une solution opérationnelle.C'est ainsi que des modèles à réseaux de neurones ont été synthétisés et appliqués à un bassin de la zone cévenole, dans des contextes bien et mal jaugés. Les bons résultats obtenus ont été le point de départ de la généralisation à 15 bassins de la zone d'étude. A cette fin, une méthode de généralisation est développée à partir du modèle élaboré sur le bassin jaugé et de corrections estimées en fonction des caractéristiques physiques des bassins. Les résultats de l'application de cette méthode sont de bonne qualité et ouvrent la porte à de nombreux axes de recherche pour l'avenir, tout en démontrant encore que l'utilisation de l'apprentissage statistique pour l'hydrologie peut constituer une solution pertinente. / In the French Mediterranean regions, heavy rainfall episodes regularly occur and induce very rapid and voluminous floods called flash floods. They frequently cause fatalities and can cost more than one billion euros during only one event. In order to cope with this issue, the public authorities' implemented countermeasures in which hydrological forecasting plays an essential role.In this contexte, the French Flood Forecasting Service (called SCHAPI for Service Central d'Hydrométéorologie et d'Appui à la Prévision des Inondations) initiated the BVNE (Digital Experimental Basin, for Bassin Versant Numérique Expérimental) project in order to enhance flash flood forecasts. The present work is a part of this project and aim at three main purposes: providing flash flood forecasts on well-gauged basins, poorly gauged basins and ungauged basins.The study area chosen, the Cévennes range, concentrates the major part of these intense hydrometeorological events in France. This dissertation presents it precisely, highlighting its most hydrological-influent characteristics.With regard to the complexity of the rainfall-discharge relation in the focused basins and the difficulty experienced by the physically based models to provide precise information in forecast mode without rainfall forecasts, the use of neural networks statistical learning imposed itself in the research of operational solutions.Thus, the neural networks models were designed and applied to a basin of the Cévennes range, in the well-gauged and poorly gauged contexts. The good results obtained have been the start point of a generalization to 15 basins of the study area.For this purpose, a generalization method was developed from the model created on the gauged basin and from corrections estimated as a function of basin characteristics.The results of this method application are of good quality and open the door to numerous pats of inquiry for the future, while demonstrating again that the use of statistical learning for hydrology can be a relevant solution.
|
92 |
Méthodes de prévision d’ensemble pour l’étude de la prévisibilité à l’échelle convective des épisodes de pluies intenses en Méditerranée / Convective scale predictability of highly precipitating events in the south-east of France : a study using ensemble prediction systems.Vié, Benoît 29 November 2012 (has links)
L'évaluation de l'incertitude associée à la prévision numérique du temps à haute résolution, et en particulier l'estimation de la prévisibilité des événements de fortes précipitations en région méditerranéenne, sont les objectifs de ce travail de thèse. Nous avons procédé à l'étude de quatre sources d'incertitude contrôlant la prévisibilité de ces événements : la description des conditions d'échelle synoptique, la représentation des conditions atmosphériques à méso-échelle (notamment le flux de basses couches alimentant le système convectif), le rôle de processus physiques complexes tels que l'établissement d'une plage froide sous orage, et enfin la définition des conditions de surface. Pour quantifier l'impact de ces différentes sources d'incertitude, nous avons opté pour la méthode des prévisions d'ensemble avec le modèle AROME. Chaque source d'incertitude est étudiée individuellement à travers la génération de perturbations pertinentes, et les ensembles ainsi obtenus sont évalués dans un premier temps pour des cas de fortes précipitations. Nous avons aussi procédé à une évaluation statistique du comportement des prévisions d'ensemble réalisées sur des périodes de prévision longues de deux à quatre semaines. Cette évaluation, ainsi que celle de systèmes de prévision d'ensemble échantillonnant plusieurs sources d'incertitude simultanément, permettent d'établir une hiérarchisation de ces sources d'incertitude et enfin quelques recommandations en vue de la mise en place d'un système de prévision d'ensemble à échelle convective opérationnel à Météo-France / This PhD thesis aims at quantifying the uncertainty of convection-permitting numerical weather forecasts, with a particular interest in the predictability of Mediterranean heavy precipitating events. Four uncertainty sources, which impact the predictability of these events, were investigated : the description of the synoptic-scale circulation, the representation of meso-scale atmospheric conditions (especially the low-level jet feeding the convective systems with moist and unstable air), the impact of complex physical processes such as the setting up of a cold pool, and the definition of surface conditions. To quantify the impact of these four uncertainty sources, the ensemble forecasting technique was chosen, using the AROME model. Each uncertainty source is studied separately through the definition of dedicated perturbations, and the resulting ensembles are first evaluated over heavy precipitation case studies. We then proceed to a statistical evaluation of the ensembles for 2- and 4-week long forecast periods. This evaluation, completed with the design of ensembles sampling several uncertainty sources together, allows us to draw some practical tips for the design of an operational convective scale ensemble forecasting system at Météo-France
|
93 |
Évaluation de la performance des règles de gestion d'un réservoir de production hydroélectrique mises à jour à l'aide de la programmation dynamique stochastique et d'un modèle hydrologiqueMartin, Alexandre January 2016 (has links)
L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures.
À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.
|
94 |
Modélisation statistique de la diversité multi-site aux fréquences comprises entre 20 et 50 GHz / Statistical modeling of multi-site diversity for frequencies between 20 and 50 GHZFayon, Gaëtan 12 December 2017 (has links)
Du fait de la congestion des bandes de fréquences conventionnelles (bandes S, C, Ku) et de la nécessité d'acheminer des débits de plus en plus importants, l'évolution des télécommunications par satellite fournissant des services multimédia à très haut débit se traduit actuellement par une montée en fréquence (bande Ka, 20-30 GHz, pour les liaisons utilisateurs, et bande Q/V, 40-50 GHz, pour les liens avec les stations d'ancrage) pour atteindre une capacité globale de l'ordre du Tb/s. Cependant, cette montée en fréquence rend les futurs systèmes de télécommunications extrêmement vulnérables aux atténuations troposphériques, notamment aux précipitations qui constituent le principal contributeur à l'affaiblissement troposphérique total. Dans ce contexte, la seule utilisation des techniques de codages et de modulation adaptatives, même combinée avec de la gestion de puissance, ne suffit plus. Afin d'exploiter la décorrélation en distance des champs de précipitations, l'utilisation de stations terrestres en diversité de site est étudiée par les opérateurs afin de maintenir un bilan de liaison favorable, en jouant sur une certaine redondance des stations sols pour rediriger les signaux selon les conditions météorologiques locales. Si plusieurs modèles permettant de dimensionner de tels systèmes existent déjà, leur paramétrage n'a pu s'appuyer pour le moment que sur un nombre limité de bases de données expérimentales, à la fois en terme de durée d'acquisition et de climats représentés : les données ne sont bien souvent recueillies que dans des zones climatiques tempérées (Europe et Amérique du Nord) et ne représentent qu'un faible nombre d'années de mesures (une année dans la majorité des cas). Dès lors, le paramétrage, ainsi que la validation, de ces modèles est compromise. Cette thèse propose la définition d'un nouveau modèle, le modèle WRF-EMM, permettant de générer des statistiques de propagation sur une zone géographique de 100 x 100 km2 en couplant le modèle de prévisions météorologiques à haute résolution WRF (Weather Research and Forecasting) à un module électromagnétique EMM (ElectroMagnetic Module) optimisé pour l'occasion. Aux latitudes moyennes, les sorties de ce simulateur sont utilisées pour alimenter les modèles actuels de dimensionnement des systèmes de télécommunications par satellite en diversité de site. Les résultats obtenus sont suffisamment proches des résultats expérimentaux pour envisager d'utiliser le modèle WRF-EMM pour compléter de façon artificielle les bases de données expérimentales existantes et finalement paramétrer les modèles de propagation en respectant les spécificités climatologiques et orographiques locales. En parallèle au développement du modèle WRF-EMM, cette thèse propose également la mise en place d'une nouvelle métrique de test permettant d'intégrer les variabilités interannuelles dans le processus de validation des modèles, ce qui n'était pas le cas jusqu'à maintenant. / Due to the congestion of standard frequency bands (S, C, Ku bands) and the need to offer higher data rates for multimedia services, space communication systems require to be operated at carrier frequencies higher than 20 GHz: Ka-band (20-30 GHz) for user links or Q/V band (40-50 GHz) for feeder links, to reach the Tb/s capacity. However, these frequency bands are submitted to increase tropospheric impairments, in particular rain attenuation which is its major contributor. In this context, the only use of standard fade mitigation techniques (up-link power control and/or adaptive coding and modulation) is not enough to counteract these propagation impairments and the use of gateways in site diversity configurations allows satisfying link budget to be maintained, relying on redundant gateways to reroute data traffic depending on local meteorological conditions. If several models suited to design such systems already exist, their parameterization is based on a limited number of sub-representative experimental data, both in terms of duration and climatic regions: experimental propagation data in a site diversity context have been often measured in temperate regions (Europe and North America) and represent few years of data (only one year in the majority of the cases). As a consequence, the parameterization, and so the validation, of such models is compromised. This PhD thesis proposes the definition of a new model, the WRF-EMM model, allowing rain attenuation time series and statistics to be generated over a grid of 100 x 100 km2, coupling the high resolution weather prediction model WRF (Weather Research and Forecasting) with the EMM (ElectroMagnetic Module), especially optimized during this thesis. Outputs of this simulator can feed site diversity models in order to design future satellite communications systems. At mid-latitudes, the results are promising and the use of the WRF-EMM model to generate site diversity synthetic datasets and to parameterize site diversity models wherever in the world should now be envisaged as an alternative to experimental data. In parallel with the development of the WRF-EMM model, this thesis also proposes the introduction of a new testing metric allowing to integrate the inter- annual variabilities during the validation process of statistical models, which has not been the case until now.
|
95 |
Proposition d’une méthodologie d’évaluation de l’évolution de la qualité en conception de systèmes complexes / Proposal of a methodology to evaluate quality evolution in complex system designGitto, Jean-Philippe 02 February 2018 (has links)
La maîtrise de la qualité est aujourd’hui indispensable pour satisfaire les exigences des clients. Bien qu’il existe différentes méthodes et outils spécialement développés pour manager la qualité des systèmes ou des processus au sein des entreprises, il est difficile d’établir le lien entre la maîtrise des nombreux processus d’une entreprise et la qualité produit pour un système en service. Dans ce contexte, une thèse CIFRE a été menée au sein de MBDA, entreprise qui conçoit, développe et produit des systèmes d’armes. La problématique de cette thèse est de développer une méthodologie permettant de produire une définition de la qualité produit d’un système complexe qui soit valable tout au long de son cycle de vie, et permettant la construction de modèles de prévision de la qualité produit en utilisation lors du développement et de la production. Notre contribution consiste en une méthodologie en deux phases. La première phase permet d’établir une définition de la qualité produit des systèmes complexes du point de vue du client adaptée au contexte industriel en définissant plusieurs facteurs qualité produit qui soit valable pour toutes les phases du cycle de vie des systèmes. La deuxième phase permet de construire des modèles de prévision de la qualité produit qui permettent d’obtenir une évaluation de la qualité tout au long du cycle de vie des systèmes et d’établir une prévision de ce que sera la qualité en utilisation. Les deux phases de la méthodologie reposent sur l’exploitation d’avis d’experts afin de permettre son utilisation sans disposer d’une quantité importante de données. Les modèles construits ont été testés pour des systèmes développés par MBDA. / Today, quality control is essential to satisfy customer requirements. Although there are different methods and tools specially developed to manage the quality of systems or processes within companies, it is difficult to establish the link between management of a company's many processes and product quality for a system in service. In this context, a CIFRE thesis was conducted within MBDA, a company that designs, develops and produces weapons systems. The problem of this thesis is to develop a methodology allowing to produce a definition of the product quality of a complex system which is valid throughout its life cycle, and allowing the construction of models to predict the product quality in use during development and production. Our contribution consists of a two-phase methodology. The first phase makes it possible to establish a definition of the product quality of complex systems from the customer's point of view adapted to the industrial context by defining several product quality factors that are relevant for all phases of the systems life cycle. The second phase builds product quality prediction models that provide a life-cycle quality assessment of the systems and a forecast of what the quality will be in use. Both phases of the methodology rely on the use of experts' judgement to enable its use without a significant amount of data. The models built have been tested for systems developed by MBDA.
|
96 |
Fouille de données pour l'extraction de profils d'usage et la prévision dans le domaine de l'énergie / Data mining for the extraction of usage profiles and forecasting in the energy fieldMelzi, Fateh 17 October 2018 (has links)
De nos jours, les pays sont amenés à prendre des mesures visant à une meilleure rationalisation des ressources en électricité dans une optique de développement durable. Des solutions de comptage communicantes (Smart Meters), sont mises en place et autorisent désormais une lecture fine des consommations. Les données spatio-temporelles massives collectées peuvent ainsi aider à mieux connaitre les habitudes de consommation et pouvoir les prévoir de façon précise. Le but est d'être en mesure d'assurer un usage « intelligent » des ressources pour une meilleure consommation : en réduisant par exemple les pointes de consommations ou en ayant recours à des sources d'énergies renouvelables. Les travaux de thèse se situent dans ce contexte et ont pour ambition de développer des outils de fouille de données en vue de mieux comprendre les habitudes de consommation électrique et de prévoir la production d'énergie solaire, permettant ensuite une gestion intelligente de l'énergie.Le premier volet de la thèse s'intéresse à la classification des comportements types de consommation électrique à l'échelle d'un bâtiment puis d'un territoire. Dans le premier cas, une identification des profils types de consommation électrique journalière a été menée en se basant sur l'algorithme des K-moyennes fonctionnel et sur un modèle de mélange gaussien. A l'échelle d'un territoire et en se plaçant dans un contexte non supervisé, le but est d'identifier des profils de consommation électrique types des usagers résidentiels et de relier ces profils à des variables contextuelles et des métadonnées collectées sur les usagers. Une extension du modèle de mélange gaussien classique a été proposée. Celle-ci permet la prise en compte de variables exogènes telles que le type de jour (samedi, dimanche et jour travaillé,…) dans la classification, conduisant ainsi à un modèle parcimonieux. Le modèle proposé a été comparé à des modèles classiques et appliqué sur une base de données irlandaise incluant à la fois des données de consommations électriques et des enquêtes menées auprès des usagers. Une analyse des résultats sur une période mensuelle a permis d'extraire un ensemble réduit de groupes d'usagers homogènes au sens de leurs habitudes de consommation électrique. Nous nous sommes également attachés à quantifier la régularité des usagers en termes de consommation ainsi que l'évolution temporelle de leurs habitudes de consommation au cours de l'année. Ces deux aspects sont en effet nécessaires à l'évaluation du potentiel de changement de comportement de consommation que requiert une politique d'effacement (décalage des pics de consommations par exemple) mise en place par les fournisseurs d'électricité.Le deuxième volet de la thèse porte sur la prévision de l'irradiance solaire sur deux horizons temporels : à court et moyen termes. Pour ce faire, plusieurs méthodes ont été utilisées parmi lesquelles des méthodes statistiques classiques et des méthodes d'apprentissage automatique. En vue de tirer profit des différents modèles, une approche hybride combinant les différents modèles a été proposée. Une évaluation exhaustive des différents approches a été menée sur une large base de données incluant des paramètres météorologiques mesurés et des prévisions issues des modèles NWP (Numerical Weather Predictions). La grande diversité des jeux de données relatifs à quatre localisations aux climats bien distincts (Carpentras, Brasilia, Pampelune et Ile de la Réunion) a permis de démontrer la pertinence du modèle hybride proposé et ce, pour l'ensemble des localisations / Nowadays, countries are called upon to take measures aimed at a better rationalization of electricity resources with a view to sustainable development. Smart Metering solutions have been implemented and now allow a fine reading of consumption. The massive spatio-temporal data collected can thus help to better understand consumption behaviors, be able to forecast them and manage them precisely. The aim is to be able to ensure "intelligent" use of resources to consume less and consume better, for example by reducing consumption peaks or by using renewable energy sources. The thesis work takes place in this context and aims to develop data mining tools in order to better understand electricity consumption behaviors and to predict solar energy production, then enabling intelligent energy management.The first part of the thesis focuses on the classification of typical electrical consumption behaviors at the scale of a building and then a territory. In the first case, an identification of typical daily power consumption profiles was conducted based on the functional K-means algorithm and a Gaussian mixture model. On a territorial scale and in an unsupervised context, the aim is to identify typical electricity consumption profiles of residential users and to link these profiles to contextual variables and metadata collected on users. An extension of the classical Gaussian mixture model has been proposed. This allows exogenous variables such as the type of day (Saturday, Sunday and working day,...) to be taken into account in the classification, thus leading to a parsimonious model. The proposed model was compared with classical models and applied to an Irish database including both electricity consumption data and user surveys. An analysis of the results over a monthly period made it possible to extract a reduced set of homogeneous user groups in terms of their electricity consumption behaviors. We have also endeavoured to quantify the regularity of users in terms of consumption as well as the temporal evolution of their consumption behaviors during the year. These two aspects are indeed necessary to evaluate the potential for changing consumption behavior that requires a demand response policy (shift in peak consumption, for example) set up by electricity suppliers.The second part of the thesis concerns the forecast of solar irradiance over two time horizons: short and medium term. To do this, several approaches have been developed, including autoregressive statistical approaches for modelling time series and machine learning approaches based on neural networks, random forests and support vector machines. In order to take advantage of the different models, a hybrid model combining the different models was proposed. An exhaustive evaluation of the different approaches was conducted on a large database including four locations (Carpentras, Brasilia, Pamplona and Reunion Island), each characterized by a specific climate as well as weather parameters: measured and predicted using NWP models (Numerical Weather Predictions). The results obtained showed that the hybrid model improves the results of photovoltaic production forecasts for all locations
|
97 |
Observation adaptative : limites de la prévision et du contrôle des incertitudes / Adaptive Observation : limits of the forecast and monitoring of the uncertaintiesOger, Niels 02 July 2015 (has links)
L'observation adaptative (OA) est une pratique de prévision numérique du temps (PNT) qui cherche à prévoir quel jeu (ou réseau) d'observations supplémentaires à déployer et à assimiler dans le futur améliorera les prévisions. L'objectif est d'accroître la qualité des prévisions météorologiques en ajoutant des observations là où elles auront le meilleur impact (optimal). Des méthodes numériques d'OA apportent des réponses objectives mais partielles. Elles prennent en compte à la fois les aspects dynamiques de l'atmosphère à travers le modèle adjoint, et aussi le système d'assimilation de données. Le système d'assimilation de données le plus couramment utilisé pour l'OA est le 4D-Var. Ces méthodes linéaires (technologie de l'adjoint) reposent cependant sur une réalisation déterministe (ou trajectoire) unique. Cette trajectoire est entachée d'une incertitude qui affecte l'efficacité de l'OA. Le point de départ de ce travail est d'évaluer l'impact de l'incertitude associée au choix de cette trajectoire sur une technique: la KFS. Un ensemble de prévisions est utilisé pour étudier cette sensibilité. Les expériences réalisées dans un cadre simplifié montrent que les solutions de déploiement peuvent changer en fonction de la trajectoire choisie. Il est d'autant plus nécessaire de prendre cette incertitude en considération que le système d'assimilation utilisé n'est pas vraiment optimal du fait de simplifications liées à sa mise en oeuvre. Une nouvelle méthode d'observation adaptative, appelée Variance Reduction Field (VRF), a été développée dans le cadre de cette thèse. Cette méthode permet de déterminer la réduction de variance de la fonction score attendue en assimilant une pseudo-observation supplémentaire pour chaque point de grille. Deux approches de la VRF sont proposées, la première est basée sur une simulation déterministe. Et la seconde utilise un ensemble d'assimilations et de prévisions. Les deux approches de la VRF ont été implémentées et étudiées dans le modèle de Lorenz 96. Le calcul de la VRF à partir d'un ensemble est direct si l'on dispose déjà des membres de l'ensemble. Le modèle adjoint n'est pas nécessaire pour le calcul.L'implémentation de la VRF dans un système de prévision du temps de grande taille, tel qu'un système opérationnel, n'a pas pu être réalisée dans le cadre de cette thèse. Cependant, l'étude de faisabilité de la construction de la VRF dans l'environnement OOPS a été menée. Une description de OOPS (version 2013) est d'abord présentée dans le manuscrit, car cet environnement est une nouveauté en soi. Elle est suivie de la réflexion sur les développements à introduire pour l'implémentation de la VRF. / The purpose of adaptive observation (AO) strategies is to design optimal observation networks in a prognostic way to provide guidance on how to deploy future observations. The overarching objective is to improve forecast skill. Most techniques focus on adding observations. Some AO techniques account for the dynamical aspects of the atmosphere using the adjoint model and for the data assimilation system (DAS), which is usually either a 3D or 4D-Var (ie. solved by the minimization of a cost function). But these techniques rely on a single (linearisation) trajectory. One issue is to estimate how the uncertainty related to the trajectory affects the efficiency of one technique in particular: the KFS. An ensemble-based approach is used to assess the sensitivity to the trajectory within this deterministic approach (ie. with the adjoint model). Experiments in a toy model show that the trajectory uncertainties can lead to significantly differing deployments of observations when using a deterministic AO method (with adjoint model and VDAS). This is especially true when we lack knowledge on the VDAS component. During this work a new tool for observation targeting called Variance Reduction Field (VRF)has been developed. This technique computes the expected variance reduction of a forecast Score function that quantifies forecast quality. The increase of forecast quality that is a reduction of variance of that function is linked to the location of an assimilated test probe. Each model grid point is tested as a potential location. The VRF has been implemented in a Lorenz 96 model using two approaches. The first one is based on a deterministic simulation. The second approach consists of using an ensemble data assimilation and prediction system. The ensemble approach can be easily implemented when we already have an assimilation ensemble and a forecast ensemble. It does not need the use of the adjoint model. The implementation in real NWP system of the VRF has not been conducted during this work. However a preliminary study has been done to implement the VRF within OOPS (2013 version). After a description of the different components of OOPS, the elements required for the implementation of the VRF are described.
|
98 |
Quelles approches pour l'amélioration de l'assimilation des radiances nuageuses IASI en prévision numérique du temps ? / What approaches for improving the assimilation of IASI cloud radiances in numerical weather prediction?Farouk, Imane 19 December 2018 (has links)
La génération actuelle des sondeurs infrarouges avancés constitue l’une des sources les plus importantes d’observation dans les systèmes d’assimilation de données dans les modèles de la Prévision Numérique du Temps (PNT). Cependant la richesse d’informations fournies par ce type de capteur avec son grand nombre de canaux et sa couverture globale est loin d’être complètement exploitée. La présence de nuages dans le champ de vision de l’instrument, qui affecte la majorité des observations, est l’une des raisons pour lesquelles les centres de PNT rejettent une grande quantité des observations des sondeurs. Les centres de PNT ont cependant commencé à assimiler au-dessus des océans les radiances affectées par les nuages en utilisant des canaux dont les effets radiatifs nuageux sont modélisés par un modèle de nuage simple. Certains de ces algorithmes de détection sont évalués dans ce manuscrit, et leurs limitations sont explicitées. Afin d’accroître la quantité de données assimilées, il est nécessaire de mieux représenter les nuages et leurs effets radiatifs. Depuis quelques années, des études ont été menées pour mieux représenter leurs effets dans les modèles de transfert radiatif ([Faijan et al., 2012] ; [Martinet et al., 2013]) ; et utiliser dans l’assimilation de nouveaux canaux infrarouges informatifs sur les hydrométéores nuageux. ([Martinet et al., 2014]). Cette thèse se concentre principalement sur ces méthodes de détection de scènes homogènes en consacrant sa majeur partie à l’établissement, l’évaluation et l’amélioration d’algorithme de détection de scènes homogènes en se basant sur la colocalistion d’observation avec d’autres sondeurs. Ces études sont rendus possibles par la prise en compte des champs d’hydrométéores fournis par les schémas convectifs du modèle ARPEGE en entrée du modèle de transfert radiatif nuageux RTTOV-CLD. Une partie validation des simulations est opérée dans cette thèse, en comparant l’apport les forces et faiblesses du schéma convectif en opérationnel ainsi que PCMT. Par la suite, différents tests, ou critères, de détection sont proposés, et en réalisant des expériences d’assimilation et en évaluant l’impact de ces ces critères de sélection proposés sur la qualité des prévisions à longues échéances, un des tests parmi ceux proposés se démarque des autres en conservant une quantité importante d’observation ciel clair et démontre des impacts neutres à légèrement positifs sur les prévisions. Les nouvelles méthodes de sélection de scènes homogènes proposées dans cette études permettent d’envisager une amélioration significative du contrôle de qualité des observation IASI en ciel clair. Cela ouvre ainsi donc la voie à une utilisation, plus maîtrisée, des scènes nuageuses. Nous expliquons dans ce manuscrit pourquoi il serait imprudent de précéder à des assimilation de radiances infrarouge contaminées par la présence de nuages. Pour contourner cette difficulté, une technique d’assimilation en deux étapes déjà utilisé pour l’assimilation des réflectivité radar ([Wattrelot et al., 2014]) dans AROME est évaluée. Cette méthode basée sur l’inversion bayésienne a récemment été adaptée pour les observations microondes satellitaire ([Duruisseau et al., 2018]). Dans cette étude, nous explorons cette technique pour les observations IASI. Plusieurs tests de sensibilité sont effectués sur les différents paramètres de l’algorithme, avec pour objectif de préparer de futurs travaux sur l’assimilation all-sky infrarouges, explicités dans les perspectives de ce manuscrit. / The current generation of advanced infrared sounders is one of the most important sources of observations in data assimilation systems in numerical weather prediction (NWP) models. However, the total amount of information provided by this type of sensor, with its large number of channels and its global coverage, is far from being fully exploited. The presence of clouds in the instrument’s field of view, which affects the majority of observations, is one of the reasons why NWP centers reject a large amount of observations from sounders. NWP centers, however, have begun to assimilate cloud-affected radiances over the oceans using channels whose cloudy radiative effects are modeled by a simple cloud model. Some of these detection algorithms are evaluated in this manuscript, and their limitations are clarified. In order to increase the amount of assimilated data, it is necessary to better represent clouds and their radiative effects in the models. For several years, studies have been conducted to better represent their effects in radiative transfer models ([Faijan et al., 2012] ; [Martinet et al., 2013]) ; and to use new informative infrared channels of cloudy hydrometeors in the assimilation. [Martinet et al., 2014]. This thesis focuses on several approaches for the assimilation of cloudy radiances. In the first part, the characterization of the cloud parameters currently used for the assimilation of cloudy radiances was evaluated in the global and regional scale models. In addition, as part of the "all-sky" assimilation, which considers both clear and cloudy radiances, the evaluation and improvement of homogeneous scene detection algorithms based on the colocation of observations with other imagers was studied. These studies are made possible by taking into account the hydrometeorological fields provided by the convective schemes of the ARPEGE model as the input of the RTTOV-CLD cloud radiative transfer model. Part of this thesis concerns the validation of simulations, by comparing the contribution of the new convective PCMT scheme to the one used in operational applications. Subsequently, different criteria for selecting homogeneous scenes are proposed. By conducting assimilation experiments and evaluating the impact of these proposed selection criteria on the quality of long-term forecasts, one of the proposed tests stands out from the others by keeping a significant amount of clear sky observations and demonstrating neutral to slightly positive impacts on the forecasts. These new methods for selecting homogeneous scenes proposed in this study allows the consideration of improving the quality control of IASI observations in clear sky. To address the issue of all-sky radiance data assimilation, the two-step assimilation technique, already used for radar reflectivity assimilation in AROME ([Wattrelot et al., 2014]), was evaluated for IASI radiances in the ARPEGE model in a case study. This method based on Bayesian inversion has recently been adapted for satellite microwave observations ([Duruisseau et al., 2018]). Several sensitivity tests were carried out on the different parameters of the algorithm, with the objective of preparing for future work on infrared all-sky assimilation, as explained in the perspectives of this manuscript.
|
99 |
Analyse comparée des politiques publiques de gestion du risque volcanique dans les caraïbes insulaires : le cas de la Guadeloupe en 1976 et de Monserrat en 1997 / Comparative Analysis of Public Policies for Volcanic Risk Management in the Caribbean Caribbean Islands : the case of Guadeloupe in 1976 and Monserrat in 1997Baillard, Marie-Denise 28 February 2018 (has links)
Les îles du bassin caribéen figurent parmi les territoires dans le monde ayant la particularité d’être exposés à tous les types de risque naturel à l’exception du risque d’avalanche. Pourtant, le bilan global quant à leur prise en compte effective reste peu satisfaisant : En effet on constate des lacunes tant au niveau de l’information des populations qu’au niveau des moyens « administratifs et techniques » de réponse au risque. Le risque volcanique en particulier, bien que concernant onze territoires dans les petites Antilles, est relativement « éclipsé » par les autres risques dans les agendas gouvernementaux. Or, les « poudrières » de la Caraïbe sont pour la plupart actives. De plus, du fait de leur exiguïté et de la concentration de populations et d’infrastructures aux abords des volcans ; les territoires insulaires ont une vulnérabilité accrue. Des manifestations violentes peuvent entraîner, comme l’ont montré les cas de la Montagne Pelée en Martinique (1902) et plus récemment celui de la Soufrière Hills à Montserrat (1995 à nos jours), un bilan humain particulièrement lourd. Surtout, même en tempérant le risque de perte de vies humaines grâce à la prévision, une crise volcanique majeure reste synonyme de désastre économique. Le caractère exceptionnel des manifestations volcaniques suffit-il à expliquer ce bilan ? Cette interrogation première nous amène à questionner les mécanismes caractérisant la gestion du risque volcanique dans les Caraïbes insulaires. Notre étude porte ainsi sur les deux crises qui ont été les plus débattues en matière de retour d’expérience : celle de la Soufrière de Guadeloupe en 1976 et celle de la Soufrière Hills de Montserrat, qui a connu son pic en 1997. La comparaison des politiques publiques de gestion des crises étudiées nous permet d’identifier les facteurs orientant la stratégie des autorités compétentes en amont et en aval des crises. / The islands of the Caribbean basin are among the territories in the world having the distinction of being exposed to all types of natural hazard except avalanche risk. However, the overall assessment of their effective consideration remains unsatisfactory: Indeed, there are gaps in both the information of the population and the level of "administrative and technical" means of response to risk. Volcanic risk in particular, although affecting eleven territories in the Lesser Antilles, is relatively "overshadowed" by other risks in government agendas. However, the "powder keg" of the Caribbean are mostly active. Moreover, because of their small size and the concentration of populations and infrastructures around volcanoes; island territories have increased vulnerability. Violent demonstrations can lead, as has been shown in the cases of Mount Pelee in Martinique (1902) and more recently that of the Soufrière Hills in Montserrat (1995 to the present day), a particularly heavy human toll. Above all, even with the risk of loss of life due to the forecast, a major volcanic crisis is synonymous with economic disaster.Is the exceptional character of volcanic events enough to explain this assessment? This first interrogation leads us to question the mechanisms characterizing the volcanic risk management in the insular Caribbean.Our study thus focuses on the two crises that have been the most debated in terms of feedback: that of Soufrière Guadeloupe in 1976 and that of Soufrière Hills Montserrat, which peaked in 1997. The comparison of public crisis management policies studied allows us to identify the factors guiding the strategy of the competent authorities upstream and downstream of crises.
|
100 |
Prévision et spatialisation des concentrations en ozone troposphérique en BourgogneHouzé, Marie-Laure 11 December 2006 (has links) (PDF)
La thèse, réalisée au Centre de Recherches de Climatologie, UMR 5210 CNRS / Université de Bourgogne, a été co-financée par le Conseil Régional de Bourgogne et les Associations agréées de Surveillance de la Qualité de l'Air (AASQA) de la région (Atmosf'Air). Elle porte sur l'ozone, gaz toxique que les concentrations placent parmi les polluants atmosphériques les plus préoccupants de la région. Les concentrations horaires en ozone mesurées sur quelques années dans douze stations bourguignonnes sont analysées. Leurs variations spatiales et temporelles sont mises en relation avec certains éléments extra-régionaux (ozone de fond, conditions synoptiques) et infra-régionaux (propriétés physiques, occupation du sol, caractéristiques météorologiques locales et potentiel d'émission de précurseurs). Le deuxième volet concerne l'élaboration d'une méthode statistico-dynamique de prévision des concentrations maximales d'ozone pour le lendemain pour cinq stations Atmosf'Air dans l'agglomération dijonnaise, trois dans celle de Chalon-sur-Saône, deux à Mâcon, une à Montceau-les-Mines et une station rurale, dans le Morvan, à Saint-Brisson. Nous avons élaboré les modèles de prévisions avec le concours de Météo-France. Ils intègrent des prévisions météorologiques extraites d'ALADIN. La chimie est également prise en compte, puisque peuvent être intégrés dans les modèles de régressions multiples retenus, des précurseurs (oxyde d'azote) ou l'ozone mesuré par Atmosf'Air le jour où est effectuée la prévision. L'erreur moyenne de prévision est d'environ 20 μg/m3. Grâce à l'application d'un correctif qui renforce le « dynamisme » des prévisions, les pics d'ozone sont correctement prévus. Les erreurs résiduelles sont analysées et indiquent que les modèles atténuent légèrement les variations de concentrations observées lors des changements brutaux de types de temps. Des erreurs ponctuelles, mais plus fortes, sont liées à des erreurs de prévisions météorologiques ou à des concentrations anormales de précurseurs. Au total, ces prévisions sont performantes et plus fines spatialement que celles issues des modèles déterministes. Leur intérêt est indéniable localement pour informer et alerter les populations concernées. Enfin, en s'appuyant sur les résultats d'une campagne de mesures terrain (104 points échantillonnés par tubes à diffusion passive), distribués sur l'ensemble de la Bourgogne en août 2000, nous avons cherché à mieux comprendre les déterminants de la répartition spatiale de l'ozone et par conséquent les mécanismes mis en jeux. Une démarche descendante utilisant les méthodes de l'analyse et de la statistique spatiale a été développée. Tout d'abord, des indices sur les propriétés de la surface ont été créés à partir des données compilées (MNT, occupation du sol, champs atmosphériques simulés) et avec l'aide d'un Système d'Information Géographique (SIG). Ensuite, la structuration spatiale de l'ozone a été étudiée à partir de l'analyse variographique directe et croisée. Nous avons interprété ces comportements à partir des états de l'atmosphère et des indices de la surface. En plus de la forte anisotropie observée sur la répartition spatiale de l'ozone, les résultats ont fait ressortir deux types de structuration en accord avec deux situations météorologiques contrastées. Un premier type correspond à une configuration peu favorable à la formation d'ozone. Dans ce cas, la structure spatiale de l'ozone à l'échelle de la région est fortement corrélée à la rugosité de la surface. Un deuxième type correspond à une situation favorable à la production d'ozone. Nous montrons alors le forçage « biologique » de la surface sur le champ d'ozone, via des grandes classes combinant rugosité de surface et occupation du sol. Ainsi, une forte corrélation entre la concentration en ozone en un point et la proportion de forêt mixte en amont de ce point est observée. Dans tous les cas, les résultats démontrent la complexité des mécanismes et le forçage de la répartition spatiale de l'ozone en Bourgogne par la surface.
|
Page generated in 0.1215 seconds