• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • 1
  • Tagged with
  • 7
  • 7
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation statistique de la diversité multi-site aux fréquences comprises entre 20 et 50 GHz / Statistical modeling of multi-site diversity for frequencies between 20 and 50 GHZ

Fayon, Gaëtan 12 December 2017 (has links)
Du fait de la congestion des bandes de fréquences conventionnelles (bandes S, C, Ku) et de la nécessité d'acheminer des débits de plus en plus importants, l'évolution des télécommunications par satellite fournissant des services multimédia à très haut débit se traduit actuellement par une montée en fréquence (bande Ka, 20-30 GHz, pour les liaisons utilisateurs, et bande Q/V, 40-50 GHz, pour les liens avec les stations d'ancrage) pour atteindre une capacité globale de l'ordre du Tb/s. Cependant, cette montée en fréquence rend les futurs systèmes de télécommunications extrêmement vulnérables aux atténuations troposphériques, notamment aux précipitations qui constituent le principal contributeur à l'affaiblissement troposphérique total. Dans ce contexte, la seule utilisation des techniques de codages et de modulation adaptatives, même combinée avec de la gestion de puissance, ne suffit plus. Afin d'exploiter la décorrélation en distance des champs de précipitations, l'utilisation de stations terrestres en diversité de site est étudiée par les opérateurs afin de maintenir un bilan de liaison favorable, en jouant sur une certaine redondance des stations sols pour rediriger les signaux selon les conditions météorologiques locales. Si plusieurs modèles permettant de dimensionner de tels systèmes existent déjà, leur paramétrage n'a pu s'appuyer pour le moment que sur un nombre limité de bases de données expérimentales, à la fois en terme de durée d'acquisition et de climats représentés : les données ne sont bien souvent recueillies que dans des zones climatiques tempérées (Europe et Amérique du Nord) et ne représentent qu'un faible nombre d'années de mesures (une année dans la majorité des cas). Dès lors, le paramétrage, ainsi que la validation, de ces modèles est compromise. Cette thèse propose la définition d'un nouveau modèle, le modèle WRF-EMM, permettant de générer des statistiques de propagation sur une zone géographique de 100 x 100 km2 en couplant le modèle de prévisions météorologiques à haute résolution WRF (Weather Research and Forecasting) à un module électromagnétique EMM (ElectroMagnetic Module) optimisé pour l'occasion. Aux latitudes moyennes, les sorties de ce simulateur sont utilisées pour alimenter les modèles actuels de dimensionnement des systèmes de télécommunications par satellite en diversité de site. Les résultats obtenus sont suffisamment proches des résultats expérimentaux pour envisager d'utiliser le modèle WRF-EMM pour compléter de façon artificielle les bases de données expérimentales existantes et finalement paramétrer les modèles de propagation en respectant les spécificités climatologiques et orographiques locales. En parallèle au développement du modèle WRF-EMM, cette thèse propose également la mise en place d'une nouvelle métrique de test permettant d'intégrer les variabilités interannuelles dans le processus de validation des modèles, ce qui n'était pas le cas jusqu'à maintenant. / Due to the congestion of standard frequency bands (S, C, Ku bands) and the need to offer higher data rates for multimedia services, space communication systems require to be operated at carrier frequencies higher than 20 GHz: Ka-band (20-30 GHz) for user links or Q/V band (40-50 GHz) for feeder links, to reach the Tb/s capacity. However, these frequency bands are submitted to increase tropospheric impairments, in particular rain attenuation which is its major contributor. In this context, the only use of standard fade mitigation techniques (up-link power control and/or adaptive coding and modulation) is not enough to counteract these propagation impairments and the use of gateways in site diversity configurations allows satisfying link budget to be maintained, relying on redundant gateways to reroute data traffic depending on local meteorological conditions. If several models suited to design such systems already exist, their parameterization is based on a limited number of sub-representative experimental data, both in terms of duration and climatic regions: experimental propagation data in a site diversity context have been often measured in temperate regions (Europe and North America) and represent few years of data (only one year in the majority of the cases). As a consequence, the parameterization, and so the validation, of such models is compromised. This PhD thesis proposes the definition of a new model, the WRF-EMM model, allowing rain attenuation time series and statistics to be generated over a grid of 100 x 100 km2, coupling the high resolution weather prediction model WRF (Weather Research and Forecasting) with the EMM (ElectroMagnetic Module), especially optimized during this thesis. Outputs of this simulator can feed site diversity models in order to design future satellite communications systems. At mid-latitudes, the results are promising and the use of the WRF-EMM model to generate site diversity synthetic datasets and to parameterize site diversity models wherever in the world should now be envisaged as an alternative to experimental data. In parallel with the development of the WRF-EMM model, this thesis also proposes the introduction of a new testing metric allowing to integrate the inter- annual variabilities during the validation process of statistical models, which has not been the case until now.
2

Impact d'un modèle de covariance d'erreur de prévision basé sur les fonctions de sensibilité dans un 3D-VAR

Lupu, Cristina January 2006 (has links) (PDF)
Les fonctions de sensibilité dites a posteriori permettent de caractériser des corrections aux conditions initiales qui peuvent réduire significativement l'erreur de prévision à une échéance donnée (typiquement 24 ou 48 heures). L'erreur est ici définie par l'écart à une analyse de vérification et la fonction de sensibilité ne peut donc être calculée qu'a posteriori. De telles structures dépendent de la nature de l'écoulement et ne sont pas prises en compte dans le modèle de covariance d'erreur de prévision stationnaire utilisé dans un système d'assimilation de données variationnelle 3D (3D-Var) comme celui du Centre Météorologique Canadien (CMC). Pour remédier à ceci, Hello et Bouttier (2001) ont introduit une formulation différente des covariances d'erreur de prévision qui permet d'inclure les fonctions de structure basées sur des fonctions de sensibilité a priori définissant la structure de changements aux conditions initiales qui ont le plus d'impact sur une prévision d'échéance donnée. Dans ce cas, l'amplitude de cette correction est déterminée en s'ajustant aux observations disponibles. Dans ce projet, une formulation différente est proposée et comparée à celle de Hello et Bouttier (2001). L'algorithme, appelé 3D-Var adapté, est tout d'abord présenté et analysé dans le cadre plus simple d'une analyse variationnelle 1D (1D-Var) pour être ensuite introduit dans le 3D-Var du CMC. L'impact du changement apporté a été étudié en utilisant les fonctions de sensibilité a posteriori associées à une prévision manquée sur la côte est de l'Amérique du Nord. En mesurant globalement l'erreur de prévision, la fonction de sensibilité indique qu'il est nécessaire d'apporter des corrections à l'analyse sur différentes régions du globe. Pour le 3D-Var adapté, ceci conduit à une fonction de structure non localisée et l'amplitude de la correction est caractérisée par un seul paramètre défini par l'ensemble des observations disponibles. En comparant aux prévisions issues du 3D-Var opérationnel ou de l'analyse de sensibilité, la prévision issue de l'analyse du 3D-Var adapté est améliorée par rapport à celle du 3D-Var conventionel mais nettement moins que celle issue de l'analyse de sensibilité. Par contre, le 3D-Var adapté améliore l'ajustement de l'analyse aux observations alors que l'analyse de sensibilité le dégrade. En localisant la mesure de l'erreur de prévision sur la région correspondant au système météorologique du cas étudié sur la côte est de l'Amérique du Nord, la fonction de sensibilité est maintenant localisée sur une région mieux délimitée (dite région sensible). Il est également possible de varier la fenêtre temporelle utilisée pour définir la fonction de sensibilité. L'impact sur la qualité de l'analyse et des prévisions résultantes a été étudié autant pour l'analyse de sensibilité que pour le 3D-Var adapté. Les résultats montrent que la définition d'une fonction de structure appropriée pour un système d'assimilation vise à simultanément concorder aux observations disponibles et améliorer la qualité des prévisions. Les résultats obtenus montrent que l'utilisation des fonctions de sensibilité comme fonctions de structures n'est pas immédiate. Bien que limitées à un seul cas, nos expériences indiquent certaines pistes intéressantes pour définir des fonctions de sensibilité pouvant être utilisées comme fonctions de structures. Ces idées pourraient s'appliquer également aux fonctions de sensibilité a priori.
3

Simulating climate over North America and atmospheric low-frequency variability using variable resolution modeling approach

Markovic, Marko 05 1900 (has links) (PDF)
Les modèles climatiques à résolution variable, dont les modèles à grille étirée, permettent l'utilisation d'une fine résolution sur les zones d'intérêts, résolution hors d'atteinte pour les modèles mondieux. L'approche à résolution variable possède aussi l'avantage d'une grande efficacité concernant l'utilisation des ressources de calcul. L'absence dans de tels modèles de conditions aux frontières latérales représente aussi un atout pour la simulation du climat à l'échelle mondiale mais aussi régionale. Cette étude à pour objectif d'évaluer la simulation du climat nord-américain à l'aide de la configuration à résolution variable du Global Multiscale model (SGM-GEM) afin d'évaluer les bénéfices respectifs de localiser la zone de haute résolution localement, au-dessus de l'Amérique du Nord, ou au-dessus du Pacifique équatorial, région de forçage important pour la variabilité du climat nord-américain. De plus, nous avons étudié les bénéfices potentiels de l'approche à résolution variable avec une emphase sur les téléconnections entre les anomalies de la température de surface de la mer et le climat nord-américain. Nous avons évalué des ensembles de simulations de prédiction saisonnière des mois hivernaux d'années ENSO sélectionnées. Les ensembles comprennent 10 membres pour chacune des configurations du SGM-GEM présentées précédemment. En comparaison avec la version de GEM à grille uniforme (simulation de référence), il a été démontré que les simulations utilisant l'approche à résolution variable, pour chacune des configurations, reproduisent généralement mieux les observations au-dessus de leurs zones à haute résolution, malgré une détérioration de certaines variables. De plus, certaines erreurs systématiques observées dans la simulation de référence demeurent présentes dans les simulations du SGM-GEM. La localisation de la zone de haute résolution au-dessus d'une zone de forçage important (Pacifique équatorial) ne semble pas provoquer une amélioration nette du climat au-dessus de la région d'intérêt (Amérique du Nord) pour les simulations climatiques multi-annuelles. Chacune des configurations du SGM-GEM testée simule des téléconnections réalistes associées au mode dominant de la variabilité interannuelle des anomalies de la SST du Pacifique équatorial. Les simulations SGM-GEM avec la zone de haute résolution au-dessus du continent nord-américain reproduisent avec plus de précision les anomalies de la température près de la surface et obtiennent de meilleures résultats d'analyse (skill scores) pour l'ensemble du continent. Par contre, aucune configuration ne semble indiquer une amélioration claire de la simulation du géopotentiel à 500hPa au-dessus du continent. Les erreurs dans la prévision du rapport signal-bruit est le résultat des non-linéarités des réponses aux deux composites ENSO et interprétées comme le résultat des incohérences des réactions du modèle atmosphérique aux différentes anomalies de la température de surface de la mer. Les résultats de cette étude ne peuvent démontrer que, dans un contexte de prédiction saisonnière, l'approche à résolution variable représente un avantage en comparaison à l'approche à résolution uniforme. L'amélioration de la prédiction des champs de surface produite par les simulations SGM-GEM semble être reliée à une représentation plus précise du bilan radiatif de surface et à d'autres processus de surface directement liés au schéma de surface utilisé. ______________________________________________________________________________
4

Statistical Post-processing of Deterministic and Ensemble Wind Speed Forecasts on a Grid / Post-traitements statistiques de prévisions de vent déterministes et d'ensemble sur une grille

Zamo, Michaël 15 December 2016 (has links)
Les erreurs des modèles de prévision numérique du temps (PNT) peuvent être réduites par des méthodes de post-traitement (dites d'adaptation statistique ou AS) construisant une relation statistique entre les observations et les prévisions. L'objectif de cette thèse est de construire des AS de prévisions de vent pour la France sur la grille de plusieurs modèles de PNT, pour les applications opérationnelles de Météo-France en traitant deux problèmes principaux. Construire des AS sur la grille de modèles de PNT, soit plusieurs milliers de points de grille sur la France, demande de développer des méthodes rapides pour un traitement en conditions opérationnelles. Deuxièmement, les modifications fréquentes des modèles de PNT nécessitent de mettre à jour les AS, mais l'apprentissage des AS requiert un modèle de PNT inchangé sur plusieurs années, ce qui n'est pas possible dans la majorité des cas.Une nouvelle analyse du vent moyen à 10 m a été construite sur la grille du modèle local de haute résolution (2,5 km) de Météo-France, AROME. Cette analyse se compose de deux termes: une spline fonction de la prévision la plus récente d'AROME plus une correction par une spline fonction des coordonnées du point considéré. La nouvelle analyse obtient de meilleurs scores que l'analyse existante, et présente des structures spatio-temporelles réalistes. Cette nouvelle analyse, disponible au pas horaire sur 4 ans, sert ensuite d'observation en points de grille pour construire des AS.Des AS de vent sur la France ont été construites pour ARPEGE, le modèle global de Météo-France. Un banc d'essai comparatif désigne les forêts aléatoires comme meilleure méthode. Cette AS requiert un long temps de chargement en mémoire de l'information nécessaire pour effectuer une prévision. Ce temps de chargement est divisé par 10 en entraînant les AS sur des points de grille contigü et en les élaguant au maximum. Cette optimisation ne déteriore pas les performances de prévision. Cette approche d'AS par blocs est en cours de mise en opérationnel.Une étude préalable de l'estimation du « continuous ranked probability score » (CRPS) conduit à des recommandations pour son estimation et généralise des résultats théoriques existants. Ensuite, 6 AS de 4 modèles d'ensemble de PNT de la base TIGGE sont combinées avec les modèles bruts selon plusieurs méthodes statistiques. La meilleure combinaison s'appuie sur la théorie de la prévision avec avis d'experts, qui assure de bonnes performances par rapport à une prévision de référence. Elle ajuste rapidement les poids de la combinaison, un avantage lors du changement de performance des prévisions combinées. Cette étude a soulevé des contradictions entre deux critères de choix de la meilleure méthode de combinaison : la minimisation du CRPS et la platitude des histogrammes de rang selon les tests de Jolliffe-Primo. Il est proposé de choisir un modèle en imposant d'abord la platitude des histogrammes des rangs. / Errors of numerical weather prediction (NWP) models can be reduced thanks to post-processing methods (model output statistics, MOS) that build a statistical relationship between the observations and associated forecasts. The objective of the present thesis is to build MOS for windspeed forecasts over France on the grid of several NWP models, to be applied on operations at Météo-France, while addressing the two main issues. First, building MOS on the grid of some NWP model, with thousands of grid points over France, requires to develop methods fast enough for operational delays. Second, requent updates of NWP models require updating MOS, but training MOS requires an NWP model unchanged for years, which is usually not possible.A new windspeed analysis for the 10 m windspeed has been built over the grid of Météo-France's local area, high resolution (2,5km) NWP model, AROME. The new analysis is the sum of two terms: a spline with AROME most recent forecast as input plus a correction with a spline with the location coordinates as input. The new analysis outperforms the existing analysis, while displaying realistic spatio-temporal patterns. This new analysis, now available at an hourly rate over 4, is used as a gridded observation to build MOS in the remaining of this thesis.MOS for windspeed over France have been built for ARPEGE, Météo-France's global NWP model. A test-bed designs random forests as the most efficient MOS. The loading times is reduced by a factor 10 by training random forests over block of nearby grid points and pruning them as much as possible. This time optimisation goes without reducing the forecast performances. This block MOS approach is currently being made operational.A preliminary study about the estimation of the continuous ranked probability score (CRPS) leads to recommendations to efficiently estimate it and to generalizations of existing theoretical results. Then 4 ensemble NWP models from the TIGGE database are post-processed with 6 methods and combined with the corresponding raw ensembles thanks to several statistical methods. The best combination method is based on the theory of prediction with expert advice, which ensures good forecast performances relatively to some reference forecast. This method quickly adapts its combination weighs, which constitutes an asset in case of performances changes of the combined forecasts. This part of the work highlighted contradictions between two criteria to select the best combination methods: the minimization of the CRPS and the flatness of the rank histogram according to the Jolliffe-Primo tests. It is proposed to choose a model by first imposing the flatness of the rank histogram.
5

Dimensionnement et gestion d’un stockage d’énergie pour l'atténuation des incertitudes de production éolienne / Sizing and control of an energy storage system to mitigate wind power uncertainty

Haessig, Pierre 17 July 2014 (has links)
Le contexte de nos travaux de thèse est l'intégration de l'énergie éolienne sur les réseaux insulaires. Ces travaux sont soutenus par EDF SEI, l'opérateur électrique des îles françaises. Nous étudions un système éolien-stockage où un système de stockage d'énergie doit aider un producteur éolien à tenir, vis-à-vis du réseau, un engagement de production pris un jour à l'avance. Dans ce contexte, nous proposons une démarche pour l'optimisation du dimensionnement et du contrôle du système de stockage (gestion d'énergie). Comme les erreurs de prévision J+1 de production éolienne sont fortement incertaines, la gestion d'énergie du stockage est un problème d'optimisation stochastique (contrôle optimal stochastique). Pour le résoudre, nous étudions tout d'abord la modélisation des composants du système (modélisation énergétique du stockage par batterie Li-ion ou Sodium-Soufre) ainsi que des entrées (modélisation temporelle stochastique des entrées incertaines). Nous discutons également de la modélisation du vieillissement du stockage, sous une forme adaptée à l'optimisation de la gestion. Ces modèles nous permettent d'optimiser la gestion de l'énergie par la méthode de la programmation dynamique stochastique (SDP). Nous discutons à la fois de l'algorithme et de ses résultats, en particulier de l'effet de la forme des pénalisations sur la loi de gestion. Nous présentons également l'application de la SDP sur des problèmes complémentaires de gestion d'énergie (lissage de la production d'un houlogénérateur, limitation des rampes de production éolienne). Cette étude de l'optimisation de la gestion permet d'aborder l'optimisation du dimensionnement (choix de la capacité énergétique). Des simulations temporelles stochastiques mettent en évidence le fort impact de la structure temporelle (autocorrélation) des erreurs de prévision sur le besoin en capacité de stockage pour atteindre un niveau de performance donné. La prise en compte de paramètres de coût permet ensuite l'optimisation du dimensionnement d'un point de vue économique, en considérant les coûts de l'investissement, des pertes ainsi que du vieillissement. Nous étudions également le dimensionnement du stockage lorsque la pénalisation des écarts à l'engagement comporte un seuil de tolérance. Nous terminons ce manuscrit en abordant la question structurelle de l'interaction entre l'optimisation du dimensionnement et celle du contrôle d'un système de stockage, car ces deux problèmes d'optimisation sont couplés. / The context of this PhD thesis is the integration of wind power into the electricity grid of small islands. This work is supported by EDF SEI, the system operator for French islands. We study a wind-storage system where an energy storage is meant to help a wind farm operator fulfill a day-ahead production commitment to the grid. Within this context, we propose an approach for the optimization of the sizing and the control of the energy storage system (energy management). Because day-ahead wind power forecast errors are a major source of uncertainty, the energy management of the storage is a stochastic optimization problem (stochastic optimal control). To solve this problem, we first study the modeling of the components of the system. This include energy-based models of the storage system, with a focus on Lithium-ion and Sodium-Sulfur battery technologies. We then model the system inputs and in particular the stochastic time series like day-ahead forecast errors. We also discuss the modeling of storage aging, using a formulation which is adapted to the control optimization. Assembling all these models enables us to optimize the energy management of the storage system using the stochastic dynamic programming (SDP) method. We introduce the SDP algorithms and present our optimization results, with a special interest for the effect of the shape of the penalty function on the energy control law. We also present additional energy management applications with SDP (mitigation of wind power ramps and smoothing of ocean wave power). Having optimized the storage energy management, we address the optimization of the storage sizing (choice of the rated energy). Stochastic time series simulations show that the temporal structure (autocorrelation) of wind power forecast errors have a major impact on the need for storage capacity to reach a given performance level. Then we combine simulation results with cost parameters, including investment, losses and aging costs, to build a economic cost function for sizing. We also study storage sizing when the penalization of commitment deviations includes a tolerance threshold. We finish this manuscript with a structural study of the interaction between the optimizations of the sizing and the control of an energy storage system, because these two optimization problems are coupled.
6

Recherche d'une méthode optimale de prévision de pluie par radar en hydrologie urbaine

Einfalt, Thomas 02 May 1988 (has links) (PDF)
Cette thèse a pour objet le premier développement d'une méthode de prévision de pluie par radar adaptée aux objectifs de l'hydrologie urbaine. Une revue des travaux effectués sur la prévision de pluie dans les vingt dernières années a été accomplie. Les algorithmes prometteurs utilisés dans les études précédentes ont été sélectionnés et améliorés en vue des objectifs de l'application envisagée : - concentration sur les fortes pluies ; temps de calcul inférieur a 60 secondes sur mini-ordinateur ; contrôle de qualité de la prévision. De cette analyse a émergé une nouvelle méthode de prévision. Une comparaison détaillée sur 94 images radar et une comparaison globale sur 1068 images ont montré la fiabilité de la méthode pour la prévision hydrologique. La pluie la plus importante de ces quatre dernières années en région parisienne a été étudiée particulièrement. De plus, deux paramètres liés seulement à la structure de l'image, peuvent servir d'indice de fiabilité, calculable a priori, de chaque prévision. Finalement, la méthode a été implantée sur les ordinateurs du service d'assainissement de Seine-Saint-Denis.
7

Prédiction et optimisation des techniques pour l’observation à haute résolution angulaire et pour la future génération de très grands télescopes / Prevision and optimisation of technics for high angular resolution observations and for the next generation of extremely large telescopes

Giordano, Christophe 19 December 2014 (has links)
Avec l’avènement de la prochaine génération de télescope de plus de 30m de diamètre, il devient primordial de réduire le coût des observations et d’améliorer leur rendement scientifique. De plus il est essentiel de construire ces instruments sur des sites disposant d’une qualité optique maximale. J’ai donc essayé, au cours de ma thèse, de développer un outil fiable, facile d’utilisation et économique permettant de satisfaire ces exigences. J’ai donc utilisé le modèle de prévision météorologique Weather Research and Forecasting et le modèle de calcul de la turbulence optique Trinquet-Vernin pour prédire, plusieurs heures à l’avance, les conditions optiques du ciel tout au long de la nuit. Cette information permettrait d’améliorer la gestion du programme d’observation, appelée "flexible scheduling", et ainsi de réduire les pertes dues à la variation des conditions atmosphériques. Les résultats obtenus et les améliorations apportées au modèle WRF-TV lui permettent de présenter un bon accord entre les mesures et les prévisions ce qui est prometteur pour une utilisation réelle. Au delà de cette gestion, nous avons voulu créer un moyen d’améliorer la recherche et le test de sites astronomiquement intéressants. Nous avons donc définit un paramètre de qualité qui prend en compte les conditions météorologiques et optiques. Ce paramètre a été testé au-dessus de l’île de La Palma aux Canaries et a montré que l’Observatorio del Roque de los Muchachos est situé au meilleur emplacement de l’île. Enfin nous avons créé une routine d’automatisation du modèle WRF-TV afin d’avoir un outil opérationnel fonctionnant de manière autonome. / With the next generation of extremely large telescope having mirror with a diameter larger than 30m, it becomes essential to reduce the cost of observations and to improve their scientific efficiency. Moreover it is fundamental to build these huge infrastructures in location having the best possible optical quality. The purpose of my thesis is to bring a solution easier and more economical than before. I used the Weather Research and Forecasting (WRF) model and the Trinquet-Vernin parametrization, which computes the values of the optical turbulence, to forecast a couple of hours in advance the evolution of the sky optical quality along the coming night. This information would improve the management of observation program, called "flexible scheduling", and thereby reduce losses due to the atmospheric variations. Our results and improvements allow the model us WRF-TV to have a good agreement between previsions and in-situ measurements in different sites, which is promising for a real use in an observatory. Beyond the flexible scheduling, we wanted to create a tool to improve the search for new sites or site testing for already existing sites. Therefore we defined a quality parameter which takes into account meteorological conditions (wind, humidity, precipitable water vapor) and optical conditions (seeing, coherence time, isoplanatic angle). This parameter has been tested above La Palma in Canary island showing that the Observatorio del Roque de los Muchachos is located close to the best possible location of the island. Finally we created an automated program to use WRF-TV model in order to have an operational tool working routinely.

Page generated in 0.0758 seconds