• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 290
  • 80
  • 17
  • 3
  • Tagged with
  • 402
  • 99
  • 94
  • 88
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 37
  • 36
  • 35
  • 35
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Évaluation d'un système expérimental de prévisions hydrologiques et hydrauliques d'ensemble

Dionne, Isabelle 18 April 2018 (has links)
Depuis plusieurs années, la prévision d'ensemble suscite beaucoup d'intérêt en météorologie et en hydrologie. Le dessein de ce type de prévisions est d'évaluer l'incertitude du système pour la présenter sous la forme d'un ensemble de prévisions probables. En hydrologie, la prévision d'ensemble (PHE) est produite en fournissant au modèle pluie-débit les prévisions météorologiques d'ensemble (PME). La valeur ajoutée de cette prévision, comparée à la prévision hydrologique déterministe typique (PHD), pourrait s'avérer d'une grande utilitée pour la gestion en situation de crue. Dans le cadre de cette maîtrise, des PHE de débits et de niveaux sont produites sur le bassin versant du Haut Saint-François pour deux périodes qui ont connu des événements de crues. Les PHE de débits sont simluées en fournissant au modèle hydrologique HYDROTEL la PME issue du système opérationnel d'ensemble canadien. Ces PHE se sont avérées plus performantes que les PHD à partir de l'horizon 24 heures. L'évaluation des PHE obtenues a également démontré que les PHE sous-estiment l'incertitude réelle du système. Cette sous-dispersion de l'ensemble, prononcée lors des premiers pas de temps, s'atténue avec l'horizon. Pour corriger cette sous-dispersion des débits, un post-traitement par la méthode du meilleur membre est appliqué. Cette méthode s'avère efficace et permet d'améliorer la fiabilité de la prévision. Par contre, le post-traitement crée une discontinuité temporelle des hydrogrammes. Pour pallier cette situation, les PHE brutes sous-dispersées sont donc fournies en entrée au modèle hydraulique HEC-RAS pour estimer les niveaux d'eau. Ces prévisions d'ensemble de niveaux présentent également une sous-dispersion, et cela peu importe l'horizon de prévision. L'analyse des prévisions émises les jours précédents les événements de crues a finalement permis de faire quelques observations. Pour l'un des événements, les prévisions probabilistes ont réussi à anticiper l'événement deux jours plus tôt que la prévision déterministe. À 24 heures de préavis, l'incertitude sur les prévisions émises était importante pour les deux événements étudiés. Ce mémoire constitue un premier pas vers l'implantation d'un système opérationnel utilisant les prévisions hydrologiques d'ensemble.
72

Three essays in international finance and macroeconomics

Nono, Simplice Aimé 24 April 2018 (has links)
Cette thèse examine l’effet de l’information sur la prévision macroéconomique. De façon spécifique, l’emphase est d’abord mise sur l’impact des frictions d’information en économie ouverte sur la prévision du taux de change bilatéral et ensuite sur le rôle de l’information issue des données d’enquêtes de conjoncture dans la prévision de l’activité économique réelle. Issu du paradigme de la nouvelle macroéconomie ouverte (NOEM), le premier essai intègre des frictions d’informations et des rigidités nominales dans un modèle d’équilibre général dynamique stochastique (DSGE) en économie ouverte. Il présente ensuite une analyse comparative des résultats de la prévision du taux de change obtenu en utilisant le modèle avec et sans ces frictions d’information. Tandis que le premier essai développe un modèle macroéconomique structurel de type DSGE pour analyser l’effet de la transmission des choc en information incomplète sur la dynamique du taux de change entre deux économies, le deuxième et troisième essais utilisent les modèles factorielles dynamiques avec ciblage pour mettre en exergue la contribution de l’information contenu dans les données d’enquêtes de confiance (soit au niveau de l’économie nationale que internationale) sur la prévision conjoncturelle de l’activité économique réelle. « The Forward Premium Puzzle : a Learning-based Explanation » (Essai 1) est une contribution à la littérature sur la prévision du taux de change. Cet essai a comme point de départ le résultat théorique selon lequel lorsque les taux d’intérêt sont plus élevés localement qu’ils le sont à l’étranger, cela annonce une dépréciation future de la monnaie locale. Cependant, les résultats empiriques obtenus sont généralement en contradiction avec cette intuition et cette contradiction a été baptisée l’énigme de la parité des taux d’intérêt non-couverte ou encore «énigme de la prime des contrats à terme ». L’essai propose une explication de cette énigme basée sur le mécanisme d’apprentissage des agents économiques. Sous l’hypothèse que les chocs de politique monétaire et de technologie peuvent être soit de type persistant et soit de type transitoire, le problème d’information survient lorsque les agents économiques ne sont pas en mesure d’observer directement le type de choc et doivent plutôt utiliser un mécanisme de filtrage de l’information pour inférer la nature du choc. Nous simulons le modèle en présence de ces frictions informationnelles, et ensuite en les éliminant, et nous vérifions si les données artificielles générées par les simulations présentent les symptômes de l’énigme de la prime des contrats à terme. Notre explication à l’énigme est validée si et seulement si seules les données générées par le modèle avec les frictions informationnelles répliquent l’énigme. « Using Confidence Data to Forecast the Canadian Business Cycle » (Essai 2) s’appuie sur l’observation selon laquelle la confiance des agents économiques figure désormais parmi les principaux indicateurs de la dynamique conjoncturelle. Cet essai analyse la qualité et la quantité d’information contenu dans les données d’enquêtes mesurant la confiance des agents économiques. A cet effet, il évalue la contribution des données de confiance dans la prévision des points de retournement (« turning points ») dans l’évolution de l’économie canadienne. Un cadre d’analyse avec des modèles de type probit à facteurs est spécifié et appliqué à un indicateur de l’état du cycle économique canadien produit par l’OCDE. Les variables explicatives comprennent toutes les données canadiennes disponibles sur la confiance des agents (qui proviennent de quatre enquêtes différentes) ainsi que diverses données macroéconomiques et financières. Le modèle est estimé par le maximum de vraisemblance et les données de confiance sont introduites dans les différents modèles sous la forme de variables individuelles, de moyennes simples (des « indices de confiance ») et de « facteurs de confiance » extraits d’un ensemble de données plus grand dans lequel toutes les données de confiance disponibles ont été regroupées via la méthode des composantes principales, . Nos résultats indiquent que le plein potentiel des données sur la confiance pour la prévision des cycles économiques canadiens est obtenu lorsque toutes les données sont utilisées et que les modèles factoriels sont utilisés. « Forecasting with Many Predictors: How Useful are National and International Confidence Data? » (Essai 3) est basé sur le fait que dans un environnement où les sources de données sont multiples, l’information est susceptible de devenir redondante d’une variable à l’autre et qu’une sélection serrée devient nécessaire pour identifier les principaux déterminants de la prévision. Cet essai analyse les conditions selon lesquelles les données de confiance constituent un des déterminants majeurs de la prévision de l’activité économique dans un tel environnement. La modélisation factorielle dynamique ciblée est utilisé pour évaluer le pouvoir prédictif des données des enquêtes nationales et internationales sur la confiance dans la prévision de la croissance du PIB Canadien. Nous considérons les données d’enquêtes de confiance désagrégées dans un environnement riche en données (c’est-à-dire contenant plus d’un millier de séries macro-économiques et financières) et évaluons leur contenu informatif au-delà de celui contenu dans les variables macroéconomiques et financières. De bout en bout, nous étudions le pouvoir prédictif des données de confiance en produisant des prévisions du PIB avec des modèles à facteurs dynamiques où les facteurs sont dérivés avec et sans données de confiance. Les résultats montrent que la capacité de prévision est améliorée de façon robuste lorsqu’on prend en compte l’information contenue dans les données nationales sur la confiance. En revanche, les données internationales de confiance ne sont utiles que lorsqu’elles sont combinées dans le même ensemble avec celles issues des enquêtes nationales. En outre, les gains les plus pertinents dans l’amelioration des prévisions sont obtenus à court terme (jusqu’à trois trimestres en avant). / This thesis examines the effect of information on macroeconomic forecasting. Specifically, the emphasis is firstly on the impact of information frictions in open economy in forecasting the bilateral exchange rate and then on the role of information from confidence survey data in forecasting real economic activity. Based on the new open-economy macroeconomics paradigm (NOEM), the first chapter incorporates information frictions and nominal rigidities in a stochastic dynamic general equilibrium (DSGE) model in open economy. Then, it presents a comparative analysis of the results of the exchange rate forecast obtained using the model with and without these information frictions. While the first chapter develops a structural macroeconomic model of DSGE type to analyze the effect of shock transmission in incomplete information on exchange rate dynamics between two economies, the second and third chapters use static and dynamic factor models with targeting to highlight the contribution of information contained in confidence-based survey data (either at the national or international level) in forecasting real economic activity. The first chapter is entitled The Forward Premium Puzzle: a Learning-based Explanation and is a contribution to the exchange rate forecasting literature. When interest rates are higher in one’s home country than abroad, economic intuition suggests this signals the home currency will depreciate in the future. However, empirical evidence has been found to be at odds with this intuition: this is the "forward premium puzzle." I propose a learning-based explanation for this puzzle. To do so, I embed an information problem in a two-country open-economy model with nominal rigidities. The information friction arises because economic agents do not directly observe whether shocks are transitory or permanent and must infer their nature using a filtering mechanism each period. We simulate the model with and without this informational friction and test whether the generated artificial data exhibits the symptoms of the forward premium puzzle. Our leaning-based explanation is validated as only the data generated with the active informational friction replicates the puzzle. The second chapter uses dynamic factor models to highlight the contribution of the information contained in Canadian confidence survey data for forecasting the Canadian business cycle: Using Confidence Data to Forecast the Canadian Business Cycle is based on the fact that confidence (or sentiment) is one key indicators of economic momentum. The chapter assesses the contribution of confidence -or sentiment-data in predicting Canadian economic slowdowns. A probit framework is applied to an indicator on the status of the Canadian business cycle produced by the OECD. Explanatory variables include all available Canadian data on sentiment (which arise from four different surveys) as well as various macroeconomic and financial data. Sentiment data are introduced either as individual variables, as simple averages (such as confidence indices) and as confidence factors extracted, via principal components’ decomposition, from a larger dataset in which all available sentiment data have been collected. Our findings indicate that the full potential of sentiment data for forecasting future business cycles in Canada is attained when all data are used through the use of factor models. The third chapter uses dynamic factor models to highlight the contribution of the information contained in confidence survey data (either in Canadian or International surveys) for forecasting the Canadian economic activity. This chapter entitled Forecasting with Many Predictors: How Useful are National and International Confidence Data? is based on the fact that in a data-rich environment, information may become redundant so that a selection of forecasting determinants based on the quality of information is required. The chapter investigates whether in such an environment; confidence data can constitute a major determinant of economic activity forecasting. To do so, a targeted dynamic factor model is used to evaluate the performance of national and international confidence survey data in predicting Canadian GDP growth. We first examine the relationship between Canadian GDP and confidence and assess whether Canadian and international (US) improve forecasting accuracy after controlling for classical predictors. We next consider dis-aggregated confidence survey data in a data-rich environment (i.e. containing more than a thousand macroeconomic and financial series) and assess their information content in excess of that contained in macroeconomic and financial variables. Throughout, we investigate the predictive power of confidence data by producing GDP forecasts with dynamic factor models where the factors are derived with and without confidence data. We find that forecasting ability is consistently improved by considering information from national confidence data; by contrast, the international counterpart are helpful only when combined in the same set with national confidence. Moreover most relevant gains in the forecast performance come in short-horizon (up to three-quarters-ahead).
73

Le marché des obligations à rendement réel au Canada : un indicateur des anticipations inflationnistes

Gignac, Stéphane 24 April 2018 (has links)
L’inflation est un facteur important à considérer pour les agents participant aux marchés financiers puisqu’elle vient éroder la valeur des actifs qu’ils possèdent. Depuis quelques d’années, l’émission d’obligations à rendement réel permet de corriger cet effet en remboursant les investisseurs pour l’inflation ayant affecté l’économie pendant la période de détention. La coexistence d’obligations à rendement réel et nominal est potentiellement intéressante puisqu’elle permet de mesurer l’inflation anticipée par les investisseurs. En effet, selon la loi de Fisher, l’écart entre le rendement des obligations nominales et celui des obligations réelles (le taux d’inflation neutre) mesure le taux d’inflation prévu par les marchés. Pour les décideurs politiques, les investisseurs et autres agents intervenant sur les marchés, il est important de connaître tout indicateur pouvant aider à prévoir l’inflation. Cependant, le taux d’inflation neutre n’a pas une corrélation parfaite avec l’inflation anticipée. Plusieurs facteurs peuvent potentiellement expliquer cette divergence. Par exemple, plusieurs études semblent établir que l'existence de primes diverses affecte le taux d’inflation neutre (TINM) et pourrait réduire la capacité de ce nouvel indicateur à mesurer avec exactitude les anticipations d’inflation à long terme du marché. Dans ce contexte, l'objectif principal de cette étude est d’expliquer l’évolution et les déterminants du taux d’inflation neutre et en quoi ces déterminants et primes viennent affecter l’équation de Fisher et l’interprétation du TINM comme mesure des anticipations inflationnistes. / Inflation is an important consideration for agents participating in financial markets, because it erodes the value of assets. For several years, the issuance of real return bonds (RRBs) has offered one way to correct this effect, by compensating investors for inflation born during the holding period. The coexistence of real and nominal bond yields is potentially interesting since it might allow to measure the inflation anticipated by investors. Indeed, under Fisher’s law, using the difference between real (indexed) and nominal bond yields (the BEIR) can be used to measure inflation expectations. For policy makers, investors and other agents involved in the markets, it is important to analyze any indicator that can help predict inflation. However, the BEIR may not exhibit a perfect correlation with expected inflation. Several factors may partly explain the discrepancy. For example, several studies show that various premiums affecting the BEIR might reduce the ability of this new indicator to measure correctly the market’s long-term inflation expectations. The main objective of this study is to explain the behaviour of the BEIR and how this behaviour, as well as the existence of these premiums, impact Fisher’s equation and the BEIR’s ability to correctly measure inflation expectations.
74

Utilisation des données satellitaires MODIS dans un contexte de prévision des crues printanières sur un bassin montagneux canadien

Marcil, Gino-Karl January 2016 (has links)
La prévision hydrologique nécessite une connaissance adéquate des quantités de neige présentes sur ses bassins versants, particulièrement pour des bassins versants montagneux. Pour beaucoup de bassins, la densité du réseau de stations nivométriques est faible ou parfois même inexistante. De leur côté, les données satellitaires MODIS permettent de suivre l’évolution du couvert de neige sur de grandes superficies de façon journalière et à une résolution spatiale de 500 m. Dans ce contexte, un projet de recherche a été proposé en partenariat entre Rio Tinto Alcan (RTA) et l’Université de Sherbrooke afin d’évaluer l’apport de la télédétection du couvert de neige (MODIS) pour améliorer la prévision hydrologique en période de crue. Le bassin versant à l’étude est celui de la rivière Nechako, situé en Colombie-Britannique (Canada) et caractérisé par sa topographie montagneuse et les grandes quantités de neige s’accumulant sur son territoire. D’abord, une analyse statistique a été réalisée permettant d’obtenir une relation empirique entre l’évolution du volume de crue et la variation de la superficie du couvert de neige (SCN) tirée des images MODIS. Ensuite, les SCN MODIS ont été utilisées pour le calage du modèle hydrologique SWAT selon 9 différentes techniques de calage. Finalement, avec l’aide d’un système de prévision, assimilant d’abord les SCN MODIS pour mettre à jour les conditions initiales, la performance de 5 des 9 calages effectués a été analysée en prévision hydrologique court terme (déterministe) et moyen terme (probabiliste). À partir des résultats, il a été possible d’observer que l’assimilation des SCN MODIS permet d’améliorer les prévisions à plus long terme, particulièrement des volumes de crue. À court terme, la qualité des prévisions d’apports est sensiblement identique avec ou sans assimilation MODIS bien qu’une meilleure simulation des conditions initiales de neige soit observée avec assimilation MODIS. Finalement, la comparaison des calages en prévision hydrologique démontre qu’une légère amélioration des prévisions d’apports moyen terme (3 à 5 mois) est possible lorsque les données MODIS sont utilisées dans la procédure de calage. Cependant, les résultats sont variables dépendamment de la technique de calage utilisée.
75

Estimation de l'incertitude et prévision d'ensemble avec un modèle de chimie transport - Application à la simulation numérique de la qualité de l'air

Mallet, Vivien 06 December 2005 (has links) (PDF)
La thèse s'attache à évaluer la qualité d'un modèle de chimie-transport, non pas par une comparaison classique aux observations, mais en estimant ses incertitudes a priori dues aux données d'entrées, à la formulation du modèle et aux approximations numériques. L'étude de ces trois sources d'incertitude est menée respectivement grâce à des simulations Monte Carlo, des simulations multi-modèles et des comparaisons entre schémas numériques. Une incertitude élevée est mise en évidence, pour les concentrations d'ozone. Pour dépasser les limitations dues à l'incertitude, une stratégie réside dans la prévision d'ensemble. En combinant plusieurs modèles (jusqu'à quarante-huit modèles) sur la bases des observations passées, les prévisions peuvent être significativement améliorées. Ce travail a aussi été l'occasion de développer un système de modélisation innovant, Polyphemus.
76

Prévision et décision en programmation linéaire stochastique

Lemarie, J.-M. 22 June 1967 (has links) (PDF)
.
77

Prévision des crues éclair par réseaux de neurones : généralisation aux bassins non jaugés / Flash floods forecasting using neural networks : generalizing to ungauged basins

Artigue, Guillaume 03 December 2012 (has links)
Dans les régions méditerranéennes françaises, des épisodes pluvieux diluviens se produisent régulièrement et provoquent des crues très rapides et volumineuses que l'on appelle crues éclair. Elles font fréquemment de nombreuses victimes et peuvent, sur un seul évènement, coûter plus d'un milliard d'euros. Face à cette problématique, les pouvoirs publics mettent en place des parades parmi lesquelles la prévision hydrologique tient une place essentielle.C'est dans ce contexte que le projet BVNE (Bassin Versant Numérique Expérimental) a été initié par le SCHAPI (Service Central d'Hydrométéorologie et d'Appui à la Prévision des Inondations) dans le but d'améliorer la prévision des crues rapides. Ces travaux s'inscrivent dans le cadre de ce projet et ont trois objectifs principaux : réaliser des prévisions sur des bassins capables de ces réactions qu'ils soient correctement jaugés, mal jaugés ou non jaugés.La zone d'étude choisie, le massif des Cévennes, concentre la majorité de ces épisodes hydrométéorologiques intenses en France. Ce mémoire la présente en détails, mettant en avant ses caractéristiques les plus influentes sur l'hydrologie de surface. Au regard de la complexité de la relation entre pluie et débit dans les bassins concernés et de la difficulté éprouvée par les modèles à base physique à fournir des informations précises en mode prédictif sans prévision de pluie, l'utilisation de l'apprentissage statistique par réseaux de neurones s'est imposée dans la recherche d'une solution opérationnelle.C'est ainsi que des modèles à réseaux de neurones ont été synthétisés et appliqués à un bassin de la zone cévenole, dans des contextes bien et mal jaugés. Les bons résultats obtenus ont été le point de départ de la généralisation à 15 bassins de la zone d'étude. A cette fin, une méthode de généralisation est développée à partir du modèle élaboré sur le bassin jaugé et de corrections estimées en fonction des caractéristiques physiques des bassins. Les résultats de l'application de cette méthode sont de bonne qualité et ouvrent la porte à de nombreux axes de recherche pour l'avenir, tout en démontrant encore que l'utilisation de l'apprentissage statistique pour l'hydrologie peut constituer une solution pertinente. / In the French Mediterranean regions, heavy rainfall episodes regularly occur and induce very rapid and voluminous floods called flash floods. They frequently cause fatalities and can cost more than one billion euros during only one event. In order to cope with this issue, the public authorities' implemented countermeasures in which hydrological forecasting plays an essential role.In this contexte, the French Flood Forecasting Service (called SCHAPI for Service Central d'Hydrométéorologie et d'Appui à la Prévision des Inondations) initiated the BVNE (Digital Experimental Basin, for Bassin Versant Numérique Expérimental) project in order to enhance flash flood forecasts. The present work is a part of this project and aim at three main purposes: providing flash flood forecasts on well-gauged basins, poorly gauged basins and ungauged basins.The study area chosen, the Cévennes range, concentrates the major part of these intense hydrometeorological events in France. This dissertation presents it precisely, highlighting its most hydrological-influent characteristics.With regard to the complexity of the rainfall-discharge relation in the focused basins and the difficulty experienced by the physically based models to provide precise information in forecast mode without rainfall forecasts, the use of neural networks statistical learning imposed itself in the research of operational solutions.Thus, the neural networks models were designed and applied to a basin of the Cévennes range, in the well-gauged and poorly gauged contexts. The good results obtained have been the start point of a generalization to 15 basins of the study area.For this purpose, a generalization method was developed from the model created on the gauged basin and from corrections estimated as a function of basin characteristics.The results of this method application are of good quality and open the door to numerous pats of inquiry for the future, while demonstrating again that the use of statistical learning for hydrology can be a relevant solution.
78

Méthodes de prévision d’ensemble pour l’étude de la prévisibilité à l’échelle convective des épisodes de pluies intenses en Méditerranée / Convective scale predictability of highly precipitating events in the south-east of France : a study using ensemble prediction systems.

Vié, Benoît 29 November 2012 (has links)
L'évaluation de l'incertitude associée à la prévision numérique du temps à haute résolution, et en particulier l'estimation de la prévisibilité des événements de fortes précipitations en région méditerranéenne, sont les objectifs de ce travail de thèse. Nous avons procédé à l'étude de quatre sources d'incertitude contrôlant la prévisibilité de ces événements : la description des conditions d'échelle synoptique, la représentation des conditions atmosphériques à méso-échelle (notamment le flux de basses couches alimentant le système convectif), le rôle de processus physiques complexes tels que l'établissement d'une plage froide sous orage, et enfin la définition des conditions de surface. Pour quantifier l'impact de ces différentes sources d'incertitude, nous avons opté pour la méthode des prévisions d'ensemble avec le modèle AROME. Chaque source d'incertitude est étudiée individuellement à travers la génération de perturbations pertinentes, et les ensembles ainsi obtenus sont évalués dans un premier temps pour des cas de fortes précipitations. Nous avons aussi procédé à une évaluation statistique du comportement des prévisions d'ensemble réalisées sur des périodes de prévision longues de deux à quatre semaines. Cette évaluation, ainsi que celle de systèmes de prévision d'ensemble échantillonnant plusieurs sources d'incertitude simultanément, permettent d'établir une hiérarchisation de ces sources d'incertitude et enfin quelques recommandations en vue de la mise en place d'un système de prévision d'ensemble à échelle convective opérationnel à Météo-France / This PhD thesis aims at quantifying the uncertainty of convection-permitting numerical weather forecasts, with a particular interest in the predictability of Mediterranean heavy precipitating events. Four uncertainty sources, which impact the predictability of these events, were investigated : the description of the synoptic-scale circulation, the representation of meso-scale atmospheric conditions (especially the low-level jet feeding the convective systems with moist and unstable air), the impact of complex physical processes such as the setting up of a cold pool, and the definition of surface conditions. To quantify the impact of these four uncertainty sources, the ensemble forecasting technique was chosen, using the AROME model. Each uncertainty source is studied separately through the definition of dedicated perturbations, and the resulting ensembles are first evaluated over heavy precipitation case studies. We then proceed to a statistical evaluation of the ensembles for 2- and 4-week long forecast periods. This evaluation, completed with the design of ensembles sampling several uncertainty sources together, allows us to draw some practical tips for the design of an operational convective scale ensemble forecasting system at Météo-France
79

Évaluation de la performance des règles de gestion d'un réservoir de production hydroélectrique mises à jour à l'aide de la programmation dynamique stochastique et d'un modèle hydrologique

Martin, Alexandre January 2016 (has links)
L’entreprise Rio Tinto effectue la gestion du système hydrique de la rivière Nechako, situé en Colombie-Britannique (Canada), à partir de règles de gestion optimisées à l’aide d’un algorithme de programmation dynamique stochastique (PDS) et de scénarios d’apports historiques. Les récents développements en recherche opérationnelle tendent à démontrer que la mise à jour des règles de gestion en mode prévisionnel permet d’améliorer la performance des règles de gestion lorsque des prévisions d’ensemble sont utilisées pour mieux cerner les incertitudes associées aux apports à venir. La modélisation hydrologique permet de suivre l’évolution d’un ensemble de processus hydrologiques qui varient dans le temps et dans l’espace (réserve de neige, humidité du sol, etc.). L’utilisation de modèles hydrologiques, en plus d’offrir la possibilité de construire des prévisions d’ensemble qui tiennent compte de l’ensemble des processus simulés, permet de suivre l’évolution de variables d’état qui peuvent être utilisées à même l’algorithme d’optimisation pour construire les probabilités de transition utiles à l’évaluation de la valeur des décisions futures. À partir d’un banc d’essais numériques dans lequel le comportement du bassin versant de la rivière Nechako est simulé à l’aide du modèle hydrologique CEQUEAU, les résultats du présent projet démontrent que la mise à jour des règles avec l’algorithme de PDS en mode prévisionnel permet une amélioration de la gestion du réservoir Nechako lorsque comparée aux règles optimisées avec l’algorithme en mode historique. Le mode prévisionnel utilisant une variable hydrologique combinant un modèle autorégressif d’ordre 5 (AR5) et la valeur maximale de l’équivalent en eau de la neige (ÉENM) a permis de réduire les déversements non-productifs et les inondations tout en maintenant des productions similaires à celles obtenues à l’aide de règles optimisées en mode historique utilisant l’ÉENM comme variable hydrologique. De plus, les résultats du projet démontrent que l’utilisation de prévisions hydrologiques d’ensemble en mode historique pour construire une variable hydrologique permettant d’émettre une prévision du volume d’apport médian pour les huit mois à venir (PVAM) ne permettait pas d’obtenir des résultats de gestion supérieurs à ceux obtenus avec la variable d’ÉENM.
80

Modélisation statistique de la diversité multi-site aux fréquences comprises entre 20 et 50 GHz / Statistical modeling of multi-site diversity for frequencies between 20 and 50 GHZ

Fayon, Gaëtan 12 December 2017 (has links)
Du fait de la congestion des bandes de fréquences conventionnelles (bandes S, C, Ku) et de la nécessité d'acheminer des débits de plus en plus importants, l'évolution des télécommunications par satellite fournissant des services multimédia à très haut débit se traduit actuellement par une montée en fréquence (bande Ka, 20-30 GHz, pour les liaisons utilisateurs, et bande Q/V, 40-50 GHz, pour les liens avec les stations d'ancrage) pour atteindre une capacité globale de l'ordre du Tb/s. Cependant, cette montée en fréquence rend les futurs systèmes de télécommunications extrêmement vulnérables aux atténuations troposphériques, notamment aux précipitations qui constituent le principal contributeur à l'affaiblissement troposphérique total. Dans ce contexte, la seule utilisation des techniques de codages et de modulation adaptatives, même combinée avec de la gestion de puissance, ne suffit plus. Afin d'exploiter la décorrélation en distance des champs de précipitations, l'utilisation de stations terrestres en diversité de site est étudiée par les opérateurs afin de maintenir un bilan de liaison favorable, en jouant sur une certaine redondance des stations sols pour rediriger les signaux selon les conditions météorologiques locales. Si plusieurs modèles permettant de dimensionner de tels systèmes existent déjà, leur paramétrage n'a pu s'appuyer pour le moment que sur un nombre limité de bases de données expérimentales, à la fois en terme de durée d'acquisition et de climats représentés : les données ne sont bien souvent recueillies que dans des zones climatiques tempérées (Europe et Amérique du Nord) et ne représentent qu'un faible nombre d'années de mesures (une année dans la majorité des cas). Dès lors, le paramétrage, ainsi que la validation, de ces modèles est compromise. Cette thèse propose la définition d'un nouveau modèle, le modèle WRF-EMM, permettant de générer des statistiques de propagation sur une zone géographique de 100 x 100 km2 en couplant le modèle de prévisions météorologiques à haute résolution WRF (Weather Research and Forecasting) à un module électromagnétique EMM (ElectroMagnetic Module) optimisé pour l'occasion. Aux latitudes moyennes, les sorties de ce simulateur sont utilisées pour alimenter les modèles actuels de dimensionnement des systèmes de télécommunications par satellite en diversité de site. Les résultats obtenus sont suffisamment proches des résultats expérimentaux pour envisager d'utiliser le modèle WRF-EMM pour compléter de façon artificielle les bases de données expérimentales existantes et finalement paramétrer les modèles de propagation en respectant les spécificités climatologiques et orographiques locales. En parallèle au développement du modèle WRF-EMM, cette thèse propose également la mise en place d'une nouvelle métrique de test permettant d'intégrer les variabilités interannuelles dans le processus de validation des modèles, ce qui n'était pas le cas jusqu'à maintenant. / Due to the congestion of standard frequency bands (S, C, Ku bands) and the need to offer higher data rates for multimedia services, space communication systems require to be operated at carrier frequencies higher than 20 GHz: Ka-band (20-30 GHz) for user links or Q/V band (40-50 GHz) for feeder links, to reach the Tb/s capacity. However, these frequency bands are submitted to increase tropospheric impairments, in particular rain attenuation which is its major contributor. In this context, the only use of standard fade mitigation techniques (up-link power control and/or adaptive coding and modulation) is not enough to counteract these propagation impairments and the use of gateways in site diversity configurations allows satisfying link budget to be maintained, relying on redundant gateways to reroute data traffic depending on local meteorological conditions. If several models suited to design such systems already exist, their parameterization is based on a limited number of sub-representative experimental data, both in terms of duration and climatic regions: experimental propagation data in a site diversity context have been often measured in temperate regions (Europe and North America) and represent few years of data (only one year in the majority of the cases). As a consequence, the parameterization, and so the validation, of such models is compromised. This PhD thesis proposes the definition of a new model, the WRF-EMM model, allowing rain attenuation time series and statistics to be generated over a grid of 100 x 100 km2, coupling the high resolution weather prediction model WRF (Weather Research and Forecasting) with the EMM (ElectroMagnetic Module), especially optimized during this thesis. Outputs of this simulator can feed site diversity models in order to design future satellite communications systems. At mid-latitudes, the results are promising and the use of the WRF-EMM model to generate site diversity synthetic datasets and to parameterize site diversity models wherever in the world should now be envisaged as an alternative to experimental data. In parallel with the development of the WRF-EMM model, this thesis also proposes the introduction of a new testing metric allowing to integrate the inter- annual variabilities during the validation process of statistical models, which has not been the case until now.

Page generated in 0.0466 seconds