• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 295
  • 81
  • 18
  • 3
  • Tagged with
  • 409
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 36
  • 35
  • 31
  • 31
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Analyse de la conjoncture et des données sujettes à la révision : application au Canada

Baron, Standley-Réginald 18 April 2018 (has links)
Ce papier met l'accent sur deux points essentiels : l'analyse de la conjoncture en temps réel et la révision des données. Contrairement à d'autres travaux, nous cherchons, non seulement à évaluer la conjoncture en temps réel, mais aussi nous essayons de voir à quel point la révision des données peut affecter notre estimation de la conjoncture. Pour déterminer les différentes phases du cycle économique canadien, nous adoptons l'approche d'Hamilton et Chauvet (2006). En utilisant le PIB comme indice pour caractériser la conjoncture et en appliquant les modèles à changements de régime markoviens, comme méthode moderne de séparation des phases d’expansion et de récession dans une économie. Les résultats obtenus permettent de faire ressortir deux points importants. La révision des données n'affecte pas significativement l'analyse des points tournants en temps réel, par contre elle s'avère importante quand il faut juger de l'ampleur d'une récession ou d`une expansion. Mots clés : cycle économique en temps réel, révision des données, modèles à changements de régime markoviens.
222

Modélisation des fluctuations macroéconomiques et comparaison des performances de modèles dynamiques d'équilibre général estimés : une approche par l'estimation bayésienne et les modèles à facteurs

Rugishi, Muhindo G. 12 April 2018 (has links)
Depuis le début des années 1980, la modélisation macroéconomique a subi un renouveau méthodologique marqué par l'avènement des modèles d'équilibre général dynamiques stochastiques (DSGE) et des modèles vectoriels autorégressifs (VAR). Il existe actuellement un consensus dans les milieux académiques et institutionnels que les modèles DSGE peuvent offrir aux débats économiques un cadre d'analyse efficace. L'utilisation des modèles DSGE dans l'analyse des cycles et fluctuations économiques est un des domaines les plus actifs de la recherche macroéconomique. Comme les modèles DSGE sont mieux ancré dans la théorie économique, ils permettent de fournir des explications plus cohérentes de la dynamique du cycle économique et d'analyser les différents types de chocs qui perturbent régulièrement les différentes économies. Les modèles VAR sont un outil utilisé à grande échelle dans la macroéconomie appliquée, notamment dans la validation empirique des modèles DSGE. En dépit de leur faible ancrage dans la théorie économique, les modèles VAR restent assez flexibles pour traiter un éventail de questions concernant la nature et les sources des fluctuations économiques. En outre, ils sont particulièrement adaptés pour faire des tests statistiques d'hypothèses ainsi que pour des exercices de prévision à court terme. C'est ainsi que les résultats des modèles VAR sont souvent perçus comme des faits stylisés qui devraient être reproduits par des modèles économiques. Alors que la spécification des modèles DSGE a connu un développement remarquable aboutissant à une lecture des fluctuations économiques analogue à celle de la synthèse néoclassique (rôle des chocs budgétaires et monétaires à court terme) et que beaucoup des progrès ont été réalisés pour comparer les prédictions des modèles aux données, les méthodes couramment utilisées pour la validation de ces modèles présentent certaines limites. Il se pose actuellement la question de savoir si ces méthodes sont toujours appropriées pour fournir des estimations consistantes des paramètres structurels et pour permettre la comparaison formelle des modèles DSGE concurrents. En effet, il reste encore beaucoup à faire pour développer des outils simples et opérationnels permettant de mesurer l'adéquation entre les prédictions des modèles DSGE et les données. La méthode communément utilisée pour évaluer les modèles DSGE consiste à comparer les moments estimés ou obtenus par simulations stochastiques du modèle et les moments historiques. Si les moments historiques appartiennent à l'intervalle de confiance des moments estimés ou simulés, on considère que cet ensemble de moments est bien reproduit par le modèle. Le problème de cette méthodologie est qu'elle ne permet pas la comparaison de deux modèles quand l'un reproduit plutôt bien certains moments et plus mal d'autres moments qui sont, au contraire, mieux expliqués par l'autre modèle. L'absence d'un critère de choix explicite pour évaluer la portée explicative de différents modèles constitue un problème majeur si on cherche à discriminer entre différents paradigmes et théories concurrentes. L'utilisation de la méthode des moments pour l'évaluation des modèles DSGE et l'explication des fluctuations économiques est, à certains égards, très approximative. Cette insuffisance amène plusieurs chercheurs à opter pour l'utilisation des modèles VAR pour la validation empirique des modèles DSGE. Cependant, les débats à la suite du papier séminal de Gali (1999) portant sur l'impact des chocs technologiques sur les heures travaillées ont suscité de scepticisme concernant l'apport de cette méthodologie alternative et certains chercheurs se demandent actuellement si les modèles VAR peuvent vraiment être utiles pour discriminer des théories concurrentes et si leurs propriétés d'échantillonnage sont assez précises pour justifier leur popularité dans la macroéconomie appliquée. L'échec des modèles VAR d'ordre fini comme outil utile d'évaluation des modèles DSGE est parfois attribué au fait qu'ils ne sont que des approximations des processus VAR d'ordre infini ou bien à la possibilité qu'il n'existe point de représentation VAR. C'est le cas notamment quand l'hypothèse d'inversibilité n'est pas satisfaite. Les méthodes d'estimation par maximum de vraisemblance ou bayésienne des paramètres structurels des modèles DSGE sont maintenant d'utilisation courante dans les milieux académiques et décisionnels. Ces méthodes permettent de comparer les performances de prévision des modèles DSGE à celles d'un modèle VAR ou celles de deux théories concurrentes. Bien que les modèles DSGE fournissent de relativement bonnes prévisions dans certains cas, des problèmes de mauvaise spécification et de non identifiabilité ont comme conséquence que les paramètres structurels et le vecteur d'état de l'économie ne sont pas souvent estimés de manière consistante. Ces insuffisances peuvent entraîner des recommandations de politique économique dangereusement biaisées et posent de sérieux problèmes dans l'évaluation de politiques alternatives. Dans cette thèse, nous proposons une voie de réconciliation qui offre des possibilités d'une meilleure intégration de la théorie et de la mesure en macroéconomie. La méthodologie proposée permet de combiner de manière explicite les modèles factoriels non structurels et les modèles théoriques d'équilibre général micro-fondés. Les modèles factoriels complètent les modèles macroéconomiques structurels destinés à évaluer les évolutions économiques à court et ce, principalement en offrant un cadre qui permet d'améliorer l'estimation et la prévision de plusieurs indicateurs macroéconomiques. En effet, la méthode d'évaluation utilisée permet de prendre en compte toute l'information macroéconomique disponible en recourant aux modèles factoriels, d'estimer et de tester, dans un cadre unifié, les paramètres structurels et les propriétés cycliques d'un modèle DSGE et de comparer des théories concurrentes. Les variables inobservables et les composantes cycliques des modèles sont estimés à l'aide d'un filtre de Kalman et des techniques numériques de Monte Carlo par chaînes de Markov (MCMC). Nous utilisons l'ensemble des outils développés pour faire une comparaison formelle de deux variantes du modèle de cycles réels à la King-Rebelo (2000) et du modèle de thésaurisation du travail de Bumside, Eichenbaum et Rebelo (1993) appliqués à l'économie américaine sur des données trimestrielles allant de 1948 à 2005. L'utilisation des modèles à facteurs permet d'améliorer les qualités prédictives des modèles DSGE et de surpasser dans bon nombre des cas les problèmes de non identifiabilité et de non inversibilité rencontrés dans ces types de modèles. L'étude démontre que le choc technologique identifié par Gali (1999) est non structurel et que l'utilisation des modèles à facteurs devrait être préférée dans certains cas à celle de l'approche VAR. En présence des variables mesurées avec erreur, l'utilisation des filtres de type Hodrick-Prescott (HP) conduit à une estimation non consistante de certains paramètres structurels des modèles DSGE. Le test de stabilité indique une diminution de l'amplitude de chocs exogènes depuis le début des années 1980, ce qui se traduit par une modération des cycles économiques et des fluctuations des taux d'intérêt. Enfin, l'analyse dynamique montre que les réponses de l'investissement au choc de dépenses publiques sont largement liées aux valeurs assignées aux paramètres structurels. / Since the beginning of the 1980s, macroeconomic modeling has undergone a methodological revival marked by the advent of the dynamic stochastic general equilibrium (DSGE) models and vector autoregressive (VAR) models. There is currently a consensus in the académie and institutional circles that DSGE models can offer to the économie debates an effective framework of analysis. The analysis of économie cycles and fluctuations using DSGE models is one of the most active areas of macroeconomic research. As DSGE models are firmly grounded in the économie theory, they are used to provide more cohérent and adéquate explanations for observed dynamics of the business cycle and to analyze a wide range of shocks which buffet regularly various économies. VAR models are a widely used tool in empirical macroeconomics, particularly for the evaluation of DSGE models. Despite they rely so loosely on économie theory, VAR models remain enough flexible to treat a range of questions concerning the nature and the sources of the économie fluctuations. Moreover, they are particularly adapted to perform statistical hypothesis tests as well to provide reliable forecasts in the short-term. Thus the results from VAR models are often viewed as stylized facts that économie models should replicate. Although the specification of DSGE models has seen a remarkable development leading to a reading of the économie fluctuations similar to those of the neoclassical synthesis (rôle of budgetary and monetary shocks in the short-term) and that steps forward hâve also been made in comparing the models' prédictions to the data, the methods usually used for the evaluation of these models présent some limitations. This raises the question of whether or not these methods are always well-adapted to provide consistent estimates of the structural parameters and to allow the formal comparison of competing DSGE models. Indeed, there still remains much to do in the development of simple operational tools that make it possible to measure the gap between the prédictions of DSGE models and the data. The common method used for evaluating DSGE models consists of comparing the estimated moments or those obtained by stochastic simulations of the model and the historical moments. If the historical moments belong to the confidence interval of the estimated or simulated moments, it is considered that this set of moments is well reproduced by the model. The problem of this methodology is that it does not allow the comparison of two models when one matches some moments well and does more badly for other moments that are better explained by the other model. The difficultés in designing explicit sélection criteria to evaluate the success of competing models constitute a major problem if one seeks to discriminate between various paradigms and concurrent theories. The moment-matching techniques for the evaluation of DSGE models and the explanation of the économie fluctuations are, in certain sensé, very approximate. This insufficiency leads several researchers to choose using the VAR models for the empirical evaluation of DSGE models. However, the debates following the séminal paper of Gali (1999) focused on the impact of the technological shocks on hours worked caused scepticism concerning the contribution of this alternative methodology and some researchers currently wonder if the VAR models can actually discriminate between competing DSGE models and whether their sampling properties are good enough to justify their popularity in applied macroeconomics. The failure of finite-order VAR models for evaluating DSGE models is sometimes attributed to the fact that they are only approximations to infinite-order VAR processes or to the possibility that there does not exist a VAR représentation at ail. This is the case particularly when the assumption of invertibility is not satisfied. Bayesian or maximum likelihood estimation methods of the structural parameters are now currently used in académie and policy circles. Thèse methods are tailored to compare the forecasting performances of the DSGE models with those of VAR models and to discriminate between competing DSGE models. Although DSGE models provide, in some cases, relatively good forecasts, the potential model misspecification and identification problems have as consequence the lack of efficiency in the estimated latent variables and structural parameters. These insufficiencies can dangerously bias recommendations of economic policy and pose serious problems in the evaluation of alternative policies. In this thesis, we propose a reconciliation that offers possibilities to better integrate of the theory and measurement in macroeconomics. The suggested methodology is used to combine explicitly the non-structural factor models and the micro-founded general equilibrium theoretical models. The factor models supplement the structural macroeconomic models intended to evaluate the economic evolutions in the short-term and this, mainly by offering a framework which allows the improvement of the estimates and forecasting of several macroeconomic indicators. Indeed, the method evaluation used makes it possible to exploit ail available macroeconomic information by using the factor models and allows us to estimate and test, within a unified framework, the structural parameters and the cyclical properties of the model, and to compare competing theories. The structural parameters, the unobservable variables and the cyclical components are estimated using the Kalman filter and the Markov chain Monte Carlo methods (MCMC). We use the set of the tools developed to make a formal comparison of two variants of the real business cycle model in King and Rebelo (2000) and of an extension of labour market specification consisting in the introduction of labour-hoarding behaviour, as suggested by Burnside, Eichenbaum and Rebelo (1993), which are applied to the US economy with quarterly data from 1948 to 2005. The use of the factor models provide an important set of tools to improve predictive qualities of DSGE models and can help to solve, in numerous cases, the identification and invertibility problems met in these types of models. The study shows that the technological shock identified by Gali (1999) is non-structural and that using the factor models factors should be preferred in some cases to the VAR approach. In the presence of the variables measured with error, using the detrending methods like the Hodrick-Prescott (HP) filter can lead to inconsistent estimates of some structural parameters of DSGE models. The test of stability suggests a reduction in the magnitude of exogenous shocks since the beginning of the 1980s, which implies the moderation of business cycles and fluctuations of interest rates. Lastly, the dynamic analysis shows that the impulse response functions of the investment to the government consumption shock are largely related to the values assigned to the structural parameters.
223

Analyse non-paramétrique des anticipations subjectives du revenu

Lessard, Jean-Pascal 16 April 2018 (has links)
Dans ce mémoire, j'estime de manière non-paramétrique des résultats comparables à ceux obtenus par Dominitz dans son papier intitulé : "Estimation of Income Expectations Models Using Expectations and Realization Data". Dans celui-ci, Dominitz estime la moyenne et l'écart-type du revenu anticipé. Pour ce faire, il interroge d'abord chaque individu afin qu'ils révèlent des points sur leur distribution de revenu anticipé. Par la suite, pour chaque répondant, il trouve la distribution log-normale qui correspond à leurs points révélés. Finalement, il estime la moyenne et l'écart-type de chacune des distributions. L'hypothèse que la distribution est de type log-normale pour tous les individus est problématique. Elle peut biaiser l'estimation de la moyenne et de l'écart-type, dans le cas où la fonction de distribution n'est pas réellement de type log-normale. Dans cette optique, ce mémoire présente de nouvelles estimations obtenues en appliquant une méthode qui ne suppose aucune forme de distribution spécifique pour les individus. Ces nouvelles estimations permettent de découvrir une relation non observée par Dominitz. Soit une relation négative entre le revenu réalisé pendant l'année et le degré d'incertitude des participants face à leur anticipation. Ce qui signifie qu'en moyenne les personnes ayant des revenus plus élevés prétendent connaître plus précisément quel sera leur revenu des 12 prochains mois que les autres répondants.
224

Prévision et réapprovisionnement dynamiques de produits de consommation à cycle rapide

Bouchard, Joëlle 24 April 2018 (has links)
L’industrie du commerce de détail est en plein bouleversement, de nombreuses bannières ont annoncé récemment leur fermeture, telles que Jacob, Mexx, Danier, Smart Set et Target au Canada, pour n’en nommer que quelques-unes. Pour demeurer compétitives et assurer leur pérennité, les entreprises en opération doivent s’adapter aux nouvelles habitudes d’achat des consommateurs. Nul doute qu’une meilleure connaissance de la demande s’impose. Or comment estimer et prévoir cette demande dans un contexte où la volatilité croit constamment, où la pression de la concurrence est omniprésente et globale, et où les cycles de vie des produits sont de plus en plus courts ? La gestion de la demande est un exercice difficile encore aujourd’hui, même avec le développement d’outils de plus en plus sophistiqués. L’environnement dynamique dans lequel évoluent les organisations explique, en partie, cette difficulté. Le client, depuis les 30 dernières années, est passé de spectateur passif à acteur de premier plan, modifiant inévitablement la relation consommateur-entreprise. Le développement technologique et la venue du commerce en ligne sont aussi largement responsables de la profonde mutation que subissent les entreprises. La façon de faire des affaires n’est plus la même et oblige les entreprises à s’adapter à ces nouvelles réalités. Les défis à relever sont nombreux. Les entreprises capables de bien saisir les signaux du marché seront mieux outillées pour prévoir la demande et prendre des décisions plus éclairées en réponse aux besoins des clients. C’est donc autour de ce thème principal, à travers un exemple concret d’entreprise, que s’articule cette thèse. Elle est divisée en trois grands axes de recherche. Le premier axe porte sur le développement d’une méthode de prévision journalière adaptée aux données de vente ou de demande présentant une double saisonnalité de même que des jours spéciaux. Le second axe de recherche, à deux volets, présente d’abord une méthode de prévision par ratios permettant de prévoir rapidement les ventes ou demandes futures d’un très grand nombre de produits et ses variantes. En deuxième volet, il propose une méthode permettant de calculer des prévisions cumulées de vente ou demande et d’estimer la précision de la prévision à l’aide d’un intervalle de confiance pour des produits récemment introduits dans les magasins d’une chaîne. Enfin, le troisième axe traite d’un outil prévisionnel d’aide à la décision de réapprovisionnement et propose des recommandations de taille de commande basées sur les résultats d’une analyse prévisionnelle, sur le déploiement des produits ciblés et sur l’analyse de la demande et des inventaires des produits substituts potentiels. Mots-clés : Prévision; saisonnalité; effet calendaire; produit sans historique; intervalle de confiance; décision de réapprovisionnement; réseau de détail. / The retail industry is in upheaval. Many banners have recently announced their closure, such as Jacob, Mexx, Danier, Smart Set and Target in Canada, to name a few. To remain competitive and ensure their sustainability, companies have to adapt themselves to new consumer buying habits. No doubt that a better understanding of demand is needed. But how to estimate and forecast demand in a context with constantly increasing volatility and ever shorter product lifecycles, where competitive pressure is pervasive and global? Managing demand is a difficult exercise, even in this age when numerous sophisticated tools have been developed. The dynamic environment in which organizations evolve explains in part the difficulty. Through the past 30 years, the customer has gone from passive spectator to leading actor, inevitably changing the consumer-business relationship. Technological development and the advent of e-commerce are also largely responsible for profound changes experienced by businesses. The way of doing business is not the same and forces companies to adapt to these new realities. The challenges are important. Companies able to seize market signals will be better equipped to anticipate demand and make better decisions in response to customer needs. This thesis is articulated according to three main lines of research around this main theme, exploiting a real business testbed. The first theme concerns the development of a daily forecast method adapted to sales data with a double seasonality as well as special days. The second twofold research first presents a forecasting method for using ratio to quickly forecast sales or future demands of a very large number of products and their variations. Then it proposes a method to determine cumulative sales forecasts and confidence intervals for products newly introduced in the chain stores. Finally, the third axis proposes a predictive method to help reorder launching and sizing decision based on the results of a predictive analysis, deployment of targeted products and inventory of potential substitute products. Keywords : Forecasting; seasonality; calendar effect; products without demand history; confidence intervals; replenishment decision; retail network.
225

L'inquiétude à l'égard d'un avenir menaçant : temporalité, éthique et prospective

Landry, Bernard 05 November 2021 (has links)
En partant de la thèse selon laquelle l'homme contemporain est pris en otage par un avenir qui le menace et que pourtant il fait exister, nous examinons dans ce mémoire en quoi cette problématique découle, d'une part, de la manière inadéquate dont l'éthique traditionnelle a tenu compte des conséquences futures du progrès technoscientifique, et, d'autre part, d'une conception de l'avenir qui ne permet pas à l'individu de tenir compte de l'accélération actuelle des changements. Par conséquent, nous nous interrogeons tout d'abord sur les raisons qui font que l'avenir est de nos jours menaçant. Par la suite, puisque cette problématique tient aussi à la façon qu'a l'être humain de comprendre l'avenir, nous examinons parmi différentes significations de cette dimension temporelle celle qui correspondrait le mieux à la réalité actuelle des changements. Enfin, étant donné que les mécanismes classiques de prévision ne permettent plus vraiment à l'homme contemporain de tenir compte de la vitesse des changements, nous évaluons en quoi l'attitude prospective peut être une manière appropriée de faire face à la menace exercée par les répercussions futures du progrès technoscientifique.
226

Analyse de la demande résidentielle d'électricité à partir d'enquêtes indépendantes : correction de biais de sélection et d'endogénéité dans un contexte de classes latentes

Yaméogo, Nadège-Désirée 13 April 2018 (has links)
Différentes méthodes sont proposées pour estimer la demande d'électricité conditionnelle au mode de chauffage. Un modèle logit mixte GAR(1) avec hétérogénéité est utilisé pour estimation le modèle de choix du mode de chauffage. Comme la tarification de l'électricité entraîne une endogénéité du prix marginal, un modèle à classes latentes est proposé et son estimation est faite selon une approche classique ou une approche bayésienne. Puisque le ménage choisit son mode de chauffage pour plusieurs années, nous captons l'aspect dynamique à partir de données d'enquêtes indépendantes en utilisant deux approches. D'abord, nous créons des pseudo-panels composés de cohortes et nous estimons la demande d'électricité par les moindres carrés quasi-généralisés et par l'algorithme de l'échantillonnage de Gibbs. Ensuite, nous créons un panel simulé avec lequel nous estimons la demande d'électricité conditionnelle en combinant l'algorithme de l'augmentation des données et l'échantillonnage de Gibbs.
227

Indice de qualité de station des pessières noires irrégulières

Ouzennou, Hakim 12 April 2018 (has links)
L'objectif de cette étude est de mettre au point un modèle mathématique reliant la hauteur dominante et l'âge des peuplements dominés par l'épinette noire (Picea mariana (Mill.) B.S.P.) au Québec, ce qui inclut les pessières irrégulières. Ce modèle, qui tient compte de la structure diamétrale du peuplement, a été étalonné à partir des données provenant des inventaires du réseau de placettes échantillons permanentes, recueillies entre 1970 et 2003 dans la province de Québec. Plusieurs indices de régularité ont été testés selon l'approche méthodologique de Raulier et al. (2003). Le modèle hauteur-âge utilisant l'indice de Shannon comme indice de régularité s'est avéré le plus performant pour prédire la hauteur dominante de l'épinette noire. Pour un âge donné, le modèle prédit une hauteur dominante plus élevée dans le cas des peuplements irréguliers que dans celui des peuplements réguliers. Par ailleurs, l'asymptote de hauteur dominante des peuplements irréguliers est atteinte beaucoup plus tard que dans le cas des peuplements réguliers. Ces effets sont plus marqués pour les stations caractérisées par une forte valeur d'indice de qualité de station. Cette différence est probablement liée au comportement adopté par les arbres des peuplements irréguliers qui, au stade juvénile, auraient subi une période d'oppression. Une fois que ces arbres sont dominants, ils adoptent une croissance en hauteur semblable à celle des arbres plus jeunes. Finalement, l'équation hauteur-âge ainsi mise au point est indépendante de l'âge de référence, ce qui permet la prédiction de la hauteur dominante à n'importe quel âge désiré si la hauteur dominante à un autre âge est connue.
228

PREVISION HYDROLOGIQUE D'ENSEMBLE ADAPTEE AUX BASSINS A CRUE RAPIDE. Elaboration de prévisions probabilistes de précipitations à 12 et 24 h. Désagrégation horaire conditionnelle pour la modélisation hydrologique. Application à des bassins de la région Cévennes Vivarais.

Marty, Renaud 22 January 2010 (has links) (PDF)
Les bassins de la région Cévennes-Vivarais subissent des crues récurrentes, générées par des épisodes de précipitations intenses, généralement en automne. La prévision de ces crues est une préoccupation majeure, nécessitant l'anticipation maximale pour le déclenchement de l'alerte, ainsi que la meilleure estimation possible des débits futurs. Après avoir dressé un panorama des éléments nécessaires à l'élaboration de prévisions hydrologiques, avec leurs incertitudes associées, nous proposons une approche simple et modulaire, adaptée aux bassins versants à réponse rapide (temps au pic de quelques heures). Compte tenu de l'anticipation souhaitée (24-48h), les prévisions quantitatives de précipitations constituent un élément clé de la démarche. Nous décrivons et évaluons deux sources de prévisions disponibles, i.e. la prévision d'ensemble EPS du CEPMMT et la prévision élaborée par adaptation statistique (analogie) au LTHE, puis nous proposons une correction de la seconde qui améliore encore sa fiabilité. Ces prévisions sont ensuite désagrégées des pas 12 ou 24h au pas horaire, via un désagrégateur flexible, générant des scénarios qui respectent les prévisions de précipitations et la structure climatologique horaire des averses. Ces scénarios forcent un modèle hydrologique, simple et robuste, pour élaborer une prévision hydrologique ensembliste. Il ressort alors que les prévisions hydrologiques sont sensiblement améliorées lorsqu'elles intègrent une information sur la répartition infra-journalière des cumuls de précipitations prévus, issue soit des EPS à 6 ou 12h, soit de la méthode des analogues appliquée au pas de 12h, soit d'une combinaison des deux approches.
229

Medium-range probabilistic river streamflow predictions

Roulin, Emmannuel 30 June 2014 (has links)
River streamflow forecasting is traditionally based on real-time measurements of rainfall over catchments and discharge at the outlet and upstream. These data are processed in mathematical models of varying complexity and allow to obtain accurate predictions for short times. In order to extend the forecast horizon to a few days - to be able to issue early warning - it is necessary to take into account the weather forecasts. However, the latter display the property of sensitivity to initial conditions, and for appropriate risk management, forecasts should therefore be considered in probabilistic terms. Currently, ensemble predictions are made using a numerical weather prediction model with perturbed initial conditions and allow to assess uncertainty. <p><p>The research began by analyzing the meteorological predictions at the medium-range (up to 10-15 days) and their use in hydrological forecasting. Precipitation from the ensemble prediction system of the European Centre for Medium-Range Weather Forecasts (ECMWF) were used. A semi-distributed hydrological model was used to transform these precipitation forecasts into ensemble streamflow predictions. The performance of these forecasts was analyzed in probabilistic terms. A simple decision model also allowed to compare the relative economic value of hydrological ensemble predictions and some deterministic alternatives. <p><p>Numerical weather prediction models are imperfect. The ensemble forecasts are therefore affected by errors implying the presence of biases and the unreliability of probabilities derived from the ensembles. By comparing the results of these predictions to the corresponding observed data, a statistical model for the correction of forecasts, known as post-processing, has been adapted and shown to improve the performance of probabilistic forecasts of precipitation. This approach is based on retrospective forecasts made by the ECMWF for the past twenty years, providing a sufficient statistical sample. <p><p>Besides the errors related to meteorological forcing, hydrological forecasts also display errors related to initial conditions and to modeling errors (errors in the structure of the hydrological model and in the parameter values). The last stage of the research was therefore to investigate, using simple models, the impact of these different sources of error on the quality of hydrological predictions and to explore the possibility of using hydrological reforecasts for post-processing, themselves based on retrospective precipitation forecasts. <p>/<p>La prévision des débits des rivières se fait traditionnellement sur la base de mesures en temps réel des précipitations sur les bassins-versant et des débits à l'exutoire et en amont. Ces données sont traitées dans des modèles mathématiques de complexité variée et permettent d'obtenir des prévisions précises pour des temps courts. Pour prolonger l'horizon de prévision à quelques jours – afin d'être en mesure d'émettre des alertes précoces – il est nécessaire de prendre en compte les prévisions météorologiques. Cependant celles-ci présentent par nature une dynamique sensible aux erreurs sur les conditions initiales et, par conséquent, pour une gestion appropriée des risques, il faut considérer les prévisions en termes probabilistes. Actuellement, les prévisions d'ensemble sont effectuées à l'aide d'un modèle numérique de prévision du temps avec des conditions initiales perturbées et permettent d'évaluer l'incertitude.<p><p>La recherche a commencé par l'analyse des prévisions météorologiques à moyen-terme (10-15 jours) et leur utilisation pour des prévisions hydrologiques. Les précipitations issues du système de prévisions d'ensemble du Centre Européen pour les Prévisions Météorologiques à Moyen-Terme ont été utilisées. Un modèle hydrologique semi-distribué a permis de traduire ces prévisions de précipitations en prévisions d'ensemble de débits. Les performances de ces prévisions ont été analysées en termes probabilistes. Un modèle de décision simple a également permis de comparer la valeur économique relative des prévisions hydrologiques d'ensemble et d'alternatives déterministes.<p><p>Les modèles numériques de prévision du temps sont imparfaits. Les prévisions d'ensemble sont donc entachées d'erreurs impliquant la présence de biais et un manque de fiabilité des probabilités déduites des ensembles. En comparant les résultats de ces prévisions aux données observées correspondantes, un modèle statistique pour la correction des prévisions, connue sous le nom de post-processing, a été adapté et a permis d'améliorer les performances des prévisions probabilistes des précipitations. Cette approche se base sur des prévisions rétrospectives effectuées par le Centre Européen sur les vingt dernières années, fournissant un échantillon statistique suffisant.<p><p>A côté des erreurs liées au forçage météorologique, les prévisions hydrologiques sont également entachées d'erreurs liées aux conditions initiales et aux erreurs de modélisation (structure du modèle hydrologique et valeur des paramètres). La dernière étape de la recherche a donc consisté à étudier, à l'aide de modèles simples, l'impact de ces différentes sources d'erreur sur la qualité des prévisions hydrologiques et à explorer la possibilité d'utiliser des prévisions hydrologiques rétrospectives pour le post-processing, elles-même basées sur les prévisions rétrospectives des précipitations. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
230

Influence de la couverture de neige de l'hémisphère nord sur la variabilité interannuelle du climat

Peings, Yannick 08 October 2010 (has links) (PDF)
La neige peut couvrir jusqu'à 40% des terres immergées de l'hémisphère Nord en hiver. De par son influence sur le bilan d'énergie en surface, elle constitue donc une source potentielle de variabilité et de prévisibilité climatique aux échelles mensuelles à saisonnières. Au-delà de ses effets locaux, la couverture neigeuse peut, à l'instar des surfaces océaniques, engendrer des téléconnexions et ainsi moduler le climat de régions plus lointaines. Cette thèse revisite plusieurs aspects des liens neige-climat en utilisant à la fois les jeux de données observées, les simulations réalisées pour le 4ème rapport du Groupe Intergouvernemental d'experts sur l'Evolution du Climat (GIEC), ainsi que le modèle atmosphérique ARPEGE-Climat pour réaliser des tests de sensibilité. L'influence de la neige eurasiatique/himalayenne sur la mousson indienne d'été, largement évoquée dans la littérature, est remise en cause par l'analyse des données observées étendues à la période 1967-2006. Toutefois, un prédicteur lié à la circulation atmosphérique de grande échelle sur le Pacifique Nord est proposé pour améliorer les prévisions saisonnières statistiques de la mousson indienne. L'influence des étendues de neige sibériennes en automne sur la variabilité atmosphérique hivernale de l'hémisphère Nord semble quant à elle plus robuste dans les observations. Si les modèles couplés du GIEC sont incapables de reproduire cette téléconnexion, les expériences de sensibilité réalisées avec ARPEGE-Climat confirment le mécanisme physique proposé dans la littérature, à condition que la perturbation en surface soit importante et que l'état moyen de la circulation extratropicale simulé soit suffisamment réaliste. Finalement, la prévisibilité de l'atmosphère associée à l'enneigement est quantifiée de façon plus systématique avec ARPEGE-Climat. Si les résultats montrent un impact mitigé sur la circulation de grande échelle, la relaxation/initialisation du modèle vers/avec des masses de neige plus réalistes permet une meilleure prévisibilité des températures de surface sur l'Europe et l'Amérique du Nord. La neige représente donc une source de prévisibilité climatique non négligeable à l'échelle locale et peut influencer à distance la circulation atmosphérique extratropicale. Les téléconnexions neige-climat doivent être cependant être confirmées dans les années qui viennent, et constituent encore un exercice difficile pour l'état de l'art des modèles de climat.

Page generated in 0.0962 seconds