• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 5
  • Tagged with
  • 22
  • 22
  • 14
  • 13
  • 13
  • 13
  • 12
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

La prévision de l'inflation au Canada

Moisan, Myriam January 2010 (has links) (PDF)
Ce travail vise à présenter un modèle de prévision de l'inflation au Canada à l'aide de données mensuelles. Notre motivation vient du fait que la prévision de l'inflation, au moyen de données historiques de plusieurs années, constitue une nécessité dans le secteur financier. Contrairement aux modèles économétriques classiques, qui n'utilisent que des données macroéconomiques pour prévoir l'inflation, notre modèle utilisera des facteurs dynamiques intégrant le maximum d'information disponible. Cette modélisation, avec beaucoup de données et avec l'ajout de données financières, permettra de contrer le problème de la surparamétrisation et aussi d'augmenter le potentiel de prévision hors échantillon. Malgré que ce travail vise la prévision de l'inflation au Canada, il pourrait être appliqué à d'autres pays industrialisés avec ou sans cible explicite d'inflation. La principale raison motivant notre choix de sujet passe par le besoin de fonder et de calibrer des pondérations d'actifs avec l'information disponible sur les marchés financiers. L'analyse mensuelle de portefeuilles ou de produits structurés, sur un terme de plusieurs années, a besoin d'être pondérée par un modèle de prévision de l'inflation. Le but poursuivi par ce travail sera d'élaborer un tel modèle pour faire la prévision de l'inflation au Canada. Pour former ce modèle, quatre facteurs sont choisis pour capter le contexte d'une économie ouverte: financiers, économiques, prix et travail. Les limitations font que l'inflation des autres pays qui auraient aussi pu être considérés ne le seront pas, étant donné la disponibilité des données et des problèmes de calibration d'une telle étendue. Ce travail ciblera essentiellement la création d'un modèle pour des données canadiennes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Inflation, Facteurs dynamiques, Surparamétrisation, Conditions de non arbitrage, Marchés financiers, Prévisions hors échantillon.
2

Prévision de croissance des pays développés

Schmitz, Nelly January 1965 (has links)
Doctorat en sciences sociales, politiques et économiques / info:eu-repo/semantics/nonPublished
3

L'expertise dans la prévision à court terme de variables économiques: contributions méthodologiques et empiriques

Pasteels, Jacques January 1996 (has links)
Doctorat en sciences sociales, politiques et économiques / info:eu-repo/semantics/nonPublished
4

Tests d'efficience des prévisions de la Banque du Canada : état des lieux et nouvelles approches.

Robineau, Maxime 02 June 2023 (has links)
Titre de l'écran-titre (visionné le 22 mai 2023) / Ce mémoire développe un nouveau test de rigidité dans un ensemble de prévisions, d'après une décomposition du concept d'efficience faible selon un phénomène de rigidité prévisionnelle et le sens des révisions. Ce test permet d'évaluer la tendance des prévisionnistes à donner une importance trop grande ou trop faible aux prévisions précédentes. Des analyses de rationalité, de biais, d'efficience et de rigidité sont réalisées à l'aide de la base de données des prévisions historiques de la Banque du Canada récemment rendue disponible. On trouve que les prévisions sont rationnelles dans moins de la moitié des cas, principalement en raison du biais des prévisions. L'efficience est moins problématique, mais le nouveau test de rigidité dévoile que les prévisions efficientes sont souvent sous-ajustées, suggérant qu'une proportion importante des révisions ont dû être dans le mauvais sens, accentuant l'écart prévisionnel qui aurait été observé sans révision, pour permettre de satisfaire la contrainte d'efficience. En général, les prévisions concernant l'indice des prix à la consommation sont les plus rationnelles, et les horizons de prévision moins éloignés présentent moins souvent des problèmes que les horizons plus lointains. D'autres manipulations permettent de conclure que les résultats ne sont pas uniquement attribuables aux périodes d'incertitude macroéconomiques importantes, comme les périodes de récession. / This thesis develops a new test of the rigidity in a set of forecasts, based on the decomposition of the concept of weak efficiency into the phenomenon of forecast rigidity and the direction of the revisions. This test assesses the tendency of forecasters to give too much or too little importance to previous forecasts. Rationality, bias, efficiency and rigidity analyzes are performed with the recently made available historical forecasts database of the Bank of Canada. Forecasts are found to be rational in less than half of the cases, mainly due to forecast bias. Efficiency is less of a problem, but the new rigidity test reveals that efficient forecasts are often underadjusted, suggesting that a large proportion of revisions must have been in the wrong direction, accentuating the forecast error that would have been observed without a revision, in order for the weak efficiency constraint to be satisfied. In general, forecasts regarding the consumer price index are the most rational, and shorter forecast horizons present fewer problems than longer ones. Other manipulations lead to the conclusion that the results are not solely attributable to periods of significant macroeconomic uncertainty, such as periods of recession.
5

Analyse de la conjoncture économique québécoise et des données sujettes à la révision

Charron, Sébastien 23 April 2018 (has links)
L'analyse de la conjoncture économique québécoise est complexe étant donné l'incertitude sur les données présentes et passées. Un indicateur de cette incertitude est les révisions des données. C'est-à-dire que l'on ajuste les données au fils du temps pour corriger des estimations inexactes. Les conséquences des révisions des données sur une modélisation autorégressive du PIB avec une matrice de transition markovienne sera caractérisée, ce qui permet de nuancer l'ampleur des expansions et des récessions qui dictent la conduite d'actions publiques et la conduite de certains agents économiques.
6

Three essays in financial frictions and international macroeconomics

Kopoin, Alexandre 20 April 2018 (has links)
Cette thèse examine le rôle des frictions financières qui émergent des asymétries d’information dans les marchés financiers sur la propagation des chocs, et sur les fluctuations économiques. Le premier essai utilise la modélisation factorielle dynamique ciblée pour évaluer la contribution des données nationales et internationales sur la question de la prévision du PIB des provinces du Canada. Les résultats indiquent que l’utilisation des données nationales et internationales, principalement les données américaines, améliore significativement la qualité des prévisions. De plus, cet effet est présent et significatif pour les horizons de court terme (moins d’un an), mais disparait pour les prévisions de long terme. Ceci suggère que les chocs qui prennent naissance au niveau national ou international sont transmis aux provinces, et donc reflétés dans les séries chronologiques régionales assez rapidement. Tandis que le premier essai aborde la question de la transmission des chocs à l’aide d’un modèle macro-économétrique non-structurel, les deux derniers essais développent des modèles d’équilibre général dynamique stochastique (DSGE) pour analyser les effets des frictions financières sur la propagation des chocs nationaux et internationaux. Ainsi, le deuxième essai présente un modèle DSGE dans un cadre international avec des frictions financières. Le cadre théorique comprend le mécanisme d’accélérateur financier, les canaux du capital bancaire et du taux de change. Les résultats suggèrent que le canal du taux de change, longtemps ignoré, joue un rôle primordial dans la propagation des chocs. De plus, en maintenant les trois canaux de transmission, les chocs nationaux et internationaux jouent un rôle important dans l’explication des fluctuations macroéconomiques. Par ailleurs, les résultats montrent aussi que les économies les mieux capitalisées réagissent mieux que celles avec une capitalisation bancaire plus faible lorsqu’il advient un choc négatif. Ces résultats soulignent l’importance du capital bancaire dans une perspective internationale et peuvent contribuer à enrichir le débat mondial sur la régulation bancaire. Le troisième essai, à travers un modèle DSGE à deux pays avec des frictions financières, analyse l’effet des activités bancaires transfrontalières sur la propagation des chocs nationaux et internationaux, et sur la synchronisation des cycles économiques. Les résultats suggèrent que la présence d’activité bancaire transfrontalière amplifie l’effet des chocs de productivité et de politique monétaire. Cependant, l’impact sur la consommation est plus faible à cause des possibilités de lissage à travers les dépôts inter-pays. De plus, les résultats montrent que les corrélations bilatérales entre les agrégats macroéconomiques deviennent plus importantes en présence d’activités bancaires transfrontalières. / This dissertation investigates the role of financial frictions stemming from asymmetric information in financial markets on the transmission of shocks, and the fluctuations in economic activity. Chapter 1 uses the targeted factor modeling to assess the contribution of national and international data to the task of forecasting provincial GDPs in Canada. Results indicate using national and especially US-based series can significantly improve the forecasting ability of targeted factor models. This effect is present and significant at shorter-term horizons but fades away for longerterm horizons. These results suggest that shocks originating at the national and international levels are transmitted to Canadian regions and thus reflected in the regional time series fairly rapidly. While Chapter 1 uses a non-structural, econometric model to tackle the issue of transmission of international shocks, the last two Chapters develop structural models, Dynamic Stochastic General Equilibrium (DSGE) models to assess spillover effects of the transmission of national and international shocks. Chapter 2 presents an international DSGE framework with credit market frictions to assess issues regarding the propagation of national and international shocks. The theoretical framework includes the financial accelerator, the bank capital and exchange rate channels. Results suggest that the exchange rate channel, which has long been ignored, plays an important role in the propagation of shocks. Furthermore, with these three channels present, domestic and foreign shocks have an important quantitative role in explaining domestic aggregates. In addition, results suggest that economies whose banks remain well-capitalized when affected by adverse shock experience less severe downturns. These results highlight the importance of bank capital in an international framework and can be used to inform the worldwide debate over banking regulation. In Chapter 3, I develop a two-country DSGE model in which banks grant loans to domestic as well as to foreign firms to study effects of these cross-border banking activities in the transmission of national and international shocks. Results suggests that cross-border banking activities amplify the transmission of productivity and monetary policy shocks. However, the impact on consumption is limited, because of the cross-border saving possibility between the countries. Moreover, results suggests that under cross-border banking, bilateral correlations become greater than in the absence of these activities. Overall, results demonstrate sizable spillover effects of cross-border banking in the propagation of shocks and suggest that cross-border banking is an important source of the synchronization of business cycles.
7

Pouvoir prédictif des données d'enquête sur la confiance

Benson, Marie Anne 05 July 2021 (has links)
Les données d’enquête sur la confiance sont des séries chronologiques recensant les réponses à des questions visant à mesurer la confiance et les anticipations des agents économiques à propos de l’activité économique future. La richesse de ces données ainsi que leur disponibilité en temps réel suscitent l’intérêt de nombreux prévisionnistes, qui y voient un moyen d’améliorer leurs prévisions classiques. Dans ce mémoire, j’évalue le pouvoir prédictif des données d’enquête sur la confiance pour l’évolution future du PIB, tout en comparant notamment la performance prévisionnelle des indices de confiance produits par le Conférence Board of Canada aux indicateurs que je construis par l’analyse en composantes principales. À partir de trois modèles linéaires, j’analyse une expérience de prévision hors échantillon, de type « rolling windows », sur un échantillon couvrant la période 1980 à 2019. Les résultats démontrent que l’analyse en composantes principales fournissent des indicateurs plus performants que les indices de confiance du Conference Board. Cependant, les résultats de l’étude ne permettent pas d’affirmer clairement que la confiance améliore la prévision une fois que le taux de croissance retardé du PIB est incorporé. / Confidence survey data are time series containting the responses to questions aiming to measure confidence and expectations of economic agents about future economic activity. The richness of these data and their availability in real time attracts the interest of many forecasters who see it as a way to improve their traditional forecasts. In this thesis, I assess the predictive power of survey data for the future evolution of Canadian GDP, while comparing the forecasting performance of the Conference Board of Canada own confidence indices to the indicators I construct using principal component analysis. Using three simple linear models, I carry out an out-of-sample forecasting experiment with rolling windows on the period 1980 to 2019. The results show that principal component analysis provides better-performing indicators than the indices produced by the Conference Board. However, the results of the study cannot show that clear that confidence improves forecasting unambiguently once the lagged growth rate of GDP is added to the analysis.
8

Analyse de la conjoncture et des données sujettes à la révision : application au Canada

Baron, Standley-Réginald 18 April 2018 (has links)
Ce papier met l'accent sur deux points essentiels : l'analyse de la conjoncture en temps réel et la révision des données. Contrairement à d'autres travaux, nous cherchons, non seulement à évaluer la conjoncture en temps réel, mais aussi nous essayons de voir à quel point la révision des données peut affecter notre estimation de la conjoncture. Pour déterminer les différentes phases du cycle économique canadien, nous adoptons l'approche d'Hamilton et Chauvet (2006). En utilisant le PIB comme indice pour caractériser la conjoncture et en appliquant les modèles à changements de régime markoviens, comme méthode moderne de séparation des phases d’expansion et de récession dans une économie. Les résultats obtenus permettent de faire ressortir deux points importants. La révision des données n'affecte pas significativement l'analyse des points tournants en temps réel, par contre elle s'avère importante quand il faut juger de l'ampleur d'une récession ou d`une expansion. Mots clés : cycle économique en temps réel, révision des données, modèles à changements de régime markoviens.
9

Une étude de la relation entre la croissance et la conjoncture en Belgique

Peeterssen, A. van January 1969 (has links)
Doctorat en sciences sociales, politiques et économiques / info:eu-repo/semantics/nonPublished
10

Essays in real-time forecasting

Liebermann, Joëlle 12 September 2012 (has links)
This thesis contains three essays in the field of real-time econometrics, and more particularly<p>forecasting.<p>The issue of using data as available in real-time to forecasters, policymakers or financial<p>markets is an important one which has only recently been taken on board in the empirical<p>literature. Data available and used in real-time are preliminary and differ from ex-post<p>revised data, and given that data revisions may be quite substantial, the use of latest<p>available instead of real-time can substantially affect empirical findings (see, among others,<p>Croushore’s (2011) survey). Furthermore, as variables are released on different dates<p>and with varying degrees of publication lags, in order not to disregard timely information,<p>datasets are characterized by the so-called “ragged-edge”structure problem. Hence, special<p>econometric frameworks, such as developed by Giannone, Reichlin and Small (2008) must<p>be used.<p>The first Chapter, “The impact of macroeconomic news on bond yields: (in)stabilities over<p>time and relative importance”, studies the reaction of U.S. Treasury bond yields to real-time<p>market-based news in the daily flow of macroeconomic releases which provide most of the<p>relevant information on their fundamentals, i.e. the state of the economy and inflation. We<p>find that yields react systematically to a set of news consisting of the soft data, which have<p>very short publication lags, and the most timely hard data, with the employment report<p>being the most important release. However, sub-samples evidence reveals that parameter<p>instability in terms of absolute and relative size of yields response to news, as well as<p>significance, is present. Especially, the often cited dominance to markets of the employment<p>report has been evolving over time, as the size of the yields reaction to it was steadily<p>increasing. Moreover, over the recent crisis period there has been an overall switch in the<p>relative importance of soft and hard data compared to the pre-crisis period, with the latter<p>becoming more important even if less timely, and the scope of hard data to which markets<p>react has increased and is more balanced as less concentrated on the employment report.<p>Markets have become more reactive to news over the recent crisis period, particularly to<p>hard data. This is a consequence of the fact that in periods of high uncertainty (bad state),<p>markets starve for information and attach a higher value to the marginal information content<p>of these news releases.<p>The second and third Chapters focus on the real-time ability of models to now-and-forecast<p>in a data-rich environment. It uses an econometric framework, that can deal with large<p>panels that have a “ragged-edge”structure, and to evaluate the models in real-time, we<p>constructed a database of vintages for US variables reproducing the exact information that<p>was available to a real-time forecaster.<p>The second Chapter, “Real-time nowcasting of GDP: a factor model versus professional<p>forecasters”, performs a fully real-time nowcasting (forecasting) exercise of US real GDP<p>growth using Giannone, Reichlin and Smalls (2008), henceforth (GRS), dynamic factor<p>model (DFM) framework which enables to handle large unbalanced datasets as available<p>in real-time. We track the daily evolution throughout the current and next quarter of the<p>model nowcasting performance. Similarly to GRS’s pseudo real-time results, we find that<p>the precision of the nowcasts increases with information releases. Moreover, the Survey of<p>Professional Forecasters does not carry additional information with respect to the model,<p>suggesting that the often cited superiority of the former, attributable to judgment, is weak<p>over our sample. As one moves forward along the real-time data flow, the continuous<p>updating of the model provides a more precise estimate of current quarter GDP growth and<p>the Survey of Professional Forecasters becomes stale. These results are robust to the recent<p>recession period.<p>The last Chapter, “Real-time forecasting in a data-rich environment”, evaluates the ability<p>of different models, to forecast key real and nominal U.S. monthly macroeconomic variables<p>in a data-rich environment and from the perspective of a real-time forecaster. Among<p>the approaches used to forecast in a data-rich environment, we use pooling of bi-variate<p>forecasts which is an indirect way to exploit large cross-section and the directly pooling of<p>information using a high-dimensional model (DFM and Bayesian VAR). Furthermore forecasts<p>combination schemes are used, to overcome the choice of model specification faced by<p>the practitioner (e.g. which criteria to use to select the parametrization of the model), as<p>we seek for evidence regarding the performance of a model that is robust across specifications/<p>combination schemes. Our findings show that predictability of the real variables is<p>confined over the recent recession/crisis period. This in line with the findings of D’Agostino<p>and Giannone (2012) over an earlier period, that gains in relative performance of models<p>using large datasets over univariate models are driven by downturn periods which are characterized<p>by higher comovements. These results are robust to the combination schemes<p>or models used. A point worth mentioning is that for nowcasting GDP exploiting crosssectional<p>information along the real-time data flow also helps over the end of the great moderation period. Since this is a quarterly aggregate proxying the state of the economy,<p>monthly variables carry information content for GDP. But similarly to the findings for the<p>monthly variables, predictability, as measured by the gains relative to the naive random<p>walk model, is higher during crisis/recession period than during tranquil times. Regarding<p>inflation, results are stable across time, but predictability is mainly found at nowcasting<p>and forecasting one-month ahead, with the BVAR standing out at nowcasting. The results<p>show that the forecasting gains at these short horizons stem mainly from exploiting timely<p>information. The results also show that direct pooling of information using a high dimensional<p>model (DFM or BVAR) which takes into account the cross-correlation between the<p>variables and efficiently deals with the “ragged-edge”structure of the dataset, yields more<p>accurate forecasts than the indirect pooling of bi-variate forecasts/models. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished

Page generated in 0.0928 seconds