Spelling suggestions: "subject:"modèles VAR"" "subject:"urodèles VAR""
1 |
Essays on Macroeconomic Price Adjustments / Essais sur des Ajustements Macroéconomiques des PrixSolcan, Mihaela 12 July 2013 (has links)
Au cours de la dernière décennie, les prix des logements ont augmenté de façon spectaculaire dans plusieurs pays à travers le monde. Par exemple, les prix des logements aux États-Unis, en Espagne et en Irlande ont été marqués par des cycles d'expansion et de récession les plus marquants de leur histoire. L'augmentation concomitante des prix des logements (et dans certains cas l’occurrence des épisodes d'expansion - récession) dans de nombreuses économies avancées soulève quelques questions importantes. Y a t-il eu une bulle immobilière dans les pays avancés? Quels sont les principaux déterminants de l'évolution des prix des logements dans ces pays? Est-ce que les marchés immobiliers des pays avancés sont-ils interdépendants? Le premier chapitre propose une modélisation structurelle des modèles VAR Bayésiens pour les États-Unis, la France, l'Espagne et la Grèce qui examinent les effets relatifs de l'évolution du secteur réel de production, du secteur financier et des flux internationaux de capitaux sur les marchés du logement. Un deuxième exercice tente d'identifier la présence de régimes de bulles immobilières à partir d’une modélisation Markovienne à deux états. Les principaux résultats liés au marche américain montrent que les entrées de capitaux étrangers, mesurées par le solde de la balance courante en pourcentage du PIB, comptent pour plus de 30 % de la variance des chocs qui frappent les prix des logements, tandis que les taux d’intérêt contribuent pour environ 38 %. En France, la politique monétaire a le plus grand pouvoir explicatif des évolutions du marché du logement, tandis qu'en Espagne et en Grèce, les taux hypothécaires variables et les investissements dans le logement exercent la plus grande influence sur le marché du logement. Tous les pays ont connu un régime de bulle immobilière sur la majeure partie des années 2000.Le deuxième chapitre utilise une approche de type Global VAR (ou GVAR) qui porte sur la modélisation des interdépendances internationales des prix immobiliers. Le modèle GVAR a été estimé empiriquement en utilisant des données trimestrielles de sept pays, pour la période 1987-2011. Les résultats montrent que les chocs des prix immobiliers originaires des États-Unis ont de fortes répercussions sur tous les pays, avec les plus fortes magnitudes observées pour l'Irlande. Ce résultat suggère que les marchés immobiliers pourraient être soumis à des effets de contagion du comportement des marchés financiers et que le secteur immobilier peut être analysé comme un actif spéculatif. Les liens entre les taux d'intérêt réels à long terme sont positifs et statistiquement significatifs dans tous les pays, même si ils ont un rôle limité sur l'évolution des prix immobiliers. Les chocs négatifs sur les prix immobiliers aux États-Unis ont des effets négatifs et statistiquement significatifs sur le PIB réel aux États-Unis, le Canada et l'Irlande.Le troisième chapitre est consacré au financement de la première guerre mondiale par les Etats-Unis et le rôle de la War Finance Corporation (WFC). Plus spécifiquement, on s’intéresse aux fluctuations des rendements des bons du Trésor américain émis entre novembre 1917 et décembre 1920. L’analyse économétrique est basée sur des techniques de séries temporelles Bayésiennes. Les principaux résultats montrent que les chocs positifs sur les achats de la WFC engendrent une réponse négative et statistiquement significative sur tous les types de rendements des bons de guerre. En outre, les achats de la WFC des bons Liberty et Victory, à l'exception du premier prêt des bons Liberty, ont eu un effet statistiquement significatif sur l'évolution des taux à court terme. Les achats de la WFC de la deuxième et de la quatrième émission des bons Liberty ont eu des effets significatifs et positifs sur les taux à court terme, ce qui suggère une déformation de la courbe des taux. / During the last decade, housing prices have increased dramatically in several countries around the world. For instance, housing prices in the United States, Spain, and Ireland have been marked by one of the most striking boom-bust cycles in their history. The concomitant increase in housing prices (and in some cases boom-bust episodes) across many advanced economies raises the following important questions. Was there a housing bubble across advanced countries? What are the main determinants of the housing price movements in these countries? Are the advanced countries' housing markets interrelated? The first chapter of the dissertation estimates a set of structural Bayesian VAR models for the U.S., France, Spain, and Greece that examine the relative effects of developments in the real production sector, the financial sector, and international capital flows on the housing market. A second exercise attempts to identify the presence of housing price bubble regimes by estimating a set of two state Markov-switching Bayesian VAR models. The main results for the U.S. show that foreign capital inflows, measured by the current account balance as a percentage of GDP, account for more than 30\% of the variance of the shocks hitting housing prices, while adjustable mortgage rates contribute about 38\%. In France, monetary policy has the largest explanatory power for the housing market evolutions, while in Spain and Greece, the variable mortgage rates and housing investments exert the largest influence on the housing market. All the countries experienced a bubble regime over most of the 2000s. The second chapter uses a Global VAR model estimated using quarterly data from seven countries, for the period 1987-2011, to analyze the interdependencies that exist between domestic and international factors in housing markets. We find that housing price shocks originating in the U.S. have large spillover effects on all the countries, with the largest magnitudes on Ireland. This result suggests that housing markets may be subject to contagion effects and that housing can be analyzed as a speculative asset, based on international data spanning the past two decades. Linkages in long-run real interest rates are positive and statistically significant across all the countries, although they have a limited role on the evolution of housing prices. Negative shocks to the U.S. housing prices have negative and statistically significant effects on real GDP in the U.S., Canada, and Ireland. The third chapter studies the price fluctuations of war bonds issued by the U.S Treasury in order to finance the World War I between November 1917 and December 1920. Bayesian time series techniques are used to carry out the analyses. We are focusing on the effects that the bond-purchasing program of the War Finance Corporation (WFC) had on the evolution of war bond yields. Our main results show that positive shocks to WFC purchases display a negative and statistically significant effect on all types of war bond yields. Furthermore, WFC purchases of Liberty and Victory Bonds, except the First Liberty Loan, had a statistically significant effect on the evolution of commercial paper rates. WFC purchases of the Second and Fourth Liberty Bonds had significant and positive effects on commercial paper rates, suggesting a twist in the bond yield curve.
|
2 |
La politique monétaire dans les modèles économétriques : primat de la théorie sur l'empirie / The monetary policy in econometric models : primacy of the theory over the empiricsAttioui, Abdelali 04 December 2014 (has links)
En s'appuyant sur les limites de l'économétrie mises en évidence dans les débats sur la politique monétaire depuis les années 1960, cette thèse s'attache à montrer le primat de la théorie sur l'empirie et que l'économétrie ne peut pas être décisive dans la remise en cause de la théorie. Nous adoptons une démarche basée sur des arguments épistémologiques pour montrer que ces débat dépassent le clivage théorie/empirie et intègrent une différence de vision quant à l'utilité d'un modèle empirique. Le programme de recherche de la Commission Cowles s'est constitué autour d'une articulation particulière de trois éléments fondamentaux. Un référentiel théorique issu de la Théorie Générale de Keynes, un modèle formel s'appuyant sur le relatif consensus autour du schéma IS-LM et des techniques économétriques pour estimer les paramètres de ce modèle. C'est la nature et le degré d'interdépendance entre les trois éléments ci-dessus qui sont remis en cause par les monétaristes et les tenants de la modélisation VAR. Alors que les keynésiens établissent une nette distinction entre le modèle théorique et le modèle estimé, pour les monétaristes cette distinction n'est pas claire et ne leur semble pas pertinente. Sims (1980) reproche aux modèles structurels de la Commission Cowles de comporter trop d'hypothèses théoriques non testées empiriquement. Il propose de soumettre les hypothèses d'exogénéité à des tests économétriques directs et précis. Toutefois, l'indétermination empirique de la causalité dans un modèle VAR, liée au problème de l'équivalence observationnelle (Basmann, 1965), impose l'adoption d'un schéma d'identification sur la base d'a priori théorique pour identifier les chocs de politique monétaire. Ceci constitue un cas extrême du problème de la sous-détermination de la théorie par les données soulevé par la thèse de Duhem-Quine (Duhem, 1906, Quine, 1951). De plus, Hoover (2009) note que l'analyse des réponses impulsionnelles dans un VAR fournit un bon exemple de ce que Cartwright (2007) qualifie de ‘'contrefactuel imposteur''. Le développement des Modèles à Correction d'Erreurs et des modèles VAR cointégrés a permis de renouveler l'analyse des propositions monétaristes. Toutefois, les liens entre les propositions de cointégration, les notions d'équilibre de long terme et de déséquilibre de court terme sont rarement interprétés dans le cadre d'un modèle théorique rigoureux et complètement spécifié. Pour Faust et Leeper (1994), l'identification d'un modèle par l'imposition de contraintes peut s'avérer non fructueuse lorsque la théorie économique n'établit pas de distinction claire entre les dynamiques de court et de long terme. Faust et Whiteman (1997) relèvent l'absence d'un critère d'arbitrage dans ces démarches en présence de conflit entre le principe théorique et l'ajustement aux données, sinon une subordination de la théorie à l'économétrie. Parallèlement au problème de l'identification, la critique de Lucas (1976) constitue la seconde critique fondamentale à laquelle se heurtent les modèles économétriques. Lucas (1980, 1986) adopte une nouvelle posture épistémologique en considérant le modèle théorique comme une ‘'fiction'' et non plus comme un ensemble de propositions sur le comportement d'une économie réelle. Il défend l'idée d'une explication du cycle en termes de discipline de l'équilibre (Lucas, 1977). Les modèles DSGE, qui constituant les modèles de base de la Nouvelle Synthèse, sont fortement influencés par la méthodologie lucasienne et s'inscrivent dans la continuité des modèles RBC (Taouil, 2011). Benati et Surico (2009) ont établi la supériorité des DSGE par rapport aux VAR structurels (SVAR). Cet échec des SVAR est la conséquence directe des restrictions inter-équations imposées par l'hypothèse des anticipations rationnelles, tel que cela a été initialement soulevé par la critique de Sargent (1979). / The purpose of this thesis is to show the primacy of the theory over the empirics and prove that econometrics cannot be decisive to question the theory. For this, we rely on the limits of econometrics highlighted in discussions of monetary policy since the 1960s. We adopt an approach based on epistemological arguments to show that these debates go beyond the cleavage theory/empirics and that they integrate a difference of vision as to the usefulness of an empirical model. The research program of the Cowles Commission was formed around a particular articulation of three fundamental elements: a theoretical repository of Keynes' General Theory, a formal model based on the relative consensus on the IS-LM diagram and econometric techniques to estimate the parameters of this model. It is the nature and the degree of interdependence between these three elements that are contested by the monetarists and supporters of the VAR modeling. While Keynesians make a clear distinction between the theoretical model and the estimated model, this distinction is not clear and does not seem relevant to the monetarists. Sims (1980) criticizes the structural models of the Cowles Commission for including too many theoretical hypotheses empirically untested. He proposes to review the exogeneity assumptions through direct and specific econometric tests. However, the empirical indeterminacy of causality in a VAR, linked to the problem of observational equivalence (Basmann, 1965), requires the adoption of an identification scheme on the basis of a theoretical a priori to identify the monetary policy shocks. This is an extreme case of the problem of under-determination of theory by data raised by the Duhem-Quine thesis (Duhem 1906, Quine, 1951). Furthermore, Hoover (2009) notes that the impulse response analysis in a VAR provides a good example of what Cartwright (2007) calls “counterfactual impostor”. The development of the Error Correction Models and cointegrated VAR models has renewed the analysis of monetarist proposals. However, the links between the proposals for cointégration, the notions of long-term equilibrium and short term disequilibrium are rarely interpreted in the context of a rigorous and fully specified theoretical model. According to Faust and Leeper (1994), the identification of a model by imposing constraints may not be fruitful when economic theory does not clearly distinguish the short-term and long-term dynamics. Faust and Whiteman (1997) note the absence of an arbitration criterion in these approaches apparent in the presence of conflict between the theoretical principle and the adjustment to the data; otherwise subordination of the theory to the econometrics. Alongside the issue of identification, the Lucas critique (1976) is the second fundamental criticism facing the use of econometric models. Lucas (1980, 1986) adopts a new epistemological posture considering the theoretical model as a 'fiction' and not as a set of proposals on the behavior of a real economy. He supports the idea of explaining the cycle in terms of discipline of equilibrium (Lucas, 1977). The DSGE models, that constitute the fundamental models of the New Synthesis theory, are strongly influenced by Lucas' methodology and are a continuity of the RBC models (Taouil, 2011). Benati and Surico (2009) demonstrated the superiority of a DSGE model with respect to a structural VAR (SVAR). This failure is a direct consequence of inter-equation restrictions imposed by the rational expectations hypothesis, initially raised by Sargent's critics (1979).
|
3 |
Modélisation des fluctuations macroéconomiques et comparaison des performances de modèles dynamiques d'équilibre général estimés : une approche par l'estimation bayésienne et les modèles à facteursRugishi, Muhindo G. 12 April 2018 (has links)
Depuis le début des années 1980, la modélisation macroéconomique a subi un renouveau méthodologique marqué par l'avènement des modèles d'équilibre général dynamiques stochastiques (DSGE) et des modèles vectoriels autorégressifs (VAR). Il existe actuellement un consensus dans les milieux académiques et institutionnels que les modèles DSGE peuvent offrir aux débats économiques un cadre d'analyse efficace. L'utilisation des modèles DSGE dans l'analyse des cycles et fluctuations économiques est un des domaines les plus actifs de la recherche macroéconomique. Comme les modèles DSGE sont mieux ancré dans la théorie économique, ils permettent de fournir des explications plus cohérentes de la dynamique du cycle économique et d'analyser les différents types de chocs qui perturbent régulièrement les différentes économies. Les modèles VAR sont un outil utilisé à grande échelle dans la macroéconomie appliquée, notamment dans la validation empirique des modèles DSGE. En dépit de leur faible ancrage dans la théorie économique, les modèles VAR restent assez flexibles pour traiter un éventail de questions concernant la nature et les sources des fluctuations économiques. En outre, ils sont particulièrement adaptés pour faire des tests statistiques d'hypothèses ainsi que pour des exercices de prévision à court terme. C'est ainsi que les résultats des modèles VAR sont souvent perçus comme des faits stylisés qui devraient être reproduits par des modèles économiques. Alors que la spécification des modèles DSGE a connu un développement remarquable aboutissant à une lecture des fluctuations économiques analogue à celle de la synthèse néoclassique (rôle des chocs budgétaires et monétaires à court terme) et que beaucoup des progrès ont été réalisés pour comparer les prédictions des modèles aux données, les méthodes couramment utilisées pour la validation de ces modèles présentent certaines limites. Il se pose actuellement la question de savoir si ces méthodes sont toujours appropriées pour fournir des estimations consistantes des paramètres structurels et pour permettre la comparaison formelle des modèles DSGE concurrents. En effet, il reste encore beaucoup à faire pour développer des outils simples et opérationnels permettant de mesurer l'adéquation entre les prédictions des modèles DSGE et les données. La méthode communément utilisée pour évaluer les modèles DSGE consiste à comparer les moments estimés ou obtenus par simulations stochastiques du modèle et les moments historiques. Si les moments historiques appartiennent à l'intervalle de confiance des moments estimés ou simulés, on considère que cet ensemble de moments est bien reproduit par le modèle. Le problème de cette méthodologie est qu'elle ne permet pas la comparaison de deux modèles quand l'un reproduit plutôt bien certains moments et plus mal d'autres moments qui sont, au contraire, mieux expliqués par l'autre modèle. L'absence d'un critère de choix explicite pour évaluer la portée explicative de différents modèles constitue un problème majeur si on cherche à discriminer entre différents paradigmes et théories concurrentes. L'utilisation de la méthode des moments pour l'évaluation des modèles DSGE et l'explication des fluctuations économiques est, à certains égards, très approximative. Cette insuffisance amène plusieurs chercheurs à opter pour l'utilisation des modèles VAR pour la validation empirique des modèles DSGE. Cependant, les débats à la suite du papier séminal de Gali (1999) portant sur l'impact des chocs technologiques sur les heures travaillées ont suscité de scepticisme concernant l'apport de cette méthodologie alternative et certains chercheurs se demandent actuellement si les modèles VAR peuvent vraiment être utiles pour discriminer des théories concurrentes et si leurs propriétés d'échantillonnage sont assez précises pour justifier leur popularité dans la macroéconomie appliquée. L'échec des modèles VAR d'ordre fini comme outil utile d'évaluation des modèles DSGE est parfois attribué au fait qu'ils ne sont que des approximations des processus VAR d'ordre infini ou bien à la possibilité qu'il n'existe point de représentation VAR. C'est le cas notamment quand l'hypothèse d'inversibilité n'est pas satisfaite. Les méthodes d'estimation par maximum de vraisemblance ou bayésienne des paramètres structurels des modèles DSGE sont maintenant d'utilisation courante dans les milieux académiques et décisionnels. Ces méthodes permettent de comparer les performances de prévision des modèles DSGE à celles d'un modèle VAR ou celles de deux théories concurrentes. Bien que les modèles DSGE fournissent de relativement bonnes prévisions dans certains cas, des problèmes de mauvaise spécification et de non identifiabilité ont comme conséquence que les paramètres structurels et le vecteur d'état de l'économie ne sont pas souvent estimés de manière consistante. Ces insuffisances peuvent entraîner des recommandations de politique économique dangereusement biaisées et posent de sérieux problèmes dans l'évaluation de politiques alternatives. Dans cette thèse, nous proposons une voie de réconciliation qui offre des possibilités d'une meilleure intégration de la théorie et de la mesure en macroéconomie. La méthodologie proposée permet de combiner de manière explicite les modèles factoriels non structurels et les modèles théoriques d'équilibre général micro-fondés. Les modèles factoriels complètent les modèles macroéconomiques structurels destinés à évaluer les évolutions économiques à court et ce, principalement en offrant un cadre qui permet d'améliorer l'estimation et la prévision de plusieurs indicateurs macroéconomiques. En effet, la méthode d'évaluation utilisée permet de prendre en compte toute l'information macroéconomique disponible en recourant aux modèles factoriels, d'estimer et de tester, dans un cadre unifié, les paramètres structurels et les propriétés cycliques d'un modèle DSGE et de comparer des théories concurrentes. Les variables inobservables et les composantes cycliques des modèles sont estimés à l'aide d'un filtre de Kalman et des techniques numériques de Monte Carlo par chaînes de Markov (MCMC). Nous utilisons l'ensemble des outils développés pour faire une comparaison formelle de deux variantes du modèle de cycles réels à la King-Rebelo (2000) et du modèle de thésaurisation du travail de Bumside, Eichenbaum et Rebelo (1993) appliqués à l'économie américaine sur des données trimestrielles allant de 1948 à 2005. L'utilisation des modèles à facteurs permet d'améliorer les qualités prédictives des modèles DSGE et de surpasser dans bon nombre des cas les problèmes de non identifiabilité et de non inversibilité rencontrés dans ces types de modèles. L'étude démontre que le choc technologique identifié par Gali (1999) est non structurel et que l'utilisation des modèles à facteurs devrait être préférée dans certains cas à celle de l'approche VAR. En présence des variables mesurées avec erreur, l'utilisation des filtres de type Hodrick-Prescott (HP) conduit à une estimation non consistante de certains paramètres structurels des modèles DSGE. Le test de stabilité indique une diminution de l'amplitude de chocs exogènes depuis le début des années 1980, ce qui se traduit par une modération des cycles économiques et des fluctuations des taux d'intérêt. Enfin, l'analyse dynamique montre que les réponses de l'investissement au choc de dépenses publiques sont largement liées aux valeurs assignées aux paramètres structurels. / Since the beginning of the 1980s, macroeconomic modeling has undergone a methodological revival marked by the advent of the dynamic stochastic general equilibrium (DSGE) models and vector autoregressive (VAR) models. There is currently a consensus in the académie and institutional circles that DSGE models can offer to the économie debates an effective framework of analysis. The analysis of économie cycles and fluctuations using DSGE models is one of the most active areas of macroeconomic research. As DSGE models are firmly grounded in the économie theory, they are used to provide more cohérent and adéquate explanations for observed dynamics of the business cycle and to analyze a wide range of shocks which buffet regularly various économies. VAR models are a widely used tool in empirical macroeconomics, particularly for the evaluation of DSGE models. Despite they rely so loosely on économie theory, VAR models remain enough flexible to treat a range of questions concerning the nature and the sources of the économie fluctuations. Moreover, they are particularly adapted to perform statistical hypothesis tests as well to provide reliable forecasts in the short-term. Thus the results from VAR models are often viewed as stylized facts that économie models should replicate. Although the specification of DSGE models has seen a remarkable development leading to a reading of the économie fluctuations similar to those of the neoclassical synthesis (rôle of budgetary and monetary shocks in the short-term) and that steps forward hâve also been made in comparing the models' prédictions to the data, the methods usually used for the evaluation of these models présent some limitations. This raises the question of whether or not these methods are always well-adapted to provide consistent estimates of the structural parameters and to allow the formal comparison of competing DSGE models. Indeed, there still remains much to do in the development of simple operational tools that make it possible to measure the gap between the prédictions of DSGE models and the data. The common method used for evaluating DSGE models consists of comparing the estimated moments or those obtained by stochastic simulations of the model and the historical moments. If the historical moments belong to the confidence interval of the estimated or simulated moments, it is considered that this set of moments is well reproduced by the model. The problem of this methodology is that it does not allow the comparison of two models when one matches some moments well and does more badly for other moments that are better explained by the other model. The difficultés in designing explicit sélection criteria to evaluate the success of competing models constitute a major problem if one seeks to discriminate between various paradigms and concurrent theories. The moment-matching techniques for the evaluation of DSGE models and the explanation of the économie fluctuations are, in certain sensé, very approximate. This insufficiency leads several researchers to choose using the VAR models for the empirical evaluation of DSGE models. However, the debates following the séminal paper of Gali (1999) focused on the impact of the technological shocks on hours worked caused scepticism concerning the contribution of this alternative methodology and some researchers currently wonder if the VAR models can actually discriminate between competing DSGE models and whether their sampling properties are good enough to justify their popularity in applied macroeconomics. The failure of finite-order VAR models for evaluating DSGE models is sometimes attributed to the fact that they are only approximations to infinite-order VAR processes or to the possibility that there does not exist a VAR représentation at ail. This is the case particularly when the assumption of invertibility is not satisfied. Bayesian or maximum likelihood estimation methods of the structural parameters are now currently used in académie and policy circles. Thèse methods are tailored to compare the forecasting performances of the DSGE models with those of VAR models and to discriminate between competing DSGE models. Although DSGE models provide, in some cases, relatively good forecasts, the potential model misspecification and identification problems have as consequence the lack of efficiency in the estimated latent variables and structural parameters. These insufficiencies can dangerously bias recommendations of economic policy and pose serious problems in the evaluation of alternative policies. In this thesis, we propose a reconciliation that offers possibilities to better integrate of the theory and measurement in macroeconomics. The suggested methodology is used to combine explicitly the non-structural factor models and the micro-founded general equilibrium theoretical models. The factor models supplement the structural macroeconomic models intended to evaluate the economic evolutions in the short-term and this, mainly by offering a framework which allows the improvement of the estimates and forecasting of several macroeconomic indicators. Indeed, the method evaluation used makes it possible to exploit ail available macroeconomic information by using the factor models and allows us to estimate and test, within a unified framework, the structural parameters and the cyclical properties of the model, and to compare competing theories. The structural parameters, the unobservable variables and the cyclical components are estimated using the Kalman filter and the Markov chain Monte Carlo methods (MCMC). We use the set of the tools developed to make a formal comparison of two variants of the real business cycle model in King and Rebelo (2000) and of an extension of labour market specification consisting in the introduction of labour-hoarding behaviour, as suggested by Burnside, Eichenbaum and Rebelo (1993), which are applied to the US economy with quarterly data from 1948 to 2005. The use of the factor models provide an important set of tools to improve predictive qualities of DSGE models and can help to solve, in numerous cases, the identification and invertibility problems met in these types of models. The study shows that the technological shock identified by Gali (1999) is non-structural and that using the factor models factors should be preferred in some cases to the VAR approach. In the presence of the variables measured with error, using the detrending methods like the Hodrick-Prescott (HP) filter can lead to inconsistent estimates of some structural parameters of DSGE models. The test of stability suggests a reduction in the magnitude of exogenous shocks since the beginning of the 1980s, which implies the moderation of business cycles and fluctuations of interest rates. Lastly, the dynamic analysis shows that the impulse response functions of the investment to the government consumption shock are largely related to the values assigned to the structural parameters.
|
4 |
Mésalignement et dynamique de convergence du taux de change réel en zone CFAYamb, Elie 11 December 2007 (has links) (PDF)
La thèse étudie et met en évidence les mésalignements (déviation du taux de change réel par rapport à sa valeur d'équilibre) du taux de change pour un certain nombre de pays des deux zones franc CFA, à savoir la Côte d'Ivoire et le Mali pour l'UEMOA, le Tchad, la République Centrafricaine et le Cameroun pour la CEMAC. En fait, il s'agit de savoir si l'organisation des unions monétaires en change fixe avec l'euro, avec leurs règles monétaires et les règles de convergence budgétaires adoptées ne conduisent pas à une surévaluation structurelle et chronique des taux de change réels des pays qui seraient préjudiciables à leur croissance ou plus généralement à leur développement ceci en dépit des gains de crédibilité obtenus en matière d'inflation et les avantages en terme de risque pays que procure des règles strictes, mais claires et constantes au cours du temps. Cela dit le taux de change réel d'équilibre de long terme est apprécié dans la thèse en fonction des termes de l'échange, de la part des biens non échangeables et échangeables internationalement, de la balance courante, de la demande intérieure, des droits et taxes sur les importations et exportations, du degré d'ouverture et des dépenses publiques. Nous en arrivons à la conclusion selon laquelle les taux de change réels ont été en général surévalués (en moyenne sur la période 1965-2003) quoique de manière diverse selon les pays, ce qui justifie après coup la dévaluation de 1994, les mésalignements ne se résorbant pas plus vite dans les « petits pays » que dans les « grands ». Un développement en quatre parties est proposé : la première décrit l'évolution des économies des zones franc selon le régime de change (dévaluation de 1994, passage à l'euro en 1999), la situation de la dette (crise de la dette et politiques d'ajustement structurelles entre 1986 et 1994), la spécialisation du commerce extérieur et le taux de croissance du PIB. Le problème récurrent du déficit extérieur et les taux de croissance faibles sont également mis en exergue. La seconde partie passe en revue les théories du taux de change réel d'équilibre et se termine par une évaluation très précise et originale des taux de change réels. La troisième partie étudie et discute une spécification d'une forme réduite de taux de change réel d'équilibre dans l'esprit de la théorie d'Edwards et développe les modèles VAR et VAR à correction d'erreur qui permettent de penser l'évolution du taux de change vers sa valeur de long terme considérée comme une fonction des fondamentaux décrite par une relation de cointégration. La quatrième partie enfin présente les estimations complètes pour les cinq pays étudiés, les discutent et les utilisent pour produire les conclusions rappelées au début de ce résumé.
|
5 |
Etudes des interactions entre les stratégies de ciblage d'inflation et leur contexte institutionnel : Application aux économies émergentesLucotte, Yannick 11 December 2012 (has links) (PDF)
La présente thèse analyse les interactions entre les stratégies de ciblage d'inflation et leur contexte institutionnelau sein des économies émergentes. Plus précisément, les investigations empiriques menées dans le cadre de cettethèse visent à étudier le rôle du cadre institutionnel dans la conduite et l'efficacité de cette stratégie de politiquemonétaire. Pour cela, nous procédons en deux étapes. Dans un premier temps, nous considérons le cadreinstitutionnel comme exogène à l'adoption du ciblage d'inflation et analysons dans quelle mesure ce cadre a pujouer un rôle dans les performances macroéconomiques des pays émergents cibleurs inflation. Ainsi, après avoirposé les bases conceptuelles du ciblage d'inflation et mis en évidence le rôle des pré-requis économiques etinstitutionnels dans le choix des économies émergentes d'adopter cette stratégie de politique monétaire (chapitre1), nous montrons qu'un certain nombre de conditions institutionnelles ont pu renforcer l'efficacité du ciblaged'inflation en termes de stabilité des prix (chapitre 2). Puis, dans un second temps, nous nous plaçons postadoptionet considérons le cadre institutionnel comme endogène à l'adoption du ciblage d'inflation. L'objectifvisé est alors d'analyser la réponse des autorités des économies émergentes à l'adoption de ce cadre de politiquemonétaire. Nous montrons ainsi que l'adoption du ciblage d'inflation exerce un effet disciplinant sur la conduitede la politique budgétaire, en incitant notamment le gouvernement à intensifier ses efforts de mobilisation desrecettes publiques (chapitre 3). Enfin, nous analysons la politique de change des pays émergents cibleursd'inflation et montrons que la poursuite simultanée d'une cible officielle d'inflation et d'une cible implicite dechange peut être contreproductive en termes de performances macroéconomiques, surtout lorsque cette gestiondu change est motivée par des considérations de stabilité financière (chapitre 4). D'où l'importance pour lespays émergents souhaitant adopter une stratégie de ciblage d'inflation de conduire en amont des réformesstructurelles visant à développer leur marché bancaire et financier.
|
6 |
Risque de longévité pour les régimes de retraite canadiens à prestations déterminéesVanasse, Étienne 24 May 2024 (has links)
Ce mémoire étudie le risque de longévité pour un régime de retraite à prestations déterminées dans un contexte québécois et canadien. On le définit comme le risque que les retraités vivent significativement plus longtemps que prévu, occasionnant des pertes pour le régime. Afin de le quantifier, on a recours à des données du Régime de pensions du Canada (RPC), du Régime de rentes du Québec (RRQ) et de la Base de données sur la longévité canadienne (BDLC) permettant l’utilisation de différentes variables explicatives (âge, année, cohorte, revenu et région). Une projection stochastique de la mortalité sur plusieurs sous-populations est effectuée selon un cadre général inspiré de Hunt et Blake (2014) et une approche de modèle relatif de Villegas et Haberman (2014). Selon les modèles identifiés et retenus dans ce mémoire, une évolution défavorable de la mortalité pour un régime de retraite, à un niveau de confiance de 95 %, pourrait occasionner une hausse d’environ 5% du coût des rentes pour les femmes et de 10 à 15 % du coût des rentes pour les hommes. Ces hausses de coût se comparent, pour une hypothèse de rendement de 4 % (i = 4,0 %), à une diminution de 0,4 % (i = 3,6 %) de cette hypothèse pour les femmes et de 1,0 % (i = 3,0 %) pour les hommes. Également, les résultats de la modélisation tendent à démontrer l’ordre suivant quant à l’importance relative des variables étudiées afin d’expliquer le niveau de la mortalité des femmes et des hommes : 1) l’âge 2) l’année 3) le revenu (proxy socio-économique) 4) la région (RPC vs RRQ). Il n’a pas été possible de déterminer qu’une variable de cohorte était nécessaire pour améliorer la modélisation de la mortalité des retraités canadiens.
|
7 |
Etudes des interactions entre les stratégies de ciblage d'inflation et leur contexte institutionnel : Application aux économies émergentes / Essays on the interactions between inflation targeting strategies and their institutional framework : An application to emerging economiesLucotte, Yannick 11 December 2012 (has links)
La présente thèse analyse les interactions entre les stratégies de ciblage d’inflation et leur contexte institutionnelau sein des économies émergentes. Plus précisément, les investigations empiriques menées dans le cadre de cettethèse visent à étudier le rôle du cadre institutionnel dans la conduite et l’efficacité de cette stratégie de politiquemonétaire. Pour cela, nous procédons en deux étapes. Dans un premier temps, nous considérons le cadreinstitutionnel comme exogène à l’adoption du ciblage d’inflation et analysons dans quelle mesure ce cadre a pujouer un rôle dans les performances macroéconomiques des pays émergents cibleurs inflation. Ainsi, après avoirposé les bases conceptuelles du ciblage d’inflation et mis en évidence le rôle des pré-requis économiques etinstitutionnels dans le choix des économies émergentes d’adopter cette stratégie de politique monétaire (chapitre1), nous montrons qu’un certain nombre de conditions institutionnelles ont pu renforcer l’efficacité du ciblaged’inflation en termes de stabilité des prix (chapitre 2). Puis, dans un second temps, nous nous plaçons postadoptionet considérons le cadre institutionnel comme endogène à l’adoption du ciblage d’inflation. L’objectifvisé est alors d’analyser la réponse des autorités des économies émergentes à l’adoption de ce cadre de politiquemonétaire. Nous montrons ainsi que l’adoption du ciblage d’inflation exerce un effet disciplinant sur la conduitede la politique budgétaire, en incitant notamment le gouvernement à intensifier ses efforts de mobilisation desrecettes publiques (chapitre 3). Enfin, nous analysons la politique de change des pays émergents cibleursd’inflation et montrons que la poursuite simultanée d’une cible officielle d’inflation et d’une cible implicite dechange peut être contreproductive en termes de performances macroéconomiques, surtout lorsque cette gestiondu change est motivée par des considérations de stabilité financière (chapitre 4). D’où l’importance pour lespays émergents souhaitant adopter une stratégie de ciblage d’inflation de conduire en amont des réformesstructurelles visant à développer leur marché bancaire et financier. / This thesis deals with the interactions between inflation targeting strategies and their institutional framework inemerging economies. More precisely, empirical investigations conducted in this thesis aim to study the role ofthe institutional framework in the conduct and efficiency of inflation targeting. To this end, we proceed in twosteps. First, we consider the institutional framework as exogenous to inflation targeting adoption and analyzewhether this framework has impacted macroeconomic performance of inflation targeting countries. Thus, afterlaying the conceptual background of inflation targeting and showing the importance of economic andinstitutional prerequisites in the choice of emerging countries of adopting this monetary policy strategy (chapter1), we show that some institutional conditions can strengthen the performance of inflation targeting countries interms of inflation level and volatility (chapter 2). Then, in a second step, we consider the institutionalframework as endogenous to inflation targeting and analyze the response of authorities to the adoption of thismonetary policy strategy. The first result that emerges is that the adoption of inflation targeting provides strongincentives to government for improving fiscal discipline, especially the collection of domestic tax revenue(chapter 3). Finally, we analyze the exchange rate policy of inflation targeting emerging economies and showthat the pursuit of two nominal targets, inflation and exchange rate, can be counterproductive in terms ofmacroeconomic performance, more particularly when this exchange rate management is motivated by financialstability considerations (chapitre 4). Hence the importance for inflation targeting candidates of conductingstructural reforms to increase financial development.
|
Page generated in 0.0405 seconds