• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 52
  • 2
  • Tagged with
  • 112
  • 55
  • 51
  • 28
  • 27
  • 25
  • 24
  • 23
  • 22
  • 21
  • 20
  • 20
  • 19
  • 19
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Trois essais sur les liens entre les marchés immobiliers et l’économie / Three essays on the linkages between real estate markets and the wider economy

Bouchouicha, Ranoua 13 June 2013 (has links)
Cette thèse présente trois essais qui fournissent un aperçu global de la manière dont les chocs au niveau du marché immobilier affectent l'économie et vice versa.Dans le premier essai, nous utilisons des modèles de Markov à changement de régimes avec des probabilités qui dépendent du temps et des probabilités fixes afin d'évaluer l'ampleur des mécanismes de transmission entre le marché de placements immobiliers, le marché du logement et le marché boursier au Royaume-Uni et aux États-Unis. Nous montrons que la relation entre les marchés immobiliers et les marchés des actions est plus significative quand les marchés immobiliers sont considérés comme des variables explicatives.Dans le deuxième essai, nous introduisons le marché d'immobilier commercial afin d'identifier les interactions entre différents marchés immobiliers et certaines variables macroéconomiques. Nous utilisons une fonction de cohérence dynamique dans un cadre d'analyse spectrale pour évaluer ces liens. Les résultats montrent une tendance commune à long terme des différents marchés immobiliers. Aux États-Unis, les canaux de transmissions: richesse et dépenses de logement sont très conducteurs en cas de crise immobilière. Cependant, au Royaume-Uni, seulement le canal de la richesse s'avère conducteur dans les périodes de ralentissement du marché immobilier. Le troisième essai développe un cadre pour modéliser le marché de logement français. Nous élaborons et estimons un modèle de recherche d'équilibre du marché du logement segmenté entre locataires et propriétaires se caractérisant par une hétérogénéité des besoins de logement. Notre modèle reproduit l'évolution des prix de l'immobilier sur le marché français de 1996 à 2006, ainsi que la corrélation entre le prix, l'âge et la durée. En outre, nous montrons que l'inadéquation des individus avec leur logement est fortement corrélée avec le cycle de vie, et que l'agrégation de ces événements peut empêcher l'équilibre du marché à long terme. / This thesis contains three essays on the linkages between real estate and the wider economy. We provide a global snapshot of how shocks in the real estate market affect the economy and vice versa. In the first essay, we use Markov Switching models with time varying transition probabilities and fixed time transition probabilities in order to assess the magnitude of the transmission mechanisms between real estate markets and stock markets in the UK and the US. The results show a more significant credit price effect than a wealth effect. In addition, the different features of the linkages between real estate markets and stock markets are explained by the difference in the indices constructions of the housing prices and the REIT models in the two countries.In the second essay, an additional property market is included to further investigate the links of different real estate markets with some key macroeconomic variables. We use a dynamic coherence function in a spectral framework to assess these linkages. We find a common trend that drives all the real estate markets, particularly in the long run. The results show that in the US, wealth and housing expenditure channels are very conductive during real estate crises. However, for the UK, only the wealth is significant as a transmission channel during real estate market downturns. The third essay develops a framework that models the French housing market. We specify and estimate an equilibrium search model of the housing market that features a segmented housing market with heterogeneity in housing need. Our model reproduces almost exactly the evolution of French housing prices from 1996 to 2006, along with the correlation between price, age and duration. In addition we show that individuals mismatch is highly correlated with the life-cycle, and that aggregation of such events can prevent the market from clearing over a long period of time.
82

Theoretical and empirical essays on inflation targeting and central bank transparency / Essais théoriques et empiriques sur les régimes de ciblage d’inflation et les politiques de transparence des banques centrales

M'Baye, Cheick Kader 28 June 2013 (has links)
Cette thèse contribue au débat sur les politiques de ciblage d’inflation et de transparence des banques centrales en présentant notamment trois essais théoriques et empiriques sur le sujet. Dans le premier essai, nous étudions théoriquement les conditions sous lesquelles il serait optimal pour une banque centrale d’adopter explicitement un régime de ciblage d’inflation. Nous proposons un nouveau cadre théorique qui combine les deux principales raisons avancées dans la littérature pour expliquer les effets réels à court terme de la politique monétaire et qui sont d’une part, la présence d’informations hétérogènes entre les agents économiques (Phelps, 1970 ; Lucas, 1972), et d’autre part, la rigidité des salaires ou des prix (Taylor, 1980 ; Calvo, 1983). Nous analysons ensuite notre problématique dans ce nouveau cadre en considérant l’interaction entre le degré de rigidité des prix, et le degré de complémentarités stratégiques dans la fixation de prix des firmes. Nos résultats montrent que l’adoption d’un régime de ciblage d’inflation dépend fortement de l’importance relative des paramètres du modèle. En particulier, nous montrons que le ciblage d’inflation devrait être toujours adopté lorsque les complémentarités stratégiques sont faibles, alors que dans le cas contraire, il est optimal uniquement lorsque les prix sont assez rigides et que la banque centrale détient des informations suffisamment précises sur les fondamentaux de l’économie. Dans le second essai, nous utilisons la macroéconomie expérimentale afin d’évaluer dans quelle mesure l’annonce de la cible d’inflation est pertinente dans un cadre de ciblage de l’inflation. Nos résultats montrent que lorsque la banque centrale ne se soucie que de la stabilisation de l’inflation, l’annonce de la cible d’inflation n’apporte pas de gain supplémentaire en termes de performances macro-économiques, par rapport à une politique monétaire active (type règle de Taylor). Cependant, si la banque centrale intègre également la stabilisation de l’activité économique dans ses objectifs, la communication de la cible contribue à réduire la volatilité de l’inflation, du taux d’intérêt, et de l’écart de production, bien que leurs niveaux moyens ne soient pas affectés. Ce résultat fournit ainsi une justification pour l’adoption d’un régime de ciblage flexible d’inflation par la majorité des pays ciblant l’inflation. Enfin dans le troisième essai, nous appliquons une analyse transversale ainsi que la technique des variables instrumentales, afin d’analyser les effets de la transparence des banques centrales sur les résultats macroéconomiques dans les pays émergents. Nous construisons un nouvel indice de transparence qui combine certains aspects de l’indice de transparence globale d’Eijffinger et Geraats (2006), avec ceux de l’indice de transparence sur le comité de politique monétaire de Hayo et Mazhar (2011). Nous analysons ensuite le rôle individuel de chaque composante du nouvel indice en termes de réduction du niveau de l’inflation et de sa volatilité, ainsi que de la volatilité du produit. Contrairement à la littérature antérieure, nous trouvons que le nouvel indice de transparence ainsi que ses aspects économique, politique, procédurale et de transparence sur la politique monétaire impactent négativement le niveau moyen de l’inflation, mais pas sa volatilité dans ces pays. L’unique composante du nouvel indice qui permet de réduire à la fois la volatilité de l’inflation et celle de la production est la transparence opérationnelle. Ces résultats s’avèrent robustes aux différentes spécifications de modèles économétriques utilisés dans cet essai. / This dissertation contributes to the debate on inflation targeting and central bantransparency by presenting three theoretical and empirical essays on the topic. In the first essay, we theoretically investigate the conditions under which it would be optimal for a central bank to explicitly adopt an inflation targeting regime. We propose a new theoretical framework that combines the two main frictions put forward in the literature to explain the real short run effects of monetary policy that is, heterogeneous information among agents (Phelps, 1970; Lucas, 1972), and wage or price rigidities (Taylor, 1980; Calvo, 1983). We then analyze our issue in this new framework by considering the interaction between the degree of price stickiness, and the degree of strategic complementarities in firms’ price setting. Our results show that adopting an inflation targeting regime crucially depends on the relative importance of the model’s parameters. In particular, we show that inflation targeting should always be adopted when strategic complementarities are low, while in the opposite case, it is optimal only if prices are sticky enough and the central bank holds sufficiently accurate information on the fundamentals of the economy. In the second essay, we use experimental macroeconomics to evaluate to what extent communication of the inflation target is relevant in an inflation targeting framework. Our results show that first, when the central bank only cares about inflation stabilization, announcing the inflation target does not make a difference in terms of macroeconomic performance compared to a standard active monetary policy. However, if the central bank also cares about the stabilization of the economic activity, communicating the target helps to reduce the volatility of inflation, interest rate, and output gap although their average levels are not affected. This finding provides a rationale for the adoption of flexible inflation targeting by the majority of inflation targeting countries. In the third essay, using a cross-sectional analysis and instrumental variables technique, we analyze the impact of central bank transparency on macroeconomic outcomes in emerging economies. We build a new index of transparency that combines some aspects of the overall Eijffinger and Geraats (2006) transparency index, with those of monetary policy committee transparency developed in Hayo and Mazhar (2011). We then analyze the individual role of each component of the new index in mitigating inflation and its volatility, as well as output volatility. By contrast to the previous literature, we interestingly find that the overall new index of transparency as well as its political, economic, procedural, and policy aspects negatively impact the average level of inflation, but not its volatility in these countries. The unique component of the new index that reduces the volatility of both inflation and output is operational transparency, and these results are robust to different econometric and instruments setting specifications.
83

L'économie face aux enquêtes psychologiques 1944 -1960 : unité de la science économique, diversité des pratiques / Economics in the light of psychological surveys (1944 - 1960) : unity of science, diversity of practices

Dechaux, Pierrick 01 December 2017 (has links)
Cette thèse étudie la trajectoire historique des enquêtes psychologiques produites au Survey Research Center de l’Université du Michigan à l’initiative de George Katona. Aujourd’hui, on ne retient de ces enquêtes que les indicateurs de confiance produits chaque mois par plus de cinquante pays pour analyser la conjoncture. Pourquoi continue-t-on à produire et à utiliser ces enquêtes et ces indicateurs alors qu’un consensus s’est produit en macroéconomie et en microéconomie autour d’un ensemble de modèles qui n’en font pas l’usage ? Pour répondre à cette question, on étudie plusieurs controverses qui se sont produites autour des enquêtes du Michigan entre 1944 et 1960. On montre que l’époque est caractérisée de décisions au sein des gouvernements et du monde des affaires. La thèse montre que si ces débats sont peu connus des économistes aujourd’hui, c’est parce qu’ils se sont poursuivis dans des champs disciplinaires périphériques à l’économie. Ces disciplines sont concernées par des problèmes pratiques dont les économistes théoriciens se sont progressivement détournés. En proposant une analyse des liens entre la théorie économique et sa mise en pratique, cette thèse offre une nouvelle manière d’appréhender l’histoire de la macroéconomie récente et de l’économie comportementale. L’histoire des dynamiques intellectuelles d’après-guerre ne se résume ni à des innovations théoriques, ni à un nouveau rapport entre la théorie et l’empirie. En effet, ces dynamiques reposent aussi sur la redéfinition des frontières entre la science et son art ; entre d’un côté l’économie et de l’autre le marketing et la conjoncture. / This dissertation looks at the historical development of George Kantona's psychological surveys at the Survey Research Center at the University of Michigan. The main legacy of this work has been the widespread adoption of confidence indicators. They are used each month by more than fifty countries and widely implemented by business managers and forecasters. How do we explain the widespread usage of these indicators despite a prevalent consensus in macroeconomics and microeconomics that does not consider them as important tools? In order to answer this question, we study several controversies that occurred around Michigan surveys between 1944 and 1960. It is shown that this era is characterized by many interdisciplinary exchanges guided by the practical needs of decision-makers in governments and private companies. I show that if economists know little about these debates, it is because they were maintained in disciplinary fields on the periphery of economics. These fields are centered on practical problems that theoretical economists progressively abandoned. This thesis offers a new way of understanding the history of recent macroeconomics and behavioral economics by proposing an analysis of the links between economic theory and its application in practice. For instance, the history of post-war intellectual dynamics cannot be reduced to theoretical innovations or to a new relationship between theory and empiricism. Indeed, these dynamics rely also on the transformation of the boundaries between the science and its art; between the economy on the one hand and marketing and forecasting on the other.
84

La révolution du capital humain : d'une approche macroéconomique à une théorie microéconomique / The Human Capital Revolution : From a Macroeconomics Approach to a Microeconomics Theory

Matéos, Sylvère 14 September 2018 (has links)
L’hypothèse à l’origine de ce travail est que les remises en question récentes du concept de capital humain sont inextricablement liées aux conditions dans lesquelles cette théorie a émergé. En conséquence, remonter aux origines de la révolution du capital humain permet d’apporter un éclairage nouveau sur les problèmes de définition et de mesure que le conceptrencontre aujourd’hui. Dans une perspective d’histoire de la pensée économique, nous nous proposons d’analyser les ondements conceptuels du cadre théorique du capital humain qui a émergé à la fin des années 1950 sous l’impulsion de trois auteurs : Gary Becker, Jacob Mincer et Théodore Schultz. Au début des années 1950, Schultz utilise le concept de capitalhumain pour expliquer le résidu de croissance. Le programme de recherche qu’il lance s’inscrit ainsi dans le corpus des théories de la croissance. Schultz parvient immédiatement à faire la preuve de la pertinence de ce facteur de production oublié. Au même moment, c’est-à-dire au milieu des années 1950, Mincer travaille lui aussi sur le concept de capital humain, mais comme déterminant de la distribution des revenus individuels. Quant à Becker, ce n’est qu’à la fin des années 1950 qu’il s’intéressera au capital humain : il propose d’analyser les choix individuels de formation au moyen de la théorie du choix rationnel et d’étudier le taux de rendement privé de l’investissement dans l’éducation. Le modèle microéconomique élaboré par Becker sera immédiatement utilisé par Mincer et va s’imposer aux dépens de l’approche macroéconomique de Schultz. / The hypothesis underlying this work is that the recent criticism faced by human capital concept are inextricably linked to the emerging conditions of the theory. Getting to the roots of the human capital revolution gives a new perspective on both theoretical and measurement issues. Using the history of economic thought perspective, we analyse the conceptual foundations of the human capital theory developed by Gary Becker, Jacob Mincer and Theodore Schultz in the late fifties. In 1950, Schultz used the concept of human capital in order to explain growth residual. His research program is embodied in the corpus ofgrowth theory. Schultz promptly succeeds to show the importance of this forgotten factor. Simultaneously, Mincer works on the same concept considering it as the main determinant of the personal income distribution. Few years later, Becker tried to understand the individual choice of training using the rational choice theory, and study the private rate of return of investment in education. His model, immediately adopted by Mincer, will establish itself as the standard model, vanishing the macroeconomic approach of Schultz.
85

Essais sur l’Économie Financière et la Modélisation des Politiques Économiques / Essays on Financial Economics and Policy Modeling

Ghiaie, Hamed 03 December 2018 (has links)
L'économie moderne complexifiée, qui résulte d'une société humaine hétérogène, oblige les économistes et les décideurs à élaborer des modèles économiques complexes. Outre cette complexité, les politiques économiques varient d’un pays à l’autre.Cette thèse aborde ces complexités des économies modernes.Dans les trois premiers chapitres de cette thèse, j'améliore les théories existentes pour évaluer le rôle des agents intermédiaires financiers, des marchés d'immobilier et du crédit dans l'économie, en utilisant des modèles d’Équilibre Général Dynamique et Stochastique (EGDS). Les données de trois périodes de l’économie américaine, y compris le climat économique avant la Grande Récession, l’effondrement systémique de 2008 et les politiques budgétaires après la crise, sont imputés aux modèles. Les modèles EGDS ont souvent été critiqués pour leur trop grande simplification des marchés financières.J'ai inclus les frictions financières des différents côtés de l'économie pour résoudre les échecs des modèles précédents.Les résultats des simulations indiquent que l'introduction de ces nouvelles caractéristiques dans l'économie révèle de nouveaux canaux et mécanismes qui sont négligés dans les modèles simples. Par conséquent, mon modèle donne un moyen plus précis de prévoir les mouvements économiques. En outre, cette thèse documente l’importance des réglementations des politiques macroprudentielles dans la stabilité financière, la durabilité et le bien-être. Enfin, dans les deux derniers chapitres de ma thèse, j’aborde l’étude des marchés avancés et je me concentre sur les économies en développement.Ces chapitres construisent de nouveaux modèles et abordent diverses questions économiques relatives à l'économie financière, publique et du travail dans les pays en développement, à travers le prisme des modèles EGD à agents hétérogènes.J'examine les impacts des chocs réels, monétaires, fiscaux et pétroliers sur l'environnement économique des pays en développement. Je propose ensuite des recommandations de politique économiques. / The modern economy, which is a result of intricate human society, compels economists and policy makers to build complex economic models. In addition to this complexity, each country requires its own economic policies. This thesis addresses these intricacies of modern economies. In the first three chapters of this thesis, I improve the current literature to assess the role of financial intermediary agents, housing and credit markets in the economy, using Dynamic Stochastic General Equilibrium (DSGE) models. Data from three periods in the US economy, including the economic climate before the Great Rescission, the systemic collapse in 2008, and post-crisis fiscal policies, are imputed into the models. Simple DSGE models havebeen criticized for not placing more emphasis on financial frictions. Here, I have included financial frictions on different sides of economy to resolve the failures of previous models.The results of simulations indicate that introducing these features to the economy reveals new channels and mechanisms which are neglected in simple models. As a result, my model gives a more accurate means to forecast economic movements. In addition, this thesis documents the significance of macroprudential policy regulations in financial stability, sustainability and welfare. Lastly, in the final two chapters of my thesis, I move away from the study of advanced markets and focus on developing economies. These chapters build new models and address a variety of economic questions pertaining to financial, public and labor economics in developing countries, through the lens of multi-agent dynamic general equilibrium models. I examine the impacts of real, monetary, fiscal and oil price shocks on the economic environment of developing countries. I then propose appropriate policy recommendations.
86

Modélisation multi-agents d'une économie monétaire de production : un système dynamique et complexe d'interactions réelles et monétaires entre des agents multiples, hétérogènes, autonomes et concurrents

Seppecher, Pascal 05 December 2011 (has links) (PDF)
Nous présentons un modèle numérique d'économie de marché décentralisée, fonctionnant hors de l'équilibre, composée de deux grands groupes d'agents (entreprises et ménages) auxquels sont respectivement associées deux fonctions économiques principales (production et consommation). Ces fonctions s'exercent dans le respect des règles des économies capitalistes (propriété privée des moyens de production, échanges monétaires, salariat). Les agents sont des individus en interaction directe et indirecte (et non des agents représentatifs ou des agrégats), chacun poursuivant son propre but, agissant en fonction de son état individuel et de l'environnement proche, sans se préoccuper du tout de l'équilibre général du système et sans contrôle supérieur (ni de la part d'un planificateur, ni d'un commissaire-priseur). Le modèle respecte les trois principes essentiels des économies monétaires: - le processus de production prend du temps et les entreprises ont besoin de crédit pour lancer ce processus; - la monnaie est endogène, elle est créée par le crédit bancaire à la production; - les entreprises sont guidées par le motif de profit et ce profit est monétaire. Implémenté en Java, le modèle se présente comme un laboratoire virtuel permettant de conduire de véritables expériences "in silico". Les interactions réelles et monétaires entre les agents (multiples, hétérogènes, autonomes et concurrents) forment un système dynamique et complexe dont les propriétés macroéconomiques ne sont pas postulées. Nous reconstruisons ainsi les conditions de l'émergence de comportements macroéconomiques inobservables dans les modèles basés sur les notions d'agent représentatif et d'équilibre général.
87

Economics as a "tooled" discipline : Lawrence R. Klein and the making of macroeconometric modeling : 1939-1959 / L'économie saisie par les outils : Lawrence R. Klein et la construction de la modélisation macro-économétrique : 1939-1959

Pinzón Fuchs, Erich 28 March 2017 (has links)
Cette thèse, dont l'objectif est de faire prévaloir l'importance de la macro-économétrie dans l'histoire de la macro-économie, s'articule autour de deux questions centrales : (1) Quelles ont été les forces et les objectif qui ont motivé le développement de la modélisation macro-économétrique et quelle est la nature des outils et des institutions que les macro-économistes ont construit pour observer, comprendre et contrôler l'économie d'après-guerre aux États-Unis , (2) Quels ont été les effets de la construction et de l'utilisation de tels outils dans la production du savoir macro-économique ? En considérant Lawrence R. Klein comme une figure centrale, je parcours la discipline économique des années 1940-1950 en me focalisant sur l'intersection entre l'histoire de la macro-économie et celle de l'économétrie, et ainsi, je propose une nouvelle vision de 'économie du vingtième siècle en tant que discipline "saisie par les outils", dans laquelle la théorie (économique et statistique), l'application, l'expertise et la politique s'incorporent dans un même outil scientifique : un model macro-économétrique. j'expose donc l'histoire de la macro-économie non pas comme le produit des questions idéologiques monolithiques ou purement théoriques, mais plutôt comme le produit des visions épistémologiques et de stratégies de modélisation divergentes qui remontent aux débats entre les approches empiriques de la macro-économie étatunienne et les méthodologies Walrasienne et Marshallienne. Ainsi, je soutiens la thèse que Klein a été le personnage principal dans la création d'une nouvelle manière de produire le savoir macro-économique qui, à travers la construction et l'utilisation d'outils complexes (modèles macro-économétriques) mis en place au sein d'une configuration institutionnelle spécifique (laboratoires économétriques), poursuivait des objectifs explicites de politique économique, et par laquelle les rôles bien définis des experts (équipes scientifiques) étaient intégrées à une nouvelle pratique scientifique : la modélisation macro-économique. / In this disseration, I place macroeconometric modeling at the center of the history of twentieth century macroeconomics, i. e. as e history of macroeconometrics, and ask two central questions : (1) What exactly were the objectives and the forces driving the development of macroeconometric modeling, and what kind of tools and institutions did macroeconomists build to observe, understand, and control the US postwar economy ? (2) What were the effects that the construction and use of these tools had on the production of macroeconomic knowledge ? Taking Lawrence R. Klein as a vehicle, I travel accross the economics discipline of the 1940s and 1950s, and study the intersection between the history of macroeconomics and the history of econometrics, providing a new understanding of twentieth century economics as a "tooled" discipline, in which theory (economy and statistical), application, expertise, and policy become embedded within one scientific tool : a macroeconometric model. Consequently, I present the history of macroeconomics not as the product of monolithic ideological and purely theoretical issues, but rather of divergent epistemological views and modeling strategies that go back to the debates between US-Walrasian and US-Marshallian approaches to empirical macroeconomics in which macroeconometric modeling from the heart of macroeconometrics. My thesis is that Klein what the most important figure in the creation of a new way to produce scientific knowledge that consisted in the construction and use of compex tools (macroeconometric models) within specific institutional configurations (econometric labotories) and for explicit policy and scientific objectives, in which well-defined roles of experts (scientific teams) were embodied within a new scientific practice (macroeconometric modeling).
88

Etude économétrique des effets sur l'économie belge de l'introduction de la T.V.A. et de l'harmonisation des taux au sein du Marché commun

Guillaume, Y. January 1971 (has links)
Doctorat en sciences sociales, politiques et économiques / info:eu-repo/semantics/nonPublished
89

Essays on the macroeconomic implications of information asymmetries

Malherbe, Frédéric 02 September 2010 (has links)
Along this dissertation I propose to walk the reader through several macroeconomic<p>implications of information asymmetries, with a special focus on financial<p>issues. This exercise is mainly theoretical: I develop stylized models that aim<p>at capturing macroeconomic phenomena such as self-fulfilling liquidity dry-ups,<p>the rise and the fall of securitization markets, and the creation of systemic risk.<p>The dissertation consists of three chapters. The first one proposes an explanation<p>to self-fulfilling liquidity dry-ups. The second chapters proposes a formalization<p>of the concept of market discipline and an application to securitization<p>markets as risk-sharing mechanisms. The third one offers a complementary<p>analysis to the second as the rise of securitization is presented as banker optimal<p>response to strict capital constraints.<p>Two concepts that do not have unique acceptations in economics play a central<p>role in these models: liquidity and market discipline.<p>The liquidity of an asset refers to the ability for his owner to transform it into<p>current consumption goods. Secondary markets for long-term assets play thus<p>an important role with that respect. However, such markets might be illiquid due<p>to adverse selection.<p>In the first chapter, I show that: (1) when agents expect a liquidity dry-up<p>on such markets, they optimally choose to self-insure through the hoarding of<p>non-productive but liquid assets; (2) this hoarding behavior worsens adverse selection and dries up market liquidity; (3) such liquidity dry-ups are Pareto inefficient<p>equilibria; (4) the government can rule them out. Additionally, I show<p>that idiosyncratic liquidity shocks à la Diamond and Dybvig have stabilizing effects,<p>which is at odds with the banking literature. The main contribution of the<p>chapter is to show that market breakdowns due to adverse selection are highly<p>endogenous to past balance-sheet decisions.<p>I consider that agents are under market discipline when their current behavior<p>is influenced by future market outcomes. A key ingredient for market discipline<p>to be at play is that the market outcome depends on information that is observable<p>but not verifiable (that is, information that cannot be proved in court, and<p>consequently, upon which enforceable contracts cannot be based).<p>In the second chapter, after introducing this novel formalization of market<p>discipline, I ask whether securitization really contributes to better risk-sharing:<p>I compare it with other mechanisms that differ on the timing of risk-transfer. I<p>find that for securitization to be an efficient risk-sharing mechanism, it requires<p>market discipline to be strong and adverse selection not to be severe. This seems<p>to seriously restrict the set of assets that should be securitized for risk-sharing<p>motive.<p>Additionally, I show how ex-ante leverage may mitigate interim adverse selection<p>in securitization markets and therefore enhance ex-post risk-sharing. This<p>is interesting because high leverage is usually associated with “excessive” risktaking.<p>In the third chapter, I consider risk-neutral bankers facing strict capital constraints;<p>their capital is indeed required to cover the worst-case-scenario losses.<p>In such a set-up, I find that: 1) banker optimal autarky response is to diversify<p>lower-tail risk and maximize leverage; 2) securitization helps to free up capital<p>and to increase leverage, but distorts incentives to screen loan applicants properly; 3) market discipline mitigates this problem, but if it is overestimated by<p>the supervisor, it leads to excess leverage, which creates systemic risk. Finally,<p>I consider opaque securitization and I show that the supervisor: 4) faces uncertainty<p>about the trade-off between the size of the economy and the probability<p>and the severity of a systemic crisis; 5) can generally not set capital constraints<p>at the socially efficient level. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
90

Essays in dynamic macroeconometrics

Bañbura, Marta 26 June 2009 (has links)
The thesis contains four essays covering topics in the field of macroeconomic forecasting.<p><p>The first two chapters consider factor models in the context of real-time forecasting with many indicators. Using a large number of predictors offers an opportunity to exploit a rich information set and is also considered to be a more robust approach in the presence of instabilities. On the other hand, it poses a challenge of how to extract the relevant information in a parsimonious way. Recent research shows that factor models provide an answer to this problem. The fundamental assumption underlying those models is that most of the co-movement of the variables in a given dataset can be summarized by only few latent variables, the factors. This assumption seems to be warranted in the case of macroeconomic and financial data. Important theoretical foundations for large factor models were laid by Forni, Hallin, Lippi and Reichlin (2000) and Stock and Watson (2002). Since then, different versions of factor models have been applied for forecasting, structural analysis or construction of economic activity indicators. Recently, Giannone, Reichlin and Small (2008) have used a factor model to produce projections of the U.S GDP in the presence of a real-time data flow. They propose a framework that can cope with large datasets characterised by staggered and nonsynchronous data releases (sometimes referred to as “ragged edge”). This is relevant as, in practice, important indicators like GDP are released with a substantial delay and, in the meantime, more timely variables can be used to assess the current state of the economy.<p><p>The first chapter of the thesis entitled “A look into the factor model black box: publication lags and the role of hard and soft data in forecasting GDP” is based on joint work with Gerhard Rünstler and applies the framework of Giannone, Reichlin and Small (2008) to the case of euro area. In particular, we are interested in the role of “soft” and “hard” data in the GDP forecast and how it is related to their timeliness.<p>The soft data include surveys and financial indicators and reflect market expectations. They are usually promptly available. In contrast, the hard indicators on real activity measure directly certain components of GDP (e.g. industrial production) and are published with a significant delay. We propose several measures in order to assess the role of individual or groups of series in the forecast while taking into account their respective publication lags. We find that surveys and financial data contain important information beyond the monthly real activity measures for the GDP forecasts, once their timeliness is properly accounted for.<p><p>The second chapter entitled “Maximum likelihood estimation of large factor model on datasets with arbitrary pattern of missing data” is based on joint work with Michele Modugno. It proposes a methodology for the estimation of factor models on large cross-sections with a general pattern of missing data. In contrast to Giannone, Reichlin and Small (2008), we can handle datasets that are not only characterised by a “ragged edge”, but can include e.g. mixed frequency or short history indicators. The latter is particularly relevant for the euro area or other young economies, for which many series have been compiled only since recently. We adopt the maximum likelihood approach which, apart from the flexibility with regard to the pattern of missing data, is also more efficient and allows imposing restrictions on the parameters. Applied for small factor models by e.g. Geweke (1977), Sargent and Sims (1977) or Watson and Engle (1983), it has been shown by Doz, Giannone and Reichlin (2006) to be consistent, robust and computationally feasible also in the case of large cross-sections. To circumvent the computational complexity of a direct likelihood maximisation in the case of large cross-section, Doz, Giannone and Reichlin (2006) propose to use the iterative Expectation-Maximisation (EM) algorithm (used for the small model by Watson and Engle, 1983). Our contribution is to modify the EM steps to the case of missing data and to show how to augment the model, in order to account for the serial correlation of the idiosyncratic component. In addition, we derive the link between the unexpected part of a data release and the forecast revision and illustrate how this can be used to understand the sources of the<p>latter in the case of simultaneous releases. We use this methodology for short-term forecasting and backdating of the euro area GDP on the basis of a large panel of monthly and quarterly data. In particular, we are able to examine the effect of quarterly variables and short history monthly series like the Purchasing Managers' surveys on the forecast.<p><p>The third chapter is entitled “Large Bayesian VARs” and is based on joint work with Domenico Giannone and Lucrezia Reichlin. It proposes an alternative approach to factor models for dealing with the curse of dimensionality, namely Bayesian shrinkage. We study Vector Autoregressions (VARs) which have the advantage over factor models in that they allow structural analysis in a natural way. We consider systems including more than 100 variables. This is the first application in the literature to estimate a VAR of this size. Apart from the forecast considerations, as argued above, the size of the information set can be also relevant for the structural analysis, see e.g. Bernanke, Boivin and Eliasz (2005), Giannone and Reichlin (2006) or Christiano, Eichenbaum and Evans (1999) for a discussion. In addition, many problems may require the study of the dynamics of many variables: many countries, sectors or regions. While we use standard priors as proposed by Litterman (1986), an<p>important novelty of the work is that we set the overall tightness of the prior in relation to the model size. In this we follow the recommendation by De Mol, Giannone and Reichlin (2008) who study the case of Bayesian regressions. They show that with increasing size of the model one should shrink more to avoid overfitting, but when data are collinear one is still able to extract the relevant sample information. We apply this principle in the case of VARs. We compare the large model with smaller systems in terms of forecasting performance and structural analysis of the effect of monetary policy shock. The results show that a standard Bayesian VAR model is an appropriate tool for large panels of data once the degree of shrinkage is set in relation to the model size. <p><p>The fourth chapter entitled “Forecasting euro area inflation with wavelets: extracting information from real activity and money at different scales” proposes a framework for exploiting relationships between variables at different frequency bands in the context of forecasting. This work is motivated by the on-going debate whether money provides a reliable signal for the future price developments. The empirical evidence on the leading role of money for inflation in an out-of-sample forecast framework is not very strong, see e.g. Lenza (2006) or Fisher, Lenza, Pill and Reichlin (2008). At the same time, e.g. Gerlach (2003) or Assenmacher-Wesche and Gerlach (2007, 2008) argue that money and output could affect prices at different frequencies, however their analysis is performed in-sample. In this Chapter, it is investigated empirically which frequency bands and for which variables are the most relevant for the out-of-sample forecast of inflation when the information from prices, money and real activity is considered. To extract different frequency components from a series a wavelet transform is applied. It provides a simple and intuitive framework for band-pass filtering and allows a decomposition of series into different frequency bands. Its application in the multivariate out-of-sample forecast is novel in the literature. The results indicate that, indeed, different scales of money, prices and GDP can be relevant for the inflation forecast.<p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished

Page generated in 0.0668 seconds