• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 294
  • 81
  • 18
  • 3
  • Tagged with
  • 408
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 38
  • 36
  • 35
  • 35
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Etudes sur le cycle économique. Une approche par les modèles à changements de régime / Studies in Business Cycles Using Markov-switching Models

Rabah-Romdhane, Zohra 12 December 2013 (has links)
L'ampleur de la Grande Récession a suscité un regain d'intérêt pour l'analyse conjoncturelle, plus particulièrement du cycle économique. Notre thèse participe de ce renouveau d'attention pour l'étude des fluctuations économiques.Après une présentation générale des modèles à changements de régime dans le chapitre 1, le chapitre suivant propose une chronologie du cycle des affaires de l'économie française sur la période 1970-2009. Trois méthodes de datation sont utilisées à cette fin : la règle des deux trimestres consécutifs de croissance négative, l'approche non paramétrique de Bry et Boschan (1971) et le modèle markovien à changements de régime de Hamilton (1989). Les résultats montrent que l'existence de ruptures structurelles peut empêcher ce dernier modèle d'identifier correctement les points de retournement cycliques. Cependant, quandces ruptures sont prises en considération, le calendrier des récessions françaises obtenu à l'aide du modèle d'Hamilton coïncide largement avec celui obtenu par les deux autres méthodes. Le chapitre 3 développe une analyse de la non-linéarité dans le modèle à changements de régime en utilisant un ensemble de tests non-standards. Une étude par simulation Monte Carlo révèle qu'un test récemment proposé par Carrasco, Hu et Ploberger (2013) présente une faible puissance pour des processus générateurs des données empiriquement pertinents et ce, lorsqu'on tient compte de l'autocorrélation sous l'hypothèse nulle. En revanche, untest "bootstrap" paramétrique basé sur le rapport des vraisemblances a, pour sa part une puissance plus élevée, ce qui traduit l'existence probable de non-linéarités significatives dans le PIB réel trimestriel de la France et des Etats-Unis. Quand il s'agit de tester un changement de régime en moyenne ou en constante, il est important de tenir compte de l'autocorrélation sous l'hypothèse nulle de linéarité. En effet, dans le cas contraire, un rejet de la linéarité pourrait simplement refléter une mauvaise spécification de la persistance des données, plutôt que d'une non-linéarité inhérente.Le chapitre 4 examine une question importante : la considération de ruptures structurelles dans les séries améliore-t-elle la performance prédictive du modèle markovien relativement à son homologue linéaire ? La démarche adoptée pour y répondre consiste à combiner les prévisions obtenues pour différentes périodes d'estimation. Voici le principal résultat dû à l'application de cette démarche : la prise en compte des données provenant des intervalles de temps précédant les ruptures structurelles et la "Grande Modération" améliore les prévisions basées sur des données tirées exclusivement de ces épisodes. De la sorte, les modèles à changements de régime s'avèrent capables de prédire la probabilité d'événements tels que la Grande Récession, avec plus de précision que ses homologues linéaires.Les conclusions générales synthétisent les principaux acquis de la thèse et évoqueplusieurs perspectives de recherche future. / The severity of the Great Recession has renewed interest in the analysis of business cycles. Our thesis pertains to this revival of attention for the study of cyclical fluctuations. After reviewing the regime-switching models in Chapter one, the following chapter suggests a chronology of the classical business cycle in French economy for the 1970-2009 period. To that end, three dating methodologies are used: the rule of thumb of two consecutive quarters of negative growth, the non-parametric approach of Bry and Boschan (1971), and the Markov-switching approach of Hamilton (1989). The results show that,omitted structural breaks may hinder the Markov-switching approach to capture business-cycle fluctuations. However, when such breaks are allowed for, the timing of the French recessions provided by the Markov-switching model closely matches those derived by the rule-based approaches.Chapter 3 performs a nonlinearity analysis inMarkov-switching modelling using a set of non-standard tests. Monte Carlo analysis reveals that a recently test proposed by Carrasco, Hu, and Ploberger (2013) for Markov switching has low power for empirically-relevant data generating processes when allowing for serial correlation under the null. By contrast, a parametric bootstrap likelihood ratio (LR) test of Markov switching has higher power in the same setting, providing stronger support for nonlinearity in quarterly French and U.S. real GDP. When testing for Markov switching in mean or intercept of an autoregressive process, it is important to allow for serial correlation under the null hypothesis of linearity.Otherwise, a rejection of linearity could merely reflect misspecification of the persistence properties of the data, rather than any inherent nonlinearity.Chapter 4 examines whether controlling for structural breaks improves the forecasting performance of the Markov-switching models, as compared to their linear counterparts.The approach considered to answer this issue is to combined forecasts across different estimation windows. The outcome of applying such an approach shows that, including data from periods preceding structural breaks and particularly the "Great Moderation" improves upon forecasts based on data drawn exclusively from these episodes. Accordingly, Markov-switching models forecast the probability of events such as the Great Recession more accurately than their linear counterparts.The general conclusions summarize the main results of the thesis and, suggest several directions for future research.
342

Predicting post-release software faults in open source software as a menas of measuring intrinsic software product quality / Prédire les défauts Post-Release de logiciels à code ouvert comme méthode pour mesurer la qualité intrinsèque du produit logiciel

Ndenga Malanga, Kennedy 22 November 2017 (has links)
Les logiciels défectueux ont des conséquences coûteuses. Les développeurs de logiciels doivent identifier et réparer les composants défectueux dans leurs logiciels avant de les publier. De même, les utilisateurs doivent évaluer la qualité du logiciel avant son adoption. Cependant, la nature abstraite et les multiples dimensions de la qualité des logiciels entravent les organisations de mesurer leur qualités. Les métriques de qualité logicielle peuvent être utilisées comme proxies de la qualité du logiciel. Cependant, il est nécessaire de disposer d'une métrique de processus logiciel spécifique qui peut garantir des performances de prédiction de défaut meilleures et cohérentes, et cela dans de différents contextes. Cette recherche avait pour objectif de déterminer un prédicteur de défauts logiciels qui présente la meilleure performance de prédiction, nécessite moins d'efforts pour la détection et a un coût minimum de mauvaise classification des composants défectueux. En outre, l'étude inclut une analyse de l'effet de la combinaison de prédicteurs sur la performance d'un modèles de prédiction de défauts logiciels. Les données expérimentales proviennent de quatre projets OSS. La régression logistique et la régression linéaire ont été utilisées pour prédire les défauts. Les métriques Change Burst ont enregistré les valeurs les plus élevées pour les mesures de performance numérique, avaient les probabilités de détection de défaut les plus élevées et le plus faible coût de mauvaise classification des composants. / Faulty software have expensive consequences. To mitigate these consequences, software developers have to identify and fix faulty software components before releasing their products. Similarly, users have to gauge the delivered quality of software before adopting it. However, the abstract nature and multiple dimensions of software quality impede organizations from measuring software quality. Software quality metrics can be used as proxies of software quality. There is need for a software process metric that can guarantee consistent superior fault prediction performances across different contexts. This research sought to determine a predictor for software faults that exhibits the best prediction performance, requires least effort to detect software faults, and has a minimum cost of misclassifying components. It also investigated the effect of combining predictors on performance of software fault prediction models. Experimental data was derived from four OSS projects. Logistic Regression was used to predict bug status while Linear Regression was used to predict number of bugs per file. Models built with Change Burst metrics registered overall better performance relative to those built with Change, Code Churn, Developer Networks and Source Code software metrics. Change Burst metrics recorded the highest values for numerical performance measures, exhibited the highest fault detection probabilities and had the least cost of mis-classification of components. The study found out that Change Burst metrics could effectively predict software faults.
343

Modélisation stochastique pour la sûreté de fonctionnement des systèmes commandés / Stochastic modeling for dependability assessment of control systems

Langeron, Yves 08 January 2015 (has links)
Dans le contexte des systèmes commandés, l’effort de recherche est principalement porté sur la reconfiguration d’une loi de commande à l’apparition d’une situation de défaut. La reconfiguration a pour objectif de pallier au défaut et donc de maintenir les performances du système. La problématique principale de nos travaux est d’étudier ces systèmes du point de vue de leur sûreté de fonctionnement en s’interrogeant sur les causes qui engendrent une situation de défaut. Pour cela, il est supposé l’existence d’une relation étroite entre la commande d’un système, sa dégradation et ses défauts. Un cadre de modélisation stochastique de la dégradation est proposé intégrant l’usage du système ainsi que les différents modes de détérioration. Le pronostic de la durée de vie résiduelle RUL de l’actionneur -élément critique de ces systèmes- est dérivé de l’ensemble des modèles. La RUL est alors utilisée comme un outil de reconfiguration de la loi LQR (Linear Quadratic Regulator) d’un système mono-actionné dans le cadre d’une maintenance prédictive. L’impact de cette nouvelle politique de maintenance sur les performances statiques et dynamiques du système est évalué. Enfin, le comportement stochastique d’un système tolérant aux fautes basé sur une redondance d’actionneurs est étudié au travers des modèles développés / In the context of control systems, the research effort is focused on how to reconfigure the control law upon the occurrence of a faulty situation. The reconfiguration procedure aims to overcome the fault and thus to maintain system performances. The main issue of this thesis is to study these systems in terms of their dependability by questioning the causes that generate a fault. Then it is assumed a close relationship between the control of a system, its degradation and its faults. A stochastic modelling framework is proposed combining the use of the system and the various modes of deterioration. The actuator is assumed to be the most critical part of a system. The prognosis of its remaining life RUL is derived from these models. This RUL is then used as a tool for reconfiguring the LQR law (Linear Quadratic Regulator) of a system with a single actuator in the context of a predictive maintenance. The impact of this new maintenance policy on static and dynamic performances is assessed. Finally the stochastic behavior of a fault tolerant control system is studied by means of the achieved models
344

Degradation modeling based on a time-dependent Ornstein-Uhlenbeck process and prognosis of system failures / Modélisation des dégradations par un processus d’Ornstein-Uhlenbeck et pronostic de défaillances du système

Deng, Yingjun 24 February 2015 (has links)
Cette thèse est consacrée à la description, la prédiction et la prévention des défaillances de systèmes. Elle se compose de quatre parties relatives à la modélisation stochastique de dégradation, au pronostic de défaillance du système, à l'estimation du niveau de défaillance et à l'optimisation de maintenance.Le processus d'Ornstein-Uhlenbeck (OU) dépendant du temps est introduit dans un objectif de modélisation des dégradations. Sur la base de ce processus, le premier instant de passage d’un niveau de défaillance prédéfini est considéré comme l’instant de défaillance du système considéré. Différentes méthodes sont ensuite proposées pour réaliser le pronostic de défaillance. Dans la suite, le niveau de défaillance associé au processus de dégradation est estimé à partir de la distribution de durée de vie en résolvant un problème inverse de premier passage. Cette approche permet d’associer les enregistrements de défaillance et le suivi de dégradation pour améliorer la qualité du pronostic posé comme un problème de premier passage. Le pronostic de défaillances du système permet d'optimiser sa maintenance. Le cas d'un système contrôlé en permanence est considéré. La caractérisation de l’instant de premier passage permet une rationalisation de la prise de décision de maintenance préventive. L’aide à la décision se fait par la recherche d'un niveau virtuel de défaillance dont le calcul est optimisé en fonction de critères proposés / This thesis is dedicated to describe, predict and prevent system failures. It consists of four issues: i) stochastic degradation modeling, ii) prognosis of system failures, iii) failure level estimation and iv) maintenance optimization. The time-dependent Ornstein-Uhlenbeck (OU) process is introduced for degradation modeling. The time-dependent OU process is interesting from its statistical properties on controllable mean, variance and correlation. Based on such a process, the first passage time is considered as the system failure time to a pre-set failure level. Different methods are then proposed for the prognosis of system failures, which can be classified into three categories: analytical approximations, numerical algorithms and Monte-Carlo simulation methods. Moreover, the failure level is estimated from the lifetime distribution by solving inverse first passage problems. This is to make up the potential gap between failure and degradation records to reinforce the prognosis process via first passage problems. From the prognosis of system failures, the maintenance optimization for a continuously monitored system is performed. By introducing first passage problems, the arrangement of preventive maintenance is simplified. The maintenance decision rule is based on a virtual failure level, which is solution of an optimization problem for proposed objective functions
345

Contribution aux approches probabilistes pour le pronostic et la maintenance des systèmes contrôlés / Contribution to probabilistic approaches for prognosis and maintenance of controlled system

Nguyen, Danh Ngoc 24 March 2015 (has links)
Les systèmes de contrôle-commande jouent un rôle important dans le développement de la civilisation et de la technologie moderne. La perte d’efficacité de l’actionneur agissant sur le système est nocive dans le sens où elle modifie le comportement du système par rapport à celui qui est désiré. Cette thèse est une contribution au pronostic de la durée de vie résiduelle (RUL) et à la maintenance des systèmes de contrôle-commande en boucle fermée avec des actionneurs soumis à dégradation. Dans une première contribution, un cadre de modélisation à l'aide d’un processus markovien déterministe par morceaux est considéré pour modéliser le comportement du système. Dans ce cadre, le comportement du système est représenté par des trajectoires déterministes qui sont intersectées par des sauts d'amplitude aléatoire se produisant à des instants aléatoires et modélisant le phénomène de dégradation discret de l'actionneur. La deuxième contribution est une méthode de pronostic de la RUL du système composée de deux étapes : estimation de la loi de probabilité de l'état du système à l'instant de pronostic par le filtre particulaire et calcul de la RUL qui nécessite l'estimation de la fiabilité du système à partir de cet instant. La troisième contribution correspond à la proposition d’une politique de maintenance à structure paramétrique permettant de prendre en compte dynamiquement les informations disponibles conjointement sur l'état et sur l'environnement courant du système et sous la contrainte de dates d'opportunité / The automatic control systems play an important role in the development of civilization and modern technology. The loss of effectiveness of the actuator acting on the system is harmful in the sense that it modifies the behavior of the system compared to that desired. This thesis is a contribution to the prognosis of the remaining useful life (RUL) and the maintenance of closed loop systems with actuators subjected to degradation. In the first contribution, a modeling framework with piecewise deterministic Markov process is considered in order to model the overall behavior of the system. In this context, the behavior of the system is represented by deterministic trajectories that are intersected by random size jumps occurring at random times and modeling the discrete degradation phenomenon of the actuator. The second contribution is a prognosis method of the system RUL which consists of two steps: the estimation of the probability distribution of the system state at the prognostic instant by particle filtering and the computation of the RUL which requires the estimation of the system reliability starting from the prognostic instant. The third contribution is the proposal of a parametric maintenance policy which dynamically take into account the available information on the state and on the current environment of the system and under the constraint of opportunity dates
346

Prévisions des importations des pays développés capitalistes en provenance du monde sous-développé

Kestens, Paul January 1968 (has links)
Doctorat en sciences sociales, politiques et économiques / info:eu-repo/semantics/nonPublished
347

Développement d’une méthode d’auto-paramétrage auto-adaptatif pour une pompe à chaleur en vue d’un fonctionnement optimisé / Development of a self-parameterization method for heat pumps

Tejeda de la cruz, Alberto 28 September 2016 (has links)
Lors de l’installation d’une pompe à chaleur (PAC) double service (chauffage et eau chaude sanitaire (ECS)) dans le secteur résidentiel, la phase de mise en service est délicate : les paramètres à renseigner sont nombreux et non triviaux. Or, le bon fonctionnement de la PAC est très sensible à la qualité de cette étape. Quelques mauvais réglages peuvent entraîner un fonctionnement non optimal, voire un dysfonctionnement important (confort mal assuré). L’objectif de la thèse est de mettre au point une méthode de paramétrage auto-adaptatif modifiant les valeurs de « sortie d’usine » des paramètres pour les adapter au réseau d'émetteurs, à la réponse thermique du bâtiment et aux habitudes chauffage et de consommation d'ECS des occupants. Les paramètres doivent être adaptés à partir des capteurs déjà en place sur la PAC.Le travail de thèse porte d'abord sur l’identification des paramètres clés de la PAC, ceux qui influencent le plus la consommation. On en déduit quelques fonctions à optimiser : ajustement de la loi d'eau, méthode de choix des meilleures séquences de production d'ECS, anticipation de la relance du chauffage. L'objectif est de maximiser le coefficient de performance et de minimiser le recours aux appoints électriques tout en garantissant le confort. Ces objectifs sont atteints en développant des algorithmes de contrôle optimisé. Des modèles neuronaux de prévision de la réponse thermique du bâtiment, du stock d’ECS et des performances de la PAC ont été développés pour ce contrôle optimisé. Les modèles et algorithmes développés ont été validés numériquement et les performances de la PAC comparées à celles avec contrôle classique sans auto-paramétrage. Les solutions proposées ont été appliquées et testées durant une saison sur une PAC réelle sur un banc d'essai semi-virtuel (climat réel et bâtiment virtuel). / Setting control parameters of residential double service heat pumps at the time of installation and commissioning is a delicate matter. Indeed, some parameters are not trivial, there are many to be adjusted and the heat pump operations are quite sensitive to the parameters' values. Poor parameterization can lead to suboptimal heat pump operation or even to important dysfunction (harming thermal comfort).Hence, this thesis aims to develop a method for the heat pump to self-adapt the value of its control parameters. The heat pump should modify if required the "default" settings in order to adapt them to the heat emitters, to the building thermal response and to the occupancy (in terms of thermal comfort and DHW needs). For industrial reasons, this method should use on-board sensors.First, the thesis focuses on identifying the key parameters of the heat pump control, i.e. those with greatest influence on the consumption. This leads to the functions which have to be optimized: heating curve adjustment, time of DHW generation, heating setback anticipation. The objective is to maximize the coefficient of performance and minimize the use of electrical back-ups while ensuring comfort. This is achieved by developing optimized control algorithms. Thanks to forecasts models, based on neural networks, we are able to predict on a short term horizon the building thermal response, the DHW availability and the heat pump performances. The developed models and algorithms have been validated through numerical simulations, and we have evaluated the heat pump performances in comparison to a classic control. The proposed solutions were applied and tested during a heating season on a real heat pump installed in a semi-virtual test bench (real weather and virtual building).
348

Evaluation de la Performance des Réglages de Fréquence des Eoliennes à l’Echelle du Système Electrique : Application à un Cas Insulaire / Performance Evaluation of Frequency Response from Wind Turbines on a System-Wide Scale : Application onto an Isolated Power System Case

Wang, Ye 20 November 2012 (has links)
L’intégration croissante de la production éolienne ne participant pas au réglage de fréquence induit de nouvelles difficultés de gestion des systèmes électriques. Ces problèmes sont d’autant plus significatifs que le réseau est faible. La présente thèse vise à évaluer la performance et la fiabilité du réglage de fréquence des éoliennes à l’échelle du système électrique. Les études sont appliquées sur un réseau insulaire.D’abord, l’impact d’un fort taux de pénétration de la production éolienne sur l’allocation de la réserve primaire et sur le comportement dynamique du réseau est caractérisé. Il est montré que la participation des éoliennes au réglage de fréquence est techniquement indispensable pour le maintien de la sûreté du système électrique à partir d’un certain taux de pénétration. Deux solutions permettant aux éoliennes de contribuer au réglage de fréquence sont ensuite étudiées par simulations dynamiques. La performance d’une inertie émulée est caractérisée en considérant l’impact du point de fonctionnement initial des éoliennes et des paramètres du contrôleur. La contribution de la réserve éolienne à l’amélioration de la performance dynamique du système est également identifiée.Afin d’évaluer le potentiel et la fiabilité de la réserve éolienne, la dernière partie de ce travail est consacrée aux études statistiques prenant en compte la variabilité et l’incertitude de la prévision de la production. Deux stratégies du placement de réserve sont proposées et comparées. L’impact des erreurs de prévision sur le potentiel de réserve éolienne est également mis en évidence. Enfin l’énergie réglante d’une ferme et la plage de réglage du statisme éolien sont caractérisées / The increasing development of wind power that does not participate in frequency control leads to new challenges in the management of electrical power systems. The problems are more significant in weak power grids. The present thesis aims to evaluate the performance and the reliability of frequency response from wind turbines on a system-wide scale. Studies are applied onto an isolated power grid.First of all, the impact of high levels of wind penetration on primary reserve allocation and on grid dynamic behaviour is characterized. It is shown that the participation of wind turbines in frequency regulation is technically required for maintaining power system security from a certain wind penetration rate.Two solutions allowing wind turbines to contribute to frequency control are then studied through dynamic simulations. The performance of emulated inertia is characterized by taking into account the impact of initial wind operating point and controller parameters. The contribution of wind power reserve to system dynamic performance improvement is also identified.In order to assess the potential and the reliability of wind primary reserve, the last part of this research work is devoted to statistical analyses considering the variability and the prediction uncertainty of wind generation. Two strategies for reserve allocation are proposed and compared. The impact of forecast errors on the potential of wind power reserve is also highlighted. Finally the power frequency characteristic of a wind farm as well as the droop adjustment range is characterized
349

Essays on the economics of risk and uncertainty

Berger, Loïc 22 June 2012 (has links)
In the first chapter of this thesis, I use the smooth ambiguity model developed by Klibanoff, Marinacci, and Mukerji (2005) to define the concepts of ambiguity and uncertainty premia in a way analogous to what Pratt (1964) did in the risk theory literature. I show that these concepts may be useful to quantify the effect ambiguity has on the welfare of economic agents. I also define several other concepts such as the unambiguous probability equivalent or the ambiguous utility premium, provide local approximations of these different premia and show the link that exists between them when comparing different degrees of ambiguity aversion not only in the small, but also in the large. <p><p>In the second chapter, I analyze the effect of ambiguity on self-insurance and self-protection, that are tools used to deal with the uncertainty of facing a monetary loss when market insurance is not available (in the self-insurance model, the decision maker has the opportunity to furnish an effort to reduce the size of the loss occurring in the bad state of the world, while in the self-protection – or prevention – model, the effort reduces the probability of being in the bad state). <p>In a short note, in the context of a two-period model I first examine the links between risk-aversion, prudence and self-insurance/self-protection activities under risk. Contrary to the results obtained in the static one-period model, I show that the impacts of prudence and of risk-aversion go in the same direction and generate a higher level of prevention in the more usual situations. I also show that the results concerning self-insurance in a single period framework may be easily extended to a two-period context. <p>I then consider two-period self-insurance and self-protection models in the presence of ambiguity and analyze the effect of ambiguity aversion. I show that in most common situations, ambiguity prudence is a sufficient condition to observe an increase in the level of effort. I propose an interpretation of the model in the context of climate change, so that self-insurance and self-protection are respectively seen as adaptation and mitigation efforts a policy-maker should provide to deal with an uncertain catastrophic event, and interpret the results obtained as an expression of the Precautionary Principle. <p><p>In the third chapter, I introduce the economic theory developed to deal with ambiguity in the context of medical decision-making. I show that, under diagnostic uncertainty, an increase in ambiguity aversion always leads a physician whose goal is to act in the best interest of his patient, to choose a higher level of treatment. In the context of a dichotomic choice (treatment versus no treatment), this result implies that taking into account the attitude agents generally manifest towards ambiguity may induce a physician to change his decision by opting for treatment more often. I further show that under therapeutic uncertainty, the opposite happens, i.e. an ambiguity averse physician may eventually choose not to treat a patient who would have been treated under ambiguity neutrality. <p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
350

Essays in dynamic macroeconometrics

Bañbura, Marta 26 June 2009 (has links)
The thesis contains four essays covering topics in the field of macroeconomic forecasting.<p><p>The first two chapters consider factor models in the context of real-time forecasting with many indicators. Using a large number of predictors offers an opportunity to exploit a rich information set and is also considered to be a more robust approach in the presence of instabilities. On the other hand, it poses a challenge of how to extract the relevant information in a parsimonious way. Recent research shows that factor models provide an answer to this problem. The fundamental assumption underlying those models is that most of the co-movement of the variables in a given dataset can be summarized by only few latent variables, the factors. This assumption seems to be warranted in the case of macroeconomic and financial data. Important theoretical foundations for large factor models were laid by Forni, Hallin, Lippi and Reichlin (2000) and Stock and Watson (2002). Since then, different versions of factor models have been applied for forecasting, structural analysis or construction of economic activity indicators. Recently, Giannone, Reichlin and Small (2008) have used a factor model to produce projections of the U.S GDP in the presence of a real-time data flow. They propose a framework that can cope with large datasets characterised by staggered and nonsynchronous data releases (sometimes referred to as “ragged edge”). This is relevant as, in practice, important indicators like GDP are released with a substantial delay and, in the meantime, more timely variables can be used to assess the current state of the economy.<p><p>The first chapter of the thesis entitled “A look into the factor model black box: publication lags and the role of hard and soft data in forecasting GDP” is based on joint work with Gerhard Rünstler and applies the framework of Giannone, Reichlin and Small (2008) to the case of euro area. In particular, we are interested in the role of “soft” and “hard” data in the GDP forecast and how it is related to their timeliness.<p>The soft data include surveys and financial indicators and reflect market expectations. They are usually promptly available. In contrast, the hard indicators on real activity measure directly certain components of GDP (e.g. industrial production) and are published with a significant delay. We propose several measures in order to assess the role of individual or groups of series in the forecast while taking into account their respective publication lags. We find that surveys and financial data contain important information beyond the monthly real activity measures for the GDP forecasts, once their timeliness is properly accounted for.<p><p>The second chapter entitled “Maximum likelihood estimation of large factor model on datasets with arbitrary pattern of missing data” is based on joint work with Michele Modugno. It proposes a methodology for the estimation of factor models on large cross-sections with a general pattern of missing data. In contrast to Giannone, Reichlin and Small (2008), we can handle datasets that are not only characterised by a “ragged edge”, but can include e.g. mixed frequency or short history indicators. The latter is particularly relevant for the euro area or other young economies, for which many series have been compiled only since recently. We adopt the maximum likelihood approach which, apart from the flexibility with regard to the pattern of missing data, is also more efficient and allows imposing restrictions on the parameters. Applied for small factor models by e.g. Geweke (1977), Sargent and Sims (1977) or Watson and Engle (1983), it has been shown by Doz, Giannone and Reichlin (2006) to be consistent, robust and computationally feasible also in the case of large cross-sections. To circumvent the computational complexity of a direct likelihood maximisation in the case of large cross-section, Doz, Giannone and Reichlin (2006) propose to use the iterative Expectation-Maximisation (EM) algorithm (used for the small model by Watson and Engle, 1983). Our contribution is to modify the EM steps to the case of missing data and to show how to augment the model, in order to account for the serial correlation of the idiosyncratic component. In addition, we derive the link between the unexpected part of a data release and the forecast revision and illustrate how this can be used to understand the sources of the<p>latter in the case of simultaneous releases. We use this methodology for short-term forecasting and backdating of the euro area GDP on the basis of a large panel of monthly and quarterly data. In particular, we are able to examine the effect of quarterly variables and short history monthly series like the Purchasing Managers' surveys on the forecast.<p><p>The third chapter is entitled “Large Bayesian VARs” and is based on joint work with Domenico Giannone and Lucrezia Reichlin. It proposes an alternative approach to factor models for dealing with the curse of dimensionality, namely Bayesian shrinkage. We study Vector Autoregressions (VARs) which have the advantage over factor models in that they allow structural analysis in a natural way. We consider systems including more than 100 variables. This is the first application in the literature to estimate a VAR of this size. Apart from the forecast considerations, as argued above, the size of the information set can be also relevant for the structural analysis, see e.g. Bernanke, Boivin and Eliasz (2005), Giannone and Reichlin (2006) or Christiano, Eichenbaum and Evans (1999) for a discussion. In addition, many problems may require the study of the dynamics of many variables: many countries, sectors or regions. While we use standard priors as proposed by Litterman (1986), an<p>important novelty of the work is that we set the overall tightness of the prior in relation to the model size. In this we follow the recommendation by De Mol, Giannone and Reichlin (2008) who study the case of Bayesian regressions. They show that with increasing size of the model one should shrink more to avoid overfitting, but when data are collinear one is still able to extract the relevant sample information. We apply this principle in the case of VARs. We compare the large model with smaller systems in terms of forecasting performance and structural analysis of the effect of monetary policy shock. The results show that a standard Bayesian VAR model is an appropriate tool for large panels of data once the degree of shrinkage is set in relation to the model size. <p><p>The fourth chapter entitled “Forecasting euro area inflation with wavelets: extracting information from real activity and money at different scales” proposes a framework for exploiting relationships between variables at different frequency bands in the context of forecasting. This work is motivated by the on-going debate whether money provides a reliable signal for the future price developments. The empirical evidence on the leading role of money for inflation in an out-of-sample forecast framework is not very strong, see e.g. Lenza (2006) or Fisher, Lenza, Pill and Reichlin (2008). At the same time, e.g. Gerlach (2003) or Assenmacher-Wesche and Gerlach (2007, 2008) argue that money and output could affect prices at different frequencies, however their analysis is performed in-sample. In this Chapter, it is investigated empirically which frequency bands and for which variables are the most relevant for the out-of-sample forecast of inflation when the information from prices, money and real activity is considered. To extract different frequency components from a series a wavelet transform is applied. It provides a simple and intuitive framework for band-pass filtering and allows a decomposition of series into different frequency bands. Its application in the multivariate out-of-sample forecast is novel in the literature. The results indicate that, indeed, different scales of money, prices and GDP can be relevant for the inflation forecast.<p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished

Page generated in 0.0869 seconds