Spelling suggestions: "subject:"prévision""
11 |
Descente d'échelle probabiliste pour analogues météorologiques. Etude de la cohérence spatiale / Spatially coherent probabilistic precipitation downscaling with meteorological analoguesRadanovics, Sabine 03 November 2014 (has links)
Étudier les précipitations et leur lien avec la circulation atmosphérique augmente notre connaissance de leurs caracteristiques et aide à anticiper leur comportement futur. Des méthodes de déscente d'échelle sont développées pour fournir des informations météorologiques locales et importantes pour l'hydrologie à partir des informations issues des réanalyses ou des projections globales du climat. La méthode SANDHY (Stepwise ANalogue Downscaling method for HYdrology) est étendue à l'ensemble de la France métropolitaine en optimisant les domaines pour le prédicteur géopotentiel pour les 608 zones climatiquement homogènes en France en utilisant un algorithme qui permet de prendre en compte l'équifinalité. Une grande diversité des domaines pour le prédicteur géopotentiel a été trouvée. Trois voies pour augmenter la cohérence spatiale et diminuer l'espace des paramètres sont explorés : prendre en compte les domaines optimisés pour des zones voisines, rassembler des zones en utilisant des algorithmes d'aggregation et utiliser un preditant moins asymétrique pendant l'optimisation. Utiliser de l'information issues de zones voisines permet de compenser certaines limitations de l'algorithme d'optimisation. Une méthode de vérification spatiale (SAL) est ici adaptée pour les précipitations probabilistes simulées par SANDHY. Des mesures de performance derivées de cette version probabiliste du SAL sont ensuite utilisées pour évaluer différentes stratégies de déscente d'échelle concernant la cohérence spatiale à l'échelle d'un bassin versant. Les domains optimisés localement pour le prédicteur géopotentiel permettent de mieux localiser les précipitations dans le bassin tandis que des domains uniformes sur tout le bassin apportent une structure des précipitations plus réaliste. Les simulations de débit pour le bassin de la Durance sont le plus sensible à la localisation des précipitations ce qui souligne l'interêt d'une optimisation locale des domaines des prédicteurs. / Studying past and present day precipitation and its link to large scale circulation increases our understanding of precipitation characteristics and helps to anticipate their future behaviour. Downscaling techniques are being developed to bridge the gap between large-scale climate information from global reanalyses or GCM global projections and local meteorological information relevant for hydrology. The stepwise analogue downscaling method for hydrology (SANDHY) is extended to the whole mainland of France by optimising the geopotential predictor domains for 608 zones covering France using a multiple growing rectangular domain algorithm that allows to take equifinality into account. A high diversity of predictor domains has been found. To increase the spatial coherence three ways are explored to reduce the parameter space: assessing the skill for predictor domains found for other zones, form groups of zones using cluster algorithms and using a less skewed predictand variable during optimisation. Using information from neighbouring zones allows to counterbalance in part limitations of the optimisation algorithm. A feature based spatial verification method (SAL) is adapted for probabilistic precipitation simulation as provided by SANDHY. Skill scores derived from the probabilistic SAL are used to assess different strategies for spatially coherent precipitation downscaling at catchment scale. Locally optimised predictor domains lead to a better localisation of precipitation in the catchment and higher local skill while uniform predictor domains for the whole catchment lead to a more realistic spatial structure of the simulated precipitation. Streamflow simulations for the Durance catchment (Southern Alps) are most sensitive to the realistic localisation of precipitation which highlights the interest of locally optimising predictor domains.STAR
|
12 |
Détection à court-terme et long-terme des tempêtes hivernales à fort potentiel d'impact / Short-term and long-term detection of winter windstorms with high damage potentialDeroche, Madeleine-Sophie 27 June 2014 (has links)
Le travail de recherche appliquée réalisé au cours du doctorat s’intéresse aux tempêtes hivernales à fort potentiel d’impact économique en Europe et comprend deux parties. La première partie vise à quantifier l’impact du changement climatique sur les tempêtes de vent hivernales extrêmes en Europe et s’appuie sur des données couvrant des périodes supérieures à 30 ans. La seconde partie du travail est plus opérationnelle et a pour objectif l’élaboration et la mise en place d’un outil de détection des tempêtes de vent hivernales en Europe à partir de prévisions météorologiques actualisées toutes les six heures. L’objectif général de la première partie du travail de recherche est d’apporter une vision moyen-terme de ce que pourraient être les tempêtes de vent hivernales en Europe au cours du XXIe siècle. Ce travail vient compléter la vision pour l’instant principalement court-terme du risque proposée par les modèles CatNat, utilisés par les (ré)assureurs pour connaître le coût du risque sur leur portefeuille. Au cours du travail de recherche, une nouvelle méthode a été proposée pour définir le potentiel de dommages associés à une tempête de vent en Europe. L’idée originale développée au cours du projet est l’utilisation de plusieurs variables capturant différentes échelles spatio-temporelles et prenant en compte la relation entre plusieurs variables caractéristiques d’un même cyclone extratropical. La recherche d’événements partageant une signature similaire et intense, simultanément dans la vorticité relative à 850 hPa, la pression au niveau de la mer et le vent de surface, conduit à la détection d’un nombre réduit d’événements. La comparaison du nombre d’événements qui constituent ce groupe et de leur intensité entre des données issues de réanalyses et celles issues de différentes simulations du climat futur peut apporter des réponses suffisantes aux compagnies d’assurance sur l’évolution de ce risque dans un climat dont les conditions climatiques sont différentes de celui d’aujourd’hui. Un premier article sur la méthode a été accepté dans le journal Natural Hazard and Earth Science System. La méthode a été appliquée aux données issues des modèles participant au projet CMIP5. Il s’agit d’évaluer la capacité des modèles de climat à reproduire les événements type « tempête de vent hivernales en Europe » et d’estimer l’impact du changement climatique sur la fréquence et l’intensité des tempêtes de vent hivernales en Europe. Un second article reprenant les résultats de cette étude est en préparation. La seconde partie de la thèse est focalisée sur le projet opérationnel Severe WIndstorms Forecasting Tool (SWIFT) dont le but est de développer un outil permettant, à partir de prévisions météorologiques issues toutes les six heures, de détecter un événement type tempête de vent pouvant causer des dégâts majeurs en Europe et de proposer aux entités du groupe AXA concernées une estimation du montant des pertes et du nombre de sinistres associés à l’événement à venir ainsi que leurs localisations. / The research carried out during the PhD deals with winter windstorms with high economic damage potential in Europe and can be divided in two parts. The first part aims at quantifying the impact of climate change on European winter windstorms and relies on datasets covering long periods of time (>30 years) either in the past or in the future. The objective of the second part is to forecast potential losses and claims associated with an upcoming extreme windstorm by using forecast data updated every six hours. The overall objective of the first part is to provide a medium-term view of what could be the winter windstorms in Europe during the 21st century. It thus completes the short-term vision of the risk given by the Catastrophe Models used by the (re)insurers to assess the cost of the risk on their portfolio. A new methodology has been developed to define the damage potential associated with European winter windstorms. The novelty of the methodology relies in the use of several variables capturing different spatiotemporal scales and the coupling that exists between variables during the cyclogenesis. Seeking for events sharing a similar intense signature simultaneously in the relative vorticity at 850 hPa, the mean sea level pressure and the surface wind speed lead to the detection of a small group of events. Comparing the number of events that belong to this group and their intensity in reanalysis datasets and different simulations of the future climate can provide enough information to insurance companies on the potential evolution of this hazard in a future climate. A first paper on the methodology has been accepted in the journal of Natural Hazard and Earth Science System.The methodology has been applied to the datasets provided by Global Climate Models (GCM) participating to the CMIP5 project. The goal is to assess the ability of GCMs to reproduce winter windstorms in Europe and the potential impact of climate change on the frequency and intensity of such events. A second paper presenting the results obtained from this second study will be submitted.The second part of the PhD focuses on the project Severe WIndstorms Forecasting Tool (SWIFT). The objective is to develop an early warning tool that detects an upcoming winter windstorms in meteorological forecasts updated every six hours and provides interested AXA entities with an alert on the upcoming windstorm as well as an estimate of the potential losses and claims.The tool has been developed in parallel of the research project and consists in two modules. In the first module, particularly intense systems are detected in meteorological forecasts and the associated gust footprint is extracted. In the second module, wind speeds are translated into a loss and a number of claims thanks to vulnerability curves. When a system is detected, an alert is sent with the appropriate information on the event propagation and the associated loss. The tool has been running automatically for the 2013 – 2014 winter season and detected most of the events that passed over Europe.
|
13 |
Prévisions hydrologiques d'ensemble : développements pour améliorer la qualité des prévisions et estimer leur utilitéZalachori, Ioanna 19 April 2013 (has links) (PDF)
La dernière décennie a vu l'émergence de la prévision probabiliste de débits en tant qu'approche plus adaptée pour l'anticipation des risques et la mise en vigilance pour lasécurité des personnes et des biens. Cependant, au delà du gain en sécurité, la valeur ajoutée de l'information probabiliste se traduit également en gains économiques ou en une gestion optimale de la ressource en eau disponible pour les activités économiques qui en dépendent. Dans la chaîne de prévision de débits, l'incertitude des modèles météorologiques de prévision de pluies joue un rôle important. Pour pouvoir aller au-delà des limites de prévisibilité classiques, les services météorologiques font appel aux systèmes de prévision d'ensemble,générés sur la base de variations imposées dans les conditions initiales des modèlesnumériques et de variations stochastiques de leur paramétrisation. Des scénarioséquiprobables de l'évolution de l'atmosphère pour des horizons de prévision pouvant aller jusqu'à 10-15 jours sont ainsi proposés. L'intégration des prévisions météorologiques d'ensemble dans la chaîne de prévision hydrologique se présente comme une approche séduisante pour produire des prévisions probabilistes de débits et quantifier l'incertitude prédictive totale en hydrologie.
|
14 |
Statistical Post-Processing Methods And Their Implementation On The Ensemble Prediction Systems For Forecasting Temperature In The Use Of The French Electric Consumption / Les propriétés statistiques de correction des prévisions de température et leur application au système des prévisions d’ensemble (SPE) de Météo FranceGogonel, Adriana Geanina 27 November 2012 (has links)
L’objectif des travaux de la thèse est d’étudier les propriétés statistiques de correction des prévisionsde température et de les appliquer au système des prévisions d’ensemble (SPE) de MétéoFrance. Ce SPE est utilisé dans la gestion du système électrique, à EDF R&D, il contient 51membres (prévisions par pas de temps) et fournit des prévisions à 14 jours. La thèse comportetrois parties. Dans la première partie on présente les SPE, dont le principe est de faire tournerplusieurs scénarios du même modèle avec des données d’entrée légèrement différentes pour simulerl’incertitude. On propose après des méthodes statistiques (la méthode du meilleur membre etla méthode bayésienne) que l’on implémente pour améliorer la précision ou la fiabilité du SPEdont nous disposons et nous mettons en place des critères de comparaison des résultats. Dansla deuxième partie nous présentons la théorie des valeurs extrêmes et les modèles de mélange etnous proposons des modèles de mélange contenant le modèle présenté dans la première partieet des fonctions de distributions des extrêmes. Dans la troisième partie nous introduisons larégression quantile pour mieux estimer les queues de distribution. / The thesis has for objective to study new statistical methods to correct temperature predictionsthat may be implemented on the ensemble prediction system (EPS) of Meteo France so toimprove its use for the electric system management, at EDF France. The EPS of Meteo Francewe are working on contains 51 members (forecasts by time-step) and gives the temperaturepredictions for 14 days. The thesis contains three parts: in the first one we present the EPSand we implement two statistical methods improving the accuracy or the spread of the EPS andwe introduce criteria for comparing results. In the second part we introduce the extreme valuetheory and the mixture models we use to combine the model we build in the first part withmodels for fitting the distributions tails. In the third part we introduce the quantile regressionas another way of studying the tails of the distribution.
|
15 |
Politiques de pilotage de flux dans les chaînes logistiques : impact de l'utilisation des prévisions sur la gestion de stocksBabai, Mohamed Zied 30 November 2005 (has links) (PDF)
Le pilotage de flux dans les chaînes logistiques représente un enjeu majeur pour les entreprises qui leur permet d'améliorer la qualité du service vis-à-vis des clients tout en réduisant les coûts. Plusieurs travaux s'intéressent à cette problématique en proposant des outils pour un meilleur pilotage. Cette thèse s'inscrit dans le cadre de ces travaux et a pour objectif de proposer de nouvelles politiques de pilotage de flux.<br />Dans la première partie de ce travail, nous avons effectué une synthèse des politiques existantes en mettant en évidence leurs similarités et leurs différences. Ceci nous a permis de proposer une classification de ces politiques en se basant sur le type de l'information disponible sur la demande, ce qui représente un outil d'aide au choix de la meilleure politique de pilotage dans un contexte industriel donné.<br />Dans la deuxième partie de ce travail, nous avons effectué une extension des politiques de gestion de stock classiques, basées sur une approche de renouvellement de la consommation, à des politiques basées sur une approche de pilotage par les besoins futurs, ces besoins étant exprimés sous forme de prévisions. Ceci nous a permis de développer des nouvelles politiques dynamiques de gestion de stock sur prévisions basées sur la notion d'incertitude prévisionnelle. Nous avons également effectué une étude numérique comparative de ces politiques qui met en valeur les bénéfices de l'utilisation des prévisions de la demande dans le pilotage de flux. Par ailleurs, nous avons analysé les équivalences qui existent entre les différentes politiques de pilotage de flux, traitées dans le cadre de cette thèse, ce qui nous a permis de donner une vision globale plus cohérente de ces politiques et de mettre en exergue les relations qui existent entre elles.
|
16 |
Prévisibilité saisonnière de la glace de mer de l'océan ArctiqueChevallier, Matthieu, Chevallier, Matthieu 07 December 2012 (has links) (PDF)
La glace de mer Arctique connaît actuellement de profondes mutations dans sa structure et sa variabilité. Le déclin récent de la couverture estivale de glace de mer Arctique, qui a atteint un nouveau record en septembre 2012, a relancé l'intérêt stratégique de cette région longtemps oubliée. La prévision de glace de mer à l'échelle saisonnière est ainsi un problème d'océanographie opérationnelle qui pourrait intéresser nombre d'acteurs économiques (pêche, énergie, recherche, tourisme). De plus, en tant que conditions aux limites pour l'atmosphère, la glace de mer peut induire une prévisibilité de l'atmosphère à l'échelle saisonnière, au même titre que les anomalies de température de surface de l'océan sous les tropiques. Nous présentons dans cette thèse la construction d'un système de prévisions saisonnières dédié à la glace de mer Arctique avec le modèle couplé CNRM-CM5.1, développé conjointement par le CNRM-GAME et le CERFACS. Nous passons en revue la stratégie d'initialisation, la réalisation et l'évaluation des hindcasts (ou rétro-prévisions). La communauté dispose d'observations de concentration de glace de mer, mais de très peu de données d'épaisseur à l'échelle du bassin. Afin d'initialiser la glace de mer et l'océan dynamiquement et thermodynamiquement, nous avons choisi d'utiliser la composante océan-glace de mer de CNRM-CM5.1, NEMO-GELATO. L'initialisation consiste à forcer NEMO-GELATO avec les champs météorologiques issus de la réanalyse ERA-Interim, sur la période 1990-2010. Des corrections appliquées aux forçages basées sur des observations satellitaires et in-situ nous permettent d'obtenir une bonne simulation de l'océan et de la glace de mer en terme d'état moyen et de variabilité interannuelle. L'épaisseur reste néanmoins sous-estimée. Quelques propriétés de prévisibilité intrinsèque de la glace de mer Arctique sont ensuite présentées. Une étude de prévisibilité potentielle diagnostique nous a permis de distinguer deux modes de prévisibilité de la glace de mer à l'aide du volume et de la structure sous-maille d'épaisseur. Un " mode de persistance " concerne la prévisibilité de la couverture d'hiver. La surface de glace de mars est potentiellement prévisible à 3 mois à l'avance par la seule persistance, et dans une moindre mesure à l'aide des surfaces couvertes par la glace relativement fine. Un " mode de mémoire " concerne la prévisibilité de la couverture estivale. La surface de glace de septembre est potentiellement prévisible jusqu'à 6 mois à l'avance à l'aide du volume et surtout de la surface couverte par la glace relativement épaisse. Ces résultats suggèrent donc qu'une bonne initialisation du volume et de la structure d'épaisseur en fin d'hiver permettrait une bonne prévisibilité des étendues de fin d'été. Les prévisions d'été et d'hiver présentent des scores particulièrement encourageants, que ce soit en anomalies brutes ou en anomalies par rapport à la tendance linéaire. Cela suggère une prévisibilité liée à l'état initial et non aux forçages externes imposés. L'analyse des prévisions d'été montre que le volume et les structures d'épaisseur de l'état initial expliquent l'essentiel des différentes prévisions, ce qui confirme l'existence du " mode de mémoire " malgré un fort biais radiatif. L'analyse des prévisions d'hiver suggère que l'étendue initiale explique une partie des différentes prévisions, un indice du " mode de persistance " des prévisions hivernales. Une analyse régionale des prévisions d'hiver permet de préciser le rôle de l'océan dans ces prévisions, et montre dans quelle mesure nos prévisions pourraient être utilisées de manière opérationnelle, notamment en mer de Barents
|
17 |
La couverture des introductions en bourse par les analystes financiers : une comparaison internationale / Financial analyts' coverage of IPOs : some international evidenceBoissin, Romain 10 January 2011 (has links)
Cette thèse s'intéresse au rôle des analystes financiers lors de la couverture des introductions en bourse dans un contexte international. Nous traitons de la valeur informationnelle des couvertures des analystes et de leur conséquence sur la performance à long terme des entreprises nouvellement introduites en bourse. Nous examinons si les recommandations des analystes financiers permettent de réduire le comportement irrationnel des investisseurs en situation de forte incertitude. Nous espérons qu'en réduisant les asymétries d'informations, les analystes financiers aident les investisseurs à mieux cibler la valeur de l'IPO. Cette thèse s'articule autour de deux parties : la première est consacrée au positionnement théorique et à nos hypothèses de recherche ; la seconde se focalise sur la vérification empirique d'un échantillon d'IPOs internationales (Etats-Unis, Angleterre, Allemagne et France) sur la période 1991 à 2005. Les résultats révèlent une sous performance des IPOs plus sévères pour les orphelines (sans couverture des analystes) que pour les non orphelines. Il apparaît que la couverture des analystes est importante pour les IPOs mais que le marché n'en perçoit pas toute la valeur. D'autres analyses soulignent que cette meilleure performance des non orphelines provient du nombre élevé de couvertures. Nous établissons que les recommandations des analystes sont significativement reliées à la performance à long terme des IPOs. Ainsi, nous vérifions le rôle crucial des analystes financiers dans la production et l'interprétation des informations. / This thesis explores the role of financial analysts' coverage on IPOs in an international context. We deal with the informational value of research coverage and the consequence on long run performance of newly public firms. We examine whether financial analyst recommendations allow alleviating the irrational investors' behaviour in the context of strong uncertainty. We expect that by reducing the information asymmetry, financial analyst recommendations help investors to define progressively the true value of the IPO. The thesis is organized in two main parts: the first part presents a survey of literature and define research hypothesis. The second part consists in an empirical validation of an international sample of IPOs (US, United Kingdom, Germany and France) over the 1991-2005 period. The results reveal that long run underperformance is much severe for orphans' IPOs (without financial recommendation) than non orphans' IPOs. The evidence suggests that analyst coverage is indeed important to issuing firm but the market do not fully incorporate the perceived value of this coverage. Further analysis reveals that this outperformance by non orphan stems from high coverage. We establish that analyst recommendations are significantly related to long run performance of IPOs. Hence, we corroborate the crucial role of financial analysts in producing and interpreting IPOs' financial releases.
|
18 |
Prévision du Dynamic Line Rating et impact sur la gestion du système électrique / Forecasting of Dynamic Line Rating and assessment of the impacts on power system managementDupin, Romain 03 July 2018 (has links)
Le Dynamic Line Rating est la modification dynamique des contraintes de courant sur une ligne électrique aérienne, en accord avec la météorologie. De telles modifications permettent alors d’avoir des réductions des phénomènes de congestion près de 99% du temps.De manière similaire aux énergies renouvelables, il est possible de générer des prévisions de ces contraintes modifiées, en accord avec des observations historiques, des prévisions météorologiques et des méthodes d’intelligence artificielle.Dans cette thèse, nous proposons le développement de modèles de prévision probabilistes à court terme du DLR. Nous nous concentrons plus particulièrement sur des méthodes fournissant des prévisions ayant de très faibles probabilités d’être surestimées. Cela passe par le développement et la comparaison de plusieurs méthodes de prévision, ainsi que des améliorations comme des modifications de prévisions à très bas quantile à l’aide de remodélisations des queues de distribution.Par la suite, une réflexion est faite sur l’utilisation en pratique de ces prévisions, d’abord par des cas d’étude simplifié, puis à l’aide de simulations de réseaux électrique. Ces approches nous permettent de développer de nouvelles stratégies d’utilisation des prévisions DLR, optimisant le bien-être social tout en maintenant les risques associés aux erreurs de prévision à un niveau faible.Finalement, nous évaluons les modèles de prévisions développés en fonction de leurs performances économiques à l’aide des modèles de réseaux électriques, et nous démontrons la valeur des améliorations des modèles de prévision que nous proposons. / Dynamic Line Rating is the modification of the maximal current capacity of an overhead electrical line, depending on weather characteristics. Such modifications allow important decreases of congestion phenomena, around 99% of the time.Similarly to renewable generation, it is possible to forecast the modified constraints, accordingly to some historic observations, weather predictions and artificial intelligence methods.In this document, the development of short-term probabilistic DLR forecast models. A focus is especially made on methods providing forecasts having a very low probability of being overestimated. This is made through the development and the comparison of several forecast methods, and some improvements such as the remodelling of very low quantile forecasts with tail density modelling.Following that, a reflection is proposed on the use of such forecasts in practice, first with some simplified test cases, then with electrical grid simulations. These approaches allow us developing new strategies for the use of the DLR forecasts, maximizing the social welfare while keeping risks associated with forecasts errors at low levels.Finally, an evaluation of the forecast models function of their economic value is made with the electrical grids models, and the value of the proposed modifications of the forecast models is then demonstrated.
|
19 |
Conception et estimation d'un modèle DSGE pour la prévision macroéconomique : un petit modèle d'économie ouverte pour le Cameroun / Design and estimating a DSGE model for macroeconomic forecasting : a small open economy model for CamerounMfouapon, Alassa 10 December 2015 (has links)
Cette thèse propose une analyse de la dynamique macroéconomique de l’économie camerounaise. On commence par une analyse quantitative générale du cycle des affaires au Cameroun, fondée sur des données macroéconomiques annuelles que nous avons nous-mêmes assemblées. Cette première exploration laisse apparaître un certain nombre de caractéristiques qui se prêtent bien à une modélisation de type néo-keynesien. Nous construisons alors un modèle dynamique stochastique d’équilibre général (DSGE) de l’économie camerounaise. Ce modèle comporte les blocs de construction de modèles DSGE néo-keynésiens standards (par exemple, la rigidité des prix et des salaires des rigidités, et des coûts d'ajustement), mais il inclut également un certain nombre de caractéristiques spécifiques (telles que l'exportation des matières premières et les revenus du pétrole entre autre) dont on montre qu’elles jouent un rôle important dans la dynamique de l'économie camerounaise. Le modèle est estimé et évalué selon une approche bayésienne. La performance du modèle DSGE en termes de prévision est comparée à celle d’un modèle de marche aléatoire, à celle d’un modèle vectoriel auto-régressif (VAR) et, enfin, à celle d’un modèle vectoriel auto-régressif de type Bayesien (BVAR). Nous trouvons que, le modèle DSGE est plus précis en matière de prévision au moins dans un horizon de court-terme. Pour ce qui est des fluctuations macroéconomiques, les chocs des prix des produits de base génèrent une expansion de la production, une augmentation de l'emploi et une baisse de l'inflation tandis que des chocs liés aux prix du pétrole ont un impact direct sur le coût marginal de production qui augmente et provoque une augmentation de l'inflation en même temps que production et emploi baissent. Notons que, les chocs extérieurs et les chocs d'offre domestiques représentent une grande part des fluctuations de la production et de l'investissement. Aussi, l'évolution de la production sur l'ensemble de l'échantillon est dominée par le choc de prix des matières premières et le choc des prix du pétrole. / This thesis aims at analyzing the macroeconomic dynamics of the Cameroonian economy. It begins with a quantitative analysis of the business cycle in Cameroon, based on annual macroeconomic data, especially gathered for this purpose. This preliminary inquiry highlights a number of features that can be accounted for in a new-keynesian modelling framework. A dynamic stochastic general equilibrium (DSGE) model of the new-keynesian family is thus constructed as a mean of describing the salient feautures of the Cameroonian economy. It has the traditional blocks of new-keynesian DSGE models (Sticky prices and wages, adjustment costs, etc). But it also accounts for a number of characteristics of the Cameroonian economy that are shown to be influential in the dynamics of the cameroonian economy (e.g. oil revenues or primary goods exports). The model is then estimated and evaluated, based on a Bayesian approach. Its forecasting performance is also assessed through comparison to the performances of a random walk model, a vector autoregressive (VAR) model and a Bayesian VAR (BVAR) model. It turns out that, at least for short horizons, the DSGE model shows the highest perfromance. As to macroeconomic fluctuations, the estimated model suggests that commodity price shocks generate an output expansion, an increase in employment and a fall in inflation. In addition, oil price shocks have a direct impact on marginal costs which increase and provoke a rising in inflation while output and employment tend to fall. Foreign shoks and domestic supply shocks account for a large share of output and investment fluctuations. The evolution of output over the whole sample is dominated by commodity price shocks and oil price shocks as one would expect.
|
20 |
Modélisation par la théorie des jeux des échanges de prévisions dans un réseau d'entreprisesTaratynava, Natallia 13 November 2009 (has links) (PDF)
L'objet de notre étude est une chaîne logistique à deux étages composée d'un donneur d'ordres face à une demande aléatoire de marché et d'un fournisseur qui est lié au donneur d'ordres par un contrat linéaire de prix de gros. Le donneur d'ordres, qui est plus proche du marché final, aura une meilleure connaissance de la demande et transmettra à son fournisseur de l'information sur les prévisions de cette demande. Les prévisions sur la demande du marché seront de type binaire : demande haute ou demande basse. L'information sera donc à la fois asymétrique car le donneur d'ordres sera au départ mieux informé, mais aussi imparfaite car ces informations ne seront que des prévisions approchées des commandes réelles finales du marché. Nous étudions plusieurs modèles de chaînes logistiques (le modèle MTS/MTO en mono- et multi-périodes et le modèle MTS/MTS en mono-période) et nous utilisons deux approches scientifiques : la théorie des jeux et la méthodologie d'économie expérimentale.
|
Page generated in 0.0861 seconds