• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 407
  • 191
  • 39
  • 4
  • 1
  • Tagged with
  • 638
  • 217
  • 137
  • 108
  • 76
  • 66
  • 65
  • 58
  • 52
  • 50
  • 47
  • 43
  • 42
  • 42
  • 41
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Understanding some new Basel III implementation issues for Lebanese Commercial Banks / Sur la compréhension des difficultés d'implémentation de Bâles III pour les banques libanaises commerciales

Sayah, Mabelle 12 September 2017 (has links)
L'objectif de cette thèse est de fournir à la banque Audi un outil à jour sur les façons de calculer le capital requis par Bâle pour certains risques financiers présents dans le portefeuille de la banque. La régulation internationale est en développement continu : des nouvelles approches sont proposées afin de couvrir au mieux les risques du marché et du secteur bancaire. Les crises financières récentes étaient à la base de ces réformes. De plus, la Banque Audi opère sur des marchés qui présentent des caractères spécifiques qu'il faut prendre en considération lors du calcul du capital requis. Cette thèse se concentre sur le risque de taux d'intérêt dans le livre de négociation de la banque, le risque de contrepartie et précisément l'ajustement d'évaluation de crédit tout en incorporant l'impact de la corrélation entre la qualité du crédit de la contrepartie et l'exposition prévue envers cette même contrepartie. La première partie de cette thèse traite de la nouvelle méthodologie suggérée par Bâle sur le Trading Book : Fundamental Review of the Trading Book. Le risque de taux d'intérêt est particulièrement analysé en utilisant la méthode standard, Sensitivity Based Approach (SBA), et des méthodes plus 'traditionnelles' de valeur à risque tout en utilisant différents modèles tels que Generalized Auto Regressive Conditional Heteroscedasticity (GARCH), l'Analyse en Composantes Principales (ACP), l'Analyse en composantes indépendantes (ACI) et la version dynamique du modèle de taux de Nelson Siegel (DNS). Une application sur des portefeuilles d'obligations zéro coupons de différentes devises permet d'identifier la diversification des résultats entre les marchés stables européens (comme la France), moins stables (exemple Etats-Unis) et les marchés émergents (tel la Turquie). La deuxième partie est consacrée au risque de Contrepartie. Récemment, un nouveau capital est requis par les normes de Bâle afin de couvrir ce genre de risque. En 2014, la méthode est publiée : Standardized Approach for Counterparty Credit Risk (SA-CCR). On applique cette méthode sur différents types de produits dérivés afin de comparer le capital demandé par cette approche à celui obtenu par les modèles internes. Les modèles internes incorporent les estimations historiques ainsi que les projections futures du marché tout en se basant sur des modèles bien connus tels que Vasicek et GARCH. Plusieurs structures de hedging sont mises en place afin de mesurer l'impact de chacune sur les deux montants de capitaux requis (sous la méthode standard ou l'IMM). L'effet sur des produits en EUR et USD reflété que le modèle interne demande 80% du capital standard quand aucune stratégie de hedging n'est mise en place. Par contre, le hedging semble être beaucoup plus favorisé par le modèle standard que le modèle interne. La troisième partie est toujours sur le risque de Contrepartie, mais se focalise sur l'ajustement d'´évaluation de crédit (CVA). Ce sujet ne faisait pas partie des capitaux requis sauf récemment. A cause de son grand impact durant les récentes crises financières. Dès lors, si une opération avec des produits dérivés ne passe pas par une central clearing houses, un capital pour le CVA est requis. Dans ce travail, on détaille les méthodes acceptées par Bâle afin de calculer ces capitaux et on les compare entre elles. La comparaison se fait en se basant sur des portefeuilles de swap de taux d'intérêts avec, comme contreparties, différents pays d'Investment Grade. Cet article incorpore en plus l'impact de la corrélation entre la détérioration de la qualité de la contrepartie et l'augmentation de l'exposition prévue avec cette contrepartie connue sous le nom de WrongWay Risk : des modèles de correction d'erreurs (ECM) sont mis en place afin de déterminer ce lien. Les résultats permettent de montrer l'importance d'utiliser les CDS des contreparties et non de se limiter à leur note (Investment Grade ou pas)... / This thesis aims at providing Bank Audi with an updated tool to understand and investigate in given risk types encountered in their portfolios and the way Basel suggests computing their capital charges. International regulator is constantly changing and modifying previously used approaches to enhance the reflection of the market and banking sector risks. The recent financial crisis played a major role in these reforms, in addition the situation of Bank Audi and the markets it is operating in, represent certain specifications that should be accounted for. The work handles interest rate risk in the trading book, Counterparty Credit Risk faced with derivatives along a closer look on the Credit Valuation Adjustment topic and the incorporation of Wrong Way Risk. The first part discusses the new Fundamental Review of the Trading Book: focusing on the general interest rate risk factor, the paper compared Basel’s Sensitivity Based Approach (SBA) capital charge to more traditional approaches of VaR using several models such as Generalized Auto Regressive Conditional Heteroscedasticity (GARCH), Principal Components Analysis (PCA), Independent Components Analysis (ICA) and Dynamic Nelson Siegel. Application on portfolios with zero coupon bonds of different sovereigns revealed the divergence in results between stable markets (such as France and Germany), less stable (such as the USA) and emergent markets (such as Turkey). The second part is dedicated to the Counterparty Credit Risk. A new capital charge methodology was proposed by Basel and set as a standard rule in 2014: the Standardized Approach for Counterparty Credit Risk (SA-CCR). Applying this approach on different derivatives portfolios, we compared it to internal models. The internal methodologies incorporated historical estimations and future projections based on Vasicek and GARCH models. Different hedging cases were investigated on EUR and USD portfolios. The impact of each hedging technique and the difference between IMM and the standardized methods were highlighted in this work: without hedging, the internal approach amends 80% of the standardized capital whereas, in general, the hedging is encouraged more under the standardized approach relatively to its capital reduction under the internal model. The third part remains a part of the Counterparty Credit Risk however, the main focus in this work is the Credit Valuation Adjustment. This topic was neglected in terms of capital charge earlier but due to its important impact is now incorporated as a capital charge amended when no central clearing is put in place when dealing with derivatives. We focus on the regulatory approaches of capital computation, comparing both accepted approaches based on portfolios of interest rate swaps held with investment grade sovereigns. An incorporation of the Wrong Way Risk is another addition in this work: using Error Correction Models we were able to reflect the impact of the correlation between the exposure and the credit quality of the investment grade sovereign we are dealing with. Based on such results, a suggestion of a re-calibrated standardized approach is in place to encourage the use of the CDS as an indicator of the credit quality of the counterparty and not its grade (investment or not) as followed by the new Basel regulations
392

Commande d'une éolienne à base de GSAP connectée au réseau électrique par convertisseur multiniveaux

Berhail, Abdelkader January 2020 (has links) (PDF)
No description available.
393

Impacts des non-linéarités dans les systèmes multi-porteuses de type FBMC-OQAM / OFDM-FBMC performance in presence of non-linear high power amplifier

Bouhadda, Hanen 22 March 2016 (has links)
Dans cette thèse une étude des performances des systèmes OFDM et FBMC/OQAM en présence d'amplificateur de puissance sans mémoire en terme de TEB est présentée. Ensuite, nous avons proposé une technique de linéarisation d'AP par pré-distorsion adaptative neuronale. Aussi, nous avons proposé deux techniques de correction des non-linéarités au niveau du récepteur. / In our work, we have studied the impact of in-band non linear distortions caused by PA on both OFDM and FBMC/OQAM systems. A theoretical approach was proposed to evaluate the BER performance for the two systems. This approach is based on modeling the in-band non-linear distortion with a complex gain and an uncorrelated additive white Gaussian noise, given by the Bussgang theorem. Then, we have proposed different techniques to compensate this NLD either on the transmitter or the receiver sides.
394

Développements d’échantillonneurs passifs pour l’étude de la contamination des eaux par les micropolluants organiques / Development of passive sampling tools to monitor organic micropollutants in water

Wund, Perrine 09 December 2013 (has links)
Préserver les ressources en eau est l’une des problématiques environnementales majeures du 21è siècle. Pour faire face à cette nécessité, il est essentiel de mettre en place une surveillance réglementée de la qualité des eaux et des rejets se déversant dans le milieu aquatique et de développer de nouveaux outils d’échantillonnage. L’échantillonnage ponctuel est la technique la plus facile à mettre en œuvre. Toutefois, elle n’est pas toujours représentative d’un milieu hétérogène parfois soumis à des variabilités spatiales et temporelles importantes. L’échantillonnage passif, notamment avec l’outil POCIS (Polar Organic Chemical Integrative Sampler), est une approche complémentaire aux techniques traditionnelles, qui permet de concentrer des molécules organiques semi-polaires directement sur site. La pertinence du résultat obtenu (la concentration moyennée sur la durée d’exposition), couplée à la simplicité de sa mise en œuvre en font a priori un outil de choix pour suivre des hydrosystèmes complexes.Dans ce contexte, des familles des composés diversifiées ont été sélectionnées : pesticides, composés pharmaceutiques, hormones stéroïdiennes et composés perfluorés. Au sein de chaque famille, plusieurs composés traceurs, présents dans l’environnement, comportant des propriétés physico-chimiques variées et aux statuts règlementaires différents (Directive Cadre sur l’Eau notamment), ont été choisis.Des essais d’optimisation de design du POCIS (quantité et nature de phase réceptrice, nature de la membrane) ont été conduits, menant à la validation de la configuration classique dans le cas général. L’influence de différents paramètres environnementaux pertinents : débit, température, matrice, présence de biofilm et dispositif de déploiement a été évaluée lors de calibrations de l’outil réalisées dans des systèmes de complexité croissante : au laboratoire, sur pilote et sur site.Les différents déploiements sur site (effluent de STEP et rivière) ont permis de valider l’utilisation de cet outil de prélèvement passif dans le cadre d’un suivi environnemental. Le potentiel du POCIS a été pleinement confirmé, tant en termes de logistique que de résultats (justesse par rapport aux concentrations mesurées par des techniques classiques, intégration d’événements ponctuels, limite de quantification…). / The protection of water resources is one of the major environmental stakes of 21st century. Regulation concerning water quality and effluents is therefore definitely needed, as well as new approaches regarding water sampling. Spot sampling is the easiest strategy. However, it may not be representative of a heterogeneous matrix, with sometimes important spatial and temporal variability. Passive sampling, including POCIS (Polar Organic Chemical Integrative Sampler) is a complementary approach, which enables an on-site pre-concentration of semi-polar organic compounds. The relevance of the result (time-weighted average concentrations) and the ease to implement POCIS make it an appropriate tool to monitor complex hydrosystems.Within this work, various compound classes were selected: pesticides, pharmaceuticals, steroid hormones and perfluorinated compounds. Among each family, several tracer molecules, widely encountered in the environment, with different physic-chemical properties and regulatory status (particularly in the Water Framework Directive), were chosen.POCIS design optimization (amount and nature of sorbent, nature of membrane) was carried out, leading to the validation of the standard configuration for general purposes. The impact of different relevant environmental parameters (flow-rate, temperature, matrix, biofouling and deployment device), was assessed during calibrations of POCIS conducted in systems of increasing complexity: in the laboratory, at pilot-scale and on-site.All on-site deployments (WWTP effluent and river) enabled to validate the use of this passive sampling tool in the framework of an environmental monitoring. The potential of this tool was fully confirmed, both logistically and in terms of results (trueness compared to concentrations measured with traditional techniques, integration of punctual events, quantification limit…).
395

Analyse praxéologique des pratiques des enseignants et de leur utilisation des ressources pour l’enseignement de la dérivée : une étude de cas dans l’enseignement secondaire général au Cameroun

Nseanpa, Casimir J. 11 1900 (has links)
La dérivée est un concept important dans les cours de calcul. Dans certains pays comme au Canada et en France, il est enseigné au niveau collégial tandis qu’en Afrique et en particulier au Cameroun, on l’enseigne au niveau secondaire car la dérivée intervient dans l’étude des variations d’une fonction. Cette thèse dont le titre est : Analyse praxéologique des pratiques des enseignants et de leur utilisation de ressources pour l’enseignement de la dérivée. Une étude de cas dans l’enseignement secondaire général au Cameroun part du constat selon lequel de nombreux élèves et étudiants rencontrent des difficultés avec la notion de dérivée et que ces difficultés s’observent dans leurs résultats scolaires et académiques. Au vu de l’importance de la dérivée pour les différents parcours universitaires en sciences, nous nous intéressons aux pratiques des enseignants de mathématiques et notamment leurs praxéologies didactiques autour de la dérivée mais aussi, nous voulons comprendre les raisons qui justifient les choix faits par ces enseignants. La recherche essaie de répondre à la question de savoir quelles sont les pratiques des enseignants et les ressources utilisées par ces derniers pour l’enseignement de la dérivée? La recherche se propose ainsi d’identifier les praxéologies que les enseignants développent dans leur utilisation des ressources pour préparer leurs leçons et pour enseigner la dérivée. Nous ne nous limitons pas aux praxéologies observables mais nous aimerons comprendre les raisons qui justifient les choix opérés par ces enseignants et les contraintes institutionnelles auxquelles ils font face. Deux cadres théoriques encadrent cette recherche : la Théorie Anthropologique de la Didactique (TAD) qui nous permet d’analyser les types de tâches, les techniques, les technologies et les théories justifiant les technologies employées dans les ressources des enseignants et dans leurs pratiques enseignantes. De même, nous utilisons l’Approche Documentaire du Didactique (ADD) afin d’analyser les ressources institutionnelles et les autres ressources que les enseignants utilisent pour enseigner la dérivée. Pour analyser l’utilisation des ressources des enseignants, nous mettons un accent sur les objectifs et les sous-objectifs visés, les règles d’action, les invariants opératoires et les inférences éventuelles. Sur le plan méthodologique, nous utilisons une étude de cas impliquant trois enseignants qui enseignent la dérivée aux élèves de première. Nous utilisons des entretiens semi-dirigés afin d’analyser les choix que font les enseignants lors de la préparation des cours mais et surtout les raisons qui justifient ces choix; les observations vidéo-filmées permettent de savoir comment les enseignants introduisent la dérivée en un point et sur un intervalle et l’analyse des documents tels que les programmes de mathématiques, les manuels scolaires et d’autres ressources des enseignants employés dans la préparation des cours. Le principal résultat de cette thèse est l’identification du poids des ressources institutionnelles et de l’examen de fin d’année sur les praxéologies mathématiques et sur la manière dont les enseignants utilisent ces ressources. Nous discutons de ce résultat en tenant compte du rapport personnel des enseignants et des praxéologies développées dans les manuels et lors de l’enseignement. / Derivatives are one of the most important topics studied in high school (in many countries) and postsecondary mathematics. Many students must learn this topic to pursue their university studies and as a gateway to learn other mathematical topics in various other fields. In Cameroon, secondary teaching lasts from 12 to 18 years old. In this context, what in other countries is considered as pre-university courses, or college, in Cameroon is still called secondary. Derivatives are introduced in the last but one year of this cycle, called première (students are 17), after the topics of function, limit, and continuity. In this thesis, we examined teachers’ practices and their use of resources while teaching derivatives. This study in general secondary education in Cameroon starts from the observation that many pupils and students encounter difficulties with the notion of derivative and that these difficulties are observed in their academic results. The research attempts to identify the tasks, techniques and technologies developed in the resources used by these teachers. It also tries to describe the patterns of use of resources by closely observing the objectives pursued, the rules of action and the operational invariants put in place when using resources. We do not limit ourselves to describing the practices of teachers, but we would like to understand the reasons that justify their choices and the institutional constraints they face. Since we are interested in teachers’ practices and their use of resources to teach derivatives, we use elements of the anthropological theory of the didactic (ATD) to analyze the types of tasks, the techniques, technologies, and theories justifying the technologies used in teachers' resources and teaching practices. By using DA, we understand that teachers, to prepare their teaching, use variety of resources. These resources aiming to teach this content together with the schemes of use of these resources result in a document and these schemes of use of resources is influenced by the teacher’s own personal relationship. The participants in this study were three teachers who teach derivatives to first-class students. We use semi-structured interviews to analyse the choices teachers make when preparing courses, but above all the reasons that justify these choices and video to observe how teachers introduce the derivative. The video shows how teachers introduce the derivative at a point and on an interval. Others analyses helps us understanding how this content is introduced on math programs, textbooks and other teacher resources used in the preparation of courses. The main result of this thesis is the identification of the weight of institutional resources and the end-of-year examination on mathematical praxeology’s and on the way, teachers use these resources. We discuss this result considering the personal relationship of teachers and the praxeology’s developed in textbooks and during teaching.
396

L'influence du porte-parole publicitaire sur son récepteur : une étude basée sur le modèle de la probabilité d'élaboration

Lachance, Patrick 11 April 2018 (has links)
Le modèle de la probabilité d'élaboration de Petty et Cacioppo place le récepteur au cœur du processus de persuasion puisqu'il le considère actif dans le traitement des divers éléments du message. Il soutient qu'un récepteur peu impliqué envers l'objet d'un message persuasif accordera davantage d'importance à ses éléments périphériques, notamment à sa source, qu'à son contenu argumentatif dans la formation de son attitude envers ledit objet. Par ailleurs, si la publicité constitue une forme de message persuasif comme le prétend Kapferer, le récepteur peu impliqué envers l'objet d'un message publicitaire est-il influencé par son porte-parole dans sa perception du produit annoncé selon un mécanisme semblable au modèle de la probabilité d'élaboration ? Les résultats de notre expérience à ce sujet ne nous permettent pas de le confirmer.
397

Le marché des obligations à rendement réel au Canada : un indicateur des anticipations inflationnistes

Gignac, Stéphane 24 April 2018 (has links)
L’inflation est un facteur important à considérer pour les agents participant aux marchés financiers puisqu’elle vient éroder la valeur des actifs qu’ils possèdent. Depuis quelques d’années, l’émission d’obligations à rendement réel permet de corriger cet effet en remboursant les investisseurs pour l’inflation ayant affecté l’économie pendant la période de détention. La coexistence d’obligations à rendement réel et nominal est potentiellement intéressante puisqu’elle permet de mesurer l’inflation anticipée par les investisseurs. En effet, selon la loi de Fisher, l’écart entre le rendement des obligations nominales et celui des obligations réelles (le taux d’inflation neutre) mesure le taux d’inflation prévu par les marchés. Pour les décideurs politiques, les investisseurs et autres agents intervenant sur les marchés, il est important de connaître tout indicateur pouvant aider à prévoir l’inflation. Cependant, le taux d’inflation neutre n’a pas une corrélation parfaite avec l’inflation anticipée. Plusieurs facteurs peuvent potentiellement expliquer cette divergence. Par exemple, plusieurs études semblent établir que l'existence de primes diverses affecte le taux d’inflation neutre (TINM) et pourrait réduire la capacité de ce nouvel indicateur à mesurer avec exactitude les anticipations d’inflation à long terme du marché. Dans ce contexte, l'objectif principal de cette étude est d’expliquer l’évolution et les déterminants du taux d’inflation neutre et en quoi ces déterminants et primes viennent affecter l’équation de Fisher et l’interprétation du TINM comme mesure des anticipations inflationnistes. / Inflation is an important consideration for agents participating in financial markets, because it erodes the value of assets. For several years, the issuance of real return bonds (RRBs) has offered one way to correct this effect, by compensating investors for inflation born during the holding period. The coexistence of real and nominal bond yields is potentially interesting since it might allow to measure the inflation anticipated by investors. Indeed, under Fisher’s law, using the difference between real (indexed) and nominal bond yields (the BEIR) can be used to measure inflation expectations. For policy makers, investors and other agents involved in the markets, it is important to analyze any indicator that can help predict inflation. However, the BEIR may not exhibit a perfect correlation with expected inflation. Several factors may partly explain the discrepancy. For example, several studies show that various premiums affecting the BEIR might reduce the ability of this new indicator to measure correctly the market’s long-term inflation expectations. The main objective of this study is to explain the behaviour of the BEIR and how this behaviour, as well as the existence of these premiums, impact Fisher’s equation and the BEIR’s ability to correctly measure inflation expectations.
398

Volatility transmission between the oil price, the exchange rate and the stock market index

Mokengoy, Mardochée Bopo 23 April 2018 (has links)
Ce mémoire analyse la transmission de volatilité entre le prix du pétrole, le taux de change et l’indice boursier au Canada et aux États-Unis de 1999/01/04 à 2014/03/21. En utilisant un modèle MGARCH-BEKK, nos résultats montrent qu’au Canada, il existe une transmission bidirectionnelle de volatilité entre le taux de change $US/$CAD et l’indice boursier TSX, une transmission positive de l’indice boursier au prix du pétrole, ainsi qu’une transmission négative du taux de change au prix du pétrole. Les résultats suggèrent également que ces relations ne sont pas stables dans le temps. Pour les États-Unis, le modèle estimé ne satisfait pas la condition de stationnarité de la covariance pour la période totale et la sous période 1999/01/04 – 2002/10/08. C’est pourquoi nous considérons uniquement les résultats des sous périodes 2002/10/09 – 2008/05/30 et 2008/06/02 – 2014/03/21. Il ressort qu’il existe des transmissions de volatilité, mais que celles-ci ne sont pas stables dans le temps. / This thesis analyzes the transmission of volatility between oil prices, exchange rates and stock market indices in Canada and in the USA for the period 1999/01/04 – 2014/03/21. Using a multivariate GARCH – BEKK model, we find that in Canada, there is a bidirectional transmission of volatility between the exchange rate $US/$CAD and the stock market index TSX, a positive transmission from the stock market index to the oil price and a negative transmission from the exchange rate to the oil price. We find also that these relationships are not stable over time. For the USA, the model estimated does not satisfy the condition of covariance stationarity for the entire sample and the sub sample 1999/01/04 – 2002/10/08. So we consider only results for sub samples 2002/10/09 – 2008/05/30 and 2008/06/02 – 2014/03/21. Results show that there are transmissions of volatility, but here again, these relationships are not stable over time.
399

Three essays in international finance and macroeconomics

Nono, Simplice Aimé 24 April 2018 (has links)
Cette thèse examine l’effet de l’information sur la prévision macroéconomique. De façon spécifique, l’emphase est d’abord mise sur l’impact des frictions d’information en économie ouverte sur la prévision du taux de change bilatéral et ensuite sur le rôle de l’information issue des données d’enquêtes de conjoncture dans la prévision de l’activité économique réelle. Issu du paradigme de la nouvelle macroéconomie ouverte (NOEM), le premier essai intègre des frictions d’informations et des rigidités nominales dans un modèle d’équilibre général dynamique stochastique (DSGE) en économie ouverte. Il présente ensuite une analyse comparative des résultats de la prévision du taux de change obtenu en utilisant le modèle avec et sans ces frictions d’information. Tandis que le premier essai développe un modèle macroéconomique structurel de type DSGE pour analyser l’effet de la transmission des choc en information incomplète sur la dynamique du taux de change entre deux économies, le deuxième et troisième essais utilisent les modèles factorielles dynamiques avec ciblage pour mettre en exergue la contribution de l’information contenu dans les données d’enquêtes de confiance (soit au niveau de l’économie nationale que internationale) sur la prévision conjoncturelle de l’activité économique réelle. « The Forward Premium Puzzle : a Learning-based Explanation » (Essai 1) est une contribution à la littérature sur la prévision du taux de change. Cet essai a comme point de départ le résultat théorique selon lequel lorsque les taux d’intérêt sont plus élevés localement qu’ils le sont à l’étranger, cela annonce une dépréciation future de la monnaie locale. Cependant, les résultats empiriques obtenus sont généralement en contradiction avec cette intuition et cette contradiction a été baptisée l’énigme de la parité des taux d’intérêt non-couverte ou encore «énigme de la prime des contrats à terme ». L’essai propose une explication de cette énigme basée sur le mécanisme d’apprentissage des agents économiques. Sous l’hypothèse que les chocs de politique monétaire et de technologie peuvent être soit de type persistant et soit de type transitoire, le problème d’information survient lorsque les agents économiques ne sont pas en mesure d’observer directement le type de choc et doivent plutôt utiliser un mécanisme de filtrage de l’information pour inférer la nature du choc. Nous simulons le modèle en présence de ces frictions informationnelles, et ensuite en les éliminant, et nous vérifions si les données artificielles générées par les simulations présentent les symptômes de l’énigme de la prime des contrats à terme. Notre explication à l’énigme est validée si et seulement si seules les données générées par le modèle avec les frictions informationnelles répliquent l’énigme. « Using Confidence Data to Forecast the Canadian Business Cycle » (Essai 2) s’appuie sur l’observation selon laquelle la confiance des agents économiques figure désormais parmi les principaux indicateurs de la dynamique conjoncturelle. Cet essai analyse la qualité et la quantité d’information contenu dans les données d’enquêtes mesurant la confiance des agents économiques. A cet effet, il évalue la contribution des données de confiance dans la prévision des points de retournement (« turning points ») dans l’évolution de l’économie canadienne. Un cadre d’analyse avec des modèles de type probit à facteurs est spécifié et appliqué à un indicateur de l’état du cycle économique canadien produit par l’OCDE. Les variables explicatives comprennent toutes les données canadiennes disponibles sur la confiance des agents (qui proviennent de quatre enquêtes différentes) ainsi que diverses données macroéconomiques et financières. Le modèle est estimé par le maximum de vraisemblance et les données de confiance sont introduites dans les différents modèles sous la forme de variables individuelles, de moyennes simples (des « indices de confiance ») et de « facteurs de confiance » extraits d’un ensemble de données plus grand dans lequel toutes les données de confiance disponibles ont été regroupées via la méthode des composantes principales, . Nos résultats indiquent que le plein potentiel des données sur la confiance pour la prévision des cycles économiques canadiens est obtenu lorsque toutes les données sont utilisées et que les modèles factoriels sont utilisés. « Forecasting with Many Predictors: How Useful are National and International Confidence Data? » (Essai 3) est basé sur le fait que dans un environnement où les sources de données sont multiples, l’information est susceptible de devenir redondante d’une variable à l’autre et qu’une sélection serrée devient nécessaire pour identifier les principaux déterminants de la prévision. Cet essai analyse les conditions selon lesquelles les données de confiance constituent un des déterminants majeurs de la prévision de l’activité économique dans un tel environnement. La modélisation factorielle dynamique ciblée est utilisé pour évaluer le pouvoir prédictif des données des enquêtes nationales et internationales sur la confiance dans la prévision de la croissance du PIB Canadien. Nous considérons les données d’enquêtes de confiance désagrégées dans un environnement riche en données (c’est-à-dire contenant plus d’un millier de séries macro-économiques et financières) et évaluons leur contenu informatif au-delà de celui contenu dans les variables macroéconomiques et financières. De bout en bout, nous étudions le pouvoir prédictif des données de confiance en produisant des prévisions du PIB avec des modèles à facteurs dynamiques où les facteurs sont dérivés avec et sans données de confiance. Les résultats montrent que la capacité de prévision est améliorée de façon robuste lorsqu’on prend en compte l’information contenue dans les données nationales sur la confiance. En revanche, les données internationales de confiance ne sont utiles que lorsqu’elles sont combinées dans le même ensemble avec celles issues des enquêtes nationales. En outre, les gains les plus pertinents dans l’amelioration des prévisions sont obtenus à court terme (jusqu’à trois trimestres en avant). / This thesis examines the effect of information on macroeconomic forecasting. Specifically, the emphasis is firstly on the impact of information frictions in open economy in forecasting the bilateral exchange rate and then on the role of information from confidence survey data in forecasting real economic activity. Based on the new open-economy macroeconomics paradigm (NOEM), the first chapter incorporates information frictions and nominal rigidities in a stochastic dynamic general equilibrium (DSGE) model in open economy. Then, it presents a comparative analysis of the results of the exchange rate forecast obtained using the model with and without these information frictions. While the first chapter develops a structural macroeconomic model of DSGE type to analyze the effect of shock transmission in incomplete information on exchange rate dynamics between two economies, the second and third chapters use static and dynamic factor models with targeting to highlight the contribution of information contained in confidence-based survey data (either at the national or international level) in forecasting real economic activity. The first chapter is entitled The Forward Premium Puzzle: a Learning-based Explanation and is a contribution to the exchange rate forecasting literature. When interest rates are higher in one’s home country than abroad, economic intuition suggests this signals the home currency will depreciate in the future. However, empirical evidence has been found to be at odds with this intuition: this is the "forward premium puzzle." I propose a learning-based explanation for this puzzle. To do so, I embed an information problem in a two-country open-economy model with nominal rigidities. The information friction arises because economic agents do not directly observe whether shocks are transitory or permanent and must infer their nature using a filtering mechanism each period. We simulate the model with and without this informational friction and test whether the generated artificial data exhibits the symptoms of the forward premium puzzle. Our leaning-based explanation is validated as only the data generated with the active informational friction replicates the puzzle. The second chapter uses dynamic factor models to highlight the contribution of the information contained in Canadian confidence survey data for forecasting the Canadian business cycle: Using Confidence Data to Forecast the Canadian Business Cycle is based on the fact that confidence (or sentiment) is one key indicators of economic momentum. The chapter assesses the contribution of confidence -or sentiment-data in predicting Canadian economic slowdowns. A probit framework is applied to an indicator on the status of the Canadian business cycle produced by the OECD. Explanatory variables include all available Canadian data on sentiment (which arise from four different surveys) as well as various macroeconomic and financial data. Sentiment data are introduced either as individual variables, as simple averages (such as confidence indices) and as confidence factors extracted, via principal components’ decomposition, from a larger dataset in which all available sentiment data have been collected. Our findings indicate that the full potential of sentiment data for forecasting future business cycles in Canada is attained when all data are used through the use of factor models. The third chapter uses dynamic factor models to highlight the contribution of the information contained in confidence survey data (either in Canadian or International surveys) for forecasting the Canadian economic activity. This chapter entitled Forecasting with Many Predictors: How Useful are National and International Confidence Data? is based on the fact that in a data-rich environment, information may become redundant so that a selection of forecasting determinants based on the quality of information is required. The chapter investigates whether in such an environment; confidence data can constitute a major determinant of economic activity forecasting. To do so, a targeted dynamic factor model is used to evaluate the performance of national and international confidence survey data in predicting Canadian GDP growth. We first examine the relationship between Canadian GDP and confidence and assess whether Canadian and international (US) improve forecasting accuracy after controlling for classical predictors. We next consider dis-aggregated confidence survey data in a data-rich environment (i.e. containing more than a thousand macroeconomic and financial series) and assess their information content in excess of that contained in macroeconomic and financial variables. Throughout, we investigate the predictive power of confidence data by producing GDP forecasts with dynamic factor models where the factors are derived with and without confidence data. We find that forecasting ability is consistently improved by considering information from national confidence data; by contrast, the international counterpart are helpful only when combined in the same set with national confidence. Moreover most relevant gains in the forecast performance come in short-horizon (up to three-quarters-ahead).
400

Impact de la hausse du prix du pétrole sur la zone monétaire canadienne : une étude empirique sur l'emploi et le taux de change

Aarab, Mohammed Amine 19 April 2018 (has links)
Ce mémoire met l’accent sur deux questions essentielles: la flambée du prix du pétrole et son impact sur l’emploi et le taux de change au Canada. Dans ce papier, nous avons cherché à étudier et analyser l’impact des récentes hausses du prix du pétrole sur certaines variables macro-économiques de l’union monétaire Canadienne dans le cadre de la théorie de la Zone Monétaire Optimale. Nous adopterons l’approche d’un modèle VEC basé sur les modèles VAR, en utilisant des données mensuelles couvrant la période du 1994M03 au 2012M06. Les résultats empiriques obtenus pour le Canada confirment notre intuition et indiquent que l’incidence de l’augmentation de prix du pétrole de WTI sur l’emploi total et l’emploi en transport et entreposage est positive à court et long termes, mais négative en ce qui a trait à l’emploi en fabrication et au taux de change à long terme. Enfin, l’impact sur les principales provinces canadiennes s’avère différent entre régions et confirme la sensibilité et la souffrance du secteur manufacturier dans certaines provinces, surtout au Québec et en Ontario. Mots clés : Le Canada, la hausse des prix du pétrole, Variables macro-économiques théorie de la Zone Monétaire Optimale, modèles VEC et VAR.

Page generated in 0.04 seconds