• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 295
  • 81
  • 18
  • 3
  • Tagged with
  • 409
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 36
  • 35
  • 31
  • 31
  • 30
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Influence de la motivation monétaire sur la production du hasard par l'humain

Paquet, Claude 23 February 2022 (has links)
Cette étude prédit et vérifie l'hypothèse principale voulant que les sujets énonceront plus de verbalisations erronées que de verbalisations correctes dans une tâche de production de suites aléatoires. L'hypothèse secondaire voulant que les sujets verbaliseront d'autant plus de conceptions erronées que l'enjeu monétaire sera important n'est pas confirmée. À titre exploratoire, la possibilité d'analyser les suites produites en regard des alternances et segments produits est examinée. Au moyen d'un ordinateur, les sujets (N=45) produisent une suite de 100 pile-face en utilisant la méthode de la pensée à voix haute. Un montant de$5.00 est offert aux sujets du groupe 1, les sujets du groupe 2 reçoivent de$10.00 à$20.00 selon le degré d'aléatoirité de la suite. L'enjeu monétaire du groupe 3 est une somme de$125.00 décernée à la personne ayant produite la suite de P-F la plus au hasard. La discussion soulève les aspects pratiques et théoriques de ces résultats.
72

Elicitation of subjective expectations : an application to a public good experiment

Lopera, Maria Adelaida 13 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / Ce mémoire est une contribution empirique à l'étude de la séparation des préférences individuelles et des anticipations en présence d'incertitude dans le cadre d'une expérience économique sur les biens publics. Nous comparons deux expériences existantes pour identifier les anticipations. La première méthode est généralement utilisée clans les expériences sur des bien publics et consiste à demander aux participants une prédiction ponctuelle dont la valeur résume les anticipations: la seconde méthode consiste à demander quelques questions de nature probalistique, de sorte que les probabilités ainsi obtenues puissent être utilisées pour estimer la fonction subjective de densité cumulative (FDC subjective) de chaque participant. Les anticipations nous ont permis d'estimer un modèle structurel de type logistique pour décrire la fonction d'utilité des participants à l'aide de chacune des deux rnéthodes. En général, lorsqu'on demande explicitement aux participants de donner la moyenne de leurs anticipations, leur prédiction pouctuelle peut être associée à l'espérance de leur FDC. Cependant, la FDC subjective contient plus d'inlformation sur les anticipations individuelles que la prédiction ponctuelle, et sa connaissance nous permet de tester certaines restrictions supplérnentaires sur le modèle. Les paramètres estimés dans le modèle nous ont permis de générer ensuite des prédictions puis de comparer celles-ci aux données tirées de notre expérience. Ces prédictions indiquent que la probabilité de contribuer au bien public est décroissante dans le montant contribué, résultat qui résume bien la tendance observée dans l'expérience. Finalement, les prédictions du modèle sont cohérentes avec le comportement observé des participants ainsi qu'avec les résultats d'autres expériences sur les biens publics, tel que les contributions décroissantes et l'effet de fin de jeu.
73

Mise en oeuvre de techniques de modélisation récentes pour la prévision statistique et économique

Njimi, Hassane 05 September 2008 (has links)
Mise en oeuvre de techniques de modélisation récentes pour la prévision statistique et économique. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
74

Modèles non linéaires et prévision / Non-linear models and forecasting

Madkour, Jaouad 19 April 2013 (has links)
L’intérêt des modèles non-linéaires réside, d’une part, dans une meilleure prise en compte des non-linéaritéscaractérisant les séries macroéconomiques et financières et, d’autre part, dans une prévision plus riche en information.A ce niveau, l’originalité des intervalles (asymétriques et/ou discontinus) et des densités de prévision (asymétriqueset/ou multimodales) offerts par cette nouvelle forme de modélisation suggère qu’une amélioration de la prévisionrelativement aux modèles linéaires est alors possible et qu’il faut disposer de tests d’évaluation assez puissants pourvérifier cette éventuelle amélioration. Ces tests reviennent généralement à vérifier des hypothèses distributionnellessur les processus des violations et des transformées probabilistes associés respectivement à chacune de ces formes deprévision. Dans cette thèse, nous avons adapté le cadre GMM fondé sur les polynômes orthonormaux conçu parBontemps et Meddahi (2005, 2012) pour tester l’adéquation à certaines lois de probabilité, une approche déjà initiéepar Candelon et al. (2011) dans le cadre de l’évaluation de la Value-at-Risk. Outre la simplicité et la robustesse de laméthode, les tests développés présentent de bonnes propriétés en termes de tailles et de puissances. L’utilisation denotre nouvelle approche dans la comparaison de modèles linéaires et de modèles non-linéaires lors d’une analyseempirique a confirmé l’idée selon laquelle les premiers sont préférés si l’objectif est le calcul de simples prévisionsponctuelles tandis que les derniers sont les plus appropriés pour rendre compte de l'incertitude autour de celles-ci. / The interest of non-linear models is, on the one hand, to better take into account non-linearities characterizing themacroeconomic and financial series and, on the other hand, to get richer information in forecast. At this level,originality intervals (asymmetric and / or discontinuous) and forecasts densities (asymmetric and / or multimodal)offered by this new modelling form suggests that improving forecasts according to linear models is possible and thatwe should have enough powerful tests of evaluation to check this possible improvement. Such tests usually meanchecking distributional assumptions on violations and probability integral transform processes respectively associatedto each of these forms of forecast. In this thesis, we have adapted the GMM framework based on orthonormalpolynomials designed by Bontemps and Meddahi (2005, 2012) to test for some probability distributions, an approachalready adopted by Candelon et al. (2011) in the context of backtesting Value-at-Risk. In addition to the simplicity androbustness of the method, the tests we have developed have good properties in terms of size and power. The use of ournew approach in comparison of linear and non-linear models in an empirical analysis confirmed the idea according towhich the former are preferred if the goal is the calculation of simple point forecasts while the latter are moreappropriated to report the uncertainty around them.
75

Améliorations et développements d'une méthode de prévision probabiliste des pluies par analogie. Application à la prévision hydrologique sur les grands bassins fluviaux de la Saône et de la Seine.

Ben Daoud, Aurélien 10 February 2010 (has links) (PDF)
Cette thèse porte sur l'amélioration d'une méthode de prévision probabiliste des précipitations adaptée par analogie, appliquée aux grands bassins versants de la Saône et de la Seine. En considérant un jour cible dont on souhaite prévoir les précipitations, cette méthode permet de rechercher dans une archive les situations météorologiques passées les plus similaires. Les cumuls pluviométriques des journées analogues sont ensuite exploités pour estimer de manière probabiliste la quantité de précipitations attendue pour le jour cible. Une étape préliminaire consiste à construire et à choisir les archives nécessaires à l'application de ce type de méthode. A partir de l'algorithme de sélection d'analogues développé par Bontron (2004) sur des bassins du Sud-Est de la France, la méthode de prévision est ensuite améliorée en introduisant deux nouvelles variables : la température, qui permet de prendre en compte les effets saisonniers ; et la vitesse verticale, qui vise à mieux caractériser les mouvements atmosphériques verticaux. Finalement, la méthode est appliquée en contexte de prévision parfaite (situations cibles extraites de réanalyses) sur la plus longue période possible, puis en contexte opérationnel (situations cibles générées par un modèle de prévision) sur une durée de trois ans. Les scénarios de prévision de précipitations sont également exploités par le modèle pluie-débit GR3P pour la prévision des débits sur les bassins de la Saône et de la Seine. De manière générale, les résultats montrent qu'avec ce type d'approche, il est possible d'obtenir une prévision de débit utile, sur les grands bassins tests, pour une échéance de l'ordre de la semaine.
76

Modèles non linéaires et prévision

Madkour, Jaouad 19 April 2013 (has links) (PDF)
L'intérêt des modèles non-linéaires réside, d'une part, dans une meilleure prise en compte des non-linéaritéscaractérisant les séries macroéconomiques et financières et, d'autre part, dans une prévision plus riche en information.A ce niveau, l'originalité des intervalles (asymétriques et/ou discontinus) et des densités de prévision (asymétriqueset/ou multimodales) offerts par cette nouvelle forme de modélisation suggère qu'une amélioration de la prévisionrelativement aux modèles linéaires est alors possible et qu'il faut disposer de tests d'évaluation assez puissants pourvérifier cette éventuelle amélioration. Ces tests reviennent généralement à vérifier des hypothèses distributionnellessur les processus des violations et des transformées probabilistes associés respectivement à chacune de ces formes deprévision. Dans cette thèse, nous avons adapté le cadre GMM fondé sur les polynômes orthonormaux conçu parBontemps et Meddahi (2005, 2012) pour tester l'adéquation à certaines lois de probabilité, une approche déjà initiéepar Candelon et al. (2011) dans le cadre de l'évaluation de la Value-at-Risk. Outre la simplicité et la robustesse de laméthode, les tests développés présentent de bonnes propriétés en termes de tailles et de puissances. L'utilisation denotre nouvelle approche dans la comparaison de modèles linéaires et de modèles non-linéaires lors d'une analyseempirique a confirmé l'idée selon laquelle les premiers sont préférés si l'objectif est le calcul de simples prévisionsponctuelles tandis que les derniers sont les plus appropriés pour rendre compte de l'incertitude autour de celles-ci.
77

Prévision d’ensemble par agrégation séquentielle appliquée à la prévision de production d’énergie photovoltaïque / Ensemble forecasting using sequential aggregation for photovoltaic power applications

Thorey, Jean 20 September 2017 (has links)
Notre principal objectif est d'améliorer la qualité des prévisions de production d'énergie photovoltaïque (PV). Ces prévisions sont imparfaites à cause des incertitudes météorologiques et de l'imprécision des modèles statistiques convertissant les prévisions météorologiques en prévisions de production d'énergie. Grâce à une ou plusieurs prévisions météorologiques, nous générons de multiples prévisions de production PV et nous construisons une combinaison linéaire de ces prévisions de production. La minimisation du Continuous Ranked Probability Score (CRPS) permet de calibrer statistiquement la combinaison de ces prévisions, et délivre une prévision probabiliste sous la forme d'une fonction de répartition empirique pondérée.Dans ce contexte, nous proposons une étude du biais du CRPS et une étude des propriétés des scores propres pouvant se décomposer en somme de scores pondérés par seuil ou en somme de scores pondérés par quantile. Des techniques d'apprentissage séquentiel sont mises en oeuvre pour réaliser cette minimisation. Ces techniques fournissent des garanties théoriques de robustesse en termes de qualité de prévision, sous des hypothèses minimes. Ces méthodes sont appliquées à la prévision d'ensoleillement et à la prévision de production PV, fondée sur des prévisions météorologiques à haute résolution et sur des ensembles de prévisions classiques. / Our main objective is to improve the quality of photovoltaic power forecasts deriving from weather forecasts. Such forecasts are imperfect due to meteorological uncertainties and statistical modeling inaccuracies in the conversion of weather forecasts to power forecasts. First we gather several weather forecasts, secondly we generate multiple photovoltaic power forecasts, and finally we build linear combinations of the power forecasts. The minimization of the Continuous Ranked Probability Score (CRPS) allows to statistically calibrate the combination of these forecasts, and provides probabilistic forecasts under the form of a weighted empirical distribution function. We investigate the CRPS bias in this context and several properties of scoring rules which can be seen as a sum of quantile-weighted losses or a sum of threshold-weighted losses. The minimization procedure is achieved with online learning techniques. Such techniques come with theoretical guarantees of robustness on the predictive power of the combination of the forecasts. Essentially no assumptions are needed for the theoretical guarantees to hold. The proposed methods are applied to the forecast of solar radiation using satellite data, and the forecast of photovoltaic power based on high-resolution weather forecasts and standard ensembles of forecasts.
78

Statistical Post-processing of Deterministic and Ensemble Wind Speed Forecasts on a Grid / Post-traitements statistiques de prévisions de vent déterministes et d'ensemble sur une grille

Zamo, Michaël 15 December 2016 (has links)
Les erreurs des modèles de prévision numérique du temps (PNT) peuvent être réduites par des méthodes de post-traitement (dites d'adaptation statistique ou AS) construisant une relation statistique entre les observations et les prévisions. L'objectif de cette thèse est de construire des AS de prévisions de vent pour la France sur la grille de plusieurs modèles de PNT, pour les applications opérationnelles de Météo-France en traitant deux problèmes principaux. Construire des AS sur la grille de modèles de PNT, soit plusieurs milliers de points de grille sur la France, demande de développer des méthodes rapides pour un traitement en conditions opérationnelles. Deuxièmement, les modifications fréquentes des modèles de PNT nécessitent de mettre à jour les AS, mais l'apprentissage des AS requiert un modèle de PNT inchangé sur plusieurs années, ce qui n'est pas possible dans la majorité des cas.Une nouvelle analyse du vent moyen à 10 m a été construite sur la grille du modèle local de haute résolution (2,5 km) de Météo-France, AROME. Cette analyse se compose de deux termes: une spline fonction de la prévision la plus récente d'AROME plus une correction par une spline fonction des coordonnées du point considéré. La nouvelle analyse obtient de meilleurs scores que l'analyse existante, et présente des structures spatio-temporelles réalistes. Cette nouvelle analyse, disponible au pas horaire sur 4 ans, sert ensuite d'observation en points de grille pour construire des AS.Des AS de vent sur la France ont été construites pour ARPEGE, le modèle global de Météo-France. Un banc d'essai comparatif désigne les forêts aléatoires comme meilleure méthode. Cette AS requiert un long temps de chargement en mémoire de l'information nécessaire pour effectuer une prévision. Ce temps de chargement est divisé par 10 en entraînant les AS sur des points de grille contigü et en les élaguant au maximum. Cette optimisation ne déteriore pas les performances de prévision. Cette approche d'AS par blocs est en cours de mise en opérationnel.Une étude préalable de l'estimation du « continuous ranked probability score » (CRPS) conduit à des recommandations pour son estimation et généralise des résultats théoriques existants. Ensuite, 6 AS de 4 modèles d'ensemble de PNT de la base TIGGE sont combinées avec les modèles bruts selon plusieurs méthodes statistiques. La meilleure combinaison s'appuie sur la théorie de la prévision avec avis d'experts, qui assure de bonnes performances par rapport à une prévision de référence. Elle ajuste rapidement les poids de la combinaison, un avantage lors du changement de performance des prévisions combinées. Cette étude a soulevé des contradictions entre deux critères de choix de la meilleure méthode de combinaison : la minimisation du CRPS et la platitude des histogrammes de rang selon les tests de Jolliffe-Primo. Il est proposé de choisir un modèle en imposant d'abord la platitude des histogrammes des rangs. / Errors of numerical weather prediction (NWP) models can be reduced thanks to post-processing methods (model output statistics, MOS) that build a statistical relationship between the observations and associated forecasts. The objective of the present thesis is to build MOS for windspeed forecasts over France on the grid of several NWP models, to be applied on operations at Météo-France, while addressing the two main issues. First, building MOS on the grid of some NWP model, with thousands of grid points over France, requires to develop methods fast enough for operational delays. Second, requent updates of NWP models require updating MOS, but training MOS requires an NWP model unchanged for years, which is usually not possible.A new windspeed analysis for the 10 m windspeed has been built over the grid of Météo-France's local area, high resolution (2,5km) NWP model, AROME. The new analysis is the sum of two terms: a spline with AROME most recent forecast as input plus a correction with a spline with the location coordinates as input. The new analysis outperforms the existing analysis, while displaying realistic spatio-temporal patterns. This new analysis, now available at an hourly rate over 4, is used as a gridded observation to build MOS in the remaining of this thesis.MOS for windspeed over France have been built for ARPEGE, Météo-France's global NWP model. A test-bed designs random forests as the most efficient MOS. The loading times is reduced by a factor 10 by training random forests over block of nearby grid points and pruning them as much as possible. This time optimisation goes without reducing the forecast performances. This block MOS approach is currently being made operational.A preliminary study about the estimation of the continuous ranked probability score (CRPS) leads to recommendations to efficiently estimate it and to generalizations of existing theoretical results. Then 4 ensemble NWP models from the TIGGE database are post-processed with 6 methods and combined with the corresponding raw ensembles thanks to several statistical methods. The best combination method is based on the theory of prediction with expert advice, which ensures good forecast performances relatively to some reference forecast. This method quickly adapts its combination weighs, which constitutes an asset in case of performances changes of the combined forecasts. This part of the work highlighted contradictions between two criteria to select the best combination methods: the minimization of the CRPS and the flatness of the rank histogram according to the Jolliffe-Primo tests. It is proposed to choose a model by first imposing the flatness of the rank histogram.
79

Three essays in international finance and macroeconomics

Nono, Simplice Aimé 24 April 2018 (has links)
Cette thèse examine l’effet de l’information sur la prévision macroéconomique. De façon spécifique, l’emphase est d’abord mise sur l’impact des frictions d’information en économie ouverte sur la prévision du taux de change bilatéral et ensuite sur le rôle de l’information issue des données d’enquêtes de conjoncture dans la prévision de l’activité économique réelle. Issu du paradigme de la nouvelle macroéconomie ouverte (NOEM), le premier essai intègre des frictions d’informations et des rigidités nominales dans un modèle d’équilibre général dynamique stochastique (DSGE) en économie ouverte. Il présente ensuite une analyse comparative des résultats de la prévision du taux de change obtenu en utilisant le modèle avec et sans ces frictions d’information. Tandis que le premier essai développe un modèle macroéconomique structurel de type DSGE pour analyser l’effet de la transmission des choc en information incomplète sur la dynamique du taux de change entre deux économies, le deuxième et troisième essais utilisent les modèles factorielles dynamiques avec ciblage pour mettre en exergue la contribution de l’information contenu dans les données d’enquêtes de confiance (soit au niveau de l’économie nationale que internationale) sur la prévision conjoncturelle de l’activité économique réelle. « The Forward Premium Puzzle : a Learning-based Explanation » (Essai 1) est une contribution à la littérature sur la prévision du taux de change. Cet essai a comme point de départ le résultat théorique selon lequel lorsque les taux d’intérêt sont plus élevés localement qu’ils le sont à l’étranger, cela annonce une dépréciation future de la monnaie locale. Cependant, les résultats empiriques obtenus sont généralement en contradiction avec cette intuition et cette contradiction a été baptisée l’énigme de la parité des taux d’intérêt non-couverte ou encore «énigme de la prime des contrats à terme ». L’essai propose une explication de cette énigme basée sur le mécanisme d’apprentissage des agents économiques. Sous l’hypothèse que les chocs de politique monétaire et de technologie peuvent être soit de type persistant et soit de type transitoire, le problème d’information survient lorsque les agents économiques ne sont pas en mesure d’observer directement le type de choc et doivent plutôt utiliser un mécanisme de filtrage de l’information pour inférer la nature du choc. Nous simulons le modèle en présence de ces frictions informationnelles, et ensuite en les éliminant, et nous vérifions si les données artificielles générées par les simulations présentent les symptômes de l’énigme de la prime des contrats à terme. Notre explication à l’énigme est validée si et seulement si seules les données générées par le modèle avec les frictions informationnelles répliquent l’énigme. « Using Confidence Data to Forecast the Canadian Business Cycle » (Essai 2) s’appuie sur l’observation selon laquelle la confiance des agents économiques figure désormais parmi les principaux indicateurs de la dynamique conjoncturelle. Cet essai analyse la qualité et la quantité d’information contenu dans les données d’enquêtes mesurant la confiance des agents économiques. A cet effet, il évalue la contribution des données de confiance dans la prévision des points de retournement (« turning points ») dans l’évolution de l’économie canadienne. Un cadre d’analyse avec des modèles de type probit à facteurs est spécifié et appliqué à un indicateur de l’état du cycle économique canadien produit par l’OCDE. Les variables explicatives comprennent toutes les données canadiennes disponibles sur la confiance des agents (qui proviennent de quatre enquêtes différentes) ainsi que diverses données macroéconomiques et financières. Le modèle est estimé par le maximum de vraisemblance et les données de confiance sont introduites dans les différents modèles sous la forme de variables individuelles, de moyennes simples (des « indices de confiance ») et de « facteurs de confiance » extraits d’un ensemble de données plus grand dans lequel toutes les données de confiance disponibles ont été regroupées via la méthode des composantes principales, . Nos résultats indiquent que le plein potentiel des données sur la confiance pour la prévision des cycles économiques canadiens est obtenu lorsque toutes les données sont utilisées et que les modèles factoriels sont utilisés. « Forecasting with Many Predictors: How Useful are National and International Confidence Data? » (Essai 3) est basé sur le fait que dans un environnement où les sources de données sont multiples, l’information est susceptible de devenir redondante d’une variable à l’autre et qu’une sélection serrée devient nécessaire pour identifier les principaux déterminants de la prévision. Cet essai analyse les conditions selon lesquelles les données de confiance constituent un des déterminants majeurs de la prévision de l’activité économique dans un tel environnement. La modélisation factorielle dynamique ciblée est utilisé pour évaluer le pouvoir prédictif des données des enquêtes nationales et internationales sur la confiance dans la prévision de la croissance du PIB Canadien. Nous considérons les données d’enquêtes de confiance désagrégées dans un environnement riche en données (c’est-à-dire contenant plus d’un millier de séries macro-économiques et financières) et évaluons leur contenu informatif au-delà de celui contenu dans les variables macroéconomiques et financières. De bout en bout, nous étudions le pouvoir prédictif des données de confiance en produisant des prévisions du PIB avec des modèles à facteurs dynamiques où les facteurs sont dérivés avec et sans données de confiance. Les résultats montrent que la capacité de prévision est améliorée de façon robuste lorsqu’on prend en compte l’information contenue dans les données nationales sur la confiance. En revanche, les données internationales de confiance ne sont utiles que lorsqu’elles sont combinées dans le même ensemble avec celles issues des enquêtes nationales. En outre, les gains les plus pertinents dans l’amelioration des prévisions sont obtenus à court terme (jusqu’à trois trimestres en avant). / This thesis examines the effect of information on macroeconomic forecasting. Specifically, the emphasis is firstly on the impact of information frictions in open economy in forecasting the bilateral exchange rate and then on the role of information from confidence survey data in forecasting real economic activity. Based on the new open-economy macroeconomics paradigm (NOEM), the first chapter incorporates information frictions and nominal rigidities in a stochastic dynamic general equilibrium (DSGE) model in open economy. Then, it presents a comparative analysis of the results of the exchange rate forecast obtained using the model with and without these information frictions. While the first chapter develops a structural macroeconomic model of DSGE type to analyze the effect of shock transmission in incomplete information on exchange rate dynamics between two economies, the second and third chapters use static and dynamic factor models with targeting to highlight the contribution of information contained in confidence-based survey data (either at the national or international level) in forecasting real economic activity. The first chapter is entitled The Forward Premium Puzzle: a Learning-based Explanation and is a contribution to the exchange rate forecasting literature. When interest rates are higher in one’s home country than abroad, economic intuition suggests this signals the home currency will depreciate in the future. However, empirical evidence has been found to be at odds with this intuition: this is the "forward premium puzzle." I propose a learning-based explanation for this puzzle. To do so, I embed an information problem in a two-country open-economy model with nominal rigidities. The information friction arises because economic agents do not directly observe whether shocks are transitory or permanent and must infer their nature using a filtering mechanism each period. We simulate the model with and without this informational friction and test whether the generated artificial data exhibits the symptoms of the forward premium puzzle. Our leaning-based explanation is validated as only the data generated with the active informational friction replicates the puzzle. The second chapter uses dynamic factor models to highlight the contribution of the information contained in Canadian confidence survey data for forecasting the Canadian business cycle: Using Confidence Data to Forecast the Canadian Business Cycle is based on the fact that confidence (or sentiment) is one key indicators of economic momentum. The chapter assesses the contribution of confidence -or sentiment-data in predicting Canadian economic slowdowns. A probit framework is applied to an indicator on the status of the Canadian business cycle produced by the OECD. Explanatory variables include all available Canadian data on sentiment (which arise from four different surveys) as well as various macroeconomic and financial data. Sentiment data are introduced either as individual variables, as simple averages (such as confidence indices) and as confidence factors extracted, via principal components’ decomposition, from a larger dataset in which all available sentiment data have been collected. Our findings indicate that the full potential of sentiment data for forecasting future business cycles in Canada is attained when all data are used through the use of factor models. The third chapter uses dynamic factor models to highlight the contribution of the information contained in confidence survey data (either in Canadian or International surveys) for forecasting the Canadian economic activity. This chapter entitled Forecasting with Many Predictors: How Useful are National and International Confidence Data? is based on the fact that in a data-rich environment, information may become redundant so that a selection of forecasting determinants based on the quality of information is required. The chapter investigates whether in such an environment; confidence data can constitute a major determinant of economic activity forecasting. To do so, a targeted dynamic factor model is used to evaluate the performance of national and international confidence survey data in predicting Canadian GDP growth. We first examine the relationship between Canadian GDP and confidence and assess whether Canadian and international (US) improve forecasting accuracy after controlling for classical predictors. We next consider dis-aggregated confidence survey data in a data-rich environment (i.e. containing more than a thousand macroeconomic and financial series) and assess their information content in excess of that contained in macroeconomic and financial variables. Throughout, we investigate the predictive power of confidence data by producing GDP forecasts with dynamic factor models where the factors are derived with and without confidence data. We find that forecasting ability is consistently improved by considering information from national confidence data; by contrast, the international counterpart are helpful only when combined in the same set with national confidence. Moreover most relevant gains in the forecast performance come in short-horizon (up to three-quarters-ahead).
80

Évaluation de la validité des modèles de risque pour prédire l’incidence des gastroentérites d’origine hydrique au Québec

Shemilt, Michèle 23 April 2018 (has links)
Les analyses de risque microbiologique, dont l'ÉQRM (évaluation quantitative du risque microbien) proposent de nouvelles techniques pour évaluer les conséquences sanitaires liées à la contamination microbiologique de l'eau potable. Ces modèles intègrent les données physico-chimiques et microbiologiques des usines de traitement d'eau pour quantifier un risque à la santé. Le projet visait à évaluer le lien entre le risque estimé selon un modèle ÉQRM et l’incidence de giardiase observée. Les banques de données des maladies à déclaration obligatoire et d’INFO-SANTÉ ont été utilisées pour comparer le résultat de l’analyse de risque à celui des analyses épidémiologiques. Les municipalités considérées les plus à risque par l'ÉQRM ont une incidence de gastroentérite et de parasitoses plus élevée. Cependant, l'ampleur du risque prédit ne correspond pas à celui observé. Il est souhaitable que les modèles d’ÉQRM incorporent des données populationnelles pour prédire avec une plus grande exactitude le risque épidémiologique.

Page generated in 0.1791 seconds