• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 294
  • 81
  • 18
  • 3
  • Tagged with
  • 408
  • 100
  • 94
  • 89
  • 82
  • 50
  • 49
  • 49
  • 45
  • 38
  • 38
  • 36
  • 35
  • 35
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

L'inquiétude à l'égard d'un avenir menaçant : temporalité, éthique et prospective

Landry, Bernard 05 November 2021 (has links)
En partant de la thèse selon laquelle l'homme contemporain est pris en otage par un avenir qui le menace et que pourtant il fait exister, nous examinons dans ce mémoire en quoi cette problématique découle, d'une part, de la manière inadéquate dont l'éthique traditionnelle a tenu compte des conséquences futures du progrès technoscientifique, et, d'autre part, d'une conception de l'avenir qui ne permet pas à l'individu de tenir compte de l'accélération actuelle des changements. Par conséquent, nous nous interrogeons tout d'abord sur les raisons qui font que l'avenir est de nos jours menaçant. Par la suite, puisque cette problématique tient aussi à la façon qu'a l'être humain de comprendre l'avenir, nous examinons parmi différentes significations de cette dimension temporelle celle qui correspondrait le mieux à la réalité actuelle des changements. Enfin, étant donné que les mécanismes classiques de prévision ne permettent plus vraiment à l'homme contemporain de tenir compte de la vitesse des changements, nous évaluons en quoi l'attitude prospective peut être une manière appropriée de faire face à la menace exercée par les répercussions futures du progrès technoscientifique.
212

Analyse de la dynamique des peuplements mixtes de sapin baumier et d'épinette rouge après coupe partielle : contraintes et méthodologies statistiques

Fortin, Mathieu 21 December 2018 (has links)
Des éléments de la dynamique des peuplements mixtes de sapin baumier et d’épinette rouge après coupe partielle ont été étudiés sur une base statistique, afin de déterminer dans quelle mesure ils pourraient contribuer au phénomène de raréfaction de l’épinette rouge. L’étude visait principalement à identifier les changements structurels et à quantifier la croissance tant à l’échelle du peuplement que des tiges individuelles. Pour ce faire, les données de deux dispositifs de suivi ont été utilisées : l’Aire d’observation de la rivière Ouareau (Parc national du Mont-Tremblant) et la Forêt expérimentale du lac Édouard (Parc national de la Mauricie). Chacun de ces dispositifs disposent d’un réseau de placettes permanentes dont les mesures s’étendent sur un horizon de plus de 50 ans après une coupe partielle. Des méthodologies statistiques ont été proposées afin de formuler des inférences statistiques adaptées à la nature des données disponibles. L’analyse de la croissance s’est faite à partir d’un modèle linéaire incluant des effets aléatoires (à l’échelle de la tige individuelle) et d’un modèle non linéaire comportant une structure de covariance (à l’échelle du peuplement) afin de tenir compte de l’hétéroscédasticité des données et de l’autocorrélation des erreurs. Les changements structurels ont été analysés à l’aide d’un modèle linéaire généralisé puisque la variable dépendante n’était pas une variable continue, mais plutôt une fréquence. Pour tenir compte de l’effet dû aux placettes, des effets aléatoires ont été ajoutés au modèle. Finalement, une matrice de transition à deux niveaux a été construite sur la base de distributions discrètes dont les paramètres sont estimés par la méthode du maximum de vraisemblance. L’utilisation de distributions discrètes offre ainsi des résultats plus cohérents par rapport à l’approche traditionnelle. À l’échelle des tiges individuelles, les résultats de ces analyses démontrent que les différences quant à la croissance en diamètre sont relativement faibles. Le recrutement et la mortalité sont en fait des facteurs beaucoup plus importants dans l’évolution de ces peuplements après coupe partielle. À l’échelle du peuplement, ils induisent une variabilité importante dans l’évolution de la surface terrière du sapin baumier, de sorte que l’épinette rouge apparaît comme une essence beaucoup plus stable. La durée et l’importance de l’ouverture de la canopée après coupe partielle sont des éléments critiques qui déterminent l’abondance du recrutement du sapin baumier. Pour maintenir la proportion d’épinette rouge et une distribution diamétrale irrégulière, les coupes partielles de faible intensité comme le jardinage par pied d’arbre sont indiquées.
213

Influence du taux de change sur l'évaluation des projets miniers vu sous l'angle des options réelles

Allard, Simon 12 April 2018 (has links)
Les modèles d'évaluation des projets miniers prennent, la plupart du temps, en compte les risques associées aux prix des métaux et à la géologie du gisement. Au cours des dernières années une autre forme d'incertitude semble avoir pris de l'importance: les fluctuations du taux de change. L'appréciation de la devise canadienne face au dollar américain a eu pour effet de diminuer l'augmentation anticipée des bénéfices financiers due à l'appréciation significative des prix des métaux. En effet l'appréciation du prix des métaux, observé au cours des dernières années, est significativement plus faible lorsque elle est calculée en dollars canadiens. Le présent mémoire tente d'abord de disséquer et classifier le risque associé au taux de change. Pour pouvoir ensuite, voir les moyens disponibles pour tenir compte ce risque dans les méthodes d'évaluation modernes. Pour ce faire cependant il sera nécessaire de définir les différents modèles de prévision du taux de change. Au terme de cette recherche une étude de cas sera présentée sous forme d'un article soumis à la conférence de l'APCOM ayant eu lieu à Santiago, Chili en avril 2007. Suite à la lecture de ce travail de recherche on comprend l'impact de la variabilité du taux de change dans l'évaluation des projets miniers; et on comprend mieux les méthodes qui permettent de prendre en compte ce risque financier. Par le biais de l'étude de cas, le mémoire présente une méthode d'évaluation moderne (les options réelles) et des valeurs qui tente de prouver que le taux de change ne peut être
214

Utilisation de données Lidar pour la caractérisation des grandes cultures : cas du maïs et du soja

Koné, Bakary Bafétégué 12 April 2018 (has links)
La quantité de biomasse est un solide indicateur de l'état de santé d'une plante. Elle permet de vérifier que l'environnement dans lequel évolue la plante, de même que les techniques culturales appliquées, sont favorables à son développement et à sa croissance. Pouvoir l'estimer permet, dans des grandes cultures par exemple, de faire des prévisions de récoltes. L'agriculture de précision met à contribution la télédétection pour représenter la variabilité spatiale et temporelle des caractéristiques biophysiques des cultures à l'échelle parcellaire. Le Lidar est un capteur de télédétection, à partir duquel on détermine la hauteur des arbres avec précision. La hauteur est un indicateur de la croissance des plantes que l'on peut relier à des quantités de biomasse. L'intensité du rayonnement électromagnétique émis par un capteur Lidar, réfléchi par une cible et retournée au capteur, peut être utilisée comme bande d'imagerie et servir, dans le cadre de classifications d'images, à l'identification des classes d'utilisation du sol. Notre étude propose de mettre à profit les données Lidar pour la caractérisation des grandes cultures. Il s'agit d'extraire la hauteur des cultures de maïs et de soya à partir des nuages de points Lidar, de sélectionner adéquatement, à partir d'une combinaison de bandes multispectrales et de l'intensité du Lidar, les pixels des cultures d'intérêts, et finalement de calculer des rendements. Un vol aéroporté est effectué au dessus de la zone d'étude, avec à bord un capteur Lidar et un capteur multispectral qui enregistrent simultanément les données. Dans le même temps, une campagne au sol permet de mesurer la hauteur des plantes, et leur position GPS. Un algorithme implémenté sous Fortran, permet d'estimer la hauteur des cultures, qui se trouve corrélée avec les hauteurs mesurées au sol. Une comparaison entre trois classifications, une avec l'intensité du Lidar, une seconde avec les bandes multispectrales, et une troisième avec les données multispectrales et l'intensité du Lidar, montre que la combinaison des bandes est celle qui produit les meilleurs résultats. Cette classification est utilisée pour sélectionner les pixels devant servir au calcul de rendement du maïs d'ensilage. Les rendements ainsi calculés sont comparés avec la production effective des parcelles sélectionnées. Les résultats obtenus par l'estimation des rendements de maïs d'ensilage à partir des données Lidar sont satisfaisants. / Biomass quantity is a robust indicator of plant health. It may be used to check if the environment in which the plant is being grown is proper to its development and growth. Being able to estimate biomass quantity allows making harvest forecasting on crops. Precision agriculture uses remote sensing to represent spatial and temporal variability of crops biophysical characteristics at parcel scale. Lidar is a remote sensing tool from which trees height can be determined with precision. Height is an indicator of plant's growth directly connected to biomass quantities. While a Lidar sensor is working, the intensity of the electromagnetic radiation emitted is reflected by a target and returned to the sensor. This intensity can be useful while making image classification for land use recognition. This project intends to take profit of Lidar data for high crops characterization. A first step is about extracting corn and soybean crops height from Lidar point cloud. The next step consists on using multispectral bands and Lidar intensity combination to correctly select pixels from parcels of interest. The last step finally makes yield estimate calculation on pixels selected with combined multispectral bands and Lidar intensity using crop height derived from Lidar data. An airborne platform, having on board Lidar and multispectral sensors, both recording data simultaneously, was flown over the study area. At the same time, a ground campaign was carried out, measuring plants height and GPS positions. An algorithm implemented under FORTRAN, made it possible to estimate crops height, which was found to have a good correlation with ground measured heights. Comparison between three classifications, one made with Lidar intensity only, another with multispectral data, and a last one, with combination of both Lidar and multispectral data, shows that the combination gives best results. Then this classification is used to select pixels that should be used to calculate the yield of silage corn. Results obtained on silage corn yield estimation are satisfying.
215

La prédiction du rendement en lecture des enfants de 6 à 9 ans

Frenette, Amélie 13 April 2018 (has links)
Puisque certaines études montrent que les difficultés en lecture de plusieurs enfants peuvent être prévenues par une intervention précoce (Hurford et al., 1994; Torgesen, 2000; Vellutino et al., 1996); l'intérêt pour la prédiction des habiletés en lecture s'est accru au cours des dernières années. Poursuivant le travail de Sirois (2005), cette étude évalue si la vitesse des opérations mentales (VOM) et la vitesse de dénomination (VD) prédisent mieux, après 18 mois, la faible performance en lecture de certains enfants par rapport à la performance de trois autres groupes d'enfants qui ont un rendement supérieur en lecture; l'effet de l'âge ayant préalablement été contrôlé sur les variables à l'étude. Les résultats de l'analyse de fonctions discriminantes réalisée sur un échantillon de 152 enfants âgés de 6 à 9 ans suggèrent que la VOM, mesurée par un temps de réaction avec prise de décision, et la VD des objets sont significativement associées au classement des enfants dans les groupes de lecture. Bien que le classement global de 45,4% soit significativement différent du hasard, le groupe des faibles lecteurs n'est correctement classé qu'à 44%. Le classement des enfants qui éprouvent des difficultés en lecture n'est donc pas supérieur à celui effectué dans les trois autres groupes de rendement en lecture. Les variables de vitesse cognitive contribuent donc au classement des jeunes selon leur performance en lecture, bien qu'elles n'aient pas de vertu particulière pour identifier les enfants qui auront des difficultés en lecture. L'intérêt d'évaluer la capacité de prédiction de la performance en lecture par les variables de VOM et de VD s'inscrit dans la lignée des recherches effectuées sur le dépistage précoce des difficultés en lecture. Cette étude contribue à l'avancement des connaissances dans le domaine de la prédiction des habiletés en lecture afin de favoriser un dépistage précoce et une mobilisation rapide des ressources professionnelles auprès des enfants qui sont à risque de vivre des difficultés en lecture.
216

Évaluation de l'incertitude liée à la modélisation hydraulique au sein d'un système de prévision d'ensemble des niveaux d'eau

Bessar, Mohammed Amine 19 November 2021 (has links)
Les inondations présentent une grande menace à la sécurité humaine et matérielle. Les effets associés à ces phénomènes naturels risquent d'augmenter encore plus avec les tendances liées aux changements climatiques. Il est donc important de disposer d'outils de prévision et de prévention des crues fiables afin de mitiger les conséquences dévastatrices reliées. La mise en œuvre de ces outils implique des processus physiques assez complexes et nécessite beaucoup de données avec toute l'incertitude associée. Dans cette thèse, on explore les différentes sources d'incertitudes liée à la détermination des niveaux d'eau en rivières principalement dans un contexte de prévision où l'incertitude liée aux données de forçage est très importante. Les analyses conduites sont appliquées à la rivière Chaudière au Québec. En premier lieu, nous avons exploré les différentes sources paramétriques d'incertitude associées à la modélisation hydraulique dans un contexte de simulation avec un accent sur l'amélioration de la calibration du modèle hydraulique. Par la suite, dans un contexte de prévision opérationnel, on a évalué la propagation des sources d'incertitude de la prévision atmosphérique au modèle de rivière en passant par les prévisions hydrologiques avec des techniques probabilistes d'ensemble. La quantification de l'incertitude a montré que les données de forçage sont celles qui contribuent le plus à la description de l'incertitude dans la détermination des niveaux d'eau. L'incertitude paramétrique, dans un contexte de prévision, est quant à elle négligeable. Le recours à des prévisions d'ensemble a permis de produire une prévision de niveau d'eau assez fiable et a montré que celle-ci est fortement liée à la qualité des données qui proviennent de la chaine de prévision hydrométéorologique à l'amont du système de prévision proposé. / Floods are a major threat to human and infrastructure security. The impacts of these natural hazards are likely to increase further with climate change trends. It is therefore important to develop reliable flood forecasting and mitigation tools to help reduce their devastating consequences. The implementation of these tools involves quite complex physical processes and requires a lot of data with all the associated uncertainty. In this thesis, we explore and evaluate the different sources of uncertainty related to the determination of water levels in rivers mainly in a forecasting context where the uncertainty related to forcing data is very important. The analysis carried out is applied to the Chaudière River in Quebec. First, we explored the various parametric sources of uncertainty associated with hydraulic modelling in a simulation context with a focus on improving the calibration of the hydraulic model. Then, in an operational forecasting context, we evaluated the propagation of uncertainty sources from climate forecast to the river model through hydrological forecasting using ensemble driven techniques. Quantification of uncertainty showed that forcing data contribute the most to the description of uncertainty in water level determination and the parametric uncertainty, in a forecasting context, is very negligible. The adoption of ensemble forecasts allowed us to provide reliable water level forecasts and showed that they are highly dependent on the quality of the data produced by the hydrometeorological forecast chain upstream of the proposed forecasting system.
217

Assessing hydro-climatic uncertainties on hydropower generation

Movahedinia, Fatemeh 20 April 2018 (has links)
Dans le cadre de ce travail, nous avons quantifié l’impact des incertitudes hydrologiques et climatiques sur la production hydroélectrique dans le bassin de la rivière Gatineau. L’approche mise en œuvre repose sur des simulations climatiques, la modélisation hydrologique et l'optimisation de l'exploitation des réservoirs. Les résultats hydrologiques confirment ce que d’autres études ont déjà montré, à savoir un hydrogramme plus contrasté, marqué par une fonte des neiges plus précoce et un volume de crue plus important, suivi d’une saison estivale plus sèche que par le passé. En termes de production d’énergie, cela se traduit par une production attendue d’énergie supérieure mais également plus variable. Ce gain d’énergie se produit essentiellement à la fin de l’hiver-début du printemps et fait suite aux précipitations plus importantes sur le bassin au cours de l’hiver. Compte tenu des caractéristiques physiques du système (capacités de stockage et de turbinage), les modifications du régime hydrologique entrainent des déversements supplémentaires, essentiellement pendant la fonte des neiges. / This research quantifies the impact of hydrological and climatic uncertainties on hydropower generation in the Gatineau River basin. The proposed approach is based on climate simulations, hydrological modeling and optimization of reservoir operation. Hydrological results from this study confirm what other studies have shown, a more mixed hydrograph marked by earlier snow melting and greater flood volume, followed by drier summers than in the past. In terms of energy production, this translates into an expected increase in energy but also in a more variable production. This gain of energy mainly occurs in the late winter-early spring and follows the higher rainfall in the basin during the winter. Given the physical characteristics of the system (storage and turbine capacity), changes in the hydrological regime entail additional spills, mainly during snowmelt.
218

Analyse de la conjoncture et des données sujettes à la révision : application au Canada

Baron, Standley-Réginald 18 April 2018 (has links)
Ce papier met l'accent sur deux points essentiels : l'analyse de la conjoncture en temps réel et la révision des données. Contrairement à d'autres travaux, nous cherchons, non seulement à évaluer la conjoncture en temps réel, mais aussi nous essayons de voir à quel point la révision des données peut affecter notre estimation de la conjoncture. Pour déterminer les différentes phases du cycle économique canadien, nous adoptons l'approche d'Hamilton et Chauvet (2006). En utilisant le PIB comme indice pour caractériser la conjoncture et en appliquant les modèles à changements de régime markoviens, comme méthode moderne de séparation des phases d’expansion et de récession dans une économie. Les résultats obtenus permettent de faire ressortir deux points importants. La révision des données n'affecte pas significativement l'analyse des points tournants en temps réel, par contre elle s'avère importante quand il faut juger de l'ampleur d'une récession ou d`une expansion. Mots clés : cycle économique en temps réel, révision des données, modèles à changements de régime markoviens.
219

Modélisation de la qualité de l'eau et prévision des débits par la méthode des réseaux de neurones

Filion, Mélanie 12 April 2018 (has links)
L'objectif premier de cette étude vise à modéliser, à l'aide des réseaux de neurones, deux paramètres de qualité de l'eau : les nitrates et la matière en suspension. L'intérêt d'une telle simulation est de pouvoir développer un outil d'aide à la décision en matière de gestion des pratiques agricoles. Bien que les réseaux aient montré plus de difficulté à modéliser les MES que les N-NO3, ils ont réussi à approximer les signaux avec une précision suffisante pour le but poursuivi. Le deuxième objectif vise à vérifier si l'ajout de données de teneur en eau du sol améliore la prévision des débits et de comparer le gain apporté, à celui apporté par l'ajout d'un indice de teneur en eau. Les résultats montrent que la couche intermédiaire du sol apporte le gain de performance le plus important quoique l'indice de teneur en eau soit une alternative intéressante.
220

Modélisation des fluctuations macroéconomiques et comparaison des performances de modèles dynamiques d'équilibre général estimés : une approche par l'estimation bayésienne et les modèles à facteurs

Rugishi, Muhindo G. 12 April 2018 (has links)
Depuis le début des années 1980, la modélisation macroéconomique a subi un renouveau méthodologique marqué par l'avènement des modèles d'équilibre général dynamiques stochastiques (DSGE) et des modèles vectoriels autorégressifs (VAR). Il existe actuellement un consensus dans les milieux académiques et institutionnels que les modèles DSGE peuvent offrir aux débats économiques un cadre d'analyse efficace. L'utilisation des modèles DSGE dans l'analyse des cycles et fluctuations économiques est un des domaines les plus actifs de la recherche macroéconomique. Comme les modèles DSGE sont mieux ancré dans la théorie économique, ils permettent de fournir des explications plus cohérentes de la dynamique du cycle économique et d'analyser les différents types de chocs qui perturbent régulièrement les différentes économies. Les modèles VAR sont un outil utilisé à grande échelle dans la macroéconomie appliquée, notamment dans la validation empirique des modèles DSGE. En dépit de leur faible ancrage dans la théorie économique, les modèles VAR restent assez flexibles pour traiter un éventail de questions concernant la nature et les sources des fluctuations économiques. En outre, ils sont particulièrement adaptés pour faire des tests statistiques d'hypothèses ainsi que pour des exercices de prévision à court terme. C'est ainsi que les résultats des modèles VAR sont souvent perçus comme des faits stylisés qui devraient être reproduits par des modèles économiques. Alors que la spécification des modèles DSGE a connu un développement remarquable aboutissant à une lecture des fluctuations économiques analogue à celle de la synthèse néoclassique (rôle des chocs budgétaires et monétaires à court terme) et que beaucoup des progrès ont été réalisés pour comparer les prédictions des modèles aux données, les méthodes couramment utilisées pour la validation de ces modèles présentent certaines limites. Il se pose actuellement la question de savoir si ces méthodes sont toujours appropriées pour fournir des estimations consistantes des paramètres structurels et pour permettre la comparaison formelle des modèles DSGE concurrents. En effet, il reste encore beaucoup à faire pour développer des outils simples et opérationnels permettant de mesurer l'adéquation entre les prédictions des modèles DSGE et les données. La méthode communément utilisée pour évaluer les modèles DSGE consiste à comparer les moments estimés ou obtenus par simulations stochastiques du modèle et les moments historiques. Si les moments historiques appartiennent à l'intervalle de confiance des moments estimés ou simulés, on considère que cet ensemble de moments est bien reproduit par le modèle. Le problème de cette méthodologie est qu'elle ne permet pas la comparaison de deux modèles quand l'un reproduit plutôt bien certains moments et plus mal d'autres moments qui sont, au contraire, mieux expliqués par l'autre modèle. L'absence d'un critère de choix explicite pour évaluer la portée explicative de différents modèles constitue un problème majeur si on cherche à discriminer entre différents paradigmes et théories concurrentes. L'utilisation de la méthode des moments pour l'évaluation des modèles DSGE et l'explication des fluctuations économiques est, à certains égards, très approximative. Cette insuffisance amène plusieurs chercheurs à opter pour l'utilisation des modèles VAR pour la validation empirique des modèles DSGE. Cependant, les débats à la suite du papier séminal de Gali (1999) portant sur l'impact des chocs technologiques sur les heures travaillées ont suscité de scepticisme concernant l'apport de cette méthodologie alternative et certains chercheurs se demandent actuellement si les modèles VAR peuvent vraiment être utiles pour discriminer des théories concurrentes et si leurs propriétés d'échantillonnage sont assez précises pour justifier leur popularité dans la macroéconomie appliquée. L'échec des modèles VAR d'ordre fini comme outil utile d'évaluation des modèles DSGE est parfois attribué au fait qu'ils ne sont que des approximations des processus VAR d'ordre infini ou bien à la possibilité qu'il n'existe point de représentation VAR. C'est le cas notamment quand l'hypothèse d'inversibilité n'est pas satisfaite. Les méthodes d'estimation par maximum de vraisemblance ou bayésienne des paramètres structurels des modèles DSGE sont maintenant d'utilisation courante dans les milieux académiques et décisionnels. Ces méthodes permettent de comparer les performances de prévision des modèles DSGE à celles d'un modèle VAR ou celles de deux théories concurrentes. Bien que les modèles DSGE fournissent de relativement bonnes prévisions dans certains cas, des problèmes de mauvaise spécification et de non identifiabilité ont comme conséquence que les paramètres structurels et le vecteur d'état de l'économie ne sont pas souvent estimés de manière consistante. Ces insuffisances peuvent entraîner des recommandations de politique économique dangereusement biaisées et posent de sérieux problèmes dans l'évaluation de politiques alternatives. Dans cette thèse, nous proposons une voie de réconciliation qui offre des possibilités d'une meilleure intégration de la théorie et de la mesure en macroéconomie. La méthodologie proposée permet de combiner de manière explicite les modèles factoriels non structurels et les modèles théoriques d'équilibre général micro-fondés. Les modèles factoriels complètent les modèles macroéconomiques structurels destinés à évaluer les évolutions économiques à court et ce, principalement en offrant un cadre qui permet d'améliorer l'estimation et la prévision de plusieurs indicateurs macroéconomiques. En effet, la méthode d'évaluation utilisée permet de prendre en compte toute l'information macroéconomique disponible en recourant aux modèles factoriels, d'estimer et de tester, dans un cadre unifié, les paramètres structurels et les propriétés cycliques d'un modèle DSGE et de comparer des théories concurrentes. Les variables inobservables et les composantes cycliques des modèles sont estimés à l'aide d'un filtre de Kalman et des techniques numériques de Monte Carlo par chaînes de Markov (MCMC). Nous utilisons l'ensemble des outils développés pour faire une comparaison formelle de deux variantes du modèle de cycles réels à la King-Rebelo (2000) et du modèle de thésaurisation du travail de Bumside, Eichenbaum et Rebelo (1993) appliqués à l'économie américaine sur des données trimestrielles allant de 1948 à 2005. L'utilisation des modèles à facteurs permet d'améliorer les qualités prédictives des modèles DSGE et de surpasser dans bon nombre des cas les problèmes de non identifiabilité et de non inversibilité rencontrés dans ces types de modèles. L'étude démontre que le choc technologique identifié par Gali (1999) est non structurel et que l'utilisation des modèles à facteurs devrait être préférée dans certains cas à celle de l'approche VAR. En présence des variables mesurées avec erreur, l'utilisation des filtres de type Hodrick-Prescott (HP) conduit à une estimation non consistante de certains paramètres structurels des modèles DSGE. Le test de stabilité indique une diminution de l'amplitude de chocs exogènes depuis le début des années 1980, ce qui se traduit par une modération des cycles économiques et des fluctuations des taux d'intérêt. Enfin, l'analyse dynamique montre que les réponses de l'investissement au choc de dépenses publiques sont largement liées aux valeurs assignées aux paramètres structurels. / Since the beginning of the 1980s, macroeconomic modeling has undergone a methodological revival marked by the advent of the dynamic stochastic general equilibrium (DSGE) models and vector autoregressive (VAR) models. There is currently a consensus in the académie and institutional circles that DSGE models can offer to the économie debates an effective framework of analysis. The analysis of économie cycles and fluctuations using DSGE models is one of the most active areas of macroeconomic research. As DSGE models are firmly grounded in the économie theory, they are used to provide more cohérent and adéquate explanations for observed dynamics of the business cycle and to analyze a wide range of shocks which buffet regularly various économies. VAR models are a widely used tool in empirical macroeconomics, particularly for the evaluation of DSGE models. Despite they rely so loosely on économie theory, VAR models remain enough flexible to treat a range of questions concerning the nature and the sources of the économie fluctuations. Moreover, they are particularly adapted to perform statistical hypothesis tests as well to provide reliable forecasts in the short-term. Thus the results from VAR models are often viewed as stylized facts that économie models should replicate. Although the specification of DSGE models has seen a remarkable development leading to a reading of the économie fluctuations similar to those of the neoclassical synthesis (rôle of budgetary and monetary shocks in the short-term) and that steps forward hâve also been made in comparing the models' prédictions to the data, the methods usually used for the evaluation of these models présent some limitations. This raises the question of whether or not these methods are always well-adapted to provide consistent estimates of the structural parameters and to allow the formal comparison of competing DSGE models. Indeed, there still remains much to do in the development of simple operational tools that make it possible to measure the gap between the prédictions of DSGE models and the data. The common method used for evaluating DSGE models consists of comparing the estimated moments or those obtained by stochastic simulations of the model and the historical moments. If the historical moments belong to the confidence interval of the estimated or simulated moments, it is considered that this set of moments is well reproduced by the model. The problem of this methodology is that it does not allow the comparison of two models when one matches some moments well and does more badly for other moments that are better explained by the other model. The difficultés in designing explicit sélection criteria to evaluate the success of competing models constitute a major problem if one seeks to discriminate between various paradigms and concurrent theories. The moment-matching techniques for the evaluation of DSGE models and the explanation of the économie fluctuations are, in certain sensé, very approximate. This insufficiency leads several researchers to choose using the VAR models for the empirical evaluation of DSGE models. However, the debates following the séminal paper of Gali (1999) focused on the impact of the technological shocks on hours worked caused scepticism concerning the contribution of this alternative methodology and some researchers currently wonder if the VAR models can actually discriminate between competing DSGE models and whether their sampling properties are good enough to justify their popularity in applied macroeconomics. The failure of finite-order VAR models for evaluating DSGE models is sometimes attributed to the fact that they are only approximations to infinite-order VAR processes or to the possibility that there does not exist a VAR représentation at ail. This is the case particularly when the assumption of invertibility is not satisfied. Bayesian or maximum likelihood estimation methods of the structural parameters are now currently used in académie and policy circles. Thèse methods are tailored to compare the forecasting performances of the DSGE models with those of VAR models and to discriminate between competing DSGE models. Although DSGE models provide, in some cases, relatively good forecasts, the potential model misspecification and identification problems have as consequence the lack of efficiency in the estimated latent variables and structural parameters. These insufficiencies can dangerously bias recommendations of economic policy and pose serious problems in the evaluation of alternative policies. In this thesis, we propose a reconciliation that offers possibilities to better integrate of the theory and measurement in macroeconomics. The suggested methodology is used to combine explicitly the non-structural factor models and the micro-founded general equilibrium theoretical models. The factor models supplement the structural macroeconomic models intended to evaluate the economic evolutions in the short-term and this, mainly by offering a framework which allows the improvement of the estimates and forecasting of several macroeconomic indicators. Indeed, the method evaluation used makes it possible to exploit ail available macroeconomic information by using the factor models and allows us to estimate and test, within a unified framework, the structural parameters and the cyclical properties of the model, and to compare competing theories. The structural parameters, the unobservable variables and the cyclical components are estimated using the Kalman filter and the Markov chain Monte Carlo methods (MCMC). We use the set of the tools developed to make a formal comparison of two variants of the real business cycle model in King and Rebelo (2000) and of an extension of labour market specification consisting in the introduction of labour-hoarding behaviour, as suggested by Burnside, Eichenbaum and Rebelo (1993), which are applied to the US economy with quarterly data from 1948 to 2005. The use of the factor models provide an important set of tools to improve predictive qualities of DSGE models and can help to solve, in numerous cases, the identification and invertibility problems met in these types of models. The study shows that the technological shock identified by Gali (1999) is non-structural and that using the factor models factors should be preferred in some cases to the VAR approach. In the presence of the variables measured with error, using the detrending methods like the Hodrick-Prescott (HP) filter can lead to inconsistent estimates of some structural parameters of DSGE models. The test of stability suggests a reduction in the magnitude of exogenous shocks since the beginning of the 1980s, which implies the moderation of business cycles and fluctuations of interest rates. Lastly, the dynamic analysis shows that the impulse response functions of the investment to the government consumption shock are largely related to the values assigned to the structural parameters.

Page generated in 0.0694 seconds