1 |
Modèles d'évaluation et d'allocations des actifs financiers dans le cadre de non normalité des rendements : essais sur le marché françaisHafsa, Houda 12 November 2012 (has links)
Depuis quelques années, la recherche financière s'inscrit dans une nouvelle dynamique. La nécessité de mieux modéliser le comportement des rendements des actifs financiers et les risques sur les marchés pousse les chercheurs à trouver des mesures de risque plus adéquates. Ce travail de recherche se situe dans cette évolution, ayant admis les caractéristiques des séries financières par des faits stylisés tels que la non normalité des rendements. A travers cette thèse nous essayons de montrer l'importance d'intégrer des mesures de risque qui tiennent compte de la non normalité dans le processus d'évaluation et d'allocation des actifs financiers sur le marché français. Cette thèse propose trois chapitres correspondant chacun à un article de recherche académique. Le premier article propose de revisiter les modèles d'évaluation en prenant en compte des moments d'ordres supérieurs dans un cadre de downside risk. Les résultats indiquent que les downside co-moments d'ordres supérieurs sont déterminants dans l'explication des variations des rendements en coupe transversale. Le second chapitre propose de mettre en relation la rentabilité financière et le risque mesuré par la VaR ou la CVaR. Nous trouvons que la VaR présente un pouvoir explicatif plus élevé que celui de la CVaR et que l'approche normale est plus intéressante que l'approche basée sur l'expansion de Cornish-Fisher (1937). Ces deux résultats contredisent les prédictions théoriques mais nous avons pu démontrer qu'ils sont inhérents au marché français. Le troisième chapitre propose une autre piste, nous revisitons le modèle moyenne-CVaR dans un cadre dynamique et en présence des coûts de transaction / This dissertation is part of an ongoing researches looking for an adequate model that apprehend the behavior of financial asset returns. Through this research, we propose to analyze the relevance of risk measures that take into account the non-normality in the asset pricing and portfolio allocation models on the French market. This dissertation is comprised of three articles. The first one proposes to revisit the asset pricing model taking into account the higher-order moments in a downside framework. The results indicate that the downside higher order co-moments are relevant in explaining the cross sectional variations of returns. The second paper examines the relation between expected returns and the VaR or CVaR. A cross sectional analysis provides evidence that VaR is superior measure of risk when compared to the CVaR. We find also that the normal estimation approach gives better results than the approach based on the expansion of Cornish-Fisher (1937). Both results contradict the theoretical predictions but we proved that they are inherent to the French market. In the third paper, we review the mean-CVaR model in a dynamic framework and we take into account the transaction costs. The results indicate that the asset allocation model that takes into account the non-normality can improve the performance of the portfolio comparing to the mean-variance model, in terms of the average return and the return-to CVaR ratio. Through these three studies, we think that it is possible to modify the risk management framework to apprehend in a better way the risk of loss associated to the non-normality problem
|
2 |
Facteurs de risque et choix des investisseurs de long terme / Risk factors and long term investors portfolio choicesNasreddine, Aya 29 November 2016 (has links)
Cette thèse porte sur les choix des investisseurs de long terme en matière de gestion de portefeuille ainsi que sur les primes de risque offertes par le marché financier Français. Les travaux réalisés dans cette thèse se proposent d’apporter un éclairage ainsi que des arguments en faveur des placements à caractère long, risqué et productifs.En matière de gestion de portefeuille, ce travail apporte plusieurs réponses en matière d’allocation d’actifs et de stratégies optimales d’investissement. Tout d’abord, et en se basant sur des indices boursiers actions et obligataires, il s’avère que le marché français est efficient au sens faible et que l’hypothèse de marche aléatoire n’y est pas rejetée. Ce premier résultat implique que les rentabilités anormales que l’on peut mesurer sur ce marché émanent de facteurs de risque à rémunérer et non pas d’anomalies. Ainsi, dans le deuxième article, on démontre une prime de valeur persistante au sein du marché Français sur la période étudiée. Par contre, la prime de taille n’est observable que pour les titre à ratio valeur comptable sur valeur de marché très faibles ou très élevés ainsi que pour les titres ayant une rentabilité cumulée passée élevée. Aussi, investir dans les entreprises à momentum élevé mène toujours à des rentabilités meilleures quelle que soit la taille de l’entreprise considérée. On confirme également que la bonne spécification du portefeuille de marché est sine qua non pour une évaluation correcte des actifs financiers. Dans le troisième article, et dans une optique multi-périodiques de gestion de portefeuille, l’écart-type des rentabilités annualisées des actifs risqués décroit lorsqu’on allonge la période de détention ce qui implique que les gestionnaires de portefeuille tendent à biaiser les allocations vers des actifs plus sûrs et négligent par cela un manque à gagner. Ce travail démontre également que détenir un portefeuille d’actions de petites capitalisations s’avère un placement optimal pour les investisseurs ayant un horizon long. Ces résultats mettent en lumière des règles prudentielles inefficaces du point de vue des assurés d’une part, et, mettent en évidence la nécessité de mesures visant à relancer les marchés pour les petites entreprises et de faciliter leur accès au financement direct d’autre part. / This thesis focuses on long term investments and risk premiums within the French financial market. The results bring evidence supporting placements in long term, risky and productive assets. In terms of portfolio management, this thesis brings several answers regarding the optimal allocation strategies. The first article demonstrates that the French financial market is weak form efficient since we could not reject the random walk hypothesis based on the variance ratio methodology. This first contribution implies that abnormal returns are resulting from risk factors and not from anomalies. Thus, the second article revisits famous asset pricing models and highlights optimal portfolio strategies. We find that value and momentum premiums are persistent in the French market. However, size premium is only observable in extreme book to market and momentum strategies. Moreover, we show that market portfolio choice is sine qua non to models performances and that the latest is surprisingly increasing in times of distress. The third article considers the term structure of risk-return tradeoff. Based on a VAR model, we find that excess annualized standard deviation of stocks excess returns with respect to bonds and bills decreases as we lengthen investment horizon which means that investors may bias their portfolios towards safe assets and neglect additional return. Furthermore, we measured the time diversification effect among stock portfolios by distinguishing small and big capitalizations and prove that it is more profitable to hold small capitalizations than big capitalizations stocks in the long run. These results shed light on inefficient prudential rules from the viewpoint of policyholders on one hand, and, on the other hand, highlight the necessity of implementing measures to revive the markets for small enterprises and facilitate their access to direct financing through the market.
|
3 |
Management de portefeuilles de projets : modèles multicritère d'évaluation, de sélection et d'argumentation / Project portfolio management : multicriteria models for evaluation, selection and argumentationDehouche, Nassim 14 May 2014 (has links)
Cette thèse traite du processus d’évaluation et de sélection de projets sur la base de critères multiples. Outre la capacité du modèle à permettre une identification efficace des meilleurs projets et leur intégration à un portefeuille, l’équité et la transparence sont des considérations importantes dans la conception de modèles d’appui à ce processus. Nous proposons un cadre de travail général pour l’évaluation de projets, Il reprend les codes de l’analyse SWOT, dont de nombreuses organisations orientées projets sont familières. Nos contributions apportent des éléments de réponse à la question de « l’après SWOT », à laquelle ces organisations peuvent éprouver des difficultés à répondre. Dans ce cadre de travail, nous introduisons et discutons un modèle de préférences permettant de mesurer l’importance des critères sur deux dimensions, représentant de manière indépendante leurs capacités de conviction et d’opposition. Suivant l’évaluation et en préalable à la sélection, le filtrage consiste à écarter les projets trop inadéquats. Nous proposons un mécanisme basé sur la dominance pour effectuer cette opération. Nous proposons, enfin, deux méthodes de sélection de projets, chacune étant basée sur une procédure d’agrégation multicritère originale. La première méthode, SPADE (pour Structure de Préférence pour l’Aide à la Décision) est une approche de surclassement, destinée à des contextes où les préférences exprimées concernent essentiellement les projets individuels, et dans lesquels les décisions concernant un projet peuvent être argumentées en référence à des projets tiers. Nous garantissons la validité théorique de SPADE, en amont, ce qui permet un temps de mise en œuvre réduit et une utilisation en temps réel. En pratique, nous illustrons l’application de SPADE, en la comparant à deux autres approches d’aide multicritères à la décision, MAUT et ELECTRE, en mettant en exergue ses spécificités. La seconde méthode, RADAR (Règles d’Aide à la Décision et à l’ARgumentation) est une approche à base de règles logiques. Elle est destinée à des contextes plus contraints dans lesquels les préférences exprimées concernent à la fois les projets individuels, mais aussi le portefeuille de projets (degré de diversification, budget total, etc.). De plus, l'argumentation des décisions est ici basée exclusivement sur la qualité intrinsèque des projets en référence à une norme fixe. RADAR permet également la construction automatique de tels arguments. Nous proposons un programme linéaire en variable mixtes permettant de valider théoriquement cette approche. Cependant, sa résolution est nécessaire à chaque mise en œuvre de RADAR, ce qui limite l’application de cette approche au temps différé. Nous illustrons une telle application sur un jeu de données représentant des évaluations de projets financés par le Fond des Nations Unies pour la Démocratie (UNDEF). / Project portfolio management (PPM) involves the use of methods and tools, allowing an organization to plan, evaluate, analyze and screen the execution of a set of projects or project proposals, sharing common resources or aiming at the attainment of common objectives. Multicriteria decision aid models are useful tools to support this process, given their ability to accurately model preferences, and rationally agregate points of view. However, existing models present some lacks that limit their use outside of academic circles : (i) They neglect the non-symetrical nature of the importance of some criteria that are relevant in PPM. (ii) The black box effect makes it hard to use them for the argumentation of decisions and to gain their acceptance by users (iii) They are implicitly fitted for private/for-profit projects, which limits their use in public organizations. In this thesis, our contribution consists in proposing two multicriteria methods for supporting the activities of evaluating, selecting and arguing decision, for project portfolio management. We propose: (i) An analysis of the specific features of public and private projects and their consequences for decision support (ii) A framework that allows an independent modeling of the abilities of a criterion to oppose and convince (iii) Two transparent multicriteria agregation procedures, fitted for different decision contexts. We ensure the theoretical validity of our approaches and illustrate their applicability on real data, with satisfying results.
|
4 |
Impact des polluants gazeux du sol sur la qualité de l'air intérieur des bâtiments / Impact of soil gas pollutants on indoor air qualityDiallo, Thierno Mamadou Oury 10 October 2013 (has links)
L’entrée des polluants gazeux du sol (Radon, COV,…) dans les environnements intérieurs peut occasionner des risques sanitaires significatifs. Or les modèles d’évaluation de risques sanitaires liés à ces polluants gazeux du sol contiennent beaucoup d’incertitudes qui peuvent conduire à une mauvaise appréciation des risques. Dans un premier temps, cette thèse contribue à l’amélioration des modèles d’évaluation des risques. Dans un second temps, elle propose le développement d’un modèle de dimensionnement des Systèmes de Dépressurisation du Sol (SDS) passifs utilisés pour protéger les bâtiments des pollutions gazeuses venant du sol. L’amélioration des modèles a porté sur la prise en compte des principaux phénomènes de convection et diffusion à l’interface entre le sol et le bâtiment, en tenant compte des différentes typologies de soubassement. La première contribution porte sur le développement de modèles analytiques fournissant les débits d’air dus à la convection à travers le sol pour différents types de soubassement : dallage indépendant, dalle portée, vide sanitaire et cave. Les bâtiments avec des murs enterrés et les soubassements avec un lit de gravier sous le plancher bas sont également traités. Une méthodologie permettant la prise en compte de la fissuration et des points singuliers du plancher bas est aussi proposée. La deuxième contribution porte sur la prise en compte du transfert couplé des polluants des sols par convection et diffusion auprès des fondations. Une étude numérique a permis une meilleure compréhension du comportement des polluants à l’interface sol/bâtiment. Sur la base de cette compréhension, des lois semi-empiriques d’estimation des flux d’entrée de polluant dans les bâtiments sont proposées. Les différents modèles développés ont été validés numériquement avec un modèle CFD et expérimentalement avec des données issues de la littérature. La confrontation de ces modèles avec ceux existants a montré les améliorations apportées. L’impact de la typologie du soubassement sur le transfert de polluants gazeux des sols a été constaté. Une première application des modèles est illustrée par leur intégration dans un code de simulation thermo-aéraulique multizone afin de pouvoir étudier l’impact de ces polluants sur la qualité de l’air intérieur. Ce travail se termine par le développement d’un modèle de dimensionnement des Systèmes de Dépression du Sol (SDS) passifs. Ce modèle aéraulique de dimensionnement des SDS a été validé par des mesures effectuées au CSTB dans une maison expérimentale. Les premières applications du modèle de dimensionnement portent notamment sur l’impact de la météorologie (vent et tirage thermique) sur le fonctionnement du SDS passif et sur l’impact des stratégies de ventilation du bâtiment sur le fonctionnement du SDS passif. On voit ainsi l’intérêt de l’utilisation d’un tel modèle pour tester l’aptitude de ce système de protection des bâtiments dans des situations environnementales données. / Transfer of soil gas pollutants (Radon, VOC) into buildings can cause significant health risks. However, analytical models used today to estimate health risks associated with these pollutants contain many uncertainties which can lead to poor risk assessment. Initially, the main objective of this thesis is to contribute to the improvement of these models for risk assessment. Secondly, we propose the development of air flow model for passive Sub slab Depressurization Systems (SDS) design used to protect buildings. The improvement of models focused on the inclusion of the main phenomena of convection and diffusion at building/soil interface, taking into account different types of building substructures. The first improvement concerns the assessment of convection phenomenon through the development of analytical models to quantify air flow rates entering through many kinds of building substructures: floating slab, bearing slab, crawl space and basement. Buildings with buried walls and substructures with a sub slab gravel layer are also treated. A methodology taking into account the presence of cracks, holes and singular leakages of the slab is also proposed. The second improvement of the models is the inclusion of coupled transfer of convection and diffusion near foundations. A numerical study allowed a better understanding of the behavior of pollutants at soil / building interface. Based on this understanding, semi-empirical laws for estimating soil gas pollutants entry rate into buildings are proposed. The various models developed have been validated numerically using a CFD model and experimentally with data from the literature when available. The impact of building substructure on pollutant transfer has been highlighted. A first application of the model is illustrated by their integration into a multizone simulation code to study the impact of these transfers on indoor air quality. Finally, the work ends with the development of a model for designing passive sub slab depressurization systems. The design model developed is validated with in situ experimental data. Preliminary applications using this model focused at first on the impact of meteorological conditions (stack effect, wind) on the sub slab system running. At second, the impact of ventilation strategies on sub slab depressurization performance is studied. Thus, we see the potential interest of this model to test the effective running of passive sub slab depressurization systems in given configuration.
|
5 |
Controverses économiques et environnementales autour des hydrocarbures non conventionnels : les enseignements de la modélisation intégrée / Economic and environmental controversies over unconventional hydrocarbons : lessons from integrated modellingLeblanc, Florian 12 November 2018 (has links)
Sous l’angle des controverses économiques et environnementales autour des hydrocarbures non conventionnels, cette thèse contribue au développement des outils de la modélisation intégrée sous deux aspects : leur capacité à représenter la dynamique de long terme des marchés de l’énergie ; la prise en compte des liens entre l’économie et la dynamique des différents gaz à effet de serre.Dans le premier cas, un jeu de simulations avec le modèle Imaclim-R met en évidence les impacts économiques du gaz et pétrole de schiste à travers (i) les liens entre trajectoires de crois-sance et inerties techniques ; (ii) la conditionnalité des gains de compétitivité des États-Unis aux stratégies implicites ou explicites de ce pays en matière de spécialisation internationale et de régime de change. Au détour de ces simulations nous étudions (α) les processus d’ajustement vers l’équilibre de long terme, en regardant les conditions d’obtention et de convergence des équilibres temporaires du modèle ; (β) les limites de tractabilitéd’une maquette stylisée du modèle reproduisant les mécanismes centraux.Dans le deuxième cas est traitée la question du rôle du méthane à court et long terme dans les stratégies climatiques. L’intégration du modèle réduit du système terrestre Oscar2.2 aumodèle Imaclim-R permet d’apprécier le rôle du méthane dans les coûts de l’atténuation et d’évaluer le risque d’émissions fugitives en tête de puits de gaz de schiste. Les simulations montrent que d’une part, l’avantage économique de la disponibilité en gaz de schiste peut être nuancé au regard du coût induit par ces émissions fugitives. D’autre part, les stratégies climatiques ambitieuses visant à limiter les augmentations de température bien en deçà de 2° voir 1.5°C nécessitent un contrôle plus immédiat des émissions de méthane. / From the perspective of economic and environmental controversies over unconventional oil and gas resources, this thesis contributes to the development of integrated modelling tools intwo aspects : their ability to reflect the long-term dynamics of energy markets ; and the consideration of the links between the economy and the dynamics of the various greenhouse gases.In the first case, a set of simulations with the Imaclim-R model highlights the economic impacts of shale gas and light tight oil through (i) the links between growth paths and technicalinertia ; (ii) the conditionality of US competitiveness gains on implicit or explained strategies ; and (iii) the conditionality of US competitiveness gains on this country implicit or explicit strategies in terms of international specialization and exchange rate regime. In the course of these simulations, we study (α) the adjustment processes towards the long-term equilibrium, looking at the conditions of existence and convergence of the model temporary equilibria ; (β) the tractability limits of a stylized model of Imaclim-R reproducing the main mechanisms.In the second case, the question of the role of methane in short and long term climate strategies is addressed. The integration of the Oscar2.2 Earth System model into the Imaclim-Rmodel is used to assess the role of methane in terms of mitigation costs and to assess the risk of emissions leakage at shale gas wellheads. The simulations show that, on the one hand, theeconomic advantage of shale gas availability can be balanced against the costs induced by these emissions leakage. On the other hand, the ambitous climate strategies aiming at limitingtemperature increases well below 2° or 1.5°C require a more instant control of methane.
|
6 |
Misspecified financial models in a data-rich environmentNokho, Cheikh I. 03 1900 (has links)
En finance, les modèles d’évaluation des actifs tentent de comprendre les différences de rendements observées entre divers actifs. Hansen and Richard (1987) ont montré que ces modèles sont des représentations fonctionnelles du facteur d’actualisation stochastique que les investisseurs utilisent pour déterminer le prix des actifs sur le marché financier. La littérature compte de nombreuses études économétriques qui s’intéressent à leurs estimations et à la comparaison de leurs performances, c’est-à-dire de leur capa- cité à expliquer les différences de rendement observées. Cette thèse, composée de trois articles, contribue à cette littérature.
Le premier article examine l’estimation et la comparaison des modèles d’évaluation des actifs dans un environnement riche en données. Nous mettons en œuvre deux méthodes de régularisation interprétables de la distance de Hansen and Jagannathan (1997, HJ ci-après) dans un contexte où les actifs sont nombreux. Plus précisément, nous introduisons la régularisation de Tikhonov et de Ridge pour stabiliser l’inverse de la matrice de covariance de la distance de HJ. La nouvelle mesure, qui en résulte, peut être interprétée comme la distance entre le facteur d’actualisation d’un modèle et le facteur d’actualisation stochastique valide le plus proche qui évalue les actifs avec des erreurs contrôlées. Ainsi, ces méthodes de régularisation relâchent l’équation fondamentale de l’évaluation des actifs financiers. Aussi, elles incorporent un paramètre de régularisation régissant l’ampleur des erreurs d’évaluation. Par la suite, nous présentons une procédure pour estimer et faire des tests sur les paramètres d’un modèle d’évaluation des actifs financiers avec un facteur d’actualisation linéaire en minimisant la distance de HJ régularisée. De plus, nous obtenons la distribution asymptotique des estimateurs lorsque le nombre d’actifs devient grand. Enfin, nous déterminons la distribution de la distance régularisée pour comparer différents modèles d’évaluation des actifs. Empiriquement, nous estimons et comparons quatre modèles à l’aide d’un ensemble de données comportant 252 portefeuilles.
Le deuxième article estime et compare dix modèles d’évaluation des actifs, à la fois inconditionnels et conditionnels, en utilisant la distance de HJ régularisée et 3 198 portefeuilles s’étendant de juillet 1973 à juin 2018. Ces portefeuilles combinent les portefeuilles bien connus triés par caractéristiques avec des micro-portefeuilles. Les micro-portefeuilles sont formés à l’aide de variables financières mais contiennent peu d’actions (5 à 10), comme indiqué dans Barras (2019). Par conséquent, ils sont analogues aux actions individuelles, offrent une grande variabilité de rendements et améliorent le pouvoir discriminant des portefeuilles classiques triés par caractéristiques. Parmi les modèles considérés, quatre sont des modèles macroéconomiques ou théoriques, dont le modèle de CAPM avec consommation (CCAPM), le modèle de CAPM avec consommation durable (DCAPM) de Yogo (2006), le modèle de CAPM avec capital humain (HCAPM) de Jagannathan and Wang (1996), et le modèle d’évaluation des actifs avec intermédiaires financiers (IAPM) de He, Kelly, and Manela (2017). Cinq modèles basés sur les anomalies sont considérés, tels que les modèles à trois (FF3) et à cinq facteurs (FF5) proposés par Fama and French, 1993 et 2015, le modèle de Carhart (1997) intégrant le facteur Momentum dans FF3, le modèle de liquidité de Pástor and Stambaugh (2003) et le modèle q5 de Hou et al. (2021). Le modèle de consommation de Lettau and Ludvigson (2001) utilisant des données trimestrielles est également estimé. Cependant, il n’est pas inclus dans les comparaisons en raison de la puissance de test réduite. Par rapport aux modèles inconditionnels, les modèles conditionnels tiennent compte des cycles économiques et des fluctuations des marchés financiers en utilisant les indices d’incertitude macroéconomique et financière de Ludvigson, Ma, and Ng (2021). Ces modèles conditionnels ont des erreurs de spécification considérablement réduites. Les analyses comparatives des modèles inconditionnels indiquent que les modèles macroéconomiques présentent globalement les mêmes pouvoirs explicatifs. De plus, ils ont un pouvoir explicatif global inférieur à celui des modèles basés sur les anomalies, à l’exception de FF3. L’augmentation de FF3 avec le facteur Momentum et de liquidité améliore sa capacité explicative. Cependant ce nouveau modèle est inférieur à FF5 et q5. Pour les modèles conditionnels, les modèles macroéconomiques DCAPM et HCAPM surpassent CCAPM et IAPM. En outre, ils ont des erreurs de spécification similaires à celles des modèles conditionnels de Carhart et de liquidité, mais restent en deçà des modèles FF5 et q5. Ce dernier domine tous les autres modèles.
Le troisième article présente une nouvelle approche pour estimer les paramètres du facteur d’actualisation linéaire des modèles d’évaluation d’actifs linéaires mal spécifiés avec de nombreux actifs. Contrairement au premier article de Carrasco and Nokho (2022), cette approche s’applique à la fois aux rendements bruts et excédentaires. La méthode proposée régularise toujours la distance HJ : l’inverse de la matrice de second moment est la matrice de pondération pour les rendements bruts, tandis que pour les rendements excédentaires, c’est l’inverse de la matrice de covariance. Plus précisément, nous dérivons la distribution asymptotique des estimateurs des paramètres du facteur d’actualisation stochastique lorsque le nombre d’actifs augmente. Nous discutons également des considérations pertinentes pour chaque type de rendements et documentons les propriétés d’échantillon fini des estimateurs. Nous constatons qu’à mesure que le nombre d’actifs augmente, l’estimation des paramètres par la régularisation de l’inverse de la matrice de covariance des rendements excédentaires présente un contrôle de taille supérieur par rapport à la régularisation de l’inverse de la matrice de second moment des rendements bruts. Cette supériorité découle de l’instabilité inhérente à la matrice de second moment des rendements bruts. De plus, le rendement brut de l’actif sans risque présente une variabilité minime, ce qui entraîne une colinéarité significative avec d’autres actifs que la régularisation ne parvient pas à atténuer. / In finance, asset pricing models try to understand the differences in expected returns observed among various assets. Hansen and Richard (1987) showed that these models are functional representations of the discount factor investors use to price assets in the financial market. The literature counts many econometric studies that deal with their estimation and the comparison of their performance, i.e., how well they explain the differences in expected returns. This thesis, divided into three chapters, contributes to this literature.
The first paper examines the estimation and comparison of asset pricing models in a data-rich environment. We implement two interpretable regularization schemes to extend the renowned Hansen and Jagannathan (1997, HJ hereafter) distance to a setting with many test assets. Specifically, we introduce Tikhonov and Ridge regularizations to stabilize the inverse of the covariance matrix in the HJ distance. The resulting misspecification measure can be interpreted as the distance between a proposed pricing kernel and the nearest valid stochastic discount factor (SDF) pricing the test assets with controlled errors, relaxing the Fundamental Equation of Asset Pricing. So, these methods incorporate a regularization parameter governing the extent of the pricing errors. Subsequently, we present a procedure to estimate the SDF parameters of a linear asset pricing model by minimizing the regularized distance. The SDF parameters completely define the asset pricing model and determine if a particular observed factor is a priced source of risk in the test assets. In addition, we derive the asymptotic distribution of the estimators when the number of assets and time periods increases. Finally, we derive the distribution of the regularized distance to compare comprehensively different asset pricing models. Empirically, we estimate and compare four empirical asset pricing models using a dataset of 252 portfolios.
The second paper estimates and compares ten asset pricing models, both unconditional and conditional, utilizing the regularized HJ distance and 3198 portfolios spanning July 1973 to June 2018. These portfolios combine the well-known characteristic-sorted portfolios with micro portfolios. The micro portfolios are formed using firms' observed financial characteristics (e.g. size and book-to-market) but contain few stocks (5 to 10), as discussed in Barras (2019). Consequently, they are analogous to individual stocks, offer significant return spread, and improve the discriminatory power of the characteristics-sorted portfolios. Among the models, four are macroeconomic or theoretical models, including the Consumption Capital Asset Pricing Model (CCAPM), Durable Consumption Capital Asset Pricing Model (DCAPM) by Yogo (2006), Human Capital Capital Asset Pricing Model (HCAPM) by Jagannathan and Wang (1996), and Intermediary Asset pricing model (IAPM) by He, Kelly, and Manela (2017). Five anomaly-driven models are considered, such as the three (FF3) and Five-factor (FF5) Models proposed by Fama and French, 1993 and 2015, the Carhart (1997) model incorporating momentum into FF3, the Liquidity Model by Pástor and Stambaugh (2003), and the Augmented q-Factor Model (q5) by Hou et al. (2021). The Consumption model of Lettau and Ludvigson (2001) using quarterly data is also estimated but not included in the comparisons due to the reduced power of the tests. Compared to the unconditional models, the conditional ones account for the economic business cycles and financial market fluctuations by utilizing the macroeconomic and financial uncertainty indices of Ludvigson, Ma, and Ng (2021). These conditional models show significantly reduced pricing errors. Comparative analyses of the unconditional models indicate that the macroeconomic models exhibit similar pricing performances of the returns. In addition, they display lower overall explanatory power than anomaly-driven models, except for FF3. Augmenting FF3 with momentum and liquidity factors enhances its explanatory capability. However, the new model is inferior to FF5 and q5. For the conditional models, the macroeconomic models DCAPM and HCAPM outperform CCAPM and IAPM. Furthermore, they have similar pricing errors as the conditional Carhart and liquidity models but still fall short of the FF5 and q5. The latter dominates all the other models.
This third paper introduces a novel approach for estimating the SDF parameters in misspecified linear asset pricing models with many assets. Unlike the first paper, Carrasco and Nokho (2022), this approach is applicable to both gross and excess returns as test assets. The proposed method still regularizes the HJ distance: the inverse of the second-moment matrix is the weighting matrix for the gross returns, while for excess returns, it is the inverse of the covariance matrix. Specifically, we derive the asymptotic distribution of the SDF estimators under a double asymptotic condition where the number of test assets and time periods go to infinity. We also discuss relevant considerations for each type of return and document the finite sample properties of the SDF estimators with gross and excess returns. We find that as the number of test assets increases, the estimation of the SDF parameters through the regularization of the inverse of the excess returns covariance matrix exhibits superior size control compared to the regularization of the inverse of the gross returns second-moment matrix. This superiority arises from the inherent instability of the second-moment matrix of gross returns. Additionally, the gross return of the risk-free asset shows minimal variability, resulting in significant collinearity with other test assets that the regularization fails to mitigate.
|
Page generated in 0.1197 seconds