• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 2
  • Tagged with
  • 6
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

MODÉLISATION DU COMPORTEMENT, DE L'ENDOMMAGEMENT ET DE LA RUPTURE DE MATÉRIAUX COMPOSITES À RENFORTS TISSÉS POUR LE DIMENSIONNEMENT ROBUSTE DE STRUCTURES

Marcin, Lionel 29 January 2010 (has links) (PDF)
De par leur bonne tenue à l'impact, les matériaux composites tissés sont de bons candidats pour la conception de pièces aéronautiques. Toutefois, le manque de confiance dans les modèles se traduit par de lourdes campagnes expérimentales. L'augmentation de la part de simulation numérique et donc la réduction des coûts de certification passent par le développement d'outils permettant de dimensionner au plus juste les structures composites tissées à matrice organique (CMO) ou céramique (CMC). C'est dans ce cadre que s'inscrit cette thèse. Les formulations proposées par l'Onera afin de décrire l'effet de l'endommagement matriciel ont été adaptées et étendues pour prendre en compte les spécificités des matériaux de notre étude, en particulier la viscosité pour les CMO. Des essais sur pièces génériques ont été simulés et confrontés à l'expérience dans le but d'évaluer la pertinence des modèles développés. Ces comparaisons en partie validantes ont mis en évidence les limites des modèles dans le cadre de l'analyse de la tenue d'une structure présentant un gradient de contrainte. Afin d'améliorer les prévisions des simulations, les effets de la rupture progressive ont été pris en compte dans les formulations. Pour s'affranchir de la localisation numérique de l'endommagement, une approche originale de régularisation couplant modélisation non locale de l'endommagement et taux d'endommagement limité a été développée. Les confrontations essai/calcul ont mis en évidence l'apport d'une modélisation plus fine des mécanismes d'endommagement et de rupture sur l'étude de la tenue de la structure. Compte tenu des nombreuses sources d'incertitudes, quelle confiance accorder à la simulation ? Pour répondre à cette question, l'effet des incertitudes sur des quantités d'intérêts (contrainte à rupture) a été évalué. Par ailleurs, une analyse de sensibilité (décomposition de variance) a été entreprise pour l'étude de faisabilité d'une démarche de capitalisation. Dans l'optique d'une démarche d'analyse de la tolérance aux défauts, l'efficacité de notre approche à traiter diverses singularités (taille, forme) est démontrée. Enfin, les limites de la modélisation macroscopique sont discutées.
2

Modélisation du comportement, de l'endommagement et de la rupture de matériaux composites à renforts tissés pour le dimensionnement robuste de structures

Marcin, Lionel 29 January 2010 (has links)
De par leur bonne tenue à l’impact, les matériaux composites tissés sont de bons candidats pour la conception de pièces aéronautiques. Toutefois, le manque de confiance dans les modèles se traduit par de lourdes campagnes expérimentales. L’augmentation de la part de simulation numérique et donc la réduction des coûts de certification passent par le développement d’outils permettant de dimensionner au plus juste les structures composites tissées à matrice organique (CMO) ou céramique (CMC). C’est dans ce cadre que s’inscrit cette thèse. Les formulations proposées par l’Onera a?n de décrire l’e?et de l’endommagement matriciel ont été adaptées et étendues pour prendre en compte les spéci?cités des matériaux de notre étude, en particulier la viscosité pour les CMO. Des essais sur pièces génériques ont été simulés et confrontés à l’expérience dans le but d’évaluer la pertinence des modèles développés. Ces comparaisons en partie validantes ont mis en évidence les limites des modèles dans le cadre de l’analyse de la tenue d’une structure présentant un gradient de contrainte. A?n d’améliorer les prévisions des simulations, les effets de la rupture progressive ont été pris en compte dans les formulations. Pour s’affranchir de la localisation numérique de l’endommagement, une approche originale de régularisation couplant modélisation non locale de l’endommagement et taux d’endommagement limité a été développée. Les confrontations essai/calcul ont mis en évidence l’apport d’une modélisation plus ?ne des mécanismes d’endommagement et de rupture sur l’étude de la tenue de la structure. Compte tenu des nombreuses sources d’incertitudes, quelle confiance accorder à la simulation ? Pour répondre à cette question, l’effet des incertitudes sur des quantités d’intérêts (contrainte à rupture) a été évalué. Par ailleurs, une analyse de sensibilité (décomposition de variance) a été entreprise pour l’étude de faisabilité d’une démarche de capitalisation. Dans l’optique d’une démarche d’analyse de la tolérance aux défauts, l’efficacité de notre approche à traiter diverses singularités (taille, forme) est démontrée. En?n, les limites de la modélisation macroscopique sont discutées. / Due to their high specific properties, the use of woven composite materials has become an important commercial issue in the aeronautical applications. However, the lack of confidence in classic simulation tools used for design and conception of new structures leads to huge experimental campaigns. The increase of simulations and so the decrease of certification costs requires tools development allowing a more accurate design of woven composite structures with polymer (PMC) or ceramic matrix (CMC). This present thesis is focused on that point. The current formulations are extensions of the damage approach developed at Onera to describe matrix damage. Particularly, the nonlinearity due to viscosity for PMC is taken into account. Various structural tests on generic parts has been simulated and compared to experimental results in order to evaluate the efficiency of the models. The simulations are in good agreement with the experiments except for structure with high stress gradient. In order to improve the simulations accuracy, the effect of progressive failures are introduced. To avoid the numerical problems such as damage localization or mesh sensitivity associated with the softening behavior, an original method coupling delay effect and non local approach is proposed. A good agreement between experimental and finite element calcultion results was shown. Given many uncertainties, how much can the simulation be trusted ? In order to answer this question, the influence of uncertainties on given quantities of interest (stress failure for example) has been evaluated. Moreover, a sensivity analysis has been performed for the study of an experiment capitalisation approach. In the prospect of a reliable damage tolerance analysis, the efficiency of our approach to deal with various singularities (size, form) is shown. The limits of a macroscopic modelling are ?nally discussed.
3

Modèles déformables 2-D et 3-D : application à la segmentation d'images médicales

Cohen, Isaac 03 June 1992 (has links) (PDF)
La segmentation d'images à l'aide des modèles déformables permet d'imposer des contraintes globales aux contours détectés. La résolution des équations aux dérivées partielles caractérisant les courbes et les surfaces déformables est faite à l'aide d'une méthode d'éléments finis conformes. Cette méthode plus élaborée, permet une détection des points de contour 2-D et 3-D plus précise et une réduction de la complexité algorithmique par rapport à la méthode des différences finies. Le modèle de courbes déformables a permis d'établir une première segmentation d'images 3-D ainsi qu'un suivi de structures dans des images spatio-temporelles. Ce suivi global a été complété par un suivi ponctuel des contours à l'aide d'une description explicite de la mise en correspondance basée sur les caractéristiques géométriques de la courbe et la régularité du champ de déplacement. Nous proposons également une méthode de détermination des paramètres de régularisation à partir de la géométrie de la surface (ou de la courbe) et des données. Cette méthode permet d'imposer implicitement des discontinuités de position et de tangente aux modèles déformables 2-D et 3-D. L'ensemble des modèles proposés est illustré par des expérimentations sur des images synthétiques et médicales.
4

Modélisation directe et inverse de la dispersion atmosphérique en milieux complexes

Ben Salem, Nabil 17 September 2014 (has links)
La modélisation inverse de la dispersion atmosphérique consiste à reconstruire les caractéristiques d’une source (quantité de polluants rejetée, position) à partir de mesures de concentration dans l’air, en utilisant un modèle direct de dispersion et un algorithme d’inversion. Nous avons utilisé dans cette étude deux modèles directs de dispersion atmosphérique SIRANE (Soulhac, 2000; Soulhac et al., 2011) et SIRANERISK (Cierco et Soulhac, 2009a; Lamaison et al., 2011a, 2011b). Il s’agit de deux modèles opérationnels de « réseau des rues », basés sur le calcul du bilan de masse à différents niveaux du réseau. Leur concept permet de décrire correctement les différents phénomènes physiques de dispersion et de transport de la pollution atmosphérique dans des réseaux urbains complexes. L’étude de validation de ces deux modèles directs de dispersion a été effectuée après avoir évalué la fiabilité des paramétrages adoptés pour simuler les échanges verticaux entre la canopée et l'atmosphère, les transferts aux intersections de rues et la canalisation de l’écoulement à l’intérieur du réseau de rues. Pour cela, nous avons utilisé des mesures en soufflerie effectuées dans plusieurs configurations académiques. Nous avons développé au cours de cette thèse un système de modélisation inverse de dispersion atmosphérique (nommé ReWind) qui consiste à déterminer les caractéristiques d’une source de polluant (débit, position) à partir des concentrations mesurées, en résolvant numériquement le système matriciel linéaire qui relie le vecteur des débits au vecteur des concentrations. La fiabilité des résultats et l’optimisation des temps de calcul d’inversion sont assurées par le couplage de plusieurs méthodes mathématiques de résolution et d’optimisation, bien adaptées pour traiter le cas des problèmes mal posés. L’étude de sensibilité de cet algorithme d’inversion à certains paramètres d’entrée (comme les conditions météorologiques, les positions des récepteurs,…) a été effectuée en utilisant des observations synthétiques (fictives) fournies par le modèle direct de dispersion atmosphérique. La spécificité des travaux entrepris dans le cadre de ce travail a consisté à appliquer ReWind dans des configurations complexes de quartier urbain, et à utiliser toute la variabilité turbulente des mesures expérimentales obtenues en soufflerie pour qualifier ses performances à reconstruire les paramètres sources dans des conditions représentatives de situations de crise en milieu urbain ou industriel. L’application de l’approche inverse en utilisant des signaux instantanés de concentration mesurés en soufflerie plutôt que des valeurs moyennes, a montré que le modèle ReWind fournit des résultats d’inversion qui sont globalement satisfaisants et particulièrement encourageants en termes de reproduction de la quantité de masse totale de polluant rejetée dans l’atmosphère. Cependant, l’algorithme présente quelques difficultés pour estimer à la fois le débit et la position de la source dans certains cas. En effet, les résultats de l’inversion sont assez influencés par le critère de recherche (d’optimisation), le nombre de récepteurs impactés par le panache, la qualité des observations et la fiabilité du modèle direct de dispersion atmosphérique. / The aim of this study is to develop an inverse atmospheric dispersion model for crisis management in urban areas and industrial sites. The inverse modes allows for the reconstruction of the characteristics of a pollutant source (emission rate, position) from concentration measurements, by combining a direct dispersion model and an inversion algorithm, and assuming as known both site topography and meteorological conditions. The direct models used in these study, named SIRANE and SIRANERISK, are both operational "street network" models. These are based on the decomposition of the urban atmosphere into two sub-domains: the urban boundary layer and the urban canopy, represented as a series of interconnected boxes. Parametric laws govern the mass exchanges between the boxes under the assumption that the pollutant dispersion within the canopy can be fully simulated by modelling three main bulk transfer phenomena: channelling along street axes, transfers at street intersections and vertical exchange between a street canyon and the overlying atmosphere. The first part of this study is devoted to a detailed validation of these direct models in order to test the parameterisations implemented in them. This is achieved by comparing their outputs with wind tunnel experiments of the dispersion of steady and unsteady pollutant releases in idealised urban geometries. In the second part we use these models and experiments to test the performances of an inversion algorithm, named REWind. The specificity of this work is twofold. The first concerns the application of the inversion algorithm - using as input data instantaneous concentration signals registered at fixed receptors and not only time-averaged or ensemble averaged concentrations. - in urban like geometries, using an operational urban dispersion model as direct model. The application of the inverse approach by using instantaneous concentration signals rather than the averaged concentrations showed that the ReWind model generally provides reliable estimates of the total pollutant mass discharged at the source. However, the algorithm has some difficulties in estimating both emission rate and position of the source. We also show that the performances of the inversion algorithm are significantly influenced by the cost function used to the optimization, the number of receptors and the parameterizations adopted in the direct atmospheric dispersion model.
5

Etude de l’influence de l’entrée artérielle tumorale par modélisation numérique et in vitro en imagerie de contraste ultrasonore. : application clinique pour l’évaluation des thérapies ciblées en cancérologie / In vitro assessment of the arterial input function influence on dynamic contrast-enhanced ultrasonography microvascularization parameter measurements using numerical modeling. : clinical impact on treatment evaluations in oncology

Gauthier, Marianne 05 December 2011 (has links)
L’échographie dynamique de contraste (DCE-US) est actuellement proposée comme technique d’imagerie fonctionnelle permettant d’évaluer les nouvelles thérapies anti-angiogéniques. Dans ce contexte, L'UPRES EA 4040, Université Paris-Sud 11, et le service d'Echographie de l'Institut Gustave Roussy ont développé une méthodologie permettant de calculer automatiquement, à partir de la courbe de prise de contraste moyenne obtenue dans la tumeur après injection en bolus d’un agent de contraste, un ensemble de paramètres semi-quantitatifs. Actuellement, l’état hémodynamique du patient ou encore les conditions d’injection du produit de contraste ne sont pas pris en compte dans le calcul de ces paramètres à l’inverse d’autres modalités (imagerie par résonance magnétique dynamique de contraste ou scanner de perfusion). L’objectif de cette thèse était donc d’étendre la méthode de déconvolution utilisée en routine dans les autres modalités d’imagerie à l’échographie de contraste. Celle-ci permet de s’affranchir des conditions citées précédemment en déconvoluant la courbe de prise de contraste issue de la tumeur par la fonction d’entrée artérielle, donnant ainsi accès aux paramètres quantitatifs flux sanguin, volume sanguin et temps de transit moyen. Mon travail de recherche s’est alors articulé autour de trois axes. Le premier visait à développer la méthode de quantification par déconvolution dédiée à l’échographie de contraste, avec l’élaboration d’un outil méthodologique suivie de l’évaluation de son apport sur la variabilité des paramètres de la microvascularisation. Des évaluations comparatives de variabilité intra-opérateur ont alors mis en évidence une diminution drastique des coefficients de variation des paramètres de la microvascularisation de 30% à 13% avec la méthode de déconvolution. Le deuxième axe était centré sur l’étude des sources de variabilité influençant les paramètres de la microvascularisation portant à la fois sur les conditions expérimentales et sur les conditions physiologiques de la tumeur. Enfin, le dernier axe a reposé sur une étude rétrospective menée sur 12 patients pour lesquels nous avons évalué l’intérêt de la déconvolution en comparant l’évolution des paramètres quantitatifs et semi-quantitatifs de la microvascularisation en fonction des réponses des tumeurs obtenues par les critères RECIST à partir d’un scan effectué à 2 mois. Cette méthodologie est prometteuse et peut permettre à terme une évaluation plus robuste et précoce des thérapies anti-angiogéniques que les méthodologies actuellement utilisées en routine dans le cadre des examens DCE-US. / Dynamic contrast-enhanced ultrasonography (DCE-US) is currently used as a functional imaging technique for evaluating anti-angiogenic therapies. A mathematical model has been developed by the UPRES EA 4040, Paris-Sud university and the Gustave Roussy Institute to evaluate semi-quantitative microvascularization parameters directly from time-intensity curves. But DCE-US evaluation of such parameters does not yet take into account physiological variations of the patient or even the way the contrast agent is injected as opposed to other functional modalities (dynamic magnetic resonance imaging or perfusion scintigraphy). The aim of my PhD was to develop a deconvolution process dedicated to the DCE-US imaging, which is currently used as a routine method in other imaging modalities. Such a process would allow access to quantitatively-defined microvascularization parameters since it would provide absolute evaluation of the tumor blood flow, the tumor blood volume and the mean transit time. This PhD has been led according to three main goals. First, we developed a deconvolution method involving the creation of a quantification tool and validation through studies of the microvascularization parameter variability. Evaluation and comparison of intra-operator variabilities demonstrated a decrease in the coefficients of variation from 30% to 13% when microvascularization parameters were extracted using the deconvolution process. Secondly, we evaluated sources of variation that influence microvascularization parameters concerning both the experimental conditions and the physiological conditions of the tumor. Finally, we performed a retrospective study involving 12 patients for whom we evaluated the benefit of the deconvolution process: we compared the evolution of the quantitative and semi-quantitative microvascularization parameters based on tumor responses evaluated by the RECIST criteria obtained through a scan performed after 2 months. Deconvolution is a promising process that may allow an earlier, more robust evaluation of anti-angiogenic treatments than the DCE-US method in current clinical use.
6

Misspecified financial models in a data-rich environment

Nokho, Cheikh I. 03 1900 (has links)
En finance, les modèles d’évaluation des actifs tentent de comprendre les différences de rendements observées entre divers actifs. Hansen and Richard (1987) ont montré que ces modèles sont des représentations fonctionnelles du facteur d’actualisation stochastique que les investisseurs utilisent pour déterminer le prix des actifs sur le marché financier. La littérature compte de nombreuses études économétriques qui s’intéressent à leurs estimations et à la comparaison de leurs performances, c’est-à-dire de leur capa- cité à expliquer les différences de rendement observées. Cette thèse, composée de trois articles, contribue à cette littérature. Le premier article examine l’estimation et la comparaison des modèles d’évaluation des actifs dans un environnement riche en données. Nous mettons en œuvre deux méthodes de régularisation interprétables de la distance de Hansen and Jagannathan (1997, HJ ci-après) dans un contexte où les actifs sont nombreux. Plus précisément, nous introduisons la régularisation de Tikhonov et de Ridge pour stabiliser l’inverse de la matrice de covariance de la distance de HJ. La nouvelle mesure, qui en résulte, peut être interprétée comme la distance entre le facteur d’actualisation d’un modèle et le facteur d’actualisation stochastique valide le plus proche qui évalue les actifs avec des erreurs contrôlées. Ainsi, ces méthodes de régularisation relâchent l’équation fondamentale de l’évaluation des actifs financiers. Aussi, elles incorporent un paramètre de régularisation régissant l’ampleur des erreurs d’évaluation. Par la suite, nous présentons une procédure pour estimer et faire des tests sur les paramètres d’un modèle d’évaluation des actifs financiers avec un facteur d’actualisation linéaire en minimisant la distance de HJ régularisée. De plus, nous obtenons la distribution asymptotique des estimateurs lorsque le nombre d’actifs devient grand. Enfin, nous déterminons la distribution de la distance régularisée pour comparer différents modèles d’évaluation des actifs. Empiriquement, nous estimons et comparons quatre modèles à l’aide d’un ensemble de données comportant 252 portefeuilles. Le deuxième article estime et compare dix modèles d’évaluation des actifs, à la fois inconditionnels et conditionnels, en utilisant la distance de HJ régularisée et 3 198 portefeuilles s’étendant de juillet 1973 à juin 2018. Ces portefeuilles combinent les portefeuilles bien connus triés par caractéristiques avec des micro-portefeuilles. Les micro-portefeuilles sont formés à l’aide de variables financières mais contiennent peu d’actions (5 à 10), comme indiqué dans Barras (2019). Par conséquent, ils sont analogues aux actions individuelles, offrent une grande variabilité de rendements et améliorent le pouvoir discriminant des portefeuilles classiques triés par caractéristiques. Parmi les modèles considérés, quatre sont des modèles macroéconomiques ou théoriques, dont le modèle de CAPM avec consommation (CCAPM), le modèle de CAPM avec consommation durable (DCAPM) de Yogo (2006), le modèle de CAPM avec capital humain (HCAPM) de Jagannathan and Wang (1996), et le modèle d’évaluation des actifs avec intermédiaires financiers (IAPM) de He, Kelly, and Manela (2017). Cinq modèles basés sur les anomalies sont considérés, tels que les modèles à trois (FF3) et à cinq facteurs (FF5) proposés par Fama and French, 1993 et 2015, le modèle de Carhart (1997) intégrant le facteur Momentum dans FF3, le modèle de liquidité de Pástor and Stambaugh (2003) et le modèle q5 de Hou et al. (2021). Le modèle de consommation de Lettau and Ludvigson (2001) utilisant des données trimestrielles est également estimé. Cependant, il n’est pas inclus dans les comparaisons en raison de la puissance de test réduite. Par rapport aux modèles inconditionnels, les modèles conditionnels tiennent compte des cycles économiques et des fluctuations des marchés financiers en utilisant les indices d’incertitude macroéconomique et financière de Ludvigson, Ma, and Ng (2021). Ces modèles conditionnels ont des erreurs de spécification considérablement réduites. Les analyses comparatives des modèles inconditionnels indiquent que les modèles macroéconomiques présentent globalement les mêmes pouvoirs explicatifs. De plus, ils ont un pouvoir explicatif global inférieur à celui des modèles basés sur les anomalies, à l’exception de FF3. L’augmentation de FF3 avec le facteur Momentum et de liquidité améliore sa capacité explicative. Cependant ce nouveau modèle est inférieur à FF5 et q5. Pour les modèles conditionnels, les modèles macroéconomiques DCAPM et HCAPM surpassent CCAPM et IAPM. En outre, ils ont des erreurs de spécification similaires à celles des modèles conditionnels de Carhart et de liquidité, mais restent en deçà des modèles FF5 et q5. Ce dernier domine tous les autres modèles. Le troisième article présente une nouvelle approche pour estimer les paramètres du facteur d’actualisation linéaire des modèles d’évaluation d’actifs linéaires mal spécifiés avec de nombreux actifs. Contrairement au premier article de Carrasco and Nokho (2022), cette approche s’applique à la fois aux rendements bruts et excédentaires. La méthode proposée régularise toujours la distance HJ : l’inverse de la matrice de second moment est la matrice de pondération pour les rendements bruts, tandis que pour les rendements excédentaires, c’est l’inverse de la matrice de covariance. Plus précisément, nous dérivons la distribution asymptotique des estimateurs des paramètres du facteur d’actualisation stochastique lorsque le nombre d’actifs augmente. Nous discutons également des considérations pertinentes pour chaque type de rendements et documentons les propriétés d’échantillon fini des estimateurs. Nous constatons qu’à mesure que le nombre d’actifs augmente, l’estimation des paramètres par la régularisation de l’inverse de la matrice de covariance des rendements excédentaires présente un contrôle de taille supérieur par rapport à la régularisation de l’inverse de la matrice de second moment des rendements bruts. Cette supériorité découle de l’instabilité inhérente à la matrice de second moment des rendements bruts. De plus, le rendement brut de l’actif sans risque présente une variabilité minime, ce qui entraîne une colinéarité significative avec d’autres actifs que la régularisation ne parvient pas à atténuer. / In finance, asset pricing models try to understand the differences in expected returns observed among various assets. Hansen and Richard (1987) showed that these models are functional representations of the discount factor investors use to price assets in the financial market. The literature counts many econometric studies that deal with their estimation and the comparison of their performance, i.e., how well they explain the differences in expected returns. This thesis, divided into three chapters, contributes to this literature. The first paper examines the estimation and comparison of asset pricing models in a data-rich environment. We implement two interpretable regularization schemes to extend the renowned Hansen and Jagannathan (1997, HJ hereafter) distance to a setting with many test assets. Specifically, we introduce Tikhonov and Ridge regularizations to stabilize the inverse of the covariance matrix in the HJ distance. The resulting misspecification measure can be interpreted as the distance between a proposed pricing kernel and the nearest valid stochastic discount factor (SDF) pricing the test assets with controlled errors, relaxing the Fundamental Equation of Asset Pricing. So, these methods incorporate a regularization parameter governing the extent of the pricing errors. Subsequently, we present a procedure to estimate the SDF parameters of a linear asset pricing model by minimizing the regularized distance. The SDF parameters completely define the asset pricing model and determine if a particular observed factor is a priced source of risk in the test assets. In addition, we derive the asymptotic distribution of the estimators when the number of assets and time periods increases. Finally, we derive the distribution of the regularized distance to compare comprehensively different asset pricing models. Empirically, we estimate and compare four empirical asset pricing models using a dataset of 252 portfolios. The second paper estimates and compares ten asset pricing models, both unconditional and conditional, utilizing the regularized HJ distance and 3198 portfolios spanning July 1973 to June 2018. These portfolios combine the well-known characteristic-sorted portfolios with micro portfolios. The micro portfolios are formed using firms' observed financial characteristics (e.g. size and book-to-market) but contain few stocks (5 to 10), as discussed in Barras (2019). Consequently, they are analogous to individual stocks, offer significant return spread, and improve the discriminatory power of the characteristics-sorted portfolios. Among the models, four are macroeconomic or theoretical models, including the Consumption Capital Asset Pricing Model (CCAPM), Durable Consumption Capital Asset Pricing Model (DCAPM) by Yogo (2006), Human Capital Capital Asset Pricing Model (HCAPM) by Jagannathan and Wang (1996), and Intermediary Asset pricing model (IAPM) by He, Kelly, and Manela (2017). Five anomaly-driven models are considered, such as the three (FF3) and Five-factor (FF5) Models proposed by Fama and French, 1993 and 2015, the Carhart (1997) model incorporating momentum into FF3, the Liquidity Model by Pástor and Stambaugh (2003), and the Augmented q-Factor Model (q5) by Hou et al. (2021). The Consumption model of Lettau and Ludvigson (2001) using quarterly data is also estimated but not included in the comparisons due to the reduced power of the tests. Compared to the unconditional models, the conditional ones account for the economic business cycles and financial market fluctuations by utilizing the macroeconomic and financial uncertainty indices of Ludvigson, Ma, and Ng (2021). These conditional models show significantly reduced pricing errors. Comparative analyses of the unconditional models indicate that the macroeconomic models exhibit similar pricing performances of the returns. In addition, they display lower overall explanatory power than anomaly-driven models, except for FF3. Augmenting FF3 with momentum and liquidity factors enhances its explanatory capability. However, the new model is inferior to FF5 and q5. For the conditional models, the macroeconomic models DCAPM and HCAPM outperform CCAPM and IAPM. Furthermore, they have similar pricing errors as the conditional Carhart and liquidity models but still fall short of the FF5 and q5. The latter dominates all the other models. This third paper introduces a novel approach for estimating the SDF parameters in misspecified linear asset pricing models with many assets. Unlike the first paper, Carrasco and Nokho (2022), this approach is applicable to both gross and excess returns as test assets. The proposed method still regularizes the HJ distance: the inverse of the second-moment matrix is the weighting matrix for the gross returns, while for excess returns, it is the inverse of the covariance matrix. Specifically, we derive the asymptotic distribution of the SDF estimators under a double asymptotic condition where the number of test assets and time periods go to infinity. We also discuss relevant considerations for each type of return and document the finite sample properties of the SDF estimators with gross and excess returns. We find that as the number of test assets increases, the estimation of the SDF parameters through the regularization of the inverse of the excess returns covariance matrix exhibits superior size control compared to the regularization of the inverse of the gross returns second-moment matrix. This superiority arises from the inherent instability of the second-moment matrix of gross returns. Additionally, the gross return of the risk-free asset shows minimal variability, resulting in significant collinearity with other test assets that the regularization fails to mitigate.

Page generated in 0.1308 seconds