• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 9
  • 2
  • 1
  • Tagged with
  • 25
  • 25
  • 10
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Regularized Jackknife estimation with many instruments

Doukali, Mohamed 10 1900 (has links)
No description available.
22

Inférence statistique en grande dimension pour des modèles structurels. Modèles linéaires généralisés parcimonieux, méthode PLS et polynômes orthogonaux et détection de communautés dans des graphes. / Statistical inference for structural models in high dimension. Sparse generalized linear models, PLS through orthogonal polynomials and community detection in graphs

Blazere, Melanie 01 July 2015 (has links)
Cette thèse s'inscrit dans le cadre de l'analyse statistique de données en grande dimension. Nous avons en effet aujourd'hui accès à un nombre toujours plus important d'information. L'enjeu majeur repose alors sur notre capacité à explorer de vastes quantités de données et à en inférer notamment les structures de dépendance. L'objet de cette thèse est d'étudier et d'apporter des garanties théoriques à certaines méthodes d'estimation de structures de dépendance de données en grande dimension.La première partie de la thèse est consacrée à l'étude de modèles parcimonieux et aux méthodes de type Lasso. Après avoir présenté les résultats importants sur ce sujet dans le chapitre 1, nous généralisons le cas gaussien à des modèles exponentiels généraux. La contribution majeure à cette partie est présentée dans le chapitre 2 et consiste en l'établissement d'inégalités oracles pour une procédure Group Lasso appliquée aux modèles linéaires généralisés. Ces résultats montrent les bonnes performances de cet estimateur sous certaines conditions sur le modèle et sont illustrés dans le cas du modèle Poissonien. Dans la deuxième partie de la thèse, nous revenons au modèle de régression linéaire, toujours en grande dimension mais l'hypothèse de parcimonie est cette fois remplacée par l'existence d'une structure de faible dimension sous-jacente aux données. Nous nous penchons dans cette partie plus particulièrement sur la méthode PLS qui cherche à trouver une décomposition optimale des prédicteurs étant donné un vecteur réponse. Nous rappelons les fondements de la méthode dans le chapitre 3. La contribution majeure à cette partie consiste en l'établissement pour la PLS d'une expression analytique explicite de la structure de dépendance liant les prédicteurs à la réponse. Les deux chapitres suivants illustrent la puissance de cette formule aux travers de nouveaux résultats théoriques sur la PLS . Dans une troisième et dernière partie, nous nous intéressons à la modélisation de structures au travers de graphes et plus particulièrement à la détection de communautés. Après avoir dressé un état de l'art du sujet, nous portons notre attention sur une méthode en particulier connue sous le nom de spectral clustering et qui permet de partitionner les noeuds d'un graphe en se basant sur une matrice de similarité. Nous proposons dans cette thèse une adaptation de cette méthode basée sur l'utilisation d'une pénalité de type l1. Nous illustrons notre méthode sur des simulations. / This thesis falls within the context of high-dimensional data analysis. Nowadays we have access to an increasing amount of information. The major challenge relies on our ability to explore a huge amount of data and to infer their dependency structures.The purpose of this thesis is to study and provide theoretical guarantees to some specific methods that aim at estimating dependency structures for high-dimensional data. The first part of the thesis is devoted to the study of sparse models through Lasso-type methods. In Chapter 1, we present the main results on this topic and then we generalize the Gaussian case to any distribution from the exponential family. The major contribution to this field is presented in Chapter 2 and consists in oracle inequalities for a Group Lasso procedure applied to generalized linear models. These results show that this estimator achieves good performances under some specific conditions on the model. We illustrate this part by considering the case of the Poisson model. The second part concerns linear regression in high dimension but the sparsity assumptions is replaced by a low dimensional structure underlying the data. We focus in particular on the PLS method that attempts to find an optimal decomposition of the predictors given a response. We recall the main idea in Chapter 3. The major contribution to this part consists in a new explicit analytical expression of the dependency structure that links the predictors to the response. The next two chapters illustrate the power of this formula by emphasising new theoretical results for PLS. The third and last part is dedicated to graphs modelling and especially to community detection. After presenting the main trends on this topic, we draw our attention to Spectral Clustering that allows to cluster nodes of a graph with respect to a similarity matrix. In this thesis, we suggest an alternative to this method by considering a $l_1$ penalty. We illustrate this method through simulations.
23

Metody akustické holografie v blízkém poli v prostředí LabVIEW / Near-field acoustical holography methods in LabVIEW environment

Majvald, František January 2021 (has links)
Near-field acoustical holography is a standard method for sound source visualization and localization. In this thesis, commonly used and newly published near-field acoustic holography methods are introduced and analysed. In addition, regularization methods are presented together with finding options of optimal regularization parameter. Based on theory, a LabVIEW library is built containing four implemented near-field acoustical holography algorithms and two regularization methods. To verify the correctness of implementations, a testing application has been made. This application allows testing of implemented algorithms with simulated or experimentally measured data. The correctness of implementation is verified, and algorithms are compared to each other with respect to accuracy and speed of calculation.
24

Misspecified financial models in a data-rich environment

Nokho, Cheikh I. 03 1900 (has links)
En finance, les modèles d’évaluation des actifs tentent de comprendre les différences de rendements observées entre divers actifs. Hansen and Richard (1987) ont montré que ces modèles sont des représentations fonctionnelles du facteur d’actualisation stochastique que les investisseurs utilisent pour déterminer le prix des actifs sur le marché financier. La littérature compte de nombreuses études économétriques qui s’intéressent à leurs estimations et à la comparaison de leurs performances, c’est-à-dire de leur capa- cité à expliquer les différences de rendement observées. Cette thèse, composée de trois articles, contribue à cette littérature. Le premier article examine l’estimation et la comparaison des modèles d’évaluation des actifs dans un environnement riche en données. Nous mettons en œuvre deux méthodes de régularisation interprétables de la distance de Hansen and Jagannathan (1997, HJ ci-après) dans un contexte où les actifs sont nombreux. Plus précisément, nous introduisons la régularisation de Tikhonov et de Ridge pour stabiliser l’inverse de la matrice de covariance de la distance de HJ. La nouvelle mesure, qui en résulte, peut être interprétée comme la distance entre le facteur d’actualisation d’un modèle et le facteur d’actualisation stochastique valide le plus proche qui évalue les actifs avec des erreurs contrôlées. Ainsi, ces méthodes de régularisation relâchent l’équation fondamentale de l’évaluation des actifs financiers. Aussi, elles incorporent un paramètre de régularisation régissant l’ampleur des erreurs d’évaluation. Par la suite, nous présentons une procédure pour estimer et faire des tests sur les paramètres d’un modèle d’évaluation des actifs financiers avec un facteur d’actualisation linéaire en minimisant la distance de HJ régularisée. De plus, nous obtenons la distribution asymptotique des estimateurs lorsque le nombre d’actifs devient grand. Enfin, nous déterminons la distribution de la distance régularisée pour comparer différents modèles d’évaluation des actifs. Empiriquement, nous estimons et comparons quatre modèles à l’aide d’un ensemble de données comportant 252 portefeuilles. Le deuxième article estime et compare dix modèles d’évaluation des actifs, à la fois inconditionnels et conditionnels, en utilisant la distance de HJ régularisée et 3 198 portefeuilles s’étendant de juillet 1973 à juin 2018. Ces portefeuilles combinent les portefeuilles bien connus triés par caractéristiques avec des micro-portefeuilles. Les micro-portefeuilles sont formés à l’aide de variables financières mais contiennent peu d’actions (5 à 10), comme indiqué dans Barras (2019). Par conséquent, ils sont analogues aux actions individuelles, offrent une grande variabilité de rendements et améliorent le pouvoir discriminant des portefeuilles classiques triés par caractéristiques. Parmi les modèles considérés, quatre sont des modèles macroéconomiques ou théoriques, dont le modèle de CAPM avec consommation (CCAPM), le modèle de CAPM avec consommation durable (DCAPM) de Yogo (2006), le modèle de CAPM avec capital humain (HCAPM) de Jagannathan and Wang (1996), et le modèle d’évaluation des actifs avec intermédiaires financiers (IAPM) de He, Kelly, and Manela (2017). Cinq modèles basés sur les anomalies sont considérés, tels que les modèles à trois (FF3) et à cinq facteurs (FF5) proposés par Fama and French, 1993 et 2015, le modèle de Carhart (1997) intégrant le facteur Momentum dans FF3, le modèle de liquidité de Pástor and Stambaugh (2003) et le modèle q5 de Hou et al. (2021). Le modèle de consommation de Lettau and Ludvigson (2001) utilisant des données trimestrielles est également estimé. Cependant, il n’est pas inclus dans les comparaisons en raison de la puissance de test réduite. Par rapport aux modèles inconditionnels, les modèles conditionnels tiennent compte des cycles économiques et des fluctuations des marchés financiers en utilisant les indices d’incertitude macroéconomique et financière de Ludvigson, Ma, and Ng (2021). Ces modèles conditionnels ont des erreurs de spécification considérablement réduites. Les analyses comparatives des modèles inconditionnels indiquent que les modèles macroéconomiques présentent globalement les mêmes pouvoirs explicatifs. De plus, ils ont un pouvoir explicatif global inférieur à celui des modèles basés sur les anomalies, à l’exception de FF3. L’augmentation de FF3 avec le facteur Momentum et de liquidité améliore sa capacité explicative. Cependant ce nouveau modèle est inférieur à FF5 et q5. Pour les modèles conditionnels, les modèles macroéconomiques DCAPM et HCAPM surpassent CCAPM et IAPM. En outre, ils ont des erreurs de spécification similaires à celles des modèles conditionnels de Carhart et de liquidité, mais restent en deçà des modèles FF5 et q5. Ce dernier domine tous les autres modèles. Le troisième article présente une nouvelle approche pour estimer les paramètres du facteur d’actualisation linéaire des modèles d’évaluation d’actifs linéaires mal spécifiés avec de nombreux actifs. Contrairement au premier article de Carrasco and Nokho (2022), cette approche s’applique à la fois aux rendements bruts et excédentaires. La méthode proposée régularise toujours la distance HJ : l’inverse de la matrice de second moment est la matrice de pondération pour les rendements bruts, tandis que pour les rendements excédentaires, c’est l’inverse de la matrice de covariance. Plus précisément, nous dérivons la distribution asymptotique des estimateurs des paramètres du facteur d’actualisation stochastique lorsque le nombre d’actifs augmente. Nous discutons également des considérations pertinentes pour chaque type de rendements et documentons les propriétés d’échantillon fini des estimateurs. Nous constatons qu’à mesure que le nombre d’actifs augmente, l’estimation des paramètres par la régularisation de l’inverse de la matrice de covariance des rendements excédentaires présente un contrôle de taille supérieur par rapport à la régularisation de l’inverse de la matrice de second moment des rendements bruts. Cette supériorité découle de l’instabilité inhérente à la matrice de second moment des rendements bruts. De plus, le rendement brut de l’actif sans risque présente une variabilité minime, ce qui entraîne une colinéarité significative avec d’autres actifs que la régularisation ne parvient pas à atténuer. / In finance, asset pricing models try to understand the differences in expected returns observed among various assets. Hansen and Richard (1987) showed that these models are functional representations of the discount factor investors use to price assets in the financial market. The literature counts many econometric studies that deal with their estimation and the comparison of their performance, i.e., how well they explain the differences in expected returns. This thesis, divided into three chapters, contributes to this literature. The first paper examines the estimation and comparison of asset pricing models in a data-rich environment. We implement two interpretable regularization schemes to extend the renowned Hansen and Jagannathan (1997, HJ hereafter) distance to a setting with many test assets. Specifically, we introduce Tikhonov and Ridge regularizations to stabilize the inverse of the covariance matrix in the HJ distance. The resulting misspecification measure can be interpreted as the distance between a proposed pricing kernel and the nearest valid stochastic discount factor (SDF) pricing the test assets with controlled errors, relaxing the Fundamental Equation of Asset Pricing. So, these methods incorporate a regularization parameter governing the extent of the pricing errors. Subsequently, we present a procedure to estimate the SDF parameters of a linear asset pricing model by minimizing the regularized distance. The SDF parameters completely define the asset pricing model and determine if a particular observed factor is a priced source of risk in the test assets. In addition, we derive the asymptotic distribution of the estimators when the number of assets and time periods increases. Finally, we derive the distribution of the regularized distance to compare comprehensively different asset pricing models. Empirically, we estimate and compare four empirical asset pricing models using a dataset of 252 portfolios. The second paper estimates and compares ten asset pricing models, both unconditional and conditional, utilizing the regularized HJ distance and 3198 portfolios spanning July 1973 to June 2018. These portfolios combine the well-known characteristic-sorted portfolios with micro portfolios. The micro portfolios are formed using firms' observed financial characteristics (e.g. size and book-to-market) but contain few stocks (5 to 10), as discussed in Barras (2019). Consequently, they are analogous to individual stocks, offer significant return spread, and improve the discriminatory power of the characteristics-sorted portfolios. Among the models, four are macroeconomic or theoretical models, including the Consumption Capital Asset Pricing Model (CCAPM), Durable Consumption Capital Asset Pricing Model (DCAPM) by Yogo (2006), Human Capital Capital Asset Pricing Model (HCAPM) by Jagannathan and Wang (1996), and Intermediary Asset pricing model (IAPM) by He, Kelly, and Manela (2017). Five anomaly-driven models are considered, such as the three (FF3) and Five-factor (FF5) Models proposed by Fama and French, 1993 and 2015, the Carhart (1997) model incorporating momentum into FF3, the Liquidity Model by Pástor and Stambaugh (2003), and the Augmented q-Factor Model (q5) by Hou et al. (2021). The Consumption model of Lettau and Ludvigson (2001) using quarterly data is also estimated but not included in the comparisons due to the reduced power of the tests. Compared to the unconditional models, the conditional ones account for the economic business cycles and financial market fluctuations by utilizing the macroeconomic and financial uncertainty indices of Ludvigson, Ma, and Ng (2021). These conditional models show significantly reduced pricing errors. Comparative analyses of the unconditional models indicate that the macroeconomic models exhibit similar pricing performances of the returns. In addition, they display lower overall explanatory power than anomaly-driven models, except for FF3. Augmenting FF3 with momentum and liquidity factors enhances its explanatory capability. However, the new model is inferior to FF5 and q5. For the conditional models, the macroeconomic models DCAPM and HCAPM outperform CCAPM and IAPM. Furthermore, they have similar pricing errors as the conditional Carhart and liquidity models but still fall short of the FF5 and q5. The latter dominates all the other models. This third paper introduces a novel approach for estimating the SDF parameters in misspecified linear asset pricing models with many assets. Unlike the first paper, Carrasco and Nokho (2022), this approach is applicable to both gross and excess returns as test assets. The proposed method still regularizes the HJ distance: the inverse of the second-moment matrix is the weighting matrix for the gross returns, while for excess returns, it is the inverse of the covariance matrix. Specifically, we derive the asymptotic distribution of the SDF estimators under a double asymptotic condition where the number of test assets and time periods go to infinity. We also discuss relevant considerations for each type of return and document the finite sample properties of the SDF estimators with gross and excess returns. We find that as the number of test assets increases, the estimation of the SDF parameters through the regularization of the inverse of the excess returns covariance matrix exhibits superior size control compared to the regularization of the inverse of the gross returns second-moment matrix. This superiority arises from the inherent instability of the second-moment matrix of gross returns. Additionally, the gross return of the risk-free asset shows minimal variability, resulting in significant collinearity with other test assets that the regularization fails to mitigate.
25

Essays in dynamic panel data models and labor supply

Nayihouba, Kolobadia Ada 08 1900 (has links)
Cette thèse est organisée en trois chapitres. Les deux premiers proposent une approche régularisée pour l’estimation du modèle de données de panel dynamique : l’estimateur GMM et l’estimateur LIML. Le dernier chapitre de la thèse est une application de la méthode de régularisation à l’estimation des élasticités de l’offre de travail en utilisant des modèles de pseudo-données de panel. Dans un modèle de panel dynamique, le nombre de conditions de moments augmente rapidement avec la dimension temporelle du panel conduisant à une matrice de covariance des instruments de grande dimension. L’inversion d’une telle matrice pour calculer l’estimateur affecte négativement les propriétés de l’estimateur en échantillon fini. Comme solution à ce problème, nous proposons une approche par la régularisation qui consiste à utiliser une inverse généralisée de la matrice de covariance au lieu de son inverse classique. Trois techniques de régularisation sont utilisées : celle des composantes principales, celle de Tikhonov qui est basée sur le Ridge régression (aussi appelée Bayesian shrinkage) et enfin celle de Landweber Fridman qui est une méthode itérative. Toutes ces techniques introduisent un paramètre de régularisation qui est similaire au paramètre de lissage dans les régressions non paramétriques. Les propriétés en echantillon fini de l’estimateur régularisé dépend de ce paramètre qui doit être sélectionné parmis plusieurs valeurs potentielles. Dans le premier chapitre (co-écrit avec Marine Carrasco), nous proposons l’estimateur GMM régularisé du modèle de panel dynamique. Sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini, nous montrons que nos estimateurs sont convergents and assymtotiquement normaux. Nous dérivons une méthode empirique de sélection du paramètrede régularisation basée sur une expansion de second ordre du l’erreur quadratique moyenne et nous démontrons l’optimalité de cette procédure de sélection. Les simulations montrent que la régularisation améliore les propriétés de l ’estimateur GMM classique. Comme application empirique, nous avons analysé l’effet du développement financier sur la croissance économique. Dans le deuxième chapitre (co-écrit avec Marine Carrasco), nous nous intéressons à l’estimateur LIML régularisé du modèle de données de panel dynamique. L’estimateur LIML est connu pour avoir de meilleures propriétés en échantillon fini que l’estimateur GMM mais son utilisation devient problématique lorsque la dimension temporelle du panel devient large. Nous dérivons les propriétes assymtotiques de l’estimateur LIML régularisé sous l’hypothèse que le nombre d’individus et de périodes du panel tendent vers l’infini. Une procédure empirique de sélection du paramètre de régularisation est aussi proposée. Les bonnes performances de l’estimateur régularisé par rapport au LIML classique (non régularisé), au GMM classique ainsi que le GMM régularisé sont confirmées par des simulations. Dans le dernier chapitre, je considère l’estimation des élasticités d’offre de travail des hommes canadiens. L’hétérogéneité inobservée ainsi que les erreurs de mesures sur les salaires et les revenus sont connues pour engendrer de l’endogéneité quand on estime les modèles d’offre de travail. Une solution fréquente à ce problème d’endogéneité consiste à régrouper les données sur la base des carastéristiques observables et d’ éffectuer les moindres carrées pondérées sur les moyennes des goupes. Il a été démontré que cet estimateur est équivalent à l’estimateur des variables instrumentales sur les données individuelles avec les indicatrices de groupe comme instruments. Donc, en présence d’un grand nombre de groupe, cet estimateur souffre de biais en échantillon fini similaire à celui de l’estimateur des variables instrumentales quand le nombre d’instruments est élevé. Profitant de cette correspondance entre l’estimateur sur les données groupées et l’estimateur des variables instrumentales sur les données individuelles, nous proposons une approche régularisée à l’estimation du modèle. Cette approche conduit à des élasticités substantiellement différentes de ceux qu’on obtient en utilisant l’estimateur sur données groupées. / This thesis is organized in three chapters. The first two chapters propose a regularization approach to the estimation of two estimators of the dynamic panel data model : the Generalized Method of Moment (GMM) estimator and the Limited Information Maximum Likelihood (LIML) estimator. The last chapter of the thesis is an application of regularization to the estimation of labor supply elasticities using pseudo panel data models. In a dynamic panel data model, the number of moment conditions increases rapidly with the time dimension, resulting in a large dimensional covariance matrix of the instruments. Inverting this large dimensional matrix to compute the estimator leads to poor finite sample properties. To address this issue, we propose a regularization approach to the estimation of such models where a generalized inverse of the covariance matrix of the intruments is used instead of its usual inverse. Three regularization schemes are used : Principal components, Tikhonov which is based on Ridge regression (also called Bayesian shrinkage) and finally Landweber Fridman which is an iterative method. All these methods involve a regularization parameter which is similar to the smoothing parameter in nonparametric regressions. The finite sample properties of the regularized estimator depends on this parameter which needs to be selected between many potential values. In the first chapter (co-authored with Marine Carrasco), we propose the regularized GMM estimator of the dynamic panel data models. Under double asymptotics, we show that our regularized estimators are consistent and asymptotically normal provided that the regularization parameter goes to zero slower than the sample size goes to infinity. We derive a data driven selection of the regularization parameter based on an approximation of the higher-order Mean Square Error and show its optimality. The simulations confirm that regularization improves the properties of the usual GMM estimator. As empirical application, we investigate the effect of financial development on economic growth. In the second chapter (co-authored with Marine Carrasco), we propose the regularized LIML estimator of the dynamic panel data model. The LIML estimator is known to have better small sample properties than the GMM estimator but its implementation becomes problematic when the time dimension of the panel becomes large. We derive the asymptotic properties of the regularized LIML under double asymptotics. A data-driven procedure to select the parameter of regularization is proposed. The good performances of the regularized LIML estimator over the usual (not regularized) LIML estimator, the usual GMM estimator and the regularized GMM estimator are confirmed by the simulations. In the last chapter, I consider the estimation of the labor supply elasticities of Canadian men through a regularization approach. Unobserved heterogeneity and measurement errors on wage and income variables are known to cause endogeneity issues in the estimation of labor supply models. A popular solution to the endogeneity issue is to group data in categories based on observable characteristics and compute the weighted least squares at the group level. This grouping estimator has been proved to be equivalent to instrumental variables (IV) estimator on the individual level data using group dummies as intruments. Hence, in presence of large number of groups, the grouping estimator exhibites a small bias similar to the one of the IV estimator in presence of many instruments. I take advantage of the correspondance between grouping estimators and the IV estimator to propose a regularization approach to the estimation of the model. Using this approach leads to wage elasticities that are substantially different from those obtained through grouping estimators.

Page generated in 0.0804 seconds