• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 235
  • 35
  • 35
  • 23
  • 22
  • 13
  • 8
  • 8
  • 7
  • 7
  • 6
  • 3
  • 3
  • 2
  • 2
  • Tagged with
  • 461
  • 461
  • 211
  • 202
  • 106
  • 81
  • 79
  • 69
  • 61
  • 61
  • 59
  • 55
  • 54
  • 54
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Misspecified financial models in a data-rich environment

Nokho, Cheikh I. 03 1900 (has links)
En finance, les modèles d’évaluation des actifs tentent de comprendre les différences de rendements observées entre divers actifs. Hansen and Richard (1987) ont montré que ces modèles sont des représentations fonctionnelles du facteur d’actualisation stochastique que les investisseurs utilisent pour déterminer le prix des actifs sur le marché financier. La littérature compte de nombreuses études économétriques qui s’intéressent à leurs estimations et à la comparaison de leurs performances, c’est-à-dire de leur capa- cité à expliquer les différences de rendement observées. Cette thèse, composée de trois articles, contribue à cette littérature. Le premier article examine l’estimation et la comparaison des modèles d’évaluation des actifs dans un environnement riche en données. Nous mettons en œuvre deux méthodes de régularisation interprétables de la distance de Hansen and Jagannathan (1997, HJ ci-après) dans un contexte où les actifs sont nombreux. Plus précisément, nous introduisons la régularisation de Tikhonov et de Ridge pour stabiliser l’inverse de la matrice de covariance de la distance de HJ. La nouvelle mesure, qui en résulte, peut être interprétée comme la distance entre le facteur d’actualisation d’un modèle et le facteur d’actualisation stochastique valide le plus proche qui évalue les actifs avec des erreurs contrôlées. Ainsi, ces méthodes de régularisation relâchent l’équation fondamentale de l’évaluation des actifs financiers. Aussi, elles incorporent un paramètre de régularisation régissant l’ampleur des erreurs d’évaluation. Par la suite, nous présentons une procédure pour estimer et faire des tests sur les paramètres d’un modèle d’évaluation des actifs financiers avec un facteur d’actualisation linéaire en minimisant la distance de HJ régularisée. De plus, nous obtenons la distribution asymptotique des estimateurs lorsque le nombre d’actifs devient grand. Enfin, nous déterminons la distribution de la distance régularisée pour comparer différents modèles d’évaluation des actifs. Empiriquement, nous estimons et comparons quatre modèles à l’aide d’un ensemble de données comportant 252 portefeuilles. Le deuxième article estime et compare dix modèles d’évaluation des actifs, à la fois inconditionnels et conditionnels, en utilisant la distance de HJ régularisée et 3 198 portefeuilles s’étendant de juillet 1973 à juin 2018. Ces portefeuilles combinent les portefeuilles bien connus triés par caractéristiques avec des micro-portefeuilles. Les micro-portefeuilles sont formés à l’aide de variables financières mais contiennent peu d’actions (5 à 10), comme indiqué dans Barras (2019). Par conséquent, ils sont analogues aux actions individuelles, offrent une grande variabilité de rendements et améliorent le pouvoir discriminant des portefeuilles classiques triés par caractéristiques. Parmi les modèles considérés, quatre sont des modèles macroéconomiques ou théoriques, dont le modèle de CAPM avec consommation (CCAPM), le modèle de CAPM avec consommation durable (DCAPM) de Yogo (2006), le modèle de CAPM avec capital humain (HCAPM) de Jagannathan and Wang (1996), et le modèle d’évaluation des actifs avec intermédiaires financiers (IAPM) de He, Kelly, and Manela (2017). Cinq modèles basés sur les anomalies sont considérés, tels que les modèles à trois (FF3) et à cinq facteurs (FF5) proposés par Fama and French, 1993 et 2015, le modèle de Carhart (1997) intégrant le facteur Momentum dans FF3, le modèle de liquidité de Pástor and Stambaugh (2003) et le modèle q5 de Hou et al. (2021). Le modèle de consommation de Lettau and Ludvigson (2001) utilisant des données trimestrielles est également estimé. Cependant, il n’est pas inclus dans les comparaisons en raison de la puissance de test réduite. Par rapport aux modèles inconditionnels, les modèles conditionnels tiennent compte des cycles économiques et des fluctuations des marchés financiers en utilisant les indices d’incertitude macroéconomique et financière de Ludvigson, Ma, and Ng (2021). Ces modèles conditionnels ont des erreurs de spécification considérablement réduites. Les analyses comparatives des modèles inconditionnels indiquent que les modèles macroéconomiques présentent globalement les mêmes pouvoirs explicatifs. De plus, ils ont un pouvoir explicatif global inférieur à celui des modèles basés sur les anomalies, à l’exception de FF3. L’augmentation de FF3 avec le facteur Momentum et de liquidité améliore sa capacité explicative. Cependant ce nouveau modèle est inférieur à FF5 et q5. Pour les modèles conditionnels, les modèles macroéconomiques DCAPM et HCAPM surpassent CCAPM et IAPM. En outre, ils ont des erreurs de spécification similaires à celles des modèles conditionnels de Carhart et de liquidité, mais restent en deçà des modèles FF5 et q5. Ce dernier domine tous les autres modèles. Le troisième article présente une nouvelle approche pour estimer les paramètres du facteur d’actualisation linéaire des modèles d’évaluation d’actifs linéaires mal spécifiés avec de nombreux actifs. Contrairement au premier article de Carrasco and Nokho (2022), cette approche s’applique à la fois aux rendements bruts et excédentaires. La méthode proposée régularise toujours la distance HJ : l’inverse de la matrice de second moment est la matrice de pondération pour les rendements bruts, tandis que pour les rendements excédentaires, c’est l’inverse de la matrice de covariance. Plus précisément, nous dérivons la distribution asymptotique des estimateurs des paramètres du facteur d’actualisation stochastique lorsque le nombre d’actifs augmente. Nous discutons également des considérations pertinentes pour chaque type de rendements et documentons les propriétés d’échantillon fini des estimateurs. Nous constatons qu’à mesure que le nombre d’actifs augmente, l’estimation des paramètres par la régularisation de l’inverse de la matrice de covariance des rendements excédentaires présente un contrôle de taille supérieur par rapport à la régularisation de l’inverse de la matrice de second moment des rendements bruts. Cette supériorité découle de l’instabilité inhérente à la matrice de second moment des rendements bruts. De plus, le rendement brut de l’actif sans risque présente une variabilité minime, ce qui entraîne une colinéarité significative avec d’autres actifs que la régularisation ne parvient pas à atténuer. / In finance, asset pricing models try to understand the differences in expected returns observed among various assets. Hansen and Richard (1987) showed that these models are functional representations of the discount factor investors use to price assets in the financial market. The literature counts many econometric studies that deal with their estimation and the comparison of their performance, i.e., how well they explain the differences in expected returns. This thesis, divided into three chapters, contributes to this literature. The first paper examines the estimation and comparison of asset pricing models in a data-rich environment. We implement two interpretable regularization schemes to extend the renowned Hansen and Jagannathan (1997, HJ hereafter) distance to a setting with many test assets. Specifically, we introduce Tikhonov and Ridge regularizations to stabilize the inverse of the covariance matrix in the HJ distance. The resulting misspecification measure can be interpreted as the distance between a proposed pricing kernel and the nearest valid stochastic discount factor (SDF) pricing the test assets with controlled errors, relaxing the Fundamental Equation of Asset Pricing. So, these methods incorporate a regularization parameter governing the extent of the pricing errors. Subsequently, we present a procedure to estimate the SDF parameters of a linear asset pricing model by minimizing the regularized distance. The SDF parameters completely define the asset pricing model and determine if a particular observed factor is a priced source of risk in the test assets. In addition, we derive the asymptotic distribution of the estimators when the number of assets and time periods increases. Finally, we derive the distribution of the regularized distance to compare comprehensively different asset pricing models. Empirically, we estimate and compare four empirical asset pricing models using a dataset of 252 portfolios. The second paper estimates and compares ten asset pricing models, both unconditional and conditional, utilizing the regularized HJ distance and 3198 portfolios spanning July 1973 to June 2018. These portfolios combine the well-known characteristic-sorted portfolios with micro portfolios. The micro portfolios are formed using firms' observed financial characteristics (e.g. size and book-to-market) but contain few stocks (5 to 10), as discussed in Barras (2019). Consequently, they are analogous to individual stocks, offer significant return spread, and improve the discriminatory power of the characteristics-sorted portfolios. Among the models, four are macroeconomic or theoretical models, including the Consumption Capital Asset Pricing Model (CCAPM), Durable Consumption Capital Asset Pricing Model (DCAPM) by Yogo (2006), Human Capital Capital Asset Pricing Model (HCAPM) by Jagannathan and Wang (1996), and Intermediary Asset pricing model (IAPM) by He, Kelly, and Manela (2017). Five anomaly-driven models are considered, such as the three (FF3) and Five-factor (FF5) Models proposed by Fama and French, 1993 and 2015, the Carhart (1997) model incorporating momentum into FF3, the Liquidity Model by Pástor and Stambaugh (2003), and the Augmented q-Factor Model (q5) by Hou et al. (2021). The Consumption model of Lettau and Ludvigson (2001) using quarterly data is also estimated but not included in the comparisons due to the reduced power of the tests. Compared to the unconditional models, the conditional ones account for the economic business cycles and financial market fluctuations by utilizing the macroeconomic and financial uncertainty indices of Ludvigson, Ma, and Ng (2021). These conditional models show significantly reduced pricing errors. Comparative analyses of the unconditional models indicate that the macroeconomic models exhibit similar pricing performances of the returns. In addition, they display lower overall explanatory power than anomaly-driven models, except for FF3. Augmenting FF3 with momentum and liquidity factors enhances its explanatory capability. However, the new model is inferior to FF5 and q5. For the conditional models, the macroeconomic models DCAPM and HCAPM outperform CCAPM and IAPM. Furthermore, they have similar pricing errors as the conditional Carhart and liquidity models but still fall short of the FF5 and q5. The latter dominates all the other models. This third paper introduces a novel approach for estimating the SDF parameters in misspecified linear asset pricing models with many assets. Unlike the first paper, Carrasco and Nokho (2022), this approach is applicable to both gross and excess returns as test assets. The proposed method still regularizes the HJ distance: the inverse of the second-moment matrix is the weighting matrix for the gross returns, while for excess returns, it is the inverse of the covariance matrix. Specifically, we derive the asymptotic distribution of the SDF estimators under a double asymptotic condition where the number of test assets and time periods go to infinity. We also discuss relevant considerations for each type of return and document the finite sample properties of the SDF estimators with gross and excess returns. We find that as the number of test assets increases, the estimation of the SDF parameters through the regularization of the inverse of the excess returns covariance matrix exhibits superior size control compared to the regularization of the inverse of the gross returns second-moment matrix. This superiority arises from the inherent instability of the second-moment matrix of gross returns. Additionally, the gross return of the risk-free asset shows minimal variability, resulting in significant collinearity with other test assets that the regularization fails to mitigate.
432

Can Sentiments of Social Media Participants Reflect by Financial Market Liquidity

Saleemi, Jawad 26 July 2024 (has links)
Tesis por compendio / [ES] Esta tesis doctoral se enmarca en el área de investigación del Departamento de Economía y Ciencias Sociales, y se centra en la perspectiva conductual de la liquidez del mercado. La liquidez que varía en el tiempo y sus problemas relacionados son una de las preocupaciones dominantes en la literatura de microestructura del mercado. El papel crítico de la liquidez del mercado en la ejecución de transacciones o la determinación del rendimiento de la inversión genera inquietudes tanto para académicos como para aquellos que participan en el mercado. Por lo tanto, es necesario desvelar los problemas potenciales que pueden afectar la liquidez del mercado financiero. Esta tesis busca entender la liquidez del mercado y sus problemas relacionados a la luz del comportamiento de los inversores. La perspectiva conductual de la liquidez se examina utilizando información orientada a opiniones en microblogs. La creciente literatura de finanzas conductuales también incluye la autenticidad de los datos de microblogs tanto en la modelización como en la predicción de diversas preocupaciones asociadas con el funcionamiento eficiente de los mercados financieros. Sin embargo, la investigación previa en el ámbito de las finanzas conductuales podría haber pasado por alto algunas implicaciones potenciales de la información orientada a opiniones en microblogs sobre la liquidez del mercado a nivel de mercado y de empresa. Por lo tanto, la tesis pretende ser una aplicación empírica en esta área de investigación. La tesis se lleva a cabo como un compendio de artículos científicos, cuya memoria incluye varios artículos de investigación publicados en revistas indexadas. El primer artículo proporciona información sobre la relación entre el contenido de microblogs y el coste de facilitación de la liquidez. Durante los períodos de negociación, este estudio sugirió que el estado de ánimo de los inversionistas tenía menos influencia en afectar la liquidez que varía en el tiempo y su coste de facilitación. Sin embargo, la información entrante en un día dado fue más influyente para las sesiones de negociación siguientes. Los sentimientos construidos sobre una base de dos días estaban asociados con el costo de facilitación de la liquidez. El segundo articulo aborda las dimensiones de la liquidez del mercado utilizando opiniones de microblogs. Esta investigación reveló que los sentimientos de los inversores en entornos de pesimismo tenían más poder autoritario sobre las dimensiones de la liquidez, incluidos los costes de negociación, la inmediatez de la transacción, la dispersión de precios y el volumen de negociación. Finalmente, el tercer articulo de investigación explora el riesgo sistemático de sentimiento para la liquidez en relación con los datos de microblogs. Este estudio mostró que la liquidez del índice bancario estaba expuesta al riesgo sistemático de sentimiento y liquidez, pero la liquidez del índice de empresas no financieras solo estaba expuesta a un riesgo sistemático de liquidez. Los participantes del mercado impulsados por los sentimientos observados en la plataforma de microblogging pueden no solo influir en la liquidez del mercado, que varía en el tiempo y sus dimensiones, sino que también pueden exponerse al riesgo sistemático para la liquidez dentro de un mercado más amplio. Por lo tanto, se sugiere que la liquidez y sus aspectos relacionados se valoren frente a los problemas de selección adversa en el mercado. Además, la medición de la información entrante en la plataforma de microblogging puede ayudar mejor a los proveedores de liquidez en la construcción de carteras. / [CA] Aquesta tesi doctoral s'emmarca en l'àrea d'investigació del Departament d'Economia i Ciències Socials, i es centra en la perspectiva conductual de la liquiditat del mercat. La liquiditat que varia en el temps i els seus problemes relacionats són una de les preocupacions dominants en la literatura de microestructura del mercat. El paper crític de la liquiditat del mercat en l'execució de transaccions o la determinació del rendiment de la inversió genera inquietuds tant per a acadèmics com per a aquells que participen en el mercat. Per tant, és necessari desvetlar els problemes potencials que poden afectar la liquiditat del mercat financer. Aquesta tesi busca entendre la liquiditat del mercat i els seus problemes relacionats a la llum del comportament dels inversors. La perspectiva conductual de la liquiditat s'examina utilitzant informació orientada a opinions en microblogs. La creixent literatura de finances conductuals també inclou l'autenticitat de les dades de microblogs tant en la modelització com en la predicció de diverses preocupacions associades amb el funcionament eficient dels mercats financers. No obstant això, la recerca prèvia en l'àmbit de les finances conductuals podria haver passat per alt algunes implicacions potencials de la informació orientada a opinions en microblogs sobre la liquiditat del mercat a nivell de mercat i d'empresa. Per tant, la tesi pretén ser una aplicació empírica en aquesta àrea d'investigació. La tesi es duu a terme com a compendi d'articles cientifics, la memòria de la qual inclou diversos articles de recerca publicats en revistes indexades. El primer article proporciona informació sobre la relació entre el contingut de microblogs i el cost de facilitació de la liquiditat. Durant els períodes de negociació, aquest estudi va suggerir que l'estat d'ànim dels inversors tenia menys influència en afectar la liquiditat que varia en el temps i el seu cost de facilitació. No obstant això, la informació entrant en un dia donat era més influent per a les sessions de negociació següents. Els sentiments construïts sobre una base de dos dies estaven associats amb el cost de facilitació de la liquiditat. El segon article aborda les dimensions de la liquiditat del mercat utilitzant opinions de microblogs. Aquesta recerca va revelar que els sentiments dels inversors en entorns de pessimisme tenien més poder autoritari sobre les dimensions de la liquiditat, inclosos els costos de negociació, la immediatesa de la transacció, la dispersió de preus i el volum de negociació. Finalment, el tercer article de recerca explora el risc sistemàtic de sentiment per a la liquiditat en relació amb les dades de microblogs. Aquest estudi va mostrar que la liquiditat de l'índex bancari estava exposada al risc sistemàtic de sentiment i liquiditat, però la liquiditat de l'índex d'empreses no financeres només estava exposada a un risc sistemàtic de liquiditat. Els participants del mercat impulsats pels sentiments observats a la plataforma de microblogging poden no només influir en la liquiditat del mercat, que varia en el temps i les seves dimensions, sinó que també poden exposar-se al risc sistemàtic per a la liquiditat dins d'un mercat més ampli. Per tant, es suggereix que la liquiditat i els seus aspectes relacionats es valoren davant dels problemes de selecció adversa en el mercat. A més, la mesura de la informació entrant a la plataforma de microblogging pot ajudar millor els proveïdors de liquiditat en la construcció de carteres. / [EN] This doctoral dissertation falls in the research area of economic and social sciences department, and focuses on the behavioral perspective of market liquidity. The time-varying liquidity and its related issues are one of the dominant concerns in the market microstructure literature. The critical role of market liquidity in executing the transactions or determining the yield on investment is raising concerns for both academics and those who engage in the trading. There is thus need to unveil the potential issues, that may impact the financial market liquidity. This dissertation seeks to understand market liquidity and its related issues in the light of investors' behavior. The behavioral perspective of liquidity is examined using microblogging-opinionated information. The escalation of behavioral finance literature also comprises the authenticity of microblogging data in both modeling and predicting various concerns associated with the efficient functioning of financial markets. However, previous research in the behavioral finance domain might have ignored a few potential implications of microblogging-opinionated information on market liquidity at the market and firm levels. Therefore, the dissertation aims to be the first empirical attempt in this area of research. The thesis is carried out as a compendium of scientific papers, whose memory includes several research articles published in the indexed journals. The first article provides insights into relationship between microblogging content and liquidity-facilitating cost. During trading periods, this study suggested that investors' mood was less influential in affecting the time-varying liquidity and its providing cost. However, the incoming information on a given day was more influential for following trading sessions. The sentiments built on a two-day basis were associated with the liquidity-facilitating cost. The second article covers the dimensions of market liquidity using microblogging opinions. This research revealed that investor sentiments in environments of pessimism had more authoritative power on liquidity dimensions including the trading costs, transaction immediacy, price dispersion and trading volume. Finally, the third research paper explores the systematic sentiment risk for liquidity in relation to the microblogging data. This study depicted that the bank index liquidity was exposed to the systematic sentiment and liquidity risks, but non-financial firm index liquidity was only exposed to a systematic liquidity risk. The emotion-driven market participants on microblogging platform may not only influence the time-varying market liquidity and its dimensions, but they may also expose to the systematic risk for liquidity withing a broader market. Thus, liquidity and its related aspects are suggested to be priced against the adverse selection issues in the market. Additionally, the measurement of incoming information on microblogging platform may better assist the liquidity providers in the construction of portfolio. / Saleemi, J. (2024). Can Sentiments of Social Media Participants Reflect by Financial Market Liquidity [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/206814 / Compendio
433

Essays on financial markets and the macroeconomy

Mönch, Emanuel 13 December 2006 (has links)
Diese Arbeit besteht aus vier Essays, die empirische und methodische Beiträge zu den Gebieten der Finanzmarktökonomik und der Makroökonomik liefern. Der erste Essay beschäftigt sich mit der Spezifikation der Investoren verfügbaren Informationsmenge in Tests bedingter Kapitalmarktmodelle. Im Speziellen schlägt es die Verwendung dynamischer Faktoren als Instrumente vor. Diese fassen per Konstruktion die Information in einer Vielzahl von Variablen zusammen und stellen daher intuitive Maße für die Investoren zur Verfügung stehenden Informationen dar. Es wird gezeigt, dass so die Schätzfehler bedingter Modelle im Vergleich zu traditionellen, auf einzelnen Indikatoren beruhenden Modellvarianten substantiell verringert werden. Ausgehend von Ergebnissen, dass die Zentralbank zur Festlegung des kurzfristigen Zinssatzes eine große Menge an Informationen berücksichtigt, wird im zweiten Essay im Rahmen eines affinen Zinsstrukturmodells eine ähnliche Idee verwandt. Speziell wird die Dynamik des kurzfristigen Zinses im Rahmen einer Faktor-Vektorautoregression modelliert. Aufbauend auf dieser dynamischen Charakterisierung der Geldpolitik wird dann die Zinsstruktur unter der Annahme fehlender Arbitragemöglichkeiten hergeleitet. Das resultierende Modell liefert bessere Vorhersagen US-amerikanischer Anleihenzinsen als eine Reihe von Vergleichsmodellen. Der dritte Essay analysiert die Vorhersagekraft der Zinsstrukturkomponenten "level", "slope", und "curvature" im Rahmen eines dynamischen Faktormodells für makroökonomische und Zinsdaten. Das Modell wird mit einem Metropolis-within-Gibbs Sampling Verfahren geschätzt, und Überraschungsänderungen der drei Komponenten werden mit Hilfe von Null- und Vorzeichenrestriktionen identifiziert. Die Analyse offenbart, dass der "curvature"-Faktor informativer in Bezug auf die zukünftige Entwicklung der Zinsstruktur und der gesamtwirtschaftlichen Aktivität ist als bislang vermutet. Der vierte Essay legt eine monatliche Chronologie der Konjunkturzyklen im Euro-Raum vor. Zunächst wird mit Hilfe einer verallgemeinerten Interpolationsmethode eine monatliche Zeitreihe des europäischen BIP konstruiert. Anschließend wird auf diese Zeitreihe ein Datierungsverfahren angewandt, das kurze und flache Konjunkturphasen ausschließt. / This thesis consists of four essays of independent interest which make empirical and methodological contributions to the fields of financial economics and macroeconomics. The first essay deals with the proper specification of investors’ information set in tests of conditional asset pricing models. In particular, it advances the use of dynamic factors as conditioning variables. By construction, dynamic factors summarize the information in a large number of variables and are therefore intuitively appealing proxies for the information set available to investors. The essay demonstrates that this approach substantially reduces the pricing errors implied by conditional models with respect to traditional approaches that use individual indicators as instruments. Following previous evidence that the central bank uses a large set of conditioning information when setting short-term interest rates, the second essay employs a similar insight in a model of the term structure of interest rates. Precisely, the dynamics of the short-term interest rate are modelled using a Factor-Augmented Vector-Autoregression. Based on this dynamic characterization of monetary policy, the term structure of interest rates is derived under the assumption of no-arbitrage. The resulting model is shown to provide superior out-of-sample forecasts of US government bond yields with respect to a number of benchmark models. The third essay analyzes the predictive information carried by the yield curve components level, slope, and curvature within a joint dynamic factor model of macroeconomic and interest rate data. The model is estimated using a Metropolis-within-Gibbs sampling approach and unexpected changes of the yield curve components are identified employing a combination of zero and sign restrictions. The analysis reveals that the curvature factor is more informative about the future evolution of the yield curve and of economic activity than has previously been acknowledged. The fourth essay provides a monthly business cycle chronology for the Euro area. A monthly series of Euro area real GDP is constructed using an interpolation routine that nests previously suggested approaches as special cases. Then, a dating routine is applied to the interpolated series which excludes business cycle phases that are short and flat.
434

Tydsberekening binne 'n APT-raamwerk / Market timing in APT framework

Brevis, Tersia, 1967- 06 1900 (has links)
Die studie vergelyk die prestasie van 'n koop-en-hou-strategie met die van 'n tydsberekeningstrategie binne die raamwerk van die arbitrasie-prysbepalingsteorie (APT) op die nywerheidsindeks van die Johannesburgse Aandelebeurs (JA). Die periode van die studie is oor twee tydperke, naamlik Januarie 1970 tot September 1987 en Januarie 1989 tot Junie 1997. Die langtermyntendens van die nywerheidsindeks en APT-faktore is bepaal deur die beste nie-reglynige model vir elke tydreeks te vind. Reglynige meervoudige stapsgewyse regressie-ontleding is gebruik om die bewegings van die nywerheidsindeks rondom die langtermyntendens te voorspel. Die sloeringsreekse van die langtermyntendensresidutelling van die APT-faktore en die sloeringsreekse van die eerste-ordeverskiltelling van die langtermyntendensresidutelling is as moontlike voorspellers gebruik. Gegrond hierop is beslissingslyne ontwik:kel wat gebruik is vir die implementering van 'n tydsberekeningstrategie. Die resultate van die studie is die volgende: • Waar die sloeringsreekse van die langtermyntendensresidutelling van die APTfaktore as moontlike voorspellers gebruik is, is die risiko-aangepaste opbrengskoers van 'n tydsberekeningstrategie 6, 41 persent en 0, 71 persent b6 die van 'n koop-en-hou-strategie vir tydperk een en twee onderskeidelik. • Waar die sloeringsreekse van die eerste-ordeverskiltelling van die langtermyntendensresidutelling van die APT-faktore as moontlike voorspellers gebruik is, is die risiko-aangepaste opbrengskoers van 'n tydsberekeningstrategie 10,40 persent en 1,04 persent b6 die van 'n koop-enhou- strategie vir tydperk een en twee onderskeidelik. Die belangrikste gevolgtrekking van die studie is dat die APT en 'n tydsberekeningstrategie teoreties en prakties versoenbaar is op die JA. Aanbevelings vir toekomstige navorsing is die volgende: ( 1) sistematiese risikofaktore, anders as makro-ekonomiese faktore, behoort identifiseer te word wat die voorspellingswaarde van die faktore in die tweede tydperk van die studie kan verhoog; (2) elke stap van die model wat ontwikkel is, behoort op elke indeks van die JA toegepas te word om die risiko-aangepaste opbrengskoers van 'n tydsberekeningstrategie toegepas op elkeen van die indekse met die van 'n koop-en-hou-strategie te vergelyk; en (3) die invloed van transaksiekoste en dividende op die potensiele voordele van tydsberekening moet bepaal word. / The study compares the performance of a buy-and-hold strategy with that of a markettiming strategy in the framework of the arbitrage pricing theory (APT) applied to the industrial index of the Johannesburg Stock Exchange (JSE). The study period is divided into two parts, namely January 1970 to September 1987 and January 1989 to June 1997. The long-term trend of the industrial index and every APT factor is determined by finding the best nonlinear model for each time series. Linear multiple stepwise regression analysis, with the lagged time series of the long-term trend error terms of the APT factors, is used to forecast the movement of the industrial index around its long-term trend. Decision lines were developed to implement a market-timing strategy. The results of the study are as follows: • Where the lagged time series of the long-term trend error terms of the APT factors were used as possible predictors, the risk-adjusted return of a markettiming strategy was 6, 41 percent and 0, 71 percent higher than that of a buyand- hold strategy for periods one and two respectively. • Where the lagged time series of the first-order difference of the long-term trend error term of the APT factors were used as possible predictors, the riskadjusted return of the market-timing strategy was 10,40 percent and 1,04 percent higher than that of a buy-and-hold strategy for periods one and two respectively. The main conclusion of the study is that the APT and a market-timing strategy are theoretically and practically reconcilable on the JSE. The main recommendations of the study are the following: (1) systematic risk factors, other than macroeconomic factors, should be identified in order to increase the forecasting value of these factors in the second period of the study; (2) each step of the model developed in this study should be repeated on every index of the JSE; and (3) the influence of transaction costs and dividends on the potential benefits of a market-timing strategy should be determined. / Business Management / DCom (Sakebestuur)
435

Political and economic events 1988 to 1998 : their impact on the specification of the nonlinear multifactor asset pricing model described by the arbitrage pricing theory for the financial and industrial sector of the Johannesburg Stock Exchange

Stephanou, Costas Michael 05 1900 (has links)
The impact of political and economic events on the asset pricing model described by the arbitrage pricing theory (APTM) was examined in order to establish if they had caused any changes in its specification. It was concluded that the APTM is not stationary and that it must be continuously tested before it can be used as political and economic events can change its specification. It was also found that political events had a more direct effect on the specification of the APTM, in that their effect is more immediate, than did economic events, which influenced the APTM by first influencing the economic environment in which it operated. The conventional approach that would have evaluated important political and economic events, case by case, to determine whether they affected the linear factor model (LFM), and subsequently the APTM, could not be used since no correlation was found between the pricing of a risk factor in the LFM and its subsequent pricing in the APTM. A new approach was then followed in which a correlation with a political or economic event was sought whenever a change was detected in the specification of the APTM. This was achieved by first finding the best subset LFM, chosen for producing the highest adjusted R2 , month by month, over 87 periods from 20 October1991 to 21 June 1998, using a combination of nine prespecified risk factors (five of which were proxies for economic events and one for political events). Multivariate analysis techniques were then used to establish which risk factors were priced most often during the three equal subperiods into which the 87 periods were broken up. Using the above methodology, the researcher was able to conclude that political events changed the specification of the APTM in late 1991. After the national elections in April 1994 it was found that the acceptance of South Africa into the world economic community had again changed the specification of the APTM and the two most important factors were proxies for economic events. / Business Leadership / DBL
436

Capital market theories and pricing models : evaluation and consolidation of the available body of knowledge

Laubscher, Eugene Rudolph 05 1900 (has links)
The study investigates whether the main capital market theories and pricing models provide a reasonably accurate description of the working and efficiency of capital markets, of the pricing of shares and options and the effect the risk/return relationship has on investor behaviour. The capital market theories and pricing models included in the study are Portfolio Theory, the Efficient Market Hypothesis (EMH), the Capital Asset Pricing Model (CAPM), the Arbitrage Pricing Theory (APT), Options Theory and the BlackScholes (8-S) Option Pricing Model. The main conclusion of the study is that the main capital market theories and pricing models, as reviewed in the study, do provide a reasonably accurate description of reality, but a number of anomalies and controversial issues still need to be resolved. The main recommendation of the study is that research into these theories and models should continue unabated, while the specific recommendations in a South African context are the following: ( 1) the benefits of global diversification for South African investors should continue to be investigated; (2) the level and degree of efficiency of the JSE Securities Exchange SA (JSE) should continue to be monitored, and it should be established whether alternative theories to the EMH provide complementary or better descriptions of the efficiency of the South African market; (3) both the CAPM and the APT should continue to be tested, both individually and jointly, in order to better understand the pricing mechanism of, and risk/return relationship on the JSE; (4) much South African research still needs to be conducted on the efficiency of the relatively new options market and the application of the B-S Option Pricing Model under South African conditions. / Financial Accounting / M. Com. (Accounting)
437

以穩健估計及長期資料分析觀點探討資本資產定價模型 / On the CAPM from the Views of Robustness and Longitudinal Analysis

呂倩如, Lu Chien-ju Unknown Date (has links)
資本資產定價模型 (CAPM) 由Sharp (1964)、Lintner (1965)及Black (1972)發展出後,近年來已被廣泛的應用於衡量證券之預期報酬率與風險間之關係。一般而言,衡量結果之估計有兩個階段,首先由時間序列分析估計出貝它(beta)係數,然後再檢定廠商或投資組合之平均報酬率與貝它係數之關係。 Fama與MacBeth (1973)利用最小平方法估計貝它係數,再將由橫斷面迴歸方法所得出之斜率係數加以平均後,以統計t-test檢定之。然而以最小平方法估計係數,其估計值很容易受離群值之影響,因此本研究考慮以穩健估計 (robust estimator)來避免此一問題。另外,本研究亦將長期資料分析 (longitudinal data analysis) 引入CAPM裡,期望能檢定貝它係數是否能確實有效地衡量出系統性風險。 論文中以台灣股票市場電子業之實證分析來比較上述不同方法對CAPM的結果,資料蒐集期間為1998年9月至2001年12月之月資料。研究結果顯示出,穩健估計相對於最小平方法就CAPM有較佳的解釋力。而長期資料分析模型更用來衡量債券之超額報酬部分,是否會依上、中、下游或公司之不同而不同。 / The Capital Asset Pricing Model (CAPM) of Sharp (1964), Lintner (1965) and Black (1972) has been widely used in measuring the relationship between the expected return on a security and its risk in the recent years. It consists of two stages to estimate the relationship between risk and expected return. The first one is that betas are estimated from time series regressions, and the second is that the relationship between mean returns and betas is tested across firms or portfolios. Fama and MacBeth (1973) first used ordinary least squares (OLS) to estimate beta and took time series averages of the slope coefficients from monthly cross-sectional regressions in such studies. However it is well known that OLS is sensitive to outliers. Therefore, robust estimators are employed to avoid the problems. Furthermore, the longitudinal data analysis is applied to examine whether betas over time and securities are the valid measure of risk in the CAPM. An empirical study is carried out to present the different approaches. We use the data about the Information and Electronic industry in Taiwan stock market during the period from September 1998 to December 2001. For the time series regression analysis, the robust methods lead to more explanatory power than the OLS results. The linear mixed-effect model is used to examine the effects of different streams and companies for the security excess returns in these data.
438

台灣產物保險業之資金成本與費率自由化 / Cost of capital and deregulation in Taiwan property-liability insurance

張孝銓, Chang, Hsiao Chuan Unknown Date (has links)
本研究目的欲探討實施費率自由化第一及第二階段後之情形,即在2006年第二階段實施後,台灣產物保險公司及各險種個別之資金成本,以檢視兩階段自由化實施後是否顯著影響國內產險業。而資金成本為公司每段期間內應支付資金提供者之期望報酬,故以此可做為日後公司經營之參考指標。研究期間為2002年至2008年,分別由一因子模型及多因子模型解釋台灣產物保險業之資金成本,及系統風險(β)的變化是否會影響其資金成本之變動。利用資本資產定價模型(Capital Asset Pricing Model, CAPM)及Fama-French三因子模型(Fama-French Three-Factor Model, FF3F)求得公司資金成本,再透過完備資訊方法(The Full-information Industry Beta Method, FIB)了解不同險種間之系統風險及資金成本。實證結果顯示: 1. 無論在整體產險公司或是不同險種間,由FF3F模型所估計之資金成本均高於由CAPM模型所估計之資金成本。說明CAPM模型無法反映公司規模及財務危機因子(淨值市價比因子)之溢酬,而造成資金成本之低估。 2. 經CAPM模型及FF3F模型之估計,顯示台灣產險業之資金成本均低於國外產險業之資金成本,如美國。說明台灣產險業於資本市場之融資成本較低,造成其資本效率偏低,投資人變相縱容產險公司從事高風險性資產之投資。 本研究由台灣實證資料,顯示現行產險業資金取得成本低,導致其資本效率偏低,且投資人無法由市場資訊檢視其保險本業是否根據成本之考量來定價,故主管機關應於費用完全自由化後,加強產險業經營之監理,導正產險市場經營模式,避免因核保循環(underwriting cycle)而影響公司財務穩健。 關鍵詞:費率自由化、資金成本、資本資產定價模型、Fama-French三因子模型、完備資訊方法。
439

Trois essais en économie des ressources naturelles

Atewamba, Calvin 05 1900 (has links)
Cette thèse est composée de trois articles en économie des ressources naturelles non-renouvelables. Nous considérons tour à tour les questions suivantes : le prix in-situ des ressources naturelles non-renouvelables ; le taux d’extraction optimal et le prix des res- sources non-renouvelables et durables. Dans le premier article, nous estimons le prix in-situ des ressources naturelles non-renouvelables en utilisant les données sur le coût moyen d’extraction pour obtenir une approximation du coût marginal. En utilisant la Méthode des Moments Généralisés, une dynamique du prix de marché derivée des conditions d’optimalité du modèle d’Hotelling est estimée avec des données de panel de 14 ressources naturelles non-renouvelables. Nous trouvons des résultats qui tendent à soutenir le modèle. Premièrement, le modèle d’Hotelling exhibe un bon pouvoir explicatif du prix de marché observé. Deuxièmement, bien que le prix estimé présente un changement structurel dans le temps, ceci semble n’avoir aucun impact significatif sur le pouvoir explicatif du modèle. Troisièmement, on ne peut pas rejeter l’hypothèse que le coût marginal d’extraction puisse être approximé par les données sur le coût moyen. Quatrièmement, le prix in-situ estimé en prenant en compte les changements structurels décroît ou exhibe une forme en U inversé dans le temps et semble être corrélé positivement avec le prix de marché. Cinquièmement, pour neuf des quatorze ressources, la différence entre le prix in-situ estimé avec changements structurels et celui estimé en négligeant les changements structurels est un processus de moyenne nulle. Dans le deuxième article, nous testons l’existence d’un équilibre dans lequel le taux d’extraction optimal des ressources non-renouvelables est linéaire par rapport au stock de ressource en terre. Tout d’abord, nous considérons un modèle d’Hotelling avec une fonction de demande variant dans le temps caractérisée par une élasticité prix constante et une fonction de coût d’extraction variant dans le temps caractérisée par des élasticités constantes par rapport au taux d’extraction et au stock de ressource. Ensuite, nous mon- trons qu’il existe un équilibre dans lequel le taux d’extraction optimal est proportionnel au stock de ressource si et seulement si le taux d’actualisation et les paramètres des fonctions de demande et de coût d’extraction satisfont une relation bien précise. Enfin, nous utilisons les données de panel de quatorze ressources non-renouvelables pour vérifier empiriquement cette relation. Dans le cas où les paramètres du modèle sont supposés invariants dans le temps, nous trouvons qu’on ne peut rejeter la relation que pour six des quatorze ressources. Cependant, ce résultat change lorsque nous prenons en compte le changement structurel dans le temps des prix des ressources. En fait, dans ce cas nous trouvons que la relation est rejetée pour toutes les quatorze ressources. Dans le troisième article, nous étudions l’évolution du prix d’une ressource naturelle non-renouvelable dans le cas où cette ressource est durable, c’est-à-dire qu’une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non-renouvelable détenu en terre, qui ne procure aucun service productif ; un stock de ressource détenu hors terre, qui procure un flux de services productifs ; un stock d’un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d’une obligation dont le rendement est donné. Les productivités du secteur de production du bien composite et du secteur de l’extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l’on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d’Hotelling élémentaire et qu’aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique. / This thesis consists of three articles on the economics of nonrenewable natural re- sources. We consider in turn the following questions : the in-situ price of nonrenewable natural resources, the optimal extraction rate and the price of nonrenewable and durable resources. The purpose of the first article is to estimate the in-situ price of nonrenewable natural resources using average extraction cost data as proxy for marginal cost. Using the regime switching Generalized Method of Moments (GMM) estimation technique, a dynamic of the market price derived from the first-order conditions of a Hotelling model is estimated with panel data for fourteen nonrenewable resources. I find results that tend to support the model. First, it appears that the Hotelling model has a good explanatory power of the observed market prices. Second, although the fitted prices seem to be subject to structural breaks over time, this does not have a significant impact on the explanatory power of the model. Third, there is evidence that marginal extraction cost can be approximated by average extraction cost data. Fourth, when allowing for structural breaks, estimates of the in-situ price decrease or exhibit an inverted U-shape over time and appear to be positively correlated with the market price. Fifth, for nine of the fourteen minerals, the difference between the estimates of the in-situ price with and without allowing for structural breaks is a zero-mean process.
440

Choix de portefeuille de grande taille et mesures de risque pour preneurs de décision pessimistes

Noumon, Codjo Nérée Gildas Maxime 08 1900 (has links)
Cette thèse de doctorat consiste en trois chapitres qui traitent des sujets de choix de portefeuilles de grande taille, et de mesure de risque. Le premier chapitre traite du problème d’erreur d’estimation dans les portefeuilles de grande taille, et utilise le cadre d'analyse moyenne-variance. Le second chapitre explore l'importance du risque de devise pour les portefeuilles d'actifs domestiques, et étudie les liens entre la stabilité des poids de portefeuille de grande taille et le risque de devise. Pour finir, sous l'hypothèse que le preneur de décision est pessimiste, le troisième chapitre dérive la prime de risque, une mesure du pessimisme, et propose une méthodologie pour estimer les mesures dérivées. Le premier chapitre améliore le choix optimal de portefeuille dans le cadre du principe moyenne-variance de Markowitz (1952). Ceci est motivé par les résultats très décevants obtenus, lorsque la moyenne et la variance sont remplacées par leurs estimations empiriques. Ce problème est amplifié lorsque le nombre d’actifs est grand et que la matrice de covariance empirique est singulière ou presque singulière. Dans ce chapitre, nous examinons quatre techniques de régularisation pour stabiliser l’inverse de la matrice de covariance: le ridge, spectral cut-off, Landweber-Fridman et LARS Lasso. Ces méthodes font chacune intervenir un paramètre d’ajustement, qui doit être sélectionné. La contribution principale de cette partie, est de dériver une méthode basée uniquement sur les données pour sélectionner le paramètre de régularisation de manière optimale, i.e. pour minimiser la perte espérée d’utilité. Précisément, un critère de validation croisée qui prend une même forme pour les quatre méthodes de régularisation est dérivé. Les règles régularisées obtenues sont alors comparées à la règle utilisant directement les données et à la stratégie naïve 1/N, selon leur perte espérée d’utilité et leur ratio de Sharpe. Ces performances sont mesurée dans l’échantillon (in-sample) et hors-échantillon (out-of-sample) en considérant différentes tailles d’échantillon et nombre d’actifs. Des simulations et de l’illustration empirique menées, il ressort principalement que la régularisation de la matrice de covariance améliore de manière significative la règle de Markowitz basée sur les données, et donne de meilleurs résultats que le portefeuille naïf, surtout dans les cas le problème d’erreur d’estimation est très sévère. Dans le second chapitre, nous investiguons dans quelle mesure, les portefeuilles optimaux et stables d'actifs domestiques, peuvent réduire ou éliminer le risque de devise. Pour cela nous utilisons des rendements mensuelles de 48 industries américaines, au cours de la période 1976-2008. Pour résoudre les problèmes d'instabilité inhérents aux portefeuilles de grandes tailles, nous adoptons la méthode de régularisation spectral cut-off. Ceci aboutit à une famille de portefeuilles optimaux et stables, en permettant aux investisseurs de choisir différents pourcentages des composantes principales (ou dégrées de stabilité). Nos tests empiriques sont basés sur un modèle International d'évaluation d'actifs financiers (IAPM). Dans ce modèle, le risque de devise est décomposé en deux facteurs représentant les devises des pays industrialisés d'une part, et celles des pays émergents d'autres part. Nos résultats indiquent que le risque de devise est primé et varie à travers le temps pour les portefeuilles stables de risque minimum. De plus ces stratégies conduisent à une réduction significative de l'exposition au risque de change, tandis que la contribution de la prime risque de change reste en moyenne inchangée. Les poids de portefeuille optimaux sont une alternative aux poids de capitalisation boursière. Par conséquent ce chapitre complète la littérature selon laquelle la prime de risque est importante au niveau de l'industrie et au niveau national dans la plupart des pays. Dans le dernier chapitre, nous dérivons une mesure de la prime de risque pour des préférences dépendent du rang et proposons une mesure du degré de pessimisme, étant donné une fonction de distorsion. Les mesures introduites généralisent la mesure de prime de risque dérivée dans le cadre de la théorie de l'utilité espérée, qui est fréquemment violée aussi bien dans des situations expérimentales que dans des situations réelles. Dans la grande famille des préférences considérées, une attention particulière est accordée à la CVaR (valeur à risque conditionnelle). Cette dernière mesure de risque est de plus en plus utilisée pour la construction de portefeuilles et est préconisée pour compléter la VaR (valeur à risque) utilisée depuis 1996 par le comité de Bâle. De plus, nous fournissons le cadre statistique nécessaire pour faire de l’inférence sur les mesures proposées. Pour finir, les propriétés des estimateurs proposés sont évaluées à travers une étude Monte-Carlo, et une illustration empirique en utilisant les rendements journaliers du marché boursier américain sur de la période 2000-2011. / This thesis consists of three chapters on the topics of portfolio choice in a high-dimensional context, and risk measurement. The first chapter addresses the estimation error issue that arises when constructing large portfolios in the mean-variance framework. The second chapter investigates the relevance of currency risk for optimal domestic portfolios, evaluates their ability of to diversify away currency risk, and study the links between portfolio weights stability and currency risk. Finally, under the assumption that decision makers are pessimistic, the third chapter derives the risk premium, propose a measure of the degree of pessimism, and provide a statistical framework for their estimation. The first chapter improves the performance of the optimal portfolio weig-hts obtained under the mean-variance framework of Markowitz (1952). Indeed, these weights give unsatisfactory results, when the mean and variance are replaced by their sample counterparts (plug-in rules). This problem is amplified when the number of assets is large and the sample covariance is singular or nearly singular. The chapter investigates four regularization techniques to stabilizing the inverse of the covariance matrix: the ridge, spectral cut-off, Landweber-Fridman, and LARS Lasso. These four methods involve a tuning parameter that needs to be selected. The main contribution is to derive a data-based method for selecting the tuning parameter in an optimal way, i.e. in order to minimize the expected loss in utility of a mean-variance investor. The cross-validation type criterion derived is found to take a similar form for the four regularization methods. The resulting regularized rules are compared to the sample-based mean-variance portfolio and the naive 1/N strategy in terms of in-sample and out-of-sample Sharpe ratio and expected loss in utility. The main finding is that regularization to covariance matrix significantly improves the performance of the mean-variance problem and outperforms the naive portfolio, especially in ill-posed cases, as suggested by our simulations and empirical studies. In the second chapter, we investigate the extent to which optimal and stable portfolios of domestic assets can reduce or eliminate currency risk. This is done using monthly returns on 48 U.S. industries, from 1976 to 2008. To tackle the instabilities inherent to large portfolios, we use the spectral cut-off regularization described in Chapter 1. This gives rise to a family of stable global minimum portfolios that allows investors to select different percentages of principal components for portfolio construction. Our empirical tests are based on a conditional International Asset Pricing Model (IAPM), augmented with the size and book-to-market factors of Fama and French (1993). Using two trade-weighted currency indices of industrialized countries currencies and emerging markets currencies, we find that currency risk is priced and time-varying for global minimum portfolios. These strategies also lead to a significant reduction in the exposure to currency risk, while keeping the average premium contribution to total premium approximately the same. The global minimum weights considered are an alternative to market capitalization weights used in the U.S. market index. Therefore, our findings complement the well established results that currency risk is significantly priced and economically meaningful at the industry and country level in most countries. Finally, the third chapter derives a measure of the risk premium for rank-dependent preferences and proposes a measure of the degree of pessimism, given a distortion function. The introduced measures generalize the common risk measures derived in the expected utility theory framework, which is frequently violated in both experimental and real-life situations. These measures are derived in the neighborhood of a given random loss variable, using the notion of local utility function. A particular interest is devoted to the CVaR, which is now widely used for asset allocation and has been advocated to complement the Value-at-risk (VaR) proposed since 1996 by the Basel Committee on Banking Supervision. We provide the statistical framework needed to conduct inference on the derived measures. Finally, the proposed estimators

Page generated in 0.1343 seconds