• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 11
  • Tagged with
  • 46
  • 46
  • 19
  • 14
  • 12
  • 11
  • 11
  • 11
  • 10
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

LA POLITIQUE MONETAIRE A TAUX ZERO ET SES IMPLICATIONS SUR LES MARCHES FINANCIERS: LE CAS DE LA BANQUE DU JAPON

Soumare, Ibrahima 21 December 2009 (has links) (PDF)
L'importance de la limite zéro sur les taux d'intérêt nominaux à court terme pour la conduite de la plolitique monétaire a constitué l'un des débats les plus importants pour les autorités monétaires à la fin des années 90 au Japon et récemment aux Etats-Unis. L'expérience récente du Japon aussi bien que les niveaux bas des taux d'intérêt du Système de Fédéral Réserve, de la Banque Centrale Européenne et de la Banque d'Angleterre ont alimenté le débat sur l'efficacité de la politique monétaire lorsque l'instrument de taux de la banque centrale atteint la limite zéro. Cette thèse a pour objectif d'analyser l'influence de la politique monétaire lorsque les taux d'intérêt sont contraints à la limite zéro. Face à une menace de déflation, la banque centrale n'est pour autant pas démunie, même si son taux directeur a déjà été abaissé à un niveau proche de la limite zéro. De nombreux travaux de recherche récents, théoriques et empiriques, suscités notamment par les débats de politique économique autour de la "décennie perdue" japonaise montrent que les banques centrales peuvent mettre en œuvre un éventail de mesures dites non conventionnelles de politique monétaire pour conjurer la menace d'une crise de liquidités.
22

Performances des entreprises cotées et perspectives de croissance économique : cas de la bourse régionale des valeurs mobilières de l'Afrique de l'Ouest

Zogning Nguimeya, Joseph Félix January 2009 (has links) (PDF)
Les pays africains de la zone franc ont entrepris, il y a maintenant deux décennies, des réformes de leurs secteurs financiers, avec pour ambition non seulement de restaurer les équilibres nécessaires à leur efficacité et la confiance des agents économiques envers les institutions financières, mais aussi de favoriser la mobilisation des épargnes et la diversification des canaux de financement. L'objectif final étant la relance d'une croissance économique stable et durable. Au sein de la zone UEMOA (Union Économique et Monétaire Ouest-Africaine), le projet majeur au coeur de ces réformes fut la création d'un marché financier commun dont la mission est de doter les entreprises des moyens de financement à long terme, qui leur permettraient de réaliser leurs projets les plus productifs et d'accroitre leurs performances. L'autre mission dévolue à ce marché est d'attirer des capitaux étrangers dans la sous-région. Notre étude a pour but de déterminer si, une décennie après sa création, le marché financier a atteint ses objectifs en termes d'amélioration des performances des entreprises et de relance de la croissance économique. Globalement, nous observons que les entreprises cotées à la Bourse Régionale des Valeurs Mobilières (Place boursière du marché financier de l'UEMOA) ont vu leurs performances opérationnelles s'améliorer, notamment au cours de la seconde moitié de la décennie. Le développement du marché boursier semble également avoir eu un impact positif sur la croissance économique de la Côte d'ivoire, Pays phare de l'Union, qui détient 34 des 38 entreprises cotées. Cependant, le marché n'a pas réussi à attirer des capitaux étrangers; mais à l'inverse, l'écrasante majorité des entreprises qui lèvent des fonds sur le marché financier de UEMOA sont des filiales des multinationales occidentales. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Introduction en bourse, Croissance économique, Performance, Marché financier, Entreprises cotées.
23

Marchés financiers et croissance économique

Braun, Eduard 27 September 2011 (has links) (PDF)
La présente thèse est une contribution à l'analyse des relations entre économie réelle et économie monétaire. Nous comblons les déficits correspondants dans la littérature scientifique. Nous concluons que le concept classique du " fond de salaire " est essentiellement valide et peut donc être utilisé, avec quelques modifications, dans l'analyse macroéconomique du marché financier. Cette approche facilite l'étude et la description exactes des fonctions réelles accomplies par le marché financier. Nous soutenons que la fonction de ce marché consiste à diriger le fond des biens de consommation disponibles - le fond des salaires - aux endroits où on en a le plus besoin. Ainsi y-a-t-il une relation très étroite entre le marché financier et la satisfaction des besoins humains. Le deuxième concept central à l'analyse des rapports entre économie réelle et économie monétaire est celui de la valeur de la monnaie. Nous soutenons que la monnaie est acceptée dans le commerce et dans les transactions sur le marché financier uniquement parce qu'elle a le pouvoir d'acheter des biens de consommation. Sans ce pouvoir, personne ne serait incité à fournir un bien réel en échange de monnaie. Donc, en assurant la distribution de l'épargne monétaire dans l'économie, le marché financier, sur le plan réel, distribue les biens de consommation disponibles. L'analyse de la valeur de la monnaie fournit donc la clef de voûte pour une nouvelle conception réelle du marché financier, basée sur la théorie du fond du salaire. Nous appliquons notre résultats aux données empiriques de la crise économique de 1873 en Allemagne, qui a de fortes affinités avec la crise financière récente des marchés financiers occidentaux.
24

Collective behaviours in the stock market: a maximum entropy approach

Bury, Thomas 20 February 2014 (has links)
Scale invariance, collective behaviours and structural reorganization are crucial for portfolio management (portfolio composition, hedging, alternative definition of risk, etc.). This lack of any characteristic scale and such elaborated behaviours find their origin in the theory of complex systems. There are several mechanisms which generate scale invariance but maximum entropy models are able to explain both scale invariance and collective behaviours.<p>The study of the structure and collective modes of financial markets attracts more and more attention. It has been shown that some agent based models are able to reproduce some stylized facts. Despite their partial success, there is still the problem of rules design. In this work, we used a statistical inverse approach to model the structure and co-movements in financial markets. Inverse models restrict the number of assumptions. We found that a pairwise maximum entropy model is consistent with the data and is able to describe the complex structure of financial systems. We considered the existence of a critical state which is linked to how the market processes information, how it responds to exogenous inputs and how its structure changes. The considered data sets did not reveal a persistent critical state but rather oscillations between order and disorder.<p>In this framework, we also showed that the collective modes are mostly dominated by pairwise co-movements and that univariate models are not good candidates to model crashes. The analysis also suggests a genuine adaptive process since both the maximum variance of the log-likelihood and the accuracy of the predictive scheme vary through time. This approach may provide some clue to crash precursors and may provide highlights on how a shock spreads in a financial network and if it will lead to a crash. The natural continuation of the present work could be the study of such a mechanism. / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
25

L'atteinte à la transparence des marchés financiers : l'exemple du délit d'initié : étude comparée du droit français et du droit libanais / Affecting transparency of financial markets : example of insider trading

Ibrahim, Majida 25 September 2015 (has links)
Le délit d’initié peut être légal ou illégal selon le moment où l’initié fait le commerce : il est illégal lorsque l’information est non publique. Effectuer une négociation tout en ayant une connaissance particulière est injuste pour les autres investisseurs qui ne disposent pas de l’accès à ces connaissances. Les dirigeants ne sont pas les seuls à être reconnus coupables du délit d’initié. Des gens comme les courtiers, et même les membres de familles peuvent en être coupables. Par contre, le délit d’initié est légal une fois l’information a été rendue publique, au moment où l’initié n’a aucun avantage direct sur d’autres investisseurs. La tendance est à la pénalisation du délit d’initié ainsi qu’à la création d’une autorité de régulation spécifique aux marchés financiers. Ce travail s’appuie donc sur une étude des différents systèmes juridiques répressifs qui tendent à assurer la transparence des marchés et veiller au respect de l’égalité entre les opérateurs par le phénomène de la régulation. On s’attachera dans une première approche à l’originalité de l’infraction, à savoir la double définition qui engendre une double poursuite : pénale et administrative. Et dans une deuxième approche, on analyse la question de l’effectivité du dispositif répressif instauré, dans lequel nous concluons que cette dualité de système répressif face à la règle non bis in idem ne peut être comprise que comme une cohérence et une complémentarité entre les deux ordres de juridictions qui forment une avancée en particulier / Insider trading can be illegal or legal depending on when the insider makes the trade: it is illegal when the material information is still non public, trading while having special knowledge is infer to other investors who don’t have access to such knowledge. Directors are not the only one who has the potential to be convicted of insider trading. People such a brokers and even family members can be guilty. Insider trading is legal once the material information has been made public, at which time the insider has not direct advantage over other investors. The tendency is to the criminalization of insider trading and the foundation of a specific regulatory authority for financial markets. The work is therefore based on a study of different law enforcement jurisdictions which trend to ensure markets transparency and ensure the respect of equity between the operators by the phenomenon of regulation. In a first approach, we study the originality of the crime including the double definition that generates a double prosecution: criminal and administrative. And in a second approach, we analyze the effectiveness of the repressive system in which we realize that this duality of the repressive system facing the non bis in idem can only be seen as coherence and complementarily between the two orders of jurisdictions
26

Évaluation de deux modèles de produits dérivés : pour le marché de l'électricité en Amérique du Nord

Beaudoin, Luc 12 April 2018 (has links)
Dans ce mémoire, nous adressons l'efficacité du marché financier de l'électricité en Amérique du Nord. Nous regardons spécifiquement la complexité des modèles à terme et la qualité de leurs prévisions. Nous concentrons notre étude sur deux modèles à terme, le modèle simple de Black et Scholes et un plus complexe, défini par Pilipovic. Nous regardons six marchés dans les États-Unis comme la MidColombia, le NP15, le ComEd, le Cinergy, le PJM et le NePool. La plage des données quotidiennes utilisées est de 1997 à 2002, soit pré et post Enron. Nous avons incorporé dans les modèles les propriétés stochastiques fondamentales associées aux prix à terme comme la diffusion de saut et moyenne inversée. Nous employons le facteur de corrélation pour étudier les modèles contre des prix passés et les données projetés. Nos résultats montrent que Black-Scholes est légèrement supérieur pour prévoir le prix court à terme. Les deux modèles ne sont pas appropriés pour l'évaluation à long terme. / In this thesis, we address the efficiency of the financial market of electricity in North America. We specifically look at the complexity of future models and the quality of the forecast. We focus our study on two future models, from a basic model, the Black-Scholes to a more complex, one defined by Pilipovic. We look at six markets in United-States as Mid-Colombia, NP15, ComEd, Cinergy, PJM and NePool. The daily data range from 1997 to 2 002, as pre and post Enron. We incorporated fundamental stochastic properties associated to spot and futures prices as jump diffusion and mean reversion. We use a correlation factor to define the fitness of the models against past and real prices. Our findings show that Black-Scholes is slightly better to foresee short term price. Both models are not appropriate for long term pricing.
27

La crise des subprimes : vers un meilleur encadrement des risques financiers et juridiques liés à la titrisation des créances

Akiobé Songolo, Michèle Patricia 09 August 2019 (has links)
La titrisation des créances est une opération qui permet aux banques de se financer sur les marchés financiers à moindre coût et sans trop de risques. Pour réaliser l’opération, les banques cèdent les prêts qu’elles ont octroyés à une structure qui se chargera ensuite de les placer auprès des investisseurs. De plus, la titrisation permet également aux banques de gérer les risques liés aux prêts. Avec l’avènement de cette opération, les banques se soucient moins de la qualité et de la capacité financière des emprunteurs. Une fois le prêt accordé, les banques vont créer des portefeuilles de créances qui seront cédés par la suite. Une autre forme de titrisation permet de transférer uniquement le risque lié aux prêts sans toutefois sortir ces prêts du bilan de la banque: c’est la titrisation synthétique. Ces deux formes de titrisation, classique et synthétique, ont été utilisées auxÉtats-Unis et ont contribué à l’explosion de la bulle immobilière qui a entraîné une crise financière en 2008 : la crise des subprimes. La titrisation a donc occasionné le mouvement de contagion des risques qui s’en est suivi sur les marchés financiers. Les subprimes sont des prêts hypothécaires à risque accordés à un taux variable aux ménages américains à faible capacité financière. Le taux est bas les premières années, mais augmente progressivement. Titriser ce type de prêts revient à propager le risque de non-remboursement des emprunteurs à tous les différents intervenants de la chaîne. Et c’est ce qui s’est produit: les taux ont été relevés et les emprunteurs n’ont pas été capables d’assurer le paiement des différentes mensualités entraînant un blocage de tout le circuit. Les choses se sont passées de cette façon parce que, sur les marchés à cette période, l’appât du gain l’avait emporté sur le respect des règles d’encadrement des marchés, quasi inexistantes. Cette thèse propose des solutions d’encadrement du marché financieret de l’opération de titrisation en particulier. Entre la loi du marché, le droit et l’éthique, les recommandations faites dans cette dissertation se veulent complémentaires aux actions des différents régulateurs, nationaux et internationaux. / Securitization of receivables is an operation that allows banks to finance themselves on the financial markets at a lower cost and without too much risk. To carry out the operation, the banks sell the loans they have granted to a structure which will then be responsible for placing them with investors. In addition, securitization also allows banks to manage the risks associated with loans. With the advent of this operation, banks are less concerned about the quality and financial capacity of borrowers. Once the loan is granted, they create portfolios of receivables that will be transferred later. Another form of securitization is to transfer only the risk associated with the loans without taking these loans out of the bank's balance sheet: It’s a synthetic securitization. These two forms of securitization, traiditional and synthetic, were used in the United States and contributed to the explosion of the housing bubble that led to a financial crisis in 2008: the subprime crisis. Securitization has, therefore, caused the risk-spreading movement that has followed on the financial markets. The subprimes are variable risk mortgage loans to low-income US households. The rate is low the first years but increases gradually. Securitizing this type of loan is to propagate the risk of non-repayment of borrowers to all the various stakeholders in the chain. And that's what happened: the rates were raised, and the borrowers were not able to ensure the payment of different monthly payments causing a blockage of the entire circuit. Things happened this way because in the markets at that time, the lure of gain prevailed over the respect of almost non existent rules. This thesis proposes solutions for financial market supervision and for securitization operations specifically. Between the law of the market, the rule of law and ethics, the recommendations made in this dissertation are complementary to the actions of the various regulators, national and international.
28

Understanding co-movements in macro and financial variables

D'Agostino, Antonello 09 January 2007 (has links)
Over the last years, the growing availability of large datasets and the improvements in the computational speed of computers have further fostered the research in the fields of both macroeconomic modeling and forecasting analysis. A primary focus of these research areas is to improve the models performance by exploiting the informational content of several time series. Increasing the dimension of macro models is indeed crucial for a detailed structural understanding of the economic environment, as well as for an accurate forecasting analysis. As consequence, a new generation of large-scale macro models, based on the micro-foundations of a fully specified dynamic stochastic general equilibrium set-up, has became one of the most flourishing research areas of interest both in central banks and academia. At the same time, there has been a revival of forecasting methods dealing with many predictors, such as the factor models. The central idea of factor models is to exploit co-movements among variables through a parsimonious econometric structure. Few underlying common shocks or factors explain most of the co-variations among variables. The unexplained component of series movements is on the other hand due to pure idiosyncratic dynamics. The generality of their framework allows factor models to be suitable for describing a broad variety of models in a macroeconomic and a financial context. The revival of factor models, over the recent years, comes from important developments achieved by Stock and Watson (2002) and Forni, Hallin, Lippi and Reichlin (2000). These authors find the conditions under which some data averages become collinear to the space spanned by the factors when, the cross section dimension, becomes large. Moreover, their factor specifications allow the idiosyncratic dynamics to be mildly cross-correlated (an effect referred to as the 'approximate factor structure' by Chamberlain and Rothschild, 1983), a situation empirically verified in many applications. These findings have relevant implications. The most important being that the use of a large number of series is no longer representative of a dimensional constraint. On the other hand, it does help to identify the factor space. This new generation of factor models has been applied in several areas of macroeconomics and finance as well as for policy evaluation. It is consequently very likely to become a milestone in the literature of forecasting methods using many predictors. This thesis contributes to the empirical literature on factor models by proposing four original applications. <p><p>In the first chapter of this thesis, the generalized dynamic factor model of Forni et. al (2002) is employed to explore the predictive content of the asset returns in forecasting Consumer Price Index (CPI) inflation and the growth rate of Industrial Production (IP). The connection between stock markets and economic growth is well known. In the fundamental valuation of equity, the stock price is equal to the discounted future streams of expected dividends. Since the future dividends are related to future growth, a revision of prices, and hence returns, should signal movements in the future growth path. Though other important transmission channels, such as the Tobin's q theory (Tobin, 1969), the wealth effect as well as capital market imperfections, have been widely studied in this literature. I show that an aggregate index, such as the S&P500, could be misleading if used as a proxy for the informative content of the stock market as a whole. Despite the widespread wisdom of considering such index as a leading variable, only part of the assets included in the composition of the index has a leading behaviour with respect to the variables of interest. Its forecasting performance might be poor, leading to sceptical conclusions about the effectiveness of asset prices in forecasting macroeconomic variables. The main idea of the first essay is therefore to analyze the lead-lag structure of the assets composing the S&P500. The classification in leading, lagging and coincident variables is achieved by means of the cross correlation function cleaned of idiosyncratic noise and short run fluctuations. I assume that asset returns follow a factor structure. That is, they are the sum of two parts: a common part driven by few shocks common to all the assets and an idiosyncratic part, which is rather asset specific. The correlation<p>function, computed on the common part of the series, is not affected by the assets' specific dynamics and should provide information only on the series driven by the same common factors. Once the leading series are identified, they are grouped within the economic sector they belong to. The predictive content that such aggregates have in forecasting IP growth and CPI inflation is then explored and compared with the forecasting power of the S&P500 composite index. The forecasting exercise is addressed in the following way: first, in an autoregressive (AR) model I choose the truncation lag that minimizes the Mean Square Forecast Error (MSFE) in 11 years out of sample simulations for 1, 6 and 12 steps ahead, both for the IP growth rate and the CPI inflation. Second, the S&P500 is added as an explanatory variable to the previous AR specification. I repeat the simulation exercise and find that there are very small improvements of the MSFE statistics. Third, averages of stock return leading series, in the respective sector, are added as additional explanatory variables in the benchmark regression. Remarkable improvements are achieved with respect to the benchmark specification especially for one year horizon forecast. Significant improvements are also achieved for the shorter forecast horizons, when the leading series of the technology and energy sectors are used. <p><p>The second chapter of this thesis disentangles the sources of aggregate risk and measures the extent of co-movements in five European stock markets. Based on the static factor model of Stock and Watson (2002), it proposes a new method for measuring the impact of international, national and industry-specific shocks. The process of European economic and monetary integration with the advent of the EMU has been a central issue for investors and policy makers. During these years, the number of studies on the integration and linkages among European stock markets has increased enormously. Given their forward looking nature, stock prices are considered a key variable to use for establishing the developments in the economic and financial markets. Therefore, measuring the extent of co-movements between European stock markets has became, especially over the last years, one of the main concerns both for policy makers, who want to best shape their policy responses, and for investors who need to adapt their hedging strategies to the new political and economic environment. An optimal portfolio allocation strategy is based on a timely identification of the factors affecting asset returns. So far, literature dating back to Solnik (1974) identifies national factors as the main contributors to the co-variations among stock returns, with the industry factors playing a marginal role. The increasing financial and economic integration over the past years, fostered by the decline of trade barriers and a greater policy coordination, should have strongly reduced the importance of national factors and increased the importance of global determinants, such as industry determinants. However, somehow puzzling, recent studies demonstrated that countries sources are still very important and generally more important of the industry ones. This paper tries to cast some light on these conflicting results. The chapter proposes an econometric estimation strategy more flexible and suitable to disentangle and measure the impact of global and country factors. Results point to a declining influence of national determinants and to an increasing influence of the industries ones. The international influences remains the most important driving forces of excess returns. These findings overturn the results in the literature and have important implications for strategic portfolio allocation policies; they need to be revisited and adapted to the changed financial and economic scenario. <p><p>The third chapter presents a new stylized fact which can be helpful for discriminating among alternative explanations of the U.S. macroeconomic stability. The main finding is that the fall in time series volatility is associated with a sizable decline, of the order of 30% on average, in the predictive accuracy of several widely used forecasting models, included the factor models proposed by Stock and Watson (2002). This pattern is not limited to the measures of inflation but also extends to several indicators of real economic activity and interest rates. The generalized fall in predictive ability after the mid-1980s is particularly pronounced for forecast horizons beyond one quarter. Furthermore, this empirical regularity is not simply specific to a single method, rather it is a common feature of all models including those used by public and private institutions. In particular, the forecasts for output and inflation of the Fed's Green book and the Survey of Professional Forecasters (SPF) are significantly more accurate than a random walk only before 1985. After this date, in contrast, the hypothesis of equal predictive ability between naive random walk forecasts and the predictions of those institutions is not rejected for all horizons, the only exception being the current quarter. The results of this chapter may also be of interest for the empirical literature on asymmetric information. Romer and Romer (2000), for instance, consider a sample ending in the early 1990s and find that the Fed produced more accurate forecasts of inflation and output compared to several commercial providers. The results imply that the informational advantage of the Fed and those private forecasters is in fact limited to the 1970s and the beginning of the 1980s. In contrast, during the last two decades no forecasting model is better than "tossing a coin" beyond the first quarter horizon, thereby implying that on average uninformed economic agents can effectively anticipate future macroeconomics developments. On the other hand, econometric models and economists' judgement are quite helpful for the forecasts over the very short horizon, that is relevant for conjunctural analysis. Moreover, the literature on forecasting methods, recently surveyed by Stock and Watson (2005), has devoted a great deal of attention towards identifying the best model for predicting inflation and output. The majority of studies however are based on full-sample periods. The main findings in the chapter reveal that most of the full sample predictability of U.S. macroeconomic series arises from the years before 1985. Long time series appear<p>to attach a far larger weight on the earlier sub-sample, which is characterized by a larger volatility of inflation and output. Results also suggest that some caution should be used in evaluating the performance of alternative forecasting models on the basis of a pool of different sub-periods as full sample analysis are likely to miss parameter instability. <p><p>The fourth chapter performs a detailed forecast comparison between the static factor model of Stock and Watson (2002) (SW) and the dynamic factor model of Forni et. al. (2005) (FHLR). It is not the first work in performing such an evaluation. Boivin and Ng (2005) focus on a very similar problem, while Stock and Watson (2005) compare the performances of a larger class of predictors. The SW and FHLR methods essentially differ in the computation of the forecast of the common component. In particular, they differ in the estimation of the factor space and in the way projections onto this space are performed. In SW, the factors are estimated by static Principal Components (PC) of the sample covariance matrix and the forecast of the common component is simply the projection of the predicted variable on the factors. FHLR propose efficiency improvements in two directions. First, they estimate the common factors based on Generalized Principal Components (GPC) in which observations are weighted according to their signal to noise ratio. Second, they impose the constraints implied by the dynamic factors structure when the variables of interest are projected on the common factors. Specifically, they take into account the leading and lagging relations across series by means of principal components in the frequency domain. This allows for an efficient aggregation of variables that may be out of phase. Whether these efficiency improvements are helpful to forecast in a finite sample is however an empirical question. Literature has not yet reached a consensus. On the one hand, Stock and Watson (2005) show that both methods perform similarly (although they focus on the weighting of the idiosyncratic and not on the dynamic restrictions), while Boivin and Ng (2005) show that SW's method largely outperforms the FHLR's and, in particular, conjecture that the dynamic restrictions implied by the method are harmful for the forecast accuracy of the model. This chapter tries to shed some new light on these conflicting results. It<p>focuses on the Industrial Production index (IP) and the Consumer Price Index (CPI) and bases the evaluation on a simulated out-of sample forecasting exercise. The data set, borrowed from Stock and Watson (2002), consists of 146 monthly observations for the US economy. The data spans from 1959 to 1999. In order to isolate and evaluate specific characteristics of the methods, a procedure, where the<p>two non-parametric approaches are nested in a common framework, is designed. In addition, for both versions of the factor model forecasts, the chapter studies the contribution of the idiosyncratic component to the forecast. Other non-core aspects of the model are also investigated: robustness with respect to the choice of the number of factors and variable transformations. Finally, the chapter performs a sub-sample performances of the factor based forecasts. The purpose of this exercise is to design an experiment for assessing the contribution of the core characteristics of different models to the forecasting performance and discussing auxiliary issues. Hopefully this may also serve as a guide for practitioners in the field. As in Stock and Watson (2005), results show that efficiency improvements due to the weighting of the idiosyncratic components do not lead to significant more accurate forecasts, but, in contrast to Boivin and Ng (2005), it is shown that the dynamic restrictions imposed by the procedure of Forni et al. (2005) are not harmful for predictability. The main conclusion is that the two methods have a similar performance and produce highly collinear forecasts. <p> / Doctorat en sciences économiques, Orientation économie / info:eu-repo/semantics/nonPublished
29

Trois essais en finance de marché / Three essays in finance of markets

Tavin, Bertrand 07 November 2013 (has links)
Le but de cette thèse est l'étude de certains aspects d'un marché financier comportant plusieurs actifs risqués et des options écrites sur ces actifs. Dans un premier essai, nous proposons une expression de la distribution implicite du prix d'un actif sous-jacent en fonction du smile de volatilité associé aux options écrites sur cet actif. L'expression obtenue pour la densité implicite prend la forme d'une densité log-normale plus deux termes d'ajustement. La mise en œuvre de ce résultat est ensuite illustrée à travers deux applications pratiques. Dans le deuxième essai, nous obtenons deux caractérisations de l'absence d'opportunité d'arbitrage en termes de fonctions copules. Chacune de ces caractérisations conduit à une méthode de détection des situations d'arbitrage. La première méthode proposée repose sur une propriété particulière des copules de Bernstein. La seconde méthode est valable dans le cas bivarié et tire profit de résultats sur les bornes de Fréchet-Hoeffding en présence d'information additionnelle sur la dépendance. Les résultats de l'utilisation de ces méthodes sur des données empiriques sont présentés. Enfin, dans le troisième essai, nous proposons une approche pour couvrir avec des options sur spread l'exposition au risque de dépendance d'un portefeuille d'options écrites sur deux actifs. L'approche proposée repose sur l'utilisation de deux modèles paramétriques de dépendance que nous introduisons: les copules Power Frank (PF) et Power Student's t (PST). Le fonctionnement et les résultats de l'approche proposée sont illustrés dans une étude numérique. / This thesis is dedicated to the study of a market with several risky assets and options written on these assets. In a first essay, we express the implied distribution of an underlying asset price as a function of its options implied volatility smile. For the density, the obtained expression has the form of a log-normal density plus two adjustment terms. We then explain how to use these results and develop practical applications. In a first application we value a portfolio of digital options and in another application we fit a parametric distribution. In the second essay, we propose a twofold characterization of the absence of arbitrage opportunity in terms of copula functions. We then propose two detection methods. The first method relies on a particular property of Bernstein copulas. The second method, valid only in the case of a market with two risky assets, is based upon results on improved Fréchet-Hoeffding bounds in presence of additional information about the dependence. We also present results obtained with the proposed methods applied to empirical data. Finally, in the third essay, we develop an approach to hedge, with spread options, an exposure to dependence risk for a portfolio comprising two-asset options. The approach we propose is based on two parametric models of dependence that we introduce. These dependence models are copulas functions named Power Frank (PF) and Power Student's t (PST). The results obtained with the proposed approach are detailed in a numerical study.
30

A reexamination of modern finance issues using Artificial Market Frameworks

Veryzhenko, Iryna 18 September 2012 (has links) (PDF)
Cette thèse apporte une contribution à la compréhension des dynamiques de marché et à la prise de décision des traders à l'aide d'une plateforme de simulation de marchés multi-agents. La modélisation multi-agents permet notamment d'étudier le système boursier comme un système complexe évolutif dans lequel chaque trader artificiel possède son propre comportement possède son propre comportement et qui, par ses prises de décision, influence l'ensemble des autres acteurs du système. Dans une première partie, nous mettons en évidence à l'aide de "traders à intelligence zéro" (ZIT), le rôle de la microstructure pour comprendre la nature des principaux faits stylisés de l'évolution des prix. Les résultats issus de nombreuses simulations, indiquent que l'usage des ZIT n'est pas suffisant pour reproduire de façon convaincante les évolutions de prix réels, car ceux-ci doivent être appréhendés à la fois de manière qualitative mais aussi quantitative. Nous montrons que seuls des éléments de stratégies de trading et une forte calibration peuvent améliorer cette réplication par simulation, suggérant que les aspects comportementaux importent tout autant que les aspects micro structurels. Dans une seconde partie, nous concentrons notre recherche sur la problématique de la rationalité dans le corpus de la théorie moderne du portefeuille. Le marché artificiel nous permet de tester si des stratégies naïves peuvent surpasser, en terme de performance, des modèles plus complexes. Diverses stratégies d'investissement sont implémentées dans le système artificiel et mises en interaction afin d'observer leur survie dans des compétitions écologiques basées sur leurs performances relatives. Certaines de ces stratégies d'investissements sont fondées sur des variations du modèle canonique de la théorie de portefeuilles de Markowitz, d'autres suivent des principes de diversification naïfs, d'autres encore obéissent à des combinaisons de stratégies rationnelles sophistiquées et de stratégies naïves. Enfin, de manière à mieux saisir les facteurs qui influent sur la performance du portefeuille, nous montrons les effets de la fréquence de pondération et des préférences pour le risque des investisseurs sur l'issue de ces compétitions. Pour finir, afin de fournir une mesure de performance absolue orientée vers l'évaluation ex-post d'un large éventail de stratégies de trading des investisseurs (agents dans notre cas) nous proposons un nouvel algorithme de complexité polynomiale permettant de déterminer la borne supérieure absolue des profits atteignables pour n'importe quelle stratégie sur une période de temps donnée. Cet algorithme met en contact deux champs a priori éloignés: la théorie des graphes d'une part et la finance computationnelle d'autre part.

Page generated in 0.0497 seconds