• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 6
  • Tagged with
  • 9
  • 9
  • 9
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Essays in financial economics / Essais en économie financière

Chretien, Edouard 23 May 2017 (has links)
Cette thèse est composée de trois chapitres distincts. Dans le premier chapitre, coécrit avec Edouard Challe, nous analysons la détermination jointe de l'information incorporée dans les prix, et la composition du marché par type d’ordres sur un marché d'actifs avec information dispersée. La microstructure du marché est telle que les agents informés peuvent placer soit des ordres de marché simples, soit un ensemble d’ordres limites. Les market-makers établissent le prix. Les agents utilisant des ordres de marché simple négocient moins agressivement sur leur information et réduisent ainsi le contenu informationnel du prix; dans un marché où seul ce type d’ordre est présent, l'information incorporée dans le prix est limitée, quelle que soit la qualité de l'information des agents sur le dividende de l'actif. Lorsque les agents peuvent choisir leur type d'ordre et les ordres limites sont plus coûteux que les ordres de marché, alors les agents choisissent majoritairement les ordres de marché lorsque la précision des signaux privés tend vers l'infini. Les ordres limites sont des substituts: à des niveaux élevés de précision, une fraction résiduelle d’agents plaçant des ordres limites est suffisante pour aligner le prix aux signaux des agents, et donc au dividende. Ainsi le gain à conditionner ses ordres au prix (via des ordres limites) en plus de son propre signal (comme le font tous les agents) disparaît. Nous appliquons ensuite ce mécanisme dans le deuxième chapitre de cette thèse. Les spéculateurs envisageant une attaque (comme dans le cas des crises de change) doivent deviner les croyances des autres spéculateurs, ce qu'ils peuvent faire en regardant le marché boursier. Ce chapitre examine si ce processus de collecte d'informations est stabilisateur, en ancrant mieux les attentes ou déstabilisateur en générant des équilibres multiples. Pour ce faire, nous étudions les résultats d'un jeu global en deux étapes où un prix d'actif déterminé au stade de négociation du jeu fournit un signal public endogène sur le fondamental qui affecte la décision des agents d'attaquer dans la phase de coordination du jeu. La microstructure du marché d’actif reprend celle étudiée dans le premier chapitre. Les frictions de microstructure qui conduisent à une plus grande exposition individuelle (au risque d'exécution des prix) peuvent réduire l'incertitude agrégée (en fixant un résultat d'équilibre unique). Enfin, dans le troisième chapitre, en collaboration avec Victor Lyonnet, nous présentons un modèle des interactions entre les banques traditionnelles et les shadow banks qui parle de leur coexistence. Au cours de la crise financière de 2007, certains actifs et passifs des shadow banks sont passées aux banques traditionnelles et les actifs ont été vendus à des prix de fire sale. Notre modèle réplique ces faits stylisés. La différence entre les banques traditionnelles et les shadow banks est double. Premièrement, les banques traditionnelles ont accès à un fonds de garantie qui leur permet de se financer sans risque en période de crise. Deuxièmement, les banques traditionnelles doivent respecter une réglementation coûteuse. Nous montrons qu'en cas de crise, les shadow banks liquident les actifs pour rembourser leurs créanciers, alors que les banques traditionnelles achètent ces actifs à des prix de fire sale. Cet échange d'actifs en temps de crise génère une complémentarité entre les banques traditionnelles et les shadow banks, où chaque type d'intermédiaire profite de la présence de l'autre. Nous constatons deux effets concurrents d'une petite diminution du soutien des banques traditionnelles en période de crise, que nous appelons effet de substitution et effet de revenu. Ce dernier effet domine le premier, de sorte qu’un niveau de soutien anticipé plus faible aux banques traditionnelles en temps de crise induit plus de banquiers à s’orienter vers le secteur traditionnel ex-ante. / This dissertation is made of three distinct chapters. In the first chapter, which is joint with Edouard Challe, we analyse the joint determination of price informativeness and the composition of the market by order type in a large asset market with dispersed information. The market microstructure is one in which informed traders may place market orders or full demand schedules and where market makers set the price. Market-order traders trade less aggressively on their information and thus reduce the informativeness of the price; in a full market-order market, price informativeness is bounded, whatever the quality of traders’ information about the asset’s dividend. When traders can choose their order type and demand schedules are (even marginally) costlier than market orders, then market-order traders overwhelm the market when the precision of private signals goes to infinity. This is because demand schedules are substitutes: at high levels of precision, a residual fraction of demand-schedule traders is sufficient to take the trading price close to traders’ signals, while the latter is itself well aligned with the dividend. Hence, the gain from trading conditional on the price (as demand-schedule traders do) in addition to one’s own signal (as all informed traders do) vanishes. We then apply this idea in the second chapter of this dissertation. Speculators contemplating an attack (e.g., on a currency peg) must guess the beliefs of other speculators, which they can do by looking at the stock market. This chapter examines whether this information-gathering process is stabilizing by better anchoring expectations or destabilizing by creating multiple self-fulfilling equilibria. To do so, we study the outcome of a two-stage global game wherein an asset price determined at the trading stage of the game provides an endogenous public signal about the fundamental that affects traders’ decision to attack in the coordination stage of the game. The trading stage follows the microstructure of the first chapter. Price execution risk reduces traders’ aggressiveness and hence slows down information aggregation, which ultimately makes multiple equilibria in the coordination stage less likely. In this sense, microstructure frictions that lead to greater individual exposure (to price execution risk) may reduce aggregate uncertainty (by pinning down a unique equilibrium outcome). Finally, in the third chapter, joint with Victor Lyonnet, we present a model of the interactions between traditional and shadow banks that speaks to their coexistence. In the 2007 financial crisis, some of shadow banks’ assets and liabilities have moved to traditional banks, and assets were sold at fire sale prices. Our model is able to accommodate these stylized facts. The difference between traditional and shadow banks is twofold. First, traditional banks have access to a guarantee fund that enables them to issue claims to households in a crisis. Second, traditional banks have to comply with costly regulation. We show that in a crisis, shadow banks liquidate assets to repay their creditors, while traditional banks purchase these assets at fire-sale prices. This exchange of assets in a crisis generates a complementarity between traditional and shadow banks, where each type of intermediary benefits from the presence of the other. We find two competing effects from a small decrease in traditional banks’ support in a crisis, which we dub a substitution effect and an income effect. The latter effect dominates the former, so that lower anticipated support to traditional banks in a crisis induces more bankers to run a traditional bank ex-ante.
2

Comportement des traders institutionnels et microstructure des marchés : une approche big data / Large-trader behaviour and market microstructure : a big data approach

Primicerio, Kevin 20 June 2018 (has links)
Cette thèse est composée de quatre chapitres.Le premier chapitre est une description préliminaire de la base de données Factset Ownership. Nous en donnons une description statistique et exposons quelques faits stylisés caractérisant notamment la structure du portefeuille des institutions financières et fonds d'investissement, ainsi que la capitalisation boursière des entreprises y étant recensées.Le second chapitre propose une méthode d'évaluation statistique de la similarité entre des paires de portefeuilles d'institutions financières. Une paire statistiquement significative donnant lieu à la création d'un lien de similarité entre ces deux entités, nous sommes en mesure de projeter un réseau à l'origine bi-partite (entre institutions financières et entreprises) en un réseau mono-partite (entre institutions uniquement) afin d'en étudier l'évolution de sa structure au cours du temps. En effet, d'un point de vue économique, il est suspecté que les motifs d'investissements similaires constituent un facteur de risque important de contagion financière pouvant être à l'origine de banqueroutes aux conséquences systémiques significatives.Le troisième chapitre s'intéresse aux comportements collectifs des gestionnaires de fonds d'investissement et, en particulier, à la manière dont la structure du portefeuille de ces fonds prend en compte, en moyenne, de façon optimale les frais de transaction en présence de faibles contraintes d'investissements. Ce phénomène où, dans de nombreuses situations, la médiane ou la moyenne des estimations d'un groupe de personnes est étonnamment proche de la valeur réelle, est connu sous le nom de sagesse de la foule.Le quatrième chapitre est consacré à l'étude simultanée de données de marché. Nous utilisons plus de 6.7 milliards de trades de la base de données Thomson-Reuters Tick History, et de données de portefeuille de la base FactSet Ownership. Nous étudions la dynamique tick-à-tick du carnet d'ordres ainsi que l'action aggrégée, c'est-à-dire sur une échelle de temps bien plus grande, des fonds d'investissement. Nous montrons notamment que la mémoire longue du signe des ordres au marché est bien plus courte en présence de l'action, absolue ou directionnelle, des fonds d'investissement. Réciproquement nous expliquons dans quelle mesure une action caractérisée par une mémoire faible est sujette à du trading directionnel provenant de l'action des fonds d'investissement. / The thesis is divided into four parts.Part I introduces and provides a technical description of the FactSet Ownership dataset together with some preliminary statistics and a set of stylized facts emerging from the portfolio structure of large financial institutions, and from the capitalization of recorded securities.Part II proposes a method to assess the statistical significance of the overlap between pairs of heterogeneously diversified portfolios. This method is then applied to public assets ownership data reported by financial institutions in order to infer statistically robust links between the portfolios of financial institutions based on similar patterns of investment. From an economic point of view, it is suspected that the overlapping holding of financial institution is an important channel for financial contagion with the potential to trigger fire sales and thus severe losses at a systemic level.Part III investigates the collective behaviour of fund manager and, in particular, how the average portfolio structure of institutional investors optimally accounts for transactions costs when investment constraints are weak. The collective ability of a crowd to accurately estimate an unknown quantity is known as the Wisdom of the Crowd. In many situation, the median or average estimate of a group of unrelated individuals is surprisingly close to the true value.In Part IV, we use more than 6.7 billions of trades from the Thomson-Reuters Tick History database and the ownership data from FactSet. We show how the tick-by-tick dynamics of limit order book data depends on the aggregate actions of large funds acting on much larger time scale. In particular, we find that the well-established long memory of marker order signs is markedly weaker when large investment funds trade in a markedly directional way or when their aggregate participation ratio is large. Conversely, we investigate to what respect an asset with a weak memory experiences direction trading from large funds.
3

Mesure et Prévision de la Volatilité pour les Actifs Liquides

Chaker, Selma 04 1900 (has links)
Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat. / The high frequency observed price series is contaminated with market microstructure frictions or noise. We explore the measurement and forecasting of the fundamental volatility through novel approaches to the frictions’ problem. In the first paper, while maintaining the standard framework of a noise-frictionless price additive model, we use the trading volume, quoted depths, trade direction indicator and bid-ask spread to get rid of the noise. The econometric model is a price impact linear regression. We show that incorporating the cited liquidity costs variables delivers more precise volatility estimators. If the noise is only partially absorbed, the remaining noise is closer to a white noise than the original one, which lessens misspecification of the noise characteristics. Our approach is also robust to a specific form of endogeneity under which the common robust to noise measures are inconsistent. In the second paper, we model the variance of the market microstructure noise that contaminates the frictionless price as an affine function of the fundamental volatility. Under our model, the noise is time-varying intradaily. Using the eigenfunction representation of the general stochastic volatility class of models, we quantify the forecasting performance of several volatility measures under our model assumptions. In the third paper, instead of assuming the standard additive model for the observed price series, we specify the conditional distribution of the frictionless price given the available information which includes quotes and volumes. We come up with new volatility measures by characterizing the conditional mean of the integrated variance.
4

Méthodes et modèles numériques appliqués aux risques du marché et à l’évaluation financière / Numerical methods and models in market risk and financial valuations area

Infante Acevedo, José Arturo 09 December 2013 (has links)
Ce travail de thèse aborde deux sujets : (i) L'utilisation d'une nouvelle méthode numérique pour l'évaluation des options sur un panier d'actifs, (ii) Le risque de liquidité, la modélisation du carnet d'ordres et la microstructure de marché. Premier thème : Un algorithme glouton et ses applications pour résoudre des équations aux dérivées partielles. L'exemple typique en finance est l'évaluation d'une option sur un panier d'actifs, laquelle peut être obtenue en résolvant l'EDP de Black-Scholes ayant comme dimension le nombre d'actifs considérés. Nous proposons d'étudier un algorithme qui a été proposé et étudié récemment dans [ACKM06, BLM09] pour résoudre des problèmes en grande dimension et essayer de contourner la malédiction de la dimension. L'idée est de représenter la solution comme une somme de produits tensoriels et de calculer itérativement les termes de cette somme en utilisant un algorithme glouton. La résolution des EDP en grande dimension est fortement liée à la représentation des fonctions en grande dimension. Dans le Chapitre 1, nous décrivons différentes approches pour représenter des fonctions en grande dimension et nous introduisons les problèmes en grande dimension en finance qui sont traités dans ce travail de thèse. La méthode sélectionnée dans ce manuscrit est une méthode d'approximation non-linéaire appelée Proper Generalized Decomposition (PGD). Le Chapitre 2 montre l'application de cette méthode pour l'approximation de la solution d'une EDP linéaire (le problème de Poisson) et pour l'approximation d'une fonction de carré intégrable par une somme des produits tensoriels. Un étude numérique de ce dernier problème est présenté dans le Chapitre 3. Le problème de Poisson et celui de l'approximation d'une fonction de carré intégrable serviront de base dans le Chapitre 4 pour résoudre l'équation de Black-Scholes en utilisant l'approche PGD. Dans des exemples numériques, nous avons obtenu des résultats jusqu'en dimension 10. Outre l'approximation de la solution de l'équation de Black-Scholes, nous proposons une méthode de réduction de variance des méthodes Monte Carlo classiques pour évaluer des options financières. Second thème : Risque de liquidité, modélisation du carnet d'ordres, microstructure de marché. Le risque de liquidité et la microstructure de marché sont devenus des sujets très importants dans les mathématiques financières. La dérégulation des marchés financiers et la compétition entre eux pour attirer plus d'investisseurs constituent une des raisons possibles. Dans ce travail, nous étudions comment utiliser cette information pour exécuter de façon optimale la vente ou l'achat des ordres. Les ordres peuvent seulement être placés dans une grille des prix. A chaque instant, le nombre d'ordres en attente d'achat (ou vente) pour chaque prix est enregistré. Dans [AFS10], Alfonsi, Fruth et Schied ont proposé un modèle simple du carnet d'ordres. Dans ce modèle, il est possible de trouver explicitement la stratégie optimale pour acheter (ou vendre) une quantité donnée d'actions avant une maturité. L'idée est de diviser l'ordre d'achat (ou de vente) dans d'autres ordres plus petits afin de trouver l'équilibre entre l'acquisition des nouveaux ordres et leur prix. Ce travail de thèse se concentre sur une extension du modèle du carnet d'ordres introduit par Alfonsi, Fruth et Schied. Ici, l'originalité est de permettre à la profondeur du carnet d'ordres de dépendre du temps, ce qui représente une nouvelle caractéristique du carnet d'ordres qui a été illustré par [JJ88, GM92, HH95, KW96]. Dans ce cadre, nous résolvons le problème de l'exécution optimale pour des stratégies discrètes et continues. Ceci nous donne, en particulier, des conditions suffisantes pour exclure les manipulations des prix au sens de Huberman et Stanzl [HS04] ou de Transaction-Triggered Price Manipulation (voir Alfonsi, Schied et Slynko) / This work is organized in two themes : (i) A novel numerical method to price options on manyassets, (ii) The liquidity risk, the limit order book modeling and the market microstructure.First theme : Greedy algorithms and applications for solving partial differential equations in high dimension Many problems of interest for various applications (material sciences, finance, etc) involve high-dimensional partial differential equations (PDEs). The typical example in finance is the pricing of a basket option, which can be obtained by solving the Black-Scholes PDE with dimension the number of underlying assets. We propose to investigate an algorithm which has been recently proposed and analyzed in [ACKM06, BLM09] to solve such problems and try to circumvent the curse of dimensionality. The idea is to represent the solution as a sum of tensor products and to compute iteratively the terms of this sum using a greedy algorithm. The resolution of high dimensional partial differential equations is highly related to the representation of high dimensional functions. In Chapter 1, we describe various linear approaches existing in literature to represent high dimensional functions and we introduce the high dimensional problems in finance that we will address in this work. The method studied in this manuscript is a non-linear approximation method called the Proper Generalized Decomposition. Chapter 2 shows the application of this method to approximate the so-lution of a linear PDE (the Poisson problem) and also to approximate a square integrable function by a sum of tensor products. A numerical study of this last problem is presented in Chapter 3. The Poisson problem and the approximation of a square integrable function will serve as basis in Chapter 4for solving the Black-Scholes equation using the PGD approach. In numerical experiments, we obtain results for up to 10 underlyings. Second theme : Liquidity risk, limit order book modeling and market microstructure. Liquidity risk and market microstructure have become in the past years an important topic in mathematical finance. One possible reason is the deregulation of markets and the competition between them to try to attract as many investors as possible. Thus, quotation rules are changing and, in general, more information is available. In particular, it is possible to know at each time the awaiting orders on some stocks and to have a record of all the past transactions. In this work we study how to use this information to optimally execute buy or sell orders, which is linked to the traders' behaviour that want to minimize their trading cost. In [AFS10], Alfonsi, Fruth and Schied have proposed a simple LOB model. In this model, it is possible to explicitly derive the optimal strategy for buying (or selling) a given amount of shares before a given deadline. Basically, one has to split the large buy (or sell) order into smaller ones in order to find the best trade-off between attracting new orders and the price of the orders. Here, we focus on an extension of the Limit Order Book (LOB) model with general shape introduced by Alfonsi, Fruth and Schied. The additional feature is a time-varying LOB depth that represents a new feature of the LOB highlighted in [JJ88, GM92, HH95, KW96]. We solve the optimal execution problem in this framework for both discrete and continuous time strategies. This gives in particular sufficient conditions to exclude Price Manipulations in the sense of Huberman and Stanzl [HS04] or Transaction-Triggered Price Manipulations (see Alfonsi, Schied and Slynko). The seconditions give interesting qualitative insights on how market makers may create price manipulations
5

Mesure et Prévision de la Volatilité pour les Actifs Liquides

Chaker, Selma 04 1900 (has links)
Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat. / The high frequency observed price series is contaminated with market microstructure frictions or noise. We explore the measurement and forecasting of the fundamental volatility through novel approaches to the frictions’ problem. In the first paper, while maintaining the standard framework of a noise-frictionless price additive model, we use the trading volume, quoted depths, trade direction indicator and bid-ask spread to get rid of the noise. The econometric model is a price impact linear regression. We show that incorporating the cited liquidity costs variables delivers more precise volatility estimators. If the noise is only partially absorbed, the remaining noise is closer to a white noise than the original one, which lessens misspecification of the noise characteristics. Our approach is also robust to a specific form of endogeneity under which the common robust to noise measures are inconsistent. In the second paper, we model the variance of the market microstructure noise that contaminates the frictionless price as an affine function of the fundamental volatility. Under our model, the noise is time-varying intradaily. Using the eigenfunction representation of the general stochastic volatility class of models, we quantify the forecasting performance of several volatility measures under our model assumptions. In the third paper, instead of assuming the standard additive model for the observed price series, we specify the conditional distribution of the frictionless price given the available information which includes quotes and volumes. We come up with new volatility measures by characterizing the conditional mean of the integrated variance.
6

Clustering in foreign exchange markets : price, trades and traders / Clustering sur les marchés FX : prix, trades et traders

Lallouache, Mehdi 10 July 2015 (has links)
En utilisant des données haute-fréquence inédites, cette thèse étudie trois types de regroupements (“clusters”) présents dans le marché des changes: la concentration d'ordres sur certains prix, la concentration des transactions dans le temps et l'existence de groupes d'investisseurs prenant les mêmes décisions. Nous commençons par étudier les propriétés statistiques du carnet d'ordres EBS pour les paires de devises EUR/USD et USD/JPY et l'impact d'une réduction de la taille du tick sur sa dynamique. Une grande part des ordres limites est encore placée sur les anciens prix autorisés, entraînant l'apparition de prix-barrières, où figurent les meilleures limites la plupart du temps. Cet effet de congestion se retrouve dans la forme moyenne du carnet où des pics sont présents aux distances entières. Nous montrons que cette concentration des prix est causée par les traders manuels qui se refusent d’utiliser la nouvelle résolution de prix. Les traders automatiques prennent facilement la priorité, en postant des ordres limites un tick devant les pics de volume.Nous soulevons ensuite la question de l'aptitude des processus de Hawkes à rendre compte de la dynamique du marché. Nous analysons la précision de tels processus à mesure que l'intervalle de calibration est augmenté. Différent noyaux construits à partir de sommes d'exponentielles sont systématiquement comparés. Le marché FX qui ne ferme jamais est particulièrement adapté pour notre but, car il permet d’éviter les complications dues à la fermeture nocturne des marchés actions. Nous trouvons que la modélisation est valide selon les trois tests statistiques, si un noyau à deux exponentielles est utilisé pour fitter une heure, et deux ou trois pour une journée complète. Sur de plus longues périodes la modélisation est systématiquement rejetée par les tests à cause de la non-stationnarité du processus endogène. Les échelles de temps d'auto-excitation estimées sont relativement courtes et le facteur d'endogénéité est élevé mais sous-critique autour de 0.8. La majorité des modèles à agents suppose implicitement que les agents interagissent à travers du prix des actifs et des volumes échangés. Certains utilisent explicitement un réseau d'interaction entre traders, sur lequel des rumeurs se propagent, d'autres, un réseau qui représente des groupes prenant des décisions communes. Contrairement à d'autres types de données, de tels réseaux, s'ils existent, sont nécessairement implicites, ce qui rend leur détection compliquée. Nous étudions les transactions des clients de deux fournisseur de liquidités sur plusieurs années. En supposant que les liens entre agents sont déterminés par la synchronisation de leur activité ou inactivité, nous montrons que des réseaux d'interactions existent. De plus, nous trouvons que l'activité de certains agents entraîne systématiquement l’activité d'autres agents, définissant ainsi des relations de type “lead-lag” entre les agents. Cela implique que le flux des clients est prévisible, ce que nous vérifions à l'aide d'une méthode sophistiquée d'apprentissage statistique. / The aim of this thesis is to study three types of clustering in foreign exchange markets, namely in price, trades arrivals and investors decisions. We investigate the statistical properties of the EBS order book for the EUR/USD and USD/JPY currency pairs and the impact of a ten-fold tick size reduction on its dynamics. A large fraction of limit orders are still placed right at or halfway between the old allowed prices. This generates price barriers where the best quotes lie for much of the time, which causes the emergence of distinct peaks in the average shape of the book at round distances. Furthermore, we argue that this clustering is mainly due to manual traders who remained set to the old price resolution. Automatic traders easily take price priority by submitting limit orders one tick ahead of clusters, as shown by the prominence of buy (sell) limit orders posted with rightmost digit one (nine).The clustering of trades arrivals is well-known in financial markets and Hawkes processes are particularly suited to describe this phenomenon. We raise the question of what part of market dynamics Hawkes processes are able to account for exactly. We document the accuracy of such processes as one varies the time interval of calibration and compare the performance of various types of kernels made up of sums of exponentials. Because of their around-the-clock opening times, FX markets are ideally suited to our aim as they allow us to avoid the complications of the long daily overnight closures of equity markets. One can achieve statistical significance according to three simultaneous tests provided that one uses kernels with two exponentials for fitting an hour at a time, and two or three exponentials for full days, while longer periods could not be fitted within statistical satisfaction because of the non-stationarity of the endogenous process. Fitted timescales are relatively short and endogeneity factor is high but sub-critical at about 0.8.Most agent-based models of financial markets implicitly assume that the agents interact through asset prices and exchanged volumes. Some of them add an explicit trader-trader interaction network on which rumors propagate or that encode groups that take common decisions. Contrarily to other types of data, such networks, if they exist, are necessarily implicit, which makes their determination a more challenging task. We analyze transaction data of all the clients of two liquidity providers, encompassing several years of trading. By assuming that the links between agents are determined by systematic simultaneous activity or inactivity, we show that interaction networks do exist. In addition, we find that the (in)activity of some agents systematically triggers the (in)activity of other traders, defining lead-lag relationships between the agents. This implies that the global investment flux is predictable, which we check by using sophisticated machine learning methods.
7

Information diffusion in financial markets : an agent-based approach to test the fundamental value discovery in different market structures

Lespagnol, Vivien 28 November 2016 (has links)
L’objectif des travaux présentés dans cette thèse est d’étudier la diffusion de l’information dans les marchés financiers. Considérant comme établi que les individus sont hétérogènes et à rationalité limitée, nous avons fondé nos travaux sur une catégorie de modèles computationnels dans le but de simuler les actions et les interactions des agents autonomes. Cette catégorie est communément nommée modélisation agent (ABM).Plus concrètement, cette recherche se concentre sur le rôle de l’hétérogénéité des agents dans la diffusion et l’utilisation de l’information. À cet effet, nous avons développé deux structures de marché, qui diffèrent par leur transparence. Dans les chapitres 1 et 2, nous introduisons un marché centralisé, où une partie du carnet d’ordre est accessible (information publique). Dans le chapitre 3, nous développons un marché de gré à gré dans lequel les agents négocient et échangent avec leurs relations. / The piece of work’s aim is to understand information diffusion in financial markets. Starting from the empirical evidences that agents are heterogeneous and bounded rational, we based our investigations on a class of computational models for simulating the actions and interactions of autonomous agents: the agent - based model (ABM). More precisely, this research focuses on the impacts of agents heterogeneity in diffusion and use of information. For this purpose, we developed two market structures, in which the market transparency varies. In the chapters 1 and 2, we introduce a centralised market, where a part of the order-book is available as a public information. In the chapter 3, we build an Over-The-Counter market, where agents bargains with their trading contacts.
8

Dynamique et contrôle d'un marché financier avec une approche système multi-agents / Dynamics and control of financial market with a multi-agent system approach

Lucas, Iris 18 July 2018 (has links)
Cette thèse propose une réflexion autour de l'étude des marchés financiers sous le prisme des systèmes complexes.Tout d'abord une description mathématique est proposée pour représenter le processus de prises de décision des agents dès lors où celui-ci bien que représentant les intérêts individuels d'un agent, est également influencé par l'émergence d'un comportement collectif. La méthode est particulièrement applicable lorsque le système étudié est caractérisé par une dynamique non-linéaire. Une application du modèle est proposée au travers de l'implémentation d'un marché artificiel boursier avec une approche système multi-agents. Dans cette application la dynamique du marché est décrite à la fois aux niveaux microscopiques (comportement des agents) et macroscopique (formation du prix). Le processus de décision des agents est défini à partir d'un ensemble de règles comportementales reposant sur des principes de logique floue. La dynamique de la formation du prix repose sur une description déterministe à partir des règles d'appariement d'un carnet d'ordres central tel que sur NYSE-Euronext-Paris. Il est montré que le marché artificiel boursier tel qu'implémenté est capable de répliquer plusieurs faits stylisés des marchés financiers : queue de distribution des rendements plus épaisse que celle d'une loi normale et existence de grappes de volatilité (ou volatility clustering).Par la suite, à partir de simulations numériques il est proposé d'étudier trois grandes propriétés du système : sa capacité d'auto-organisation, de résilience et sa robustesse. Dans un premier temps une méthode est introduite pour qualifier le niveau d'auto-organisation du marché. Nous verrons que la capacité d'auto-organisation du système est maximisée quand les comportements des agents sont diversifiés. Ensuite, il est proposé d'étudier la réponse du système quand celui-ci est stressé via la simulation de chocs de marché. Dans les deux analyses, afin de mettre en évidence comment la dynamique globale du système émerge à partir des interactions et des comportements des agents des résultats numériques sont systématiquement apportés puis discutés.Nos résultats montrent notamment qu'un comportement collectif grégaire apparait à la suite d'un choc, et, entraîne une incapacité temporaire du système à s'auto-organiser. Finalement, au travers des simulations numériques il peut être également remarqué que le marché artificiel boursier implémenté est plus sensible à de faibles répétitions répétées qu'à un choc plus important mais unique. / This thesis suggests reflection in studying financial markets through complex systems prism.First, an original mathematic description for describing agents' decision-making process in case of problems affecting by both individual and collective behavior is introduced. The proposed method is particularly applicable when studied system is characterized by non-linear, path dependent and self-organizing interactions. An application to financial markets is proposed by designing a multi¬agent system based on the proposed formalization.In this application, we propose to implement a computational agent-based financial market in which the system is described in both a microscopie and macroscopic levels are proposed. The agents' decision-making process is based on fuzzy logic rules and the price dynamic is purely deten-ninistic according to the basis matching rules of a central order book as in NYSE-Euronext-Paris. We show that, while putting most parameters under evolutionary control, the computational agent- based system is able to replicate several stylized facts of financial time series (distributions of stocks returns showing a heavy tau l with positive excess kurtosis and volatility clustering phenomenon).Thereafter, with numerical simulations we propose to study three system's properties: self-organization, resilience and robustness. First a method is introduced to quantify the degree of selforganization which ernerges in the system and shows that the capacity of self-organization is maximized when the agents' behaviors are heterogeneous. Secondly, we propose to study the system's response when market shock is simulated. in both cases, numerical results are presentedI and analyzed, showing how the global market behavior emerges from specific individual behavior interactions.Our results notably show that the emergence of collective herding behavior when market shock occurs leads to a temporary disruption on the system self-organization. Finaily, numerical simulations highlight that our artificial financial market can be able to absorb strong mono-shock but be lead to the rupture by low but repeated perturbations.
9

Modélisation du carnet d’ordres, Applications Market Making / Limit order book modelling, Market Making Applications

Lu, Xiaofei 04 October 2018 (has links)
Cette thèse aborde différents aspects de la modélisation de la microstructure du marché et des problèmes de Market Making, avec un accent particulier du point de vue du praticien. Le carnet d’ordres, au cœur du marché financier, est un système de files d’attente complexe à haute dimension. Nous souhaitons améliorer la connaissance du LOB pour la communauté de la recherche, proposer de nouvelles idées de modélisation et développer des applications pour les Market Makers. Nous remercions en particuler l’équipe Automated Market Making d’avoir fourni la base de données haute-fréquence de très bonne qualité et une grille de calculs puissante, sans laquelle ces recherches n’auraient pas été possible. Le Chapitre 1 présente la motivation de cette recherche et reprend les principaux résultats des différents travaux. Le Chapitre 2 se concentre entièrement sur le LOB et vise à proposer un nouveau modèle qui reproduit mieux certains faits stylisés. A travers cette recherche, non seulement nous confirmons l’influence des flux d’ordres historiques sur l’arrivée de nouveaux, mais un nouveau modèle est également fourni qui réplique beaucoup mieux la dynamique du LOB, notamment la volatilité réalisée en haute et basse fréquence. Dans le Chapitre 3, l’objectif est d’étudier les stratégies de Market Making dans un contexte plus réaliste. Cette recherche contribueà deux aspects : d’une part le nouveau modèle proposé est plus réaliste mais reste simple à appliquer pour la conception de stratégies, d’autre part la stratégie pratique de Market Making est beaucoup améliorée par rapport à une stratégie naive et est prometteuse pour l’application pratique. La prédiction à haute fréquence avec la méthode d’apprentissage profond est étudiée dans le Chapitre 4. De nombreux résultats de la prédiction en 1- étape et en plusieurs étapes ont retrouvé la non-linéarité, stationarité et universalité de la relation entre les indicateurs microstructure et le changement du prix, ainsi que la limitation de cette approche en pratique. / This thesis addresses different aspects around the market microstructure modelling and market making problems, with a special accent from the practitioner’s viewpoint. The limit order book (LOB), at the heart of financial market, is a complex continuous high-dimensional queueing system. We wish to improve the knowledge of LOB for the research community, propose new modelling ideas and develop concrete applications to the interest of Market Makers. We would like to specifically thank the Automated Market Making team for providing a large high frequency database of very high quality as well as a powerful computational grid, without whom these researches would not have been possible. The first chapter introduces the incentive of this research and resumes the main results of the different works. Chapter 2 fully focuses on the LOB and aims to propose a new model that better reproduces some stylized facts. Through this research, not only do we confirm the influence of historical order flows to the arrival of new ones, but a new model is also provided that captures much better the LOB dynamic, notably the realized volatility in high and low frequency. In chapter 3, the objective is to study Market Making strategies in a more realistic context. This research contributes in two aspects : from one hand the newly proposed model is more realistic but still simple enough to be applied for strategy design, on the other hand the practical Market Making strategy is of large improvement compared to the naive one and is promising for practical use. High-frequency prediction with deep learning method is studied in chapter 4. Many results of the 1-step and multi-step prediction have found the non-linearity, stationarity and universality of the relationship between microstructural indicators and price change, as well as the limitation of this approach in practice.

Page generated in 0.0727 seconds