Spelling suggestions: "subject:"microstructure dess marché"" "subject:"microstructure deus marché""
1 |
Modélisation de carnet d’ordres et gestion de risque de liquidité / Limit order book modelling and liquidity risk managementRasamoely, Florian 27 August 2018 (has links)
Cette thèse porte sur l'étude de modélisation stochastique de carnet d'ordres, et de deux problèmes de contrôle stochastique dans un contexte de risque de liquidité et d'impact sur le prix des actifs. La thèse est constituée de deux parties distinctes.Dans la première partie, nous traitons, sous différents aspects, un modèle markovien de carnet d'ordres.En particulier, dans le chapitre 2, nous introduisons un modèle de représentation par profondeur cumulée. Nous considérons différents types d'arrivées d'évènements avec une dépendance de l'état courant.Le chapitre 3 traite le problème de stabilité du modèle à travers une approche semi-martingale pour la classification d'une chaîne de Markov dénombrable. Nous donnons, pour chaque problème de classification, une calibration du modèle à partir des faits empiriques comme le profil moyen de la densité du carnet d'ordres.Le chapitre 4 est consacré à l'estimation et à la calibration de notre modèle à partir des flux de données du marché. Ainsi, nous comparons notre modèle et les données au moyen des faits stylisés et des faits empiriques. Nous donnons une calibration concrète aux différents problèmes de classification.Puis, dans le chapitre 5, nous traitons le problème de liquidation optimale dans le cadre du modèle de représentation par profondeur cumulée.Dans la deuxième partie, nous proposons une modélisation d'un problème de liquidation optimale d'un investisseur avec une résilience stochastique. Nous nous ramenons à un problème de contrôle stochastique singulier. Nous montrons que la fonction valeur associée est l'unique solution de viscosité d'une équation d'Hamilton-Jacobi-Bellman. De plus, nous utilisons une méthode numérique itérative pour calculer la stratégie optimale. La convergence de ce schéma numérique est obtenue via des critères de monotonicité, de stabilité et de consistance. / This thesis deals with the study of stochastic modeling of limit order book and two stochastic control problems under liquidity risk and price impact. The thesis is made of two distinct parts.In the first part, we investigate markovian limit order book model under different aspects. In particular, in Chapter 2, we introduce a model of cumulative depth representation. We consider different arrival events with dependencies on current state. Chapter 3 handles the model stability problem through a semi-martingale approach for the denumerable Markov Chain classification. We give for each problem a model calibration from empirical facts such as mean average profile of limit order book density. Chapter 4 is dedicated to the model estimation and model calibration by means of market data flow. Thus, we compare our model to market data through stylized facts and empirical facts. We give a concrete calibration to the different stability problems. Finally, in Chapter 5, we handle the optimal liquidation problem in the cumulative depth representation model framework.We study, in the second part, an optimal liquidation problem of an investor under stochastic resilience. This problem may be formulated as a stochastic singular control problem. We show that the associated value function is the unique viscosity solution of an Hamilton-Jacobi-Bellman equation. We suggest an iterative numerical method to compute the optimal strategy. The numerical scheme convergence is obtained through the monotonicity, stability and consistancy creteria.
|
2 |
De l'information en haut fréquence : quatre essais empiriques sur les mesures de risques et l'évaluation des actifs financiersKouontchou Kepawou, Patrick 20 June 2008 (has links) (PDF)
Cette thèse exploite les données de haute fréquence, plus proches des « vrais » processus de prix, mais qui engendrent un certain nombre de problèmes techniques qui nous permettent de réexaminer certains modèles d'évaluation des actifs financiers et la gestion des risques financiers. Nous commençons par explorer un phénomène dénommé « Rose des vents » découvert par Crack et Ledoit (1996) caractérisant les échanges à très haute fréquence. Cette question a déjà fait l'objet de plusieurs études qui n'ont pu complètement caractériser les conditions de cette structure sur quelques titres du marché français. Nous montrons dans un deuxième essai que la précision d'une mesure de risque efficiente, appelée Valeur-en-risque, est améliorée lorsqu'on utilise des données de haute fréquence. Nous exploitons une Analyse en Composants Indépendantes pour extraire les facteurs de risques, et nous montrons qu'elle donne des résultats plus robustes, hors échantillon, qu'une extraction par composantes principales. Nous généralisons ensuite les modèles traditionnels d'évaluation des prix des actifs aux moments d'ordres supérieurs « réalisés ». Nous montrons que cette généralisation améliore sensiblement les estimations. Nous terminons cette thèse par une extension sur l'extraction d'un temps d'échanges implicite qui permet de retrouver une distribution Gaussienne des rendements. Nous obtenons, à partir d'une méthode d'optimisation directe, un temps implicite sur plusieurs titres du marché français des actions.
|
3 |
Quelques propriétés de la corrélation entre les actifs financiers à haute fréquenceHuth, Nicolas 14 December 2012 (has links) (PDF)
Le but de cette thèse est d'approfondir les connaissances académiques sur les variations jointes des actifs financiers à haute fréquence en les analysant sous un point de vue novateur. Nous tirons profit d'une base de données de prix tick-by-tick pour mettre en lumière de nouveaux faits stylises sur la corrélation haute fréquence, et également pour tester la validité empirique de modèles multivariés. Dans le chapitre 1, nous discutons des raisons pour lesquelles la corrélation haute fréquence est d'une importance capitale pour le trading. Par ailleurs, nous passons en revue la littérature empirique et théorique sur la corrélation à de petites échelles de temps. Puis nous décrivons les principales caractéristiques du jeu de données que nous utilisons. Enfin, nous énonçons les résultats obtenus dans cette thèse. Dans le chapitre 2, nous proposons une extension du modèle de subordination au cas multivarié. Elle repose sur la définition d'un temps événementiel global qui agrège l'activité financière de tous les actifs considérés. Nous testons la capacité de notre modèle à capturer les propriétés notables de la distribution multivariée empirique des rendements et observons de convaincantes similarités. Dans le chapitre 3, nous étudions les relations lead/lag à haute fréquence en utilisant un estimateur de fonction de corrélation adapte aux données tick-by-tick. Nous illustrons sa supériorité par rapport à l'estimateur standard de corrélation pour détecter le phénomène de lead/lag. Nous établissons un parallèle entre le lead/lag et des mesures classiques de liquidité et révélons un arbitrage pour déterminer les paires optimales pour le trading de lead/lag. Enfin, nous évaluons la performance d'un indicateur basé sur le lead/lag pour prévoir l'évolution des prix à court terme. Dans le chapitre 4, nous nous intéressons au profil saisonnier de la corrélation intra-journalière. Nous estimons ce profil sur quatre univers d'actions et observons des ressemblances frappantes. Nous tentons d'incorporer ce fait stylise dans un modèle de prix tick-by-tick base sur des processus de Hawkes. Le modèle ainsi construit capture le profil de corrélation empirique assez finement, malgré sa difficulté à atteindre le niveau de corrélation absolu.
|
4 |
Quelques propriétés de la corrélation entre les actifs financiers à haute fréquence / Some properties of the correlation between the high-frequency financial assetsHuth, Nicolas 14 December 2012 (has links)
Le but de cette thèse est d’approfondir les connaissances académiques sur les variations jointes des actifs financiers à haute fréquence en les analysant sous un point de vue novateur. Nous tirons profit d’une base de données de prix tick-by-tick pour mettre en lumière de nouveaux faits stylises sur la corrélation haute fréquence, et également pour tester la validité empirique de modèles multivariés. Dans le chapitre 1, nous discutons des raisons pour lesquelles la corrélation haute fréquence est d’une importance capitale pour le trading. Par ailleurs, nous passons en revue la littérature empirique et théorique sur la corrélation à de petites échelles de temps. Puis nous décrivons les principales caractéristiques du jeu de données que nous utilisons. Enfin, nous énonçons les résultats obtenus dans cette thèse. Dans le chapitre 2, nous proposons une extension du modèle de subordination au cas multivarié. Elle repose sur la définition d’un temps événementiel global qui agrège l’activité financière de tous les actifs considérés. Nous testons la capacité de notre modèle à capturer les propriétés notables de la distribution multivariée empirique des rendements et observons de convaincantes similarités. Dans le chapitre 3, nous étudions les relations lead/lag à haute fréquence en utilisant un estimateur de fonction de corrélation adapte aux données tick-by-tick. Nous illustrons sa supériorité par rapport à l’estimateur standard de corrélation pour détecter le phénomène de lead/lag. Nous établissons un parallèle entre le lead/lag et des mesures classiques de liquidité et révélons un arbitrage pour déterminer les paires optimales pour le trading de lead/lag. Enfin, nous évaluons la performance d’un indicateur basé sur le lead/lag pour prévoir l’évolution des prix à court terme. Dans le chapitre 4, nous nous intéressons au profil saisonnier de la corrélation intra-journalière. Nous estimons ce profil sur quatre univers d’actions et observons des ressemblances frappantes. Nous tentons d’incorporer ce fait stylise dans un modèle de prix tick-by-tick base sur des processus de Hawkes. Le modèle ainsi construit capture le profil de corrélation empirique assez finement, malgré sa difficulté à atteindre le niveau de corrélation absolu. / This thesis aims at providing insight into comovements of financial assets at high frequency from an original point of view. We take advantage of a database of tick-by-tick prices to bring to light new stylized facts on high frequency correlation as well as to check the empirical validity of multivariate modelling frameworks. In chapter 1, we elaborate on the reasons why high frequency correlation is of the utmost importance for trading purposes. We also briefly review the empirical and theoretical literature on correlation at small time scales. Then, we describe the main features of the data set we use. Finally, we enunciate the results obtained in this thesis. In chapter 2, we suggest a way of extending the subordination modelling to the multivariate case. This relies on the definition of a global event time that merges the trading activity of all assets under consideration. We test the ability of our model to capture salient features of the empirical multivariate probability distribution of returns and find a convincing agreement. In chapter 3, we study high frequency lead/lag relationships using a suitable cross-correlation estimator for tick-by-tick data. We show its superiority over the classical correlation estimator in detecting lead/lag patterns. We relate lead/lag to standard liquidity measures and exhibit a trade-off to find optimal pairs for lead/lag trading. Finally, we evaluate the performance of a lead/lag indicator in forecasting the short-term evolution of prices. In chapter 4, we focus on the intraday correlation seasonal pattern. We estimate this pattern over four universes of stocks and observe striking similarities. We attempt to incorporate this stylized fact into a tick-by-tick price model based upon Hawkes processes. The resulting model captures the empirical profile of correlation quite well, though it doesn’t match the absolute level of correlation.
|
5 |
Modeling, optimization and estimation for the on-line control of trading algorithms in limit-order markets / Modélisation, optimisation et estimation pour le contrôle au fil de l'eau des algorithmes de tradingFernandez Tapia, Joaquin 10 September 2015 (has links)
L'objectif de ce travail de thèse est une étude quantitive des differents problèmes mathematiques qui apparaissent en trading algorithmique. Concrètement, on propose une approche scientifique pour optimiser des processus relatifs a la capture et provision de liquidités pour des marchés electroniques.Du au fort caractère appliqué de ce travail, on n'est pas seulement intéressés par la rigeur mathématique de nos résultats, mais on souhaite aussi a comprendre ce travail de recherche dans le contexte des differentes étapes qui font partie de l'implementation pratique des outils que l'on developpe; par exemple l'interpretation du modèle, l'estimation de parametres, l'implementation informatique etc.Du point de vue scientifique, le coeur de notre travail est fondé sur deux techniques empruntées au monde de l'optimisation et des probabilités, celles sont : le contrôle stochastique et l'approximation stochastique.En particulier, on présente des resultats academiques originaux pour le probleme de market-making haute fréquence et le problème de liquidation de portefeuille en utilisant des limit-orders; dans le deux cas on utilise une approche d'optimisation dite backwards. De la même façon, on résout le problème de market-making en utilisant une approche "forward", ceci étant innovateur dans la litterature du trading optimal car il ouvre la porte à des techniques d'apprentissage automatique.Du pont de vue pratique, cette thèse cherches à creer un point entre la recherche academique et l'industrie financière. Nos resultats sont constamment considérés dans la perspective de leur implementation pratique. Ainsi, on concentre une grande partie de notre travail a étudier les differents facteurs qui sont importants a comprendre quand on transforme nos techniques quantitatives en valeur industrielle: comprendre la microstructure des marchés, des faits stylisés, traitrement des données, discussions sur les modèles, limitations de notre cadre scientifique etc. / This PhD thesis focuses on the quantitative analysis of mathematical problems arising in the field of optimal algorithmic trading. Concretely, we propose a scientific approach in order to optimize processes related to the capture and provision of liquidity in electronic markets. Because of the strongly industry-focused character of this work, not only we are interested in giving rigorous mathematical results but also to understand this research project in the context of the different stages that come into play during the practical implementation of the tools developed throughout the following chapters (e.g. model interpretation, parameter estimation, programming etc.).From a scientific standpoint the core of our work focuses on two techniques taken from the world of optimization and probability; these are, stochastic control and stochastic approximation. In particular, we provide original academic results for the problem of high frequency market making and the problem of portfolio liquidation by using limit orders; both by using a backward optimization approach. We also propose a forward optimization framework to solve the market making problem; the latter approach being quite innovative for optimal trading, as it opens the door for machine learning techniques.From a practical angle, this PhD thesis seeks to create a bridge between academic research and practitioners. Our mathematical findings are constantly put in perspective in terms of their practical implementation. Hence, we focus a large part of our work on studying the different factors that are of paramount importance to understand when transforming our quantitative techniques into industrial value: understanding the underlying market microstructure, empirical stylized facts, data processing, discussion about the models, limitations of our scientific framework etc.
|
6 |
Des marchés comme algorithmes : sociologie de la cotation électronique à la Bourse de ParisMuniesa, Fabian 28 May 2003 (has links) (PDF)
La question du caractère « mécanique » des marchés est au centre de nombreux débats en sciences sociales. Laissant de côté les discussions purement épistémologiques sur le caractère métaphorique ou analytique de la notion de « mécanisme marchand », nous proposons dans cette thèse une approche pragmatique centrée sur l'étude d'un cas concret de « mécanisation » d'un marché. Nous abordons cette problématique à travers une étude détaillée du processus d'informatisation de la Bourse de Paris : un marché où le processus de détermination des prix, réalisé traditionnellement à la criée, est désormais totalement automatisé depuis la fin des années 1980. Cette thèse apporte donc une analyse détaillée de la cotation électronique à la Bourse de Paris. L'analyse ne consiste pas en un inventaire historique des différentes innovations qui jalonnent l'évolution du dispositif marchand, ni en un examen technique de ses propriétés économiques. L'originalité de notre approche relève de son caractère sociologique, c'est-à-dire de sa capacité à dégager la nature collective, construite et différenciée des divers éléments étudiés. Plus concrètement, nous montrons que la « mise en algorithme » de ce marché concret demande des formes complexes et variées d'explicitation du mécanisme marchand (qui vont au-delà des visions élémentaires qu'en donnent souvent les sciences sociales), qu'elle requiert tout un travail d'ingénierie aussi bien technique que sociale (un marché automatisé n'en reste pas moins social), et qu'elle engage des controverses sur la justesse de la détermination des prix (en raison notamment des effets qu'une configuration algorithmique peut avoir dans la représentation collective de la valeur).
|
7 |
Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financièreInfante Acevedo, José Arturo 09 December 2013 (has links) (PDF)
Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financière Ce travail de thèse aborde deux sujets : (i) L'utilisation d'une nouvelle méthode numérique pour l'évaluation des options sur un panier d'actifs, (ii) Le risque de liquidité, la modélisation du carnet d'ordres et la microstructure de marché. Premier thème : Un algorithme glouton et ses applications pour résoudre des équa- tions aux dérivées partielles Beaucoup de problèmes d'intérêt dans différents domaines (sciences des matériaux, finance, etc) font intervenir des équations aux dérivées partielles (EDP) en grande dimension. L'exemple typique en finance est l'évaluation d'une option sur un panier d'actifs, laquelle peut être obtenue en résolvant l'EDP de Black-Scholes ayant comme dimension le nombre d'actifs considérés. Nous proposons d'é- tudier un algorithme qui a été proposé et étudié récemment dans [ACKM06, BLM09] pour résoudre des problèmes en grande dimension et essayer de contourner la malédiction de la dimension. L'idée est de représenter la solution comme une somme de produits tensoriels et de calculer itérativement les termes de cette somme en utilisant un algorithme glouton. La résolution des EDP en grande di- mension est fortement liée à la représentation des fonctions en grande dimension. Dans le Chapitre 1, nous décrivons différentes approches pour représenter des fonctions en grande dimension et nous introduisons les problèmes en grande dimension en finance qui sont traités dans ce travail de thèse. La méthode sélectionnée dans ce manuscrit est une méthode d'approximation non-linéaire ap- pelée Proper Generalized Decomposition (PGD). Le Chapitre 2 montre l'application de cette méthode pour l'approximation de la solution d'une EDP linéaire (le problème de Poisson) et pour l'approxima- tion d'une fonction de carré intégrable par une somme des produits tensoriels. Un étude numérique de ce dernier problème est présenté dans le Chapitre 3. Le problème de Poisson et celui de l'approxima- tion d'une fonction de carré intégrable serviront de base dans le Chapitre 4 pour résoudre l'équation de Black-Scholes en utilisant l'approche PGD. Dans des exemples numériques, nous avons obtenu des résultats jusqu'en dimension 10. Outre l'approximation de la solution de l'équation de Black-Scholes, nous proposons une méthode de réduction de variance des méthodes Monte Carlo classiques pour évaluer des options financières. Second thème : Risque de liquidité, modélisation du carnet d'ordres, microstructure de marché Le risque de liquidité et la microstructure de marché sont devenus des sujets très importants dans les mathématiques financières. La dérégulation des marchés financiers et la compétition entre eux pour attirer plus d'investisseurs constituent une des raisons possibles. Les règles de cotation sont en train de changer et, en général, plus d'information est disponible. En particulier, il est possible de savoir à chaque instant le nombre d'ordres en attente pour certains actifs et d'avoir un historique de toutes les transactions passées. Dans ce travail, nous étudions comment utiliser cette information pour exécuter de facon optimale la vente ou l'achat des ordres. Ceci est lié au comportement des traders qui veulent minimiser leurs coûts de transaction. La structure du carnet d'ordres (Limit Order Book) est très complexe. Les ordres peuvent seulement être placés dans une grille des prix. A chaque instant, le nombre d'ordres en attente d'achat (ou vente) pour chaque prix est enregistré. Pour un prix donné, quand deux ordres se correspondent, ils sont exécutés selon une règle First In First Out. Ainsi, à cause de cette complexité, un modèle exhaustif du carnet d'ordres peut ne pas nous amener à un modèle où, par exemple, il pourrait être difficile de tirer des conclusions sur la stratégie optimale du trader. Nous devons donc proposer des modèles qui puissent capturer les caractéristiques les plus importantes de la structure du carnet d'ordres tout en restant possible d'obtenir des résultats analytiques. Dans [AFS10], Alfonsi, Fruth et Schied ont proposé un modèle simple du carnet d'ordres. Dans ce modèle, il est possible de trouver explicitement la stratégie optimale pour acheter (ou vendre) une quantité donnée d'actions avant une maturité. L'idée est de diviser l'ordre d'achat (ou de vente) dans d'autres ordres plus petits afin de trouver l'équilibre entre l'acquisition des nouveaux ordres et leur prix. Ce travail de thèse se concentre sur une extension du modèle du carnet d'ordres introduit par Alfonsi, Fruth et Schied. Ici, l'originalité est de permettre à la profondeur du carnet d'ordres de dépendre du temps, ce qui représente une nouvelle caractéristique du carnet d'ordres qui a été illustré par [JJ88, GM92, HH95, KW96]. Dans ce cadre, nous résolvons le problème de l'exécution optimale pour des stratégies discrétes et continues. Ceci nous donne, en particulier, des conditions suffisantes pour exclure les manipulations des prix au sens de Huberman et Stanzl [HS04] ou de Transaction- Triggered Price Manipulation (voir Alfonsi, Schied et Slynko). Ces conditions nous donnent des intu- itions qualitatives sur la manière dont les teneurs de marché (market makers) peuvent créer ou pas des manipulations des prix.
|
8 |
Des marchés comme algorithmes : sociologie de la cotation électronique à la Bourse de ParisMuniesa, Fabian 28 May 2003 (has links) (PDF)
La question du caractère « mécanique » des marchés est au centre de nombreux débats en sciences sociales. Laissant de côté les discussions purement épistémologiques sur le caractère métaphorique ou analytique de la notion de « mécanisme marchand », nous proposons dans cette thèse une approche pragmatique centrée sur l'étude d'un cas concret de « mécanisation » d'un marché. Nous abordons cette problématique à travers une étude détaillée du processus d'informatisation de la Bourse de Paris : un marché où le processus de détermination des prix, réalisé traditionnellement à la criée, est désormais totalement automatisé depuis la fin des années 1980. Cette thèse apporte donc une analyse détaillée de la cotation électronique à la Bourse de Paris. L'analyse ne consiste pas en un inventaire historique des différentes innovations qui jalonnent l'évolution du dispositif marchand, ni en un examen technique de ses propriétés économiques. L'originalité de notre approche relève de son caractère sociologique, c'est-à-dire de sa capacité à dégager la nature collective, construite et différenciée des divers éléments étudiés. Plus concrètement, nous montrons que la « mise en algorithme » de ce marché concret demande des formes complexes et variées d'explicitation du mécanisme marchand (qui vont au-delà des visions élémentaires qu'en donnent souvent les sciences sociales), qu'elle requiert tout un travail d'ingénierie aussi bien technique que sociale (un marché automatisé n'en reste pas moins social), et qu'elle engage des controverses sur la justesse de la détermination des prix (en raison notamment des effets qu'une configuration algorithmique peut avoir dans la représentation collective de la valeur).
|
9 |
Essais en microéconomie financière et appliquée / Essays in financial and applied microeconomicsDemarquette, Maximilien 17 February 2016 (has links)
Cette thèse est composée de trois articles indépendants qui ont pour trait commun d’analyser le comportement d’investisseurs et de firmes en situation de concurrence imparfaite. Nous considérons d’abord un modèle de marché financier à la Kyle (1985) où les investisseurs peuvent produire soit un signal (fondamental) sur la valeur d’un actif risqué, soit un signal (non-fondamental) sur la demande aléatoire des noise traders. Nous montrons que réduire le coût du signal non-fondamental détériore l’efficience informationnelle du prix du titre et,sous certaines conditions, le bien-être des noise traders. Nous étendons ensuite le modèle au cas où les investisseurs non-fondamentalistes soumettent des ordres à cours limité. Leur activité s’apparente alors à du “front running”. Par ce biais, nous enrichissons nos résultats et montrons que l’effet potentiellement néfaste de l’accès à l’information non-fondamentale persiste.Nous considérons ensuite un marché à la Kyle (1985) où des agents non informés échangent pour un motif de partage de risque avec des investisseurs répartis sur un réseau.Ces derniers partagent leurs signaux avec leurs contacts, ce qui formalise une meilleure diffusion de l’information. Nous évaluons alors l’effet de cette hypothèse sur deux critères: le profit spéculatif et l’espérance d’utilité des agents non informés qui mesure l’efficacité du partage de risque sur le marché. Nous montrons que l’ajout du réseau peut simultanément améliorer ces deux critères ainsi que l’efficience informationnelle du prix. Un résultat original qui ne peut pas être obtenu sans l’ajout du réseau. Enfin, nous caractérisons la coopération graduelle entre deux firmes concurrentes de tailles différentes incapables de contracter et dont les contributions sont irréversibles. Nous montrons que l’asymétrie entre les deux firmes ralentit fortement le processus de collaboration,ce qui souligne l’importance des arrangements contractuels dans certaines situations. Nous montrons aussi qu’un renforcement de la concurrence entre les deux firmes peut nuire au bien-être social en réduisant leur capacité à collaborer. / This thesis contains three distinct papers related to the behavior of investors or firms acting under imperfect competition. First, we consider a Kyle’s (1985) model where investors can produce either a (fundamental) signal on the value of the risky asset, or a (non fundamental)signal on the forth coming demand from noise traders. We show that reducing the cost of the non-fundamental signal worsens price informativeness as well as the welfare of noise traders under some conditions. Then, we extend the model by allowing non fundamental traders to submit limit orders. Their activity is then analogous to front running. By this mean, we enrich our results and show that the potentially detrimental effect of non-fundamental information still pertains. Then, we consider a market à la Kyle (1985) where uninformed hedgers trade for risk sharing purposes with investors located on a network, who share their signal with their“contacts”. This hypothesis formalizes a better diffusion of information. We evaluate its effect on speculative gains and hedgers’ expected utility which depends on the risk sharing role of the market. We show that the introduction of the network might simultaneously improve these two welfare measures as well as price informativeness. An original result that cannot be obtained otherwise. Finally, we consider a contribution game between two competitors of different sizes. We obtain the value of their (irreversible) contributions during each period of the game. We show that the asymmetry between the two firms strongly slowers the collaboration process,high lighting the importance of contractual arrangements in some circumstances. Also, we obtain that increasing competition might be detrimental to social welfare, because it harms the ability of the two firms to set up a mutually beneficial process of collaboration.
|
10 |
Quantitative Finance under rough volatility / Finance quantitative sous les modèles à volatilité rugueuseEl Euch, Omar 25 September 2018 (has links)
Cette thèse a pour objectif la compréhension de plusieurs aspects du caractère rugueux de la volatilité observé de manière universelle sur les actifs financiers. Ceci est fait en six étapes. Dans une première partie, on explique cette propriété à partir des comportements typiques des agents sur le marché. Plus précisément, on construit un modèle de prix microscopique basé sur les processus de Hawkes reproduisant les faits stylisés importants de la microstructure des marchés. En étudiant le comportement du prix à long terme, on montre l’émergence d’une version rugueuse du modèle de Heston (appelé modèle rough Heston) avec effet de levier. En utilisant ce lien original entre les processus de Hawkes et les modèles de Heston, on calcule dans la deuxième partie de cette thèse la fonction caractéristique du log-prix du modèle rough Heston. Cette fonction caractéristique est donnée en terme d’une solution d’une équation de Riccati dans le cas du modèle de Heston classique. On montre la validité d’une formule similaire dans le cas du modèle rough Heston, où l’équation de Riccati est remplacée par sa version fractionnaire. Cette formule nous permet de surmonter les difficultés techniques dues au caractère non markovien du modèle afin de valoriser des produits dérivés. Dans la troisième partie, on aborde la question de la gestion des risques des produits dérivés dans le modèle rough Heston. On présente des stratégies de couverture utilisant comme instruments l’actif sous-jacent et la courbe variance forward. Ceci est fait en spécifiant la structure markovienne infini-dimensionnelle du modèle. Étant capable de valoriser et couvrir les produits dérivés dans le modèle rough Heston, nous confrontons ce modèle à la réalité des marchés financiers dans la quatrième partie. Plus précisément, on montre qu’il reproduit le comportement de la volatilité implicite et historique. On montre également qu’il génère l’effet Zumbach qui est une asymétrie par inversion du temps observée empiriquement sur les données financières. On étudie dans la cinquième partie le comportement limite de la volatilité implicite à la monnaie à faible maturité dans le cadre d’un modèle à volatilité stochastique général (incluant le modèle rough Bergomi), en appliquant un développement de la densité du prix de l’actif. Alors que l’approximation basée sur les processus de Hawkes a permis de traiter plusieurs questions relatives au modèle rough Heston, nous examinons dans la sixième partie une approximation markovienne s’appliquant sur une classe plus générale de modèles à volatilité rugueuse. En utilisant cette approximation dans le cas particulier du modèle rough Heston, on obtient une méthode numérique pour résoudre les équations de Riccati fractionnaires. Enfin, nous terminons cette thèse en étudiant un problème non lié à la littérature sur la volatilité rugueuse. Nous considérons le cas d’une plateforme cherchant le meilleur système de make-take fees pour attirer de la liquidité. En utilisant le cadre principal-agent, on décrit le meilleur contrat à proposer au market maker ainsi que les cotations optimales affichées par ce dernier. Nous montrons également que cette politique conduit à une meilleure liquidité et à une baisse des coûts de transaction pour les investisseurs. / The aim of this thesis is to study various aspects of the rough behavior of the volatility observed universally on financial assets. This is done in six steps. In the first part, we investigate how rough volatility can naturally emerge from typical behav- iors of market participants. To do so, we build a microscopic price model based on Hawkes processes in which we encode the main features of the market microstructure. By studying the asymptotic behavior of the price on the long run, we obtain a rough version of the Heston model exhibiting rough volatility and leverage effect. Using this original link between Hawkes processes and the Heston framework, we compute in the second part of the thesis the characteristic function of the log-price in the rough Heston model. In the classical Heston model, the characteristic function is expressed in terms of a solution of a Riccati equation. We show that rough Heston models enjoy a similar formula, the Riccati equation being replaced by its fractional version. This formula enables us to overcome the non-Markovian nature of the model in order to deal with derivatives pricing. In the third part, we tackle the issue of managing derivatives risks under the rough Heston model. We establish explicit hedging strategies using as instruments the underlying asset and the forward variance curve. This is done by specifying the infinite-dimensional Markovian structure of the rough Heston model. Being able to price and hedge derivatives in the rough Heston model, we challenge the model to practice in the fourth part. More precisely, we show the excellent fit of the model to historical and implied volatilities. We also show that the model reproduces the Zumbach’s effect, that is a time reversal asymmetry which is observed empirically on financial data. While the Hawkes approximation enabled us to solve the pricing and hedging issues under the rough Heston model, this approach cannot be extended to an arbitrary rough volatility model. We study in the fifth part the behavior of the at-the-money implied volatility for small maturity under general stochastic volatility models. In the same spirit as the Hawkes approximation, we look in the sixth part of this thesis for a tractable Markovian approximation that holds for a general class of rough volatility models. By applying this approximation on the specific case of the rough Heston model, we derive a numerical scheme for solving fractional Riccati equations. Finally, we end this thesis by studying a problem unrelated to rough volatility. We consider an exchange looking for the best make-take fees system to attract liquidity in its platform. Using a principal-agent framework, we describe the best contract that the exchange should propose to the market maker and provide the optimal quotes displayed by the latter. We also argue that this policy leads to higher quality of liquidity and lower trading costs for investors.
|
Page generated in 0.0793 seconds