• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 4
  • Tagged with
  • 12
  • 12
  • 10
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Propriétés empiriques et modélisation d’actifs en haute fréquence / Empirical properties and asset modelling at high frequency

Zaatour, Riadh 10 March 2013 (has links)
Cette thèse explore théoriquement et empiriquement certains aspects de la formation et de l’évolution des prix des actifs financiers observés en haute fréquence. Nous commençons par l’étude de la dynamique jointe de l’option et de son sous-jacent. Les données haute fréquence rendant observable le processus de volatilité réalisée du sous-jacent, nous cherchons à savoir si cette information est utilisée pour fixer les prix des options. Nous trouvons que le marché ne l’exploite pas. Les modèles de volatilité stochastique sont donc à considérer comme des modèles à forme réduite. Cette étude permet néanmoins de tester la pertinence d’une mesure de couverture empirique que nous appelons delta effectif. C’est la pente de la régression des rendements des prix de l’option sur ceux du sous-jacent. Elle fournit un indicateur de couverture assez satisfaisant et indépendant de toute modélisation. Pour la dynamique des prix, nous nous tournons dans les chapitres suivants vers des modèles plus explicites de la microstructure du marché. L’une des caractéristiques de l’activité de marché est son regroupement, ou clustering. Les processus de Hawkes, processus ponctuels présentant cette caractéristique, fournissent donc un cadre mathématique adéquat pour l’étude de cette activité. La représentation Markovienne de ces processus, ainsi que leur caractère affine quand le noyau est exponentiel, permettent de recourir aux puissants outils analytiques que sont le générateur infinitésimal et la formule de Dynkin pour calculer différentes quantités qui leur sont reliées, telles que les moments ou autocovariances du nombre d’évènements sur un intervalle donné. Nous commençons par un cadre monodimensionnel, assez simple pour éclairer la démarche, mais suffisamment riche pour permettre des applications telles que le groupement des instants d’arrivée d’ordres de marché, la prévision de l’activité de marché à venir sachant l’activité passée, ou la caractérisation de formes inhabituelles, mais néanmoins observées, de signature plot où la volatilité mesurée décroît quand la fréquence d’échantillonnage augmente. Nos calculs nous permettent aussi de rendre la calibration des processus de Hawkes instantanée en recourant à la méthode des moments. La généralisation au cas multidimensionnel nous permet ensuite de capturer, avec le clustering, le phénomène de retour à la moyenne qui caractérise aussi l’activité de marché observée en haute fréquence. Des formules générales pour le signature plot sont alors obtenues et permettent de relier la forme de celui-ci à l’importance relative du clustering ou du retour à la moyenne. Nos calculs permettent aussi d’obtenir la forme explicite de la volatilité associée à la limite diffusive, connectant la dynamique de niveau microscopique à la volatilité observée macroscopiquement, par exemple à l’échelle journalière. En outre, la modélisation des activités d’achat et de vente par des processus de Hawkes permet de calculer l’impact d’un méta ordre sur le prix de l’actif. On retrouve et on explique alors la forme concave de cet impact ainsi que sa relaxation temporelle. Les résultats analytiques obtenus dans le cas multidimensionnel fournissent ensuite le cadre adéquat à l’étude de la corrélation. On présente alors des résultats généraux sur l’effet Epps, ainsi que sur la formation de la corrélation et du lead lag. / This thesis explores theoretical and empirical aspects of price formation and evolution at high frequency. We begin with the study of the joint dynamics of an option and its underlying. The high frequency data making observable the realized volatility process of the underlying, we want to know if this information is used to price options. We find that the market does not process this information to fix option prices. The stochastic volatility models are then to be considered as reduced form models. Nevertheless, this study tests the relevance of an empirical hedging parameter that we call effective delta. This is the slope of the regression of option price increments on those of the underlying. It proves to be a satisfactory model-independent hedging parameter. For the price dynamics, we turn our attention in the following chapters to more explicit models of market microstructure. One of the characteristics of the market activity is its clustering. Hawkes processes are point processes with this characteristic, therefore providing an adequate mathematical framework for the study of this activity. Moreover, the Markov property associated to these processes when the kernel is exponential allows to use powerful analytical tools such as the infinitesimal generator and the Dynkin formula to calculate various quantities related to them, such as moments or autocovariances of the number of events on a given interval. We begin with a monovariate framework, simple enough to illustrate the method, but rich enough to enable applications such as the clustering of arrival times of market orders, prediction of future market activity knowing past activity, or characterization of unusual shapes, but nevertheless observed, of signature plot, where the measured volatility decreases when the sampling frequency increases. Our calculations also allow us to make instantaneous calibration of the process by relying on the method of moments. The generalization to the multidimensional case then allow us to capture, besides the clustering, the phenomenon of mean reversion, which also characterizes the market activity observed in high frequency. General formulas for the signature plot are then obtained and used to connect its shape to the relative importance of clustering or mean reversion. Our calculations also allow to obtain the explicit form of the volatility associated with the diffusive limit, therefore connecting the dynamics at microscopic level to the macroscopic volatility, for example on a daily scale. Additionally, modelling buy and sell activity by Hawkes processes allows to calculate the market impact of a meta order on the asset price. We retrieve and explain the usual concave form of this impact as well as its relaxation with time. The analytical results obtained in the multivariate case provide the adequate framework for the study of the correlation. We then present generic results on the Epps effect as well as on the formation of the correlation and the lead lag.
2

Modèles hiérarchiques et processus ponctuels spatio-temporels : Applications en épidémiologie et en sismologie / Hierarchical models and spatio-temporal point process- : Applications in epidemiology and sismology

Valmy, Larissa 05 November 2012 (has links)
Les processus ponctuels sont souvent utilisés comme modèles de répartitions spatiales ou spatio-temporelles d'occurrences Dans cette thèse, nous nous intéressons à des processus de Cox dirigés par un processus caché associé à un processus de Dirichlet. Ce modèle correspond à des occurrences cachées influençant l'intensité stochastique des occurrences observées. Nous généralisons la notion de Shot noise Cox process et développons le traitement bayésien. Nous focalisons l'inférence statistique sur l'estimation de la valeur espérée de chaque contribution cachée, leur nombre espéré, degré d'influence spatiale et degré de corrélation L'utilité en épidémiologie et en écologie est démontrée à partir de données de Rubus fruticosa, lbicella lutea et de mortalité dans les cantons de Georgie, USA. En termes de données observées, deux situations sont considérées: d'abord, les positions spatiales des occurrences sont observées entre plusieurs paires de dates consécutives; puis, des comptages sont effectués dans des unités d'échantillonnage spatiales. D'autre part, nous nous intéressons aux processus ponctuels à mémoire introduits par Kagan, Ogata et Vere-Jones. En effet, les processus ponctuels ont une place importante dans l'étude des catalogues sismiques. Nous avons étudié un modèle Epidemie Type Aftershock Sequence avec une intensité d'arrière-plan indépendante du temps et plusieurs fonctions déclenchantes permettant d'intégrer les événements antérieurs récents. Cette approche est utilisée pour étudier la sismicité des Petites Antilles. Une étude comparative des modèles Gamma, Weibull, Log-Normal et loi d'Omori modifiée pour les fonctions déclenchantes est menée. / Point processes are often used as spatial or spatio-temporal distribution models of occurrences. In this Phd dissertation, we focus first on Cox processes driven by a hidden process associated with a Dirichlet process. This model corresponds to hidden occurrences influencing the stochastic intensity of observed occurrences. We generalize the notion of Shot noise Cox process and develop its bayesian analysis. We focus the statistical inference on the estimation of the hidden contribution expected value, the hidden contribution expected number, the spatial influence and correlation parameters. Applications in epidemiology and ecology are shown from Rubus fruticosa data, Ibicella lutea data and death number data in counties of Georgia, USA. Two situations are considered with respect to available data: firstly, the spatial positions of occurrences are observed between several pairs of consecutive dates; secondly, counts are carried out over a fixed time interval in several spatial sampling units. Secondly, we focus on point processes with memory intr oduced by Kagan, Ogata and Vere-Jones. Spatio-temporal point processes play an important role in the studies of earthquake catalogs since they consist of seismic events with their dates and spatial locations. We studied an Epidemic Type Aftershock Sequence model with time independent background intensity and several triggering functions taking into account previous events. We illustrate our approach with a seismicity study of the Lesser Antilles arc. A comparaison study of Gamma, Weibull, Log-Normal and modified Omori law triggering function models is also carried out
3

Machine learning based on Hawkes processes and stochastic optimization / Apprentissage automatique avec les processus de Hawkes et l'optimisation stochastique

Bompaire, Martin 05 July 2019 (has links)
Le fil rouge de cette thèse est l'étude des processus de Hawkes. Ces processus ponctuels décryptent l'inter-causalité qui peut avoir lieu entre plusieurs séries d'événements. Concrètement, ils déterminent l'influence qu'ont les événements d'une série sur les événements futurs de toutes les autres séries. Par exemple, dans le contexte des réseaux sociaux, ils décrivent à quel point l'action d'un utilisateur, par exemple un Tweet, sera susceptible de déclencher des réactions de la part des autres.Le premier chapitre est une brève introduction sur les processus ponctuels suivie par un approfondissement sur les processus de Hawkes et en particulier sur les propriétés de la paramétrisation à noyaux exponentiels, la plus communément utilisée. Dans le chapitre suivant, nous introduisons une pénalisation adaptative pour modéliser, avec des processus de Hawkes, la propagation de l'information dans les réseaux sociaux. Cette pénalisation est capable de prendre en compte la connaissance a priori des caractéristiques de ces réseaux, telles que les interactions éparses entre utilisateurs ou la structure de communauté, et de les réfléchir sur le modèle estimé. Notre technique utilise des pénalités pondérées dont les poids sont déterminés par une analyse fine de l'erreur de généralisation.Ensuite, nous abordons l'optimisation convexe et les progrès réalisés avec les méthodes stochastiques du premier ordre avec réduction de variance. Le quatrième chapitre est dédié à l'adaptation de ces techniques pour optimiser le terme d'attache aux données le plus couramment utilisé avec les processus de Hawkes. En effet, cette fonction ne vérifie pas l'hypothèse de gradient-Lipschitz habituellement utilisée. Ainsi, nous travaillons avec une autre hypothèse de régularité, et obtenons un taux de convergence linéaire pour une version décalée de Stochastic Dual Coordinate Ascent qui améliore l'état de l'art. De plus, de telles fonctions comportent beaucoup de contraintes linéaires qui sont fréquemment violées par les algorithmes classiques du premier ordre, mais, dans leur version duale ces contraintes sont beaucoup plus aisées à satisfaire. Ainsi, la robustesse de notre algorithme est d'avantage comparable à celle des méthodes du second ordre dont le coût est prohibitif en grandes dimensions.Enfin, le dernier chapitre présente une nouvelle bibliothèque d'apprentissage statistique pour Python 3 avec un accent particulier mis sur les modèles temporels. Appelée tick, cette bibliothèque repose sur une implémentation en C++ et les algorithmes d'optimisation issus de l'état de l'art pour réaliser des estimations très rapides dans un environnement multi-cœurs. Publiée sur Github, cette bibliothèque a été utilisée tout au long de cette thèse pour effectuer des expériences. / The common thread of this thesis is the study of Hawkes processes. These point processes decrypt the cross-causality that occurs across several event series. Namely, they retrieve the influence that the events of one series have on the future events of all series. For example, in the context of social networks, they describe how likely an action of a certain user (such as a Tweet) will trigger reactions from the others.The first chapter consists in a general introduction on point processes followed by a focus on Hawkes processes and more specifically on the properties of the widely used exponential kernels parametrization. In the following chapter, we introduce an adaptive penalization technique to model, with Hawkes processes, the information propagation on social networks. This penalization is able to take into account the prior knowledge on the social network characteristics, such as the sparse interactions between users or the community structure, to reflect them on the estimated model. Our technique uses data-driven weighted penalties induced by a careful analysis of the generalization error.Next, we focus on convex optimization and recall the recent progresses made with stochastic first order methods using variance reduction techniques. The fourth chapter is dedicated to an adaptation of these techniques to optimize the most commonly used goodness-of-fit of Hawkes processes. Indeed, this goodness-of-fit does not meet the gradient-Lipschitz assumption that is required by the latest first order methods. Thus, we work under another smoothness assumption, and obtain a linear convergence rate for a shifted version of Stochastic Dual Coordinate Ascent that improves the current state-of-the-art. Besides, such objectives include many linear constraints that are easily violated by classic first order algorithms, but in the Fenchel-dual problem these constraints are easier to deal with. Hence, our algorithm's robustness is comparable to second order methods that are very expensive in high dimensions.Finally, the last chapter introduces a new statistical learning library for Python 3 with a particular emphasis on time-dependent models, tools for generalized linear models and survival analysis. Called tick, this library relies on a C++ implementation and state-of-the-art optimization algorithms to provide very fast computations in a single node multi-core setting. Open-sourced and published on Github, this library has been used all along this thesis to perform benchmarks and experiments.
4

Spatio-temporal Event Prediction via Deep Point Processes / 深層点過程を用いた時空間イベント予測

Okawa, Maya 23 March 2022 (has links)
京都大学 / 新制・課程博士 / 博士(情報学) / 甲第24028号 / 情博第784号 / 新制||情||133(附属図書館) / 京都大学大学院情報学研究科知能情報学専攻 / (主査)教授 鹿島 久嗣, 教授 山本 章博, 教授 吉川 正俊 / 学位規則第4条第1項該当 / Doctor of Informatics / Kyoto University / DFAM
5

Etude empirique, modélisation et applications des trades à limites multiples dans les carnets d'ordre / Empirical study, modelling and applications of multiple limits trades in limit order books

Pomponio, Fabrizio 14 December 2012 (has links)
Cette thèse étudie certains évènements particuliers des carnets d’ordre - les ”trades traversants”. Dans le premier chapitre, on définit les trades traversants comme étant ceux qui consomment la liquidité présente dans le carnet d’ordres sur plusieurs limites, sans laisser le temps à la meilleure limite de se remplir par l’arrivée de nouveaux ordres limites. On étudie leurs propriétés empiriques en fournissant des statistiques de liquidité, de volume, de distribution de leurs temps d’arrivées, de clustering et de relaxation du spread. Leur impact de marché est supérieur à celui des trades classiques, et ce même à volume comparable : les trades traversants présentent donc un contenu informationnel plus grand. On propose deux applications au problème du lead-lag entre actifs/marchés, d’abord pour répondre à la question de savoir quel actif bouge en premier, et ensuite pour mesurer la force du signal des trades traversants dans le cadre d’une stratégie d’investissement basée sur le lead-lag entre actifs. Le chapitre suivant approfondit l’étude empirique du clustering de l’arrivée des trades traversants. On y modélise leur arrivée par des processus stochastiques auto-excités (les processus de Hawkes). Une étude statistique de la calibration obtenue avec des modèles à noyaux exponentiels pour la décroissance temporelle de l’impact est menée et assure une modélisation satisfaisante avec deux processus indépendants, un pour le bid et un pour l’ask. La classe de modèles proposée à la calibration est bien adaptée puisqu’il n’existe pas d’effet inhibiteur après l’arrivée d’un trade traversant. On utilise ces résultats pour calculer un indicateur d’intensité basé sur l’arrivée des trades traversants, et améliorer ainsi une stratégie d’investissement de type ”momentum”. Enfin, une calibration non-paramétrique du noyau de décroissance temporel d’impact fournit une décroissance empirique encore plus forte qu’une loi exponentielle, et davantage proche d’une loi-puissance. Le dernier chapitre rappelle une méthode générale de détection statistique de sauts dans des séries temporelles de prix/rendements qui soit robuste au bruit de microstructure. On généralise les résultats empiriques connus à de nouveaux indices financiers. On adapte cette méthode de détection statistique de sauts à des trajectoires intraday afin d’obtenir la distribution de la proportion de sauts détectés au cours de la journée. Les valeurs extrémales et les plus grandes variations de cette proportion se déroulent à des heures précises de la journée (14 :30, 15 :00 et 16 :30, heure de Paris), déjà rencontrées dans l’étude des trades traversants. Grâce à eux, on propose une explication des caractéristiques principales du profil intraday de la proportion de sauts détectés par le test, qui s’appuie sur une modification de la part relative de chacune des composantes de sauts dans la trajectoire des actifs considérés (la composante des mouvements continus et celle liée aux mouvements de sauts purs). / This thesis aims at studying particular events occurring in the limit order books - the ’tradesthrough’. In the first chapter, we define trades-through as those who consume the liquidity available on several limits of the limit order book, without waiting for the best limit to be filled with new incoming limit orders. We study their empirical properties and present statistics about their liquidity, their volume, their arrival time distribution, their clustering and the spread relaxation that follows their arrival. Their market-impact is higher than the one of the other trades, even with a comparable trading volume : trades-through have a higher informational content. We present two applications linked to the lead-lag between assets/markets : to find which asset moves first, and also to measure the trades-through intensity signal in a simple trading strategy based on lead-lag. The next chapter goes into more detail about the trades-through arrival time clustering. We model their arrival time with self-excited stochastic processes (Hawkes processes). A statistical study of the calibration obtained with models based on exponential-decay kernels for the temporal impact ensures a satisfactory modelling with two independent processes, one for the bid and one for the ask. The model class under scrutiny for the calibration is well-adapted as no inhibitory effects are measured after trades-through arrival. We use those results to compute an intensity indicator based on trades-through arrival, and thus we enhance a simple trading strategy that relies on them. Finally, a non-parametric calibration of the empirical decay kernel for the temporal impact of trades-through indicates a decrease faster than exponential, and closer to a power-law. The last chapter recalls a general statistical method robust to market microstructure noise to find jumps in prices/returns time series. We generalize the empirical results already known in the literature to new financial indices and we adapt this statistical jump detection method to intraday trajectories in order to obtain the intraday proportion of detected jumps. Extreme values and biggest intraday variations of this jump proportion occurs at very specific hours of the day (14:30, 15:00 and 16:30, Paris time reference), already linked with trades-through. Using trades-through, we explain the main characteristics of the intraday proportion of detected jumps with the test using a modification in the relative importance of each jump component in the assets trajectories (the continuous moves component and the pure-jumps component).
6

Effets de rétroaction en finance : applications à l'exécution optimaleet aux modèles de volatilité / Feedback effects in finance : applications to optimal execution and volatility modeling

Blanc, Pierre 09 October 2015 (has links)
Dans cette thèse, nous considérons deux types d'application des effets de rétroaction en finance. Ces effets entrent en jeu quand des participants de marché exécutent des séquences de transactions ou prennent part à des réactions en chaîne, ce qui engendre des pics d'activité. La première partie présente un modèle d'exécution optimale dynamique en présence d'un flux stochastique et exogène d'ordres de marché. Nous partons du modèle de référence d'Obizheva et Wang, qui définit un cadre d'exécution optimale avec un impact de prix mixte. Nous y ajoutons un flux d'ordres modélisé à l'aide de processus de Hawkes, qui sont des processus à sauts présentant une propriété d'auto-excitation. A l'aide de la théorie du contrôle stochastique, nous déterminons la stratégie optimale de manière analytique. Puis nous déterminons les conditions d'existence de Stratégies de Manipulation de Prix, telles qu'introduites par Huberman et Stanzl. Ces stratégies peuvent être exclues si l'auto-excitation du flux d'ordres se compense exactement avec la résilience du prix. Dans un deuxième temps, nous proposons une méthode de calibration du modèle, que nous appliquons sur des données financières à haute fréquence issues de cours d'actions du CAC40. Sur ces données, nous trouvons que le modèle explique une partie non-négligeable de la variance des prix. Une évaluation de la stratégie optimale en backtest montre que celle-ci est profitable en moyenne, mais que des coûts de transaction réalistes suffisent à empêcher les manipulations de prix. Ensuite, dans la deuxième partie de la thèse, nous nous intéressons à la modélisation de la volatilité intra-journalière. Dans la littérature, la plupart des modèles de volatilité rétroactive se concentrent sur l'échelle de temps journalière, c'est-à-dire aux variations de prix d'un jour sur l'autre. L'objectif est ici d'étendre ce type d'approche à des échelles de temps plus courtes. Nous présentons d'abord un modèle de type ARCH ayant la particularité de prendre en compte séparément les contributions des rendements passés intra-journaliers et nocturnes. Une méthode de calibration de ce modèle est étudiée, ainsi qu'une interprétation qualitative des résultats sur des rendements d'actions américaines et européennes. Dans le chapitre suivant, nous réduisons encore l'échelle de temps considérée. Nous étudions un modèle de volatilité à haute fréquence, dont l'idée est de généraliser le cadre des processus Hawkes pour mieux reproduire certaines caractéristiques empiriques des marchés. Notamment, en introduisant des effets de rétroaction quadratiques inspirés du modèle à temps discret QARCH nous obtenons une distribution en loi puissance pour la volatilité ainsi que de l'asymétrie temporelle / In this thesis we study feedback effects in finance and we focus on two of their applications. These effects stem from the fact that traders split meta-orders sequentially, and also from feedback loops. Therefore, one can observe clusters of activity and periods of relative calm. The first part introduces an dynamic optimal execution framework with an exogenous stochastic flow of market orders. Our starting point is the well-known model of Obizheva and Wang which defines an execution framework with both permanent and transient price impacts. We modify the price model by adding an order flow based on Hawkes processes, which are self-exciting jump processes. The theory of stochastic control allows us to derive the optimal strategy as a closed formula. Also, we discuss the existence of Price Manipulations Strategies in the sense of Huberman and Stanzl which can be excluded from the model if the self-exciting property of the order flow exactly compensates the resilience of the price. The next chapter studies a calibration protocol for the model, which we apply to tick-by-tick data from CAC40 stocks. On this dataset, the model is found to explain a significant part of the variance of prices. We then evaluate the optimal strategy with a series of backtests, which show that it is profitable on average, although realistic transaction costs can prevent manipulation strategies. In the second part of the thesis, we turn to intra-day volatility modeling. Previous works from the volatility feedback literature mainly focus on the daily time scale, i.e. on close-to-close returns. Our goal is to use a similar approach on shorter time scales. We first present an ARCH-type model which accounts for the contributions of past intra-day and overnight returns separately. A calibration method for the model is considered, that we use on US and European stocks, and we provide some qualitative insights on the results. The last chapter of the thesis is dedicated to a high-frequency volatility model. We introduce a continuous-time analogue of the QARCH framework, which is also a generalization of Hawkes processes. This new model reproduces several important stylized facts, in particular it generates a time-asymmetric and fat-tailed volatility process
7

Clustering in foreign exchange markets : price, trades and traders / Clustering sur les marchés FX : prix, trades et traders

Lallouache, Mehdi 10 July 2015 (has links)
En utilisant des données haute-fréquence inédites, cette thèse étudie trois types de regroupements (“clusters”) présents dans le marché des changes: la concentration d'ordres sur certains prix, la concentration des transactions dans le temps et l'existence de groupes d'investisseurs prenant les mêmes décisions. Nous commençons par étudier les propriétés statistiques du carnet d'ordres EBS pour les paires de devises EUR/USD et USD/JPY et l'impact d'une réduction de la taille du tick sur sa dynamique. Une grande part des ordres limites est encore placée sur les anciens prix autorisés, entraînant l'apparition de prix-barrières, où figurent les meilleures limites la plupart du temps. Cet effet de congestion se retrouve dans la forme moyenne du carnet où des pics sont présents aux distances entières. Nous montrons que cette concentration des prix est causée par les traders manuels qui se refusent d’utiliser la nouvelle résolution de prix. Les traders automatiques prennent facilement la priorité, en postant des ordres limites un tick devant les pics de volume.Nous soulevons ensuite la question de l'aptitude des processus de Hawkes à rendre compte de la dynamique du marché. Nous analysons la précision de tels processus à mesure que l'intervalle de calibration est augmenté. Différent noyaux construits à partir de sommes d'exponentielles sont systématiquement comparés. Le marché FX qui ne ferme jamais est particulièrement adapté pour notre but, car il permet d’éviter les complications dues à la fermeture nocturne des marchés actions. Nous trouvons que la modélisation est valide selon les trois tests statistiques, si un noyau à deux exponentielles est utilisé pour fitter une heure, et deux ou trois pour une journée complète. Sur de plus longues périodes la modélisation est systématiquement rejetée par les tests à cause de la non-stationnarité du processus endogène. Les échelles de temps d'auto-excitation estimées sont relativement courtes et le facteur d'endogénéité est élevé mais sous-critique autour de 0.8. La majorité des modèles à agents suppose implicitement que les agents interagissent à travers du prix des actifs et des volumes échangés. Certains utilisent explicitement un réseau d'interaction entre traders, sur lequel des rumeurs se propagent, d'autres, un réseau qui représente des groupes prenant des décisions communes. Contrairement à d'autres types de données, de tels réseaux, s'ils existent, sont nécessairement implicites, ce qui rend leur détection compliquée. Nous étudions les transactions des clients de deux fournisseur de liquidités sur plusieurs années. En supposant que les liens entre agents sont déterminés par la synchronisation de leur activité ou inactivité, nous montrons que des réseaux d'interactions existent. De plus, nous trouvons que l'activité de certains agents entraîne systématiquement l’activité d'autres agents, définissant ainsi des relations de type “lead-lag” entre les agents. Cela implique que le flux des clients est prévisible, ce que nous vérifions à l'aide d'une méthode sophistiquée d'apprentissage statistique. / The aim of this thesis is to study three types of clustering in foreign exchange markets, namely in price, trades arrivals and investors decisions. We investigate the statistical properties of the EBS order book for the EUR/USD and USD/JPY currency pairs and the impact of a ten-fold tick size reduction on its dynamics. A large fraction of limit orders are still placed right at or halfway between the old allowed prices. This generates price barriers where the best quotes lie for much of the time, which causes the emergence of distinct peaks in the average shape of the book at round distances. Furthermore, we argue that this clustering is mainly due to manual traders who remained set to the old price resolution. Automatic traders easily take price priority by submitting limit orders one tick ahead of clusters, as shown by the prominence of buy (sell) limit orders posted with rightmost digit one (nine).The clustering of trades arrivals is well-known in financial markets and Hawkes processes are particularly suited to describe this phenomenon. We raise the question of what part of market dynamics Hawkes processes are able to account for exactly. We document the accuracy of such processes as one varies the time interval of calibration and compare the performance of various types of kernels made up of sums of exponentials. Because of their around-the-clock opening times, FX markets are ideally suited to our aim as they allow us to avoid the complications of the long daily overnight closures of equity markets. One can achieve statistical significance according to three simultaneous tests provided that one uses kernels with two exponentials for fitting an hour at a time, and two or three exponentials for full days, while longer periods could not be fitted within statistical satisfaction because of the non-stationarity of the endogenous process. Fitted timescales are relatively short and endogeneity factor is high but sub-critical at about 0.8.Most agent-based models of financial markets implicitly assume that the agents interact through asset prices and exchanged volumes. Some of them add an explicit trader-trader interaction network on which rumors propagate or that encode groups that take common decisions. Contrarily to other types of data, such networks, if they exist, are necessarily implicit, which makes their determination a more challenging task. We analyze transaction data of all the clients of two liquidity providers, encompassing several years of trading. By assuming that the links between agents are determined by systematic simultaneous activity or inactivity, we show that interaction networks do exist. In addition, we find that the (in)activity of some agents systematically triggers the (in)activity of other traders, defining lead-lag relationships between the agents. This implies that the global investment flux is predictable, which we check by using sophisticated machine learning methods.
8

Effets de rétroaction en finance : applications à l'exécution optimaleet aux modèles de volatilité / Feedback effects in finance : applications to optimal execution and volatility modeling

Blanc, Pierre 09 October 2015 (has links)
Dans cette thèse, nous considérons deux types d'application des effets de rétroaction en finance. Ces effets entrent en jeu quand des participants de marché exécutent des séquences de transactions ou prennent part à des réactions en chaîne, ce qui engendre des pics d'activité. La première partie présente un modèle d'exécution optimale dynamique en présence d'un flux stochastique et exogène d'ordres de marché. Nous partons du modèle de référence d'Obizheva et Wang, qui définit un cadre d'exécution optimale avec un impact de prix mixte. Nous y ajoutons un flux d'ordres modélisé à l'aide de processus de Hawkes, qui sont des processus à sauts présentant une propriété d'auto-excitation. A l'aide de la théorie du contrôle stochastique, nous déterminons la stratégie optimale de manière analytique. Puis nous déterminons les conditions d'existence de Stratégies de Manipulation de Prix, telles qu'introduites par Huberman et Stanzl. Ces stratégies peuvent être exclues si l'auto-excitation du flux d'ordres se compense exactement avec la résilience du prix. Dans un deuxième temps, nous proposons une méthode de calibration du modèle, que nous appliquons sur des données financières à haute fréquence issues de cours d'actions du CAC40. Sur ces données, nous trouvons que le modèle explique une partie non-négligeable de la variance des prix. Une évaluation de la stratégie optimale en backtest montre que celle-ci est profitable en moyenne, mais que des coûts de transaction réalistes suffisent à empêcher les manipulations de prix. Ensuite, dans la deuxième partie de la thèse, nous nous intéressons à la modélisation de la volatilité intra-journalière. Dans la littérature, la plupart des modèles de volatilité rétroactive se concentrent sur l'échelle de temps journalière, c'est-à-dire aux variations de prix d'un jour sur l'autre. L'objectif est ici d'étendre ce type d'approche à des échelles de temps plus courtes. Nous présentons d'abord un modèle de type ARCH ayant la particularité de prendre en compte séparément les contributions des rendements passés intra-journaliers et nocturnes. Une méthode de calibration de ce modèle est étudiée, ainsi qu'une interprétation qualitative des résultats sur des rendements d'actions américaines et européennes. Dans le chapitre suivant, nous réduisons encore l'échelle de temps considérée. Nous étudions un modèle de volatilité à haute fréquence, dont l'idée est de généraliser le cadre des processus Hawkes pour mieux reproduire certaines caractéristiques empiriques des marchés. Notamment, en introduisant des effets de rétroaction quadratiques inspirés du modèle à temps discret QARCH nous obtenons une distribution en loi puissance pour la volatilité ainsi que de l'asymétrie temporelle / In this thesis we study feedback effects in finance and we focus on two of their applications. These effects stem from the fact that traders split meta-orders sequentially, and also from feedback loops. Therefore, one can observe clusters of activity and periods of relative calm. The first part introduces an dynamic optimal execution framework with an exogenous stochastic flow of market orders. Our starting point is the well-known model of Obizheva and Wang which defines an execution framework with both permanent and transient price impacts. We modify the price model by adding an order flow based on Hawkes processes, which are self-exciting jump processes. The theory of stochastic control allows us to derive the optimal strategy as a closed formula. Also, we discuss the existence of Price Manipulations Strategies in the sense of Huberman and Stanzl which can be excluded from the model if the self-exciting property of the order flow exactly compensates the resilience of the price. The next chapter studies a calibration protocol for the model, which we apply to tick-by-tick data from CAC40 stocks. On this dataset, the model is found to explain a significant part of the variance of prices. We then evaluate the optimal strategy with a series of backtests, which show that it is profitable on average, although realistic transaction costs can prevent manipulation strategies. In the second part of the thesis, we turn to intra-day volatility modeling. Previous works from the volatility feedback literature mainly focus on the daily time scale, i.e. on close-to-close returns. Our goal is to use a similar approach on shorter time scales. We first present an ARCH-type model which accounts for the contributions of past intra-day and overnight returns separately. A calibration method for the model is considered, that we use on US and European stocks, and we provide some qualitative insights on the results. The last chapter of the thesis is dedicated to a high-frequency volatility model. We introduce a continuous-time analogue of the QARCH framework, which is also a generalization of Hawkes processes. This new model reproduces several important stylized facts, in particular it generates a time-asymmetric and fat-tailed volatility process
9

SOLVING PREDICTION PROBLEMS FROM TEMPORAL EVENT DATA ON NETWORKS

Hao Sha (11048391) 06 August 2021 (has links)
<div><div><div><p>Many complex processes can be viewed as sequential events on a network. In this thesis, we study the interplay between a network and the event sequences on it. We first focus on predicting events on a known network. Examples of such include: modeling retweet cascades, forecasting earthquakes, and tracing the source of a pandemic. In specific, given the network structure, we solve two types of problems - (1) forecasting future events based on the historical events, and (2) identifying the initial event(s) based on some later observations of the dynamics. The inverse problem of inferring the unknown network topology or links, based on the events, is also of great important. Examples along this line include: constructing influence networks among Twitter users from their tweets, soliciting new members to join an event based on their participation history, and recommending positions for job seekers according to their work experience. Following this direction, we study two types of problems - (1) recovering influence networks, and (2) predicting links between a node and a group of nodes, from event sequences.</p></div></div></div>
10

Information diffusion and opinion dynamics in social networks / Dissémination de l’information et dynamique des opinions dans les réseaux sociaux

Louzada Pinto, Julio Cesar 14 January 2016 (has links)
La dissémination d'information explore les chemins pris par l'information qui est transmise dans un réseau social, afin de comprendre et modéliser les relations entre les utilisateurs de ce réseau, ce qui permet une meilleur compréhension des relations humaines et leurs dynamique. Même si la priorité de ce travail soit théorique, en envisageant des aspects psychologiques et sociologiques des réseaux sociaux, les modèles de dissémination d'information sont aussi à la base de plusieurs applications concrètes, comme la maximisation d'influence, la prédication de liens, la découverte des noeuds influents, la détection des communautés, la détection des tendances, etc. Cette thèse est donc basée sur ces deux facettes de la dissémination d'information: nous développons d'abord des cadres théoriques mathématiquement solides pour étudier les relations entre les personnes et l'information, et dans un deuxième moment nous créons des outils responsables pour une exploration plus cohérente des liens cachés dans ces relations. Les outils théoriques développés ici sont les modèles de dynamique d'opinions et de dissémination d'information, où nous étudions le flot d'informations des utilisateurs dans les réseaux sociaux, et les outils pratiques développés ici sont un nouveau algorithme de détection de communautés et un nouveau algorithme de détection de tendances dans les réseaux sociaux / Our aim in this Ph. D. thesis is to study the diffusion of information as well as the opinion dynamics of users in social networks. Information diffusion models explore the paths taken by information being transmitted through a social network in order to understand and analyze the relationships between users in such network, leading to a better comprehension of human relations and dynamics. This thesis is based on both sides of information diffusion: first by developing mathematical theories and models to study the relationships between people and information, and in a second time by creating tools to better exploit the hidden patterns in these relationships. The theoretical tools developed in this thesis are opinion dynamics models and information diffusion models, where we study the information flow from users in social networks, and the practical tools developed in this thesis are a novel community detection algorithm and a novel trend detection algorithm. We start by introducing an opinion dynamics model in which agents interact with each other about several distinct opinions/contents. In our framework, agents do not exchange all their opinions with each other, they communicate about randomly chosen opinions at each time. We show, using stochastic approximation algorithms, that under mild assumptions this opinion dynamics algorithm converges as time increases, whose behavior is ruled by how users choose the opinions to broadcast at each time. We develop next a community detection algorithm which is a direct application of this opinion dynamics model: when agents broadcast the content they appreciate the most. Communities are thus formed, where they are defined as groups of users that appreciate mostly the same content. This algorithm, which is distributed by nature, has the remarkable property that the discovered communities can be studied from a solid mathematical standpoint. In addition to the theoretical advantage over heuristic community detection methods, the presented algorithm is able to accommodate weighted networks, parametric and nonparametric versions, with the discovery of overlapping communities a byproduct with no mathematical overhead. In a second part, we define a general framework to model information diffusion in social networks. The proposed framework takes into consideration not only the hidden interactions between users, but as well the interactions between contents and multiple social networks. It also accommodates dynamic networks and various temporal effects of the diffusion. This framework can be combined with topic modeling, for which several estimation techniques are derived, which are based on nonnegative tensor factorization techniques. Together with a dimensionality reduction argument, this techniques discover, in addition, the latent community structure of the users in the social networks. At last, we use one instance of the previous framework to develop a trend detection algorithm designed to find trendy topics in a social network. We take into consideration the interaction between users and topics, we formally define trendiness and derive trend indices for each topic being disseminated in the social network. These indices take into consideration the distance between the real broadcast intensity and the maximum expected broadcast intensity and the social network topology. The proposed trend detection algorithm uses stochastic control techniques in order calculate the trend indices, is fast and aggregates all the information of the broadcasts into a simple one-dimensional process, thus reducing its complexity and the quantity of necessary data to the detection. To the best of our knowledge, this is the first trend detection algorithm that is based solely on the individual performances of topics

Page generated in 0.06 seconds