• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 23
  • 4
  • 4
  • 1
  • Tagged with
  • 76
  • 76
  • 17
  • 17
  • 15
  • 14
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Time change method in quantitative finance

Cui, Zhenyu January 2010 (has links)
In this thesis I discuss the method of time-change and its applications in quantitative finance. I mainly consider the time change by writing a continuous diffusion process as a Brownian motion subordinated by a subordinator process. I divide the time change method into two cases: deterministic time change and stochastic time change. The difference lies in whether the subordinator process is a deterministic function of time or a stochastic process of time. Time-changed Brownian motion with deterministic time change provides a new viewpoint to deal with option pricing under stochastic interest rates and I utilize this idea in pricing various exotic options under stochastic interest rates. Time-changed Brownian motion with stochastic time change is more complicated and I give the equivalence in law relation governing the ``original time" and the ``new stochastic time" under different clocks. This is readily applicable in pricing a new product called ``timer option". It can also be used in pricing barrier options under the Heston stochastic volatility model. Conclusion and further research directions in exploring the ideas of time change method in other areas of quantitative finance are in the last chapter.
32

Modelos de arbitragem estatística: um estudo empírico no mercado brasileiro de ações / Statistical arbitrage models: an empirical study in the Brazilian equity market

Tarik Laiter Migliorini 28 June 2013 (has links)
Este trabalho tem como intuito aplicar quatro estratégias de arbitragem estatística ao mercado acionário brasileiro no período compreendido entre 2004 e 2012. A primeira delas explora o fenômeno de momentum e tem como referência Jegadeesh e Titman (1993). A segunda trata de replicação de benchmarks utilizando técnicas de cointegração e foi baseada parcialmente em Alexander e Dimitriu (2002). A terceira é uma estratégia do tipo pair trade e tem referência em Gatev et al (2006). A última é uma estratégia de reversão de preços relativos de uma cesta de ações utilizando a abordagem de componentes principais e tem como referência Avellaneda e Lee (2010). Foram implementadas algumas modificações nas estratégias de forma que estas se adaptassem a certas características do mercado brasileiro e possuíssem maior grau de realismo: 1) o nível de alavancagem foi controlado de forma mais rigorosa; 2) os principais parâmetros foram determinados endogenamente, com dados fora da amostra. 3) só foram consideradas ações com grau razoável de liquidez; e 4) os custos de transação foram obtidos de séries cotadas, ao invés de fixados arbitrariamente. Os resultados mostraram que, após a contabilização dos custos de transação, nenhuma estratégia foi capaz de gerar excessos de retorno positivos com alta significância estatística. O trabalho também contribui ao fornecer alguma referência de custos médios de bid ask spread e taxas de empréstimo de ações para estratégias de arbitragem estatística no mercado acionário brasileiro. / This work tests four statistical arbitrage strategies in the Brazilian stock market from 2004 to 2012. The first one explores momentum and the reference is Jegadeesh and Titman (1993). The second replicates a positive benchmark using cointegration techniques and was based, partially, on Alexander and Dimitriu (2002). The third is a pair trade strategy and is connected to Gatev et al (2006). The last one is a portfolio price reversal strategy that uses principal component analysis and is based on Avellaneda and Lee (2010). Some modifications were made in the strategies in order to adapt them to the local market characteristics and to make them more realistic: 1) the leverage was controlled more strictly; 2) the main parameters were determined endogenously; 3) Only liquid stocks were considered; 4) the transaction costs were obtained from quoted data, instead of determined arbitrarily. The results indicated that, after the transaction costs being taken in to account, no strategy was capable of generate excess returns with high statistical significance. Other contribution of this work is to give some reference of transaction costs involved in statistical arbitrage strategies in the Brazilian stock market.
33

Analysis and simulation of nonlinear option pricing problems

Tawe, Tarla Divine January 2021 (has links)
>Magister Scientiae - MSc / We present the Black-Scholes Merton partial differential equation (BSMPDE) and its analytical solution. We present the Black-Scholes option pricing model and list some limitations of this model. We also present a nonlinear model (the Frey-Patie model) that may improve on one of these limitations. We apply various numerical methods on the BSMPDE and run simulations to compare which method performs best in approximating the value of a European put option based on the maximum errors each method produces when we vary some parameters like the interest rate and the volatility. We re-apply the same finite difference methods on the nonlinear model. / 2025
34

Apprentissage statistique pour séquences d’évènements à l’aide de processus ponctuels / Learning from Sequences with Point Processes

Achab, Massil 09 October 2017 (has links)
Le but de cette thèse est de montrer que l'arsenal des nouvelles méthodes d'optimisation permet de résoudre des problèmes d'estimation difficile basés sur les modèles d'évènements.Alors que le cadre classique de l'apprentissage supervisé traite les observations comme une collection de couples de covariables et de label, les modèles d'évènements ne regardent que les temps d'arrivée d'évènements et cherchent alors à extraire de l'information sur la source de donnée.Ces évènements datés sont ordonnés de façon chronologique et ne peuvent dès lors être considérés comme indépendants.Ce simple fait justifie l'usage d'un outil mathématique particulier appelé processus ponctuel pour apprendre une certaine structure à partir de ces évènements.Deux exemples de processus ponctuels sont étudiés dans cette thèse.Le premier est le processus ponctuel derrière le modèle de Cox à risques proportionnels:son intensité conditionnelle permet de définir le ratio de risque, une quantité fondamentale dans la littérature de l'analyse de survie.Le modèle de régression de Cox relie la durée avant l'apparition d'un évènement, appelé défaillance, aux covariables d'un individu.Ce modèle peut être reformulé à l'aide du cadre des processus ponctuels.Le second est le processus de Hawkes qui modélise l'impact des évènements passés sur la probabilité d'apparition d'évènements futurs.Le cas multivarié permet d'encoder une notion de causalité entre les différentes dimensions considérées.Cette thèse est divisée en trois parties.La première s'intéresse à un nouvel algorithme d'optimisation que nous avons développé.Il permet d'estimer le vecteur de paramètre de la régression de Cox lorsque le nombre d'observations est très important.Notre algorithme est basé sur l'algorithme SVRG (Stochastic Variance Reduced Gradient) et utilise une méthode MCMC (Monte Carlo Markov Chain) pour approcher un terme de la direction de descente.Nous avons prouvé des vitesses de convergence pour notre algorithme et avons montré sa performance numérique sur des jeux de données simulés et issus de monde réel.La deuxième partie montre que la causalité au sens de Hawkes peut être estimée de manière non-paramétrique grâce aux cumulants intégrés du processus ponctuel multivarié.Nous avons développer deux méthodes d'estimation des intégrales des noyaux du processus de Hawkes, sans faire d'hypothèse sur la forme de ces noyaux. Nos méthodes sont plus rapides et plus robustes, vis-à-vis de la forme des noyaux, par rapport à l'état de l'art. Nous avons démontré la consistence statistique de la première méthode, et avons montré que la deuxième peut être réduite à un problème d'optimisation convexe.La dernière partie met en lumière les dynamiques de carnet d'ordre grâce à la première méthode d'estimation non-paramétrique introduite dans la partie précédente.Nous avons utilisé des données du marché à terme EUREX, défini de nouveaux modèles de carnet d'ordre (basés sur les précédents travaux de Bacry et al.) et appliqué la méthode d'estimation sur ces processus ponctuels.Les résultats obtenus sont très satisfaisants et cohérents avec une analysé économétrique.Un tel travail prouve que la méthode que nous avons développé permet d'extraire une structure à partir de données aussi complexes que celles issues de la finance haute-fréquence. / The guiding principle of this thesis is to show how the arsenal of recent optimization methods can help solving challenging new estimation problems on events models.While the classical framework of supervised learning treat the observations as a collection of independent couples of features and labels, events models focus on arrival timestamps to extract information from the source of data.These timestamped events are chronologically ordered and can't be regarded as independent.This mere statement motivates the use of a particular mathematical object called point process to learn some patterns from events.Two examples of point process are treated in this thesis.The first is the point process behind Cox proportional hazards model:its conditional intensity function allows to define the hazard ratio, a fundamental quantity in survival analysis literature.The Cox regression model relates the duration before an event called failure to some covariates.This model can be reformulated in the framework of point processes.The second is the Hawkes process which models how past events increase the probability of future events.Its multivariate version enables encoding a notion of causality between the different nodes.The thesis is divided into three parts.The first focuses on a new optimization algorithm we developed to estimate the parameter vector of the Cox regression in the large-scale setting.Our algorithm is based on stochastic variance reduced gradient descent (SVRG) and uses Monte Carlo Markov Chain to estimate one costly term in the descent direction.We proved the convergence rates and showed its numerical performance on both simulated and real-world datasets.The second part shows how the Hawkes causality can be retrieved in a nonparametric fashion from the integrated cumulants of the multivariate point process.We designed two methods to estimate the integrals of the Hawkes kernels without any assumption on the shape of the kernel functions. Our methods are faster and more robust towards the shape of the kernels compared to state-of-the-art methods. We proved the statistical consistency of the first method, and designed turned the second into a convex optimization problem.The last part provides new insights from order book data using the first nonparametric method developed in the second part.We used data from the EUREX exchange, designed new order book model (based on the previous works of Bacry et al.) and ran the estimation method on these point processes.The results are very insightful and consistent with an econometric analysis.Such work is a proof of concept that our estimation method can be used on complex data like high-frequency financial data.
35

Stable numerical methodology for variational inequalities with application in quantitative finance and computational mechanics

Damircheli, Davood 09 December 2022 (has links)
Coercivity is a characteristic property of the bilinear term in a weak form of a partial differential equation in both infinite space and the corresponding finite space utilized by a numerical scheme. This concept implies \textit{stability} and \textit{well-posedness} of the weak form in both the exact solution and the numerical solution. In fact, the loss of this property especially in finite dimension cases leads to instability of the numerical scheme. This phenomenon occurs in three major families of problems consisting of advection-diffusion equation with dominant advection term, elastic analysis of very thin beams, and associated plasticity and non-associated plasticity problems. There are two main paths to overcome the loss of coercivity, first manipulating and stabilizing a weak form to ensure that the discrete weak form is coercive, second using an automatically stable method to estimate the solution space such as the Discontinuous Petrov Galerkin (DPG) method in which the optimal test space is attained during the design of the method in such a way that the scheme keeps the coercivity inherently. In this dissertation, A stable numerical method for the aforementioned problems is proposed. A stabilized finite element method for the problem of migration risk problem which belongs to the family of the advection-diffusion problems is designed and thoroughly analyzed. Moreover, DPG method is exploited for a wide range of valuing option problems under the black-Scholes model including vanilla options, American options, Asian options, double knock barrier options where they all belong to family of advection-diffusion problem, and elastic analysis of Timoshenko beam theory. Besides, The problem of American option pricing, migration risk, and plasticity problems can be categorized as a free boundary value problem which has their extra complexity, and optimization theory and variational inequality are the main tools to study these families of the problems. Thus, an overview of the classic definition of variational inequalities and different tools and methods to study analytically and numerically this family of problems is provided and a novel adjoint sensitivity analysis of variational inequalities is proposed.
36

Simulation multi-agents de marchés financiers

Derveeuw, Julien 14 January 2008 (has links) (PDF)
Les simulations par agents, ou centrées individu, permettent, par opposition aux modèles centrés groupe, de prendre en compte la manière dont les entités composant un sys- tème interagissent entre elles et ainsi de faire le lien entre ses niveaux microscopiques et macroscopiques. Les marchés financiers, bien qu'étant des systèmes composés de nombreuses entités en interaction, sont souvent étudiés à l'aide de modèle centrés groupe, qui montrent leur limites lorsqu'il s'agit d'expliquer l'émergence de certains phénomènes observables dans les séries de prix. Nous proposons par conséquent un modèle de marché financier centré individu, permettant de reproduire de manière réaliste leur fonctionnement, à la fois à une échelle intra-journalière et à une échelle inter-journalière. Ce modèle nous a permis dans un premier temps de proposer une théorie pour expliquer l'origine des faits stylisés, qui sont des propriétés statistiques des cours de prix observables sur l'ensemble des marchés financiers et dont l'origine est mal expliquée. Notre proposition, étayée par les expérimentations que nous avons réalisées avec notre modèle, montre que les faits stylisés semblent en majeure partie causés par la manière dont le marché est structuré et par la manière dont les agents économiques interagissent à travers lui. Dans un second temps, nous avons utilisé notre modèle pour étudier les variations extrêmes de prix observables sur les marchés financiers, que l'on nomme "bulles" quand elles sont à la hausse et "krachs" quand elles sont à la baisse. Nous avons illustré avec notre modèle, en nous appuyant sur les théories proposées par certains économistes pour expliquer ces événéments, que ces épisodes critiques dans les prix peuvent survenir lorsqu'une partie suffisante de la population des investisseurs adopte une stratégie spéculatrice.
37

Empirical findings in asset price dynamics revealed by quantitative modelling

Sim, Min Kyu 07 January 2016 (has links)
This dissertation addresses the fundamental question of what factors drive equity prices and investigates the mechanisms through which the drivers influence the price dynamics. The studies are based on the two different frequency levels of financial data. The first part aims to identify what systematic risk factors affect the expected return of stocks based on historical data with frequency being daily or monthly. The second part aims to explain how the hidden supply-demand of a stock affects the stock price dynamics based on market data observed at frequency levels generally between a millisecond and a second. With more and more financial market data becoming available, it greatly facilitates quantitative approaches for analyzing asset price dynamics and market microstructure problems. In the first part, we propose an econometric measure, terms as modularity, for characterizing the cluster structure in a universe of stocks. A high level of modularity implies that the cluster structure of the universe of stocks is highly evident, and low modularity implies a blurred cluster structure. The modularity measure is shown to be related to the cycle of the economy. In addition, individual stock's sensitivity to the modularity measure is shown to be related to its expected return. From 1992 to 2011, the average annual return of stocks with the lowest sensitivity exceeds that of the stocks with highest sensitivities by approximately 7.6%. Considerations of modularity as an asset pricing factor expand the investment opportunity set to passive investors. In the second part, we analyze the effect of hidden demands/supplies in equity trading market on the stock price dynamics. We propose a statistical estimation model for average hidden liquidity based on the limit orderbook data. Not only the estimated hidden liquidity explains the probabilistic property in market microstructure better, it also refines the existing price impact model and achieves higher explanation powers. Our enhanced price impact model offers a base for devising optimal order execution strategies. After we develop an optimal execution strategy based on the price impact function, the advantage of this strategy over benchmark strategies is tested on a simulated stock trading model calibrated by historical data. Simulation tests indicate that our strategy yields significant savings in transaction cost over the benchmark strategies.
38

Allocation stratégique d'actifs et ALM pour les régimes de retraite

Faleh, Alaeddine 13 May 2011 (has links) (PDF)
La présente thèse s'intéresse aux modèles d'allocation stratégiques d'actifs et à leurs applications pour la gestion des réserves financières des régimes de retraite par répartition, en particulier ceux partiellement provisionnés. L'étude de l'utilité des réserves pour un système par répartition et a fortiori de leur gestion reste un sujet peu exploré. Les hypothèses classiques sont parfois jugées trop restrictives pour décrire l'évolution complexe des réserves. De nouveaux modèles et de nouveaux résultats sont développés à trois niveaux : la génération de scénarios économiques (GSE), les techniques d'optimisation numérique et le choix de l'allocation stratégique optimale dans un contexte de gestion actif-passif (ALM). Dans le cadre de la génération de scénarios économiques et financiers, certains indicateurs de mesure de performance du GSE ont été étudiés. Par ailleurs, des améliorations par rapport à ce qui se pratique usuellement lors de la construction du GSE ont été apportées, notamment au niveau du choix de la matrice de corrélation entre les variables modélisées. Concernant le calibrage du GSE, un ensemble d'outils permettant l'estimation de ses différents paramètres a été présenté. Cette thèse a également accordé une attention particulière aux techniques numériques de recherche de l'optimum, qui demeurent des questions essentielles pour la mise en place d'un modèle d'allocation. Une réflexion sur un algorithme d'optimisation globale d'une fonction non convexe et bruitée a été développée. L'algorithme permet de moduler facilement, au moyen de deux paramètres, la réitération de tirages dans un voisinage des points solutions découverts, ou à l'inverse l'exploration de la fonction dans des zones encore peu explorées. Nous présentons ensuite des techniques novatrices d'ALM basées sur la programmation stochastique. Leur application a été développée pour le choix de l'allocation stratégique d'actifs des régimes de retraite par répartition partiellement provisionnés. Une nouvelle méthodologie pour la génération de l'arbre des scénarios a été adoptée à ce niveau. Enfin, une étude comparative du modèle d'ALM développé avec celui basé sur la stratégie Fixed-Mix a été effectuée. Différents tests de sensibilité ont été par ailleurs mis en place pour mesurer l'impact du changement de certaines variables clés d'entrée sur les résultats produits par notre modèle d'ALM.
39

Trois essais sur la modélisation de la dépendance entre actifs financiers

Bosc, Damien 21 June 2012 (has links) (PDF)
Cette thèse porte sur deux aspects de la dépendance entre actifs financiers. La première partie concerne la dépendance entre vecteurs aléatoires. Le premier chapitre consiste en une comparaison d'algorithmes calculant l'application de transport optimal pour le coût quadratique entre deux probabilités sur R^n, éventuellement continues. Ces algorithmes permettent de calculer des couplages ayant une propriété de dépendance extrême, dits couplage de corrélation maximale, qui apparaissent naturellement dans la définition de mesures de risque multivariées. Le second chapitre propose une définition de la dépendance extrême entre vecteurs aléatoires s'appuyant sur la notion de covariogramme ; les couplages extrêmes sont caractérisés comme des couplages de corrélation maximale à modification linéaire d'une des marginales multivariées près. Une méthode numérique permettant de calculer ces couplages est fournie, et des applications au stress-test de dépendance pour l'allocation de portefeuille et la valorisation d'options européennes sur plusieurs sous-jacents sont détaillées. La dernière partie décrit la dépendance spatiale entre deux diffusions markoviennes, couplées à l'aide d'une fonction de corrélation dépendant de l'état des deux diffusions. Une EDP de Kolmogorov forward intégrée fait le lien entre la famille de copules spatiales de la diffusion et la fonction de corrélation. On étudie ensuite le problème de la dépendance spatiale atteignable par deux mouvements Browniens, et nos résultats montrent que certaines copules classiques ne permettent pas de décrire la dépendance stationnaire entre des mouvements Browniens couplés.
40

Valorisation financière sur les marchés d'électricité

Nguyen Huu, Adrien 13 July 2012 (has links) (PDF)
Cette thèse traite de la valorisation de produits dérivés du prix de l'électricité. Dans la première partie, nous nous intéressons à la valorisation par absence d'opportunité d'arbitrage de portefeuilles incluant la possibilité de transformation d'actifs par le biais d'un système de production, sur des marchés en temps discret avec coûts de transaction proportionnels. Nous proposons une condition qui nous permet de démontrer la propriété fondamentale de fermeture pour l'ensemble des portefeuilles atteignables, et donc l'existence d'un portefeuille optimal ou un théorème de sur-réplication. Nous continuons l'approche avec fonction de production en temps discret sur un marché en temps continu avec ou sans frictions. Dans le seconde partie, nous présentons une classe de modèles faisant apparaître un lien structurel entre le coût de production d'électricité et les matières premières nécessaires à sa production. Nous obtenons une formule explicite pour le prix de l'électricité spot, puis la mesure martingale minimale fournit un prix pour les contrats futures minimisant le risque quadratique de couverture. Nous spécifions le modèle pour obtenir des formules analytiques et des méthodes de calibration et d'estimation statistique des paramètres dans le cas où le prix spot dépend de deux combustibles. Dans un second temps, nous suivons la méthodologie initiée par Bouchard et al. (2009) pour l'évaluation de la prime de risque liée à un produit dérivé sur futures non disponible. Utilisant des résultats de dualité, nous étendons l'étude au cas d'un marché semi-complet, en proposant une réduction du problème et une méthode numérique pour traiter l'EDP non linéaire.

Page generated in 0.1016 seconds