• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 42
  • 23
  • 4
  • 4
  • 1
  • Tagged with
  • 75
  • 75
  • 17
  • 16
  • 15
  • 13
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Simulações Financeiras em GPU / Finance and Stochastic Simulation on GPU

Souza, Thársis Tuani Pinto 26 April 2013 (has links)
É muito comum modelar problemas em finanças com processos estocásticos, dada a incerteza de suas variáveis de análise. Além disso, problemas reais nesse domínio são, em geral, de grande custo computacional, o que sugere a utilização de plataformas de alto desempenho (HPC) em sua implementação. As novas gerações de arquitetura de hardware gráfico (GPU) possibilitam a programação de propósito geral enquanto mantêm alta banda de memória e grande poder computacional. Assim, esse tipo de arquitetura vem se mostrando como uma excelente alternativa em HPC. Com isso, a proposta principal desse trabalho é estudar o ferramental matemático e computacional necessário para modelagem estocástica em finanças com a utilização de GPUs como plataforma de aceleração. Para isso, apresentamos a GPU como uma plataforma de computação de propósito geral. Em seguida, analisamos uma variedade de geradores de números aleatórios, tanto em arquitetura sequencial quanto paralela. Além disso, apresentamos os conceitos fundamentais de Cálculo Estocástico e de método de Monte Carlo para simulação estocástica em finanças. Ao final, apresentamos dois estudos de casos de problemas em finanças: \"Stops Ótimos\" e \"Cálculo de Risco de Mercado\". No primeiro caso, resolvemos o problema de otimização de obtenção do ganho ótimo em uma estratégia de negociação de ações de \"Stop Gain\". A solução proposta é escalável e de paralelização inerente em GPU. Para o segundo caso, propomos um algoritmo paralelo para cálculo de risco de mercado, bem como técnicas para melhorar a solução obtida. Nos nossos experimentos, houve uma melhora de 4 vezes na qualidade da simulação estocástica e uma aceleração de mais de 50 vezes. / Given the uncertainty of their variables, it is common to model financial problems with stochastic processes. Furthermore, real problems in this area have a high computational cost. This suggests the use of High Performance Computing (HPC) to handle them. New generations of graphics hardware (GPU) enable general purpose computing while maintaining high memory bandwidth and large computing power. Therefore, this type of architecture is an excellent alternative in HPC and comptutational finance. The main purpose of this work is to study the computational and mathematical tools needed for stochastic modeling in finance using GPUs. We present GPUs as a platform for general purpose computing. We then analyze a variety of random number generators, both in sequential and parallel architectures, and introduce the fundamental mathematical tools for Stochastic Calculus and Monte Carlo simulation. With this background, we present two case studies in finance: ``Optimal Trading Stops\'\' and ``Market Risk Management\'\'. In the first case, we solve the problem of obtaining the optimal gain on a stock trading strategy of ``Stop Gain\'\'. The proposed solution is scalable and with inherent parallelism on GPU. For the second case, we propose a parallel algorithm to compute market risk, as well as techniques for improving the quality of the solutions. In our experiments, there was a 4 times improvement in the quality of stochastic simulation and an acceleration of over 50 times.
72

Semimartingales et Problématiques Récentes en Finance Quantitative

Kchia, Younes 30 September 2011 (has links) (PDF)
Dans cette thèse, nous étudions différentes problématiques d'actualité en finance quantitative. Le premier chapitre est dédié à la stabilité de la propriété de semimartingale après grossissement de la filtration de base. Nous étudions d'abord le grossissement progressif d'une filtration avec des temps aléatoires et montrons comment la décomposition de la semimartingale dans la filtration grossie est obtenue en utilisant un lien naturel entre la filtration grossie initiallement et celle grossie progressivement. Intuitivement, ce lien se résume au fait que ces deux filtrations coincident après le temps aléatoire. Nous précisons cette idée et l'utilisons pour établir des résultats connus pour certains et nouveaux pour d'autres dans le cas d'un grossissement de filtrations avec un seul temps aléatoire. Les méthodes sont alors étendues au cas de plusieurs temps aléatoires, sans aucune restriction sur l'ordre de ces temps. Nous étudions ensuite ces filtrations grossies du point de vue des rétrécissements des filtrations. Nous nous intéressons enfin au grossissement progressif de filtrations avec des processus. En utilisant des résultats de la convergence faible de tribus, nous établissons d'abord un théorème de convergence de semimartingales, que l'on appliquera dans un contexte de grossissement de filtrations avec un processus pour obtenir des conditions suffisantes pour qu'une semimartingale de la filtration de base reste une semimartingale dans la filtration grossie. Nous obtenons des premiers résultats basés sur un critère de type Jacod pour les incréments du processus utilisé pour grossir la filtration. Nous nous proposons d'appliquer ces résultats au cas d'un grossissement d'une filtration Brownienne avec une diffusion retournée en temps et nous retrouvons et généralisons quelques examples disponibles dans la littérature. Enfin, nous concentrons nos efforts sur le grossissement de filtrations avec un processus continu et obtenons deux nouveaux résultats. Le premier est fondé sur un critère de Jacod pour les temps d'atteinte successifs de certains niveaux et le second est fondé sur l'hypothèse que ces temps sont honnêtes. Nous donnons des examples et montrons comment cela peut constituer un premier pas vers des modèles dynamiques de traders initiés donnant naissance à des opportunités d'arbitrage nocives. Dans la filtration grossie, le terme à variation finie du processus de prix peut devenir singulier et des opportunités d'arbitrage (au sens de FLVR) apparaissent clairement dans ces modèles. Dans le deuxième chapitre, nous réconcilions les modèles structuraux et les modèles à forme réduite en risque de crédit, du point de vue de la contagion de crédit induite par le niveau d'information disponible à l'investisseur. Autrement dit, étant données de multiples firmes, nous nous intéressons au comportement de l'intensité de défaut (par rapport à une filtration de base) d'une firme donnée aux temps de défaut des autres firmes. Nous étudions d'abord cet effet sous des spécifications différentes de modèles structuraux et sous différents niveaux d'information, et tirons, par l'exemple, des conclusions positives sur la présence d'une contagion de crédit. Néanmoins, comme plusieurs exemples pratiques ont un coup calculatoire élevé, nous travaillons ensuite avec l'hypothèse simplificatrice que les temps de défaut admettent une densité conditionnelle par rapport à la filtration de base. Nous étendons alors des résultats classiques de la théorie de grossissement de filtrations avec des temps aléatoires aux temps aléatoires non-ordonnés admettant une densité conditionnelle et pouvons ainsi étendre l'approche classique de la modélisation à forme réduite du risque de crédit à ce cas général. Les intensités de défaut sont calculées et les formules de pricing établies, dévoilant comment la contagion de crédit apparaît naturellement dans ces modèles. Nous analysons ensuite l'impact d'ordonner les temps de défaut avant de grossir la filtration de base. Si cela n'a aucune importance pour le calcul des prix, l'effet est significatif dans le contexte du management de risque et devient encore plus prononcé pour les défauts très corrélés et asymétriquement distribués. Nous proposons aussi un schéma général pour la construction et la simulation des temps de défaut, étant donné qu'un modèle pour les densités conditionnelles a été choisi. Finalement, nous étudions des modèles de densités conditionnelles particuliers et la contagion de crédit induite par le niveau d'information disponible au sein de ces modèles. Dans le troisième chapitre, nous proposons une méthodologie pour la détection en temps réel des bulles financières. Après la crise de crédit de 2007, les bulles financières ont à nouveau émergé comme un sujet d'intéret pour différents acteurs du marché et plus particulièrement pour les régulateurs. Un problème ouvert est celui de déterminer si un actif est en période de bulle. Grâce à des progrès récents dans la caractérisation des bulles d'actifs en utilisant la théorie de pricing sous probabilité risque-neutre qui caractérise les processus de prix d'actifs en bulles comme étant des martingales locales strictes, nous apportons une première réponse fondée sur la volatilité du processus de prix de l'actif. Nous nous limitons au cas particulier où l'actif risqué est modélisé par une équation différentielle stochastique gouvernée par un mouvement Brownien. Ces modèles sont omniprésents dans la littérature académique et en pratique. Nos méthodes utilisent des techniques d'estimation non paramétrique de la fonction de volatilité, combinées aux méthodes d'extrapolation issues de la théorie des reproducing kernel Hilbert spaces. Nous illustrons ces techniques en utilisant différents actifs de la bulle internet (dot-com bubble)de la période 1998 - 2001, où les bulles sont largement acceptées comme ayant eu lieu. Nos résultats confirment cette assertion. Durant le mois de Mai 2011, la presse financière a spéculé sur l'existence d'une bulle d'actif après l'OPA sur LinkedIn. Nous analysons les prix de cet actif en nous basant sur les données tick des prix et confirmons que LinkedIn a connu une bulle pendant cette période. Le dernier chapitre traite des variances swaps échantillonnés en temps discret. Ces produits financiers sont des produits dérivés de volatilité qui tradent activement dans les marchés OTC. Pour déterminer les prix de ces swaps, une approximation en temps continu est souvent utilisée pour simplifier les calculs. L'intérêt de ce chapitre est d'étudier les conditions garantissant que cette approximation soit valable. Les premiers théorèmes caractérisent les conditions sous lesquelles les valeurs des variances swaps échantillonnés en temps discret sont finies, étant donné que les valeurs de l'approximation en temps continu sont finies. De manière étonnante, les valeurs des variances swaps échantillonnés en temps discret peuvent etre infinies pour des modèles de prix raisonnables, ce qui rend la pratique de marché d'utiliser l'approximation en temps continu invalide. Des examples sont fournis. En supposant ensuite que le payoff en temps discret et son approximation en temps continu ont des prix finis, nous proposons des conditions suffisantes pour qu'il y ait convergence de la version discrète vers la version continue. Comme le modèle à volatilité stochastique 3/2 est de plus en plus populaire, nous lui appliquons nos résultats. Bien que nous pouvons démontrer que les deux valeurs des variances swaps sont finies, nous ne pouvons démontrer la convergence de l'approximation que pour certaines valeurs des paramètres du modèle.
73

Développement stochastique pour les processus de diffusion et applications à la valorisation d'options

Bompis, Romain 11 December 2013 (has links) (PDF)
Cette thèse est consacrée à l'approximation de l'espérance d'une fonctionnelle (pouvant dépendre de toute la trajectoire) appliquée à un processus de diffusion (pouvant être multidimensionnel). La motivation de ce travail vient des mathématiques financières où la valorisation d'options se réduit au calcul de telles espérances. La rapidité des calculs de prix et des procédures de calibration est une contrainte opérationnelle très forte et nous apportons des outils temps-réel (ou du moins plus compétitifs que les simulations de Monte Carlo dans le cas multidimensionnel) afin de combler ces besoins. Pour obtenir des formules d'approximation, on choisit un modèle proxy dans lequel les calculs analytiques sont possibles, puis nous utilisons des développements stochastiques autour de ce modèle proxy et le calcul de Malliavin afin d'approcher les quantités d'intérêt. Dans le cas où le calcul de Malliavin ne peut pas être appliqué, nous développons une méthodologie alternative combinant calcul d'Itô et arguments d'EDP. Toutes les approches (allant des EDPs à l'analyse stochastique) permettent d'obtenir des formules explicites et des estimations d'erreur précises en fonction des paramètres du modèle. Bien que le résultat final soit souvent le même, la dérivation explicite du développement peut être très différente et nous comparons les approches, tant du point de vue de la manière dont les termes correctifs sont rendus explicites que des hypothèses requises pour obtenir les estimées d'erreur. Nous considérons différentes classes de modèles et fonctionnelles lors des quatre Parties de la thèse. Dans la Partie I, nous nous concentrons sur les modèles à volatilité locale et nous obtenons des nouvelles formules d'approximation pour les prix, les sensibilités (delta) et les volatilités implicites des produits vanilles surpassant en précision les formules connues jusque-là. Nous présentons aussi des nouveaux résultats concernant la valorisation des options à départ différé. La Partie II traite de l'approximation analytique des prix vanilles dans les modèles combinant volatilité locale et stochastique (type Heston). Ce modèle est très délicat à analyser car ses moments ne sont pas tous finis et qu'il n'est pas régulier au sens de Malliavin. L'analyse d'erreur est originale et l'idée est de travailler sur une régularisation appropriée du payoff et sur un modèle habilement modifié, régulier au sens de Malliavin et à partir duquel on peut contrôler la distance par rapport au modèle initial. La Partie III porte sur la valorisation des options barrières régulières dans le cadre des modèles à volatilité locale. C'est un cas non considéré dans la littérature, difficile à cause de l'indicatrice des temps de sorties. Nous mélangeons calcul d'Itô, arguments d'EDP, propriétés de martingales et de convolutions temporelles de densités afin de décomposer l'erreur d'approximation et d'expliciter les termes correctifs. Nous obtenons des formules d'approximation explicites et très précises sous une hypothèse martingale. La Partie IV présente une nouvelle méthodologie (dénotée SAFE) pour l'approximation en loi efficace des diffusions multidimensionnelles dans un cadre assez général. Nous combinons l'utilisation d'un proxy Gaussien pour approcher la loi de la diffusion multidimensionnelle et une interpolation locale de la fonction terminale par éléments finis. Nous donnons une estimation de la complexité de notre méthodologie. Nous montrons une efficacité améliorée par rapport aux simulations de Monte Carlo dans les dimensions petites et moyennes (jusqu'à 10).
74

Sequence-to-sequence learning of financial time series in algorithmic trading / Sekvens-till-sekvens-inlärning av finansiella tidsserier inom algoritmiskhandel

Arvidsson, Philip, Ånhed, Tobias January 2017 (has links)
Predicting the behavior of financial markets is largely an unsolved problem. The problem hasbeen approached with many different methods ranging from binary logic, statisticalcalculations and genetic algorithms. In this thesis, the problem is approached with a machinelearning method, namely the Long Short-Term Memory (LSTM) variant of Recurrent NeuralNetworks (RNNs). Recurrent neural networks are artificial neural networks (ANNs)—amachine learning algorithm mimicking the neural processing of the mammalian nervoussystem—specifically designed for time series sequences. The thesis investigates the capabilityof the LSTM in modeling financial market behavior as well as compare it to the traditionalRNN, evaluating their performances using various measures. / Prediktion av den finansiella marknadens beteende är i stort ett olöst problem. Problemet hartagits an på flera sätt med olika metoder så som binär logik, statistiska uträkningar ochgenetiska algoritmer. I den här uppsatsen kommer problemet undersökas medmaskininlärning, mer specifikt Long Short-Term Memory (LSTM), en variant av rekurrentaneurala nätverk (RNN). Rekurrenta neurala nätverk är en typ av artificiellt neuralt nätverk(ANN), en maskininlärningsalgoritm som ska efterlikna de neurala processerna hos däggdjursnervsystem, specifikt utformat för tidsserier. I uppsatsen undersöks kapaciteten hos ett LSTMatt modellera finansmarknadens beteenden och jämförs den mot ett traditionellt RNN, merspecifikt mäts deras effektivitet på olika vis.
75

Simulações Financeiras em GPU / Finance and Stochastic Simulation on GPU

Thársis Tuani Pinto Souza 26 April 2013 (has links)
É muito comum modelar problemas em finanças com processos estocásticos, dada a incerteza de suas variáveis de análise. Além disso, problemas reais nesse domínio são, em geral, de grande custo computacional, o que sugere a utilização de plataformas de alto desempenho (HPC) em sua implementação. As novas gerações de arquitetura de hardware gráfico (GPU) possibilitam a programação de propósito geral enquanto mantêm alta banda de memória e grande poder computacional. Assim, esse tipo de arquitetura vem se mostrando como uma excelente alternativa em HPC. Com isso, a proposta principal desse trabalho é estudar o ferramental matemático e computacional necessário para modelagem estocástica em finanças com a utilização de GPUs como plataforma de aceleração. Para isso, apresentamos a GPU como uma plataforma de computação de propósito geral. Em seguida, analisamos uma variedade de geradores de números aleatórios, tanto em arquitetura sequencial quanto paralela. Além disso, apresentamos os conceitos fundamentais de Cálculo Estocástico e de método de Monte Carlo para simulação estocástica em finanças. Ao final, apresentamos dois estudos de casos de problemas em finanças: \"Stops Ótimos\" e \"Cálculo de Risco de Mercado\". No primeiro caso, resolvemos o problema de otimização de obtenção do ganho ótimo em uma estratégia de negociação de ações de \"Stop Gain\". A solução proposta é escalável e de paralelização inerente em GPU. Para o segundo caso, propomos um algoritmo paralelo para cálculo de risco de mercado, bem como técnicas para melhorar a solução obtida. Nos nossos experimentos, houve uma melhora de 4 vezes na qualidade da simulação estocástica e uma aceleração de mais de 50 vezes. / Given the uncertainty of their variables, it is common to model financial problems with stochastic processes. Furthermore, real problems in this area have a high computational cost. This suggests the use of High Performance Computing (HPC) to handle them. New generations of graphics hardware (GPU) enable general purpose computing while maintaining high memory bandwidth and large computing power. Therefore, this type of architecture is an excellent alternative in HPC and comptutational finance. The main purpose of this work is to study the computational and mathematical tools needed for stochastic modeling in finance using GPUs. We present GPUs as a platform for general purpose computing. We then analyze a variety of random number generators, both in sequential and parallel architectures, and introduce the fundamental mathematical tools for Stochastic Calculus and Monte Carlo simulation. With this background, we present two case studies in finance: ``Optimal Trading Stops\'\' and ``Market Risk Management\'\'. In the first case, we solve the problem of obtaining the optimal gain on a stock trading strategy of ``Stop Gain\'\'. The proposed solution is scalable and with inherent parallelism on GPU. For the second case, we propose a parallel algorithm to compute market risk, as well as techniques for improving the quality of the solutions. In our experiments, there was a 4 times improvement in the quality of stochastic simulation and an acceleration of over 50 times.

Page generated in 0.0666 seconds