• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 23
  • 4
  • 4
  • Tagged with
  • 71
  • 71
  • 17
  • 16
  • 14
  • 14
  • 13
  • 12
  • 12
  • 12
  • 10
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Modélisation multi-dimensionnelle et analyse multi-régionale de l'économie française

Buda, Rodolphe 23 November 2010 (has links) (PDF)
Dans cette thèse nous avons abordé la modélisation multidimensionnelle (multi-régionale, multi-sectorielle) sur un plan théorique, empirique et instrumental. Après avoir examiné l'état de la modélisation macro-économétrique en passant en revue ses principaux outils quantitatifs, nous avons identifié les théories et modèles présentant le marché du travail sous une forme spatiale en passant en revue l'Economie du travail et la Science régionale. Dans la 2ème partie, nous avons présenté les principaux algorithmes de la modélisation puis nous avons levé l'hypothèse de neutralité théorique du choix des algorithmes et proposé des pistes d'amélioration quantitative et qualitative, notamment la modélisation d'inspiration autrichienne que nous avons conçue. Enfin nous avons présenté les logiciels de modélisation multidimensionnelle SIMUL et SIM2 que nous avons construits. Dans la 3ème partie, nous avons présenté notre travail de constitution de banque de données de modélisation, abordant ainsi les problèmes de collecte et de maintenance des données. Nous avons présenté notre travail de rétropolation de séries longues d'emploi régional 1967-2006 en NES36. Nous avons conclu sur la problématique de la révision des données. Dans la dernière partie, nous nous sommes livrés à un essai d'analyse conjoncturelle régionale de l'emploi en appliquant nos logiciels à nos données pour effectuer des estimations. Sachant que H est la dernière année historique où l'INSEE a fourni des données d'emploi détaillé définitives et que T est l'année courante, nos horizons d'estimation ont été successivement H+1, H+2 et T-1. Nous avons enfin confronté nos résultats à ceux des publications conjoncturelles des institutions et des organismes sociaux.
62

Mesure et gestion des risques d'assurance : analyse critique des futurs référentiels prudentiel et d'information financière

Thérond, Pierre-Emmanuel 25 June 2007 (has links) (PDF)
Contexte, objectifs et organisation de la thèse Aujourd'hui, le secteur de l'assurance est confronté à une triple mutation : − prudentielle avec l'avènement du futur cadre prudentiel européen qui résultera du projet Solvabilité 2 ; − du reporting financier avec le recours de plus en plus massif aux méthodes d'European Embedded Value de valorisation de compagnie d'assurance ; − comptable avec la préparation de la phase II de la norme internationale IFRS consacrée aux contrats d'assurance. Dans ce contexte, les assureurs sont invités, pour chacun de ces trois aspects, à mieux identifier, mesurer et gérer les risques auxquels ils sont soumis. Ces trois référentiels s'inscrivent dans une même logique d'uniformisation internationale (à tout le moins communautaire) et de transparence. Pour cela, la référence " au marché " est omniprésente : dès que c'est possible, c'est en référence au marché que les engagements d'assurance doivent être valorisés. En particulier, les risques financiers doivent être traités de la même manière que des instruments financiers qui seraient cotés sur un marché financier liquide. Ce principe n'est pas sans poser des problèmes conceptuels et opérationnels. L'objectif de cette thèse est de présenter les principes communs sur lesquels reposent les trois nouveaux référentiels, d'illustrer la limite de leur application en assurance et de proposer des modèles pour leur mise en oeuvre effective. Une attention particulière est portée aux risques opérationnels qu'engendrent des exigences de valorisation de plus en plus complexes. Elle s'articule en deux parties qui se décomposent chacune en trois chapitres. La première partie est consacrée à la présentation des nouveaux référentiels prudentiel, comptable et de communication financière et insiste plus particulièrement sur la manière dont les risques sont valorisés et l'incidence de ces principes d'évaluation en termes de gestion d'une compagnie d'assurance. La seconde partie aborde ces nouvelles normes sous un angle plus opérationnel en identifiant un certain nombre de problèmes pratiques auxquels leur mise en oeuvre confronte l'actuaire et en proposant des modèles permettant de surmonter ces difficultés. ---- Résumé La première partie de la thèse s'intéresse aux risques portés par les sociétés d'assurance, leurs caractéristiques et leur traitement. En effet, l'activité d'assurance est née du besoin de se prémunir contre le risque (les agents économiques sont généralement averses aux risques qui peuvent réduire leur patrimoine), ce que permet l'opération d'assurance en transférant les risques de l'assuré vers l'assureur qui, en vertu de la loi des grands nombres, bénéficie de les effets de la mutualisation et est donc relativement moins exposé au risque que l'assuré. Les évolutions récentes ou à venir amènent les assureurs à reconsidérer, au moins pour partie, leur vision des risques qu'ils assurent. Ainsi, qu'il s'agisse des nouvelles dispositions réglementaires (Solvabilité 2), de communication financière (EEV/MCEV) ou comptables (IFRS), l'objectif est similaire : identifier les risques et les analyser le plus finement possible. Le passage d'un système où les hypothèses sont exogènes et prudentes, car contraintes par la réglementation, à un système où les hypothèses les plus réalistes doivent être privilégiées conduit à prendre en considération de " nouveaux risques ". Ces risques ne sont généralement pas à proprement parler " nouveaux " : la plupart du temps, ils existaient déjà mais n'avaient pas été soit étudiés plus avant du fait de leur caractère secondaire par rapport aux risques principaux, soit identifiés. Par exemple, dans le cas du risque de mortalité, un assureur qui veut étudier ce risque va, dans un premier temps, considérer son portefeuille et l'historique des données correspondant de manière à établir des statistiques descriptives de suivi du risque. Sur des portefeuilles d'assureurs, compte-tenu de la taille des échantillons, de telles études mettront en évidence le phénomène de fluctuation d'échantillonnage autour de la tendance centrale qui est le risque principal, mais certainement pas les risques systématiques de mortalité (mortalité stochastique et risque de longévité) qui s'avèrent relativement plus petits. Ces deux risques ne pourront être identifiés que par des études plus poussées, en étudiant par exemple, en parallèle les statistiques nationales de l'évolution au cours du temps de la mortalité. Le premier chapitre s'intéresse aux aspects théoriques du traitement du risque. La première partie est consacrée à l'analyse mathématique des risques avec la présentation des concepts de mesures et de comparaisons de risques et les principaux outils qui permettent d'y parvenir. La deuxième partie s'intéressent aux différents modèles de valorisation qui co-existent en assurance et en particulier aux modèles économiques issus de la théorie financière dont l'usage est de plus en plus fréquent. Il convient néanmoins de remarquer qu'associer une valeur à un risque et le gérer de manière effective relèvent de deux démarches distinctes. Ce point est illustré dans le cas d'une garantie plancher en cas de décès de l'assuré sur un contrat d'épargne en unités de compte. Le deuxième chapitre s'attache à identifier les divergences entre les différentiels précédemment évoqués de manière à en tirer les conclusions adéquates en termes opérationnels. En effet, même s'ils reposent sur un socle de principes communs, la diversité des finalités des référentiels conduit à des options différentes dans la modélisation des produits d'assurance. En particulier, un des principes fondamentaux commun aux trois approches est l'utilisation d'hypothèses best estimate, i.e. le recours aux hypothèses les plus réalistes compte-tenu de l'information dont dispose l'assureur. Ce point est fondamental car il diffère du contexte traditionnel de l'assurance qui repose sur des hypothèses prudentes. Par exemple, le taux d'actualisation d'un régime de rentiers ne doit pas, selon la réglementation française, être supérieur à 60 % du taux moyen des emprunts de l'État français (TME) quand bien même une société d'assurance investirait intégralement en OAT disposerait d'un rendement (certain) supérieur à ce taux d'actualisation. Á titre illustratif, une attention particulière est portée sur l'évolution récente des tables de mortalité pour les risques viagers. Cet exemple montre que sur une période de temps relativement réduite, l'estimation de l'évolution de tel ou tel phénomène (l'espérance résiduelle de vie à 60 ans pour un assuré né en 1950 par exemple) peut être révisée en profondeur et avoir un impact important sur les niveaux de provisions techniques. De plus dans certains cas, un même phénomène sera modélisé sur des bases différentes selon que l'on cherche à valoriser un portefeuille de contrats ou à assurer sa solvabilité. Par ailleurs, la valorisation des portefeuilles d'assurance nécessite fréquemment la modélisation du comportement de l'assureur et des assurés, particulièrement en assurance vie. Aussi les modèles implémentés ont de réels impacts sur les valorisations obtenues. Un exemple dans le cas de la gestion d'un portefeuille financier vient illustrer cela. Enfin ce chapitre se conclut sur la modélisation et la valorisation d'un portefeuille d'assurance vie. Les exigences quantitatives prévues dans le Pilier I de Solvabilité 2 prévoient notamment des exigences de fonds propres en référence au risque global supporté par l'assureur. Cette démarche impose des contraintes fortes en termes de gestion technique. Le troisième chapitre met ainsi en évidence les conséquences du changement de référentiel prudentiel sur la gestion des actifs de la société. Le projet Solvabilité 2 fixant les exigences quantitatives de fonds propres en fonction du risque global supporté par la compagnie, n'importe quel acte de gestion modifiant la structure ou la forme de ce risque a pour conséquence automatique et immédiate de modifier l'exigence minimale de capitaux propres. Ceci est illustré dans le cas du choix d'une allocation stratégique d'actifs et observons notamment la manière dont le processus de fixation de l'allocation évolue entre la réglementation prudentielle actuelle et Solvabilité 2. La deuxième partie de la thèse est consacrée aux techniques avancées de gestion du risque d'une compagnie d'assurance. L'avènement du référentiel prudentiel Solvabilité 2 et, dans une moindre mesure, du nouveau cadre comptable induit par la phase II de la norme IFRS dédiée aux contrats d'assurance, va systématiser l'emploi de la Value-at-Risk (VaR) en assurance. Particulièrement utilisées en finance de marché, les techniques de calcul de VaR exigent une adaptation spécifique dans un contexte assurantiel de par la nature des risques qui sont ainsi mesurés. Schématiquement on distingue deux contextes, qui imposent des approches différentes : − La mesure du risque lié à la sinistralité au moyen d'une VaR dans le corps de la distribution : la provision1 devra suffire à payer les sinistres dans 75 % des cas ; − la mesure de risque liée à la ruine de la compagnie par le biais d'une VaR d'ordre très élevé : le capital de solvabilité devra permettre à la compagnie de ne pas être en ruine, à la fin de l'exercice, avec une probabilité supérieure à 99,5 %. Dans la première situation, que l'on adopte une approche VaR historique ou que l'on cherche à modéliser la sinistralité, on reste dans un cadre dans lequel on dispose d'un matériel statistique de taille généralement suffisante pour estimer une VaR dans le corps de la distribution. Dans le second cas, on est en revanche confronté à l'absence d'observations et il convient alors, dans un premier temps, de modéliser les variables de base qui influent sur la solvabilité de la compagnie, dans un deuxième temps, de simuler la ruine de la compagnie et enfin d'estimer une VaR d'ordre élevé. Cette dernière étape nécessite le recours à la théorie 1. Les travaux les plus récents du CEIOPS sur Solvabilité 2 donnent la préférence à une approche coût du capital plutôt qu'à la VaR à 75 % pour le calibrage de la marge pour risque. des valeurs extrêmes. Le cinquième chapitre s'attache à présenter les contextes de calcul de VaR en assurance, les résultats probabilistes sous-jacents et les limites de ces critères. Une attention toute particulière est portée aux différents risques opérationnels auxquels est confronté l'actuaire dans un contexte de modèle interne de type Solvabilité 2. Par ailleurs un autre phénomène à intégrer est celui de la dépendance entre les risques. L'activité d'assurance, qui repose sur la mutualisation et la convergence en probabilité énoncée dans la loi des grands nombres, s'est développée sur une des hypothèses principales de cette loi : l'indépendance entre les risques. Les exigences de solvabilité comme les référentiels économiques de valorisation ne font aujourd'hui plus l'économie de la non prise en compte des risques inhérents à la dépendance. Ainsi le capital de solvabilité fixé en référence au risque global supporté par la société ne saurait s'analyser comme la somme des capitaux qui permettraient de couvrir chaque risque individuellement. Par ailleurs, dans une approche de valorisation, si les marchés financiers n'accordent pas de prime à un risque mutualisable, il n'en est pas de même pour les risques non-mutualisables (ou systématiques) dont les sociétés d'assurance cherchent à se défaire au maximum que ce soit au travers de traités de réassurance ou, de plus en plus, grâce aux opérations de titrisation. Le cinquième chapitre aborde cette problématique en présentant, dans un premier temps, les aspects mathématiques de la mesure et de la modélisation de la dépendance ; puis en analysant l'impact de la prise en compte de celle-ci dans les contextes assurantiels de détermination d'un capital de solvabilité et de valorisation du contrat d'épargne présenté dans le deuxième chapitre. Cet exemple n'a pu être mis en oeuvre que grâce à l'utilisation de méthodes de Monte Carlo. En effet, la complexité des contrats d'assurance et l'interdépendance intrinsèque et temporelle des phénomènes qui concourent à leur dénouement obligent les assureurs à avoir un recours de plus en plus systématique aux techniques de simulation. Par exemple dans Solvabilité 2, l'alternative à l'utilisation de la formule standard pour déterminer le capital de solvabilité passera par la mise en place d'un modèle interne. Un tel modèle revient à modéliser l'ensemble des variables qui influent sur le risque global supporté par la compagnie. La mise en oeuvre effective d'un tel modèle ne pourra faire l'économie du recours aux techniques de simulation. C'est justement l'objet du sixième chapitre qui revient notamment sur les techniques de discrétisation temporelle des processus stochastiques continus, l'estimation des paramètres et la génération de nombres aléatoires. Les illustrations
63

Outils théoriques et opérationnels adaptés au contexte de l'assurance vie en Afrique subsaharienne francophone - Analyse et mesure des risques liés à la mortalité

Kamega, Aymric 14 December 2011 (has links) (PDF)
Dans un marché de l'assurance vie en Afrique subsaharienne francophone à la traîne, mais promis à un bel avenir en cas d'émergence de solutions techniques et commerciales endogènes, la thèse propose des outils théoriques et opérationnels adaptés à son développement. Cette démarche s'inscrit en parallèle des actions entreprises par l'autorité de contrôle régionale (la CIMA) pour fournir aux assureurs de la région des outils adaptés. En effet, la CIMA a initié des travaux pour la construction de nouvelles tables réglementaires d'expérience, ce qui a permis de fournir des références fiables et pertinentes pour la mortalité de la population assurée dans la région. Toutefois, certaines problématiques techniques utiles n'ont pas été développées dans ces travaux de construction. La thèse leur accorde alors une attention particulière. Ainsi, d'une part, la thèse permet de fournir des outils pour tenir compte des différences de mortalité entre pays de la région, tout en limitant les risques systématiques liés aux fluctuations d'échantillonnage (dues à la petite taille des échantillons de données par pays). Il apparaît notamment que si la modélisation indépendante de chaque pays n'est pas appropriée, les modèles d'hétérogénéité à facteurs observables, tels que le modèle de Cox ou de Lin et Ying, permettent d'atteindre cet objectif. On précise toutefois ici que ces modèles d'hétérogénéité ne permettent pas de supprimer le risque systématique lié aux fluctuations d'échantillonnage lors de l'estimation du modèle, ils engendrent seulement une réduction de ce risque en contrepartie d'une augmentation du risque systématique lié au choix du modèle. D'autre part, la thèse permet également de fournir des outils pour modéliser la mortalité d'expérience future dans la région. En absence de données sur les tendances passées de la mortalité d'expérience, ni le modèle classique de Lee-Carter ni ses extensions ne sont applicables. Une solution basée sur un ajustement paramétrique, une hypothèse sur la forme de l'évolution du niveau de mortalité (évolution linaire ou exponentielle) et un avis d'expert sur l'espérance de vie générationnelle à un âge donné est alors proposée (ces travaux s'appuient sur le modèle de Bongaarts). Ensuite, dans un second temps, en supposant disposer de données sur les tendances passées (ce qui pour mémoire n'est pas le cas à ce stade dans la région, mais devrait l'être dans les prochaines années), la thèse propose une modélisation de la mortalité future à partir d'une référence de mortalité externe et une analyse des risques systématiques associés (risques liés aux fluctuations d'échantillonnage et au choix de la référence de mortalité).
64

Une évaluation financière des politiques publiques en faveur des véhicules électriques en France

Windisch, Elisabeth 25 June 2013 (has links) (PDF)
L'étude s'attache à évaluer le marché potentiel des véhicules électriques auprès des ménages français. L'analyse porte non seulement sur les déterminants financiers de la demande, mais aussi sur les obstacles socio-économiques à l'adoption des véhicules électriques par ces ménages. L'approche désagrégée qui est appliquée à partir de la base de données de l'Enquête Nationale Transports et Déplacements 2007/2008 permet d'identifier les combinaisons d'instruments financiers les plus à même de garantir certains niveaux de pénétration du véhicule électrique dans la prochaine décennie. Les conclusions et observations tirées de l'étude permettent de formuler diverses suggestions à l'attention des constructeurs automobiles et des décideurs publics affichant la volonté de soutenir l'essor du véhicule électrique.
65

Structures et aléa en finance, une approche par la complexité algorithmique de l'information

Ma, Lin 23 November 2010 (has links) (PDF)
Cette thèse s'interroge sur les notions d'aléa et de régularité des variations boursières. Nous démontrons sur le plan théorique, la compatibilité des principales théories financières (cf. efficience informationnelle, finance comportementale et approche conventionnaliste) avec l'impossibilité de battre la stratégie "buy and hold". Cette impossibilité est confirmée par les études statistiques dans la mesure où les régularités identifiées dans les séries financières ne permettent pas de prédire le sens des variations futures. Les modèles économétriques disponibles à présent offrent souvent un "hit score" insuffisant (<60%) pour réussir des tentatives fructueuses de "market timing". Une contribution de ce travail se trouve dans l'introduction du concept de complexité algorithmique en finance. Une approche générale est proposée pour estimer la "complexité de Kolmogorov" des séries de rentabilités: après un processus "discrétisation-effacement", des algorithmes de compression sans perte sont utilisés pour détecter des structures régulières qui ne sont pas toujours visibles aux yeux des tests statistiques. En étudiant le degré d'aléa des principaux marchés internationaux à une fréquence "tick-by-tick", on constate une complexité plus élevée pour Euronext-Paris que pour le NYSE et le NASDAQ. Nous expliquons ce résultat par une auto-corrélation plus élevée des volatilités inter-journalières aux Etats-Unis qu'en France. L'inefficacité de "market timing" étant soutenue aussi bien par les théories financières que par les observations empiriques, nous définissons la notion de "battre le marché" dans ce sens spécifique avec un modèle mathématique qui s'inscrit dans le cadre de la calculabilité.
66

Machine Learning in Derivatives Trading : Does it Really Work? / Maskininlärning inom Derivathandel : Fungerar det verkligen?

Alzghaier, Samhar, Azrak, Oscar January 2024 (has links)
The rapid advancement of artificial intelligence (AI) has broadened its applications across various sectors, with finance being a prominent area of focus. In financial trading, AI is primarily utilized to detect patterns and facilitate trading decisions. However, challenges such as noisy data, poor model generalization, and overfitting due to high variability in underlying assets continue to hinder its effectiveness. This study introduces a framework that builds on previous research at the intersection of AI and finance, implemented at AP1. It outlines the benefits and limitations of applying AI to trade derivatives rather than single company stocks and serves as a guide for building such trading algorithms. Furthermore, the research identifies an under-explored niche at the intersection of AI and derivative trading. By developing and applying this framework, the study not only addresses this gap but also evaluates the role of AI algorithms in enhancing derivative trading strategies, demonstrating their potential and limitations within this domain. / Den snabba utvecklingen av artificiell intelligens (AI) har breddat dess tillämpningar över olika sektorer, med finans som ett framträdande fokusområde. Inom finansiell handel används AI främst för att upptäcka mönster och underlätta handelsbeslut. Men utmaningar som bullriga data, dålig modellgeneralisering och överanpassning på grund av stor variation i underliggande tillgångar fortsätter dock att hindra dess effektivitet. Denna studie introducerar ett ramverk som bygger på tidigare forskning i skärningspunkten mellan AI och finans, implementerad på AP1. Den beskriver fördelarna och begränsningarna med att tillämpa AI för handel med derivat snarare än aktier i enskilda företag och fungerar som en guide för att bygga sådana handelsalgoritmer. Dessutom identifierar forskningen en underutforskad nisch i skärningspunkten mellan AI och derivathandel. Genom att utveckla och tillämpa detta ramverk tar studien inte bara upp denna lucka utan utvärderar också rollen av AI-algoritmer för att förbättra derivathandelsstrategier, och visar deras potential och begränsningar inom denna domän.
67

Simulações Financeiras em GPU / Finance and Stochastic Simulation on GPU

Souza, Thársis Tuani Pinto 26 April 2013 (has links)
É muito comum modelar problemas em finanças com processos estocásticos, dada a incerteza de suas variáveis de análise. Além disso, problemas reais nesse domínio são, em geral, de grande custo computacional, o que sugere a utilização de plataformas de alto desempenho (HPC) em sua implementação. As novas gerações de arquitetura de hardware gráfico (GPU) possibilitam a programação de propósito geral enquanto mantêm alta banda de memória e grande poder computacional. Assim, esse tipo de arquitetura vem se mostrando como uma excelente alternativa em HPC. Com isso, a proposta principal desse trabalho é estudar o ferramental matemático e computacional necessário para modelagem estocástica em finanças com a utilização de GPUs como plataforma de aceleração. Para isso, apresentamos a GPU como uma plataforma de computação de propósito geral. Em seguida, analisamos uma variedade de geradores de números aleatórios, tanto em arquitetura sequencial quanto paralela. Além disso, apresentamos os conceitos fundamentais de Cálculo Estocástico e de método de Monte Carlo para simulação estocástica em finanças. Ao final, apresentamos dois estudos de casos de problemas em finanças: \"Stops Ótimos\" e \"Cálculo de Risco de Mercado\". No primeiro caso, resolvemos o problema de otimização de obtenção do ganho ótimo em uma estratégia de negociação de ações de \"Stop Gain\". A solução proposta é escalável e de paralelização inerente em GPU. Para o segundo caso, propomos um algoritmo paralelo para cálculo de risco de mercado, bem como técnicas para melhorar a solução obtida. Nos nossos experimentos, houve uma melhora de 4 vezes na qualidade da simulação estocástica e uma aceleração de mais de 50 vezes. / Given the uncertainty of their variables, it is common to model financial problems with stochastic processes. Furthermore, real problems in this area have a high computational cost. This suggests the use of High Performance Computing (HPC) to handle them. New generations of graphics hardware (GPU) enable general purpose computing while maintaining high memory bandwidth and large computing power. Therefore, this type of architecture is an excellent alternative in HPC and comptutational finance. The main purpose of this work is to study the computational and mathematical tools needed for stochastic modeling in finance using GPUs. We present GPUs as a platform for general purpose computing. We then analyze a variety of random number generators, both in sequential and parallel architectures, and introduce the fundamental mathematical tools for Stochastic Calculus and Monte Carlo simulation. With this background, we present two case studies in finance: ``Optimal Trading Stops\'\' and ``Market Risk Management\'\'. In the first case, we solve the problem of obtaining the optimal gain on a stock trading strategy of ``Stop Gain\'\'. The proposed solution is scalable and with inherent parallelism on GPU. For the second case, we propose a parallel algorithm to compute market risk, as well as techniques for improving the quality of the solutions. In our experiments, there was a 4 times improvement in the quality of stochastic simulation and an acceleration of over 50 times.
68

Semimartingales et Problématiques Récentes en Finance Quantitative

Kchia, Younes 30 September 2011 (has links) (PDF)
Dans cette thèse, nous étudions différentes problématiques d'actualité en finance quantitative. Le premier chapitre est dédié à la stabilité de la propriété de semimartingale après grossissement de la filtration de base. Nous étudions d'abord le grossissement progressif d'une filtration avec des temps aléatoires et montrons comment la décomposition de la semimartingale dans la filtration grossie est obtenue en utilisant un lien naturel entre la filtration grossie initiallement et celle grossie progressivement. Intuitivement, ce lien se résume au fait que ces deux filtrations coincident après le temps aléatoire. Nous précisons cette idée et l'utilisons pour établir des résultats connus pour certains et nouveaux pour d'autres dans le cas d'un grossissement de filtrations avec un seul temps aléatoire. Les méthodes sont alors étendues au cas de plusieurs temps aléatoires, sans aucune restriction sur l'ordre de ces temps. Nous étudions ensuite ces filtrations grossies du point de vue des rétrécissements des filtrations. Nous nous intéressons enfin au grossissement progressif de filtrations avec des processus. En utilisant des résultats de la convergence faible de tribus, nous établissons d'abord un théorème de convergence de semimartingales, que l'on appliquera dans un contexte de grossissement de filtrations avec un processus pour obtenir des conditions suffisantes pour qu'une semimartingale de la filtration de base reste une semimartingale dans la filtration grossie. Nous obtenons des premiers résultats basés sur un critère de type Jacod pour les incréments du processus utilisé pour grossir la filtration. Nous nous proposons d'appliquer ces résultats au cas d'un grossissement d'une filtration Brownienne avec une diffusion retournée en temps et nous retrouvons et généralisons quelques examples disponibles dans la littérature. Enfin, nous concentrons nos efforts sur le grossissement de filtrations avec un processus continu et obtenons deux nouveaux résultats. Le premier est fondé sur un critère de Jacod pour les temps d'atteinte successifs de certains niveaux et le second est fondé sur l'hypothèse que ces temps sont honnêtes. Nous donnons des examples et montrons comment cela peut constituer un premier pas vers des modèles dynamiques de traders initiés donnant naissance à des opportunités d'arbitrage nocives. Dans la filtration grossie, le terme à variation finie du processus de prix peut devenir singulier et des opportunités d'arbitrage (au sens de FLVR) apparaissent clairement dans ces modèles. Dans le deuxième chapitre, nous réconcilions les modèles structuraux et les modèles à forme réduite en risque de crédit, du point de vue de la contagion de crédit induite par le niveau d'information disponible à l'investisseur. Autrement dit, étant données de multiples firmes, nous nous intéressons au comportement de l'intensité de défaut (par rapport à une filtration de base) d'une firme donnée aux temps de défaut des autres firmes. Nous étudions d'abord cet effet sous des spécifications différentes de modèles structuraux et sous différents niveaux d'information, et tirons, par l'exemple, des conclusions positives sur la présence d'une contagion de crédit. Néanmoins, comme plusieurs exemples pratiques ont un coup calculatoire élevé, nous travaillons ensuite avec l'hypothèse simplificatrice que les temps de défaut admettent une densité conditionnelle par rapport à la filtration de base. Nous étendons alors des résultats classiques de la théorie de grossissement de filtrations avec des temps aléatoires aux temps aléatoires non-ordonnés admettant une densité conditionnelle et pouvons ainsi étendre l'approche classique de la modélisation à forme réduite du risque de crédit à ce cas général. Les intensités de défaut sont calculées et les formules de pricing établies, dévoilant comment la contagion de crédit apparaît naturellement dans ces modèles. Nous analysons ensuite l'impact d'ordonner les temps de défaut avant de grossir la filtration de base. Si cela n'a aucune importance pour le calcul des prix, l'effet est significatif dans le contexte du management de risque et devient encore plus prononcé pour les défauts très corrélés et asymétriquement distribués. Nous proposons aussi un schéma général pour la construction et la simulation des temps de défaut, étant donné qu'un modèle pour les densités conditionnelles a été choisi. Finalement, nous étudions des modèles de densités conditionnelles particuliers et la contagion de crédit induite par le niveau d'information disponible au sein de ces modèles. Dans le troisième chapitre, nous proposons une méthodologie pour la détection en temps réel des bulles financières. Après la crise de crédit de 2007, les bulles financières ont à nouveau émergé comme un sujet d'intéret pour différents acteurs du marché et plus particulièrement pour les régulateurs. Un problème ouvert est celui de déterminer si un actif est en période de bulle. Grâce à des progrès récents dans la caractérisation des bulles d'actifs en utilisant la théorie de pricing sous probabilité risque-neutre qui caractérise les processus de prix d'actifs en bulles comme étant des martingales locales strictes, nous apportons une première réponse fondée sur la volatilité du processus de prix de l'actif. Nous nous limitons au cas particulier où l'actif risqué est modélisé par une équation différentielle stochastique gouvernée par un mouvement Brownien. Ces modèles sont omniprésents dans la littérature académique et en pratique. Nos méthodes utilisent des techniques d'estimation non paramétrique de la fonction de volatilité, combinées aux méthodes d'extrapolation issues de la théorie des reproducing kernel Hilbert spaces. Nous illustrons ces techniques en utilisant différents actifs de la bulle internet (dot-com bubble)de la période 1998 - 2001, où les bulles sont largement acceptées comme ayant eu lieu. Nos résultats confirment cette assertion. Durant le mois de Mai 2011, la presse financière a spéculé sur l'existence d'une bulle d'actif après l'OPA sur LinkedIn. Nous analysons les prix de cet actif en nous basant sur les données tick des prix et confirmons que LinkedIn a connu une bulle pendant cette période. Le dernier chapitre traite des variances swaps échantillonnés en temps discret. Ces produits financiers sont des produits dérivés de volatilité qui tradent activement dans les marchés OTC. Pour déterminer les prix de ces swaps, une approximation en temps continu est souvent utilisée pour simplifier les calculs. L'intérêt de ce chapitre est d'étudier les conditions garantissant que cette approximation soit valable. Les premiers théorèmes caractérisent les conditions sous lesquelles les valeurs des variances swaps échantillonnés en temps discret sont finies, étant donné que les valeurs de l'approximation en temps continu sont finies. De manière étonnante, les valeurs des variances swaps échantillonnés en temps discret peuvent etre infinies pour des modèles de prix raisonnables, ce qui rend la pratique de marché d'utiliser l'approximation en temps continu invalide. Des examples sont fournis. En supposant ensuite que le payoff en temps discret et son approximation en temps continu ont des prix finis, nous proposons des conditions suffisantes pour qu'il y ait convergence de la version discrète vers la version continue. Comme le modèle à volatilité stochastique 3/2 est de plus en plus populaire, nous lui appliquons nos résultats. Bien que nous pouvons démontrer que les deux valeurs des variances swaps sont finies, nous ne pouvons démontrer la convergence de l'approximation que pour certaines valeurs des paramètres du modèle.
69

Développement stochastique pour les processus de diffusion et applications à la valorisation d'options

Bompis, Romain 11 December 2013 (has links) (PDF)
Cette thèse est consacrée à l'approximation de l'espérance d'une fonctionnelle (pouvant dépendre de toute la trajectoire) appliquée à un processus de diffusion (pouvant être multidimensionnel). La motivation de ce travail vient des mathématiques financières où la valorisation d'options se réduit au calcul de telles espérances. La rapidité des calculs de prix et des procédures de calibration est une contrainte opérationnelle très forte et nous apportons des outils temps-réel (ou du moins plus compétitifs que les simulations de Monte Carlo dans le cas multidimensionnel) afin de combler ces besoins. Pour obtenir des formules d'approximation, on choisit un modèle proxy dans lequel les calculs analytiques sont possibles, puis nous utilisons des développements stochastiques autour de ce modèle proxy et le calcul de Malliavin afin d'approcher les quantités d'intérêt. Dans le cas où le calcul de Malliavin ne peut pas être appliqué, nous développons une méthodologie alternative combinant calcul d'Itô et arguments d'EDP. Toutes les approches (allant des EDPs à l'analyse stochastique) permettent d'obtenir des formules explicites et des estimations d'erreur précises en fonction des paramètres du modèle. Bien que le résultat final soit souvent le même, la dérivation explicite du développement peut être très différente et nous comparons les approches, tant du point de vue de la manière dont les termes correctifs sont rendus explicites que des hypothèses requises pour obtenir les estimées d'erreur. Nous considérons différentes classes de modèles et fonctionnelles lors des quatre Parties de la thèse. Dans la Partie I, nous nous concentrons sur les modèles à volatilité locale et nous obtenons des nouvelles formules d'approximation pour les prix, les sensibilités (delta) et les volatilités implicites des produits vanilles surpassant en précision les formules connues jusque-là. Nous présentons aussi des nouveaux résultats concernant la valorisation des options à départ différé. La Partie II traite de l'approximation analytique des prix vanilles dans les modèles combinant volatilité locale et stochastique (type Heston). Ce modèle est très délicat à analyser car ses moments ne sont pas tous finis et qu'il n'est pas régulier au sens de Malliavin. L'analyse d'erreur est originale et l'idée est de travailler sur une régularisation appropriée du payoff et sur un modèle habilement modifié, régulier au sens de Malliavin et à partir duquel on peut contrôler la distance par rapport au modèle initial. La Partie III porte sur la valorisation des options barrières régulières dans le cadre des modèles à volatilité locale. C'est un cas non considéré dans la littérature, difficile à cause de l'indicatrice des temps de sorties. Nous mélangeons calcul d'Itô, arguments d'EDP, propriétés de martingales et de convolutions temporelles de densités afin de décomposer l'erreur d'approximation et d'expliciter les termes correctifs. Nous obtenons des formules d'approximation explicites et très précises sous une hypothèse martingale. La Partie IV présente une nouvelle méthodologie (dénotée SAFE) pour l'approximation en loi efficace des diffusions multidimensionnelles dans un cadre assez général. Nous combinons l'utilisation d'un proxy Gaussien pour approcher la loi de la diffusion multidimensionnelle et une interpolation locale de la fonction terminale par éléments finis. Nous donnons une estimation de la complexité de notre méthodologie. Nous montrons une efficacité améliorée par rapport aux simulations de Monte Carlo dans les dimensions petites et moyennes (jusqu'à 10).
70

Sequence-to-sequence learning of financial time series in algorithmic trading / Sekvens-till-sekvens-inlärning av finansiella tidsserier inom algoritmiskhandel

Arvidsson, Philip, Ånhed, Tobias January 2017 (has links)
Predicting the behavior of financial markets is largely an unsolved problem. The problem hasbeen approached with many different methods ranging from binary logic, statisticalcalculations and genetic algorithms. In this thesis, the problem is approached with a machinelearning method, namely the Long Short-Term Memory (LSTM) variant of Recurrent NeuralNetworks (RNNs). Recurrent neural networks are artificial neural networks (ANNs)—amachine learning algorithm mimicking the neural processing of the mammalian nervoussystem—specifically designed for time series sequences. The thesis investigates the capabilityof the LSTM in modeling financial market behavior as well as compare it to the traditionalRNN, evaluating their performances using various measures. / Prediktion av den finansiella marknadens beteende är i stort ett olöst problem. Problemet hartagits an på flera sätt med olika metoder så som binär logik, statistiska uträkningar ochgenetiska algoritmer. I den här uppsatsen kommer problemet undersökas medmaskininlärning, mer specifikt Long Short-Term Memory (LSTM), en variant av rekurrentaneurala nätverk (RNN). Rekurrenta neurala nätverk är en typ av artificiellt neuralt nätverk(ANN), en maskininlärningsalgoritm som ska efterlikna de neurala processerna hos däggdjursnervsystem, specifikt utformat för tidsserier. I uppsatsen undersöks kapaciteten hos ett LSTMatt modellera finansmarknadens beteenden och jämförs den mot ett traditionellt RNN, merspecifikt mäts deras effektivitet på olika vis.

Page generated in 0.0457 seconds