• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 4
  • 4
  • Tagged with
  • 14
  • 14
  • 12
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Etude des marchés d'assurance non-vie à l'aide d'équilibre de Nash et de modèle de risques avec dépendance

Dutang, Christophe 31 May 2012 (has links) (PDF)
L'actuariat non-vie étudie les différents aspects quantitatifs de l'activité d'assurance. Cette thèse vise à expliquer sous différentes perspectives les interactions entre les différents agents économiques, l'assuré, l'assureur et le marché, sur un marché d'assurance. Le chapitre 1 souligne à quel point la prise en compte de la prime marché est importante dans la décision de l'assuré de renouveler ou non son contrat d'assurance avec son assureur actuel. La nécessitéd'un modèle de marché est établie. Le chapitre 2 répond à cette problématique en utilisant la théorie des jeux non-coopératifs pour modéliser la compétition. Dans la littérature actuelle, les modèles de compétition seréduisent toujours à une optimisation simpliste du volume de prime basée sur une vision d'un assureur contre le marché. Partant d'un modèle de marché à une période, un jeu d'assureurs est formulé, où l'existence et l'unicité de l'équilibre de Nash sont vérifiées. Les propriétés des primes d'équilibre sont étudiées pour mieux comprendre les facteurs clés d'une position dominante d'un assureur par rapport aux autres. Ensuite, l'intégration du jeu sur une période dans un cadre dynamique se fait par la répétition du jeu sur plusieurs périodes. Une approche par Monte-Carlo est utilisée pour évaluer la probabilité pour un assureur d'être ruiné, de rester leader, de disparaître du jeu par manque d'assurés en portefeuille. Ce chapitre vise à mieux comprendre la présence de cycles en assurance non-vie. Le chapitre 3 présente en profondeur le calcul effectif d'équilibre de Nash pour n joueurs sous contraintes, appelé équilibre de Nash généralisé. Il propose un panorama des méthodes d'optimisation pour la résolution des n sous-problèmes d'optimisation. Cette résolution sefait à l'aide d'une équation semi-lisse basée sur la reformulation de Karush-Kuhn-Tucker duproblème d'équilibre de Nash généralisé. Ces équations nécessitent l'utilisation du Jacobiengénéralisé pour les fonctions localement lipschitziennes intervenant dans le problème d'optimisation.Une étude de convergence et une comparaison des méthodes d'optimisation sont réalisées.Enfin, le chapitre 4 aborde le calcul de la probabilité de ruine, un autre thème fondamentalde l'assurance non-vie. Dans ce chapitre, un modèle de risque avec dépendance entre lesmontants ou les temps d'attente de sinistre est étudié. De nouvelles formules asymptotiquesde la probabilité de ruine en temps infini sont obtenues dans un cadre large de modèle de risquesavec dépendance entre sinistres. De plus, on obtient des formules explicites de la probabilité deruine en temps discret. Dans ce modèle discret, l'analyse structure de dépendance permet dequantifier l'écart maximal sur les fonctions de répartition jointe des montants entre la versioncontinue et la version discrète.
2

Etude théorique d'indicateurs d'analyse technique

Ibrahim, Dalia 08 February 2013 (has links) (PDF)
Dans le cadre de ma thèse, je me suis intéressée à analyser mathématiquement un indicateur de rupture de volatilité très utilisé par les praticiens en salle de marché. L'indicateur Bandes de Bollinger appartient à la famille des méthodes dites d'analyse technique et donc repose exclusivement sur l'historique récente du cours considéré et un principe déduit des observations passées des marchés, indépendamment de tout modèle mathématique. Mon travail consiste à étudier les performances de cet indicateur dans un univers qui serait gouverné par des équations différentielles stochastiques (Black -Scholes) dont le coefficient de diffusion change sa valeur à un temps aléatoire inconnu et inobservable, pour un praticien désirant maximiser une fonction objectif (par exemple, une certaine utilité espérée de la valeur du portefeuille à une certaine maturité).
3

Couverture des produits dérivés par minimisation locale de critères de risque convexes

Millot, Nicolas 17 February 2012 (has links) (PDF)
On s'intéresse dans cette thèse à la couverture des produits dérivés dans des marchés incomplets. L'approche choisie peut se voir comme une extension des travaux de M. Schweizer sur la minimisation locale du risque quadratique. En effet, tout en restant dans le cadre de la modélisation des actifs par des semimartingales, notre méthode consiste à remplacer le critère de risque quadratique par un critère de risque plus général, sous la forme d'une fonctionnelle convexe du coût local. Nous obtenons d'abord des résultats d'existence, d'unicité et de caractérisation des stratégies optimales dans un marché sans friction, en temps discret et en temps continu. Puis nous explicitons ces stratégies dans le cadre de modèles de diffusion avec et sans sauts. Nous étendons également notre méthode au cas où la liquidité n'est plus infinie. Enfin nous montrons par le biais de simulations numériques les effets du choix de la fonctionnelle de risque sur la constitution du portefeuille optimal.
4

Apprentissage statistique pour séquences d’évènements à l’aide de processus ponctuels / Learning from Sequences with Point Processes

Achab, Massil 09 October 2017 (has links)
Le but de cette thèse est de montrer que l'arsenal des nouvelles méthodes d'optimisation permet de résoudre des problèmes d'estimation difficile basés sur les modèles d'évènements.Alors que le cadre classique de l'apprentissage supervisé traite les observations comme une collection de couples de covariables et de label, les modèles d'évènements ne regardent que les temps d'arrivée d'évènements et cherchent alors à extraire de l'information sur la source de donnée.Ces évènements datés sont ordonnés de façon chronologique et ne peuvent dès lors être considérés comme indépendants.Ce simple fait justifie l'usage d'un outil mathématique particulier appelé processus ponctuel pour apprendre une certaine structure à partir de ces évènements.Deux exemples de processus ponctuels sont étudiés dans cette thèse.Le premier est le processus ponctuel derrière le modèle de Cox à risques proportionnels:son intensité conditionnelle permet de définir le ratio de risque, une quantité fondamentale dans la littérature de l'analyse de survie.Le modèle de régression de Cox relie la durée avant l'apparition d'un évènement, appelé défaillance, aux covariables d'un individu.Ce modèle peut être reformulé à l'aide du cadre des processus ponctuels.Le second est le processus de Hawkes qui modélise l'impact des évènements passés sur la probabilité d'apparition d'évènements futurs.Le cas multivarié permet d'encoder une notion de causalité entre les différentes dimensions considérées.Cette thèse est divisée en trois parties.La première s'intéresse à un nouvel algorithme d'optimisation que nous avons développé.Il permet d'estimer le vecteur de paramètre de la régression de Cox lorsque le nombre d'observations est très important.Notre algorithme est basé sur l'algorithme SVRG (Stochastic Variance Reduced Gradient) et utilise une méthode MCMC (Monte Carlo Markov Chain) pour approcher un terme de la direction de descente.Nous avons prouvé des vitesses de convergence pour notre algorithme et avons montré sa performance numérique sur des jeux de données simulés et issus de monde réel.La deuxième partie montre que la causalité au sens de Hawkes peut être estimée de manière non-paramétrique grâce aux cumulants intégrés du processus ponctuel multivarié.Nous avons développer deux méthodes d'estimation des intégrales des noyaux du processus de Hawkes, sans faire d'hypothèse sur la forme de ces noyaux. Nos méthodes sont plus rapides et plus robustes, vis-à-vis de la forme des noyaux, par rapport à l'état de l'art. Nous avons démontré la consistence statistique de la première méthode, et avons montré que la deuxième peut être réduite à un problème d'optimisation convexe.La dernière partie met en lumière les dynamiques de carnet d'ordre grâce à la première méthode d'estimation non-paramétrique introduite dans la partie précédente.Nous avons utilisé des données du marché à terme EUREX, défini de nouveaux modèles de carnet d'ordre (basés sur les précédents travaux de Bacry et al.) et appliqué la méthode d'estimation sur ces processus ponctuels.Les résultats obtenus sont très satisfaisants et cohérents avec une analysé économétrique.Un tel travail prouve que la méthode que nous avons développé permet d'extraire une structure à partir de données aussi complexes que celles issues de la finance haute-fréquence. / The guiding principle of this thesis is to show how the arsenal of recent optimization methods can help solving challenging new estimation problems on events models.While the classical framework of supervised learning treat the observations as a collection of independent couples of features and labels, events models focus on arrival timestamps to extract information from the source of data.These timestamped events are chronologically ordered and can't be regarded as independent.This mere statement motivates the use of a particular mathematical object called point process to learn some patterns from events.Two examples of point process are treated in this thesis.The first is the point process behind Cox proportional hazards model:its conditional intensity function allows to define the hazard ratio, a fundamental quantity in survival analysis literature.The Cox regression model relates the duration before an event called failure to some covariates.This model can be reformulated in the framework of point processes.The second is the Hawkes process which models how past events increase the probability of future events.Its multivariate version enables encoding a notion of causality between the different nodes.The thesis is divided into three parts.The first focuses on a new optimization algorithm we developed to estimate the parameter vector of the Cox regression in the large-scale setting.Our algorithm is based on stochastic variance reduced gradient descent (SVRG) and uses Monte Carlo Markov Chain to estimate one costly term in the descent direction.We proved the convergence rates and showed its numerical performance on both simulated and real-world datasets.The second part shows how the Hawkes causality can be retrieved in a nonparametric fashion from the integrated cumulants of the multivariate point process.We designed two methods to estimate the integrals of the Hawkes kernels without any assumption on the shape of the kernel functions. Our methods are faster and more robust towards the shape of the kernels compared to state-of-the-art methods. We proved the statistical consistency of the first method, and designed turned the second into a convex optimization problem.The last part provides new insights from order book data using the first nonparametric method developed in the second part.We used data from the EUREX exchange, designed new order book model (based on the previous works of Bacry et al.) and ran the estimation method on these point processes.The results are very insightful and consistent with an econometric analysis.Such work is a proof of concept that our estimation method can be used on complex data like high-frequency financial data.
5

Éthique et performance : le cas des indices boursiers et des fonds d'investissement en finance islamique

El Khamlichi, Abdelbari 28 November 2012 (has links) (PDF)
Depuis le milieu des années 90, les indices et les fonds d'investissement islamiques ont fait l'objet de plusieurs études académiques. Cependant, les résultats divergent quant à leur surperformance ou leur sous-performance. L'objectif de notre thèse est d'étudier les enjeux et la performance de cette catégorie d'indices et de fonds. En ce qui concerne les indices, notre étude porte sur un échantillon de 57 couples d'indices islamiques et de leurs benchmarks conventionnels. Nous étudions d'abord les similitudes et les différences entre les deux catégories d'indices. Puis, nous réalisons une revue de littérature classique accompagnée d'une méta-analyse. Ensuite, nous analysons l'efficience et le potentiel de diversification de ces indices. Après, nous comparons les indices en termes de rentabilité, de risque et de performance. Nous utilisons également plusieurs mesures de performance afin de classer les indices islamiques. Enfin, nous étudions la persistance de la performance en ayant recours au modèle à quatre facteurs. Nos résultats montrent que malgré leur manque de diversification, les indices boursiers islamiques ont, en moyenne, le même degré d'inefficience et le même niveau de performance que leurs homologues conventionnels. Quant aux fonds d'investissement islamiques, nous étudions un échantillon de 111 fonds equity sur la période allant d'avril 2005 à mars 2011. Nous utilisons plusieurs mesures de performance et des tests non paramétriques de la persistance entre trois sous-périodes équivalentes. Nous trouvons une hétérogénéité en matière de performance de ces fonds et une absence de persistance pendant et après la dernière crise financière.
6

Méthodes numériques probabilistes en grande dimension pour le contrôle stochastique et problèmes de valorisation sur les marchés d'électricité

Langrené, Nicolas 05 March 2014 (has links) (PDF)
Cette thèse traite de la résolution numérique de problèmes de contrôle stochastique, illustrée d'applications sur les marchés d'électricité. Tout d'abord, nous proposons un modèle structurel pour le prix d'électricité, autorisant des pics de prix bien au delà du coût marginal de production lorsque le marché est tendu. Ce modèle permet de valoriser et couvrir partiellement des produits dérivés sur l'électricité, avec pour actifs de couverture des contrats à terme sur combustibles. Nous étudions ensuite un algorithme, à base de simulations de Monte-Carlo et régressions à base locale, pour résoudre des problèmes généraux de commutation optimale. Nous établissons un taux de convergence complet de la méthode. De plus, nous rendons l'algorithme parcimonieux en usage mémoire en permettant d'éviter le stockage du faisceau de trajectoires. Nous l'illustrons sur le problème d'investissements en centrales électriques (lesquelles se répercutent sur le prix d'électricité grâce à notre modèle structurel). Enfin, nous étudions des problèmes de contrôle stochastique plus généraux (où le contrôle peut être continu et modifier la dynamique du processus d'état), dont la solution peut être étudiée via des Équations Différentielles Stochastiques Rétrogrades contraintes, pour lesquelles nous développons un algorithme, qui combine randomisation du contrôle et optimisation paramétrique. Un taux de convergence entre l'EDSR contrainte et sa version discrète est fourni, ainsi qu'un estimateur du contrôle optimal. Nous appliquons ensuite cet algorithme au problème de sur-réplication d'option sous volatilité incertaine.
7

Politique économique et piège du sous-développement au Maroc.

Yamani, Nezha 14 March 2012 (has links) (PDF)
L'objet de cette thèse est de tester la pertinence de l'hypothèse du piège du sous développement, en montrant à travers les performances économiques, que la politique de désinflation a installé l'économie marocaine dans un équilibre bas. L'objectif est de mettre en évidence les effets restrictifs sur la croissance et l'emploi, de l'orientation de la politique monétaire et budgétaire. Le cadre conceptuel proposé découle des débats afférents à la règle versus discrétion, à l'indépendance et la crédibilité de la Banque centrale, à la soutenabilité budgétaire et un policy mix coopératif. L'évaluation du policy mix mis en œuvre avec rigueur depuis 1998, s'appuie sur l'articulation de cadres d'analyse issus des théories de la politique économique, de l'économie de la croissance endogène et de l'analyse en termes de capacités d'Amartya Sen. Deux axes de réflexion ont été élaborés. Le premier concerne le rattachement du concept de piège du sous développement à celui de la croissance molle constituant ainsi, les principales caractéristiques du régime de croissance en présentant les contraintes qui pèsent sur l'économie. Le second met l'accent sur l'évaluation du bien-être à partir des opportunités et des libertés offertes par les politiques publiques. Dans ce sens, il est question d'analyser les recoupements qui existent entre la politique économique, le bien-être social et les capacités. Ainsi, le premier des cinq chapitres de la thèse, traite des soubassements théoriques et des mécanismes sous-jacents qui ont guidé le décideur public dans le choix de sa politique économique. Les règles fixes en matière d'inflation et de limitation du déficit public, la coordination du réglage monétaire et de la gestion des finances publiques, l'indépendance de Banque centrale, les réformes structurelles entreprises ainsi que la priorité accordée à la stabilité macroéconomique, attestent et cautionnent les fondements néoclassiques de la politique économique. La recherche de la crédibilité monétaire à travers la règle fixe d'inflation de 2% a conduit à un renchérissement du coût du crédit. Le maintien des taux d'intérêt élevés est à l'encontre des intérêts des PME qui se trouvent pénalisées par le rationnement du crédit dont elles font l'objet. En matière budgétaire, la réduction du déficit public à 3% constitue une règle qui assure la maîtrise des finances publiques et soutient l'Institut d'émission dans sa lutte contre l'inflation. Le respect impératif de cette règle, quels que soient les chocs qui affectent l'économie, entretient les facteurs de blocage liés à la baisse de la demande et du revenu globaux. Le décideur public se prive ainsi, d'actions de redistribution et de régulation de la conjoncture susceptibles de limiter les disparités sociales. La politique de rigueur, de par le coût social qu'elle induit, limite la garantie des droits et des libertés. Le chômage des jeunes, les difficultés d'accès aux biens et services de base, la pauvreté, le sous emploi et l'analphabétisme constituent un manque de libertés et de droits qui restreint l'étendue des choix et des réalisations effectives. Il apparaît, en définitive, que le choix de la politique de rigueur axée sur des règles inflexibles, atteint assurément l'objectif de stabilité macroéconomique, mais au prix d'un déficit de croissance et de bien-être social. Les effets de la crise financière sur l'économie viennent confirmer la fragilité du système de croissance. Celle-ci a transité par des effets de revenus liés à la baisse de la demande externe à travers quatre canaux de transmission: le tourisme, les exportations, les transferts des résidents marocains à l'étranger et les IDE. Les taux de croissance enregistrés entre 2008 et 2010 restent faibles et l'emploi recule. L'impact de la crise met fin à l'illusion de résilience de l'économie et attire l'attention sur le fait qu'il existe une politique alternative axée sur la croissance et l'emploi.
8

Problèmes économétriques d'analyse des séries temporelles à mémoire longue

Dola, Béchir 13 December 2012 (has links) (PDF)
Les modalités d'investigation de notre thèse sont menées, sous trois angles : épistémologique, statistique et économique. En première partie de la thèse, dans une approche épistémologique, nous spécifions en quoi le concept de mémoire longue peut apparaître, comme un nouveau paradigme kühnien pour la macroéconomie et la finance. En deuxième partie de la thèse, dans une approche statistique, semi-paramétrique, nous proposons trois extensions de la statistique IR (Increment Ratio) de Surgailis et al, (2008). Premièrement, un théorème central limite multidimensionnelle est établi pour un vecteur composé de plusieurs statistiques IR. Deuxièmement, un test d'adéquation de qualité d'ajustement de type chi2 est déduit de ce théorème. Troisièmement, ce théorème nous a permis de construire des versions adaptatives de l'estimateur et du test d'adéquation étudiés dans un cadre semi-paramétrique général. Nous prouvons que l'estimateur adaptatif du paramètre de la mémoire longue suit une propriété d'Oracle. Les simulations que nous avons menées attestent de la précision et de la robustesse de l'estimateur et du test d'adéquation, même dans le cas non gaussien. En troisième partie de la thèse, nous en déduisons deux tests respectivement de stationnarité et de non stationnarité pour les processus I(d) stationnaires et non stationnaires, pour tout réel d tel que (-0.5< d<1.25). Dans une approche économique, au sein de cette troisième partie de la thèse, nous mettons en oeuvre les résultats théoriques précédents comparés à ceux issus d'autres méthodes statistiques: paramétriques, semi-paramétriques ou non paramétriques (ou heuristiques) appliquées à des séries économiques et financières.
9

Essor des recettes en devises et intervention de l'Etat : le syndrome rentier : approches dans le cas égyptien

Vernier, Marie-France 13 January 1999 (has links) (PDF)
CETTE ETUDE EST UN ESSAI D'INTERPRETATION DE L'EFFET DE LA FLUCTUATION DES RECETTES EN DEVISES SUR UNE ECONOMIE EN DEVELOPPEMENT LORSQUE L'ETAT EST L'ACTEUR PRINCIPAL. NOTRE HYPOTHESE EST QUE CES VARIATIONS DETERMINENT L'ACTION PUBLIQUE DU FAIT DE L'INFLUENCE DE L'ETAT ET DE L'IMPACT POSITIF DES RECETTES SUR SON INTERVENTION. POUR ECLAIRER CE PROBLEME THEORIQUE, NOUS AVONS CHOISI L'EGYPTE CAR LESAPPORTS EXTERNES (RECETTES PETROLIERES ET DU CANAL DE SUEZ, REMISES DES TRAVAILLEURS EMIGRES ET AIDE PUBLIQUE ETRANGERE) SONT IMPORTANTS : ILS AUGMENTENT RAPIDEMENT DE 1974 A 1980, DIMINUENT JUSQU'EN 1996. ENFIN, L'ACTION PUBLIQUE EST SUBSTANTIELLE. NOTRE THESE COMPREND TROIS PARTIES. NOUS COMMENCONS PAR UNE ETUDE DE DEUX ANALYSES THEORIQUES : LE MODELE DU SYNDROME HOLLANDAIS ET LA THEORIE DES ECONOMIES RENTIERES. SELON LA PREMIERE, INSCRITE DANS LE PARADIGME NEOCLASSIQUE, L'ESSOR DES RECETTES EXTERNES MODIFIE LA REPARTITION DES RESSOURCES LOCALES ENTRE LES SECTEURS. ON DISTINGUE DEUX SECTEURS DES BIENS ECHANGEABLES (LE PREMIER EN ESSOR ET LE SECOND EN RETARD) ET LE SECTEUR DES BIENS NON ECHANGEABLES (OU ABRITES). ENFIN, LE RAPPORT DES PRIX RELATIFS VARIE A COURT ET MOYEN TERME. LA SECONDE THEORIE CONCERNE LES ECONOMIES DEPENDANT DE RENTES VOLUMINEUSES - REVENUS MOBILISANT PEU LES FACTEURS DE PRODUCTION. L'ETAT, SI IL EN EST LE PREMIER DESTINATAIRE, EST DIT RENTIER. SES MOYENS BUDGETAIRES CROISSANTS PERMETTENT D'ABORD DE CONSOLIDER SON POUVOIR POLITIQUE ET ENSUITE, DE SOUTENIR L'INDUSTRIALISATION. DANS UN SECOND TEMPS, NOUS PRESENTONS LES RENTES DE L'ECONOMIE EGYPTIENNE. ENFIN, LECAS EGYPTIEN PERMET DE CARACTERISER DES ECONOMIES RENTIERES. LES RECETTES EN DEVISES SONT PARTICULIEREMENT ELEVEES DE 1974 A 1985, L'ACTION PUBLIQUE EST RENFORCEE JUSQU'EN 1985 MAIS LA DIVERSIFICATION VERS L'INDUSTRIE ET L'AGRICULTURE FAIBLE. DEPUIS 1986, LE NIVEAU PLUS FAIBLE DES APPORTS EXTERNES CONDUIT A UNE NOUVELLE FORME D'INTERVENTION DE L'ETAT, LAISSANT PLUS DE PLACE AU SECTEUR PRIVE. PAR CONTRE, LE SYNDROME HOLLANDAIS EST PEU VISIBLE SUR LA PERIODE CAR LES MECANISMES ETATIQUES PRIMENT LES MECANISMES MARCHANDS. LES ECONOMIES RENTIERES SONT VULNERABLES CAR L'ESSOR DES RECETTES EN DEVISES ENTRAINE UNE DEPENDANCE FINANCIERE NUISIBLE A LA CROISSANCE ET QUE LA PREOCCUPATION DES DIRIGEANTS EST MOINS ECONOMIQUE QUE POLITIQUE.
10

Robustesse de la stratégie de trading optimale / Robustness of the optimal trading strategy

Bel Hadj Ayed, Ahmed 12 April 2016 (has links)
L’objectif principal de cette thèse est d’apporter de nouveaux résultats théoriques concernant la performance d’investissements basés sur des modèles stochastiques. Pour ce faire, nous considérons la stratégie optimale d’investissement dans le cadre d’un modèle d’actif risqué à volatilité constante et dont la tendance est un processus caché d’Ornstein Uhlenbeck. Dans le premier chapitre,nous présentons le contexte et les objectifs de cette étude. Nous présentons, également, les différentes méthodes utilisées, ainsi que les principaux résultats obtenus. Dans le second chapitre, nous nous intéressons à la faisabilité de la calibration de la tendance. Nous répondons à cette question avec des résultats analytiques et des simulations numériques. Nous clôturons ce chapitre en quantifiant également l’impact d’une erreur de calibration sur l’estimation de la tendance et nous exploitons les résultats pour détecter son signe. Dans le troisième chapitre, nous supposons que l’agent est capable de bien calibrer la tendance et nous étudions l’impact qu’a la non-observabilité de la tendance sur la performance de la stratégie optimale. Pour cela, nous considérons le cas d’une utilité logarithmique et d’une tendance observée ou non. Dans chacun des deux cas, nous explicitons la limite asymptotique de l’espérance et la variance du rendement logarithmique en fonction du ratio signal-sur-bruit et de la vitesse de retour à la moyenne de la tendance. Nous concluons cette étude en montrant que le ratio de Sharpe asymptotique de la stratégie optimale avec observations partielles ne peut dépasser 2/(3^1.5)∗100% du ratio de Sharpe asymptotique de la stratégie optimale avec informations complètes. Le quatrième chapitre étudie la robustesse de la stratégie optimale avec une erreur de calibration et compare sa performance à une stratégie d’analyse technique. Pour y parvenir, nous caractérisons, de façon analytique,l’espérance asymptotique du rendement logarithmique de chacune de ces deux stratégies. Nous montrons, grâce à nos résultats théoriques et à des simulations numériques, qu’une stratégie d’analyse technique est plus robuste que la stratégie optimale mal calibrée. / The aim of this thesis is to study the robustness of the optimal trading strategy. The setting we consider is that of a stochastic asset price model where the trend follows an unobservable Ornstein-Uhlenbeck process. In the first chapter, the background and the objectives of this study are presented along with the different methods used and the main results obtained. The question addressed in the second chapter is the estimation of the trend of a financial asset, and the impact of misspecification. Motivated by the use of Kalman filtering as a forecasting tool, we study the problem of parameters estimation, and measure the effect of parameters misspecification. Numerical examples illustrate the difficulty of trend forecasting in financial time series. The question addressed in the third chapter is the performance of the optimal strategy,and the impact of partial information. We focus on the optimal strategy with a logarithmic utility function under full or partial information. For both cases, we provide the asymptotic expectation and variance of the logarithmic return as functions of the signal-to-noise ratio and of the trend mean reversion speed. Finally, we compare the asymptotic Sharpe ratios of these strategies in order to quantify the loss of performance due to partial information. The aim of the fourth chapter is to compare the performances of the optimal strategy under parameters mis-specification and of a technical analysis trading strategy. For both strategies, we provide the asymptotic expectation of the logarithmic return as functions of the model parameters. Finally, numerical examples find that an investment strategy using the cross moving averages rule is more robust than the optimal strategy under parameters misspecification.

Page generated in 0.0957 seconds