• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 7
  • 2
  • Tagged with
  • 20
  • 20
  • 13
  • 13
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Mémoire longue, volatilité et gestion de portefeuille

Coulon, Jérôme 20 May 2009 (has links) (PDF)
Cette thèse porte sur l'étude de la mémoire longue de la volatilité des rendements d'actions. Dans une première partie, nous apportons une interprétation de la mémoire longue en termes de comportement d'agents grâce à un modèle de volatilité à mémoire longue dont les paramètres sont reliés aux comportements hétérogènes des agents pouvant être rationnels ou à rationalité limitée. Nous déterminons de manière théorique les conditions nécessaires à l'obtention de mémoire longue. Puis nous calibrons notre modèle à partir des séries de volatilité réalisée journalière d'actions américaines de moyennes et grandes capitalisations et observons le changement de comportement des agents entre la période précédant l'éclatement de la bulle internet et celle qui la suit. La deuxième partie est consacrée à la prise en compte de la mémoire longue en gestion de portefeuille. Nous commençons par proposer un modèle de choix de portefeuille à volatilité stochastique dans lequel la dynamique de la log-volatilité est caractérisée par un processus d'Ornstein-Uhlenbeck. Nous montrons que l'augmentation du niveau d'incertitude sur la volatilité future induit une révision du plan de consommation et d'investissement. Puis dans un deuxième modèle, nous introduisons la mémoire longue grâce au mouvement brownien fractionnaire. Cela a pour conséquence de transposer le système économique d'un cadre markovien à un cadre non-markovien. Nous fournissons donc une nouvelle méthode de résolution fondée sur la technique de Monte Carlo. Puis, nous montrons toute l'importance de modéliser correctement la volatilité et mettons en garde le gérant de portefeuille contre les erreurs de spécification de modèle.
12

Le sentiment de marché : mesure et interêt pour la gestion d'actifs

Frugier, Alain 30 September 2011 (has links) (PDF)
La rationalité parfaite des investisseurs, base de l'hypothèse d'efficience desmarchés, est de plus en plus discutée. Ceci a conduit au développement de la financecomportementale. Le sentiment de marché, qui en est issu, est l'objet de cette étude.Après l'avoir mis en relation avec la rationalité et défini, ses modes de mesure courantset une évaluation de leur capacité à anticiper les rentabilités sont présentés. Ensuite, autravers de deux recherches largement indépendantes, nous (1) montrons de manièreempirique, essentiellement à partir de modèles multi-agents et d'une modélisation del'impact des chocs d'information sur la distribution des rentabilités, que les skewness etkurtosis de la distribution des rentabilités peuvent être utilisés comme indicateurs dusentiment de marché ; (2) mettons en évidence la présence de mémoire sur de nombreuxindicateurs de sentiment, ce qui invalide les modalités habituelles de leur utilisation,dans le cadre de stratégies contrarian.
13

Les processus à mémoire longue saisonniers avec variance infinie des innovations et leurs applications

Ndongo, Mor 29 July 2011 (has links) (PDF)
Dans ce travail, nous étudions de manière approfondie les processus à mémoire longue saisonniers avec variance infinie des innovations. Dans le premier chapitre, nous rappelons les différentes propriétés des lois -stables univariées (stabilité, calcul des moments, simulation, : : :). Nous introduisons ensuite deux modèles à variance infinie largement utilisés dans la littérature statistique : les modèles ARMA -stables et les modèles ARFIMA -stables développés respectivement par Mikosch et al. [57] et Kokoszka et Taqqu [45]. Constatant les limites de ces modèles, nous construisons dans le second chapitre de nouveaux modèles appelés processus ARFISMA symétriques -stables. Ces modèles nous permettent de prendre en compte dans une modélisation la présence éventuelle des trois éléments caractéristiques suivants : mémoire longue, saisonnalité et variance infinie, que l'on rencontre souvent en finance, en télécommunication ou en hydrologie. Après avoir conclu le chapitre par l'étude du comportement asymptotique du modèle par des simulations, nous abordons dans le troisième chapitre, le problème d'estimation des paramètres d'un processus ARFISMA -stable. Nous présentons plusieurs méthodes d'estimation : une méthode semiparamétrique développée par Reisen et al.[67], une méthode de Whittle classique utilisée par Mikosch et al. [57] et par Kokoszka et Taqqu [45], et une autre approche de la méthode de Whittle basée sur l'évaluation de la vraisemblance de Whittle par une méthode de Monte Carlo par chaînes de Markov (MCMC). De nombreuses simulations, effectuées avec le logiciel R [64], permettent de comparer ces méthodes d'estimation. Cependant, ces méthodes ne permettent pas d'estimer le paramètre d'innovation . Ainsi, nous introduisons, dans le quatrième chapitre deux méthodes d'estimation : la méthode de la fonction caractéristique empirique développée par Knight et Yu [43] et la méthode des moments généralisés basée sur des moments conditionnels continus, suggérée par Carrasco et Florens [16]. De plus, afin de comparer les propriétés asymptotiques des estimateurs, des simulations de Monte Carlo sont effectuées. Enfin, dans le cinquième chapitre, nous appliquons ce modèle sur des données de débits du fleuve Sénégal à la station de Bakel. En guise de comparaison, nous considérons le modèle linéaire classique de Box et Jenkins [11], et nous comparons leurs capacités prédictives.
14

Cointégration fractionnaire et co-mouvements des marchés financiers internationaux / Fractional cointegration analysis of comovements in international financial markets

Truchis de Varennes, Gilles de 21 November 2014 (has links)
L'objet de cette thèse est d'étudier les systèmes de cointégration fractionnaire de forme triangulaire mais également d'analyser l'apport de ces systèmes dans la modélisation des co-mouvements au sein des marchés financiers internationaux. La thèse s'articule autour de six chapitres équitablement répartis entre contributions économétriques et économiques. Concernant l'approche économétrique, un intérêt particulier est donné à l'estimation de ces systèmes en absence d'information sur les paramètres d'intérêts. Dans cette optique, plusieurs techniques d'estimation sont analysées et développées, essentiellement dans le domaine des fréquences car celui-ci permet un traitement semi-paramétrique des paramètres de nuisances. Les performances de ses estimateurs sont étudiés à travers des simulations mais également à travers l'étude des propriétés asymptotiques. Concernant l'approche économique, une première contribution exploite la cointégration fractionnaire pour révéler l'existence d'un système de taux de change entre certains pays Asiatiques. Une deuxième contribution porte sur l'analyse des interdépendances entre le marché du pétrole et divers taux de change au niveau de la volatilité. Une troisième contribution introduit un processus d'apprentissage adaptatif dans un modèle monétaire à plusieurs pays afin d'étudier sous quelles conditions un système de taux de change peut émerger. / The aim of the thesis is to study a triangular form of fractional cointegration systems and to investigate whether these systems allow to model the comovements in international financial markets. The thesis is organized around six chapters. Three of them are theory-oriented and the three others are empirics-oriented. Concerning the econometric approach, a particular interest is devoted to the estimation of these systems when all parameters of interest are unknown. To this extent, several estimation techniques are investigated and introduced, essentially in frequency domain as it allows a semi-parametric treatment of the nuisance parameters. Most of times, the performance of these estimators are studied by means of simulations but the asymptotic theory is also developed. Concerning the economic approach, a first contribution applies the fractional cointegration theory to reveal the existence of an exchange rate system between several Asian countries. A second contribution deals with the risk interdependences between the crude oil market and several exchange rates. A third contribution considers an adaptive learning mechanism in a multi-country monetary model to investigate the conditions under which an exchange rate system is likely to emerge.
15

Le sentiment de marché : mesure et interêt pour la gestion d'actifs / Market sentiment : measure and importance for asset management

Frugier, Alain 30 September 2011 (has links)
La rationalité parfaite des investisseurs, base de l'hypothèse d'efficience desmarchés, est de plus en plus discutée. Ceci a conduit au développement de la financecomportementale. Le sentiment de marché, qui en est issu, est l'objet de cette étude.Après l'avoir mis en relation avec la rationalité et défini, ses modes de mesure courantset une évaluation de leur capacité à anticiper les rentabilités sont présentés. Ensuite, autravers de deux recherches largement indépendantes, nous (1) montrons de manièreempirique, essentiellement à partir de modèles multi-Agents et d'une modélisation del'impact des chocs d'information sur la distribution des rentabilités, que les skewness etkurtosis de la distribution des rentabilités peuvent être utilisés comme indicateurs dusentiment de marché ; (2) mettons en évidence la présence de mémoire sur de nombreuxindicateurs de sentiment, ce qui invalide les modalités habituelles de leur utilisation,dans le cadre de stratégies contrarian. / The perfect rationality of investors, one of the foundations of theefficient market hypothesis, is increasingly being questioned. This has led to thedevelopment of behavioral finance. Market sentiment, which stems from it, is the focusof this study. Having first linked this concept to rationality and defined it, this studygoes on to present the most common ways of measuring market sentiment and assesstheir ability to anticipate market returns. Then, using two different studies, we do twothings (1) using mainly multi-Agent models and by modeling the impact of informationshocks on the distribution of returns, we empirically show how skewness and kurtosis inthe distribution of returns can be used as market sentiment indicators; (2) wedemonstrate that many standard sentiment indicators are processes affected by long- orshort-Term memory, making them invalid as contrarian indicators even though this ishow they are typically used.
16

Mémoire longue, volatilité et gestion de portefeuille / Long memory, volatility and portfolio management

Coulon, Jérôme 20 May 2009 (has links)
Cette thèse porte sur l’étude de la mémoire longue de la volatilité des rendements d’actions. Dans une première partie, nous apportons une interprétation de la mémoire longue en termes de comportement d’agents grâce à un modèle de volatilité à mémoire longue dont les paramètres sont reliés aux comportements hétérogènes des agents pouvant être rationnels ou à rationalité limitée. Nous déterminons de manière théorique les conditions nécessaires à l’obtention de mémoire longue. Puis nous calibrons notre modèle à partir des séries de volatilité réalisée journalière d’actions américaines de moyennes et grandes capitalisations et observons le changement de comportement des agents entre la période précédant l’éclatement de la bulle internet et celle qui la suit. La deuxième partie est consacrée à la prise en compte de la mémoire longue en gestion de portefeuille. Nous commençons par proposer un modèle de choix de portefeuille à volatilité stochastique dans lequel la dynamique de la log-volatilité est caractérisée par un processus d’Ornstein-Uhlenbeck. Nous montrons que l’augmentation du niveau d’incertitude sur la volatilité future induit une révision du plan de consommation et d’investissement. Puis dans un deuxième modèle, nous introduisons la mémoire longue grâce au mouvement brownien fractionnaire. Cela a pour conséquence de transposer le système économique d’un cadre markovien à un cadre non-markovien. Nous fournissons donc une nouvelle méthode de résolution fondée sur la technique de Monte Carlo. Puis, nous montrons toute l’importance de modéliser correctement la volatilité et mettons en garde le gérant de portefeuille contre les erreurs de spécification de modèle. / This PhD thesis is about the study of the long memory of the volatility of asset returns. In a first part, we bring an interpretation of long memory in terms of agents’ behavior through a long memory volatility model whose parameters are linked with the bounded rational agents’ heterogeneous behavior. We determine theoretically the necessary condition to get long memory. Then we calibrate our model from the daily realized volatility series of middle and large American capitalization stocks. Eventually, we observe the change in the agents’ behavior between the period before the internet bubble burst and the one after. The second part is devoted to the consideration of long memory in portfolio management. We start by suggesting a stochastic volatility portfolio model in which the dynamics of the log-volatility is characterized by an Ornstein-Uhlenbeck process. We show that when the uncertainty of the future volatility level increases, it induces the revision of the consumption and investment plan. Then in a second model, we introduce a long memory component by the use of a fractional Brownian motion. As a consequence, it transposes the economic system from a Markovian framework to a non-Markovian one. So we provide a new resolution method based on Monte Carlo technique. Then we show the high importance to well model the volatility and warn the portfolio manager against the misspecification errors of the model.
17

Estimation aveugle de chaînes de Markov cachées simples et doubles : Application au décodage de codes graphiques / Blind estimation of hidden and double Markov chain : Application to barcode decoding

Dridi, Noura 25 June 2012 (has links)
Depuis leur création, les codes graphiques constituent un outil d'identification automatique largement exploité en industrie. Cependant, les performances de lecture sont limitées par un flou optique et un flou de mouvement. L'objectif de la thèse est l'optimisation de lecture des codes 1D et 2D en exploitant des modèles de Markov cachés simples et doubles, et des méthodes d'estimation aveugles. En premier lieu, le système de lecture de codes graphiques est modélisé par une chaîne de Markov cachée, et des nouveaux algorithmes pour l'estimation du canal et la détection des symboles sont développés. Ils tiennent compte de la non stationnarité de la chaîne de Markov. De plus une méthode d'estimation de la taille du flou et de sa forme est proposée. La méthode utilise des critères de sélection permettant de choisir le modèle de dégradation le plus adéquat. Enfin nous traitons le problème de complexité qui est particulièrement important dans le cas d'un canal à mémoire longue. La solution proposée consiste à modéliser le canal à mémoire longue par une chaîne de Markov double. Sur la base de ce modèle, des algorithmes offrant un rapport optimisé performance-complexité sont présentés / Since its birth, the technology of barcode is well investigated for automatic identification. When reading, a barcode can be degraded by a blur , caused by a bad focalisation and/ or a camera movement. The goal of this thesis is the optimisation of the receiver of 1D and 2D barcode from hidden and double Markov model and blind statistical estimation approaches. The first phase of our work consists of modelling the original image and the observed one using Hidden Markov model. Then, new algorithms for joint blur estimation and symbol detection are proposed, which take into account the non-stationarity of the hidden Markov process. Moreover, a method to select the most relevant model of the blur is proposed, based on model selection criterion. The method is also used to estimate the blur length. Finally, a new algorithm based on the double Markov chain is proposed to deal with digital communication through a long memory channel. Estimation of such channel is not possible using the classical detection algorithms based on the maximum likelihood due to the prohibitive complexity. New algorithm giving good trade off between complexity and performance is provided
18

Evaluation des dérivés climatiques sur degrés-jours

Hamisultane, Hélène 14 December 2007 (has links) (PDF)
L'introduction sur le marché financier du premier dérivé climatique portant sur les degrés-jours en 1997 aux Etats-Unis, a donné lieu à un nombre important de travaux sur la valorisation des instruments climatiques et sur la modélisation de la température moyenne journalière. Cependant, aucune étude conjointe de l'ensemble des approches d'évaluation et des représentations de la température suggérées dans la littérature n'avait été menée jusqu'à présent sur le plan empirique. Nous nous sommes donc proposés dans la présente thèse de calculer les prix des contrats à terme et des options d'achat climatiques à partir des méthodes en l'absence d'arbitrage, actuarielle et fondée sur la consommation. Nous nous sommes particulièrement intéressés au calcul des prix des contrats sur les degrés-jours des villes de Chicago, de Cincinnati et de New York pour lesquelles nous avions constaté des transactions fréquentes sur le Chicago Mercantile Exchange. L'analyse conjointe des cours estimés des contrats à terme climatiques à partir des différentes méthodologies d'évaluation a montré que le calibrage des modèles d'évaluation était nécessaire pour obtenir des prévisions de prix proches des cotations et plus particulièrement de la réalisation réelle de l'indice des degrés-jours à l'échéance.
19

Étude de modèles spatiaux et spatio-temporels / Spatial and spatio-temporal models and application

Cisse, Papa Ousmane 11 December 2018 (has links)
Ce travail porte sur les séries spatiales. On étudie les phénomènes dont l’observation est un processus aléatoire indexé par un ensemble spatial. Dans cette thèse on s’intéresse aux données bidimensionnelles régulièrement dispersées dans l’espace, on travaille alors dans un rectangle régulier (sur Z2) . Cette modélisation vise donc à construire des représentations des systèmes suivant leurs dimensions spatiales et à ses applications dans de nombreux domaines tels que la météorologie, l’océanographie, l’agronomie, la géologie, l’épidémiologie, ou encore l’économétrie etc. La modélisation spatiale permet d’aborder la question importante de la prédiction de la valeur d’un champ aléatoire en un endroit donné d’une région. On suppose que la valeur à prédire dépend des observations dans les régions voisines. Ceci montre la nécessité de tenir compte, en plus de leurs caractéristiques statistiques, des relations de dépendance spatiale entre localisations voisines, pour rendre compte de l’ensemble des structures inhérentes aux données. Dans la plupart des champs d’applications, on est souvent confronté du fait que l’une des sources majeures de fluctuations est la saisonnalité. Dans nos travaux on s’intéresse particulièrement à ce phénomène de saisonnalité dans les données spatiales. Faire une modélisation mathématique en tenant en compte l’interaction spatiale des différents points ou localités d’une zone entière serait un apport considérable. En effet un traitement statistique qui prendrait en compte cet aspect et l’intègre de façon adéquat peut corriger une perte d’information, des erreurs de prédictions, des estimations non convergentes et non efficaces. / This thesis focuses on the time series in addition to being observed over time, also have a spatial component. By definition, a spatiotemporal phenomenon is a phenomenon which involves a change in space and time. The spatiotemporal model-ling therefore aims to construct representations of systems taking into account their spatial and temporal dimensions. It has applications in many fields such as meteorology, oceanography, agronomy, geology, epidemiology, image processing or econometrics etc. It allows them to address the important issue of predicting the value of a random field at a given location in a region. Assume that the value depends predict observations in neighbouring regions. This shows the need to consider, in addition to their statistical characteristics, relations of spatial dependence between neighbouring locations, to account for all the inherent data structures. In the exploration of spatiotemporal data, refinement of time series models is to explicitly incorporate the systematic dependencies between observations for a given region, as well as dependencies of a region with neighboring regions. In this context, the class of spatial models called spatiotemporal auto-regressive models (Space-Time Autoregressive models) or STAR was introduced in the early 1970s. It will then be generalized as GSTAR model (Generalized Space-Time Autoregressive models). In most fields of applications, one is often confronted by the fact that one of the major sources of fluctuations is seasonality. In our work we are particularly interested in the phenomenon of seasonality in spatiotemporal data. We develop a new class of models and investigates the properties and estimation methods. Make a mathematical model taking into account the spatial inter-action of different points or locations of an entire area would be a significant contribution. Indeed, a statistical treatment that takes into account this aspect and integrates appropriate way can correct a loss of information, errors in predictions, non-convergent and inefficient estimates.
20

Predicting stock market trends using time-series classification with dynamic neural networks

Mocanu, Remus 09 1900 (has links)
L’objectif de cette recherche était d’évaluer l’efficacité du paramètre de classification pour prédire suivre les tendances boursières. Les méthodes traditionnelles basées sur la prévision, qui ciblent l’immédiat pas de temps suivant, rencontrent souvent des défis dus à des données non stationnaires, compromettant le modèle précision et stabilité. En revanche, notre approche de classification prédit une évolution plus large du cours des actions avec des mouvements sur plusieurs pas de temps, visant à réduire la non-stationnarité des données. Notre ensemble de données, dérivé de diverses actions du NASDAQ-100 et éclairé par plusieurs indicateurs techniques, a utilisé un mélange d'experts composé d'un mécanisme de déclenchement souple et d'une architecture basée sur les transformateurs. Bien que la méthode principale de cette expérience ne se soit pas révélée être aussi réussie que nous l'avions espéré et vu initialement, la méthodologie avait la capacité de dépasser toutes les lignes de base en termes de performance dans certains cas à quelques époques, en démontrant le niveau le plus bas taux de fausses découvertes tout en ayant un taux de rappel acceptable qui n'est pas zéro. Compte tenu de ces résultats, notre approche encourage non seulement la poursuite des recherches dans cette direction, dans lesquelles un ajustement plus précis du modèle peut être mis en œuvre, mais offre également aux personnes qui investissent avec l'aide de l'apprenstissage automatique un outil différent pour prédire les tendances boursières, en utilisant un cadre de classification et un problème défini différemment de la norme. Il est toutefois important de noter que notre étude est basée sur les données du NASDAQ-100, ce qui limite notre l’applicabilité immédiate du modèle à d’autres marchés boursiers ou à des conditions économiques variables. Les recherches futures pourraient améliorer la performance en intégrant les fondamentaux des entreprises et effectuer une analyse du sentiment sur l'actualité liée aux actions, car notre travail actuel considère uniquement indicateurs techniques et caractéristiques numériques spécifiques aux actions. / The objective of this research was to evaluate the classification setting's efficacy in predicting stock market trends. Traditional forecasting-based methods, which target the immediate next time step, often encounter challenges due to non-stationary data, compromising model accuracy and stability. In contrast, our classification approach predicts broader stock price movements over multiple time steps, aiming to reduce data non-stationarity. Our dataset, derived from various NASDAQ-100 stocks and informed by multiple technical indicators, utilized a Mixture of Experts composed of a soft gating mechanism and a transformer-based architecture. Although the main method of this experiment did not prove to be as successful as we had hoped and seen initially, the methodology had the capability in surpassing all baselines in certain instances at a few epochs, demonstrating the lowest false discovery rate while still having an acceptable recall rate. Given these results, our approach not only encourages further research in this direction, in which further fine-tuning of the model can be implemented, but also offers traders a different tool for predicting stock market trends, using a classification setting and a differently defined problem. It's important to note, however, that our study is based on NASDAQ-100 data, limiting our model's immediate applicability to other stock markets or varying economic conditions. Future research could enhance performance by integrating company fundamentals and conducting sentiment analysis on stock-related news, as our current work solely considers technical indicators and stock-specific numerical features.

Page generated in 0.0495 seconds