• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • 1
  • Tagged with
  • 10
  • 10
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Risk management in sustainable fleet replacement using conditional value at risk

Ansaripoor, Amir Hossein 26 August 2014 (has links)
L’objet de cette thèse est d’analyser comment traiter le problème de renouvellement du parc en tenant compte de la durabilité, tout en se plaçant dans une perspective de gestion du risque. Cette thèse apporte une double contribution, au niveau de la politique de gestion du parc et à celui de la méthode utilisée pour appliquer cette politique. Au niveau de la politique, elle étudie l’effet de l’adoption de nouveaux véhicules, disposant d’une technologie de pointe, sur le risque et le coût escompté du système de gestion du parc. Au niveau méthodologique, cette thèse apporte trois contributions. Tout d’abord, elle comporte une étude de la nouvelle formulation du problème du parc en utilisant une programmation stochastique à deux étapes et à multiples étapes et une valeur à risque conditionnelle (CVaR), prenant ainsi en considération l’incertitude dans le processus de décision. En outre, elle élabore une formulation récursive de la CVaR, qui tient compte de la cohérence dans le temps, et elle examine ses propriétés de convergence, dans un cadre dynamique. Enfin, la thèse modélise l’impact sur le profit et le risque de l’utilisation des contrats à option sur le problème de remplacement du parc. / The purpose of this thesis is to conduct an analysis of how the fleet replacement problem can be addressed from both sustainability and risk management perspectives, simultaneously. The contribution of this thesis has two components, in fleet management policy and in the method used to apply it. At a policy level, this thesis addresses the effect of adoption of new technological advanced vehicles on the risk and expected cost of the fleet management system. At a methodological level, this thesis presents three contributions: First, it studies the new formulation of the fleet problem by using a two stage and a multi stage stochastic programming and conditional value at risk (CVaR), which accounts for the uncertainty in the decision process. Second, it models a recursive formulation of CVaR, which takes into account the time consistency, and studies its convergence properties, in a dynamic setting. Third, it models the impact on profit and risk from using option contracts on the fleet replacement problem.
2

De l'information en haut fréquence : quatre essais empiriques sur les mesures de risques et l'évaluation des actifs financiers

Kouontchou Kepawou, Patrick 20 June 2008 (has links) (PDF)
Cette thèse exploite les données de haute fréquence, plus proches des « vrais » processus de prix, mais qui engendrent un certain nombre de problèmes techniques qui nous permettent de réexaminer certains modèles d'évaluation des actifs financiers et la gestion des risques financiers. Nous commençons par explorer un phénomène dénommé « Rose des vents » découvert par Crack et Ledoit (1996) caractérisant les échanges à très haute fréquence. Cette question a déjà fait l'objet de plusieurs études qui n'ont pu complètement caractériser les conditions de cette structure sur quelques titres du marché français. Nous montrons dans un deuxième essai que la précision d'une mesure de risque efficiente, appelée Valeur-en-risque, est améliorée lorsqu'on utilise des données de haute fréquence. Nous exploitons une Analyse en Composants Indépendantes pour extraire les facteurs de risques, et nous montrons qu'elle donne des résultats plus robustes, hors échantillon, qu'une extraction par composantes principales. Nous généralisons ensuite les modèles traditionnels d'évaluation des prix des actifs aux moments d'ordres supérieurs « réalisés ». Nous montrons que cette généralisation améliore sensiblement les estimations. Nous terminons cette thèse par une extension sur l'extraction d'un temps d'échanges implicite qui permet de retrouver une distribution Gaussienne des rendements. Nous obtenons, à partir d'une méthode d'optimisation directe, un temps implicite sur plusieurs titres du marché français des actions.
3

Three essays on the relation between social performance and firm risk

Bouslah, Kais 07 1900 (has links) (PDF)
Cette thèse consiste en trois articles qui examinent divers aspects de la relation entre le risque et la performance sociale (PS). Le premier article examine la relation entre PS et le risque des entreprises non financières durant la période 1991-2007. Nos résultats montrent que la mesure agrégée de PS, qui combine les forces et les faiblesses sociales, est négativement reliée à la volatilité des rendements et au risque idiosyncratique. Après avoir divisé la mesure agrégée de PS afin de distinguer les forces et les faiblesses sociales, nous constatons que les forces et les faiblesses sociales sont positivement reliées à la volatilité et au risque idiosyncratique. Il y a une relation asymétrique dans laquelle l'impact des faiblesses sociales sur le risque est plus élevé que l'impact des forces sociales. Nous avons examiné également la question de causalité inverse et avons trouvé que les risques total et idiosyncratique sont positivement associés aux forces et aux faiblesses sociales. Cela implique que le risque affecte à son tour PS. Enfin, nous avons examiné la direction de causalité entre le risque et PS. Les résultats montrent qu'il y a une relation bidirectionnelle entre les forces sociales et le risque, et une relation unidirectionnelle du risque vers les faiblesses sociales. Le deuxième article examine la relation entre les dimensions individuelles de PS et les risques total et idiosyncratique pour les entreprises non financières durant la période 1991-2007. Nos résultats montrent que seulement certaines dimensions de PS affectent le risque. Pour les entreprises du S&P500, les faiblesses sociales des dimensions employés, gouvernance et diversité augmentent le risque, tandis que les forces des dimensions communauté (diversité) réduisent (augmentent) le risque. Pour les entreprises non incluses au S&P500, les faiblesses (forces) sociales de la dimension employée (diversité) augmentent le risque, tandis que les forces en matière d'environnement réduisent le risque. Enfin, nous avons examiné les liens de causalités et avons trouvé que la causalité a tendance à varier selon les différentes dimensions de PS. Le troisième article examine l'impact de PS sur le risque (total, systématique, idiosyncratique, Valeur à Risque (VaR)) pour un échantillon d'entreprises financières durant la période 1991-2007. Nous avons trouvé que la mesure agrégée de PS (faiblesses sociales) est négativement (positivement) reliée à toutes les mesures de risque. L'impact négatif du PS sur le risque est donc dû principalement à des faiblesses sociales, ce qui suggère une relation asymétrique entre PS ct le risque. Nous avons trouvé aussi que les faiblesses sociales des dimensions employées, produit et gouvernance affectent positivement toutes les mesures de risque, tandis que les forces sociales en matière de produit affectent positivement la VaR. Enfin, une analyse supplémentaire montre que PS affecte le risque des banques et des firmes d'investissement (courtage), mais non pas les entreprises d'assurance. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Volatilité, risque idiosyncratique, risque systématique, valeur à risque (VaR), performance sociale, forces sociales, faiblesses sociales.
4

Optimisation et planification de l'approvisionnement en présence du risque de rupture des fournisseurs / Optimization and planning of supply chain under supplier disruption risk

Hamdi, Faiza 02 March 2017 (has links)
La libéralisation des échanges, le développement des moyens de transport de marchandises à faible coût et l’essor économique des pays émergents font de la globalisation (mondialisation) des chaînes logistiques un phénomène irréversible. Si ces chaines globalisées permettent de réduire les coûts, en contrepartie, elles multiplient les risques de rupture depuis la phase d’approvisionnement jusqu’à la phase finale de distribution. Dans cette thèse, nous nous focalisons sur la phase amont. Nous traitons plus spécifiquement le cas d’une centrale d’achat devant sélectionner des fournisseurs et allouer les commandes aux fournisseurs retenus. Chacun des fournisseurs risque de ne pas livrer ses commandes pour des raisons qui lui sont propres (problèmes internes, mauvaise qualité) ou externes (catastrophe naturelle, problèmes de transport). Selon que les fournisseurs sélectionnés livrent ou non leurs commandes, l’opération dégagera un profit ou sera déficitaire. L’objectif de cette thèse, est de fournir des outils d’aide à la décision à un décideur confronté à ce problème tout en prenant en compte le comportement du dit décideur face au risque. Des programmes stochastiques en nombre entiers mixtes ont été proposés pour modéliser ce problème. La première partie du travail porte sur l’élaboration d’un outil visuel d’aide à la décision permettant à un décideur de trouver une solution maximisant le profit espéré pour un risque de perte fixé. La deuxième partie applique les techniques d’estimation et de quantification du risque VAR et CVaR à ce problème. L’objectif est d’aider un décideur qui vise à minimiser la valeur de l’espérance du coût (utilisation de VaR) ou à minimiser la valeur de l’espérance du coût dans le pire des cas (utilisation de VAR et CVaR). Selon nos résultats, il apparaît que le décideur doit prendre en compte les différents scénarios possibles quelque soit leurs probabilités de réalisation, pour que la décision soit efficace. / Trade liberalization, the development of mean of transport and the development economic of emerging countries which lead to globalization of supply chain is irreversible phenomen. They can reduce costs, in return, they multiply the risk of disruption from upstream stage to downstream stage. In this thesis, we focus on the inbound supply chain stage. We treat more specifically the case of a purchasing central to select suppliers and allocate the orders. Each of the suppliers cannot deliver its orders due to internal reasons (poor quality problems) or external reasons (natural disasters, transport problems). According to the selected suppliers deliver their orders or not, the transaction operation will generate a profit or loss. The objective of this thesis is to provide decision support tools to a decision maker faced with this problem by taking into account the behavior of decision maker toward risk. We proposed stochastic mixed integer linear programs to model this problem. In the first part, we focuses on the development of a decision support visual tool that allows a decision maker to find a compromise between maximizing the expected profit and minimize the risk of loss. In the second part, we integrated the techniques of estimation of risk VaR and CVaR in this problem. The objective is to help decision maker to minimize the expected cost and minimize the conditional value at risk simultanously via calculating of VaR. Result shows that the decision maker must tack into account the different scenarios of disruption regardless their probability of realisation.
5

Asymmetric dependence modeling and implications for international diversification and risk management

Tsafack Kemassong, Georges Desire January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
6

Mesure du capital réglementaire par des modèles de risque de marché

Kourouma, Lancine 11 May 2012 (has links) (PDF)
Suite à la crise financière et économique de 2008, il a été constaté sur le portefeuille de négociation des banques un montant de capital réglementaire significativement inférieur aux pertes réelles. Pour comprendre les causes de cette insuffisance de capital réglementaire, il nous a paru important d'évaluer la fiabilité des modèles de mesure de risque de marché et de proposer des méthodologies de stress test pour la gestion des risques extrêmes. L'objectif est de mesurer le capital réglementaire sur un portefeuille de négociation composé d'actions et de matières premières par la mesure de la Value at Risk (VaR) et l'Expected Shortfall. Pour réaliser cet objectif, nous avons utilisé le modèle Generalized Pareto Distribution (GPD) et deux modèles internes utilisés par les banques : méthode de simulation historique et modèle de la loi normale. Une première évaluation de la fiabilité effectuée sur les trois modèles de risque sous l'hypothèse de volatilité constante, montre que les modèles internes des banques et le modèle GPD ne mesurent pas correctement le risque du portefeuille d'étude pendant les périodes de crise. Néanmoins, le modèle GPD est fiable en période de faible volatilité mais avec une forte surestimation du risque réel ; cela peut conduire les banques à bloquer plus de fonds propres réglementaires qu'il est nécessaire. Une seconde évaluation de la fiabilité des modèles de risque a été effectuée sous l'hypothèse du changement de la volatilité et par la prise en compte de l'effet asymétrique des rentabilités financières. Le modèle GPD s'est révélé le plus fiable quelles que soient les conditions des marchés. La prise en compte du changement de la volatilité a amélioré la performance des modèles internes des banques. L'intégration des scénarios historiques et hypothétiques dans les modèles de risque a permis d'évaluer le risque extrême tout en diminuant la subjectivité reprochée aux techniques de stress test. Le stress test réalisé avec les modèles internes des banques ne permet pas une mesure correcte du risque extrême. Le modèle GPD est mieux adapté pour le stress test. Nous avons développé un algorithme de stress test qui permettra aux banques d'évaluer le risque extrême de leurs portefeuilles et d'identifier les facteurs de risque responsables de ce risque. Le calcul du capital réglementaire sur la base de la somme de la VaR et du stress VaR n'est pas logique et entraîne un doublement des fonds propres réglementaires des banques. Le doublement de ces fonds propres aura pour conséquence le resserrement du crédit à l'économie. Nous observons que le coefficient multiplicateur et le principe de la racine carrée du temps de l'accord de Bâle conduisent les banques à faire un arbitrage en faveur des modèles de risque non fiables.
7

Mesure du capital réglementaire par des modèles de risque de marché / Measure of capital requirement by market risk models

Kourouma, Lancine 11 May 2012 (has links)
Suite à la crise financière et économique de 2008, il a été constaté sur le portefeuille de négociation des banques un montant de capital réglementaire significativement inférieur aux pertes réelles. Pour comprendre les causes de cette insuffisance de capital réglementaire, il nous a paru important d'évaluer la fiabilité des modèles de mesure de risque de marché et de proposer des méthodologies de stress test pour la gestion des risques extrêmes. L'objectif est de mesurer le capital réglementaire sur un portefeuille de négociation composé d'actions et de matières premières par la mesure de la Value at Risk (VaR) et l'Expected Shortfall. Pour réaliser cet objectif, nous avons utilisé le modèle Generalized Pareto Distribution (GPD) et deux modèles internes utilisés par les banques : méthode de simulation historique et modèle de la loi normale. Une première évaluation de la fiabilité effectuée sur les trois modèles de risque sous l'hypothèse de volatilité constante, montre que les modèles internes des banques et le modèle GPD ne mesurent pas correctement le risque du portefeuille d'étude pendant les périodes de crise. Néanmoins, le modèle GPD est fiable en période de faible volatilité mais avec une forte surestimation du risque réel ; cela peut conduire les banques à bloquer plus de fonds propres réglementaires qu'il est nécessaire. Une seconde évaluation de la fiabilité des modèles de risque a été effectuée sous l'hypothèse du changement de la volatilité et par la prise en compte de l'effet asymétrique des rentabilités financières. Le modèle GPD s'est révélé le plus fiable quelles que soient les conditions des marchés. La prise en compte du changement de la volatilité a amélioré la performance des modèles internes des banques. L'intégration des scénarios historiques et hypothétiques dans les modèles de risque a permis d'évaluer le risque extrême tout en diminuant la subjectivité reprochée aux techniques de stress test. Le stress test réalisé avec les modèles internes des banques ne permet pas une mesure correcte du risque extrême. Le modèle GPD est mieux adapté pour le stress test. Nous avons développé un algorithme de stress test qui permettra aux banques d'évaluer le risque extrême de leurs portefeuilles et d'identifier les facteurs de risque responsables de ce risque. Le calcul du capital réglementaire sur la base de la somme de la VaR et du stress VaR n'est pas logique et entraîne un doublement des fonds propres réglementaires des banques. Le doublement de ces fonds propres aura pour conséquence le resserrement du crédit à l'économie. Nous observons que le coefficient multiplicateur et le principe de la racine carrée du temps de l'accord de Bâle conduisent les banques à faire un arbitrage en faveur des modèles de risque non fiables. / During the financial and economic crisis of 2008, it was noticed that the amount of capital required for banks' trading portfolio was significantly less than the real losses. To understand the causes of this low capital requirement, it seemed important to estimate the reliability of the market risk models and to propose stress testing methodologies for the management of extreme risks. The objective is to measure the capital requirement on a trading portfolio, composed of shares and commodities by the measure of the Value at Risk (VaR) and Expected Shortfall. To achieve this goal, we use the Generalized Pareto Distribution (GPD) and two internal models commonly used by banks: historical simulation method and model of the normal law. A first evaluation of the reliability made on the three risk models under the hypothesis of constant volatility, shows that the internal banks' models and the GPD model do not measure correctly the risk of the portfolio during the crisis periods. However, GPD model is reliable in periods of low volatility but with a strong overestimation of the real risk; it can lead banks to block more capital requirement than necessary. A second evaluation of the reliability of the risk models was made under the hypothesis of the change of the volatility and by considering the asymmetric effect of the financial returns. GPD model is the most reliable of all, irrespective of market conditions. The performance of the internal banks' risk models improves when considering the change of the volatility. The integration of the historic and hypothetical scenarios in the risk models, improves the estimation of the extreme risk, while decreasing the subjectivity blamed to the stress testing techniques. The stress testing realized with the internal models of banks does not allow a correct measure of the extreme risk. GPD model is better adapted for the stress testing techniques. We developed an algorithm of stress testing which allow banks to estimate the extreme risk of their portfolios and to identify the risk factors causing this risk. The calculation of the capital requirement based on the sum of the VaR and the stress VaR is not logical and leads to doubling the capital requirement of banks. Consequently, it conducts to a credit crunch in the economy. We observe that the multiplier coefficient and the principle of square root of time of the Basel's agreement lead banks to make arbitration in favor of risk models that are not reliable.
8

Risk–based modeling, simulation and optimization for the integration of renewable distributed generation into electric power networks / Modélisation, simulation et optimisation basée sur le risque pour l’intégration de génération distribuée renouvelable dans des réseaux de puissance électrique

Mena, Rodrigo 30 June 2015 (has links)
Il est prévu que la génération distribuée par l’entremise d’énergie de sources renouvelables (DG) continuera à jouer un rôle clé dans le développement et l’exploitation des systèmes de puissance électrique durables, efficaces et fiables, en vertu de cette fournit une alternative pratique de décentralisation et diversification de la demande globale d’énergie, bénéficiant de sources d’énergie plus propres et plus sûrs. L’intégration de DG renouvelable dans les réseaux électriques existants pose des défis socio–technico–économiques, qu’ont attirés de la recherche et de progrès substantiels.Dans ce contexte, la présente thèse a pour objet la conception et le développement d’un cadre de modélisation, simulation et optimisation pour l’intégration de DG renouvelable dans des réseaux de puissance électrique existants. Le problème spécifique à considérer est celui de la sélection de la technologie,la taille et l’emplacement de des unités de génération renouvelable d’énergie, sous des contraintes techniques, opérationnelles et économiques. Dans ce problème, les questions de recherche clés à aborder sont: (i) la représentation et le traitement des variables physiques incertains (comme la disponibilité de les diverses sources primaires d’énergie renouvelables, l’approvisionnement d’électricité en vrac, la demande de puissance et l’apparition de défaillances de composants) qui déterminent dynamiquement l’exploitation du réseau DG–intégré, (ii) la propagation de ces incertitudes sur la réponse opérationnelle du système et le suivi du risque associé et (iii) les efforts de calcul intensif résultant du problème complexe d’optimisation combinatoire associé à l’intégration de DG renouvelable.Pour l’évaluation du système avec un plan d’intégration de DG renouvelable donné, un modèle de calcul de simulation Monte Carlo non–séquentielle et des flux de puissance optimale (MCS–OPF) a été conçu et mis en oeuvre, et qui émule l’exploitation du réseau DG–intégré. Réalisations aléatoires de scénarios opérationnels sont générés par échantillonnage à partir des différentes distributions des variables incertaines, et pour chaque scénario, la performance du système est évaluée en termes économiques et de la fiabilité de l’approvisionnement en électricité, représenté par le coût global (CG) et l’énergie non fournie (ENS), respectivement. Pour mesurer et contrôler le risque par rapport à la performance du système, deux indicateurs sont introduits, la valeur–à–risque conditionnelle(CVaR) et l’écart du CVaR (DCVaR).Pour la sélection optimale de la technologie, la taille et l’emplacement des unités DG renouvelables,deux approches distinctes d’optimisation multi–objectif (MOO) ont été mis en oeuvre par moteurs de recherche d’heuristique d’optimisation (HO). La première approche est basée sur l’algorithme génétique élitiste de tri non-dominé (NSGA–II) et vise à la réduction concomitante de l’espérance mathématique de CG et de ENS, dénotés ECG et EENS, respectivement, combiné avec leur valeurs correspondent de CVaR(CG) et CVaR(ENS); la seconde approche effectue un recherche à évolution différentielle MOO (DE) pour minimiser simultanément ECG et s’écart associé DCVaR(CG). Les deux approches d’optimisation intègrent la modèle de calcul MCS–OPF pour évaluer la performance de chaque réseau DG–intégré proposé par le moteur de recherche HO.Le défi provenant de les grands efforts de calcul requises par les cadres de simulation et d’optimisation proposée a été abordée par l’introduction d’une technique originale, qui niche l’analyse de classification hiérarchique (HCA) dans un moteur de recherche de DE.Exemples d’application des cadres proposés ont été élaborés, concernant une adaptation duréseau test de distribution électrique IEEE 13–noeuds et un cadre réaliste du système test de sous–transmission et de distribution IEEE 30–noeuds. [...] / Renewable distributed generation (DG) is expected to continue playing a fundamental role in the development and operation of sustainable, efficient and reliable electric power systems, by virtue of offering a practical alternative to diversify and decentralize the overall power generation, benefiting from cleaner and safer energy sources. The integration of renewable DG in the existing electric powernetworks poses socio–techno–economical challenges, which have attracted substantial research and advancement.In this context, the focus of the present thesis is the design and development of a modeling,simulation and optimization framework for the integration of renewable DG into electric powernetworks. The specific problem considered is that of selecting the technology, size and location of renewable generation units, under technical, operational and economic constraints. Within this problem, key research questions to be addressed are: (i) the representation and treatment of the uncertain physical variables (like the availability of diverse primary renewable energy sources, bulk–power supply, power demands and occurrence of components failures) that dynamically determine the DG–integrated network operation, (ii) the propagation of these uncertainties onto the system operational response and the control of the associated risk and (iii) the intensive computational efforts resulting from the complex combinatorial optimization problem of renewable DG integration.For the evaluation of the system with a given plan of renewable DG, a non–sequential MonteCarlo simulation and optimal power flow (MCS–OPF) computational model has been designed and implemented, that emulates the DG–integrated network operation. Random realizations of operational scenarios are generated by sampling from the different uncertain variables distributions,and for each scenario the system performance is evaluated in terms of economics and reliability of power supply, represented by the global cost (CG) and the energy not supplied (ENS), respectively.To measure and control the risk relative to system performance, two indicators are introduced, the conditional value–at–risk (CVaR) and the CVaR deviation (DCVaR).For the optimal technology selection, size and location of the renewable DG units, two distinct multi–objective optimization (MOO) approaches have been implemented by heuristic optimization(HO) search engines. The first approach is based on the fast non–dominated sorting genetic algorithm(NSGA–II) and aims at the concurrent minimization of the expected values of CG and ENS, thenECG and EENS, respectively, combined with their corresponding CVaR(CG) and CVaR(ENS) values; the second approach carries out a MOO differential evolution (DE) search to minimize simultaneously ECG and its associated deviation DCVaR(CG). Both optimization approaches embed the MCS–OPF computational model to evaluate the performance of each DG–integrated network proposed by the HO search engine. The challenge coming from the large computational efforts required by the proposed simulation and optimization frameworks has been addressed introducing an original technique, which nests hierarchical clustering analysis (HCA) within a DE search engine. Examples of application of the proposed frameworks have been worked out, regarding an adaptation of the IEEE 13 bus distribution test feeder and a realistic setting of the IEEE 30 bussub–transmission and distribution test system. The results show that these frameworks are effectivein finding optimal DG–integrated networks solutions, while controlling risk from two distinctperspectives: directly through the use of CVaR and indirectly by targeting uncertainty in the form ofDCVaR. Moreover, CVaR acts as an enabler of trade–offs between optimal expected performanceand risk, and DCVaR integrates also uncertainty into the analysis, providing a wider spectrum ofinformation for well–supported and confident decision making.
9

Problèmes d'économétrie en macroéconomie et en finance : mesures de causalité, asymétrie de la volatilité et risque financier

Taamouti, Abderrahim January 2007 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
10

Wavelet analysis of financial time series / Analyse en ondelettes des séries temporelles financières

Khalfaoui, Rabeh 23 October 2012 (has links)
Cette thèse traite la contribution des méthodes d'ondelettes sur la modélisation des séries temporelles économiques et financières et se compose de deux parties: une partie univariée et une partie multivariée. Dans la première partie (chapitres 2 et 3), nous adoptons le cas univarié. Premièrement, nous examinons la classe des processus longue mémoire non-stationnaires. Une étude de simulation a été effectuée afin de comparer la performance de certaines méthodes d'estimation semi-paramétrique du paramètre d'intégration fractionnaire. Nous examinons aussi la mémoire longue dans la volatilité en utilisant des modèles FIGARCH pour les données de l'énergie. Les résultats montrent que la méthode d'estimation Exact Local Whittle de Shimotsu et Phillips [2005] est la meilleure méthode de détection de longue mémoire et la volatilité du pétrole exhibe une forte évidence de phénomène de mémoire longue. Ensuite, nous analysons le risque de marché des séries de rendements univariées de marchés boursier, qui est mesurée par le risque systématique (bêta) à différents horizons temporels. Les résultats montrent que le Bêta n'est pas stable, en raison de multi-trading stratégies des investisseurs. Les résultats basés sur l'analyse montrent que le risque mesuré par la VaR est plus concentrée aux plus hautes fréquences. La deuxième partie (chapitres 4 et 5) traite l'estimation de la variance et la corrélation conditionnelle des séries temporelles multivariées. Nous considérons deux classes de séries temporelles: les séries temporelles stationnaires (rendements) et les séries temporelles non-stationnaires (séries en niveaux). / This thesis deals with the contribution of wavelet methods on modeling economic and financial time series and consists of two parts: the univariate time series and multivariate time series. In the first part (chapters 2 and 3), we adopt univariate case. First, we examine the class of non-stationary long memory processes. A simulation study is carried out in order to compare the performance of some semi-parametric estimation methods for fractional differencing parameter. We also examine the long memory in volatility using FIGARCH models to model energy data. Results show that the Exact local Whittle estimation method of Shimotsu and Phillips [2005] is the better one and the oil volatility exhibit strong evidence of long memory. Next, we analyze the market risk of univariate stock market returns which is measured by systematic risk (beta) at different time horizons. Results show that beta is not stable, due to multi-trading strategies of investors. Results based on VaR analysis show that risk is more concentrated at higher frequency. The second part (chapters 4 and 5) deals with estimation of the conditional variance and correlation of multivariate time series. We consider two classes of time series: the stationary time series (returns) and the non-stationary time series (levels). We develop a novel approach, which combines wavelet multi-resolution analysis and multivariate GARCH models, i.e. the wavelet-based multivariate GARCH approach. However, to evaluate the volatility forecasts we compare the performance of several multivariate models using some criteria, such as loss functions, VaR estimation and hedging strategies.

Page generated in 0.0585 seconds