• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 14
  • 4
  • Tagged with
  • 35
  • 35
  • 13
  • 12
  • 11
  • 10
  • 10
  • 8
  • 7
  • 7
  • 7
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation de séries chronologiques non linéaires et modèles ARMA faibles

Salmi, Zahia January 2003 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
2

Modern approaches for nonlinear data analysis of economic and financial time series / Approches modernes pour l'analyse non linéaire de données de séries chronologiques économiques et financières

Addo, Peter Martey 30 May 2014 (has links)
L’axe principal de la thèse est centré sur des approches non-linéaires modernes d’analyse des données économiques et financières, avec une attention particulière sur les cycles économiques et les crises financières. Un consensus dans la littérature statistique et financière s’est établie autour du fait que les variables économiques ont un comportement non-linéaire au cours des différentes phases du cycle économique. En tant que tel, les approches/modèles non-linéaires sont requis pour saisir les caractéristiques du mécanisme de génération des données intrinsèquement asymétriques, que les modèles linéaires sont incapables de reproduire.À cet égard, la thèse propose une nouvelle approche interdisciplinaire et ouverte à l’analyse des systèmes économiques et financiers. La thèse présente des approches robustes aux valeurs extrêmes et à la non-stationnarité, applicables à la fois pour des petits et de grands échantillons, aussi bien pour des séries temporelles économiques que financières. La thèse fournit des procédures dites étape par étape dans l’analyse des indicateurs économiques et financiers en intégrant des concepts basés sur la méthode de substitution de données, des ondelettes, espace incorporation de phase, la m´méthode retard vecteur variance (DVV) et des récurrences parcelles. La thèse met aussi en avant des méthodes transparentes d’identification, de datation des points de retournement et de l´évaluation des impacts des crises économiques et financières. En particulier, la thèse fournit également une procédure pour anticiper les crises futures et ses conséquences.L’étude montre que l’intégration de ces techniques dans l’apprentissage de la structure et des interactions au sein et entre les variables économiques et financières sera très utile dans l’élaboration de politiques de crises, car elle facilite le choix des méthodes de traitement appropriées, suggérées par les données.En outre, une nouvelle procédure pour tester la linéarité et la racine unitaire dans un cadre non-linéaire est proposé par l’introduction d’un nouveau modèle – le modèle MT-STAR – qui a des propriétés similaires au modèle ESTAR mais réduit les effets des problèmes d’identification et peut aussi représenter l’asymétrie dans le mécanisme d’ajustement vers l’équilibre. Les distributions asymptotiques du test de racine unitaire proposées sont non-standards et sont calculées. La puissance du test est évaluée par simulation et quelques illustrations empiriques sur les taux de change réel montrent son efficacité. Enfin, la thèse développe des modèles multi-variés Self-Exciting Threshold Autoregressive avec des variables exogènes (MSETARX) et présente une méthode d’estimation paramétrique. La modélisation des modèles MSETARX et des problèmes engendrés par son estimation sont brièvement examinés. / This thesis centers on introducing modern non-linear approaches for data analysis in economics and finance with special attention on business cycles and financial crisis. It is now well stated in the statistical and economic literature that major economic variables display non-linear behaviour over the different phases of the business cycle. As such, nonlinear approaches/models are required to capture the features of the data generating mechanism of inherently asymmetric realizations, since linear models are incapable of generating such behavior.In this respect, the thesis provides an interdisciplinary and open-minded approach to analyzing economic and financial systems in a novel way. The thesis presents approaches that are robust to extreme values, non-stationarity, applicable to both short and long data length, transparent and adaptive to any financial/economic time series. The thesis provides step-by-step procedures in analyzing economic/financial indicators by incorporating concepts based on surrogate data method, wavelets, phase space embedding, ’delay vector variance’ (DVV) method and recurrence plots. The thesis also centers on transparent ways of identifying, dating turning points, evaluating impact of economic and financial crisis. In particular, the thesis also provides a procedure on how to anticipate future crisis and the possible impact of such crisis. The thesis shows that the incorporation of these techniques in learning the structure and interactions within and between economic and financial variables will be very useful in policy-making, since it facilitates the selection of appropriate processing methods, suggested by the data itself.In addition, a novel procedure to test for linearity and unit root in a nonlinear framework is proposed by introducing a new model – the MT-STAR model – which has similar properties of the ESTAR model but reduces the effects of the identification problem and can also account for asymmetry in the adjustment mechanism towards equilibrium. The asymptotic distributions of the proposed unit root test is non-standard and is derived.The power of the test is evaluated through a simulation study and some empirical illustrations on real exchange rates show its accuracy. Finally, the thesis defines a multivariate Self–Exciting Threshold Autoregressive with eXogenous input (MSETARX) models and present an estimation procedure for the parameters. The modeling procedure for the MSETARX models and problems of estimation are briefly considered.
3

Contributions à l'identification de modèles paramétriques non linéaires. Application à la modélisation de bassins versants ruraux. / Identification of parametric nonlinear models. Modelling of the rainfall/runoff relationship in rural catchments

Laurain, Vincent 19 October 2010 (has links)
La procédure d'identification consiste à rechercher un modèle mathématique adéquat pour un système dynamique donné à partir de données expérimentales. L'identification de systèmes naturels est cruciale pour une meilleure compréhension de notre environnement et cette thèse vise à apporter une solution au problème de modélisation de la relation pluie/débit dans un bassin versant rural. A cet effet, deux structures de modèles non-linéaires sont étudiées : les modèles Hammerstein et les modèles Linéaires à Paramètres variants (LPV). La contribution principale réside dans le développement de méthodes dédiées à l'estimation de ces modèles, à temps discret ou continu, opérant en boucle ouverte ou fermée, en se concentrant sur le cas réaliste Box--Jenkins (BJ). De plus, les méthodes proposées ont été conçues spécialement pour fournir des résultats utiles dans le cas réel où le modèle de bruit est inconnu ou mal évalué. Le premier chapitre constitue une introduction à la problématique de l'identification de systèmes naturels et motive les développements théoriques impliqués. Le deuxième chapitre présente une méthode sous optimale de variable instrumentale pour l'estimation des modèles Hammerstein BJ grâce à l'augmentation du modèle considéré. Le troisième chapitre se concentre sur l'identification de modèles LPV-BJ, soulève les problèmes rencontrés par les méthodes existantes, et propose une solution via une reformulation du modèle. Enfin, le dernier chapitre est dédié à l'application de ces méthodes sur des données réelles pour la modélisation de la relation pluie/débit / System identification is an established field in the aera of system analysis and control. It aims at determining mathematical models for dynamical systems based measured data. The identification of natural systems is crucial for a better understanding of our environment and this work aims at solving the modelling problem of the rainfall/flow relationship in rural catchments. In order to achieve this goal, two nonlinear model structures are studied: the Hammerstein and the Linear Parameter Varying (LPV) models. The contribution of this work lies in the development of identification methods dealing robustly with estimation problem of such models, both in discrete-time and continuous-time, in open-loop and closed-loop configuration, focusing on the realistic Box--Jenkins (BJ) case. Moreover, the methods are especially designed to result in relevant estimates in case the noise model is unknown, which is the case in most practical applications. The first chapter is an introduction defining the problems encountered with natural systems and motivating the theoretical work induced. The second chapter presents a suboptimal Refined Instrumental Variable based method for Hammerstein BJ models. The third chapter focuses on the identification of LPV-BJ models, highlights the problems encountered by the existing methods and proposes a solution via a reformulation of the model. Finally, the last chapter is dedicated to the application of the presented methods on some real rainfall/flow data set acquired from a rural catchment situated in Rouffach, Alsace, France for the identification of the rainfall/runoff relationship
4

Contributions à l'identification de modèles paramétriques non linéaires. Application à la modélisation de bassins versants ruraux.

Laurain, Vincent 19 October 2010 (has links) (PDF)
La procédure d'identification consiste à rechercher un modèle mathématique adéquat pour un système dynamique donné à partir de données expérimentales. Alors que l'identification de système est orientée majoritairement pour répondre aux problèmes de commande depuis les années 90, l'identification de systèmes naturels reste cruciale pour une meilleure compréhension de notre environnement. Cette thèse vise à apporter une solution au problème de modélisation de la relation pluie/débit dans un bassin versant rural. Un bassin versant est défini comme la portion de territoire délimitée par des lignes de crête, dont les eaux alimentent un exutoire commun : cours d'eau, lac, mer, etc. L'identification de la relation pluie/débit est un problème stimulant, de par la complexité à trouver une structure de modèle définissant le comportement du bassin dans son ensemble. De plus, dans les bassins ruraux, il y a une grande variabilité spatio-temporelle des propriétés du sol tant au niveau de la végétation, du type de sol ou de l'évapotranspiration et seulement une partie de la pluie totale ruisselle et contribue au débit à l'exutoire. Dans ce cas, les modèles linéaires ne sont pas adaptés et ne peuvent délivrer de modèle acceptable pour la relation pluie/débit. A cet effet, deux structures de modèles non-linéaires sont étudiées : les modèles Hammerstein et les modèles Linéaires à Paramètres variants (LPV). La contribution principale de cette thèse réside dans le développement de méthodes dédiées à l'estimation de ces modèles, à temps discret ou continu, opérant en boucle ouverte ou fermée, en se concentrant sur le cas réaliste où le bruit de sortie est coloré et indépendant du processus étudié : le cas Box--Jenkins (BJ). De plus, les méthodes proposées ont été conçues spécialement pour fournir des résultats utiles dans le cas réel où le modèle de bruit est inconnu ou mal évalué. Finalement, ces méthodes sont utilisées sur des données réelles, acquises sur un bassin versant rural situé à Rouffach, Alsace, France et un processus d'identification innovant est proposé pour la modélisation de la relation pluie/débit.
5

Conception de réseaux de capteurs chimiques intelligents : une approche fondée sur les méthodes de séparation de sources

Duarte, Leonardo Tomazeli 17 November 2009 (has links) (PDF)
L'une des principales difficultés dans l'utilisation de capteurs chimiques concerne le manque de sélectivité inhérent à ces dispositifs. La stratégie classique pour faire face à ce problème est fondée sur le développement de nouvelles membranes qui conduisent à des capteurs plus sélectifs. Toutefois, plus récemment, on a démontré que ce problème peut également être traité par une autre approche, dans laquelle l'acquisition de données est effectuée par un réseau de capteurs qui ne sont pas forcément sélectifs. Ainsi, dans une deuxième étape, les informations pertinentes sont récupérées à l'aide des outils de traitement de signal. L'un des bénéfices le plus remarquable dans cette démarche concerne la flexibilité du système de mesure : le même réseau de capteurs peut être utilisé pour réaliser différents types d'analyse. Dans cette thèse, nous étudions l'utilisation de réseaux de capteurs dans le problème de l'analyse chimique quantitative. Cependant, contrairement à la grande majorité des travaux dans cette ligne, notre approche envisage des solutions non-supervisées, n'ayant pas besoin d'une étape d'étalonnage. Cette situation peut être formulée comme un problème de séparation aveugle de sources. Puisque les capteurs chimiques considérés dans cette recherche présentent des réponses non-linéaires, le processus de mélange sous-jacent au réseau de capteurs est non-linéaire, ce qui rend le problème difficile. Les principales contributions de cette recherche sont liées justement au développement de méthodes de séparation des mélanges non-linéaires sur mesure pour les réseaux d'électrodes sélectives potentiométriques. Nous considérons des solutions fondées sur l'analyse en composantes indépendantes, mais également sur d'autres stratégies qui nous permettent de prendre en compte des connaissances a priori typiques dans l'application ciblée dans cette recherche, comme la positivité des activités chimiques.
6

Utilisation des notions de dépendance faible en statistique

Wintenberger, Olivier 11 June 2007 (has links) (PDF)
La dépendance faible est un outil très performant pour obtenir des résultats asymptotiques en statistique des séries chronologiques. Son atout majeur est de résumer les propriétés de dépendance de très nombreux modèles via le comportement d'une suite de coefficients. Dans un problème où le modèle n'est pas clairement identifiable, des hypothèses sur les coefficients de dépendance faible sont parfois moins contraignantes que le choix d'un modèle. De plus, pour certains modèles causaux, la dépendance faible permet d'étudier les propriétés de dépendance là où toutes les autres notions (de mélange par exemple) échouent. Les coefficients permettent d'élargir aux séries chronomogiques des résultats asymptotiques classiques du cas de référence, celui d'observations indépendantes.
7

Nonlinear unmixing of Hyperspectral images / Démélange non-linéaire d'images hyperspectrales

Altmann, Yoann 07 October 2013 (has links)
Le démélange spectral est un des sujets majeurs de l’analyse d’images hyperspectrales. Ce problème consiste à identifier les composants macroscopiques présents dans une image hyperspectrale et à quantifier les proportions (ou abondances) de ces matériaux dans tous les pixels de l’image. La plupart des algorithmes de démélange suppose un modèle de mélange linéaire qui est souvent considéré comme une approximation au premier ordre du mélange réel. Cependant, le modèle linéaire peut ne pas être adapté pour certaines images associées par exemple à des scènes engendrant des trajets multiples (forêts, zones urbaines) et des modèles non-linéaires plus complexes doivent alors être utilisés pour analyser de telles images. Le but de cette thèse est d’étudier de nouveaux modèles de mélange non-linéaires et de proposer des algorithmes associés pour l’analyse d’images hyperspectrales. Dans un premier temps, un modèle paramétrique post-non-linéaire est étudié et des algorithmes d’estimation basés sur ce modèle sont proposés. Les connaissances a priori disponibles sur les signatures spectrales des composants purs, sur les abondances et les paramètres de la non-linéarité sont exploitées à l’aide d’une approche bayesienne. Le second modèle étudié dans cette thèse est basé sur l’approximation de la variété non-linéaire contenant les données observées à l’aide de processus gaussiens. L’algorithme de démélange associé permet d’estimer la relation non-linéaire entre les abondances des matériaux et les pixels observés sans introduire explicitement les signatures spectrales des composants dans le modèle de mélange. Ces signatures spectrales sont estimées dans un second temps par prédiction à base de processus gaussiens. La prise en compte d’effets non-linéaires dans les images hyperspectrales nécessite souvent des stratégies de démélange plus complexes que celles basées sur un modèle linéaire. Comme le modèle linéaire est souvent suffisant pour approcher la plupart des mélanges réels, il est intéressant de pouvoir détecter les pixels ou les régions de l’image où ce modèle linéaire est approprié. On pourra alors, après cette détection, appliquer les algorithmes de démélange non-linéaires aux pixels nécessitant réellement l’utilisation de modèles de mélange non-linéaires. La dernière partie de ce manuscrit se concentre sur l’étude de détecteurs de non-linéarités basés sur des modèles linéaires et non-linéaires pour l’analyse d’images hyperspectrales. Les méthodes de démélange non-linéaires proposées permettent d’améliorer la caractérisation des images hyperspectrales par rapport au méthodes basées sur un modèle linéaire. Cette amélioration se traduit en particulier par une meilleure erreur de reconstruction des données. De plus, ces méthodes permettent de meilleures estimations des signatures spectrales et des abondances quand les pixels résultent de mélanges non-linéaires. Les résultats de simulations effectuées sur des données synthétiques et réelles montrent l’intérêt d’utiliser des méthodes de détection de non-linéarités pour l’analyse d’images hyperspectrales. En particulier, ces détecteurs peuvent permettre d’identifier des composants très peu représentés et de localiser des régions où les effets non-linéaires sont non-négligeables (ombres, reliefs,...). Enfin, la considération de corrélations spatiales dans les images hyperspectrales peut améliorer les performances des algorithmes de démélange non-linéaires et des détecteurs de non-linéarités. / Spectral unmixing is one the major issues arising when analyzing hyperspectral images. It consists of identifying the macroscopic materials present in a hyperspectral image and quantifying the proportions of these materials in the image pixels. Most unmixing techniques rely on a linear mixing model which is often considered as a first approximation of the actual mixtures. However, the linear model can be inaccurate for some specific images (for instance images of scenes involving multiple reflections) and more complex nonlinear models must then be considered to analyze such images. The aim of this thesis is to study new nonlinear mixing models and to propose associated algorithms to analyze hyperspectral images. First, a ost-nonlinear model is investigated and efficient unmixing algorithms based on this model are proposed. The prior knowledge about the components present in the observed image, their proportions and the nonlinearity parameters is considered using Bayesian inference. The second model considered in this work is based on the approximation of the nonlinear manifold which contains the observed pixels using Gaussian processes. The proposed algorithm estimates the relation between the observations and the unknown material proportions without explicit dependency on the material spectral signatures, which are estimated subsequentially. Considering nonlinear effects in hyperspectral images usually requires more complex unmixing strategies than those assuming linear mixtures. Since the linear mixing model is often sufficient to approximate accurately most actual mixtures, it is interesting to detect pixels or regions where the linear model is accurate. This nonlinearity detection can be applied as a pre-processing step and nonlinear unmixing strategies can then be applied only to pixels requiring the use of nonlinear models. The last part of this thesis focuses on new nonlinearity detectors based on linear and nonlinear models to identify pixels or regions where nonlinear effects occur in hyperspectral images. The proposed nonlinear unmixing algorithms improve the characterization of hyperspectral images compared to methods based on a linear model. These methods allow the reconstruction errors to be reduced. Moreover, these methods provide better spectral signature and abundance estimates when the observed pixels result from nonlinear mixtures. The simulation results conducted on synthetic and real images illustrate the advantage of using nonlinearity detectors for hyperspectral image analysis. In particular, the proposed detectors can identify components which are present in few pixels (and hardly distinguishable) and locate areas where significant nonlinear effects occur (shadow, relief, ...). Moreover, it is shown that considering spatial correlation in hyperspectral images can improve the performance of nonlinear unmixing and nonlinearity detection algorithms.
8

Fouille de données tensorielles environnementales / Environmental Multiway Data Mining

Cohen, Jérémy E. 05 September 2016 (has links)
Parmi les techniques usuelles de fouille de données, peu sont celles capables de tirer avantage de la complémentarité des dimensions pour des données sous forme de tableaux à plusieurs dimensions. A l'inverse les techniques de décomposition tensorielle recherchent spécifiquement les processus sous-jacents aux données, qui permettent d'expliquer les données dans toutes les dimensions. Les travaux rapportés dans ce manuscrit traitent de l'amélioration de l'interprétation des résultats de la décomposition tensorielle canonique polyadique par l'ajout de connaissances externes au modèle de décomposition, qui est par définition un modèle aveugle n'utilisant pas la connaissance du problème physique sous-jacent aux données. Les deux premiers chapitres de ce manuscrit présentent respectivement les aspects mathématiques et appliqués des méthodes de décomposition tensorielle. Dans le troisième chapitre, les multiples facettes des décompositions sous contraintes sont explorées à travers un formalisme unifié. Les thématiques abordées comprennent les algorithmes de décomposition, la compression de tenseurs et la décomposition tensorielle basée sur les dictionnaires. Le quatrième et dernier chapitre présente le problème de la modélisation d'une variabilité intra-sujet et inter-sujet au sein d'un modèle de décomposition contraint. L'état de l'art en la matière est tout d'abord présenté comme un cas particulier d'un modèle flexible de couplage de décomposition développé par la suite. Le chapitre se termine par une discussion sur la réduction de dimension et quelques problèmes ouverts dans le contexte de modélisation de variabilité sujet. / Among commonly used data mining techniques, few are those which are able to take advantage of the multiway structure of data in the form of a multiway array. In contrast, tensor decomposition techniques specifically look intricate processes underlying the data, where each of these processes can be used to describe all ways of the data array. The work reported in the following pages aims at incorporating various external knowledge into the tensor canonical polyadic decomposition, which is usually understood as a blind model. The first two chapters of this manuscript introduce tensor decomposition techniques making use respectively of a mathematical and application framework. In the third chapter, the many faces of constrained decompositions are explored, including a unifying framework for constrained decomposition, some decomposition algorithms, compression and dictionary-based tensor decomposition. The fourth chapter discusses the inclusion of subject variability modeling when multiple arrays of data are available stemming from one or multiple subjects sharing similarities. State of the art techniques are studied and expressed as particular cases of a more general flexible coupling model later introduced. The chapter ends on a discussion on dimensionality reduction when subject variability is involved, as well a some open problems.
9

Apport de la pharmacocinétique de population dans l'étude des interactions pharmacocinétiques impliquant le pazopanib / Benefit of population pharmacokinetic in the study of pharmacokinetic interactions involving pazopanib

Imbs, Diane-Charlotte 23 October 2015 (has links)
Le pazopanib est un inhibiteur de tyrosine kinase (ITK) multicible indiqué dans le traitement de cancers du rein métastatiques et de sarcomes des tissus mous métastatiques. Comme les autres ITK, il présente une forte variabilité pharmacocinétique (PK) interindividuelle et ses relations pharmacocinétiques-pharmacodynamiques (PK/PD) en font un candidat de choix pour un suivi thérapeutique pharmacologique, permettant de proposer une dose optimale adaptée à chaque patient. La pratique clinique s'oriente vers une utilisation des ITK en association avec d'autres médicaments anti-cancéreux afin de potentialiser l'activité anti-tumorale. Ainsi, les études de phase I en association prévoient des explorations PK permettant d'évaluer l'existence d'éventuelles interactions PK entre les médicament(s) associé(s). Les données PK issues de deux études de phase I impliquant le pazopanib en association soit avec le bevacizumab, soit avec le cisplatine, ont été analysées. L'analyse PK par méthodologie de PK de population a confirmé la forte variabilité PK interindividuelle du pazopanib et a permis d'identifier les différentes sources de variabilités : inter-, intraindividuelle et variabilité due à une interaction médicamenteuse. Le pazopanib est très fortement lié aux protéines plasmatiques (>99%). L'étude de ses concentrations libres permet d'avoir accès aux concentrations pharmacologiquement actives. Ainsi, une méthode de dialyse à l'équilibre couplée à un dosage par UPLC/MS-MS a été mise au point afin de déterminer la fraction libre plasmatique du pazopanib in vitro et ex vivo. Les relations PK/PD entre concentrations libres et survenue de toxicités par rapport aux concentrations totales ont été étudiées / Pazopanib is a multitarget tyrosine kinase inhibitor (TKI) approved for the treatment of advanced renal cell carcinoma and metastatic soft tissue sarcoma. Like most TKI, pazopanib exhibits a large inter-individual pharmacokinetic (PK) variability, with a 1:8 plasmatic exposure variation factor between individuals. Pharmacokinetic/Pharmacodynamic (PK/PD) relationships suggest that therapeutic drug monitoring would be useful for individualized dosing of this drug. In current clinical practice, TKI are often combined with other anticancer drugs in order to optimise anti-tumour activity. However, therapeutic combinations can potentially lead to drug interactions. Therefore, PK investigations are needed in order to evaluate any PK interaction between each compound. PK data from two different phase I studies evaluating pazopanib in combination either with a cytotoxic, cisplatin, or with another targeted therapy, bevacizumab, were analysed. PK analysis of both studies using a population PK approach, confirmed the high inter-individual PK variability of pazopanib and allowed us to quantify different sources of variability: inter-, intra- patient variability and variability due to drug-drug interactions. Pazopanib is very highly bound to plasma proteins (>99%). Unbound drug concentrations in plasma are thought to be a more reliable indicator of the therapeutic target. Therefore equilibrium dialysis method coupled with UPLC/MS-MS assay has been optimized for the determination of plasma unbound fraction of pazopanib in vitro and ex vivo. PK/PD relationships between unbound plasma concentrations and toxicity in comparison with total plasma concentrations were studied for pazopanib.
10

Modelling nonlinearities in long-memory time series : simulation and empirical studies / Modélisation des non linéarités dans des séries à mémoire longue : simulation et études empiriques

Belkhouja, Mustapha 29 June 2010 (has links)
Cette thèse porte sur l'identification et l'estimation des ruptures structurelles pouvant affecter des données économiques et financières à mémoire longue. Notre étude s'est limitée dans les trois premiers chapitres au cadre univarié où nous avons modélisé la dépendance de long terme et les changements structurels simultanément et séparément au niveau de la moyenne ainsi que la volatilité. Dans un premier temps nous n'avons tenu compte que des sauts instantanés d'état ensuite nous nous sommes intéressés à la possibilité d'avoir des changements graduels et lisses au cours du temps grâce à des modèles nonlinéaires plus complexes. Par ailleurs, des expériences de simulation ont été menées dans le but d'offrir une analyse comparative des méthodes utilisées et d'attester de la robustesse des tests sous certaines conditions telle que la présence de la mémoire longue dans la série. Ce travail s'est achevé sur une extension aux modèles multivariés.Ces modèles permettent de rendre compte des mécanismes de propagation d'une variation d'une série sur l'autre et d'identifier les liens entre les variables ainsi que la nature des ces liens. Les interactions entre les différentes variables financières ont été analysées tant à court terme qu'à long terme. Bien que le concept du changement structurel n'a pas été abordé dans ce dernier chapitre, nous avons pris en compte l'effet d'asymétrie et de mémoire longue dans la modélisation de la volatilité. / This dissertation deals with the detection and the estimation of structural changes in long memory economic and financial time series. Within the rest three chapters we focused on the univariate case to model both the long range dependence and structural changes in the mean and the volatility of the examined series. In the beginning we just take into account abrupt regime switches but after we use more developed nonlinear models in order to capture the smooth time variations of the dynamics. Otherwise we analyse the efficiency of various techniques permitting to select the number of breaks and we assess the robustness of the used tests in a long memory environment via simulations. Last, this thesis was completed by an extension to multivariate models. These models allow us to detect the impact of some series on the others and identify the relationships among them. The interdependencies between the financial variables were studied and analysed both in the short and the long range. While structural changes were not considered in the last chapter, our multivariate model takes into account asymmetry effects and the long memory behaviour in the volatility.

Page generated in 0.0869 seconds