Spelling suggestions: "subject:"multikriterieanalys"" "subject:"tidsserie""
31 |
Modelling Risk in Real-Life Multi-Asset Portfolios / Riskmodellering av verkliga portföljer med varierande tillgångsklasserHahn, Karin, Backlund, Axel January 2023 (has links)
We develop a risk factor model based on data from a large number of portfolios spanning multiple asset classes. The risk factors are selected based on economic theory through an analysis of the asset holdings, as well as statistical tests. As many assets have limited historical data available, we implement and analyse the impact of regularisation to handle sparsity. Based on the factor model, two parametric methods for calculating Value-at-Risk (VaR) for a portfolio are developed: one with constant volatility and one with a CCC-GARCH volatility updating scheme. These methods are evaluated through backtesting on daily and weekly returns of a selected set of portfolios whose contents reflect the larger majority well. A historical data approach for calculating VaR serves as a benchmark model. We find that under daily returns, the historical data method outperforms the factor models in terms of VaR violation rates. None yield independent violations however. Under weekly returns, both factor models produce more accurate violation rates than the historical data model, with the CCC-GARCH model also yielding independent VaR violations for almost all portfolios due to its ability to adjust up VaR estimates in periods of increased market volatility. We conclude that if weekly VaR estimates are acceptable, tailored risk factor models provide accurate measures of portfolio risk. / Vi bygger en riskfaktormodell givet en stor mängd portföljer innehållande flera olika typer av tillgångar. Riskfaktorerna väljs ut baserat på ekonomisk teori genom en analys av portföljernas innehåll samt genom statistiska test. Eftersom många tillgångar har en liten mängd historisk data tillgänglig implementerar vi och analyserar effekterna av regularisering i faktorregressionen. Två parametriska metoder för att beräkna Value-at-Risk (VaR) utvecklas baserat på faktormodellen: en med konstant volatilitet och en med volatilitetsuppdatering genom CCC-GARCH. Metoderna utvärderas med bakåttestning på daglig och veckovis avkastning från utvalda portföljer vars innehåll reflekterar den större majoriteten. En historisk data-baserad metod för att beräkna VaR används som referensmodell. Under daglig avkastning överträffar historisk data-modellen faktormodellerna med avseende på frekvensen av VaR-överträdelser. Ingen modell resulterar dock i oberoende överträdelser. Under veckovis avkastning å andra sidan ger båda faktormodellerna mer exakta överträdelsefrekvenser än historisk data-modellen, där faktormodellen med CCC-GARCH också ger oberoende överträdelser för nästan alla portföljer, tack vare modellens förmåga att justera upp VaR-estimaten i perioder av högre volatilitet på marknaden. Sammanfattningsvis ger skräddarsydda riskfaktormodeller goda riskestimat, givet att det är acceptabelt med veckovisa beräkningar av VaR.
|
32 |
Straight to the Heart : Classification of Multi-Channel ECG-signals using MiniROCKET / Direkt till hjärtat: Klassifiering av fler-kanals EKG med MiniROCKETChristiansson, Stefan January 2023 (has links)
Machine Learning (ML) has revolutionized various domains, with biomedicine standing out as a major beneficiary. In the realm of biomedicine, Convolutional Neural Networks (CNNs) have notably played a pivotal role since their inception, particularly in applications such as time-series classification. Deep Convolutional Neural Networks (DCNNs) have shown promise in classifying electrocardiogram (ECG) signals. However, their deep architecture leads not only to risk for over-fitting when insufficient data is at hand, but also to large computational costs. This study leverages the efficient architecture of Mini-ROCKET, a variant of CNN, to explore improvements in ECG signal classification at Getinge. The primary objective is to enhance the efficiency of the Electrical Activity of the Diaphragm (Edi) catheter position classification compared to the existing Residual Network (ResNet) approach. In the Intensive Care Unit (ICU), patients are often connected to mechanical ventilators operating based on Edi catheter-detected signals. However, weak or absent EMG signals can occur, necessitating ECG interpretation, which lacks the precision required for optimal Edi catheter placement. Clinicians have long recognized the challenges of manual Edi catheter positioning. Currently, positioning relies on manual interpretation of electromyography (EMG) and ECG signals from a 9-lead electrode array. Given the risk for electrode displacement due to patient movements, continuous monitoring by skilled clinicians is essential. This thesis demonstrates the potential of Mini-ROCKET in addressing these challenges. By training the model on Getinge’s proprietary ECG patient dataset, the study aims to measure improvements in computational cost, accuracy, and user value as compared to previous work with Edicathere positioning at Getinge. The findings of this research hold significant implications for the future of ECG signal classification and the broader application of Mini-ROCKET in medical signal processing. / Maskininlärning har revolutionerat många områden, varav biomedicin som visat enorm utveckling. Inom biomedicin har konvolutionella neurala nätverk (CNNs) gjort stor positiv påverkan, särskilt inom tillämpningar som tidsserieklassificering. Djupa konvolutionella neurala nätverk (DCNNs) har visat lovande resultat inom elektrokardiogram (EKG) klassificering. Deras djupa arkitektur leder dock inte bara till risk för överanpassning med bägränsad data till handa, utan även till betydliga beräkningskostnader. Denna studie utnyttjar den effektiva arkitekturen av Mini-ROCKET, en variant av CNN, för att utforska förbättringar i EKG-signal klassificering på Getinge. Huvudmålet är att förbättra effektiviteten av Edi kateterpositionsklassificering jämfört med den befintliga Residual Network (ResNet) metoden. På intensivvårdsavdelningen (IVA) kopplas patienter ofta till mekaniska ventilatorer som fungerar baserat på Edi-kateter-detekterade signaler. Dock kan svaga eller frånvarande EMG-signaler förekomma, vilket kräver EKG-tolkning, som saknar den precision som krävs för optimal Edikateterplacering. Det är väl känt att det finns svårigheter för kliniker att positionera en matningssond utrustad med elektroder för att mäta Edi. För närvarande bygger positionering på manuell tolkning av elektromyografi (EMG) och EKG-signaler från en uppsättning av 9 elektroder. Med tanke på risken för elektrodförskjutning på grund av patientrörelser är kontinuerlig övervakning av erfarna användare nödvändigt. Denna avhandling visar potentialen av Mini-ROCKET för att ta itu med dessa utmaningar. Genom att träna modellen på Getinges proprietära EKGpatientdataset syftar studien till att mäta förbättringar i beräkningskostnad, noggrannhet och användarnytta jämfört med tidigare arbete inom Edi-kateter positionering på Getinge. Forskningens resultat har betydande implikationer för EKG-signal klassificeringens framtid och den bredare tillämpningen av Mini-ROCKET inom medicinsk signalbehandling.
|
33 |
Inferring 3D trajectory from monocular data using deep learning / Inferens av 3D bana utifrån 2D data med djupa arkitekturerSellstedt, Victor January 2021 (has links)
Trajectory estimation, with regards to reconstructing a 3D trajectory from a 2D trajectory, is commonly achieved using stereo or multi camera setups. Although projections from 3D to 2D suffer significant information loss, some methods approach this problem from a monocular perspective to address limitations of multi camera systems, such as requiring points in to be observed by more than one camera. This report explores how deep learning methodology can be applied to estimation of golf balls’ 3D trajectories using features from synthetically generated monocular data. Three neural network architectures for times series analysis, Long Short-Term Memory (LSTM), Bidirectional LSTM(BLSTM), and Temporal Convolutional Network (TCN); are compared to a simpler Multi Layer Perceptron (MLP) baseline and theoretical stereo error. The results show the models’ performances are varied with median performances often significantly better than average, caused by some predictions with very large errors. Overall the BLSTM performed best of all models both quantitatively and qualitatively, for some ranges with a lower error than a stereo estimate with an estimated disparity error of 1. Although the performance of the proposed monocular approaches do not outperform a stereo system with a lower disparity error, the proposed approaches could be good alternatives where stereo solutions might not be possible. / Lösningar för inferens av 3D banor utifrån 2D sekvenser använder sig ofta av två eller fler kameror som datakällor. Trots att mycket information förloras i projektionen till kamerabilden använder sig vissa lösningar sig av endast en kamera. En sådan monokulär lösning kan vara mer fördelaktiga än multikamera lösningar i vissa fall, såsom när ett objekt endast är synligt av ena kamera. Denna rapport undersöker hur metoder baserade på djupa arkitekturer kan användas för att uppskatta golfbollars 3D banor med variabler som skapas utifrån syntetiskt genererad monokulär data. Tre olika arkitekturer för tidsserieanalys Long Short-Term Memory (LSTM), Bidirectional LSTM (BLSTM) och Temporal Convolutional Neural Network (TCN) jämförs mot en enklare Multi Layer Perceptron (MLP) och teoretiska stereo-fel. Resultaten visar att modellerna har en varierad prestation med median resultaten ofta mycket bättre än medelvärdena, på grund av några förutsägelser med stora fel. Överlag var den bästa modellen BLSTM:en både kvantitativt och kvalitativt samt bättre än stereo lösningen med högre fel för vissa intervall. Resultaten visar dock på att modellerna är tydligt sämre en stereo systemet med lägre fel. Trots detta kan de föreslagna metoderna utgöra bra alternativ för lösningar där stereo system inte kan användas.
|
34 |
Using the discrete wavelet transform in stock index forecasting / Användning av den diskreta wavelet-transformen för att prognostisera aktieindexpriserHenriksson, Albin January 2023 (has links)
This thesis aims to investigate the use of the discrete wavelet transform of a stock index as a means to forecast intraday returns. This will be done by having the discrete wavelet transform as an input in a Transformers neural network with binary labels signifying a positive or negative next-day return. The input will be limited to a time horizon of 30 days since the entire history is likely not necessary, meaning we do not care about the discrete wavelet transform 5 years ago when we are trying to predict the next day's return. The network will be evaluated in terms of accuracy and a "trading strategy" on the OMXS30 index, where we compare the performance of the network with that of the original index. Overall, the performance of the discrete wavelet transform and the Transformers network was okay. The performance was slightly better than simply going long on the index, but not by much, and when factoring in transaction costs it is probably not a worthwhile strategy to use this setup. / Detta examensarbete syftar till att undersöka användningen av den diskreta wavelet-transformen av ett aktieindex som ett sätt att prognostisera nästa dags avkastning. Detta kommer att göras genom att ha den diskreta wavelet-transformen som en input i ett Transformersnätverk med målet att utföra binär klassificiering. Inputen kommer att vara begränsad till en tidshorisont på 30 dagar eftersom hela historien sannolikt inte är nödvändigt, vilket betyder att vi inte bryr oss om den diskreta wavelet-transformen för 5 år sedan när vi försöker prognostisera nästa dags avkastning. Nätverket kommer att utvärderas med hjälp av accuracy och en tradingstrategi som kommer utvärderas på OMXS30-indecet, där vi jämför tradingstrategins prestation med det ursprungliga indexet. Slutsatsen man kan dra av det här examensarbetet är att den diskreta wavelet-transformen och Transformers-nätverkets prestanda var acceptabel. Trading strategin var något bättre än att bara gå lång på indexet, men inte mycket, och när man räknar in transaktionskostnader är det förmodligen inte en lönsam strategi.
|
35 |
PREDICTING NET GAME REVENUE USING STATISTICAL MODELING : A seasonal ARIMA model including exogenous variablesEngman, Amanda, Venell, Alva January 2024 (has links)
Spelbolag AB has a long history in the Swedish market. Their products are all based on randomness, with a predetermined probability of winning. Some of Spelbolag AB's products are stable in sales throughout the year, while others fluctuate with holidays. Spelbolag AB offers products whose sales are largely influenced by the prize value; higher prize amounts attract more gamblers, while lower prize amounts attract fewer gamblers. Spelbolag AB also has products that are purchased more or less based on the value of the prize, i.e. a higher prize pot increases the number of gamblers and vice versa. Through campaigns, the company wishes to enhance the interest in their products. To estimate the total revenue from the products, a statistical tool has been used. The predictions are made for different key performance indexes (KPIs) which are used as the foundation for some strategic decisions. A wish to improve the statistical tool used by the company has risen due to poor performance. This thesis aimed to create an updated statistical tool. This tool was based on a time series analysis of the weekly net game revenue (NGR). The goal of the time series analysis was to find a statistical model with high forecast accuracy. To find the optimal model for forecast accuracy, a grid search algorithm was used. The performance measure mean squared prediction error (MSPE) was used as a decision base in the grid search along with the mean absolute percentage error (MAPE). Akaike information criterion (AIC) was also estimated as a goodness-of-fit measure. The thesis work resulted in two different SARIMAX models that were analyzed and tested, both including the same exogenous variables. The recommended SARIMAX(1, 0, 2)(1, 1, 1)52 model obtained an MAPE of 4.49%. / Spelbolag AB har en lång historia på den svenska marknaden. Deras produkter är alla slumpmässiga i dess utfall, med en förbestämd chans att vinna. Vissa av Spelbolag ABs produkter har stabil försäljning, medan andra flukturerar med högtider. Spelbolag AB har även produkter vars försäljning påverkas av vinstsumman; fler personer spelar när vinstsumman är hägre och tvärtom. Genom kampanjer önskar företaget öka intresset för sina produkter, och på så vis öka försäljningen. För att prediktera och kunna förutse de totala intäkterna från produkternas försäljning har ett statistisk verktyg använts. Dessa prediktioner har gjorts för olika KPIer, vilka används för att fatta strategiska beslut. Detta verktyg har på den senaste tiden resulterat i dåliga prediktioner, varpå en önskan om att förnya verktyget har uppkommit. Syftet med denna uppsats har därmed varit att uppdatera det statistiska verktyget. Verktyget har baserats på en tidsserieanalys av veckovist netto spelinkomst (NSI). Målet med tidsserieanalysen var att hitta en statistisk modell med hög träffsäkerhet i prediktionerna. För att hitta en optimal modell för just prediktionsnoggrannhet användes algoritmen rutnätssökning. Beslutsunderlaget i denna rutnätssökning var medelkvadratisk predikteringsfel (MSPE) samt medelabsolut procentuellt fel (MAPE). Dessutom estimerades akaike informationskriteriet (AIC) som ett mått på modellanpassning. Uppsatsen resulterade i två olika SARIMAX modeller som båda analyserades och testades, och dessa modeller inkluderade samma exogena variabler. Den rekommenderade SARIMAX(1, 0, 2)(1, 1, 1)52 modellen erhöll ett MAPE av 4.49%.
|
36 |
Long Term Forecasting of Industrial Electricity Consumption Data With GRU, LSTM and Multiple Linear RegressionBuzatoiu, Roxana January 2020 (has links)
Accurate long-term energy consumption forecasting of industrial entities is of interest to distribution companies as it can potentially help reduce their churn and offer support in decision making when hedging. This thesis work presents different methods to forecast the energy consumption for industrial entities over a long time prediction horizon of 1 year. Notably, it includes experimentations with two variants of the Recurrent Neural Networks, namely Gated Recurrent Unit (GRU) and Long-Short-Term-Memory (LSTM). Their performance is compared against traditional approaches namely Multiple Linear Regression (MLR) and Seasonal Autoregressive Integrated Moving Average (SARIMA). Further on, the investigation focuses on tailoring the Recurrent Neural Network model to improve the performance. The experiments focus on the impact of different model architectures. Secondly, it focuses on testing the effect of time-related feature selection as an additional input to the Recurrent Neural Network (RNN) networks. Specifically, it explored how traditional methods such as Exploratory Data Analysis, Autocorrelation, and Partial Autocorrelation Functions Plots can contribute to the performance of RNN model. The current work shows through an empirical study on three industrial datasets that GRU architecture is a powerful method for the long-term forecasting task which outperforms LSTM on certain scenarios. In comparison to the MLR model, the RNN achieved a reduction in the RMSE between 5% up to to 10%. The most important findings include: (i) GRU architecture outperforms LSTM on industrial energy consumption datasets when compared against a lower number of hidden units. Also, GRU outperforms LSTM on certain datasets, regardless of the choice units number; (ii) RNN variants yield a better accuracy than statistical or regression models; (iii) using ACF and PACF as dicovery tools in the feature selection process is unconclusive and unefficient when aiming for a general model; (iv) using deterministic features (such as day of the year, day of the month) has limited effects on improving the deep learning model’s performance. / Noggranna långsiktiga energiprognosprognoser för industriella enheter är av intresse för distributionsföretag eftersom det potentiellt kan bidra till att minska deras churn och erbjuda stöd i beslutsfattandet vid säkring. Detta avhandlingsarbete presenterar olika metoder för att prognostisera energiförbrukningen för industriella enheter under en lång tids förutsägelsehorisont på 1 år. I synnerhet inkluderar det experiment med två varianter av de återkommande neurala nätverken, nämligen GRU och LSTM. Deras prestanda jämförs med traditionella metoder, nämligen MLR och SARIMA. Vidare fokuserar undersökningen på att skräddarsy modellen för återkommande neurala nätverk för att förbättra prestanda. Experimenten fokuserar på effekterna av olika modellarkitekturer. För det andra fokuserar den på att testa effekten av tidsrelaterat funktionsval som en extra ingång till RNN -nätverk. Specifikt undersökte den hur traditionella metoder som Exploratory Data Analysis, Autocorrelation och Partial Autocorrelation Funtions Plots kan bidra till prestanda för RNN -modellen. Det aktuella arbetet visar genom en empirisk studie av tre industriella datamängder att GRU -arkitektur är en kraftfull metod för den långsiktiga prognosuppgiften som överträffar ac LSTM på vissa scenarier. Jämfört med MLR -modellen uppnådde RNN en minskning av RMSE mellan 5 % upp till 10 %. De viktigaste resultaten inkluderar: (i) GRU -arkitekturen överträffar LSTM på datauppsättningar för industriell energiförbrukning jämfört med ett lägre antal dolda enheter. GRU överträffar också LSTM på vissa datauppsättningar, oavsett antalet valenheter; (ii) RNN -varianter ger bättre noggrannhet än statistiska modeller eller regressionsmodeller; (iii) att använda ACF och PACF som verktyg för upptäckt i funktionsvalsprocessen är otydligt och ineffektivt när man siktar på en allmän modell; (iv) att använda deterministiska funktioner (t.ex. årets dag, månadsdagen) har begränsade effekter på att förbättra djupinlärningsmodellens prestanda.
|
37 |
Essays on nonlinear time series analysis and health economicsOvanfors, Anna January 2006 (has links)
Diss. Stockholm : Handelshögskolan, 2006 S. 1-125 : 4 uppsatser
|
38 |
Regional Quantification of Climatic and Anthropogenic Impacts on Streamflows in Sweden / Regional kvantifiering av påverkan från klimat och mänsklig aktivitet på vattenflödenHedberg, Sofia January 2015 (has links)
The anthropogenic impact on earth’s systems has rapidly increased since the middle of the last century and today it is hard to find a stream that is not influenced by human activities. The understanding of causes to changes is an important knowledge for future water management and planning and of that reason climatic and anthropogenic impact on streamflow changes in Sweden were explored and quantified. In the first step trends and abrupt changes in annual streamflow were detected and verified with the non- parametric Mann-Kendall’s and Pettitt’s test, all performed as moving window tests. In the second step HBV, a climatic driven rainfall-runoff model, was used to attribute the causes of the detected changes. Detection and attribution of changes were performed on several catchments in order to investigate regional patterns. On one hand using smaller window sizes, period higher number of detected positive and negative trends were found. On the other hand bigger window sizes resulted in positive trends in more than half of the catchments and almost no negative trends. The detected changes were highly dependent on the investigated time frame, due to periodicity, e.g. natural variability in streamflow. In general the anthropogenic impact on streamflow changes was smaller than changes due to temperature and streamflow. In median anthropogenic impact could explain 7% of the total change. No regional differences were found which indicated that anthropogenic impact varies more between individual catchments than following a regional pattern. / Sedan mitten av förra århundradet har den antropogena påverkan på jordens system ökat kraftigt. Idag är det svårt att hitta ett vattendrag som inte är påverkat av mänsklig aktivitet. Att förstå orsakerna bakom förändringarna är en viktig kunskap för framtida vattenplanering och av denna anledning undersöktes och kvantiferades den antropogen och klimatpåverkan på flödesförändringar i svenska vattendrag. I arbetets första steg användes de Mann-Kendalls och Pettitts test för att lokalisera och verifiera förändringar i årligt vattenflöde. Alla test var icke parametriska och utfördes som ett glidande fönster. I nästa steg undersöktes orsakerna till förändringar med hjälp av HBV, en klimatdriven avrinningsmodell. Ett större antal avrinningsområden undersöktes för att upptäcka regionala mönster och skillnader. Perioder med omväxlande positiva och negativa trender upptäcktes med mindre fönsterstorlekar, medan större fönster hittade positiva trender i mer än hälften av områdena och knappt några negativa trender hittades. De detekterade förändringarna var på grund av periodicitet i årligt vattenflöde till stor grad beroende på det undersöka tidsintervallet. Generellt var den antropogena påverkan större påverkan från nederbörd och temperatur, med ett medianvärde där 7 % av den totala förändringen kunde förklaras med antropogen påverkan. Inga regionala skillnader i antropogen påverkan kunde identifieras vilket indikerar att den varierar mer mellan individuella områden än följer ett regionalt mönster.
|
39 |
High-variance multivariate time series forecasting using machine learningKatardjiev, Nikola January 2018 (has links)
There are several tools and models found in machine learning that can be used to forecast a certain time series; however, it is not always clear which model is appropriate for selection, as different models are suited for different types of data, and domain-specific transformations and considerations are usually required. This research aims to examine the issue by modeling four types of machine- and deep learning algorithms - support vector machine, random forest, feed-forward neural network, and a LSTM neural network - on a high-variance, multivariate time series to forecast trend changes one time step in the future, accounting for lag.The models were trained on clinical trial data of patients in an alcohol addiction treatment plan provided by a Uppsala-based company. The results showed moderate performance differences, with a concern that the models were performing a random walk or naive forecast. Further analysis was able to prove that at least one model, the feed-forward neural network, was not undergoing this and was able to make meaningful forecasts one time step into the future. In addition, the research also examined the effec tof optimization processes by comparing a grid search, a random search, and a Bayesian optimization process. In all cases, the grid search found the lowest minima, though its slow runtimes were consistently beaten by Bayesian optimization, which contained only slightly lower performances than the grid search. / Det finns flera verktyg och modeller inom maskininlärning som kan användas för att utföra tidsserieprognoser, men det är sällan tydligt vilken modell som är lämplig vid val, då olika modeller är anpassade för olika sorts data. Denna forskning har som mål att undersöka problemet genom att träna fyra modeller - support vector machine, random forest, ett neuralt nätverk, och ett LSTM-nätverk - på en flervariabelstidserie med hög varians för att förutse trendskillnader ett tidssteg framåt i tiden, kontrollerat för tidsfördröjning. Modellerna var tränade på klinisk prövningsdata från patienter som deltog i en alkoholberoendesbehandlingsplan av ett Uppsalabaserat företag. Resultatet visade vissa moderata prestandaskillnader, och en oro fanns att modellerna utförde en random walk-prognos. I analysen upptäcktes det dock att den ena neurala nätverksmodellen inte gjorde en sådan prognos, utan utförde istället meningsfulla prediktioner. Forskningen undersökte även effekten av optimiseringsprocesser genomatt jämföra en grid search, random search, och Bayesisk optimisering. I alla fall hittade grid search lägsta minimumpunkten, men dess långsamma körtider blev konsistent slagna av Bayesisk optimisering, som även presterade på nivå med grid search.
|
40 |
Statistisk undersökning av valutakurser : En jämförelse mellan olika prognosmodeller / Statistical Research of Exchange Rates : Comparison between Different Forecasting ModelsMozayyan, Sina January 2017 (has links)
Valutamarknaden är världens största marknad och en nödvändig del av dagens globala samhälle, som gör det möjligt för företag att göra affärer i olika valutor och mellan olika gränser. Marknaden utgör en stor handelsplattform för både små och stora aktörer, för vilka det är viktigt att prognostisera valutakurser med gott resultat. Att modellera finansiella instrument i form av tidsserier är en av de vanligaste investeringsstrategierna och dess användningsområde sträcker sig från valutamarknaden till bland annat aktiemarknaden och råvarumarknaden. I denna uppsats undersöks fyra olika statistiska metoder för att modellera valutakursen Euro-US Dollar givet historisk data, och prognoser görs med de framtagna modellerna. Dessa metoder är slumpvandring, ARIMA, ARIMA-GARCH och VAR. Vidare undersöks för den dynamiska VAR-modellen hur valutamarkanden påverkar, och blir påverkad av, långa och korta räntan. Resultaten visar att ARIMA(3,1,2) förklarar valutakursen bäst medan VAR(2) med valutakursen och skillnaden mellan långa räntor som ingående variabler ger de bästa prediktionerna. / The foreign exchange market is the world’s largest market and is an essential part of the global society of today. The FX market enables companies to trade with different currencies across country borders. It is also a large trade-platform for both big and small financial actors, who greatly benefit from the advantages of good predictions. Modeling of financial instruments is one of the most commonly used investment strategies and its area of application ranges from the FX market to markets suchas the stock market and the commodity market. In this paper, four different statistical models are used to model the currency pair Euro-US Dollar. These methods are random walk, ARIMA, ARIMA-GARCH and VAR. Besides investigating which method that gives the best forecasts, the method that best describes the training datais also found. Furthermore, for the dynamic VAR model, it is explored how the FX market affects, and is affected by, the long term and short term interest. The results show that ARIMA(3,1,2) is the best at describing the exchange rate while VAR(2) with the exchange rate and the difference between long term interests as variables gives the best predictions.
|
Page generated in 0.0825 seconds