• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • Tagged with
  • 26
  • 26
  • 26
  • 25
  • 12
  • 11
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modelling of Capital Requirements using LSTM and A-SA in CRR 3 / Modellering av kapitalkrav med hjälp av LSTM och A-SA i regelverket CRR 3

Gan, William January 2022 (has links)
In response to the Great Financial Crisis of 2008, a handful of measures were taken to increase the resilience toward a similar disaster in the future. Global financial regulatory entities implemented several new directives with the intention to enhance global capital markets, leading to regulatory frameworks where financial participants (FPs) are regulated with own fund's requirements for market risks. This thesis intends to investigate two different methods presented in the framework Capital Requirements Regulation 3 (CRR 3), a framework stemming from the Basel Committee and implemented in EU legislation for determining the capital requirements for an FP. The first method, The Alternative Standardised Approach (A-SA), looks at categorical data, whereas the second method, The Alternative Internal Model Approach (A-IMA), uses the risk measure Expected Shortfall (ES) for determining the capital requirement and therefore requires the FP to estimate ES using a proprietary/internal model based on time series data. The proprietary model in this thesis uses a recurrent neural network (RNN) with several long short-term memory (LSTM) layers to predict the next day's ES using the previous 20 day's returns. The data consisted of categorical and time series data of a portfolio with the Nasdaq 100 companies as positions. This thesis concluds that A-IMA with an LSTM-network as the proprietary model, gives a lower capital requirement compared to A-SA but is less reliable in real-life applications due to its behaviour as a "black box" and is, thus, less compliant from a regulatory standpoint. The LSTM-model showed promising results for capturing the overall trend in the data, for example periods with high volatility, but underestimated the true ES. / Efter finanskrisen 2008 vidtogs flera effektiva åtgärder av världens största finansiella myndigheter som ett svar på det tidigare icke transparenta klimatet inom finanssektorn med intentionen att förstärka de globala kapitalmarknaderna. Detta innebar att nya samt strängare regelverk etablerades med direktiv så som hårdare kapitalkrav. Detta examensarbete är en empirisk undersökning samt jämförelse mellan två metoder i regelverket "Captail Requirements Regulation 3" (CRR 3) som kan användas för att beräkna en finansiell institutions kapitalkrav. Den första metoden, så kallad "Den alternativa schablonmetoden" (A-SA), använder kategorisk data för att beräkna kapitalkravet medan den andra metoden, "Den alternativa internmodellen" (A-IMA), kräver en att först beräkna riskmåttet "Expected Shortfall" (ES), med hjälp av en internmodell baserad på tidsseriedata, för att sedan kapitalkravet ska kunna beräknas. CRR 3 innehåller tydliga riktlinjer om hur en sådan internmodell ska utformas och i detta projekt testas en modell baserad på "återkommande neurala nätverk" (RNN) med den specifika arkitekturen "Long Short-Term Memory" (LSTM) för att estimera ES. De slutsatserna som kan dras är att A-IMA med en LSTM-modell, ger ett mindre kapitalkrav än A-SA. Däremot är A-IMA mindre tillförlitliga inom riskappliceringar på grund av risken att neurala nätverk kan bete sig som svarta lådor, vilket gör modellen mindre kompatibel från ett regelverksperspektiv. LSTM-modellen visade sig kunna upptäcka den generella trenden i portföljdatan (exempelvis perioder med hög volaitet) men gav konservativa prediktioner i jämförelse med testdatan.
12

Sustainability scores for portfolio performance / Hållbarhetsbetyg för portföljintegration

Stern, Felix January 2020 (has links)
In this thesis, the traditional methods of only using ESG scores to screen stocks for sustainable portfolios is broadened. The selection of securities for portfolios will instead depend on aggregation, weighting and normalization of a wider set of sustainability variables, in turn creating more all-encompassing sustainability scores. Using these scores, the aim is to implement them in index tracking portfolios. These portfolios combines a hybrid approach between active and passive investment, with the aim of creating sustainable enhanced index funds that can beat the index without adding significant risk. Additionally, this allows for comparison of how different combinations and levels of sustainability affects returns, risk and index tracking. The results that are obtained shows that in the scenario presented in the thesis, it is possible to create a sustainability score which both increases the average sustainability of portfolios, and yields risk adjusted returns. We also studied how a net increase in sustainability scores over a control portfolio results in higher active returns, and eventually a small drop off in information ratio as we apply too strong of a sustainability constraint to our portfolios. The combination of sustainability scores which showed the highest risk adjusted returns was created using equal parts z-scored ESG ratings, ESG risk ratings and ESG momentum. / Detta examensarbete breddar de traditionella metoderna för att skapa hållbara portföljer. Genom att basera urvalet av aktier på aggregering, viktande och normalisering av ett större set av hållbarhetsvariabler, jämfört med traditionell screening baserad på endast ESG betyg, skapas mer omfattande hållbarhetsbetyg. Syftet med studien är att implementera dessa hållbarhetsbetyg vid skapandet av index-portföljer och analysera resultaten. Dessa portföljer kombinerar då både aktiva och passiva investeringsprinciper, med målet att skapa hållbara indexnära fonder som kan prestera bättre än indexet, utan signifikant höjd risk. Dessa hållbarhetsbetyg tillåter även jämförelse av hur olika kombinationer och nivåer av hållbarhet påverkar avkastning, risk och närhet till index. Resultaten visar tydligt att det, inom uppsatsens avgränsningar, är möjligt att skapa hållbarhetsbetyg som ökar både hållbarheten av portföljer i snitt, och skapar riskjusterad avkastning. Det visar även hur en relativ höjning av hållbarhetsbetygen resulterar i högra aktiv avkastning jämfört med en kontroll-portfölj. Vid en viss nivå av höjning sker dock en avtappning av den riskjusterade avkastningen. Den kombinationen av hållbarhetsvariabler som visar högst riskjusterad avkastning när de aggregeras till ett hållbarhetsbetyg är en kombination, i lika delar, av ESG betyg, ESG risk och ESG momentum.
13

Evaluating volatility forecasts, A study in the performance of volatility forecasting methods / Utvärdering av volatilitetsprognoser, En undersökning av kvaliteten av metoder för volatilitetsprognostisering

Verhage, Billy January 2023 (has links)
In this thesis, the foundations of evaluating the performance of volatility forecasting methods are explored, and a mathematical framework is created to determine the overall forecasting performance based on observed daily returns across multiple financial instruments. Multiple volatility responses are investigated, and theoretical corrections are derived under the assumption that the log returns follow a normal distribution. Performance measures that are independent of the long-term volatility profile are explored and tested. Well-established volatility forecasting methods, such as moving average and GARCH (p,q) models, are implemented and validated on multiple volatility responses. The obtained results reveal no significant difference in the performances between the moving average and GARCH (1,1) volatility forecast. However, the observed non-zero bias and a separate analysis of the distribution of the log returns reveal that the theoretically derived corrections are insufficient in correcting the not-normally distributed log returns. Furthermore, it is observed that there is a high dependency of abslute performances on the considered evaluation period, suggesting that comparisons between periods should not be made. This study is limited by the fact that the bootstrapped confidence regions are ill-suited for determining significant performance differences between forecasting methods. In future work, statistical significance can be gained by bootstrapping the difference in performance measures. Furthermore, a more in-depth analysis is needed to determine more appropriate theoretical corrections for the volatility responses based on the observed distribution of the log returns. This will increase the overall forecasting performance and improve the overall quality of the evaluation framework. / I detta arbete utforskas grunderna för utvärdering av prestandan av volatilitetsprognoser och ett matematiskt ramverk skapas för att bestämma den övergripande prestandan baserat på observerade dagliga avkastningar för flera finansiella instrument. Ett antal volatilitetsskattningar undersökts och teoretiska korrigeringar härleds under antagandet att log-avkastningen följer en normalfördelningen. Prestationsmått som är oberoende av den långsiktiga volatilitetsprofilen utforskas och testas. Väletablerare metoder för volatilitetsprognostisering, såsom glidande medelvärden och GARCH-modeller, implementeras och utvärderas mot flera volatilitetsskattningar. De erhållna resultaten visar att det inte finns någon signifikant skillnad i prestation mellan prognoser producerade av det glidande medelvärdet och GARCH (1,1). Det observerade icke-noll bias och en separat analys av fördelningen av log-avkastningen visar dock att de teoretiskt härledda korrigeringarna är otillräckliga för att fullständigt korrigera volatilitesskattningarna under icke-normalfördelade log-avkastningar. Dessutom observeras att det finns ett stort beroende på den använda utvärderingsperioden, vilket tyder på att jämförelser mellan perioder inte bör göras. Denna studie är begränsad av det faktum att de använda bootstrappade konfidensregionerna inte är lämpade för att fastställa signifikanta skillnader i prestanda mellan prognosmetoder. I framtida arbeten behövs fortsatt analys för att bestämma mer lämpliga teoretiska korrigeringar för volatilitetsskattningarna baserat på den observerade fördelningen av log-avkastningen. Detta kommer att öka den övergripande prestandan och förbättra den övergripande kvaliteten på prognoserna.
14

Carbon Intensity Estimation of Publicly Traded Companies / Uppskattning av koldioxidintensitet hos börsnoterade bolag

Ribberheim, Olle January 2021 (has links)
The purpose of this master thesis is to develop a model to estimate the carbon intensity, i.e the carbon emission relative to economic activity, of publicly traded companies which do not report their carbon emissions. By using statistical and machine learning models, the core of this thesis is to develop and compare different methods and models with regard to accuracy, robustness, and explanatory value when estimating carbon intensity. Both discrete variables, such as the region and sector the company is operating in, and continuous variables, such as revenue and capital expenditures, are used in the estimation. Six methods were compared, two statistically derived and four machine learning methods. The thesis consists of three parts: data preparation, model implementation, and model comparison. The comparison indicates that boosted decision tree is both the most accurate and robust model. Lastly, the strengths and weaknesses of the methodology is discussed, as well as the suitability and legitimacy of the boosted decision tree when estimating carbon intensity. / Syftet med denna masteruppsats är att utveckla en modell som uppskattar koldioxidsintensiteten, det vill säga koldioxidutsläppen i förhållande till ekonomisk aktivitet, hos publika bolag som inte rapporterar sina koldioxidutsläpp. Med hjälp av statistiska och maskininlärningsmodeller kommer stommen i uppsatsen vara att utveckla och jämföra olika metoder och modeller utifrån träffsäkerhet, robusthet och förklaringsvärde vid uppskattning av koldioxidintensitet. Både diskreta och kontinuerliga variabler används vid uppskattningen, till exempel region och sektor som företaget är verksam i, samt omsättning och kapitalinvesteringar. Sex stycken metoder jämfördes, två statistiskt härledda och fyra maskininlärningsmetoder. Arbetet består av tre delar; förberedelse av data, modellutveckling och modelljämförelse, där jämförelsen indikerar att boosted decision tree är den modell som är både mest träffsäker och robust. Slutligen diskuteras styrkor och svagheter med metodiken, samt lämpligheten och tillförlitligheten med att använda ett boosted decision tree för att uppskatta koldioxidintensitet.
15

Time Dependencies Between Equity Options Implied Volatility Surfaces and Stock Loans, A Forecast Analysis with Recurrent Neural Networks and Multivariate Time Series / Tidsberoenden mellan aktieoptioners implicerade volatilitetsytor och aktielån, en prognosanalys med rekursiva neurala nätverk och multidmensionella tidsserier

Wahlberg, Simon January 2022 (has links)
Synthetic short positions constructed by equity options and stock loan short sells are linked by arbitrage. This thesis analyses the link by considering the implied volatility surface (IVS) at 80%, 100%, and 120% moneyness, and stock loan variables such as benchmark rate (rt), utilization, short interest, and transaction trends to inspect time-dependent structures between the two assets. By applying multiple multivariate time-series analyses in terms of vector autoregression (VAR) and the recurrent neural networks long short-term memory (LSTM) and gated recurrent units (GRU) with a sliding window methodology. This thesis discovers linear and complex relationships between the IVS and stock loan data. The three-day-ahead out-of-sample LSTM forecast of IV at 80% moneyness improved by including lagged values of rt and yielded 19.6% MAPE and forecasted correct direction 81.1% of samples. The corresponding 100% moneyness GRU forecast was also improved by including stock loan data, at 10.8% MAPE and correct directions for 60.0% of samples. The 120% moneyness VAR forecast did not improve with stock loan data at 26.5% MAPE and correct directions for 66.2% samples. The one-month-ahead rt VAR forecast improved by including a lagged IVS, at 25.5% MAPE and 63.6% correct directions. The presented data was optimal for each target variable, showing that the application of LSTM and GRU was justified. These results indicate that considering stock loan data when forecasting IVS for 80% and 100% moneyness is advised to gain exploitable insights for short-term positions. They are further validated since the different models yielded parallel inferences. Similar analysis with other equity is advised to gain insights into the relationship and improve such forecasts. / Syntetiska kortpositioner konstruerade av aktieoptioner och blankning med aktielån är kopplade med arbitrage. Denna tes analyserar kopplingen genom att överväga den implicerade volatilitetsytan vid 80%, 100% och 120% moneyness och aktielånvariabler såsom referensränta rt, låneutnyttjande, låneintresse, och transaktionstrender för att granska tidsberoende strukturer mellan de två tillgångarna. Genom att tillämpa multipel multidimensionell tidsserieanalys såsom vektorautoregression (VAR) och de rekursiva neurala nätverken long short-term memory (LSTM) och gated recurrent units (GRU). Tesen upptäcker linjära och komplexa samband mellan implicerade volatilitetsytor och aktielånedata. Tre dagars LSTM-prognos av implicerade volatiliteten vid 80% moneyness förbättrades genom att inkludera fördröjda värden av rt och gav 19,6% MAPE och prognostiserade korrekt riktning för 81,1% av prover. Motsvarande 100% moneyness GRU-prognos förbättrades också genom att inkludera aktielånedata, resulterande i 10,8% MAPE och korrekt riktning för 60,0% av prover. VAR-prognosen för 120% moneyness förbättrades inte med alternativa data på 26,5% MAPE och korrekt riktning för 66,2% av prover. En månads VAR-prognos för rt förbättrades genom att inkludera en fördröjd implicerad volatilitetsyta, resulterande i 25,5% MAPE och 63,6% korrekta riktningar. Presenterad statistik var optimala för dessa variabler, vilket visar att tillämpningen av LSTM och GRU var motiverad. Därav rekommenderas det att inkludera aktielånedata för prognostisering av implicerade volatilitetsytor för 80% och 100% moneyness, speciellt för kortsiktiga positioner. Resultaten valideras ytterligare eftersom de olika modellerna gav dylika slutsatser. Liknande analys med andra aktier är rekommenderat för att få insikter i förhållandet och förbättra sådana prognoser.
16

Value at Risk Estimation with Neural Networks: A Recurrent Mixture Density Approach / Value at Risk Estimering med Neurala Nätverk: En Recurrent Mixture Density Approach

Karlsson Lille, William, Saphir, Daniel January 2021 (has links)
In response to financial crises and opaque practices, governmental entities and financial regulatory bodies have implemented several pieces of legislature and directives meant to protect investors and increase transparency. Such regulations often impose strict liquidity requirements and robust estimations of the risk borne by a financial firm at any given time. Value at Risk (VaR) measures how much an investment can stand to lose with a certain probability over a specified period of time and is ubiquitous in its use by institutional investors and banks alike. In practice, VaR estimations are often computed from simulations of historical data or parameterized distributions.  Inspired by the recent success of Arimond et al. (2020) in using a neural network for VaR estimation, we apply a combination of recurrent neural networks and a mixture density output layer for generating mixture density distributions of future portfolio returns from which VaR estimations are made. As in Arimond et al., we suppose the existence of two regimes stylized as bull and bear markets and employ Monte Carlo simulation to generate predictions of future returns. Rather than use a swappable architecture for the parameters in the mixture density distribution, we here let all parameters be generated endogenously in the neural network. The model's success is then validated through Christoffersen tests and by comparing it to the benchmark VaR estimation models, i.e., the mean-variance approach and historical simulation.  We conclude that recurrent mixture density networks show limited promise for the task of predicting effective VaR estimates if used as is, due to the model consistently overestimating the true portfolio loss. However, for practical use, encouraging results were achieved when manually shifting the predictions based on an average of the overestimation observed in the validation set. Several theories are presented as to why overestimation occurs, while no definitive conclusion could be drawn. As neural networks serve as black box models, their use for conforming to regulatory requirements is thus deemed questionable, likewise the assumption that financial data carries an inherent pattern with potential to be accurately approximated. Still, reactivity in the VaR estimations by the neural network is significantly more pronounced than in the benchmark models, motivating continued experimentation with machine learning methods for risk management purposes. Future research is encouraged to identify the source of overestimation and explore different machine learning techniques to attain more accurate VaR predictions. / I respons till finanskriser och svårfattlig verksamhetsutövning har överstatliga organ och finansmyndigheter implementerat lagstiftning och utfärdat direktiv i syfte att skydda investerare och öka transparens. Sådana regleringar förelägger ofta strikta likviditetskrav och krav på redogörelse av den finansiella risk som en marknadsaktör har vid en given tidpunkt. Value at Risk (VaR) mäter hur mycket en investering kan förlora med en viss sannolikhet över en på förhand bestämd tidsperiod och är allestädes närvarande i dess användning av institutionella investerare såväl som banker. I praktiken beräknas estimeringar av VaR framför allt via simulering av historisk data eller en parametrisering av densamma. Inspirerade av Arimond et als (2020) framgång i användning av neurala nätverk för VaR estimering applicerar vi en kombination av "recurrent" neurala nätverk och ett "mixture density output"-lager i syfte att generera mixture density-fördelningar för framtida portföljavkastning. Likt Arimond et al. förutsätter vi existensen av två regimer stiliserade som "bull" och "bear" marknader och applicerar Monte Carlo simulering för att generera prediktioner av framtida avkastning. Snarare än att använda en utbytbar arkitektur för parametrarna i mixture density-fördelningen låter vi samtliga parametrar genereras endogent i det neurala nätverket. Modellens framgång valideras via Christoffersens tester samt jämförelse med de prevalenta metoderna för att estimera VaR, det vill säga mean-variance-metoden och historisk simulering. Vår slutsats är att recurrent mixture density-nätverk enskilt uppvisar begränsad tillämpbarhet för uppgiften av att uppskatta effektiva VaR estimeringar, eftersom modellen konsekvent överestimerar den sanna portföljförlusten. För praktisk användning visade modellen däremot uppmuntrande resultat när dess prediktioner manuellt växlades ner baserat på ett genomsnitt av överestimeringen observerad i valideringsdatat. Flera teorier presenteras kring varför överestimeringen sker men ingen definitiv slutsats kunde dras. Eftersom neurala nätverksmodeller agerar som svarta lådor är deras potential till att bemöta regulatoriska krav tveksam, likväl antagandet att finansiell data har ett inneboende mönster kapabelt till att approximeras. Med detta sagt uppvisar neurala nätverkets VaR estimeringar betydligt mer reaktivitet än i de prevalenta modellerna, varför fortsatt experimentation med maskininlärningsmetoder för riskhantering ändå kan vara motiverat. Framtida forskning uppmuntras för att identifera källan till överestimeringen, samt utforskningen av andra maskininlärningsmetoder för att erhålla mer precisa VaR prediktioner.
17

Bankruptcy Distributions and Modelling for Swedish Companies Using Logistic Regression / Konkursfördelning och Modellering för Svenska Företag Genom Användning av Logistisk Regression

Ewertzh, Jacob January 2019 (has links)
This thesis discusses the concept of bankruptcy, or default, for Swedish companies. The actual distribution over time is considered both on aggregate level and within different industries. Several models are constructed to best possible describe the default frequency. Mainly logistic regression models are designed for this purpose, but various other models are considered. Some of these are constructed for comparison and for the ambition to produce the most accurate model possible. A large data set of nearly 30 million quarterly observations is used in the analysis. Taking into account micro and macro economic data. The derived models cover different time periods, considering different variables and display varying levels of accuracy. The most exact model is a logistic regression model considering both micro and macro data. It is tested both in sample and out of sample and perform very well in both areas. This model is estimated on first a subset of the data set to be able to compare with a real scenario. Then an equivalent model is constructed from the whole data set to best possibly describe future scenarios. Here Vector Auto-Regressive (VAR) models, and empirical models constructed by OLS regression estimating the firm values, are used in combination with the logistic regression model to predict the future. All three models are used to describe the most likely scenarios, as well as the worst case scenarios. From the worst case scenarios risk measures, such as the empirical value at risk, can be derived. From all this analysis the most significant results are compiled. Namely, that the Logistic regression model performs remarkably well both in-sample and out-of-sample, if macro variables are taken into account. Further, the future results are harder to interpret. Yet, the analysis has arguments for prediction accuracy and interesting results of a continued low default frequency within the next year. / Den här uppsatsen avhandlar konceptet konkurs, för svenska företag. Den faktiska konkursfördelningen över tid analyseras, både på en sammanlagd nivå och inom olika industrier. Flera modeller konstrueras i syfte att bäst beskriva konkursfördelningen. Huvudsakligen är logistiska regressions modeller utformade för detta syfte, men andra typer av modeller är inkluderade i analysen. Några av dessa modeller är skapade för jämförelse, men också för att kunna producera en så exakt modell som möjligt. Ett stort data set med nästan 30 miljoner kvartalsvisa observationer används i analysen. Mikro- och makroekonomiska faktorer är inkluderade i detta data set. De framtagna modellerna omfattar olika tidsperioder mellan 1990–2018, tar in olika faktorer i analysen och visar på olika nivåer av noggrannhet. Modellen som har högst förklaringsgrad är en logistisk regressionsmodell som tar hänsyn till både mikro- och makroekonomiska faktorer. Denna modell analyseras både i och utanför sitt samplingsintervall, och visar på goda resultat i båda områdena. Modellen är först skattad på en delmängd av tidsperioden, för att kunna jämföra den förutspådda fördelningen med en faktisk fördelning. Sedan är en ekvivalent modell skattad på hela intervallet, för att bäst möjligt förutspå framtida scenarion. För detta syfte är Logistiska regressionsmodellen kombinerad med Vektor Autoregressiva (VAR)-modeller som förutspår makroekonomiska faktorer, och empiriska regressionsmodeller som förutspår mikroekonomiska faktorer. Alla tre modelltyper används för att kunna beskriva det mest sannolika scenariot, samt de värsta tänkbara scenariona. Från de värsta tänkbara scenariona kan riskmått, så som empiriska Value at Risk, tas fram. All analys producerar resultat och de viktigaste sammanställs. Dessa är att den logistiska regression modell som tar hänsyn till makroekonomiska faktorer ger bra resultat både i och utanför samplingsintervallet. Vidare är de framtida simulerade resultaten svårare att tolka, men den genomförda analysen har argument för exakthet i förutsägelserna. Därmed presenteras ett troligt framtida scenario med fortsatt låg konkurs frekvens inom det närmaste året.
18

A Study Evaluating the Liquidity Risk for Non-Maturity Deposits at a Swedish Niche Bank / En studie som utvärderar likviditetsrisken för icke tidsbestämda inlåningsvolymer hos en svensk nischbank

Hilmersson, Markus January 2020 (has links)
Since the 2008 financial crisis, the interest for the subject area of modelling non-maturity deposits has been growing quickly. The area has been widely analysed from the perspective of a traditional bank where customers foremost have transactional and salary deposits. However, in recent year the Swedish banking sector has become more digitized. This has opened up opportunities for more niche banking actors to establish themselves on the market. Therefore, this study aims to examine how the theories developed and previously used in modelling liquidity volumes at traditional banks can be used at a niche bank focused on savings and investments. In this study the topics covered are short-rate modelling using Vasicek's model, liquidity volume modelling using SARIMA and SARIMAX modelling as well as liquidity risk modelling using an approach developed by Kalkbrener and Willing. When modelling the liquidity volumes the data set was divided depending on account and customer type into six groups, for four out of these the models had lower in and out of set prediction errors using SARIMA models for only two of the six models were there improvements made to the in and out of set prediction error using SARIMAX models. Finally, the resulting minimization of liquidity volume forecasting 5 years in the future gave reasonable and satisfactory results. / Sedan finanskrisen 2008 har intresset kring ämnesområdet gällande modellering av inlåningsvolymer utan en kontrakterad förfallodag ökat snabbt. Området har analyserats i stor utsträckning från perspektivet av en traditionell bank där kunder har framförallt transaktions- och lönekonton. De senaste åren har den Svenska banksektorn blivit mer digitaliserad. Detta har öppnat upp möjligheter för nischbanker att etablera sig på marknaden. Därför ämnar denna studie att undersöka hur teorier som har utvecklats och tidigare använts på traditionella banker för att modellera likviditetsvolymer kan användas på en nischbank som är fokuserad på sparande och investeringar. I denna studie modelleras korträntor med Vasicek's modell, likviditetsvolymer med SARIMA och SARIMAX modeller och likviditetsrisk med en modell utvecklad av Kalkbrener och Willing. För modelleringen av likviditetsvolymer delades likviditetsdatan upp i sex grupper baserat på konto- och kund typ. För fyra av dessa data set gav SARIMA-modeller lägre prediktionsfel och endast för två av de sex grupperna gav SARIMAX-modeller bättre resultat. Slutligen så gav den resulterande minimeringen av nödvändiga likviditetsvolymer på en 5 årig horisont rimliga och tillfredsställande resultat.
19

Modeling the Relation Between Implied and Realized Volatility / Modellering av relationen mellan implicit och realiserad volatilitet

Brodd, Tobias January 2020 (has links)
Options are an important part in today's financial market. It's therefore of high importance to be able to understand when options are overvalued and undervalued to get a lead on the market. To determine this, the relation between the volatility of the underlying asset, called realized volatility, and the market's expected volatility, called implied volatility, can be analyzed. In this thesis five models were investigated for modeling the relation between implied and realized volatility. The five models consisted of one Ornstein–Uhlenbeck model, two autoregressive models and two artificial neural networks. To analyze the performance of the models, different accuracy measures were calculated for out-of-sample forecasts. Signals from the models were also calculated and used in a simulated options trading environment to get a better understanding of how well they perform in trading applications. The results suggest that artificial neural networks are able to model the relation more accurately compared to more traditional time series models. It was also shown that a trading strategy based on forecasting the relation was able to generate significant profits. Furthermore, it was shown that profits could be increased by combining a forecasting model with a signal classification model. / Optioner är en viktig del i dagens finansiella marknad. Det är därför viktigt att kunna förstå när optioner är över- och undervärderade för att vara i framkant av marknaden. För att bestämma detta kan relationen mellan den underliggande tillgångens volatilitet, kallad realiserad volatilitet, och marknadens förväntade volatilitet, kallad implicit volatilitet, analyseras. I den här avhandlingen undersöktes fem modeller för att modellera relationen mellan implicit och realiserad volatilitet. De fem modellerna var en Ornstein–Uhlenbeck modell, två autoregressiva modeller samt två artificiella neurala nätverk. För att analysera modellernas prestanda undersöktes olika nogrannhetsmått för prognoser från modellerna. Signaler från modellerna beräknades även och användes i en simulerad optionshandelsmiljö för att få en bättre förståelse för hur väl de presterar i en handelstillämpning. Resultaten tyder på att artificiella neurala nätverk kan modellera relationen bättre än mer traditionella tidsseriemodellerna. Det visades även att en handelsstrategi baserad på prognoser av relationen kunde generera en signifikant vinst. Det visades dessutom att vinster kunde ökas genom att kombinera en prognosmodell med en modell som klassificerar signaler.
20

Debt Portfolio Optimization at the Swedish National Debt Office: : A Monte Carlo Simulation Model / Skuldportföljsoptimering på Riksgälden: : En Monte Carlo-simuleringsmodell

Greberg, Felix January 2020 (has links)
It can be difficult for a sovereign debt manager to see the implications on expected costs and risk of a specific debt management strategy, a simulation model can therefore be a valuable tool. This study investigates how future economic data such as yield curves, foreign exchange rates and CPI can be simulated and how a portfolio optimization model can be used for a sovereign debt office that mainly uses financial derivatives to alter its strategy. The programming language R is used to develop a bespoke software for the Swedish National Debt Office, however, the method that is used can be useful for any debt manager. The model performs well when calculating risk implications of different strategies but debt managers that use this software to find optimal strategies must understand the model's limitations in calculating expected costs. The part of the code that simulates economic data is developed as a separate module and can thus be used for other studies, key parts of the code are available in the appendix of this paper. Foreign currency exposure is the factor that had the largest effect on both expected cost and risk, moreover, the model does not find any cost advantage of issuing inflation-protected debt. The opinions expressed in this thesis are the sole responsibility of the author and should not be interpreted as reflecting the views of the Swedish National Debt Office. / Det kan vara svårt för en statsskuldsförvaltare att se påverkan på förväntade kostnader och risk när en skuldförvaltningsstrategi väljs, en simuleringsmodell kan därför vara ett värdefullt verktyg. Den här studien undersöker hur framtida ekonomiska data som räntekurvor, växelkurser ock KPI kan simuleras och hur en portföljoptimeringsmodell kan användas av ett skuldkontor som främst använder finansiella derivat för att ändra sin strategi. Programmeringsspråket R används för att utveckla en specifik mjukvara åt Riksgälden, men metoden som används kan vara användbar för andra skuldförvaltare. Modellen fungerar väl när den beräknar risk i olika portföljer men skuldförvaltare som använder modellen för att hitta optimala strategier måste förstå modellens begränsningar i att beräkna förväntade kostnader. Delen av koden som simulerar ekonomiska data utvecklas som en separat modul och kan därför användas för andra studier, de viktigaste delarna av koden finns som en bilaga till den här rapporten. Valutaexponering är den faktor som hade störst påverkan på både förväntade kostnader och risk och modellen hittar ingen kostnadsfördel med att ge ut inflationsskyddade lån. Åsikterna som uttrycks i den här uppsatsen är författarens egna ansvar och ska inte tolkas som att de reflekterar Riksgäldens syn.

Page generated in 0.0722 seconds