• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 91
  • 55
  • 8
  • 3
  • 1
  • 1
  • 1
  • Tagged with
  • 168
  • 168
  • 52
  • 51
  • 50
  • 33
  • 31
  • 29
  • 28
  • 27
  • 27
  • 27
  • 27
  • 25
  • 24
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Time Dependencies Between Equity Options Implied Volatility Surfaces and Stock Loans, A Forecast Analysis with Recurrent Neural Networks and Multivariate Time Series / Tidsberoenden mellan aktieoptioners implicerade volatilitetsytor och aktielån, en prognosanalys med rekursiva neurala nätverk och multidmensionella tidsserier

Wahlberg, Simon January 2022 (has links)
Synthetic short positions constructed by equity options and stock loan short sells are linked by arbitrage. This thesis analyses the link by considering the implied volatility surface (IVS) at 80%, 100%, and 120% moneyness, and stock loan variables such as benchmark rate (rt), utilization, short interest, and transaction trends to inspect time-dependent structures between the two assets. By applying multiple multivariate time-series analyses in terms of vector autoregression (VAR) and the recurrent neural networks long short-term memory (LSTM) and gated recurrent units (GRU) with a sliding window methodology. This thesis discovers linear and complex relationships between the IVS and stock loan data. The three-day-ahead out-of-sample LSTM forecast of IV at 80% moneyness improved by including lagged values of rt and yielded 19.6% MAPE and forecasted correct direction 81.1% of samples. The corresponding 100% moneyness GRU forecast was also improved by including stock loan data, at 10.8% MAPE and correct directions for 60.0% of samples. The 120% moneyness VAR forecast did not improve with stock loan data at 26.5% MAPE and correct directions for 66.2% samples. The one-month-ahead rt VAR forecast improved by including a lagged IVS, at 25.5% MAPE and 63.6% correct directions. The presented data was optimal for each target variable, showing that the application of LSTM and GRU was justified. These results indicate that considering stock loan data when forecasting IVS for 80% and 100% moneyness is advised to gain exploitable insights for short-term positions. They are further validated since the different models yielded parallel inferences. Similar analysis with other equity is advised to gain insights into the relationship and improve such forecasts. / Syntetiska kortpositioner konstruerade av aktieoptioner och blankning med aktielån är kopplade med arbitrage. Denna tes analyserar kopplingen genom att överväga den implicerade volatilitetsytan vid 80%, 100% och 120% moneyness och aktielånvariabler såsom referensränta rt, låneutnyttjande, låneintresse, och transaktionstrender för att granska tidsberoende strukturer mellan de två tillgångarna. Genom att tillämpa multipel multidimensionell tidsserieanalys såsom vektorautoregression (VAR) och de rekursiva neurala nätverken long short-term memory (LSTM) och gated recurrent units (GRU). Tesen upptäcker linjära och komplexa samband mellan implicerade volatilitetsytor och aktielånedata. Tre dagars LSTM-prognos av implicerade volatiliteten vid 80% moneyness förbättrades genom att inkludera fördröjda värden av rt och gav 19,6% MAPE och prognostiserade korrekt riktning för 81,1% av prover. Motsvarande 100% moneyness GRU-prognos förbättrades också genom att inkludera aktielånedata, resulterande i 10,8% MAPE och korrekt riktning för 60,0% av prover. VAR-prognosen för 120% moneyness förbättrades inte med alternativa data på 26,5% MAPE och korrekt riktning för 66,2% av prover. En månads VAR-prognos för rt förbättrades genom att inkludera en fördröjd implicerad volatilitetsyta, resulterande i 25,5% MAPE och 63,6% korrekta riktningar. Presenterad statistik var optimala för dessa variabler, vilket visar att tillämpningen av LSTM och GRU var motiverad. Därav rekommenderas det att inkludera aktielånedata för prognostisering av implicerade volatilitetsytor för 80% och 100% moneyness, speciellt för kortsiktiga positioner. Resultaten valideras ytterligare eftersom de olika modellerna gav dylika slutsatser. Liknande analys med andra aktier är rekommenderat för att få insikter i förhållandet och förbättra sådana prognoser.
152

Value at Risk Estimation with Neural Networks: A Recurrent Mixture Density Approach / Value at Risk Estimering med Neurala Nätverk: En Recurrent Mixture Density Approach

Karlsson Lille, William, Saphir, Daniel January 2021 (has links)
In response to financial crises and opaque practices, governmental entities and financial regulatory bodies have implemented several pieces of legislature and directives meant to protect investors and increase transparency. Such regulations often impose strict liquidity requirements and robust estimations of the risk borne by a financial firm at any given time. Value at Risk (VaR) measures how much an investment can stand to lose with a certain probability over a specified period of time and is ubiquitous in its use by institutional investors and banks alike. In practice, VaR estimations are often computed from simulations of historical data or parameterized distributions.  Inspired by the recent success of Arimond et al. (2020) in using a neural network for VaR estimation, we apply a combination of recurrent neural networks and a mixture density output layer for generating mixture density distributions of future portfolio returns from which VaR estimations are made. As in Arimond et al., we suppose the existence of two regimes stylized as bull and bear markets and employ Monte Carlo simulation to generate predictions of future returns. Rather than use a swappable architecture for the parameters in the mixture density distribution, we here let all parameters be generated endogenously in the neural network. The model's success is then validated through Christoffersen tests and by comparing it to the benchmark VaR estimation models, i.e., the mean-variance approach and historical simulation.  We conclude that recurrent mixture density networks show limited promise for the task of predicting effective VaR estimates if used as is, due to the model consistently overestimating the true portfolio loss. However, for practical use, encouraging results were achieved when manually shifting the predictions based on an average of the overestimation observed in the validation set. Several theories are presented as to why overestimation occurs, while no definitive conclusion could be drawn. As neural networks serve as black box models, their use for conforming to regulatory requirements is thus deemed questionable, likewise the assumption that financial data carries an inherent pattern with potential to be accurately approximated. Still, reactivity in the VaR estimations by the neural network is significantly more pronounced than in the benchmark models, motivating continued experimentation with machine learning methods for risk management purposes. Future research is encouraged to identify the source of overestimation and explore different machine learning techniques to attain more accurate VaR predictions. / I respons till finanskriser och svårfattlig verksamhetsutövning har överstatliga organ och finansmyndigheter implementerat lagstiftning och utfärdat direktiv i syfte att skydda investerare och öka transparens. Sådana regleringar förelägger ofta strikta likviditetskrav och krav på redogörelse av den finansiella risk som en marknadsaktör har vid en given tidpunkt. Value at Risk (VaR) mäter hur mycket en investering kan förlora med en viss sannolikhet över en på förhand bestämd tidsperiod och är allestädes närvarande i dess användning av institutionella investerare såväl som banker. I praktiken beräknas estimeringar av VaR framför allt via simulering av historisk data eller en parametrisering av densamma. Inspirerade av Arimond et als (2020) framgång i användning av neurala nätverk för VaR estimering applicerar vi en kombination av "recurrent" neurala nätverk och ett "mixture density output"-lager i syfte att generera mixture density-fördelningar för framtida portföljavkastning. Likt Arimond et al. förutsätter vi existensen av två regimer stiliserade som "bull" och "bear" marknader och applicerar Monte Carlo simulering för att generera prediktioner av framtida avkastning. Snarare än att använda en utbytbar arkitektur för parametrarna i mixture density-fördelningen låter vi samtliga parametrar genereras endogent i det neurala nätverket. Modellens framgång valideras via Christoffersens tester samt jämförelse med de prevalenta metoderna för att estimera VaR, det vill säga mean-variance-metoden och historisk simulering. Vår slutsats är att recurrent mixture density-nätverk enskilt uppvisar begränsad tillämpbarhet för uppgiften av att uppskatta effektiva VaR estimeringar, eftersom modellen konsekvent överestimerar den sanna portföljförlusten. För praktisk användning visade modellen däremot uppmuntrande resultat när dess prediktioner manuellt växlades ner baserat på ett genomsnitt av överestimeringen observerad i valideringsdatat. Flera teorier presenteras kring varför överestimeringen sker men ingen definitiv slutsats kunde dras. Eftersom neurala nätverksmodeller agerar som svarta lådor är deras potential till att bemöta regulatoriska krav tveksam, likväl antagandet att finansiell data har ett inneboende mönster kapabelt till att approximeras. Med detta sagt uppvisar neurala nätverkets VaR estimeringar betydligt mer reaktivitet än i de prevalenta modellerna, varför fortsatt experimentation med maskininlärningsmetoder för riskhantering ändå kan vara motiverat. Framtida forskning uppmuntras för att identifera källan till överestimeringen, samt utforskningen av andra maskininlärningsmetoder för att erhålla mer precisa VaR prediktioner.
153

Optimal Portfolio Re-Balancing on Fixed Periods using a Cost/Risk Adaptation Model and Stochastic Optimization.

Ehn, Max, Jämte, Marcus January 2023 (has links)
In this thesis we investigate the problem of portfolio re-balancing for fixed periods using a cost/risk adaptation model and stochastic optimization. The cost/risk adaptation model takes theory of optimal liquidity costs and risk preference to build a universe in which we try to find better strategies than conventional ones. The results are focused on the comparison between the conventional execution strategies versus our developed model. We have found that our model outperforms the conventional methods for all assets that has been evaluated, and especially for investors whom value exposure to the markets higher.
154

Improving term structure measurements by incorporating steps in a multiple yield curve framework

Villwock, Gustav, Rydholm, Clara January 2022 (has links)
By issuing interest rate derivative contracts, market makers such as large banks are exposed to undesired risk. There are several methods for banks to hedge themselves against this type of risk; one such method is the stochastic programming model developed by Blomvall and Hagenbjörk (2022). The effectiveness of their model relies on accurate pricing of interest rate derivatives and risk factor analysis, both of which are derived from a term structure. Blomvall and Ndengo (2013) present a discretized multiple yield curve framework for term structure measurement that allows for price deviations. The model uses regularization to deal with noise inherent in market price observations, where the regularization counteracts oscillations in the term structure and retains the smoothness of the curve by penalizing the first and second-order derivatives. Consequently, the resulting model creates a trade-off between a smooth curve and market price deviations. Changes in policy rates adjusted by a country’s central bank significantly impact the financial market and its actors. In this thesis, the model developed by Blomvall and Ndengo (2013) was further extended to include these steps in conjunction with monetary policy meetings. Two models were developed to realize the steps in the risk-free curve. The first model introduced an additional deviation term to allow for a shift in the curve. In the second model, the weights in the regularization were adjusted to allow for rapid changes on days surrounding the closest monetary policy meeting. A statistical test was conducted to determine the performance of the two models. The test showed that the model with adjusted regularization outperformed the model with an additional deviation term as well as a benchmark model without steps. However, both step models managed to reduce in-sample pricing errors, while the model with an additional deviation term performed worse than the benchmark model for out-of-sample data, given the current parameter setting. Other parameter combinations would potentially result in different outcomes, but it remains conjectural.
155

Bankruptcy Distributions and Modelling for Swedish Companies Using Logistic Regression / Konkursfördelning och Modellering för Svenska Företag Genom Användning av Logistisk Regression

Ewertzh, Jacob January 2019 (has links)
This thesis discusses the concept of bankruptcy, or default, for Swedish companies. The actual distribution over time is considered both on aggregate level and within different industries. Several models are constructed to best possible describe the default frequency. Mainly logistic regression models are designed for this purpose, but various other models are considered. Some of these are constructed for comparison and for the ambition to produce the most accurate model possible. A large data set of nearly 30 million quarterly observations is used in the analysis. Taking into account micro and macro economic data. The derived models cover different time periods, considering different variables and display varying levels of accuracy. The most exact model is a logistic regression model considering both micro and macro data. It is tested both in sample and out of sample and perform very well in both areas. This model is estimated on first a subset of the data set to be able to compare with a real scenario. Then an equivalent model is constructed from the whole data set to best possibly describe future scenarios. Here Vector Auto-Regressive (VAR) models, and empirical models constructed by OLS regression estimating the firm values, are used in combination with the logistic regression model to predict the future. All three models are used to describe the most likely scenarios, as well as the worst case scenarios. From the worst case scenarios risk measures, such as the empirical value at risk, can be derived. From all this analysis the most significant results are compiled. Namely, that the Logistic regression model performs remarkably well both in-sample and out-of-sample, if macro variables are taken into account. Further, the future results are harder to interpret. Yet, the analysis has arguments for prediction accuracy and interesting results of a continued low default frequency within the next year. / Den här uppsatsen avhandlar konceptet konkurs, för svenska företag. Den faktiska konkursfördelningen över tid analyseras, både på en sammanlagd nivå och inom olika industrier. Flera modeller konstrueras i syfte att bäst beskriva konkursfördelningen. Huvudsakligen är logistiska regressions modeller utformade för detta syfte, men andra typer av modeller är inkluderade i analysen. Några av dessa modeller är skapade för jämförelse, men också för att kunna producera en så exakt modell som möjligt. Ett stort data set med nästan 30 miljoner kvartalsvisa observationer används i analysen. Mikro- och makroekonomiska faktorer är inkluderade i detta data set. De framtagna modellerna omfattar olika tidsperioder mellan 1990–2018, tar in olika faktorer i analysen och visar på olika nivåer av noggrannhet. Modellen som har högst förklaringsgrad är en logistisk regressionsmodell som tar hänsyn till både mikro- och makroekonomiska faktorer. Denna modell analyseras både i och utanför sitt samplingsintervall, och visar på goda resultat i båda områdena. Modellen är först skattad på en delmängd av tidsperioden, för att kunna jämföra den förutspådda fördelningen med en faktisk fördelning. Sedan är en ekvivalent modell skattad på hela intervallet, för att bäst möjligt förutspå framtida scenarion. För detta syfte är Logistiska regressionsmodellen kombinerad med Vektor Autoregressiva (VAR)-modeller som förutspår makroekonomiska faktorer, och empiriska regressionsmodeller som förutspår mikroekonomiska faktorer. Alla tre modelltyper används för att kunna beskriva det mest sannolika scenariot, samt de värsta tänkbara scenariona. Från de värsta tänkbara scenariona kan riskmått, så som empiriska Value at Risk, tas fram. All analys producerar resultat och de viktigaste sammanställs. Dessa är att den logistiska regression modell som tar hänsyn till makroekonomiska faktorer ger bra resultat både i och utanför samplingsintervallet. Vidare är de framtida simulerade resultaten svårare att tolka, men den genomförda analysen har argument för exakthet i förutsägelserna. Därmed presenteras ett troligt framtida scenario med fortsatt låg konkurs frekvens inom det närmaste året.
156

A Study Evaluating the Liquidity Risk for Non-Maturity Deposits at a Swedish Niche Bank / En studie som utvärderar likviditetsrisken för icke tidsbestämda inlåningsvolymer hos en svensk nischbank

Hilmersson, Markus January 2020 (has links)
Since the 2008 financial crisis, the interest for the subject area of modelling non-maturity deposits has been growing quickly. The area has been widely analysed from the perspective of a traditional bank where customers foremost have transactional and salary deposits. However, in recent year the Swedish banking sector has become more digitized. This has opened up opportunities for more niche banking actors to establish themselves on the market. Therefore, this study aims to examine how the theories developed and previously used in modelling liquidity volumes at traditional banks can be used at a niche bank focused on savings and investments. In this study the topics covered are short-rate modelling using Vasicek's model, liquidity volume modelling using SARIMA and SARIMAX modelling as well as liquidity risk modelling using an approach developed by Kalkbrener and Willing. When modelling the liquidity volumes the data set was divided depending on account and customer type into six groups, for four out of these the models had lower in and out of set prediction errors using SARIMA models for only two of the six models were there improvements made to the in and out of set prediction error using SARIMAX models. Finally, the resulting minimization of liquidity volume forecasting 5 years in the future gave reasonable and satisfactory results. / Sedan finanskrisen 2008 har intresset kring ämnesområdet gällande modellering av inlåningsvolymer utan en kontrakterad förfallodag ökat snabbt. Området har analyserats i stor utsträckning från perspektivet av en traditionell bank där kunder har framförallt transaktions- och lönekonton. De senaste åren har den Svenska banksektorn blivit mer digitaliserad. Detta har öppnat upp möjligheter för nischbanker att etablera sig på marknaden. Därför ämnar denna studie att undersöka hur teorier som har utvecklats och tidigare använts på traditionella banker för att modellera likviditetsvolymer kan användas på en nischbank som är fokuserad på sparande och investeringar. I denna studie modelleras korträntor med Vasicek's modell, likviditetsvolymer med SARIMA och SARIMAX modeller och likviditetsrisk med en modell utvecklad av Kalkbrener och Willing. För modelleringen av likviditetsvolymer delades likviditetsdatan upp i sex grupper baserat på konto- och kund typ. För fyra av dessa data set gav SARIMA-modeller lägre prediktionsfel och endast för två av de sex grupperna gav SARIMAX-modeller bättre resultat. Slutligen så gav den resulterande minimeringen av nödvändiga likviditetsvolymer på en 5 årig horisont rimliga och tillfredsställande resultat.
157

Modeling the Relation Between Implied and Realized Volatility / Modellering av relationen mellan implicit och realiserad volatilitet

Brodd, Tobias January 2020 (has links)
Options are an important part in today's financial market. It's therefore of high importance to be able to understand when options are overvalued and undervalued to get a lead on the market. To determine this, the relation between the volatility of the underlying asset, called realized volatility, and the market's expected volatility, called implied volatility, can be analyzed. In this thesis five models were investigated for modeling the relation between implied and realized volatility. The five models consisted of one Ornstein–Uhlenbeck model, two autoregressive models and two artificial neural networks. To analyze the performance of the models, different accuracy measures were calculated for out-of-sample forecasts. Signals from the models were also calculated and used in a simulated options trading environment to get a better understanding of how well they perform in trading applications. The results suggest that artificial neural networks are able to model the relation more accurately compared to more traditional time series models. It was also shown that a trading strategy based on forecasting the relation was able to generate significant profits. Furthermore, it was shown that profits could be increased by combining a forecasting model with a signal classification model. / Optioner är en viktig del i dagens finansiella marknad. Det är därför viktigt att kunna förstå när optioner är över- och undervärderade för att vara i framkant av marknaden. För att bestämma detta kan relationen mellan den underliggande tillgångens volatilitet, kallad realiserad volatilitet, och marknadens förväntade volatilitet, kallad implicit volatilitet, analyseras. I den här avhandlingen undersöktes fem modeller för att modellera relationen mellan implicit och realiserad volatilitet. De fem modellerna var en Ornstein–Uhlenbeck modell, två autoregressiva modeller samt två artificiella neurala nätverk. För att analysera modellernas prestanda undersöktes olika nogrannhetsmått för prognoser från modellerna. Signaler från modellerna beräknades även och användes i en simulerad optionshandelsmiljö för att få en bättre förståelse för hur väl de presterar i en handelstillämpning. Resultaten tyder på att artificiella neurala nätverk kan modellera relationen bättre än mer traditionella tidsseriemodellerna. Det visades även att en handelsstrategi baserad på prognoser av relationen kunde generera en signifikant vinst. Det visades dessutom att vinster kunde ökas genom att kombinera en prognosmodell med en modell som klassificerar signaler.
158

Debt Portfolio Optimization at the Swedish National Debt Office: : A Monte Carlo Simulation Model / Skuldportföljsoptimering på Riksgälden: : En Monte Carlo-simuleringsmodell

Greberg, Felix January 2020 (has links)
It can be difficult for a sovereign debt manager to see the implications on expected costs and risk of a specific debt management strategy, a simulation model can therefore be a valuable tool. This study investigates how future economic data such as yield curves, foreign exchange rates and CPI can be simulated and how a portfolio optimization model can be used for a sovereign debt office that mainly uses financial derivatives to alter its strategy. The programming language R is used to develop a bespoke software for the Swedish National Debt Office, however, the method that is used can be useful for any debt manager. The model performs well when calculating risk implications of different strategies but debt managers that use this software to find optimal strategies must understand the model's limitations in calculating expected costs. The part of the code that simulates economic data is developed as a separate module and can thus be used for other studies, key parts of the code are available in the appendix of this paper. Foreign currency exposure is the factor that had the largest effect on both expected cost and risk, moreover, the model does not find any cost advantage of issuing inflation-protected debt. The opinions expressed in this thesis are the sole responsibility of the author and should not be interpreted as reflecting the views of the Swedish National Debt Office. / Det kan vara svårt för en statsskuldsförvaltare att se påverkan på förväntade kostnader och risk när en skuldförvaltningsstrategi väljs, en simuleringsmodell kan därför vara ett värdefullt verktyg. Den här studien undersöker hur framtida ekonomiska data som räntekurvor, växelkurser ock KPI kan simuleras och hur en portföljoptimeringsmodell kan användas av ett skuldkontor som främst använder finansiella derivat för att ändra sin strategi. Programmeringsspråket R används för att utveckla en specifik mjukvara åt Riksgälden, men metoden som används kan vara användbar för andra skuldförvaltare. Modellen fungerar väl när den beräknar risk i olika portföljer men skuldförvaltare som använder modellen för att hitta optimala strategier måste förstå modellens begränsningar i att beräkna förväntade kostnader. Delen av koden som simulerar ekonomiska data utvecklas som en separat modul och kan därför användas för andra studier, de viktigaste delarna av koden finns som en bilaga till den här rapporten. Valutaexponering är den faktor som hade störst påverkan på både förväntade kostnader och risk och modellen hittar ingen kostnadsfördel med att ge ut inflationsskyddade lån. Åsikterna som uttrycks i den här uppsatsen är författarens egna ansvar och ska inte tolkas som att de reflekterar Riksgäldens syn.
159

Risk Management and Sustainability - A Study of Risk and Return in Portfolios With Different Levels of Sustainability / Finansiell riskhantering och hållbarhet - En studie om risk och avkastning i portföljer med olika nivåer av hållbarhet

Borg, Magnus, Ternqvist, Lucas January 2023 (has links)
This thesis examines the risk profile of Electronically Traded Funds and the dependence of the ESG rating on risk. 527 ETFs with exposure globally were analyzed. Risk measures considered were Value-at-Risk and Expected Shortfall, while some other metrics of risk was used, such as the volatility, maximum drawdown, tail dependece, and copulas. Stress tests were conducted in order to test the resilience against market downturns. The ETFs were grouped by their ESG rating as well as by their carbon intensity. The results show that the lowest risk can be found for ETFs with either the lowest ESG rating or the highest. Generally, a higher ESG rating implies a lower risk, but without statistical significance in many cases. Further, ETFs with a higher ESG rating showed, on average, a lower maximum drawdown, a higher tail dependence, and more resilience in market downturns. Regarding volatility, the average was shown to be lower on average for ETFs with a higher ESG rating, but no statistical significance could be found. Interestingly, the results show that investing sustainably returns a better financial performance at a lower risk, thus going against the Capital Asset Pricing Model. / Denna studie undersöker riskprofilen för elektroniskt handlade fonder och sambandet mellan risk och hållbarhetsbetyg. 527 ETF:er med global exponering analyserades. De riskmått som användes var Value-at-Risk och Expected Shortfall, och några andra mått för risk användes, däribland volatilitet, största intradagsnedgång, samband i svansfördelning, och copulas. Stresstest utfördes för att testa motsåtndskraften i marknadsnedgångar. ETF:erna grupperades med hjälp av deras hållbarhetsbetyg och deras koldioxidintensitet. Resultatet visar att lägst risk finns i ETF:er med högst respektive lägst hållbarhetsbetyg. Generellt har ETF:er med högre hållbarhetsbetyg en lägre risk, med endast viss statistisk signifikans. Därtill har ETF:er med högre hållbarhetsbetyg, i genomsnitt, en lägre största intradagsnedgång, högre samband i fördelningssvansarna och är mer motståndskraftiga i marknadsnedgångar. Volatiliteten är i genomsnitt lägre desto högre hållbarhetsbetyget är, men detta resultat saknar statistisk signifikans. Ett intressant resultat är att om man investerar hållbart kan man få en högre avkastning med en lägre risk, vilket går emot Capital Asset Pricing Model.
160

Accuracy of Risk Measures For Black Swan Events / Precision av Riskmått För Black Swan-Händelser

Barry, Viktor January 2021 (has links)
This project aims to analyze the risk measures Value-at-Risk and Conditional-Value-at-Risk for three stock portfolios with the purpose of evaluating each method's accuracy in modelling Black Swan events. This is achieved by utilizing a parametric approach in the form of a modified (C)VaR with a Cornish-Fisher expansion, a historic approach with a time series spanning ten years and a Markov Monte Carlo simulation modeled with a Brownian motion. From this, it is revealed that the parametric approach at the 99\%-level generates the most favorable results for a 30-day-(C)VaR estimation for each portfolio, followed by the historic approach and, lastly, the Markov Monte Carlo simulation. As such, it is concluded that the parametric approach may serve as a method of evaluating a portfolio's exposure to Black Swan events. / Denna rapport syftar till att analysera riskmåtten Value-at-Risk och Conditional-Value-at-Risk för tre aktieportföljer med målet att utvärdera respektive metods precision i att modellera Black Swan-händelser. Detta uppnås genom att utnyttja en parametrisk metod som tar formen av en modifierad (C)VaR med en Cornish-Fisher-utveckling, en historisk metod med en tidsserie som sträcker sig tio år, och en Markov Monte Carlo-simulering modellerat med en Brownian Motion. Från detta påvisas det att den parametriska metoden vid en 99\%-ig nivå genererar de mest rättvisande resultaten för en 30-dagars-(C)VaR-estimering för respektive portfölj, följt av den historiska metoden och, till sist, Monte Carlo-simulering. På så sätt dras slutsatsen att den parametriska metoden skulle kunna tjäna som en metod för att utvärdera en aktieportföljs exponering till Black Swan-händelser.

Page generated in 0.1019 seconds