Spelling suggestions: "subject:"matematiska.""
131 |
Dependence Modelling and Risk Analysis in a Joint Credit-Equity FrameworkBackman, Fredrik January 2015 (has links)
This thesis is set in the intersection between separate types of financial markets, with emphasis on joint risk modelling. Relying on empirical findings pointing toward the ex- istence of dependence across equity and corporate debt markets, a simulation framework intended to capture this property is developed. A few different types of models form building blocks of the framework, including stochastic processes describing the evolution of equity and credit risk factors in continuous time, as well as a credit rating based model, providing a mechanism for imposing dependent credit migrations and defaults for firms participating in the market. A flexible modelling framework results, proving capable of generating dependence of varying strength and shape, across as well as within studied markets. Particular focus is given to the way markets interact in the tails of the distributions. By means of simulation, it is highlighted that dependence as produced by the model tends to spread asymmetrically with simultaneously extreme outcomes occurring more frequently in lower than in upper tails. Attempts to fit the model to observed market data featuring historical stock index and corporate bond index values are promising as both marginal distributions and dependence connecting the investigated asset types appear largely replicable, although we conclude further validation remains.
|
132 |
Modeling and Forecasting Stock Index Returns using Intermarket Factor Models : Predicting Returns and Return Spreads using Multiple Regression and ClassicationTingstrom, Emil January 2015 (has links)
The purpose of this thesis is to examine the predictability of stock indices with regression models based on intermarket factors. The underlying idea is that there is some correlation between past price changes and future price changes, and that models attempting to capture this could be improved by including information derived from correlated assets to make predictions of future price changes. The models are tested using the daily returns from Swedish stock indices and evaluated from a portfolio perspective and their statistical signicance. Prediction of the direction of the price is also tested by Support vector machine classication on the OMXS30 index. The results indicate that there is some predictability in the market, in disagreement with the random walk hypothesis. / Syftet med denna uppsats är att undersöka förutsägbara tendenser hos aktieindex med regressionsmodeller baserade på intermarket-faktorer. The bakomliggande idén är att det existerar en viss korrelation mellan föregående prisrörelser och framtida prisrörelser, och att modeller som försöker fånga det kan förbättras genom att inkludera information från korrelerade tillgångar för att förutspå framtida prisförändringar. Modellerna testas med dagliga data på svenska aktieindex och utvärderas från ett portföljperspektiv och deras statistiska signifikans. Förutsägelser av riktningen hos priset testas också genom klassifikation med en Stödvektormaskin på OMXS30-index. Resultaten indikerar att det finns vissa förutsägbara tendenser i motsats till hypotesen om slumpmässiga aktiepriser.
|
133 |
Estimating the intrinsic dimensionality of high dimensional data / Metoder för estimering av effektiv dimension hos högdimensionella dataWiniger, Joakim January 2015 (has links)
This report presents a review of some methods for estimating what is known as intrinsic dimensionality (ID). The principle behind intrinsic dimensionality estimation is that frequently, it is possible to find some structure in data which makes it possible to re-express it using a fewer number of coordinates (dimensions). The main objective of the report is to solve a common problem: Given a (typically high-dimensional) dataset, determine whether the number of dimensions are redundant, and if so, find a lower dimensional representation of it. We introduce different approaches for ID estimation, motivate them theoretically and compare them using both synthetic and real datasets. The first three methods estimate the ID of a dataset while the fourth finds a low dimensional version of the data. This is a useful order in which to organize the task, given an estimate of the ID of a dataset, construct a simpler version of the dataset using this number of dimensions. The results show that it is possible to obtain a remarkable decrease in high-dimensional data. The different methods give similar results despite their different theoretical backgrounds and behave as expected when using them on synthetic datasets with known ID. / Denna rapport ger en genomgång av olika metoder för skattning av inre dimension (ID). Principen bakom begreppet ID är att det ofta är möjligt att hitta strukturer i data som gör det möjligt att uttrycka samma data på nytt med ett färre antal koordinater (dimensioner). Syftet med detta projekt är att lösa ett vanligt problem: given en (vanligtvis högdimensionell) datamängd, avgör om antalet dimensioner är överflödiga, och om så är fallet, hitta en representation av datamängden som har ett mindre antal dimensioner. Vi introducerar olika tillvägagångssätt för skattning av inre dimension, går igenom teorin bakom dem och jämför deras resultat för både syntetiska och verkliga datamängder. De tre första metoderna skattar den inre dimensionen av data medan den fjärde hittar en lägre-dimensionell version av en datamängd. Denna ordning är praktisk för syftet med projektet, när vi har en skattning av den inre dimensionen av en datamängd kan vi använda denna skattning för att konstruera en enklare version av datamängden som har detta antal dimensioner. Resultaten visar att för högdimensionell data går det att reducera antalet dimensioner avsevärt. De olika metoderna ger liknande resultat trots deras olika teoretiska bakgrunder, och ger väntade resultat när de används på syntetiska datamängder vars inre dimensioner redan är kända.
|
134 |
Estimating Probability of Default Using Rating Migrations in Discrete and Continuous TimeGunnvald, Rickard January 2014 (has links)
During the financial crisis that began in 2008, even whole countries and very large companies defaulted or were on the verge of defaulting. The turmoil made risk managers and regulators more vigilant in scrutinising their risk assessment. The probability of default (PD) is an essential parameter in measuring counterparty credit risk, which in turn has impact on pricing of loans and derivatives. The last decade, a method using Markov chains to estimate rating migrations, migration matrices and PD has evolved to become an industry standard. In this thesis, a holistic approach to implementing this approach in discrete and continuous time is taken. The results show that an implementation in continuous time has many advantages. Also, it is indicated that a bootstrap method is preferred to calculate confidence intervals for the PDs. Moreover, an investigation show that the frequently used assumption of time-homogeneous migration matrices is most probably wrong. By studying expansions and recessions, specific expansion and recession migration matrices are calculated to mitigate the impact of time-inhomogeneity. The results indicate large differences of estimated PDs over the economic cycle, which is important knowledge to be able to quote correct prices for financial transactions involving counterparty credit risk.
|
135 |
A comparison of the IRB approach and the Standard Approach under CRR for purchased defaulted retail exposures / En jämförelse mellan Internmetoden och Schablonmetodenenligt CRR för förvärvade fallerande hushållsexponeringarMåssebäck, Simon January 2014 (has links)
We investigate under what circumstances the IRB approach under Regulation (EU) no 575/2013 (Capital Requirements Regulation) renders a lower capital requirement for purchased defaulted retail exposures than under the Standard Approach of the same regulation. We also discuss some alternative approaches to calculating the capital requirement for the mentioned exposures. The results show that it is only beneficial in a few cases to use the IRB approach compared to the Standard Approach. We can also see that the IRB approach in some cases renders a capital requirement that is clearly not reflecting the actual risk. Of the alternative approaches investigated, a Value-at-Risk approach seems most promising for further development. / Vi undersöker under vilka omständigheter Internmetoden enligt Förordning (EU) nr 575/2013 (tillsynsförordningen) ger ett lägre kapitalkrav för förvärvade fallerande hushållsexponeringar än Schablonmetoden enligt samma förordning. Vi diskuterar också några alternativa metoder för att beräkna kapitalkravet för de nämnda exponeringarna. Resultaten visar att det bara är fördelaktigt i ett fåtal fall att använda Internmetoden jämfört med Schablonmetoden. Vi kan också se att Internmetoden ger ett kapitalkrav i vissa fall som tydligt inte återspeglar den faktiska risken. Av de alternativa metoder som undersökts ser en Value-at-Risk-metod mest lovande ut för fortsatt utveckling.
|
136 |
The SVI implied volatility model and its calibration / SVI-modellen för implicit volatilitet och desskalibreringAurell, Alexander January 2014 (has links)
The SVI implied volatility model is a parametric model for stochastic implied volatility.The SVI is interesting because of the possibility to state explicit conditions on its parameters so that the model does not generate prices where static arbitrage opportunities can occur. Calibration of the SVI model to real market data requires non-linear optimization algorithms and can be quite time consuming. In recent years, methods to calibrate the SVI model that use its inherent structure to reduce the dimensions of the optimization problem have been invented in order to speed up the calibration. The ?first aim of this thesis is to justify the use of the model and the no static arbitrage conditions from a theoretic point of view. Important theorems by Kellerer and Lee and their proofs are discussed in detail and the conditions are carefully derived. The second aim is to implement the model so that it can be calibrated to real market implied volatility data. A calibration method is presented and the outcome of two numerical experiments validate it. The performance of the calibration method introduced in this thesis is measured in how big a fraction of the total market volume the method manages to ?t within the market spread. Tests show that the model manages to ?t most of the market volume inside the spread, even for options with short time to maturity. Further tests show that the model is capable to recalibrate an SVI parameter set that allows for static arbitrage opportunities into an SVI parameter set that does not. / SVI-modellen är en parametrisk modell för stokastisk implicit volatilitet. Modellen är intressant då det har visat sig möjligt att ställa upp villkor på dess parametrar så att priser den genererar för köp- och säljoptioner är fria från statiskt arbitrage. För att kalibrera SVI-modellen till marknadsdata krävs olinjär optimering, vilket i en implementering kan vara tidskrävande. På senare tid har kalibreringsmetoder som använder den inneboende strukturen i SVI-modellens parametrisering för att reducera dimensionen på optimeringen tagits fram. Den här uppsatsen har två syften. Det första är att berättiga SVI-modellen och villkoren för eliminering av statiskt arbitrage. Detta görs med en genomgång av den underliggande teorin. Viktiga satser av Kellerer och Lee presenteras, bevisas och diskuteras. Det andra syftet är att konstruera en kalibreringsmetod som möjliggör anpassning av SVI-modellen till marknadsdata och implementera denna. Utfallet av två numeriska experiment validerar kalibreringsmetoden. Kalibreringsmetodens prestanda mäts i hur stor del av marknadsvolymen som SVI-modellen lyckas anpassa inom spridningen av priser på marknaden. Tester visar på att kalibreringsmetoden lyckas anpassa den största delen av priserna innanför spridningen. Vidare tester visar att kalibreringsmetoden klarar av att omkalibrera SVI-modellen så att en parametermängd som till en början ger statisk arbitrage omvärderas till en parametermängd som är fri från statiskt arbitrage.
|
137 |
Parameter Estimation of a non-Equilibrium Asset Pricing Model and Performance Analysis of the Calibration in Terms of SloppinessLagerqvist, Andreas January 2014 (has links)
Prices of assets traded in stock markets often exhibit out of equilibrium behaviours, e.g. bubbles and recessions. Yukalov et al. have developed a model to describe these dynamics, and this Master thesis focuses on the problem of calibrating it using an Evolutionary algorithm and the Simulated Annealing method. In general, the parameter estimation performs far from desired, and a Sloppy model analysis of the deterministic system shows that the performance is linked to the sloppiness structure of the model. Accounting for sloppiness, the calibration results can be seen in a different light and the model could still be useful for predictions. Thus, the prediction performance on both synthetic and real-world data is studied, with good results in artificial markets and poor performance using real prices. / Aktier handlas ofta för priser som skiljer sig från jämviktspriser, exempelvis under finansbubblor eller i recessioner. Yukalov et al. har tagit fram en modell för att beskriva dessa beteenden, och i den här Masteruppsatsen undersöks modellkalibrering genom en Evolutionär algoritm och ’the Simulated Annealing method’. Generellt är modellparametrarna dåligt uppskattade och en Sloppy model-analys av det deterministiska systemet visar att kalibreringsresultatet är beroende av modellens sloppiness struktur. Med detta i åtanke kan kalibreringsresultatet tolkas annorlunda och modellen kan fortfarande vara användbar för prediktion. Således är prediktionsprecisionen studerad för både syntestisk och riktig data, med god precision för simulerade marknader men sämre resultat för verkliga priser.
|
138 |
Drivande faktorer bakom Tv-tittandepå den svenska marknaden : En regressionsanalys utifrån definierade målgrupperHolmsäter, Sara, Leijon, Anna January 2014 (has links)
Det här kandidatexamensarbetet utreder huruvida multipel linjär regressionsanalys går att tillämpa på TV-tittarhistorik för att avgöra vilka programdynamiska faktorer som bidrar till höga tittarsiffror. Datan som ligger till underlag för den här analysen kommer från Mediamätning i Skandinavien, MMS. Slutsatser som har dragits i det här kandidatexamensarbetet är att det, inte utan svårigheter, går att tillämpa regressionsanalys på MMS-data. Det kräver bland annat omfattande bearbetning av datan, men också formulering av de programkategorierna som ska undersökas. Utöver det är TV-tittarhistorik som Y-variabel begränsad såväl nedifrån som ovanifrån, vilket kräver viss omtransformering för att kunna användas i regressionsanalysen. I det här arbetet används logaritmen av (Ƴ +1). Slutsatser kring programdynamiska faktorer som kunnat dras är att TV6 når ut bra i dagsläget till sin definierade målgrupp, medan TV3, TV8 och TV10 kan förbättra sitt TV-tablå-utbud för att bättre nå ut till sina respektive målgrupper. Programkategorier som Talkshows, Hjälp-TV-serier och Utslagstävlingar driver höga tittarsiffror, medan väderinslaget i Nyheterna borde uteslutas ur nyhetssändningen då de flesta byter kanal när det tar vid. Fortsatt analys av MMS-data med regressionsanalys rekommenderas eftersom det är ett rikt område där nya regressionsmodeller kan ställas upp för att utreda andra och/eller mer specifika variabler som påverkar TV-tittande. / This bachelor’s thesis investigates whether multiple linear regression analysis can be applied to analyse TV audience measurements in order to examine and draw conclusions about which program dynamics factors contribute to high ratings. The data that forms the basis for this analysis comes from Media Measurement in Scandinavia, MMS. The conclusion that has been drawn in this bachelor’s thesis is that it is possible, but not without difficulty, to apply regression analysis on MMS data. It requires, among other things, extensive processing of the data, but also a formulation of the program categories which are to be examined. In addition, the TV audience measurement as the Ƴvariable in the model is limited from above as well as from below, which requires transformation of the Y-variable for it to be used in regression modelling. In this bachelor’s thesis, the logarithm of is (Ƴ+1) used. Conclusions that could be drawn about program dynamics factors is that TV6 reaches its target audience well, while TV3, TV8 and TV10 can improve their TV guide, in order to better reach out to their target audiences. Program categories such as Talk Shows, Help TV series and Knockout Competitions drive high viewer ratings, while the weather forecast in the Newscast should be excluded, since most people change the channel when it begins. Continued use of regressions analysis on TV audience measurement is recommended, as it is a rich area where new regression models can be set up to investigate further and /or more specific variables which affect television viewing ratings.
|
139 |
Bolåneräntor i Sverige : Enanalys av individuella räntor med multipel linjär regression / Swedish mortgage rates : An analysis of individual interest rates with multiple linear regressionBerglund, André, Hellgren, Erik January 2014 (has links)
I denna rapport undersöks hur ett antal kundspecifika faktorer som belåningrad, bank och inkomst påverkar svenska hushålls individuella bolåneräntor. Metoden som används är multipel linjär regression med transformeringar av förklarande variabler. Transformer som används är log-linjär, linjär-log, log-log samt styckvis linjär. Datan innehåller ett stickprov om ca. 7000 rörliga bolån från juli 2013 insamlade av organisationen Villaägarna på frivillig basis. Variablerna belåningsgrad, lånets storlek och bank bidrar mest till att förklara räntan. Vår analys visar att stora lån i kombination med låg belåningsgrad tenderar till att ge lägst ränta samtidigt som det finns signifikanta skillnader i bolåneränta mellan bankerna även om deras listräntor är lika. / This report investigates how a number of customer-specific factors affect individual interest rates for Swedish home mortgages. The method used is multiple linear regression with transformations of the explanatory variables. Transformations that we employ are log-linear, linear-log, log-log and piecewise linear. The dataset consists of approximately 7000 Swedish home mortgages with floating interest rates from July 2013. Loan to value ratio, loan size and the the choice of mortgage lender are identified as the most important factors that influence individual interest rates. We find that large loans in combination with low loan to value ratio tend to lead to lower interest rates. There are also significant differences in interest rates depending on the mortgage lender.
|
140 |
Risk Analysis Against Electricity Market Index and Portfolio OptimisationEricsson, Oskar January 2014 (has links)
There has been a lack of a transparent index to compare electricity portfolios against for many years. Most industrial firms hedge the risks for their electricity needs by buying forward contracts which guarantee the price of a certain amount of power for a year or part of a year. The problem is to know if the company has made good deals since the available comparisons are average spot prices. In this thesis the objectives are to construct a relevant index and then evaluate possible portfolios against this index, giving risk measures such as Value-at-Risk and Expected Shortfall. The resulting index buys a small part of the needed power amount to each trading day’s closing price of the forward contracts traded by the portfolio. Thus, the index buys the volume wanted power amount divided by number of trading days of the used forward contracts each trading day the contracts are available. Another objective is to suggest an optimal trading policy that minimise the expected portfolio cost based on historical price data. This is evaluated by constrained optimisation algorithms. Suggestions for the optimal hedge volumes and when to buy the forward contracts are given based on the historical prices. This reveals how expensive different forward contracts are relative to spot prices for the respective period. / Det har länge saknats ett transparent index att jämföra elhandelsportföljer med. De flesta industriföretag säkrar priser för sina elektricitetsbehov genom att köpa terminskontrakt som garanterar ett visst pris för ett år eller för delar av år. Detta görs för att inte utsättas för risker med höga spotpriser. Problemet blir för företaget att veta om det har gjort bra affärer eftersom det saknas relevanta jämförelser, till exempel är det missvisande att jämföra mot spotpriser vilka främst påverkas av väderprognoser. Målen med denna uppsats är att skapa ett relevant index, för att sedan jämföra elhandelsportföljer med index genom att ge riskmått som Value-at-Risk och Expected Shortfall. Indexportföljen handlar en liten och lika stor volym till varje handelsdags stängningspris för respektive terminskontrakt. Alltså, index handlar bestämd effekt delat med antal handelsdagar i varje använt terminskontrakt under varje handelsdag som respektive terminskontrakt finns tillgängligt. Ett ytterligare mål med denna studie är att utvärdera handelsstrategier för dessa kontrakt för att föreslå en optimal strategi som minimerar den förväntade portföljkostnaden utifrån historiska priser. Detta görs genom optimeringsalgoritmer. Förslag till optimala volymer som säkras med terminskontrakt och när kontrakten ska köpas ges utifrån historiska priser. Detta anger hur dyra terminskontrakten är relativt spotpriserna för respektive period.
|
Page generated in 0.0749 seconds