• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1008
  • 190
  • 1
  • Tagged with
  • 1199
  • 1199
  • 1199
  • 1199
  • 1199
  • 181
  • 165
  • 142
  • 114
  • 110
  • 109
  • 89
  • 88
  • 78
  • 78
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
241

Statistical analysis of online linguistic sentiment measures with financial applications / Statistisk analys av språkliga sentimentmått

Osika, Anton January 2015 (has links)
Gavagai is a company that uses different methods to aggregate senti-ment towards specific topics from a large stream of real time published documents. Gavagai wants to find a procedure to decide which way of measuring sentiment (sentiment measure) towards a topic is most useful in a given context. This work discusses what criterion are desirable for aggregating sentiment and derives and evaluates procedures to select "optimal" sentiment measures. Three novel models for selecting a set of sentiment measures that describe independent attributes of the aggregated data are evaluated. The models can be summarized as: maximizing variance of the last principal compo-nent of the data, maximizing the differential entropy of the data and, in the special case of selecting an additional sentiment measure, maximizing the unexplained variance conditional on the previous sentiment measures. When exogenous time varying data considering a topic is available, the data can be used to select the sentiment measure that best explain the data. With this goal in mind, the hypothesis that sentiment data can be used to predict financial volatility and political poll data is tested. The null hypothesis can not be rejected. A framework for aggregating sentiment measures in a mathematically co-herent way is summarized in a road map. / Företaget Gavagai använder olika mått för att i realtid uppskatta sen-timent ifrån diverse strömmar av publika dokument. Gavagai vill hitta ett en procedur som bestämmer vilka mått som passar passar bäst i en given kontext. Det här arbetet diskuterar vilka kriterium som är önskvärda för att mäta sentiment samt härleder och utvärderar procedurer för att välja öptimalasentimentmått. Tre metoder för att välja ut en grupp av mått som beskriver oberoende polariseringar i text föreslås. Dessa bygger på att: välja mått där principal-komponentsanalys uppvisar hög dimensionalitet hos måtten, välja mått som maximerar total uppskattad differentialentropi, välja ett mått som har hög villkorlig varians givet andra polariseringar. Då exogen tidsvarierande data om ett ämne finns tillgängligt kan denna data användas för att beräkna vilka sentimentmått som bäst beskriver datan. För att undersöka potentialen i att välja sentimentmått på detta sätt testas hypoteserna att publika sentimentmått kan förutspå finansiell volatilitet samt politiska opinionsundersökningar. Nollhypotesen kan ej förkastas. En sammanfattning för att på ett genomgående matematiskt koherent sätt aggregera sentiment läggs fram tillsammans med rekommendationer för framtida efterforskningar.
242

Efficient Sensitivity Analysis using Algorithmic  Differentiation in Financial Applications / Effektiv Känslighetsanalys med Algoritmisk Differentiering i Finansiella Tillämpningsområden

Lamm, Ludvig, Sunnegårdh, Erik January 2015 (has links)
One of the most essential tasks of a financial institution is to keep the financial risk the institution is facing down to an acceptable level. This risk can for example be incurred due to bought or sold financial contracts, however, it can usually be dealt with using some kind of hedging technique. Certain quantities refereed to as "the Greeks" are often used to manage risk. The Greeks are usually determined using Monte Carlo simulation in combination with a finite difference approach, this can in some cases be very demanding considering the computational cost. Because of this, alternative methods for determining the Greeks are of interest. In this report a method called Algorithmic differentiation is evaluated. As will be described, there are two different settings of Algorithmic differentiation, namely, forward and adjoint mode. The evaluation will be done by firstly introducing the theory of the method and applying it to a simple, non financial, example. Then the method is applied to three different situations often arising in financial applications. The first example covers the case where a grid of local volatilities is given and sensitivities of an option price with respect to all grid points are sought. The second example deals with the case of a basket option. Here sensitivities of the option with respect to all of the underlying assets are desired. The last example covers the case where sensitivities of a caplet with respect to all initial LIBOR rates, under the assumption of a LIBOR Market Model, are sought.  It is shown that both forward and adjoint mode produces results aligning with the ones determined using a finite difference approach. Also, it is shown that using the adjoint method, in all these three cases, large savings in computational cost can be made compared to using forward mode or finite difference. / En av de mest centrala uppgifter för en finansiell institution är att hålla sina finansiella risker på en acceptabel nivå. De risker som avses kan till exempel uppkomma på grund av köpta eller sålda finansiella kontrakt. Oftast kan dock dessa risker hanteras med hjälp av någon typ av garderingsteknik. Ett antal känslighetsmått som används för att gardera mot risk är ofta refererade till som the Greeks. Vanligtvis kan dessa beräknas genom att använda Monte Carlo-simulering i kombination med finita differensmetoden, detta kan dock bli mycket krävande med avseende på den datorkraft som behövs för beräkningarna. Därför är andra metoder för att beräkna the Greeks av intresse.  I denna rapport utvärderas en metod som kallas Algoritmisk differentiering. Som det senare beskrivs, finns det två typer av Algoritmisk differentiering, vilka kallas forward mode och adjoint mode. Utvärderingen görs genom att först introducera teorin bakom metoden och sedan appliceras den på ett lättare, icke finansiellt, exempel. Därefter appliceras metoden på tre tillämpningsområden inom finansindustrin. Det första exemplet beskriver ett fall där ett rutnät av volatiliteter är givet och känsligheter av ett optionspris med avseende på alla punkter i rutnätet eftersöks. Det andra exemplet beskriver fallet av en korgoption där känsligheter med avseende på alla underliggande aktier för optionen eftersöks. I det sista exemplet beskrivs ett fall där känsligheter av en ränteoption med avseende på alla initiala LIBOR-räntor eftersöks, här görs antagandet om en LIBOR Marknadsmodell.  Det visas att både forward mode och adjoint mode producerar resultat som är i linje med de värden som bestäms med hjälp av finita differensmetoden. Det visas även att användning av adjoint mode, i alla tre finansiella exempel, kan reducera den datorkraft som behövs i jämförelse med forward mode och finita differensmetoden.
243

A PIT - Based approach to Validation of Electricity Spot Price Models / En PIT-baserad metod för validering av elprisprismodeller

Engsner, Hampus January 2015 (has links)
The modeling of electricity spot prices is still in its early stages, with various different competing models being proposed by different researchers. This makes model evaluation and comparison research an important area, for practitioners and researchers alike. However, there is a distinct lack in the literature of consensus regarding model evaluation tools to assess model validity, with different researchers using different methods of varying suitability as validation methods. In this thesis the current landscape of electricity spot price models and how they are currently evaluated is mapped out. Then, as the main contribution this research aims to make, a general and flexible framework for model validation is proposed, based on the Probability Integral Transform (PIT). The probability integral transform, which can be seen as a generalization of analyzing residuals in simple time series and regression models, transforms the realizations of a time series into independent and identically distributed U(0,1) variables using the conditional distributions of the time series. Testing model validity is with this method reduced to testing if the PIT values are independent and identically distributed U(0,1) variables. The thesis is concluded by testing spot price models of varying validity according to previous research using this framework against actual spot price data. These empirical tests suggest that PIT-based model testing does indeed point us toward the more suitable models, with especially unsuitable models being rejected by a large margin. / Modelleringen av spotpriser på el är fortfarande i ett tidigt stadium, med många olika modeller som förespråkas av olika forskare. Detta innebär att forskning som fokuserar på modellutvärdering och jämförelse är viktig både för berörda parter i näringslivet och forskare inom detta område. Det finns dock en klar brist på konsensusmetoder att utvärdera modellers validitet, då olika forskare förespråkar olika metoder av varierande lämplighet som valideringsverktyg. I den här uppsatsen kartläggs det nuvarande landskapet av spotprismodeller och de metoder som används för att utvärdera dem. Sedan, som det huvudsakliga forskningsbidraget av detta arbete, presenteras ett generellt och flexibelt valideringsramverk som baseras på vad som kallas ”Probability Integral Transform” (PIT). PIT, vilken kan ses som en generalisering av att undersöka residualer i enkla tidsserie- och regressionsmodeller, transformerar utfallet av en tidsserie till oberoende och identiskt fördelade U(0,1) variabler med hjälp av tidsseriens betingade fördelningar. Att testa modellens validitet reduceras med denna metod till att testa om PIT – värdena är oberoende och identiskt fördelade U(0,1) variabler. Uppsatsen avslutas med tester av spotprismodeller av varierande validitet enligt litteraturen med hjälp av detta ramverk mot faktiskt spotprisdata. De empiriska testerna antyder att PIT – baserad modellvalidering faktiskt stämmer överrens med modellers validitet baserat på nuvarande konsensus, där särskilt opassande modeller förkastas med stora marginaler.
244

Smart Beta Investering Baserad på Makroekonomiska Indikatorer / Smart Beta Investment Based on Macroeconomic Indicators

Andersson, Alexandra January 2015 (has links)
This thesis examines the possibility to find a relationship between the Nasdaq Nordea Smart Beta Indices and a series of macroeconomic indicators. This relationship will be used as a signal-value and implemented in a portfolio consisting of all six smart beta indices. To investigate the impact of the signal-value on the portfolio performance, three portfolio strategies are examined with the equally weighted portfolio as a benchmark. The portfolio weights will be re-evaluated monthly and the portfolios examined are the mean-variance portfolio, the mean-variance portfolio based on the signal-value and the equally weighted portfolio based on the signal-value. In order to forecast the performance of the portfolio, a multivariate GARCH model with time-varying correlations is fitted to the data and three different error-distributions are considered. The performances of the portfolios are studied both in- and out-of-sample and the analysis is based on the Sharpe ratio. The results indicate that a mean-variance portfolio based on the relationship with the macroeconomic indicators outperforms the other portfolios for the in-sample period, with respect to the Sharpe ratio. In the out-of-sample period however, none of the portfolio strategies has Sharpe ratios that are statistically different from that of an equally weighted portfolio. / Den här uppsatsen undersöker möjligheten att hitta ett förhållande mellan Nasdaq Nordeas Smart Beta Index och en serie av makroekonomiska indikatorer. Detta förhållande kommer att implementeras som ett signalvärde i en portfölj bestående av alla sex index. För att se vilken påverkan signalvärdet har på en portföljs prestanda så undersöks tre portföljstrategier där den likaviktade portföljen används som riktmärke. Portföljerna ska omviktas varje månad och de portföljer som undersöks är mean-variance portföljen baserad på förhållandet med makroindikatorerna samt utan och den likaviktade portföljen baserad på förhållandet med makroindikatorerna. För att kunna göra en prognos av portföljens prestanda anpassas en multivariat GARCH modell med tidsvarierande korrelationer till denna data. Tre stycken felfördelningar övervägs för modellen. Portföljens prestanda mäts både för prognosen samt för tiden med känd data och analysen är baserad på portföljernas Sharpe ratio. Resultaten visar på att den portfölj som presterar bäst i tiden med känd data är meanvariance portföljen baserad på makroindikatorerna. I tiden för prognosen så är ingen port- följs Sharpe ratio statistiskt skild från den av den likaviktade portföljen.
245

Risk premia implied by derivative prices / Derivatprisers antydan om tillgångars riskpremier

Steffen, Richard January 2015 (has links)
The thesis investigates the potential to recover the real world probabilities of an underlying asset from derivative prices by using the recovery approach developed in (Carr & Yu, 2012) and (Ross, 2011). For this purpose the VIX Index and US Treasury bills are used to recover the VIX dynamics and the short rate dynamics under the real world probability measure. The approach implies that VIX and its derivatives has a risk premium equal to zero contradicting empirical evidence of a substantial negative risk premium. In fact, we show that for any asset unrelated to the short rate its risk premium is zero. In the case of recovering the short rate, the CIR model is calibrated to the US zero coupon Treasury yield curve. The predictions of the recovered CIR process is benchmarked against the risk neutral CIR process and a naive predictor. The recovered process is found to outperform the risk neutral process suggesting that the recovery step was successful. However, it underperforms the naive process in its predictions. / Uppsatsen undersöker möjligheten att utvinna den naturliga sannolikhetsfördelningen tillhörande en underliggande tillgång från dess derivatmarknad. Genom att använda tillvägagångsättet som utvecklats av (Carr & Yu, 2012) och (Ross, 2011) undersöks VIX och amerikanska statsskuldsväxlar för att om möjligt utvinna dynamiken på VIX och den korta räntan under det naturliga sannolikhetsmåttet. Metoden antyder att VIX och derivat på VIX har en risk premie som är noll, vilket motsäger empirisk bevisning att risk premien är signifikant negativ. I uppsatsen visar vi även att i alla fall då den underliggande tillgången är oberoende av den korta räntan blir risk premien noll på den underliggande tillgången och dess derivat. I appliceringen av tillvägagångsättet på den korta räntan så kalibrerar vi CIR modellen till amerikanska statsskuldväxlar. Efter att hänsyn tagits till risk premien görs prognoser över framtida förändringar i nollkupongsräntan på växeln med 1 månads löptid. Dessa jämförs med prognoser från CIR modellen med risk neutrala parameterar och en naiv modell vars prognoser över framtida förändringar är noll. Det visar sig att prognoserna från CIR modellen med naturliga parametrar är signifikant bättre än prognoserna från modellen med risk neutrala parametrar. Dock, är prognoserna sämre än för den naiva modellen.
246

Exploiting Temporal Difference for Energy Disaggregation via Discriminative Sparse Coding / Utforskande av temporära skillnader för Energi Disaggregering med Sparse Coding

Leijonmarck, Eric January 2015 (has links)
This thesis analyzes one hour based energy disaggregation using Sparse Coding by exploiting temporal differences. Energy disaggregation is the task of taking a whole-home energy signal and separating it into its component appliances. Studies have shown that having device-level energy information can cause users to conserve significant amounts of energy, but current electricity meters only report whole-home data. Thus, developing algorithmic methods for disaggregation presents a key technical challenge in the effort to maximize energy conservation. In Energy Disaggregation or sometimes called Non- Intrusive Load Monitoring (NILM) most approaches are based on high frequent monitored appliances, while households only measure their consumption via smart-meters, which only account for one-hour measurements. This thesis aims at implementing key algorithms from J. Zico Kotler, Siddarth Batra and Andrew Ng paper "Energy Disaggregation via Discriminative Sparse Coding" and try to replicate the results by exploiting temporal differences that occur when dealing with time series data. The implementation was successful, but the results were inconclusive when dealing with large datasets, as the algorithm was too computationally heavy for the resources available. The work was performed at the Swedish company Greenely, who develops visualizations based on gamification for energy bills via a mobile application. / I den här uppsatsen analyseras Energi Disaggregering med hjälp av Sparse Coding genom att utforska temporala skillnader på en timbaserade data. Studier har visat att presentera information på apparat nivå kan det göra att användare utnyttjar mindre energy i hemmen där man idag bara presenterar hela hushållets användning. Denna uppsats har som mål att implementera och utveckla de algoritmer J. Zico Kotler, Siddarth Batra and Andrew Ng presenterar i deras artikel "Energy Disaggregation via Discriminative Sparse Coding", genom att använda sig utav de temporära skillnader som uppstår inom tidsseriedata. I uppsatsen uppnådde man ett sämre resultat, där datakraften var inte tillräcklig för att utnyttja datan på bästa sätt. Arbetet var utfört på Greenely, ett företag som utvecklar visualiseringar utav elräkningen via en mobilapplikation.
247

Extreme value theory with Markov chain Monte Carlo - an automated process for EVT in finance / Extremvärdesteori med MCMC - en automatiserad process för EVT i finans

Bramstång, Philip, Hermanson, Richard January 2015 (has links)
The purpose of this thesis was to create an automated procedure for estimating financial risk using extreme value theory (EVT). The "peaks over threshold" (POT) result from EVT was chosen for modelling the tails of the distribution of financial returns. The main difficulty with POT is choosing a convergence threshold above which the data points are regarded as extreme events and modelled using a limit distribution. It was investigated how risk measures are affected by variations in this threshold and it was deemed that fixed-threshold models are inadequate in the context of few relevant data points, as is often the case in EVT applications. A model for automatic threshold weighting was proposed and shows promise. Moreover, the choice of Bayesian vs frequentist inference, with focus on Markov chain Monte Carlo (MCMC) vs maximum likelihood estimation (MLE), was investigated with regards to EVT applications, favoring Bayesian inference and MCMC. Two MCMC algorithms, independence Metropolis (IM) and automated factor slice sampler (AFSS), were analyzed and improved in order to increase performance of the final procedure. Lastly, the effects of a reference prior and a prior based on expert opinion were compared and exemplified for practical applications in finance. / Syftet med detta examensarbete var att utveckla en automatisk process för uppskattning av finansiell risk med hjälp av extremvärdesteori. "Peaks over threshold" (POT) valdes som metod för att modellera extrempunkter i avkastningsdata. Den stora svårigheten med POT är att välja ett tröskelvärde för konvergens, över vilket alla datapunkter betraktas som extrema och modelleras med en gränsvärdesdistribution. Detta tröskelvärdes påverkan på olika riskmått undersöktes, med slutsatsen att modeller med fast tröskelvärde är olämpliga om datamängden är liten, vilket ofta är fallet i tillämpade extremvärdesmetoder.En modell för viktning av tröskelvärden presenterades och uppvisade lovande resultat. Därtill undersöktes valet mellan Bayesiansk och frekventisk inferens, med fokus på skillnaden mellan Markov chain Monte Carlo (MCMC) och maximum likelihood estimation (MLE), när det kommer till applicerad extremvärdesteori. Bayesiansk inferens och MCMC bedömdes vara bättre, och två MCMC-algoritmer; independence Metropolis (IM) och automated factor slice sampler (AFSS), analyserades och förbättrades för använding i den automatiska processen. Avslutningsvis jämfördes effekterna av olika apriori sannolikhetsfördelningar (priors) på processens slutresultat. En svagt informativ referensprior jämfördes med en starkt informativ prior baserad på expertutlåtanden.
248

Low complexity algorithms for faster-than-Nyquistsign : Using coding to avoid an NP-hard problem / Algoritmer med lag komplexitet for snabbare-an-Nyquist signalering

Ringh, Emil January 2013 (has links)
This thesis is an investigation of what happens when communication links are pushed towards their limits and the data-bearing-pulses are packed tighter in time than previously done. This is called faster-than-Nyquist (FTN) signaling and it will violate the Nyquist inter-symbol interference criterion, implying that the data-pulsesare no longer orthogonal and thus that the samples at the receiver will be dependent on more than one of the transmitted symbols. Inter-symbol interference (ISI) has occurred and the consequences of it are studied for the AWGN-channel model. Here it is shown that in order to do maximum likelihood estimation on these samples the receiver will face an NP-hard problem. The standard algorithm to make good estimations in the ISI case is the Viterbi algorithm, but applied on a block with N bits and interference among K bits thecomplexity is O(N *2K), hence limiting the practical applicability. Here, a precoding scheme is proposed together with a decoding that reduce the estimation complexity. By applying the proposed precoding/decoding to a data block of length N the estimation can be done in O(N2) operations preceded by a single off-line O(N3) calculation. The precoding itself is also done in O(N2)operations, with a single o ff-line operation of O(N3) complexity. The strength of the precoding is shown in simulations. In the first it was tested together with turbo codes of code rate 2/3 and block lengthof 6000 bits. When sending 25% more data (FTN) the non-precoded case needed about 2.5 dB higher signal-to-noise ratio (SNR) to have the same error rate as the precoded case. When the precoded case performed without any block errors, the non-precoded case still had a block error rate almost equal to 1. We also studied the scenario of transmission with low latency and high reliability. Here, 600 bits were transmitted with a code rate of 2/3, and hence the target was to communicate 400 bits of data. Applying FTN with doublepacking, that is transmitting 1200 bits during the same amount of time, it was possible to lower the code rate to 1/3 since only 400 bits of data was to be communicated. This technique greatly improves the robustness. When the FTN case performed error free, the classical Nyquist case still had a block error rate of 0.19. To reach error free performance the Nyquist case needed 1.25 dB higher SNR compared to the precoded FTN case with lower code rate. / Detta examensarbete handlar om vad som händer då kommunikationskanaler pressas till sin gräns och pulserna som bär data packas tätare i tiden. Detta kallas snabbare-än-Nyquist (FTN) och kommer att bryta mot Nyquists kriterium för intersymbolinterferens, vilket innebär att de databärande pulserna inte längre kommer vara ortogonala och att signalsamplen kommer vara beroende av mer än en skickad symbol. Det uppstår intersymbolinterferens (ISI) och dess konsekvenser studeras inom kanalmodellen AWGN. Vi visar att göra en maximum likelihood uppskattning baserat på dessa data är ett NP-svårt problem. Normalt används Viterbi algoritmen när man har ISI, men den har exponentiell komplexitet. På ett block med N symboler och interferens i storleken K symboler är komplexiteten O(N*2K) vilket gör att algoritmen är svår att använda i praktiska fall. Istället så föreslås en förkodning, som tillsammans med en avkodning reducerar komplexiteten. Kodningen appliceras blockvis och på ett block med N symboler är komplexiteten O(N2) för kodning/avkodning. Denna måste i båda fall föregås av en O(N3) beräkning, som dock behöver göras endast en gång.  Simuleringar visar den föreslagna kodningens fördelar. I den första simuleringen testades den ihop med turbokodning med blocklängd på 6000 bitar och en kodningsgrad på 2/3. När FTN användes för att skicka 25% mer data krävdes det cirka 2.5 dB högre signal-till-brus-förhållande (SNR) för att den icke förkodade signalen skulle ha samma felfrekvens som den förkodade. När det förkodade fallet presterade felfritt gjorde det oförkodade fel på nästan alla block.  Ett annat scenario som testades var det med korta koder, liten fördröjning och hög robusthet. I detta scenario skickades 600 bitar med en kodningsgrad på 2/3, alltså 400 bitar ren data. Genom att använda FTN med en dubbel packningsgrad, vilket innebär att 1200 bitar skickades under samma tid, var det möjligt att sänka kodningsgraden till 1/3, eftersom det bara var 400 bitar ren data som skulle överföras. Detta ökad robustheten i systemet ty då FTN fallet gjorde felfritt hade det klassiska Nyquist fallet fortfarande en felfrekvens på 0.19 för sina block. Det krävdes 1.25 dB högre SNR för Nyquist fallet att bli felfritt jämfört med FTN och lägre kodningsgrad.
249

Operational Risk Modeling:Theory and Practice / Modellering av Operationell Risk: Teori och Praktik

Wahlström, Johan January 2013 (has links)
This thesis studies the Loss Distribution Approach for modeling of Operational Risk under Basel II from a practical and general perspective. Initial analysis supports the use of the Peaks over Threshold method for modeling the severity distributions of individual cells. A method for weighting loss data subject to data capture bias is implemented and discussed. The idea of the method is that each loss event is registered if and only if it exceeds an outcome of a stochastic threshold. The method is shown to be very useful, but poses some challenges demanding the employment of qualitative reasoning. The most well known estimators of both the extreme value threshold and the parameters in the Generalized Pareto Distribution are reviewed and studied from a theoretical perspective. We also introduce a GPD estimator which uses the Method-of-Moments estimate of the shape parameter while estimating the scale parameter by fitting a specific high quantile to empirical data. All estimators are then applied to available data sets and evaluated with respect to robustness and data fit. We further review an analytical approximation of the regulatory capital for each cell and apply this to our model. The validity of the approximation is evaluated by using Monte Carlo estimates as a benchmark. This also leads us to study how the rate of convergence of the Monte Carlo estimates depends on the "heavy-tailedness" of the loss distribution. A standard model for correlation between cells is discussed and explicit expressions limiting the actual correlation between the aggregated loss distributions in the model are presented. These bounds are then numerically estimated from data. / Detta examensarbete studerarLoss Distribution Approach för modellering av Operationell Risk enligt Basel IIfrån en praktiskt och generell synvinkel. Inledande analys stödjer användandetav Peaks-over-Threshold-metoden för modellering av distributionen för varjeenskild förlust i en given cell.    Vi implementerar och diskuterar en metod för viktning avförlustdata med urvalsfel. Metoden bygger på en modell där varjeförlusthändelse registreras om och endast om förlusten överstiger ett utfallfrån en stokastisk tröskelvariabel. Metoden visas vara mycket användbar, menmedför flertalet utmaningar som kräver resonemang av kvalitativ art.   De mest kända estimatorerna av både extremvärdeströskeln ochparametrarna i den Generaliserade Pareto Distributionen granskas och studerasutifrån ett teoretiskt perspektiv. Vi introducerar även en GPD-estimator somanvänder ett momentbaserat estimat av formparametern, medan skalparameternskattas genom att anpassa en specifik hög kvantil till empirisk data. Allaestimatorer appliceras sedan på tillgänglig data och utvärderas med avseende påbåde robusthet och anpassning till data.    Vi går vidare igenom en analytisk approximation av det regulativakapitalestimatet för varje cell och applicerar denna på vår modell.Approximationens giltighet utvärderas sedan genom jämförelser med motsvarandeMonte-Carlo-estimat. Detta leder oss även in på studier av hur konvergensen avMonte-Carlo-estimaten beror på hur tungsvansad distributionen för varje enskildförlust är.   En standardmodell för korrelation emellan celler diskuteras, ochexplicita uttryck som begränsar modellens egentliga korrelation mellanaggregerade förlustdistributioner presentas. Dessa begränsningar skattas sedannumeriskt med hjälp av data.
250

Pricing of a “worst of” option using a Copula method

Malgrat, Maxime January 2013 (has links)
In this thesis, we use a Copula Method in order to price basket options and especially “worst of” options. The dependence structure of the underlying assets will be modeled using different families of copulas. The copulas parameters are estimated via the Maximum Likelihood Method from a sample of observed daily returns. The Monte Carlo method will be revisited when it comes to generate underlying assets daily returns from the fitted copula. Two baskets are priced: one composed of two correlated assets and one composed of two uncorrelated assets. The obtained prices are then compared with the price obtained using the Pricing Partners software

Page generated in 0.113 seconds