• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1373
  • 380
  • 379
  • 77
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 2521
  • 1657
  • 1214
  • 1211
  • 1199
  • 455
  • 390
  • 363
  • 341
  • 341
  • 324
  • 323
  • 318
  • 308
  • 239
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Risk premia implied by derivative prices / Derivatprisers antydan om tillgångars riskpremier

Steffen, Richard January 2015 (has links)
The thesis investigates the potential to recover the real world probabilities of an underlying asset from derivative prices by using the recovery approach developed in (Carr & Yu, 2012) and (Ross, 2011). For this purpose the VIX Index and US Treasury bills are used to recover the VIX dynamics and the short rate dynamics under the real world probability measure. The approach implies that VIX and its derivatives has a risk premium equal to zero contradicting empirical evidence of a substantial negative risk premium. In fact, we show that for any asset unrelated to the short rate its risk premium is zero. In the case of recovering the short rate, the CIR model is calibrated to the US zero coupon Treasury yield curve. The predictions of the recovered CIR process is benchmarked against the risk neutral CIR process and a naive predictor. The recovered process is found to outperform the risk neutral process suggesting that the recovery step was successful. However, it underperforms the naive process in its predictions. / Uppsatsen undersöker möjligheten att utvinna den naturliga sannolikhetsfördelningen tillhörande en underliggande tillgång från dess derivatmarknad. Genom att använda tillvägagångsättet som utvecklats av (Carr & Yu, 2012) och (Ross, 2011) undersöks VIX och amerikanska statsskuldsväxlar för att om möjligt utvinna dynamiken på VIX och den korta räntan under det naturliga sannolikhetsmåttet. Metoden antyder att VIX och derivat på VIX har en risk premie som är noll, vilket motsäger empirisk bevisning att risk premien är signifikant negativ. I uppsatsen visar vi även att i alla fall då den underliggande tillgången är oberoende av den korta räntan blir risk premien noll på den underliggande tillgången och dess derivat. I appliceringen av tillvägagångsättet på den korta räntan så kalibrerar vi CIR modellen till amerikanska statsskuldväxlar. Efter att hänsyn tagits till risk premien görs prognoser över framtida förändringar i nollkupongsräntan på växeln med 1 månads löptid. Dessa jämförs med prognoser från CIR modellen med risk neutrala parameterar och en naiv modell vars prognoser över framtida förändringar är noll. Det visar sig att prognoserna från CIR modellen med naturliga parametrar är signifikant bättre än prognoserna från modellen med risk neutrala parametrar. Dock, är prognoserna sämre än för den naiva modellen.
372

Exploiting Temporal Difference for Energy Disaggregation via Discriminative Sparse Coding / Utforskande av temporära skillnader för Energi Disaggregering med Sparse Coding

Leijonmarck, Eric January 2015 (has links)
This thesis analyzes one hour based energy disaggregation using Sparse Coding by exploiting temporal differences. Energy disaggregation is the task of taking a whole-home energy signal and separating it into its component appliances. Studies have shown that having device-level energy information can cause users to conserve significant amounts of energy, but current electricity meters only report whole-home data. Thus, developing algorithmic methods for disaggregation presents a key technical challenge in the effort to maximize energy conservation. In Energy Disaggregation or sometimes called Non- Intrusive Load Monitoring (NILM) most approaches are based on high frequent monitored appliances, while households only measure their consumption via smart-meters, which only account for one-hour measurements. This thesis aims at implementing key algorithms from J. Zico Kotler, Siddarth Batra and Andrew Ng paper "Energy Disaggregation via Discriminative Sparse Coding" and try to replicate the results by exploiting temporal differences that occur when dealing with time series data. The implementation was successful, but the results were inconclusive when dealing with large datasets, as the algorithm was too computationally heavy for the resources available. The work was performed at the Swedish company Greenely, who develops visualizations based on gamification for energy bills via a mobile application. / I den här uppsatsen analyseras Energi Disaggregering med hjälp av Sparse Coding genom att utforska temporala skillnader på en timbaserade data. Studier har visat att presentera information på apparat nivå kan det göra att användare utnyttjar mindre energy i hemmen där man idag bara presenterar hela hushållets användning. Denna uppsats har som mål att implementera och utveckla de algoritmer J. Zico Kotler, Siddarth Batra and Andrew Ng presenterar i deras artikel "Energy Disaggregation via Discriminative Sparse Coding", genom att använda sig utav de temporära skillnader som uppstår inom tidsseriedata. I uppsatsen uppnådde man ett sämre resultat, där datakraften var inte tillräcklig för att utnyttja datan på bästa sätt. Arbetet var utfört på Greenely, ett företag som utvecklar visualiseringar utav elräkningen via en mobilapplikation.
373

Extreme value theory with Markov chain Monte Carlo - an automated process for EVT in finance / Extremvärdesteori med MCMC - en automatiserad process för EVT i finans

Bramstång, Philip, Hermanson, Richard January 2015 (has links)
The purpose of this thesis was to create an automated procedure for estimating financial risk using extreme value theory (EVT). The "peaks over threshold" (POT) result from EVT was chosen for modelling the tails of the distribution of financial returns. The main difficulty with POT is choosing a convergence threshold above which the data points are regarded as extreme events and modelled using a limit distribution. It was investigated how risk measures are affected by variations in this threshold and it was deemed that fixed-threshold models are inadequate in the context of few relevant data points, as is often the case in EVT applications. A model for automatic threshold weighting was proposed and shows promise. Moreover, the choice of Bayesian vs frequentist inference, with focus on Markov chain Monte Carlo (MCMC) vs maximum likelihood estimation (MLE), was investigated with regards to EVT applications, favoring Bayesian inference and MCMC. Two MCMC algorithms, independence Metropolis (IM) and automated factor slice sampler (AFSS), were analyzed and improved in order to increase performance of the final procedure. Lastly, the effects of a reference prior and a prior based on expert opinion were compared and exemplified for practical applications in finance. / Syftet med detta examensarbete var att utveckla en automatisk process för uppskattning av finansiell risk med hjälp av extremvärdesteori. "Peaks over threshold" (POT) valdes som metod för att modellera extrempunkter i avkastningsdata. Den stora svårigheten med POT är att välja ett tröskelvärde för konvergens, över vilket alla datapunkter betraktas som extrema och modelleras med en gränsvärdesdistribution. Detta tröskelvärdes påverkan på olika riskmått undersöktes, med slutsatsen att modeller med fast tröskelvärde är olämpliga om datamängden är liten, vilket ofta är fallet i tillämpade extremvärdesmetoder.En modell för viktning av tröskelvärden presenterades och uppvisade lovande resultat. Därtill undersöktes valet mellan Bayesiansk och frekventisk inferens, med fokus på skillnaden mellan Markov chain Monte Carlo (MCMC) och maximum likelihood estimation (MLE), när det kommer till applicerad extremvärdesteori. Bayesiansk inferens och MCMC bedömdes vara bättre, och två MCMC-algoritmer; independence Metropolis (IM) och automated factor slice sampler (AFSS), analyserades och förbättrades för använding i den automatiska processen. Avslutningsvis jämfördes effekterna av olika apriori sannolikhetsfördelningar (priors) på processens slutresultat. En svagt informativ referensprior jämfördes med en starkt informativ prior baserad på expertutlåtanden.
374

Low complexity algorithms for faster-than-Nyquistsign : Using coding to avoid an NP-hard problem / Algoritmer med lag komplexitet for snabbare-an-Nyquist signalering

Ringh, Emil January 2013 (has links)
This thesis is an investigation of what happens when communication links are pushed towards their limits and the data-bearing-pulses are packed tighter in time than previously done. This is called faster-than-Nyquist (FTN) signaling and it will violate the Nyquist inter-symbol interference criterion, implying that the data-pulsesare no longer orthogonal and thus that the samples at the receiver will be dependent on more than one of the transmitted symbols. Inter-symbol interference (ISI) has occurred and the consequences of it are studied for the AWGN-channel model. Here it is shown that in order to do maximum likelihood estimation on these samples the receiver will face an NP-hard problem. The standard algorithm to make good estimations in the ISI case is the Viterbi algorithm, but applied on a block with N bits and interference among K bits thecomplexity is O(N *2K), hence limiting the practical applicability. Here, a precoding scheme is proposed together with a decoding that reduce the estimation complexity. By applying the proposed precoding/decoding to a data block of length N the estimation can be done in O(N2) operations preceded by a single off-line O(N3) calculation. The precoding itself is also done in O(N2)operations, with a single o ff-line operation of O(N3) complexity. The strength of the precoding is shown in simulations. In the first it was tested together with turbo codes of code rate 2/3 and block lengthof 6000 bits. When sending 25% more data (FTN) the non-precoded case needed about 2.5 dB higher signal-to-noise ratio (SNR) to have the same error rate as the precoded case. When the precoded case performed without any block errors, the non-precoded case still had a block error rate almost equal to 1. We also studied the scenario of transmission with low latency and high reliability. Here, 600 bits were transmitted with a code rate of 2/3, and hence the target was to communicate 400 bits of data. Applying FTN with doublepacking, that is transmitting 1200 bits during the same amount of time, it was possible to lower the code rate to 1/3 since only 400 bits of data was to be communicated. This technique greatly improves the robustness. When the FTN case performed error free, the classical Nyquist case still had a block error rate of 0.19. To reach error free performance the Nyquist case needed 1.25 dB higher SNR compared to the precoded FTN case with lower code rate. / Detta examensarbete handlar om vad som händer då kommunikationskanaler pressas till sin gräns och pulserna som bär data packas tätare i tiden. Detta kallas snabbare-än-Nyquist (FTN) och kommer att bryta mot Nyquists kriterium för intersymbolinterferens, vilket innebär att de databärande pulserna inte längre kommer vara ortogonala och att signalsamplen kommer vara beroende av mer än en skickad symbol. Det uppstår intersymbolinterferens (ISI) och dess konsekvenser studeras inom kanalmodellen AWGN. Vi visar att göra en maximum likelihood uppskattning baserat på dessa data är ett NP-svårt problem. Normalt används Viterbi algoritmen när man har ISI, men den har exponentiell komplexitet. På ett block med N symboler och interferens i storleken K symboler är komplexiteten O(N*2K) vilket gör att algoritmen är svår att använda i praktiska fall. Istället så föreslås en förkodning, som tillsammans med en avkodning reducerar komplexiteten. Kodningen appliceras blockvis och på ett block med N symboler är komplexiteten O(N2) för kodning/avkodning. Denna måste i båda fall föregås av en O(N3) beräkning, som dock behöver göras endast en gång.  Simuleringar visar den föreslagna kodningens fördelar. I den första simuleringen testades den ihop med turbokodning med blocklängd på 6000 bitar och en kodningsgrad på 2/3. När FTN användes för att skicka 25% mer data krävdes det cirka 2.5 dB högre signal-till-brus-förhållande (SNR) för att den icke förkodade signalen skulle ha samma felfrekvens som den förkodade. När det förkodade fallet presterade felfritt gjorde det oförkodade fel på nästan alla block.  Ett annat scenario som testades var det med korta koder, liten fördröjning och hög robusthet. I detta scenario skickades 600 bitar med en kodningsgrad på 2/3, alltså 400 bitar ren data. Genom att använda FTN med en dubbel packningsgrad, vilket innebär att 1200 bitar skickades under samma tid, var det möjligt att sänka kodningsgraden till 1/3, eftersom det bara var 400 bitar ren data som skulle överföras. Detta ökad robustheten i systemet ty då FTN fallet gjorde felfritt hade det klassiska Nyquist fallet fortfarande en felfrekvens på 0.19 för sina block. Det krävdes 1.25 dB högre SNR för Nyquist fallet att bli felfritt jämfört med FTN och lägre kodningsgrad.
375

Operational Risk Modeling:Theory and Practice / Modellering av Operationell Risk: Teori och Praktik

Wahlström, Johan January 2013 (has links)
This thesis studies the Loss Distribution Approach for modeling of Operational Risk under Basel II from a practical and general perspective. Initial analysis supports the use of the Peaks over Threshold method for modeling the severity distributions of individual cells. A method for weighting loss data subject to data capture bias is implemented and discussed. The idea of the method is that each loss event is registered if and only if it exceeds an outcome of a stochastic threshold. The method is shown to be very useful, but poses some challenges demanding the employment of qualitative reasoning. The most well known estimators of both the extreme value threshold and the parameters in the Generalized Pareto Distribution are reviewed and studied from a theoretical perspective. We also introduce a GPD estimator which uses the Method-of-Moments estimate of the shape parameter while estimating the scale parameter by fitting a specific high quantile to empirical data. All estimators are then applied to available data sets and evaluated with respect to robustness and data fit. We further review an analytical approximation of the regulatory capital for each cell and apply this to our model. The validity of the approximation is evaluated by using Monte Carlo estimates as a benchmark. This also leads us to study how the rate of convergence of the Monte Carlo estimates depends on the "heavy-tailedness" of the loss distribution. A standard model for correlation between cells is discussed and explicit expressions limiting the actual correlation between the aggregated loss distributions in the model are presented. These bounds are then numerically estimated from data. / Detta examensarbete studerarLoss Distribution Approach för modellering av Operationell Risk enligt Basel IIfrån en praktiskt och generell synvinkel. Inledande analys stödjer användandetav Peaks-over-Threshold-metoden för modellering av distributionen för varjeenskild förlust i en given cell.    Vi implementerar och diskuterar en metod för viktning avförlustdata med urvalsfel. Metoden bygger på en modell där varjeförlusthändelse registreras om och endast om förlusten överstiger ett utfallfrån en stokastisk tröskelvariabel. Metoden visas vara mycket användbar, menmedför flertalet utmaningar som kräver resonemang av kvalitativ art.   De mest kända estimatorerna av både extremvärdeströskeln ochparametrarna i den Generaliserade Pareto Distributionen granskas och studerasutifrån ett teoretiskt perspektiv. Vi introducerar även en GPD-estimator somanvänder ett momentbaserat estimat av formparametern, medan skalparameternskattas genom att anpassa en specifik hög kvantil till empirisk data. Allaestimatorer appliceras sedan på tillgänglig data och utvärderas med avseende påbåde robusthet och anpassning till data.    Vi går vidare igenom en analytisk approximation av det regulativakapitalestimatet för varje cell och applicerar denna på vår modell.Approximationens giltighet utvärderas sedan genom jämförelser med motsvarandeMonte-Carlo-estimat. Detta leder oss även in på studier av hur konvergensen avMonte-Carlo-estimaten beror på hur tungsvansad distributionen för varje enskildförlust är.   En standardmodell för korrelation emellan celler diskuteras, ochexplicita uttryck som begränsar modellens egentliga korrelation mellanaggregerade förlustdistributioner presentas. Dessa begränsningar skattas sedannumeriskt med hjälp av data.
376

Pricing of a “worst of” option using a Copula method

Malgrat, Maxime January 2013 (has links)
In this thesis, we use a Copula Method in order to price basket options and especially “worst of” options. The dependence structure of the underlying assets will be modeled using different families of copulas. The copulas parameters are estimated via the Maximum Likelihood Method from a sample of observed daily returns. The Monte Carlo method will be revisited when it comes to generate underlying assets daily returns from the fitted copula. Two baskets are priced: one composed of two correlated assets and one composed of two uncorrelated assets. The obtained prices are then compared with the price obtained using the Pricing Partners software
377

Evaluating Regime Switching in Dynamic Conditional Correlation / En utvärdering av regimskiftning i den dynamiska korrelationsmodellen DCC

Stenberg, Kristoffer, Wikerman, Henrik January 2013 (has links)
This paper provides a comparative study of the Dynamic Conditional Correlation model introduced by Engle (2002) and the Independent Switching Dynamic Conditional Correlation model introduced by Lee (2010) by evaluating the models for a set of known correlation processes. The evaluation is also extended to cover empirical data to assess the practical performance of the models. The data include the price of gold and oil, the yield on benchmark 10 year U.S. Treasury notes and the Euro-U.S. dollar exchange rate from January 2007 to December 2009. In addition, a general description of the difficulties of estimating correlations is presented to give the reader a better understanding of the limitations of the models. From the results, it is concluded that there is no general superiority of neither the IS-DCC model nor the DCC model, except for very short-lived correlation shifts. For short-lived shifts, the IS-DCC model outperforms in both detecting and measuring correlations. However, this paper recommends that these models are used in combination with a qualitative study in empirical situations to better understand the underlying correlation dynamics. / Denna rapport innehåller en jämförande studie av den dynamiska korrelationsmodellen DCC som presenterades av Engle (2002) och den regimskiftande dynamiska korrelationsmodellen IS-DCC vilken presenterades av Lee (2010). Studien är uförd genom att jämföra modellerna för en uppsättning kända korrelationsprocesser samt för empiriska data. Den empiriska datan inkluderar priset på guld och olja , referensavkastningen på amerikanska statsobligationer med 10 årig löptid samt valutakursen mellan Euro och den amerikanska dollarn under perioden januari 2007 till december 2009. Utöver jämförelsen ges även en allmän beskrivning av svårigheterna med att uppskatta korrelation för att ge läsaren en utökad förståelse av modellernas begränsningar. Resultaten visar att varken DCC eller IS-DCC modellen är bättre än den andra förutom vid snabba korrlationsskiften. För snabba korrelationsskiften visar sig IS-DCC modellen bättre både vad gäller att flagga för dessa skiften som att uppskatta korrelationen. Slutligen rekommenderas ändå att båda dessa modeller används i kombination med en kvalitativ studie i praktiska situationer för att ge en omfattande förståelse av tidsvarierande korrelationsdynamik.
378

Hedonic House Price Index

Säterbrink, Filip January 2013 (has links)
Nasdaq OMX Valueguard-KTH Housing Index (HOX) is a hedonic price index that illustrates the price development of condominiums in Sweden, and that is obtained by using regression technique. Concerns have been raised regarding the influence of the monthly fee on the index. Low fee condominiums could be more popular because of the low monthly cost, high fee condominiums tend to sell for a lower price due to the high monthly cost. As the price of a condominium rises the importance of the monthly fee decreases. Because of this the monthly fee might affect the regression that produces the index. Furthermore,housing cooperatives are usually indebted. These loans are paid off by the monthly fee which can be considered to finance a debt that few are aware of. This issue has been investigated by iteratively estimating the importance of the level of debt in order to find a model that better takes into account the possible impact of the monthly fee on the price development. Due to a somewhat simplified model that produces index values with many cases of high standard deviation, no conclusive evidence has been found that confirms the initial hypothesis. Nevertheless, converting part of the monthly fee into debt has shown a general improvement of fitting a regression equation to the data. It is therefore recommended that real data on debt in housing cooperatives be tested in Valuegua
379

Missing Data in Value-at-Risk Analysis : Conditional Imputation in Optimal Portfolios Using Regression

Andersson, Joacim, Falk, Henrik January 2013 (has links)
A regression-based method is presented in order toregenerate missing data points in stock return time series. The method usesonly complete time series of assets in optimal portfolios, in which the returnsof the underlying tend to correlate inadequately with each other. The studyshows that the method is able to replicate empirical VaR-backtesting resultswhere all data are available, even when up to 90% of the time series in half ofthe assets in the portfolios have been removed.
380

Non-local means denoising ofprojection images in cone beamcomputed tomography

Dacke, Fredrik January 2013 (has links)
A new edge preserving denoising method is used to increase image quality in cone beam computed tomography. The reconstruction algorithm for cone beam computed tomography used by Elekta enhances high frequency image details, e.g. noise, and we propose that denoising is done on the projection images before reconstruction. The denoising method is shown to have a connection with computational statistics and some mathematical improvements to the method are considered. Comparisons are made with the state-of-theart method on both artificial and physical objects. The results show that the smoothness of the images is enhanced at the cost of blurring out image details. Some results show how the setting of the method parameters influence the trade off between smoothness and blurred image details in the images. / En ny kantbevarande brusreduceringsmetod används för att förbättra bildkvaliteten för digital volymtomografi med konstråle. Rekonstruktionsalgoritmen for digital volymtomografi med konstråle som används av Elekta förstärker högfrekventa bilddetaljer, t.ex. brus, och vi föreslår att brusreduceringen genomförs på projektionsbilderna innan de genomgår rekonstruktion. Den brusreducerande metoden visas ha kopplingar till datorintensiv statistik och några matematiska förbättringar av metoden gås igenom. Jämförelser görs med den bästa metoden på både artificiella och fysiska objekt. Resultaten visar att mjukheten i bilderna förbättras på bekostnad av utsmetade bilddetaljer. Vissa resultat visar hur parametersättningen för metoden påverkar avvägningen mellan mjukhet och utsmetade bilddetaljer i bilderna.

Page generated in 0.0484 seconds