• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1373
  • 379
  • 377
  • 77
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 2518
  • 1657
  • 1214
  • 1211
  • 1199
  • 452
  • 387
  • 363
  • 338
  • 338
  • 324
  • 323
  • 318
  • 308
  • 239
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Numerical Instability of Particle Learning: a case study / Numerisk instabilitet i Particle Learning: en fallstudie

Klingmann Rönnqvist, Max January 2016 (has links)
This master's thesis is about a method called Particle Learning (PL) which can be used to analyze so called hidden Markov models (HMM) or, with an alternative terminology, state-space models (SSM) which are very popular for modeling time series. The advantage of PL over more established methods is its capacity to process new datapoints with a constant demand on computational resources but it has been suspected to su er from a problem known as particle path degeneracy. The purpose with this report is to investigate the degeneracy of PL by testing it on two examples. The results suggest that the method may not work very well for long time series. / Detta examensarbete handlar om en metod som kallas Particle Learning (PL) som kan användas för att analysera dolda Markovmodeller eller hidden Markov models (HMM), vilka med en alternativ terminologi även kallas tillståndsmodeller, som är mycket populära för att modellera tidsserier. Fördelen med PL över mera etablerade metoder är dess förmåga att bearbeta nya datapunkter med konstant behov av beräkningskapacitet men den har även misstänkts lida av ett problem känt som är känt som degenerering av partikelbanorna. Syftet med denna rapport är att undersöka degenereringen av PL genom att testa den på två exempel. Resultaten tyder på att metoden inte fungerar så bra för långa tidsserier.
332

Modelling the Stochastic Correlation / Modellering av stokastisk korrelationen

Chen, Peng January 2016 (has links)
In this thesis, we mainly study the correlation between stocks. The correlation between stocks has been receiving increasing attention. Usually the correlation is considered to be a constant, although it is observed to be varying over time. In this thesis, we study the properties of correlations between Wiener processes and introduce a stochastic correlation model. Following the calibration methods by Zetocha, we implement the calibration for a new set of market data. / I det här examensarbetet fokuserar vi främst på att studera korrelation mellan aktier. Korrelationen mellan aktier har fått allt större uppmärksamhet. Vanligtvis antas korrelation vara konstant, trots att empiriska studier antyder att den är tidsvarierande. I det här examensarbetet studerar vi egenskaper hos korrelationen mellan Wienerprocesser och inför en stokastisk korrelationsmodell. Baserat på kalibreringsmetoder av Zetocha implementerar vi kalibrering för en ny uppsättning av marknadsdata.
333

Credit Risk Management in Absence of Financial and Market Data / Kreditriskhantering vid avsaknad av marknadsdata och finansiell data

Yousefi, Sepehr January 2016 (has links)
Credit risk management is a significant fragment in financial institutions' security precautions against the downside of their investments. A major quandary within the subject of credit risk is the modeling of simultaneous defaults. Globalization causes economises to be affected by innumerous external factors and companies to become interdependent, which in turn enlarges the complexity of establishing reliable mathematical models. The precarious situation is exacerbated by the fact that managers often suffer from the lack of data. The default correlations are most often calibrated by either using financial and/or market information. However, there exists circumstances where these types of data are inaccessible or unreliable. The problem of scarce data also induces diculties in the estimation of default probabilities. The frequency of insolvencies and changes in credit ratings are usually updated on an annual basis and historical information covers 20-25 years at best. From a mathematical perspective, this is considered as a small sample and standard statistical models are inferior in such situations. The first part of this thesis specifies the so-called entropy model which estimates the impact of macroeconomic fluctuations on the probability of defaults, and aims to outperform standard statistical models for small samples. The second part specifies the CIMDO, a framework for modeling correlated defaults without financial and market data. The last part submits a risk analysis framework for calculating the uncertainty in the simulated losses. It is shown that the entropy model will reduce the variance of the regression coefficients but increase its bias compared to the OLS and Maximum Likelihood. Furthermore there is a significant difference between the Student's t CIMDO and the t-Copula. The former appear to reduce the model uncertainty, however not to such extent that evident conclusions were carried out. / Kreditriskhantering är den enskilt viktigaste delen i banker och finansiella instituts säkerhetsåtgärder mot nedsidor i deras investeringar. En påtaglig svårighet inom ämnet är modelleringen av simultana konkurser. Globalisering ökar antalet parametrar som påverkar samhällsekonomin, vilket i sin tur försvårar etablering av tillförlitliga matematiska modeller. Den prekära situationen förvärras av det faktum att analytiker genomgående saknar tillräcklig data. Konkurskorrelation är allt som oftast kalibrerad med hjälp av information från årsrapporter eller marknaden. Dessvärre existerar det omständigheter där sådana typer av data är otillgängliga eller otillförlitliga. Samma problematik skapar även svårigheter i skattningen av sannolikheten till konkurs. Uppgifter såsom frekvensen av insolventa företag eller förändringar i kreditbetyg uppdateras i regel årligen, och historisk data täcker i bästa fall 20-25 år. Syftet med detta examensarbete är att ge ett övergripande ramverk för kreditriskhantering i avsaknad av finansiell information och marknadsdata. Detta innefattar att estimera vilken påverkan fluktueringar i makroekonomin har på sannolikheten för konkurs, modellera korrelerade konkurser samt sammanfatta ett ramverk för beräkning av osäkerheten i den estimerade förlustdistributionen. Den första delen av examensarbetet specificerar den så kallade entropy modellen. Denna skattar påverkan av makroekonomin på sannolikheterna för konkurs och ämnar att överträffa statistiska standardmodeller vid små datamängder. Den andra delen specificerar CIMDO, ett ramverk för beräkning av konkurskorrelation när marknads- och företagsdata saknas. Den sista delen framlägger ett ramverk för riskanalys av förlustdistributionen. Det visas att entropy modellen reducerar variansen i regressionskoefficienter men till kostnad av att försämra dess bias. Vidare är det en signifikant skillnad mellan student’s t CIMDO och t-Copula. Det förefaller som om den förstnämnda reducerar osäkerheten i beräkningarna, men inte till den grad att uppenbara slutsatser kan dras.
334

Quantifying effects of deformable CT-MR registration / Kvantifiering av effekter i deformabel MR-CT bildregistrering.

Isaksson, Fredrik January 2016 (has links)
Rigid image registration is an important part of many medical applications. In order to make correct decisions from the registration process the un-certainty of the results should be included. In this thesis a framework for estimating and visualising the spatial uncertainty of rigid image registration without groundtruth measurements is presented. The framework uses a deformable registration algorithm to estimate the errors and a groupwise registration for collocating multiple image sets to generate multiple realisations of the error field. A mean and covariance field are then generated which allows a characterisation of the error field. The framework is used to evaluate errors in CT-MR registration and a statistically significant bias field is detected using random field theory. It is also established that B-spline registration of CT images to themselves exhibit a bias. / Rigid bildregistrering är en viktig del i många medicinska system, för beslut som fattas med hjälp av bildregistrering så är det viktigt att kunna bedöma osäkerheten i registrerings processen. I denna uppsats presenteras en metod för att skatta och visualisera osäkerheten i rigid bildregistrering utan tillgång till det sanna felet. Metoden använder en deformerbar registrerings algorithm för att skatta felen och en gruppvis registrering för att samlokalisera flera bildmängder, med syfte att skapa flera utfall från fel-fördelningen. Ett medelvärdes och varians fält skapas därefter vilket tillåter en karakterisering av felet i varje punkt. Metoden används för att utvärdera felen i CT-MR registrering och ett statistiskt säkerställt systematiskt fel bekräftas med hjälp av ”random field theory”. Det etableras också att B-spline registrering genererar systematiska deformationer när en CT bild registreras till sig själv
335

Predicting High Frequency Exchange Rates using Machine Learning / Att förutsäga högfrekventa växelkurser med maskinlärning

Palikuca, Aleksandar, Seidl,, Timo January 2016 (has links)
This thesis applies a committee of Artificial Neural Networks and Support Vector Machines on high-dimensional, high-frequency EUR/USD exchange rate data in an effort to predict directional market movements on up to a 60 second prediction horizon. The study shows that combining multiple classifiers into a committee produces improved precision relative to the best individual committee members and outperforms previously reported results. A trading simulation implementing the committee classifier yields promising results and highlights the possibility of developing a profitable trading strategy based on the limit order book and historical transactions alone. / Denna uppsats tillämpar en kommitté av artificiella neuronnät och stödvektormaskiner på hög-dimensionell, högfrekvent EUR/USD växelkursdata i ett försök att förutsäga marknadsriktning på en upp till 60 sekunders tidshorisont. Studien visar att en kommitté bestående av flera klassificerare ger bättre precision än de bästa enskilda kommittémedlemmarna och överträffar tidigare rapporterade resultat. En handelssimulering där kommittén tillämpas ger lovande resultat och framhåller möjligheten att utveckla en lönsam handelsstrategi baserad på enbart limit order book och historiska transaktioner.
336

Tail Dependence Considerations for Cross-Asset Portfolios / Analys av samband mellan extremutfall för bivariata investeringsportföljer

Trost, Johanna January 2016 (has links)
Extreme events, heaviness of log return distribution tails and bivariate asymptotic dependence are important aspects of cross-asset tail risk hedging and diversification. These are in this thesis investigated with the help of threshold copulas, scalar tail dependence measures and bivariate Value-at-Risk. The theory is applied to a global equity portfolio extended with various other asset classes as proxied by different market indices. The asset class indices are shown to possess so-called stylised facts of financial asset returns such as heavy-tailedness, clustered volatility and aggregational Gaussianity. The results on tail dependence structure show on lack of strong joint tail dependence, but suitable bivariate dependence models can nonetheless be found and fitted to the data. These dependence structures are then used when concluding about tail hedging opportunities as defined by highly tail correlated long vs short positions as well as diversification benefits of lower estimated Value-at-Risk for cross-asset portfolios than univariate portfolios. / Extrema riskhändelser, avkastningsfördelningar med hög kurtosis och bivariat asymptotiskt beroende är viktiga aspekter vid mitigering och diversifiering av extremutfallsrisk inom finans. Dessa områden är i denna masteruppsats undersökta med hjälp av gränsvärdescopulas och beroende- samt riskmått för extremutfall. Teorin är applicerad på en global aktieportfölj till vilken karaktäristiska marknadsindex för regionala aktiemarknader och andra tillgångsslag lagts till. Det visas att dessa index innehar så kallade stiliserade finansiella egenskaper såsom feta svansar, högre volatilitet förekommande i kluster och en mer normalfördelad avkastningsprofil vid lägre frekventa datapunkter. Resultaten om beroendet för bivariata data vid extremutfall visar på en avsaknad av stark gemensam korrelation, men lämpliga sambandsstrukturer lyckas ändå anpassas till datan. Dessa sambandsstrukturer enligt teorin om extremvärdescopulas används för att dra slutsatser om möjligheter att mitigera och diversifiera extremutfallsrisk för bivariata investeringsportföljer genom att antingen gå lång respektive kort positivt svanskorrelerade instrument, eller genom kvantifiering av diversifieringsnytta vid extremutfall.
337

On the use of Value-at-Risk based models for the Fixed Income market as a risk measure for Central Counterparty clearing / Användningen av Value-at-Risk baserade modeller för Fixed Income marknaden som riskmått för Central Counterparty clearing

Kallur, Oskar January 2016 (has links)
In this thesis the use of VaR based models are investigated for the purpose of setting margin requirements for Fixed Income portfolios. VaR based models has become one of the standard ways for Central Counterparties to determine the margin requirements for different types of portfolios. However there are a lot of different ways to implement a VaR based model in practice, especially for Fixed Income portfolios. The models presented in this thesis are based on Filtered Historical Simulation (FHS). Furthermore a model that combines FHS with a Student’s t copula to model the correlation between instruments in a portfolio is presented. All models are backtested using historical data dating from 1998 to 2016. The FHS models seems to produce reasonably accurate VaR estimates. However there are other market related properties that must be fulfilled for a model to be used to set margin requirements. These properties are investigated and discussed. / I denna uppsats undersöks användningen av VaR baserade modeller för att sätta marginkrav för Fixed Income portföljer. VaR baserade modeller har blivit en standardmetod för Central Counterparties för att räkna ut marginkrav för olika typer av portföljer. Det finns många olika tillvägagångssätt för att räkna ut VaR i praktiken, speciellt för Fixed Income portföljer. Modellerna som presenteras i den här uppsatsen är baserade på Filterad Historisk Simulering (FHS). Dessutom presenteras en modell som kombinerar FHS med en Student’s t copula för att modellera korrelationen mellan olika instrument. Alla modeller backtestas på historisk data från 1998 till 2016. Modellerna ger rimliga VaR skattningar i backtesterna. Däremot finns det andra marknadsrelaterade egenskaper som en modell måste uppfylla för att kunna användas för att sätta margin. Dessa egenskaper undersöks och diskuteras.
338

On particle-based online smoothing and parameter inference in general hidden Markov models

Westerborn, Johan January 2015 (has links)
This thesis consists of two papers studying online inference in general hidden Markov models using sequential Monte Carlo methods. The first paper present an novel algorithm, the particle-based, rapid incremental smoother (PaRIS), aimed at efficiently perform online approximation of smoothed expectations of additive state functionals in general hidden Markov models. The algorithm has, under weak assumptions, linear computational complexity and very limited memory requirements. The algorithm is also furnished with a number of convergence results, including a central limit theorem. The second paper focuses on the problem of online estimation of parameters in a general hidden Markov model. The algorithm is based on a forward implementation of the classical expectation-maximization algorithm. The algorithm uses the PaRIS algorithm to achieve an efficient algorithm. / Denna avhandling består av två artiklar som behandlar inferens i dolda Markovkedjor med generellt tillståndsrum via sekventiella Monte Carlo-metoder. Den första artikeln presenterar en ny algoritm, PaRIS, med målet att effektivt beräkna partikelbaserade online-skattningar av utjämnade väntevärden av additiva tillståndsfunktionaler. Algoritmen har, under svaga villkor, en beräkningkomplexitet som växer endast linjärt med antalet partiklar samt h\ögst begränsade minneskrav. Dessutom härleds ett antal konvergensresultat för denna algoritm, såsom en central gränsvärdessats. Den andra artikeln fokuserar på online-estimering av modellparametrar i en generella dolda Markovkedjor. Den presenterade algoritmen kan ses som en kombination av PaRIS och en nyligen föreslagen online-implementation av den klassiska EM-algoritmen. / <p>QC 20150521</p>
339

Stochastic modelling in disability insurance

Löfdahl, Björn January 2013 (has links)
This thesis consists of two papers related to the stochastic modellingof disability insurance. In the first paper, we propose a stochastic semi-Markovian framework for disability modelling in a multi-period discrete-time setting. The logistic transforms of disability inception and recovery probabilities are modelled by means of stochastic risk factors and basis functions, using counting processes and generalized linear models. The model for disability inception also takes IBNR claims into consideration. We fit various versions of the models into Swedish disability claims data. In the second paper, we consider a large, homogeneous portfolio oflife or disability annuity policies. The policies are assumed to be independent conditional on an external stochastic process representing the economic environment. Using a conditional law of large numbers, we establish the connection between risk aggregation and claims reserving for large portfolios. Further, we derive a partial differential equation for moments of present values. Moreover, we show how statistical multi-factor intensity models can be approximated by one-factor models, which allows for solving the PDEs very efficiently. Finally, we givea numerical example where moments of present values of disabilityannuities are computed using finite difference methods. / <p>QC 20131204</p>
340

Large deviations for weighted empirical measures and processes arising in importance sampling

Nyquist, Pierre January 2013 (has links)
This thesis consists of two papers related to large deviation results associated with importance sampling algorithms. As the need for efficient computational methods increases, so does the need for theoretical analysis of simulation algorithms. This thesis is mainly concerned with algorithms using importance sampling. Both papers make theoretical contributions to the development of a new approach for analyzing efficiency of importance sampling algorithms by means of large deviation theory. In the first paper of the thesis, the efficiency of an importance sampling algorithm is studied using a large deviation result for the sequence of weighted empirical measures that represent the output of the algorithm. The main result is stated in terms of the Laplace principle for the weighted empirical measure arising in importance sampling and it can be viewed as a weighted version of Sanov's theorem. This result is used to quantify the performance of an importance sampling algorithm over a collection of subsets of a given target set as well as quantile estimates. The method of proof is the weak convergence approach to large deviations developed by Dupuis and Ellis. The second paper studies moderate deviations of the empirical process analogue of the weighted empirical measure arising in importance sampling. Using moderate deviation results for empirical processes the moderate deviation principle is proved for weighted empirical processes that arise in importance sampling. This result can be thought of as the empirical process analogue of the main result of the first paper and the proof is established using standard techniques for empirical processes and Banach space valued random variables. The moderate deviation principle for the importance sampling estimator of the tail of a distribution follows as a corollary. From this, moderate deviation results are established for importance sampling estimators of two risk measures: The quantile process and Expected Shortfall. The results are proved using a delta method for large deviations established by Gao and Zhao (2011) together with more classical results from the theory of large deviations. The thesis begins with an informal discussion of stochastic simulation, in particular importance sampling, followed by short mathematical introductions to large deviations and importance sampling. / <p>QC 20130205</p>

Page generated in 0.0688 seconds