• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1373
  • 380
  • 379
  • 77
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 2521
  • 1657
  • 1214
  • 1211
  • 1199
  • 455
  • 390
  • 363
  • 341
  • 341
  • 324
  • 323
  • 318
  • 308
  • 239
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Graphical lasso for covariance structure learning in the high dimensional setting / Graphical lasso för kovariansstrukturs inlärning i högdimensionell miljö

Fransson, Viktor January 2015 (has links)
This thesis considers the estimation of undirected Gaussian graphical models especially in the high dimensional setting where the true observations are assumed to be non-Gaussian distributed. The first aim is to present and compare the performances of existing Gaussian graphical model estimation methods. Furthermore since the models rely heavily on the normality assumption, various methods for relaxing the normal assumption are presented. In addition to the existing methods, a modified version of the joint graphical lasso method is introduced which monetizes on the strengths of the community Bayes method. The community Bayes method is used to partition the features (or variables) of datasets consisting of several classes into several communities which are estimated to be mutually independent within each class which allows the calculations when performing the joint graphical lasso method, to be split into several smaller parts. The method is also inspired by the cluster graphical lasso and is applicable to both Gaussian and non-Gaussian data, assuming that the normal assumption is relaxed. Results show that the introduced cluster joint graphical lasso method outperforms com-peting methods, producing graphical models which are easier to comprehend due to the added information obtained from the clustering step of the method. The cluster joint graphical lasso is applied to a real dataset consisting of p = 12582 features which resulted in computation gain of a factor 35 when comparing to the competing method which is very significant when analysing large datasets. The method also allows for parallelization where computations can be spread across several computers greatly increasing the computational efficiency. / Denna rapport behandlar uppskattningen av oriktade Gaussiska grafiska modeller speciellt i högdimensionell miljö där dom verkliga observationerna antas vara icke-Gaussiska fördelade. Det första målet är att presentera och jämföra prestandan av befintliga metoder för uppskattning av Gaussiska grafiska modeller. Eftersom modellerna är starkt beroende av normalantagandet, så kommer flertalet metoder för att relaxa normalantagandet att presenteras. Utöver dom befintliga metoderna, kommer en modifierad version av joint graphical lasso att introduceras som bygger på styrkan av community Bayes metod. Community Bayes metod används för att partitionera variabler från datamängder som består av flera klasser i flera samhällen (eller communities) som antas vara oberoende av varandra i varje klass. Detta innebär att beräkningarna av joint graphical lasso kan delas upp i flera mindre problem. Metoden är också inspirerad av cluster graphical lasso och applicerbar för både Gaussisk och icke-gaussisk data, förutsatt att det normala antagandet är relaxed. Resultaten visar att den introducerade cluster joint graphical lasso metoden utklassar konkurrerande metoder, som producerar grafiska modeller som är lättare att förstå på grund av den extra information som erhålls från klustringssteget av metoden. Joint graphical lasso appliceras även på en verklig datauppsättning bestående av p = 12582 variabler som resulterade i minskad beräkningstid av en faktor 35 vid jämförelse av konkurrerande metoder. Detta är mycket betydande när man analyserar stora datamängder. Metoden möjliggör också parallellisering där beräkningar kan spridas över flera datorer vilket ytterligare kraftigt ökar beräkningseffektiviteten.
362

Hedging Interest Rate Swaps / Hedgningstrategier av ränteswappar

Jangenstål, Lovisa January 2015 (has links)
This thesis investigates hedging strategies for a book of interest rate swaps of the currencies EUR and SEK. The aim is to minimize the variance of the portfolio and keep the transaction costs down. The analysis is performed using historical simulation for two different cases. First, with the real changes of the forward rate curve and the discount curve. Then, with principal component analysis to reduce the dimension of the changes in the curves. These methods are compared with a method using the principal component variance to randomize new principal components. / Den här uppsatsen undersöker hedgingstrategier för en portfölj bestående av ränteswapar i valutorna EUR och SEK. Syftet är att minimera portföljens varians och samtidigt minimera transaktionskostnaderna. Analysen genomförs med historisk simulering för två olika fall. Först med de verkliga förändringarna i forward- och diskonteringskurvorna. Sedan med hjälp av principalkomponentanalys för att reducera dimensionen av förändringarna i kurvorna. Dessa metoder jämförs med en metod som använder principalkomponenternas varians för att slumpa ut nya principalkomponenter.
363

Deep learning for multivariate financial time series / Deep Learning för finansiella tidsserier

Batres-Estrada, Bilberto January 2015 (has links)
Deep learning is a framework for training and modelling neural networks which recently have surpassed all conventional methods in many learning tasks, prominently image and voice recognition. This thesis uses deep learning algorithms to forecast financial data. The deep learning framework is used to train a neural network. The deep neural network is a Deep Belief Network (DBN) coupled to a Multilayer Perceptron (MLP). It is used to choose stocks to form portfolios. The portfolios have better returns than the median of the stocks forming the list. The stocks forming the S&P 500 are included in the study. The results obtained from the deep neural network are compared to benchmarks from a logistic regression network, a multilayer perceptron and a naive benchmark. The results obtained from the deep neural network are better and more stable than the benchmarks. The findings support that deep learning methods will find their way in finance due to their reliability and good performance.
364

Predicting data traffic in cellular data networks / Prediktion av datatrafik i mobila nätverk

Jägerhult Fjelberg, Marianne January 2015 (has links)
The exponential increase in cellular data usage in recent time is evident, which introduces challenges and opportunities for the telecom industry. From a Radio Resource Management perspective, it is therefore most valuable to be able to predict future events such as user load. The objective of this thesis is thus to investigate whether one can predict such future events based on information available in a base station. This is done by clustering data obtained from a simulated 4G network using Gaussian Mixture Models. Based on this, an evaluation based on the cluster signatures is performed, where heavy-load users seem to be identified. Furthermore, other evaluations on other temporal aspects tied to the clusters and cluster transitions is performed. Secondly, supervised classification using Random Forest is performed, in order to investigate whether prediction of these cluster labels is possible. High accuracies for most of these classifications are obtained, suggesting that prediction based on these methods can be made.
365

Estimating the Term Structure of Default Probabilities for Heterogeneous Credit Porfolios / Estimering av terminstrukturen för konkurssannolikheter i heterogena kreditportföljer

Bogren, Felix January 2015 (has links)
The aim of this thesis is to estimate the term structure of default probabilities for heterogeneous credit portfolios. The term structure is defined as the cumulative distribution function (CDF) of the time until default. Since the CDF is the complement of the survival function, survival analysis is applied to estimate the term structures. To manage long-term survivors and plateaued survival functions, the data is assumed to follow a parametric as well as a semi-parametric mixture cure model. Due to the general intractability of the maximum likelihood of mixture models, the parameters are estimated by the EM algorithm. A simulation study is conducted to assess the accuracy of the EM algorithm applied to the parametric mixture cure model with data characterized by a low default incidence. The simulation study recognizes difficulties in estimating the parameters when the data is not gathered over a sufficiently long observational window. The estimated term structures are compared to empirical term structures, determined by the Kaplan-Meier estimator. The results indicated a good fit of the model for longer horizons when applied to each credit type separately, despite difficulties capturing the dynamics of the term structure for the first one to two years. Both models performed poorly with few defaults. The parametric model did however not seem sensitive to low default rates. In conclusion, the class of mixture cure models are indeed viable for estimating the term structure of default probabilities for heterogeneous credit portfolios. / Syftet med den här uppsatsen är att estimera terminstrukturen för konkurssannolikheter i heterogena kreditportföljer. Terminstrukturen definieras som den kumulativa fördelningsfunktionen för tiden till konkurs. Eftersom den kumulativa fördelningsfunktionen är komplementet till överlevnadsfunktionen kan överlevnadsanalys appliceras för att estimera terminstrukturen.  För att hantera långtidsöverlevare samt överlevnadsfunktioner som planar ut vid nivåer över noll, antar vi att observationerna kommer från en parametrisk såväl som en semiparametrisk mixture cure model. På grund av numeriska svårigheter att hantera maximum likelihood-funktionen för mixture modeller, så skattas parametrarna med hjälp av EM algoritmen. En simulationsstudie genomfördes för att undersöka precisionen av EM algoritmen applicerad på parametriska specifikationen av modellen, med data bestående av få antal konkurser. Simulationsstudien påvisade svårigheter att estimera parametrarna när urvalet inte tagits från en tillräckligt lång tidsperiod. En jämförelse görs med de empiriska terminstrukturerna, framtagna med Kaplan-Meier's skattning av överlevnadsfunktioner. Resultaten påvisar en bra anpassning när modellen appliceras på varje kredittyp separat, trots svårigheter att fånga dynamiken de av terminstrukturen under
366

Operational Risk Modeling: Addressing the Reporting Threshold Problem / Operativa risker: belysning av tröskel problem i rapportering

Halberg, Oscar, Wärmlös Helmrich, Mattias January 2015 (has links)
External loss data are typically left truncated at a reporting threshold. Ignoring this truncation level leads to biased capital charge estimations. This thesis addresses the challenges of recreating the truncated part of the distribution. By predicting the continuation of a probability density function, the unobserved body of an external operational risk loss distribution is estimated. The prediction is based on internally collected losses and the tail of the external loss distribution. Using a semiparametric approach to generate sets of internal losses and applying the Best Linear Unbiased Predictor, results in an enriched external dataset that shares resemblance with the internal dataset. By avoiding any parametrical assumptions, this study proposes a new and unique way to address the reporting threshold problem. Financial institutions will benefit from these findings as it permits the use of the semiparametric approach developed by Bolancé et al. (2012) and thereby eliminates the well known difficulty with determining the breaking point beyond which the tail domain is defined when using the Loss Distribution Approach. The main conclusion from this thesis is that predicting the continuation of a function using the Best Linear Unbiased Predictor can be successfully applied in an operational risk setting. This thesis has predicted the continuation of a probability density function, resulting in a full external loss distribution.
367

Statistical analysis of online linguistic sentiment measures with financial applications / Statistisk analys av språkliga sentimentmått

Osika, Anton January 2015 (has links)
Gavagai is a company that uses different methods to aggregate senti-ment towards specific topics from a large stream of real time published documents. Gavagai wants to find a procedure to decide which way of measuring sentiment (sentiment measure) towards a topic is most useful in a given context. This work discusses what criterion are desirable for aggregating sentiment and derives and evaluates procedures to select "optimal" sentiment measures. Three novel models for selecting a set of sentiment measures that describe independent attributes of the aggregated data are evaluated. The models can be summarized as: maximizing variance of the last principal compo-nent of the data, maximizing the differential entropy of the data and, in the special case of selecting an additional sentiment measure, maximizing the unexplained variance conditional on the previous sentiment measures. When exogenous time varying data considering a topic is available, the data can be used to select the sentiment measure that best explain the data. With this goal in mind, the hypothesis that sentiment data can be used to predict financial volatility and political poll data is tested. The null hypothesis can not be rejected. A framework for aggregating sentiment measures in a mathematically co-herent way is summarized in a road map. / Företaget Gavagai använder olika mått för att i realtid uppskatta sen-timent ifrån diverse strömmar av publika dokument. Gavagai vill hitta ett en procedur som bestämmer vilka mått som passar passar bäst i en given kontext. Det här arbetet diskuterar vilka kriterium som är önskvärda för att mäta sentiment samt härleder och utvärderar procedurer för att välja öptimalasentimentmått. Tre metoder för att välja ut en grupp av mått som beskriver oberoende polariseringar i text föreslås. Dessa bygger på att: välja mått där principal-komponentsanalys uppvisar hög dimensionalitet hos måtten, välja mått som maximerar total uppskattad differentialentropi, välja ett mått som har hög villkorlig varians givet andra polariseringar. Då exogen tidsvarierande data om ett ämne finns tillgängligt kan denna data användas för att beräkna vilka sentimentmått som bäst beskriver datan. För att undersöka potentialen i att välja sentimentmått på detta sätt testas hypoteserna att publika sentimentmått kan förutspå finansiell volatilitet samt politiska opinionsundersökningar. Nollhypotesen kan ej förkastas. En sammanfattning för att på ett genomgående matematiskt koherent sätt aggregera sentiment läggs fram tillsammans med rekommendationer för framtida efterforskningar.
368

Efficient Sensitivity Analysis using Algorithmic  Differentiation in Financial Applications / Effektiv Känslighetsanalys med Algoritmisk Differentiering i Finansiella Tillämpningsområden

Lamm, Ludvig, Sunnegårdh, Erik January 2015 (has links)
One of the most essential tasks of a financial institution is to keep the financial risk the institution is facing down to an acceptable level. This risk can for example be incurred due to bought or sold financial contracts, however, it can usually be dealt with using some kind of hedging technique. Certain quantities refereed to as "the Greeks" are often used to manage risk. The Greeks are usually determined using Monte Carlo simulation in combination with a finite difference approach, this can in some cases be very demanding considering the computational cost. Because of this, alternative methods for determining the Greeks are of interest. In this report a method called Algorithmic differentiation is evaluated. As will be described, there are two different settings of Algorithmic differentiation, namely, forward and adjoint mode. The evaluation will be done by firstly introducing the theory of the method and applying it to a simple, non financial, example. Then the method is applied to three different situations often arising in financial applications. The first example covers the case where a grid of local volatilities is given and sensitivities of an option price with respect to all grid points are sought. The second example deals with the case of a basket option. Here sensitivities of the option with respect to all of the underlying assets are desired. The last example covers the case where sensitivities of a caplet with respect to all initial LIBOR rates, under the assumption of a LIBOR Market Model, are sought.  It is shown that both forward and adjoint mode produces results aligning with the ones determined using a finite difference approach. Also, it is shown that using the adjoint method, in all these three cases, large savings in computational cost can be made compared to using forward mode or finite difference. / En av de mest centrala uppgifter för en finansiell institution är att hålla sina finansiella risker på en acceptabel nivå. De risker som avses kan till exempel uppkomma på grund av köpta eller sålda finansiella kontrakt. Oftast kan dock dessa risker hanteras med hjälp av någon typ av garderingsteknik. Ett antal känslighetsmått som används för att gardera mot risk är ofta refererade till som the Greeks. Vanligtvis kan dessa beräknas genom att använda Monte Carlo-simulering i kombination med finita differensmetoden, detta kan dock bli mycket krävande med avseende på den datorkraft som behövs för beräkningarna. Därför är andra metoder för att beräkna the Greeks av intresse.  I denna rapport utvärderas en metod som kallas Algoritmisk differentiering. Som det senare beskrivs, finns det två typer av Algoritmisk differentiering, vilka kallas forward mode och adjoint mode. Utvärderingen görs genom att först introducera teorin bakom metoden och sedan appliceras den på ett lättare, icke finansiellt, exempel. Därefter appliceras metoden på tre tillämpningsområden inom finansindustrin. Det första exemplet beskriver ett fall där ett rutnät av volatiliteter är givet och känsligheter av ett optionspris med avseende på alla punkter i rutnätet eftersöks. Det andra exemplet beskriver fallet av en korgoption där känsligheter med avseende på alla underliggande aktier för optionen eftersöks. I det sista exemplet beskrivs ett fall där känsligheter av en ränteoption med avseende på alla initiala LIBOR-räntor eftersöks, här görs antagandet om en LIBOR Marknadsmodell.  Det visas att både forward mode och adjoint mode producerar resultat som är i linje med de värden som bestäms med hjälp av finita differensmetoden. Det visas även att användning av adjoint mode, i alla tre finansiella exempel, kan reducera den datorkraft som behövs i jämförelse med forward mode och finita differensmetoden.
369

A PIT - Based approach to Validation of Electricity Spot Price Models / En PIT-baserad metod för validering av elprisprismodeller

Engsner, Hampus January 2015 (has links)
The modeling of electricity spot prices is still in its early stages, with various different competing models being proposed by different researchers. This makes model evaluation and comparison research an important area, for practitioners and researchers alike. However, there is a distinct lack in the literature of consensus regarding model evaluation tools to assess model validity, with different researchers using different methods of varying suitability as validation methods. In this thesis the current landscape of electricity spot price models and how they are currently evaluated is mapped out. Then, as the main contribution this research aims to make, a general and flexible framework for model validation is proposed, based on the Probability Integral Transform (PIT). The probability integral transform, which can be seen as a generalization of analyzing residuals in simple time series and regression models, transforms the realizations of a time series into independent and identically distributed U(0,1) variables using the conditional distributions of the time series. Testing model validity is with this method reduced to testing if the PIT values are independent and identically distributed U(0,1) variables. The thesis is concluded by testing spot price models of varying validity according to previous research using this framework against actual spot price data. These empirical tests suggest that PIT-based model testing does indeed point us toward the more suitable models, with especially unsuitable models being rejected by a large margin. / Modelleringen av spotpriser på el är fortfarande i ett tidigt stadium, med många olika modeller som förespråkas av olika forskare. Detta innebär att forskning som fokuserar på modellutvärdering och jämförelse är viktig både för berörda parter i näringslivet och forskare inom detta område. Det finns dock en klar brist på konsensusmetoder att utvärdera modellers validitet, då olika forskare förespråkar olika metoder av varierande lämplighet som valideringsverktyg. I den här uppsatsen kartläggs det nuvarande landskapet av spotprismodeller och de metoder som används för att utvärdera dem. Sedan, som det huvudsakliga forskningsbidraget av detta arbete, presenteras ett generellt och flexibelt valideringsramverk som baseras på vad som kallas ”Probability Integral Transform” (PIT). PIT, vilken kan ses som en generalisering av att undersöka residualer i enkla tidsserie- och regressionsmodeller, transformerar utfallet av en tidsserie till oberoende och identiskt fördelade U(0,1) variabler med hjälp av tidsseriens betingade fördelningar. Att testa modellens validitet reduceras med denna metod till att testa om PIT – värdena är oberoende och identiskt fördelade U(0,1) variabler. Uppsatsen avslutas med tester av spotprismodeller av varierande validitet enligt litteraturen med hjälp av detta ramverk mot faktiskt spotprisdata. De empiriska testerna antyder att PIT – baserad modellvalidering faktiskt stämmer överrens med modellers validitet baserat på nuvarande konsensus, där särskilt opassande modeller förkastas med stora marginaler.
370

Smart Beta Investering Baserad på Makroekonomiska Indikatorer / Smart Beta Investment Based on Macroeconomic Indicators

Andersson, Alexandra January 2015 (has links)
This thesis examines the possibility to find a relationship between the Nasdaq Nordea Smart Beta Indices and a series of macroeconomic indicators. This relationship will be used as a signal-value and implemented in a portfolio consisting of all six smart beta indices. To investigate the impact of the signal-value on the portfolio performance, three portfolio strategies are examined with the equally weighted portfolio as a benchmark. The portfolio weights will be re-evaluated monthly and the portfolios examined are the mean-variance portfolio, the mean-variance portfolio based on the signal-value and the equally weighted portfolio based on the signal-value. In order to forecast the performance of the portfolio, a multivariate GARCH model with time-varying correlations is fitted to the data and three different error-distributions are considered. The performances of the portfolios are studied both in- and out-of-sample and the analysis is based on the Sharpe ratio. The results indicate that a mean-variance portfolio based on the relationship with the macroeconomic indicators outperforms the other portfolios for the in-sample period, with respect to the Sharpe ratio. In the out-of-sample period however, none of the portfolio strategies has Sharpe ratios that are statistically different from that of an equally weighted portfolio. / Den här uppsatsen undersöker möjligheten att hitta ett förhållande mellan Nasdaq Nordeas Smart Beta Index och en serie av makroekonomiska indikatorer. Detta förhållande kommer att implementeras som ett signalvärde i en portfölj bestående av alla sex index. För att se vilken påverkan signalvärdet har på en portföljs prestanda så undersöks tre portföljstrategier där den likaviktade portföljen används som riktmärke. Portföljerna ska omviktas varje månad och de portföljer som undersöks är mean-variance portföljen baserad på förhållandet med makroindikatorerna samt utan och den likaviktade portföljen baserad på förhållandet med makroindikatorerna. För att kunna göra en prognos av portföljens prestanda anpassas en multivariat GARCH modell med tidsvarierande korrelationer till denna data. Tre stycken felfördelningar övervägs för modellen. Portföljens prestanda mäts både för prognosen samt för tiden med känd data och analysen är baserad på portföljernas Sharpe ratio. Resultaten visar på att den portfölj som presterar bäst i tiden med känd data är meanvariance portföljen baserad på makroindikatorerna. I tiden för prognosen så är ingen port- följs Sharpe ratio statistiskt skild från den av den likaviktade portföljen.

Page generated in 0.0779 seconds