• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1011
  • 190
  • 1
  • Tagged with
  • 1202
  • 1202
  • 1201
  • 1199
  • 1199
  • 181
  • 165
  • 142
  • 115
  • 110
  • 110
  • 89
  • 88
  • 79
  • 79
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Prediktering av VD-löner i svenska onoterade aktiebolag / Prediction of CEO salaries in Swedish unlisted companies

Edberg, Erik January 2015 (has links)
Lönen till den verkställande direktören bestäms i motsats till kollektivarbetares individuellt och oberoende av kollektivavtal. Lönen bestäms av företagets styrelse och utgår utifrån en uppskattad värdering av bland annat komplexiteten i arbetet, VD:ns personliga egenskaper, marknadens värdering av liknande uppdrag och tillgången på tänkbara kandidater. Uppsatsens syfte är att konstruera en modell för att prediktera marknadslönen för en befintlig eller blivande VD. Vidare studeras utformningen av ersättningsstrukturen i syfte att finna den ersättningsstruktur som maximerar VD:ns prestation. Ur studien framgår att det är möjligt att prediktera VD-lönen för anställda VD:ar i onoterade aktiebolag med 64% förklaringsgrad. Variationen i VD-lönen förklaras av sex oberoende variabler, fyra variabler som representerar uppdragets karaktär och två variabler som är prestationsrelaterade. Högst förklaringsgrad ger variabeln Omsättning, vilken förklarar knappt 40% av variationen i VD-lönen. Av studien framgår att den optimala ersättningsstrukturen ser olika ut för olika företag. Vidare ges rekommendationer för vad den rörliga ersättningen bör baseras på i syfte att maximera VD:ns prestation. / The CEO’s remuneration is in contradiction to the union labours, set individually and independent from union agreements. The company board determines the remuneration. It’s based on an estimated valuation of variables such as job characteristics, personal qualities of the CEO, market valuation of similar tasks and the availability of possible candidates. The purpose of this thesis is to create a model to predict the market remuneration for a current or forthcoming CEO. Further, the compensation structure will be examined, aiming to find the compensation structure that maximizes the CEO’s performance. This thesis showes that it is possible to predict the CEO remuneration for employed CEOs in unlisted corporations with 64-percentage explanation rate. The variance is explained by six covariates, four covariates representing job characteristics and two related to company performance. The highest explanation rate is given by the covariate turnover, which explains just below 40-percentage of the remuneration variance. This study shows that the optimal compensation structure is different for different companies. Further, recommendations for what the variable remuneration should be based on, in order to maximize the CEO’s performance.
232

Predicting Bankruptcy with Machine Learning Models

Åkerblom, Thea January 2022 (has links)
This thesis explores the predictive power of different machine learning algorithms in Swedish firm defaults. Both firm-specific variables and macroeconomic variables are used to calculate the estimated probabilities of firm default. Four different algorithms are used to predict default; Random Forest, Adaboost, Feed Forward Neural Network and Long Short Term Memory Neural Network (LSTM). These models are compared to a classical Logistic Classification model that acts as a benchmark model. The data used is a panel data set of quarterly observations. The study is done on data for the period 2000 to 2018. To evaluate the models Precision and Recall are calculated and compared between the models. The LSTM model performs the best of all five fitted models and correctly classifies 60 % of all defaults in the test data. The data is supplied by the Riksbank, the Swedish central bank. It consists of two data sets, one from Upplysningscentralen AB with firm specific variables, and one from the Riksbank with the macroeconomic variables. Keywords: LTSM, Neural Network, Adaboost, Random Forest, Machine Learning, Default, Panel Data, Longitudinal Data, Risk, Prediction, Precision, Recall
233

Furstenberg's conjecture and measure rigidity for some classes of non-abelian affine actions on tori / Furstenbergs förmodan och måttrigiditet för några klasser av icke-abelska affina verkningar på torusar

Zickert, Gustav January 2015 (has links)
In 1967 Furstenberg proved that the set {2n3mα(mod 1) | n, m ∈N} is dense in the circle for any irrational α. He also made the following famous measure rigidity conjecture: the only ergodic measures on the circle invariant under both x —> 2x and x —> 3x are the Lebesgue measure and measures supported on a finite set. In this thesis we discuss both Furstenberg’s theorem and his conjecture, as well as the partial solution of the latter given by Rudolph. Following Matheus’presentation of Avila’s ideas for a proof of a weak version of Rudolph’s theorem, we prove a result on extending measure preservation from a semigroup action to a larger semigroup action. Using this result we obtain restrictions on the set of invariant measures for certain classes of non-abelian affine actions on tori. We also study some general properties of affine abelian and non-abelian actions and we show that analogues of Furstenberg’s theorem hold for affine actions on the circle. / 1967 bevisade Furstenberg att mängden {2n3mα(mod 1) | n, m ∈N} är tät i cirkeln för alla irrationella tal α. Furstenberg ligger även bakom följande berömda förmodan: de enda ergodiska måtten påcirkeln som är invarianta under både x 􏰀—> 2x och x 􏰀—> 3x är Lebesguemåttet och mått med ändligt stöd. I det här examensarbetet behandlar vi Furstenbergs sats, Furstenbergs förmodan och Rudolphs sats. Vi följer Matheus presentation av Avilas idéer för ett bevis av en svag variant av Rudolphs sats och vi bevisar att en måttbevarande semigruppverkan under vissa antaganden kan utökas till en semigruppverkan av en större semigrupp. Med hjälp av detta resultat erhåller vi begränsningar av mängden av mått invarianta under vissa klasser av icke-abelska affina verkningar påtorusen. Vi studerar även allmänna egenskaper hos affina abelska och icke-abelska verkningar och vi visar att satser analoga med Furstenbergs sats håller för affina verkningar påcirkeln.
234

Spectral Data Processing for Steel Industry / Spektral databehandling för stålindustrin

Bisot, Clémence January 2015 (has links)
For steel industry, knowing and understanding characteristics of a steel strip surface at every steps of the production process is a key element to control final product quality. Today as the quality requirements increase this task gets more and more important. The surface of new steel grades with complex chemical compositions has behaviors especially hard to master. For those grades in particular, surface control is critical and difficult. One of the promising technics to assess the problem of surface quality control is spectra analysis. Over the last few years, ArcelorMittal, world’s leading integrated steel and mining company, has led several projects to investigate the possibility of using devices to measure light spectrum of their product at different stage of the production. The large amount of data generated by these devices makes it absolutely necessary to develop efficient data treatment pipelines to get meaningful information out of the recorded spectra. In this thesis, we developed mathematical models and statistical tools to treat signal measured with spectrometers in the framework of different research projects. / För stålindustrin, att veta och förstå ytegenskaperna på ett stålband vid varje steg i produktionsprocessen är en nyckelfaktor för att styra slutproduktens kvalitet. Den senaste tidens ökande kvalitetskraven har gjort denna uppgift allt mer viktigare. Ytan på nya stål kvaliteter med komplexa kemiska sammansättningar har egenskaper som är särskilt svårt att hantera. För dess kvaliteter är ytkontroll kritisk och svår. En av de tekniker som används för att kontrollera ytans kvalitet är spektrum analys. Arcelor Mittal, världens ledande integrerade stål- och gruvföretag, har under de senaste åren lett flera projekt för att undersöka möjligheten att använda mätinstrument för att mäta spektrum ljuset från sin produkt i olika stadier av produktionen. En av de tekniker som används för att kontrollera ytans kvalitet är spektrum analys. I denna avhandling har vi utvecklat matematiska modeller och statistiska verktyg för att kunna hanskas med signaler som är uppmätt med spektrometrar inom ramen av olika forskningsprojekt hos Arcelor Mittal.
235

Graphical lasso for covariance structure learning in the high dimensional setting / Graphical lasso för kovariansstrukturs inlärning i högdimensionell miljö

Fransson, Viktor January 2015 (has links)
This thesis considers the estimation of undirected Gaussian graphical models especially in the high dimensional setting where the true observations are assumed to be non-Gaussian distributed. The first aim is to present and compare the performances of existing Gaussian graphical model estimation methods. Furthermore since the models rely heavily on the normality assumption, various methods for relaxing the normal assumption are presented. In addition to the existing methods, a modified version of the joint graphical lasso method is introduced which monetizes on the strengths of the community Bayes method. The community Bayes method is used to partition the features (or variables) of datasets consisting of several classes into several communities which are estimated to be mutually independent within each class which allows the calculations when performing the joint graphical lasso method, to be split into several smaller parts. The method is also inspired by the cluster graphical lasso and is applicable to both Gaussian and non-Gaussian data, assuming that the normal assumption is relaxed. Results show that the introduced cluster joint graphical lasso method outperforms com-peting methods, producing graphical models which are easier to comprehend due to the added information obtained from the clustering step of the method. The cluster joint graphical lasso is applied to a real dataset consisting of p = 12582 features which resulted in computation gain of a factor 35 when comparing to the competing method which is very significant when analysing large datasets. The method also allows for parallelization where computations can be spread across several computers greatly increasing the computational efficiency. / Denna rapport behandlar uppskattningen av oriktade Gaussiska grafiska modeller speciellt i högdimensionell miljö där dom verkliga observationerna antas vara icke-Gaussiska fördelade. Det första målet är att presentera och jämföra prestandan av befintliga metoder för uppskattning av Gaussiska grafiska modeller. Eftersom modellerna är starkt beroende av normalantagandet, så kommer flertalet metoder för att relaxa normalantagandet att presenteras. Utöver dom befintliga metoderna, kommer en modifierad version av joint graphical lasso att introduceras som bygger på styrkan av community Bayes metod. Community Bayes metod används för att partitionera variabler från datamängder som består av flera klasser i flera samhällen (eller communities) som antas vara oberoende av varandra i varje klass. Detta innebär att beräkningarna av joint graphical lasso kan delas upp i flera mindre problem. Metoden är också inspirerad av cluster graphical lasso och applicerbar för både Gaussisk och icke-gaussisk data, förutsatt att det normala antagandet är relaxed. Resultaten visar att den introducerade cluster joint graphical lasso metoden utklassar konkurrerande metoder, som producerar grafiska modeller som är lättare att förstå på grund av den extra information som erhålls från klustringssteget av metoden. Joint graphical lasso appliceras även på en verklig datauppsättning bestående av p = 12582 variabler som resulterade i minskad beräkningstid av en faktor 35 vid jämförelse av konkurrerande metoder. Detta är mycket betydande när man analyserar stora datamängder. Metoden möjliggör också parallellisering där beräkningar kan spridas över flera datorer vilket ytterligare kraftigt ökar beräkningseffektiviteten.
236

Hedging Interest Rate Swaps / Hedgningstrategier av ränteswappar

Jangenstål, Lovisa January 2015 (has links)
This thesis investigates hedging strategies for a book of interest rate swaps of the currencies EUR and SEK. The aim is to minimize the variance of the portfolio and keep the transaction costs down. The analysis is performed using historical simulation for two different cases. First, with the real changes of the forward rate curve and the discount curve. Then, with principal component analysis to reduce the dimension of the changes in the curves. These methods are compared with a method using the principal component variance to randomize new principal components. / Den här uppsatsen undersöker hedgingstrategier för en portfölj bestående av ränteswapar i valutorna EUR och SEK. Syftet är att minimera portföljens varians och samtidigt minimera transaktionskostnaderna. Analysen genomförs med historisk simulering för två olika fall. Först med de verkliga förändringarna i forward- och diskonteringskurvorna. Sedan med hjälp av principalkomponentanalys för att reducera dimensionen av förändringarna i kurvorna. Dessa metoder jämförs med en metod som använder principalkomponenternas varians för att slumpa ut nya principalkomponenter.
237

Deep learning for multivariate financial time series / Deep Learning för finansiella tidsserier

Batres-Estrada, Bilberto January 2015 (has links)
Deep learning is a framework for training and modelling neural networks which recently have surpassed all conventional methods in many learning tasks, prominently image and voice recognition. This thesis uses deep learning algorithms to forecast financial data. The deep learning framework is used to train a neural network. The deep neural network is a Deep Belief Network (DBN) coupled to a Multilayer Perceptron (MLP). It is used to choose stocks to form portfolios. The portfolios have better returns than the median of the stocks forming the list. The stocks forming the S&P 500 are included in the study. The results obtained from the deep neural network are compared to benchmarks from a logistic regression network, a multilayer perceptron and a naive benchmark. The results obtained from the deep neural network are better and more stable than the benchmarks. The findings support that deep learning methods will find their way in finance due to their reliability and good performance.
238

Predicting data traffic in cellular data networks / Prediktion av datatrafik i mobila nätverk

Jägerhult Fjelberg, Marianne January 2015 (has links)
The exponential increase in cellular data usage in recent time is evident, which introduces challenges and opportunities for the telecom industry. From a Radio Resource Management perspective, it is therefore most valuable to be able to predict future events such as user load. The objective of this thesis is thus to investigate whether one can predict such future events based on information available in a base station. This is done by clustering data obtained from a simulated 4G network using Gaussian Mixture Models. Based on this, an evaluation based on the cluster signatures is performed, where heavy-load users seem to be identified. Furthermore, other evaluations on other temporal aspects tied to the clusters and cluster transitions is performed. Secondly, supervised classification using Random Forest is performed, in order to investigate whether prediction of these cluster labels is possible. High accuracies for most of these classifications are obtained, suggesting that prediction based on these methods can be made.
239

Estimating the Term Structure of Default Probabilities for Heterogeneous Credit Porfolios / Estimering av terminstrukturen för konkurssannolikheter i heterogena kreditportföljer

Bogren, Felix January 2015 (has links)
The aim of this thesis is to estimate the term structure of default probabilities for heterogeneous credit portfolios. The term structure is defined as the cumulative distribution function (CDF) of the time until default. Since the CDF is the complement of the survival function, survival analysis is applied to estimate the term structures. To manage long-term survivors and plateaued survival functions, the data is assumed to follow a parametric as well as a semi-parametric mixture cure model. Due to the general intractability of the maximum likelihood of mixture models, the parameters are estimated by the EM algorithm. A simulation study is conducted to assess the accuracy of the EM algorithm applied to the parametric mixture cure model with data characterized by a low default incidence. The simulation study recognizes difficulties in estimating the parameters when the data is not gathered over a sufficiently long observational window. The estimated term structures are compared to empirical term structures, determined by the Kaplan-Meier estimator. The results indicated a good fit of the model for longer horizons when applied to each credit type separately, despite difficulties capturing the dynamics of the term structure for the first one to two years. Both models performed poorly with few defaults. The parametric model did however not seem sensitive to low default rates. In conclusion, the class of mixture cure models are indeed viable for estimating the term structure of default probabilities for heterogeneous credit portfolios. / Syftet med den här uppsatsen är att estimera terminstrukturen för konkurssannolikheter i heterogena kreditportföljer. Terminstrukturen definieras som den kumulativa fördelningsfunktionen för tiden till konkurs. Eftersom den kumulativa fördelningsfunktionen är komplementet till överlevnadsfunktionen kan överlevnadsanalys appliceras för att estimera terminstrukturen.  För att hantera långtidsöverlevare samt överlevnadsfunktioner som planar ut vid nivåer över noll, antar vi att observationerna kommer från en parametrisk såväl som en semiparametrisk mixture cure model. På grund av numeriska svårigheter att hantera maximum likelihood-funktionen för mixture modeller, så skattas parametrarna med hjälp av EM algoritmen. En simulationsstudie genomfördes för att undersöka precisionen av EM algoritmen applicerad på parametriska specifikationen av modellen, med data bestående av få antal konkurser. Simulationsstudien påvisade svårigheter att estimera parametrarna när urvalet inte tagits från en tillräckligt lång tidsperiod. En jämförelse görs med de empiriska terminstrukturerna, framtagna med Kaplan-Meier's skattning av överlevnadsfunktioner. Resultaten påvisar en bra anpassning när modellen appliceras på varje kredittyp separat, trots svårigheter att fånga dynamiken de av terminstrukturen under
240

Operational Risk Modeling: Addressing the Reporting Threshold Problem / Operativa risker: belysning av tröskel problem i rapportering

Halberg, Oscar, Wärmlös Helmrich, Mattias January 2015 (has links)
External loss data are typically left truncated at a reporting threshold. Ignoring this truncation level leads to biased capital charge estimations. This thesis addresses the challenges of recreating the truncated part of the distribution. By predicting the continuation of a probability density function, the unobserved body of an external operational risk loss distribution is estimated. The prediction is based on internally collected losses and the tail of the external loss distribution. Using a semiparametric approach to generate sets of internal losses and applying the Best Linear Unbiased Predictor, results in an enriched external dataset that shares resemblance with the internal dataset. By avoiding any parametrical assumptions, this study proposes a new and unique way to address the reporting threshold problem. Financial institutions will benefit from these findings as it permits the use of the semiparametric approach developed by Bolancé et al. (2012) and thereby eliminates the well known difficulty with determining the breaking point beyond which the tail domain is defined when using the Loss Distribution Approach. The main conclusion from this thesis is that predicting the continuation of a function using the Best Linear Unbiased Predictor can be successfully applied in an operational risk setting. This thesis has predicted the continuation of a probability density function, resulting in a full external loss distribution.

Page generated in 0.0585 seconds