• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 220
  • 48
  • Tagged with
  • 268
  • 268
  • 264
  • 263
  • 107
  • 106
  • 93
  • 79
  • 79
  • 54
  • 50
  • 37
  • 36
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

An analysis of how price fluctuations for commodities impact performance of Swedish industrial companies / En analys om hur förändringar i råvarupriser påverkar prestationen för svenska industriföretag

Rippe, Albin, Oksanen, Henrik January 2022 (has links)
The relationship between performance for the Swedish industry and changesin prices and volatility of commodities has been examined using multiple linearregression. The study focuses on how commodity price fluctuations correlate withgross profit growth, measuring company performance. Gross profit as a performancemeasure is contrary to most previous studies that use stock performance as thedependent variable. This study has found two commodities whose prices have asignificant relationship with changes in gross profit for the Swedish industry sector,Brent oil, and platinum. The correlation with Brent oil is the most reliable one.Surprisingly, Brent oil has a positive relationship with gross profit, even thougha higher oil price is causing more expensive logistics and manufacturing operations,increasing costs of sold goods. This indicates a possible correlation between oil priceand demand for manufactured products; industrial companies can either increaseprices or produce at a high capacity. Regarding the volatility of commodities, nosignificant correlation with gross profits has been found. / Med multipel linjär regression undersöks relationen mellan prestation hos svenska industriföretag och förändringar i priser och volatilitet hos råvaror. Studien fokuserar på hur prisfluktuationer för råvaror korrelerar med bruttovinst, vilket väljs som prestationsmått. Det skiljer sig från majoriteten av tidigare studier där avkastning på aktier har varit den beroende variabeln. Denna studien har hittat stöd för att priset på två råvaror har en signifikant korrelation med förändringar i bruttovinst för den svenska industrin. Nämligen Brent olja och platinum, varav Brent olja har en betydligt pålitligare korrelation.  Brent olja har ett positivt förhållande med bruttovinst, vilket är förvånande då dyrare olja innebär ökade kostnader kopplade till logistik och tillverkning. Något som ökar kostnaden för sålda varor. Detta indikerar att ett ökad pris på olja borde korrelera med en hög efterfrågan på tillverkade produkter, så att industriföretagen kan öka sina priser och/eller tillverka fler varor när oljan ökar i pris. Vad gäller volatilitet på råvaror har det inte hittats någon significant korrelation med bruttovinst.
232

Introduction of the Academic Factor Quality Minus Junk to a Commercial Factor Model and its Effect on the Explanatory Power. An OLS Regression on Stock Returns / Introduktion av den Akademiska Faktorn Quality Minus Junk till en Kommersiell Multi-faktormodell och dess Påverkan på Förklaringsgraden. En OLS-regression på Aktieavkastningar.

Annink, Marit, Larsson, Rebecca January 2019 (has links)
The ability to predict stock returns is an ability many wish to possess, and in an accurate way as possible. For many years there has been an interest in the field of factor models explaining the returns, with the aim to increase the explanatory power. This is however a complex business since the factors and their improvement of explanatory power need to be significant. Now and then, researchers come up with new significant factors that have a positive impact on models. AQR Capital Management is no exception to this, since they in 2013 presented the factor Quality Minus Junk, earning significant risk-adjusted returns. This bachelor thesis work within mathematical statistics and industrial engineering and management, aims to investigate whether or not the commercial multi-factor model used at the public pension fund Fjärde AP-fonden will be improved by adding the factor Quality Minus Junk, in the sense of explanatory power. The method used is mainly based on multiple linear regression and three three-year time periods are studied ranging from 2010 to 2018. The results from this thesis work show that the QMJ factor provides significant increases in explanatory power for one of three time periods, the most recent period 2016$-$2018. However, since the results are inconclusive further studies are needed in order to better understand how to interpret the results and whether or not to include the QMJ factor in the model. / Förmågan att förutsäga aktiers avkastning önskar många besitta, och på ett så precist sätt som möjligt. Under många år har forskning pågått inom området för faktormodeller som förklarar avkastningar, med målet att öka modellernas förklaringsgrad. Detta är dock en komplex verksamhet eftersom faktorerna och deras förbättring av förklaringsgraden måste vara signifikanta för modellen. Då och då kommer forskare fram med nya sådana faktorer som har positiv påverkan på modeller. AQR Capital Management är inget undantag eftersom de 2013 presenterade sin faktor Quality Minus Junk som visar signifikanta riskjusterade avkastningar. Detta kandidatexamensarbete inom matematisk statistik och industriell ekonomi, ämnar att utreda huruvida den kommersiella faktormodellen som används på Fjärde AP-fonden förbättras genom tillägget av faktorn Quality Minus Junk, i förklaringsgradsmening. Metoden som används är till största delen baserad på multipel linjär regression och tre treårsperioder studeras i tidsintervallet 2010 till 2018. Resultaten från detta projekt visar på att faktorn Quality Minus Junk bidrar med signifikanta ökningar av förklaringsgraden för en av tre perioder, den senaste perioden 2016-2018. Eftersom resultaten är inkonklusiva krävs vidare studier för att bättre förstå och konkludera vad dessa resultat faktiskt innebär samt för att inkludera QMJ-faktorn i modellen eller ej.
233

Proposal networks in object detection / Förslagsnätverk för objektdetektering

Grossman, Mikael January 2019 (has links)
Locating and extracting useful data from images is a task that has been revolutionized in the last decade as computing power has risen to such a level to use deep neural networks with success. A type of neural network that uses the convolutional operation called convolutional neural network (CNN) is suited for image related tasks. Using the convolution operation creates opportunities for the network to learn their own filters, that previously had to be hand engineered. For locating objects in an image the state-of-the-art Faster R-CNN model predicts objects in two parts. Firstly, the region proposal network (RPN) extracts regions from the picture where it is likely to find an object. Secondly, a detector verifies the likelihood of an object being in that region.For this thesis, we review the current literature on artificial neural networks, object detection methods, proposal methods and present our new way of generating proposals. By replacing the RPN with our network, the multiscale proposal network (MPN), we increase the average precision (AP) with 12% and reduce the computation time per image by 10%. / Lokalisering av användbar data från bilder är något som har revolutionerats under det senaste decenniet när datorkraften har ökat till en nivå då man kan använda artificiella neurala nätverk i praktiken. En typ av ett neuralt nätverk som använder faltning passar utmärkt till bilder eftersom det ger möjlighet för nätverket att skapa sina egna filter som tidigare skapades för hand. För lokalisering av objekt i bilder används huvudsakligen Faster R-CNN arkitekturen. Den fungerar i två steg, först skapar RPN boxar som innehåller regioner där nätverket tror det är störst sannolikhet att hitta ett objekt. Sedan är det en detektor som verifierar om boxen är på ett objekt .I denna uppsats går vi igenom den nuvarande litteraturen i artificiella neurala nätverk, objektdektektering, förslags metoder och presenterar ett nytt förslag att generera förslag på regioner. Vi visar att genom att byta ut RPN med vår metod (MPN) ökar vi precisionen med 12% och reducerar tiden med 10%.
234

Exploring a personal property pricing method in insurance context using multiple regression analysis / Prismodellering av personlig egendom ur ett försäkringsmässigt perspektiv genom multipel linjär regression

Guterstam, Rasmus, Trojenborg, Vidar January 2019 (has links)
In general, insurance companies and especially their clients face long and complicated claims processes where payments rarely, and almost reluctantly, are made the same day. A part of this slow moving procedure is the fact that in some cases the insurer has to value the personal property themselves, which can be a tedious process. In conjunction with the insurance company Hedvig, this project address this issue by examining a pricing model for a specific personal property; smartphones - one of the most common occurring claim types in the insurance context. Using multiple linear regression with data provided by PriceRunner, 10 key characteristics out of 91 where found to have significant explanatory power in predicting the market price of a smartphone. The model successfully simulates this market price with an explained variance of 90%. Furthermore this thesis illustrates an intuitive example regarding pricing models for personal property of other sorts, identifying limiting key components to be data availability and product complexity. / I dagsläget står försäkringsbolag och deras kunder allt för ofta inför långa och komplicerade försäkringsärenden, där utbetalningar i regel aldrig sker samma dag. En del i denna långsamma och utdragna utbetalningsprocess är det faktum att försäkringsbolaget på egen hand måste uppskatta egendomens värde, vilket kan vara en mycket komplicerad process. I samarbete med försäkringsbolaget Hedvig undersöker denna rapport en värderingsmodell för ett av de vanligaste försäkringsärendena gällande personlig egendom, nämligen smartphones. Genom att använda multipel linjär regression med data försedd av PriceRunner har 10 av 91 nyckelfaktorer identifierats ha signifikant förklaringsgrad vid modellering av marknadsvärdet av en smartphone. Den framtagna modellen simulerar framgångsrikt marknadsvärdet med en 90-procentig förklaringsgrad av variansen. Vidare illustrerar denna rapport intuitiva riktlinjer för värderingsmodellering till andra typer av personlig egendom, samtidigt som den identifierar begränsande nyckelaspekter som exempelvis tillgången på data och egendomens inneboende komplexitet.
235

A Return Maximizing Strategy in Market Rebounds for Swedish Equity Funds / En Avkastningsmaximerande Strategi för Svenska Aktiefonder i Marknadsåterhämtningar

Sävendahl, Carl, Flodmark, Erik January 2019 (has links)
The growing interest in savings on the financial markets implicates that the competition is expanding and managers of Swedish equity funds need to create shareholder value, independent of the macroeconomic situation. The Swedish financial market experienced a rapid rebound during the first quarter of 2019, following the plunge in the preceding quarter. This thesis utilizes multiple linear regression to analyze Swedish equity funds during the first quarter of 2019. The aim is to identify variables affecting fund performance in a market rebound in order to formulate a performance maximizing strategy. Based on the results of the performance influencing variables, the strategy is to underweight small cap stocks, overweight the energy and technology sector, underweight the communication services sector and staying neutral to overweighted in remaining sectors. Furthermore, the strategy proposes an overweighted exposure to North American stocks and an underweight to Western European stocks. The overexposure to North America should be larger in absolute value compared to the underexposure to Western Europe. The strategy is ambiguous since data from only one market rebound is analyzed. Therefore, the strategy is not significantly proven to be adaptable in any market rebound. The model analysis is based on modern macroeconomic and financial theories. In addition, the discussion problematizes the neoclassical view on economics based on the notion that a combination of rationality and irrationality is prevalent among investors. Further research is essential either to support or reject the performance affecting variables and the allocation strategy specified in the thesis. / Det växande intresset att investera på de finansiella marknaderna implicerar att konkurrensen hårdnar bland fondförvaltare. Fondförvaltare för svenska aktiefonder måste därmed skapa andelsägarvärde, oberoende av det makroekonomiska läget. Den finansiella marknaden återhämtade sig snabbt under det första kvartalet 2019 efter den branta nedgången under det föregående kvartalet. Studien avser att identifiera de bidragande faktorerna till avkastning för svenska aktiefonder under denna återhämtning. Multipel linjär regression används för detta ändamål samt för att formulera en avkastningsmaximerande strategi. Strategin föreslår att förvaltare för svenska aktiefonder bör undervikta småbolag, övervikta aktier inom energi och teknik samt undervikta aktier i kommunikationssektorn. Strategin är vidare att vara neutral till överviktad i övriga sektorer. Dessutom är strategin att övervikta nordamerikanska aktier och att undervikta västeuropeiska aktier. Övervikten i Nordamerika ska vara större i absoluta termer än undervikten i Västeuropa. Strategin är tvetydig då den bygger på data från enbart en marknadsåterhämtning. Därmed är den framtagna strategin inte bevisad att vara applicerbar på vilken marknadsåterhämtning som helst. Analysen är baserad på modern makroekonomisk och finansiell teori. Diskussionen problematiserar den neoklassiska synen på ekonomi baserat på uppfattningen att investerare är både irrationella och rationella i sina investeringsbeslut. Fortsatt forskning är essentiell för att antingen stärka eller förkasta dragna slutsatser i denna studie.
236

Modelling the Impact of Drug Resistance on Treatment as Prevention as an HIV Control Strategy / Modellering av den inverkan läkemedelsresistans har på framgången för smittorisk-förebyggande behandling av HIV

Rylander, Andreas, Persson, Liam January 2019 (has links)
Uganda is using a strategy called treatment as prevention where as many individuals as possible that are infected with HIV receive treatment. As a result, the number of newly infected individuals has decreased significantly. However, there is a discussion about a potential problem regarding transmitted drug resistance. This work aims to investigate if this in fact will be a problem in the future, and to estimate the costs for different scenarios. Through developing a population-based mathematical model that describes transmission dynamics of HIV in Uganda, stochastic simulations are made for different conditions. Through analysing our simulations, we can see that Uganda may have to change their approach to HIV treatment. / För att minska smittoriskerna av HIV nyttjar Uganda en strategi som syftar till att behandla så många smittade personer som möjligt. Detta har lett till en signifikant minskning av antalet smittade personer. Det har dock uppstått en diskussion angående om läkemedels-resistent smitta kan komma att utgöra ett problem. Detta arbete syftar till att undersöka om detta kan utgöra ett problem i framtiden samt till att uppskatta de kostnader som kan uppstå i olika typer av scenarion. Under olika förutsättningar genomförs stokastiska simuleringar med hjälp av en matematisk populationsmodell framtagen för att beskriva spridningen av HIV i Uganda. Genom att analysera resultaten från olika simuleringar dras slutsatsen att Uganda kan behöva omvärdera sitt tillvägagångssätt gällande behandling av HIV.
237

Bankruptcy Distributions and Modelling for Swedish Companies Using Logistic Regression / Konkursfördelning och Modellering för Svenska Företag Genom Användning av Logistisk Regression

Ewertzh, Jacob January 2019 (has links)
This thesis discusses the concept of bankruptcy, or default, for Swedish companies. The actual distribution over time is considered both on aggregate level and within different industries. Several models are constructed to best possible describe the default frequency. Mainly logistic regression models are designed for this purpose, but various other models are considered. Some of these are constructed for comparison and for the ambition to produce the most accurate model possible. A large data set of nearly 30 million quarterly observations is used in the analysis. Taking into account micro and macro economic data. The derived models cover different time periods, considering different variables and display varying levels of accuracy. The most exact model is a logistic regression model considering both micro and macro data. It is tested both in sample and out of sample and perform very well in both areas. This model is estimated on first a subset of the data set to be able to compare with a real scenario. Then an equivalent model is constructed from the whole data set to best possibly describe future scenarios. Here Vector Auto-Regressive (VAR) models, and empirical models constructed by OLS regression estimating the firm values, are used in combination with the logistic regression model to predict the future. All three models are used to describe the most likely scenarios, as well as the worst case scenarios. From the worst case scenarios risk measures, such as the empirical value at risk, can be derived. From all this analysis the most significant results are compiled. Namely, that the Logistic regression model performs remarkably well both in-sample and out-of-sample, if macro variables are taken into account. Further, the future results are harder to interpret. Yet, the analysis has arguments for prediction accuracy and interesting results of a continued low default frequency within the next year. / Den här uppsatsen avhandlar konceptet konkurs, för svenska företag. Den faktiska konkursfördelningen över tid analyseras, både på en sammanlagd nivå och inom olika industrier. Flera modeller konstrueras i syfte att bäst beskriva konkursfördelningen. Huvudsakligen är logistiska regressions modeller utformade för detta syfte, men andra typer av modeller är inkluderade i analysen. Några av dessa modeller är skapade för jämförelse, men också för att kunna producera en så exakt modell som möjligt. Ett stort data set med nästan 30 miljoner kvartalsvisa observationer används i analysen. Mikro- och makroekonomiska faktorer är inkluderade i detta data set. De framtagna modellerna omfattar olika tidsperioder mellan 1990–2018, tar in olika faktorer i analysen och visar på olika nivåer av noggrannhet. Modellen som har högst förklaringsgrad är en logistisk regressionsmodell som tar hänsyn till både mikro- och makroekonomiska faktorer. Denna modell analyseras både i och utanför sitt samplingsintervall, och visar på goda resultat i båda områdena. Modellen är först skattad på en delmängd av tidsperioden, för att kunna jämföra den förutspådda fördelningen med en faktisk fördelning. Sedan är en ekvivalent modell skattad på hela intervallet, för att bäst möjligt förutspå framtida scenarion. För detta syfte är Logistiska regressionsmodellen kombinerad med Vektor Autoregressiva (VAR)-modeller som förutspår makroekonomiska faktorer, och empiriska regressionsmodeller som förutspår mikroekonomiska faktorer. Alla tre modelltyper används för att kunna beskriva det mest sannolika scenariot, samt de värsta tänkbara scenariona. Från de värsta tänkbara scenariona kan riskmått, så som empiriska Value at Risk, tas fram. All analys producerar resultat och de viktigaste sammanställs. Dessa är att den logistiska regression modell som tar hänsyn till makroekonomiska faktorer ger bra resultat både i och utanför samplingsintervallet. Vidare är de framtida simulerade resultaten svårare att tolka, men den genomförda analysen har argument för exakthet i förutsägelserna. Därmed presenteras ett troligt framtida scenario med fortsatt låg konkurs frekvens inom det närmaste året.
238

Customer segmentation of retail chain customers using cluster analysis / Kundsegmentering av detaljhandelskunder med klusteranalys

Bergström, Sebastian January 2019 (has links)
In this thesis, cluster analysis was applied to data comprising of customer spending habits at a retail chain in order to perform customer segmentation. The method used was a two-step cluster procedure in which the first step consisted of feature engineering, a square root transformation of the data in order to handle big spenders in the data set and finally principal component analysis in order to reduce the dimensionality of the data set. This was done to reduce the effects of high dimensionality. The second step consisted of applying clustering algorithms to the transformed data. The methods used were K-means clustering, Gaussian mixture models in the MCLUST family, t-distributed mixture models in the tEIGEN family and non-negative matrix factorization (NMF). For the NMF clustering a slightly different data pre-processing step was taken, specifically no PCA was performed. Clustering partitions were compared on the basis of the Silhouette index, Davies-Bouldin index and subject matter knowledge, which revealed that K-means clustering with K = 3 produces the most reasonable clusters. This algorithm was able to separate the customer into different segments depending on how many purchases they made overall and in these clusters some minor differences in spending habits are also evident. In other words there is some support for the claim that the customer segments have some variation in their spending habits. / I denna uppsats har klusteranalys tillämpats på data bestående av kunders konsumtionsvanor hos en detaljhandelskedja för att utföra kundsegmentering. Metoden som använts bestod av en två-stegs klusterprocedur där det första steget bestod av att skapa variabler, tillämpa en kvadratrotstransformation av datan för att hantera kunder som spenderar långt mer än genomsnittet och slutligen principalkomponentanalys för att reducera datans dimension. Detta gjordes för att mildra effekterna av att använda en högdimensionell datamängd. Det andra steget bestod av att tillämpa klusteralgoritmer på den transformerade datan. Metoderna som användes var K-means klustring, gaussiska blandningsmodeller i MCLUST-familjen, t-fördelade blandningsmodeller från tEIGEN-familjen och icke-negativ matrisfaktorisering (NMF). För klustring med NMF användes förbehandling av datan, mer specifikt genomfördes ingen PCA. Klusterpartitioner jämfördes baserat på silhuettvärden, Davies-Bouldin-indexet och ämneskunskap, som avslöjade att K-means klustring med K=3 producerar de rimligaste resultaten. Denna algoritm lyckades separera kunderna i olika segment beroende på hur många köp de gjort överlag och i dessa segment finns vissa skillnader i konsumtionsvanor. Med andra ord finns visst stöd för påståendet att kundsegmenten har en del variation i sina konsumtionsvanor.
239

Forecasting Daily Supermarkets Sales with Machine Learning / Dagliga Försäljningsprognoser för Livsmedel med Maskininlärning

Fredén, Daniel, Larsson, Hampus January 2020 (has links)
Improved sales forecasts for individual products in retail stores can have a positive effect both environmentally and economically. Historically these forecasts have been done through a combination of statistical measurements and experience. However, with the increased computational power available in modern computers, there has been an interest in applying machine learning for this problem. The aim of this thesis was to utilize two years of sales data, yearly calendar events, and weather data to investigate which machine learning method could forecast sales the best. The investigated methods were XGBoost, ARIMAX, LSTM, and Facebook Prophet. Overall the XGBoost and LSTM models performed the best and had a lower mean absolute value and symmetric mean percentage absolute error compared to the other models. However, Facebook Prophet performed the best in regards to root mean squared error and mean absolute error during the holiday season, indicating that Facebook Prophet was the best model for the holidays. The LSTM model could however quickly adapt during the holiday season improved the performance. Furthermore, the inclusion of weather did not improve the models significantly, and in some cases, the results were worsened. Thus, the results are inconclusive but indicate that the best model is dependent on the time period and goal of the forecast. / Förbättrade försäljningsprognoser för individuella produkter inom detaljhandeln kan leda till både en miljömässig och ekonomisk förbättring. Historiskt sett har dessa utförts genom en kombination av statistiska metoder och erfarenhet. Med den ökade beräkningskraften hos dagens datorer har intresset för att applicera maskininlärning på dessa problem ökat. Målet med detta examensarbete är därför att undersöka vilken maskininlärningsmetod som kunde prognostisera försäljning bäst. De undersökta metoderna var XGBoost, ARIMAX, LSTM och Facebook Prophet. Generellt presterade XGBoost och LSTM modellerna bäst då dem hade ett lägre mean absolute value och symmetric mean percentage absolute error jämfört med de andra modellerna. Dock, gällande root mean squared error hade Facebook Prophet bättre resultat under högtider, vilket indikerade att Facebook Prophet var den bäst lämpade modellen för att förutspå försäljningen under högtider. Dock, kunde LSTM modellen snabbt anpassa sig och förbättrade estimeringarna. Inkluderingen av väderdata i modellerna resulterade inte i några markanta förbättringar och gav i vissa fall även försämringar. Övergripande, var resultaten tvetydiga men indikerar att den bästa modellen är beroende av prognosens tidsperiod och mål.
240

Machine Learning Based Intraday Calibration of End of Day Implied Volatility Surfaces / Maskininlärnings baserad intradagskalibrering av slutet av dagen implicita volatilitetsytor

Herron, Christopher, Zachrisson, André January 2020 (has links)
The implied volatility surface plays an important role for Front office and Risk Management functions at Nasdaq and other financial institutions which require mark-to-market of derivative books intraday in order to properly value their instruments and measure risk in trading activities. Based on the aforementioned business needs, being able to calibrate an end of day implied volatility surface based on new market information is a sought after trait. In this thesis a statistical learning approach is used to calibrate the implied volatility surface intraday. This is done by using OMXS30-2019 implied volatility surface data in combination with market information from close to at the money options and feeding it into 3 Machine Learning models. The models, including Feed Forward Neural Network, Recurrent Neural Network and Gaussian Process, were compared based on optimal input and data preprocessing steps. When comparing the best Machine Learning model to the benchmark the performance was similar, indicating that the calibration approach did not offer much improvement. However the calibrated models had a slightly lower spread and average error compared to the benchmark indicating that there is potential of using Machine Learning to calibrate the implied volatility surface. / Implicita volatilitetsytor är ett viktigt vektyg för front office- och riskhanteringsfunktioner hos Nasdaq och andra finansiella institut som behöver omvärdera deras portföljer bestående av derivat under dagen men också för att mäta risk i handeln. Baserat på ovannämnda affärsbehov är det eftertraktat att kunna kalibrera de implicita volatilitets ytorna som skapas i slutet av dagen nästkommande dag baserat på ny marknadsinformation. I denna uppsats används statistisk inlärning för att kalibrera dessa ytor. Detta görs genom att uttnytja historiska ytor från optioner i OMXS30 under 2019 i kombination med optioner nära at the money för att träna 3 Maskininlärnings modeller. Modellerna inkluderar Feed Forward Neural Network, Recurrent Neural Network och Gaussian Process som vidare jämfördes baserat på data som var bearbetat på olika sätt. Den bästa Maskinlärnings modellen jämfördes med ett basvärde som bestod av att använda föregående dags yta där resultatet inte innebar någon större förbättring. Samtidigt hade modellen en lägre spridning samt genomsnittligt fel i jämförelse med basvärdet som indikerar att det finns potential att använda Maskininlärning för att kalibrera dessa ytor.

Page generated in 0.0772 seconds