• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 22
  • Tagged with
  • 54
  • 28
  • 14
  • 12
  • 12
  • 11
  • 10
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

A test of GARCH models onCoCo bonds / Ett test av GARCH-modeller på CoCoobligationer

HENRIKSSON, JIMMY January 2021 (has links)
This research investigates to what extent the ARCH model and the GARCH model forecasts one-day-ahead out-of-sample daily volatility (conditional variance) in European AT1 CoCo bonds compared to the Random Walk model. The research also investigates how different orders of ARCH and GARCH models affect the forecasting accuracy. Specifically, the models investigated are the Random Walk model, ARCH(1), ARCH(2), ARCH(3), GARCH(1,1), GARCH(1,2), GARCH(2,1), and the GARCH(2,2)model. The data set used in this report is 47 European AT1 CoCo bonds from 20 different issuers.The results show that 42 out of 47 CoCo bonds have daily log returns that are conditional heteroscedastic. Five CoCo bonds with homoscedastic daily log returns were CoCo bonds with significant low liquidity. The results show that the GARCH model outperforms both the Random Walk model and the ARCH model, under the assumption that the innovations follow a normal distribution. The results also show that a higherorder of ARCH or GARCH does not necessarily lead to more accurate forecasts. The GARCH(1,1) model provided the most accurate predictions. The conclusion is that the GARCH models provide accurate volatility forecasts in CoCo bonds compared to the ARCH-model, and the Random Walk model. However, the ARCH model and the GARCH model fail to forecast the daily volatility in CoCo bondswith insufficient liquidity. Furthermore, a higher order of ARCH or GARCH models does not necessarily lead to better forecast results. / Denna uppsats undersöker till vilken utsträckning som ARCH och GARCH-modeller kan prediktera daglig volatilitet i AT1 CoCo-obligationer (eng. Additional Tier-1 Contingent Convertible Bonds), jämfört med Random Walk-modellen. Uppsatsen undersöker även hur olika parametrar I ARCH och GARCH-modeller påverkar resultatet i prediktionerna. De modeller som undersöks är Random Walk-modellen, ARCH(1), ARCH(2), ARCH(3), GARCH(1,1), GARCH(1,2), GARCH(2,1), och GARCH(2,2)-modellen. Datasetet som har använts i denna forskning består av 47 Europeiska AT1 CoCo obligationer från 20 olika emittenter. Resultatet visar att 42 av 47 CoCo-obligationer har betingat heteroskedastisk daglig avkastningsdata. Fem CoCo-obligationer med homoskedastisk avkastningsdata är obligationer med signifikant låg likviditet. Vidare visar resultatet visar att GARCH modellen överpresterar jämfört med både Random Walk-modellen och ARCH-modellen, under antagandet att innovationstermen följer en normal distribution. Resultatet visar även att en högre ordning av ARCH eller GARCH inte nödvändigtvis leder till ett bättre resultat i prediktonerna. GARCH(1,1)-modellen är modellen som predikterar den dagliga volatiliten i CoCo-obligationerna med bäst resultat. Slutsatsen är att GARCH-modellen predikterar volatiliteten i CoCo-obligationer bättre jämfört med ARCH-modellen och Random Walk-modellen. Däremot kan inte ARCH-modellen eller GARCH-modellen modellera CoCo-obligationer med signifikant låg likviditet. Vidare så medför en högre ordning i ARCH eller GARCH-modellen inte nödvändigtvis till bättre prediktioner.
42

Maskininlärning för Prediktion av Fartygsvibrationer : En jämförelsestudie av Random forest,Gradient boosting och Neurala nätverk

Tvinghagen, Fredrik, Queckfeldt, Jonathan January 2024 (has links)
Syftet med detta projekt är att utveckla en prediktiv modell för att förutsäga fartygsvibrationer baserat på historisk mätdata från lastfartyg. Projektet fokuserar på att använda maskininlärningsmetoder för att förutspå amplituden av vibrationer och identifiera de mest relevanta variablerna för modellens prediktiva förmåga. De undersökta metoderna inkluderar random forest, gradient boosting och neurala nätverk. Resultaten visar att random forest-modellen presterar bäst utifrån prestandamåtten: medelkvadratfelet (MSE), genomsnittliga absoluta felet (MAE) och genomsnittliga procentuella felet (MAPE). Projektet bidrar till en djupare förståelse av maskininlärningens användningsområden för en mer hållbar sjöfart. Syftet är att ge ett underlag till att potentiellt reducera vibrationer som påverkar fartygens komfort och strukturella integritet.
43

Prediction of Expected Life Length of Motor Locks : Master Thesis in Electronics, Mälardalen University / Prediktion av förväntad livslängd hos motorlås : Civilingenjörsarbete inom elektronik, Mälardalens högskola

Söderroos, Johan January 2010 (has links)
<p>ASSA AB develops different types of products that can be used in or around doors. ASSA offers a complete door solution to the customers. Many of these products are linked together and work for a complete formation of access control. ASSA has recently developed a new communications bus for some of their products. One advantage of the new communication bus is that each product should be able to offer different kinds of added values to the customers.</p><p>This master thesis main focus is to find a model to describe the predicted life length of ASSA:s motor lock called 811C50, which includes a study that determine which environmental parameters that can affects the motor locks life length. This master thesis is also a pre-study for further work of an existing motor lock.</p><p>The chosen test model, <em>full parameter test, leads to a life length equation. This equation shall later on be implemented in the motor locks so the motor locks itself can predict its own life length. To make the equation completed different parameters, that can affect the motor locks life length, are needed. This can be implemented through different technological tests and to succeed with the test, right test equipment is needed. No establish test equipment was available, which required that new test equipment, which could test all motor locks, were build. On the bases from interviews with engineers at ASSA it was established that the following parameters probably can affect the motor locks life length: temperature, air humidity, dust, corrosion, side load and vibration. Not until certain factors and coefficients have been determined, for the equation, can the equation be used. </em></p> / <p>ASSA AB är ett företag som utvecklar olika typer av produkter som kan användas i eller runt en dörr. ASSA erbjuder en komplett dörrlösning till kunderna. Många av de här produkterna är sammankopplade och arbetar tillsammans för att komplett passersystem. ASSA har nyligen utvecklat en ny kommunikationsbuss för några av deras produkter. En fördel med den nya kommunikationsbussen är att varje produkt kan ge ett ökat mervärde för slutkunden.</p><p>Denna avhandling har som huvudsyfte att hitta en modell som kan beskriva livslängden för ASSA:s motorlås, 811C50. Till detta görs en studie för att undersöka vilka miljö parametrar som kan påverka motorlåsets livslängd. Denna avhandling kan även ses som en förstudie där målet är att vidareutveckla det befintliga motorlåset.</p><p>Den valda modellen, full variabel test, leder till en livslängdsekvation. Denna ekvation kommer sedan att bli implementerad i motorlåset så att låset själv kan prediktera sin egen livslängd. För att göra ekvationen komplett behövs olika parameterr som kan påverka motorlåsets livslängd identifieras. Detta kan ske genom olika tekniska test och för att lyckas med testen krävs rätt testutrustning. Ingen befintlig testutrustning fanns tillgänglig vilket resulterade i en ny testutrustning som kunde testa alla motorlås utvecklades. Utifrån intervjuer med ingenjörer på ASSA kunde det fastställas att följande parameterr troligtvis kan påverka motorlåsets livslängd: temperatur, luftfuktighet, damm, korrosion, listtryck och vibrationer. Inte förens koefficienter, till ekvationen, har blivit fastställda är ekvationen färdig att användas.</p>
44

Prediction of Expected Life Length of Motor Locks : Master Thesis in Electronics, Mälardalen University / Prediktion av förväntad livslängd hos motorlås : Civilingenjörsarbete inom elektronik, Mälardalens högskola

Söderroos, Johan January 2010 (has links)
ASSA AB develops different types of products that can be used in or around doors. ASSA offers a complete door solution to the customers. Many of these products are linked together and work for a complete formation of access control. ASSA has recently developed a new communications bus for some of their products. One advantage of the new communication bus is that each product should be able to offer different kinds of added values to the customers. This master thesis main focus is to find a model to describe the predicted life length of ASSA:s motor lock called 811C50, which includes a study that determine which environmental parameters that can affects the motor locks life length. This master thesis is also a pre-study for further work of an existing motor lock. The chosen test model, full parameter test, leads to a life length equation. This equation shall later on be implemented in the motor locks so the motor locks itself can predict its own life length. To make the equation completed different parameters, that can affect the motor locks life length, are needed. This can be implemented through different technological tests and to succeed with the test, right test equipment is needed. No establish test equipment was available, which required that new test equipment, which could test all motor locks, were build. On the bases from interviews with engineers at ASSA it was established that the following parameters probably can affect the motor locks life length: temperature, air humidity, dust, corrosion, side load and vibration. Not until certain factors and coefficients have been determined, for the equation, can the equation be used. / ASSA AB är ett företag som utvecklar olika typer av produkter som kan användas i eller runt en dörr. ASSA erbjuder en komplett dörrlösning till kunderna. Många av de här produkterna är sammankopplade och arbetar tillsammans för att komplett passersystem. ASSA har nyligen utvecklat en ny kommunikationsbuss för några av deras produkter. En fördel med den nya kommunikationsbussen är att varje produkt kan ge ett ökat mervärde för slutkunden. Denna avhandling har som huvudsyfte att hitta en modell som kan beskriva livslängden för ASSA:s motorlås, 811C50. Till detta görs en studie för att undersöka vilka miljö parametrar som kan påverka motorlåsets livslängd. Denna avhandling kan även ses som en förstudie där målet är att vidareutveckla det befintliga motorlåset. Den valda modellen, full variabel test, leder till en livslängdsekvation. Denna ekvation kommer sedan att bli implementerad i motorlåset så att låset själv kan prediktera sin egen livslängd. För att göra ekvationen komplett behövs olika parameterr som kan påverka motorlåsets livslängd identifieras. Detta kan ske genom olika tekniska test och för att lyckas med testen krävs rätt testutrustning. Ingen befintlig testutrustning fanns tillgänglig vilket resulterade i en ny testutrustning som kunde testa alla motorlås utvecklades. Utifrån intervjuer med ingenjörer på ASSA kunde det fastställas att följande parameterr troligtvis kan påverka motorlåsets livslängd: temperatur, luftfuktighet, damm, korrosion, listtryck och vibrationer. Inte förens koefficienter, till ekvationen, har blivit fastställda är ekvationen färdig att användas.
45

Case study of a contract system : considering pulp prices from 1996-2006

Janstad, Tobias January 2007 (has links)
Södra Cell sells 1 900 000 ton pulp every year. Of this 490 000 tonne is sold with a contract system based on a pricing index called PIX NBSK. This index was started in 1996 and reflects the price of pulp from conferious forest. We study the NBSK PIX value of softwood from October 1996 to December 2006. People working in this branch known that there is strong periodicity in the prices. We use predictive analysis to see if clients can benefit from the periodicity and use the options in the contract system Södra offers today. We conclude that a drawback for the current contract system is that there are too many contracts in proportion to the duration time that is one year for all contracts. Using a time series model called ARMA we make successfull predictions the price difference between two contracts. Based on this prediction we change between these contracts, reducing the price with 0.81% in mean during 1997-2006. Due to the total turnover, if all clients would used such predictions during 1997-2006 Södra's income would have been reduced with 2.77 million USD a year in mean. The prices used before PIX are called list prices. The list prices seem to behave like the PIX index. Supposing that the same contract system we see in PIX today was used 1975-2006 with the list price as the base index I made a prediction of the list prices from 1986-2006. Thanks to my predictions, if I had been a client during this period and under mentioned considerations I would have been buying pulp to a price reduced with 0.57%. If clients had known the PIX between 1996-2006 in say 1995 Södra's contract system based on PIX would give them a price reduction that were 1.5% in mean during 1996-2006. Price reduction is not possible all years, but when it occurs it can be as big as 3% of the price. Suppose the clients always choose the contract with the lowest price and thereby get a reduced price over time. Then with 95% probability over a long period the price reduction is somewhere in between 0.4-2.7%. To strangle this price reduction possibility for the clients there are two ways to go: either reduce the number of contracts or extend the duration time of the contracts. To find a suitable duration time, we do spectral density estimation to get indications of which periods that are most important. From this we see that PIX index has a period of five years, wavelet approximated PIX index has 3.4 years and the list prices has a period of 5.6 years. This indicates that current duration time one year is too short. Therefore if it wouldn't effect Södra's clients, an extension of the duration time from one to five years would be good. If Södra don't extend the duration time of the contracts my recommendation is to have fewer contracts. The possibility to change between the contracts ''average last three months'' and ''average current month'' every other year is the weakest point of today's system. Therefore I recommend stop selling pulp to the contract ''average PIX last three months''. We can't prove any longterm difference between the contracts. If Södra chooses to have just one contract from this point of view it does not matter which one they choose. However, it seems like a good idea to follow the global market and therefore I recommend to choose ''average PIX current month'' rather than ''average PIX last three months'' which lags behind the market front. Since the price ''average current month'' is available at FOEX web page I think Södra should choose this contract if they decide to have only one contract. / Södra Cell säljer årligen 1 900 000 ton pappersmassa. Av denna mängd säljs 490 000 ton enligt ett kontraktsystem baserat på ett prisindex som heter PIX NBSK. Detta index introducerades 1996 och reflekterar priset på pappersmassa gjord av barrträd. Jag studerar priset på indexet från Oktober 1996 till December 2006. Dagens kontraktsystem är baserat på kontrakt med löptiden ett år. Jag undersöker om man kan prediktera prisskilllnaden mellan kontrakten, dra nytta att dagens löptid som bara är ett år och välja det kontrakt som ger det billigaste priset så ofta att priset över lång tid reduceras. När man predikterar gör man en uppskattningen av framtiden utifrån en modell av hur framtid beror på dåtid och nutid. Den modell jag har använt kallas ARMA. Denna tillsammans med priserna på pappersmassa från 1975 och framåt gav mig ett fruktbart sätt att förutsäga priserna. Resultatet blev ett pris reducerat med 0.81% i medel under perioden 1996-2006. Eftersom Södra ha så stor försäljningsvolym skulle de ha förlorat 2.27 miljoner dollar per ton i medel om alla kunder ha spekulerat utifrån den modellen jag använde. Om dagens kontraktsystem hade börjat användas 1975 med listpriserna som bas hade en kund som använt min prediktionsmetod fått ett pris reducerat med 0.57% under perioden 1986-2006. Om kunderna i förväg hade vetat priset under 1996-2001 gav det nuvarande systemet en reducerad medelintäkt med 1.5% av priset. Enskilda år reducerades intäkten med så mycket som 3%. Beräknar man konfidensintervall för prisreduktionerna så inser man att på lång sikt kommer dessa vara av storleksordningen 0.4-2.7% med sannolikheten 95%. Detta förutsatt att klienterna kan se in i framtiden. Siffran 2.7% alltså ett mått på hur stor risk man tar med dagens system. Jag tror inte att klienterna kommer reducera priset med 2.7% med nuvarande system, men det är en övre gräns. De gynsamma prediktionerna har sitt ursprung i att det finns periodicitet i priserna. Jag undersöker denna periodicitet med spektralanalys. Periodiciteten för PIX indexet är starkast kring 5 år. En wavelet-approximation av PIX-indexet hade störst periodicitet kring 3.4 år. Listpriserna hade starkast periodicitet kring 5.6 år. Detta indikerar att den nuvarande löptiden, ett år, är för kort. En lämpligare löptid för kontrakten är 5 år. Förmodligen är fem års löptid alltför lång tid att binda sig för många kunder. Därför föreslår jag att man reducerar antalet kontrakt istället. Den största svagheten i dagens system är den korta löptiden tillsammans med kontrakten ''average current month'' och ''average last three months''. Jag rekommenderar att man slutar erbjuda kontraktet ''average last three months''. Det allra säkraste är att endast erbjuda ett kontrakt. Vi har inte kunnat påvisa några skillnader över lång sikt mellan kontrakten såtillvida att något kontrakt skulle ge ett lägre medelpris än ett annat. Ur den aspekten är det godtyckligt vilket kontrakt man väljer, men det verkar vettigt att följa den globala marknaden. Därför är det eftersläpande kontraktet ''average PIX last three months'' inte att rekommendera, välj heller ''average PIX current month''. Ett annat argument för att välja ''average PIX current month'' är att dessa priser finns på FOEX hemsida och inga extra beräkningar behöver göras.
46

Case study of a contract system : considering pulp prices from 1996-2006

Janstad, Tobias January 2007 (has links)
<p>Södra Cell sells 1 900 000 ton pulp every year. Of this 490 000 tonne is sold with a contract system based on a pricing index called PIX NBSK. This index was started in 1996 and reflects the price of pulp from conferious forest. We study the NBSK PIX value of softwood from October 1996 to December 2006.</p><p>People working in this branch known that there is strong periodicity in the prices. We use predictive analysis to see if clients can benefit from the periodicity and use the options in the contract system Södra offers today. We conclude that a drawback for the current contract system is that there are too many contracts in proportion to the duration time that is one year for all contracts. Using a time series model called ARMA we make successfull predictions the price difference between two contracts. Based on this prediction we change between these contracts, reducing the price with 0.81% in mean during 1997-2006. Due to the total turnover, if all clients would used such predictions during 1997-2006 Södra's income would have been reduced with 2.77 million USD a year in mean.</p><p>The prices used before PIX are called list prices. The list prices seem to behave like the PIX index. Supposing that the same contract system we see in PIX today was used 1975-2006 with the list price as the base index I made a prediction of the list prices from 1986-2006. Thanks to my predictions, if I had been a client during this period and under mentioned considerations I would have been buying pulp to a price reduced with 0.57%.</p><p>If clients had known the PIX between 1996-2006 in say 1995 Södra's contract system based on PIX would give them a price reduction that were 1.5% in mean during 1996-2006. Price reduction is not possible all years, but when it occurs it can be as big as 3% of the price. Suppose the clients always choose the contract with the lowest price and thereby get a reduced price over time. Then with 95% probability over a long period the price reduction is somewhere in between 0.4-2.7%.</p><p>To strangle this price reduction possibility for the clients there are two ways to go: either reduce the number of contracts or extend the duration time of the contracts.</p><p>To find a suitable duration time, we do spectral density estimation to get indications of which periods that are most important. From this we see that PIX index has a period of five years, wavelet approximated PIX index has 3.4 years and the list prices has a period of 5.6 years. This indicates that current duration time one year is too short. Therefore if it wouldn't effect Södra's clients, an extension of the duration time from one to five years would be good.</p><p>If Södra don't extend the duration time of the contracts my recommendation is to have fewer contracts. The possibility to change between the contracts ''average last three months'' and ''average current month'' every other year is the weakest point of today's system. Therefore I recommend stop selling pulp to the contract ''average PIX last three months''.</p><p>We can't prove any longterm difference between the contracts. If Södra chooses to have just one contract from this point of view it does not matter which one they choose. However, it seems like a good idea to follow the global market and therefore I recommend to choose ''average PIX current month'' rather than ''average PIX last three months'' which lags behind the market front. Since the price ''average current month'' is available at FOEX web page I think Södra should choose this contract if they decide to have only one contract.</p> / <p>Södra Cell säljer årligen 1 900 000 ton pappersmassa. Av denna mängd säljs 490 000 ton enligt ett kontraktsystem baserat på ett prisindex som heter PIX NBSK. Detta index introducerades 1996 och reflekterar priset på pappersmassa gjord av barrträd. Jag studerar priset på indexet från Oktober 1996 till December 2006.</p><p>Dagens kontraktsystem är baserat på kontrakt med löptiden ett år. Jag undersöker om man kan prediktera prisskilllnaden mellan kontrakten, dra nytta att dagens löptid som bara är ett år och välja det kontrakt som ger det billigaste priset så ofta att priset över lång tid reduceras. När man predikterar gör man en uppskattningen av framtiden utifrån en modell av hur framtid beror på dåtid och nutid. Den modell jag har använt kallas ARMA. Denna tillsammans med priserna på pappersmassa från 1975 och framåt gav mig ett fruktbart sätt att förutsäga priserna. Resultatet blev ett pris reducerat med 0.81% i medel under perioden 1996-2006. Eftersom Södra ha så stor försäljningsvolym skulle de ha förlorat 2.27 miljoner dollar per ton i medel om alla kunder ha spekulerat utifrån den modellen jag använde.</p><p>Om dagens kontraktsystem hade börjat användas 1975 med listpriserna som bas hade en kund som använt min prediktionsmetod fått ett pris reducerat med 0.57% under perioden 1986-2006.</p><p>Om kunderna i förväg hade vetat priset under 1996-2001 gav det nuvarande systemet en reducerad medelintäkt med 1.5% av priset. Enskilda år reducerades intäkten med så mycket som 3%. Beräknar man konfidensintervall för prisreduktionerna så inser man att på lång sikt kommer dessa vara av storleksordningen 0.4-2.7% med sannolikheten 95%. Detta förutsatt att klienterna kan se in i framtiden. Siffran 2.7% alltså ett mått på hur stor risk man tar med dagens system. Jag tror inte att klienterna kommer reducera priset med 2.7% med nuvarande system, men det är en övre gräns.</p><p>De gynsamma prediktionerna har sitt ursprung i att det finns periodicitet i priserna. Jag undersöker denna periodicitet med spektralanalys. Periodiciteten för PIX indexet är starkast kring 5 år. En wavelet-approximation av PIX-indexet hade störst periodicitet kring 3.4 år. Listpriserna hade starkast periodicitet kring 5.6 år. Detta indikerar att den nuvarande löptiden, ett år, är för kort. En lämpligare löptid för kontrakten är 5 år.</p><p>Förmodligen är fem års löptid alltför lång tid att binda sig för många kunder. Därför föreslår jag att man reducerar antalet kontrakt istället. Den största svagheten i dagens system är den korta löptiden tillsammans med kontrakten ''average current month'' och ''average last three months''. Jag rekommenderar att man slutar erbjuda kontraktet ''average last three months''. Det allra säkraste är att endast erbjuda ett kontrakt. Vi har inte kunnat påvisa några skillnader över lång sikt mellan kontrakten såtillvida att något kontrakt skulle ge ett lägre medelpris än ett annat. Ur den aspekten är det godtyckligt vilket kontrakt man väljer, men det verkar vettigt att följa den globala marknaden. Därför är det eftersläpande kontraktet ''average PIX last three months'' inte att rekommendera, välj heller ''average PIX current month''. Ett annat argument för att välja ''average PIX current month'' är att dessa priser finns på FOEX hemsida och inga extra beräkningar behöver göras.</p>
47

Försäljningsprediktion : en jämförelse mellan regressionsmodeller / Sales prediction : a comparison between regression models

Fridh, Anton, Sandbecker, Erik January 2021 (has links)
Idag finns mängder av företag i olika branscher, stora som små, som vill förutsäga sin försäljning. Det kan bland annat bero på att de vill veta hur stort antal produkter de skall köpa in eller tillverka, och även vilka produkter som bör investeras i över andra. Vilka varor som är bra att investera i på kort sikt och vilka som är bra på lång sikt. Tidigare har detta gjorts med intuition och statistik, de flesta vet att skidjackor inte säljer så bra på sommaren, eller att strandprylar inte säljer bra under vintern. Det här är ett simpelt exempel, men hur blir det när komplexiteten ökar, och det finns ett stort antal produkter och butiker? Med hjälp av maskininlärning kan ett sånt här problem hanteras. En maskininlärningsalgoritm appliceras på en tidsserie, som är en datamängd med ett antal ordnade observationer vid olika tidpunkter under en viss tidsperiod. I den här studiens fall är detta försäljning av olika produkter som säljs i olika butiker och försäljningen ska prediceras på månadsbasis. Tidsserien som behandlas är ett dataset från Kaggle.com som kallas för “Predict Future Sales”. Algoritmerna som används i för den här studien för att hantera detta tidsserieproblem är XGBoost, MLP och MLR. XGBoost, MLR och MLP har i tidigare forskning gett bra resultat på liknande problem, där bland annat bilförsäljning, tillgänglighet och efterfrågan på taxibilar och bitcoin-priser legat i fokus. Samtliga algoritmer presterade bra utifrån de evalueringsmått som användes för studierna, och den här studien använder samma evalueringsmått. Algoritmernas prestation beskrivs enligt så kallade evalueringsmått, dessa är R², MAE, RMSE och MSE. Det är dessa mått som används i resultat- och diskussionskapitlen för att beskriva hur väl algoritmerna presterar. Den huvudsakliga forskningsfrågan för studien lyder därför enligt följande: Vilken av algoritmerna MLP, XGBoost och MLR kommer att prestera bäst enligt R², MAE, RMSE och MSE på tidsserien “Predict Future Sales”. Tidsserien behandlas med ett känt tillvägagångssätt inom området som kallas CRISP-DM, där metodens olika steg följs. Dessa steg innebär bland annat dataförståelse, dataförberedelse och modellering. Denna metod är vad som i slutändan leder till resultatet, där resultatet från de olika modellerna som skapats genom CRISP-DM presenteras. I slutändan var det MLP som fick bäst resultat enligt mätvärdena, följt av MLR och XGBoost. MLP fick en RMSE på 0.863, MLR på 1.233 och XGBoost på 1.262 / Today, there are a lot of companies in different industries, large and small, that want to predict their sales. This may be due, among other things, to the fact that they want to know how many products they should buy or manufacture, and also which products should be invested in over others. In the past, this has been done with intuition and statistics. Most people know that ski jackets do not sell so well in the summer, or that beach products do not sell well during the winter. This is a simple example, but what happens when complexity increases, and there are a large number of products and stores? With the help of machine learning, a problem like this can be managed easier. A machine learning algorithm is applied to a time series, which is a set of data with several ordered observations at different times during a certain time period. In the case of this study, it is the sales of different products sold in different stores, and sales are to be predicted on a monthly basis. The time series in question is a dataset from Kaggle.com called "Predict Future Sales". The algorithms used in this study to handle this time series problem are XGBoost, MLP and MLR. XGBoost, MLR and MLP. These have in previous research performed well on similar problems, where, among other things, car sales, availability and demand for taxis and bitcoin prices were in focus. All algorithms performed well based on the evaluation metrics used by the studies, and this study uses the same evaluation metrics. The algorithms' performances are described according to so-called evaluation metrics, these are R², MAE, RMSE and MSE. These measures are used in the results and discussion chapters to describe how well the algorithms perform. The main research question for the study is therefore as follows: Which of the algorithms MLP, XGBoost and MLR will perform best according to R², MAE, RMSE and MSE on the time series "Predict Future Sales". The time series is treated with a known approach called CRISP-DM, where the methods are followed in different steps. These steps include, among other things, data understanding, data preparation and modeling. This method is what ultimately leads to the results, where the results from the various models created by CRISP-DM are presented. In the end, it was the MLP algorithm that got the best results according to the measured values, followed by MLR and XGBoost. MLP got an RMSE of 0.863, MLR of 1,233 and XGBoost of 1,262
48

Task Load Modelling for LTE Baseband Signal Processing with Artificial Neural Network Approach

Wang, Lu January 2014 (has links)
This thesis gives a research on developing an automatic or guided-automatic tool to predict the hardware (HW) resource occupation, namely task load, with respect to the software (SW) application algorithm parameters in an LTE base station. For the signal processing in an LTE base station it is important to get knowledge of how many HW resources will be used when applying a SW algorithm on a specic platform. The information is valuable for one to know the system and platform better, which can facilitate a reasonable use of the available resources. The process of developing the tool is considered to be the process of building a mathematical model between HW task load and SW parameters, where the process is dened as function approximation. According to the universal approximation theorem, the problem can be solved by an intelligent method called articial neural networks (ANNs). The theorem indicates that any function can be approximated with a two-layered neural network as long as the activation function and number of hidden neurons are proper. The thesis documents a work ow on building the model with the ANN method, as well as some research on data subset selection with mathematical methods, such as Partial Correlation and Sequential Searching as a data pre-processing step for the ANN approach. In order to make the data selection method suitable for ANNs, a modication has been made on Sequential Searching method, which gives a better result. The results show that it is possible to develop such a guided-automatic tool for prediction purposes in LTE baseband signal processing under specic precision constraints. Compared to other approaches, this model tool with intelligent approach has a higher precision level and a better adaptivity, meaning that it can be used in any part of the platform even though the transmission channels are dierent. / Denna avhandling utvecklar ett automatiskt eller ett guidat automatiskt verktyg for att forutsaga behov av hardvaruresurser, ocksa kallat uppgiftsbelastning, med avseende pa programvarans algoritmparametrar i en LTE basstation. I signalbehandling i en LTE basstation, ar det viktigt att fa kunskap om hur mycket av hardvarans resurser som kommer att tas i bruk nar en programvara ska koras pa en viss plattform. Informationen ar vardefull for nagon att forsta systemet och plattformen battre, vilket kan mojliggora en rimlig anvandning av tillgangliga resurser. Processen att utveckla verktyget anses vara processen att bygga en matematisk modell mellan hardvarans belastning och programvaruparametrarna, dar processen denieras som approximation av en funktion. Enligt den universella approximationssatsen, kan problemet losas genom en intelligent metod som kallas articiella neuronnat (ANN). Satsen visar att en godtycklig funktion kan approximeras med ett tva-skiktS neuralt natverk sa lange aktiveringsfunktionen och antalet dolda neuroner ar korrekt. Avhandlingen dokumenterar ett arbets- ode for att bygga modellen med ANN-metoden, samt studerar matematiska metoder for val av delmangder av data, sasom Partiell korrelation och sekventiell sokning som dataforbehandlingssteg for ANN. For att gora valet av uppgifter som lampar sig for ANN har en andring gjorts i den sekventiella sokmetoden, som ger battre resultat. Resultaten visar att det ar mojligt att utveckla ett sadant guidat automatiskt verktyg for prediktionsandamal i LTE basbandssignalbehandling under specika precisions begransningar. Jamfort med andra metoder, har dessa modellverktyg med intelligent tillvagagangssatt en hogre precisionsniva och battre adaptivitet, vilket innebar att den kan anvandas i godtycklig del av plattformen aven om overforingskanalerna ar olika.
49

Intra-prediction for Video Coding with Neural Networks / Intra-prediktion för videokodning med neurala nätverk

Hensman, Paulina January 2018 (has links)
Intra-prediction is a method for coding standalone frames in video coding. Until now, this has mainly been done using linear formulae. Using an Artificial Neural Network (ANN) may improve the prediction accuracy, leading to improved coding efficiency. In this degree project, Fully Connected Networks (FCN) and Convolutional Neural Networks (CNN) were used for intra-prediction. Experiments were done on samples from different image sizes, block sizes, and block contents, and their effect on the results were compared and discussed. The results show that ANN methods have the potential to perform better or on par with the video coder High Efficiency Video Coding (HEVC) in the intra-prediction task. The proposed ANN designs perform better on smaller block sizes, but different designs could lead to better performance on larger block sizes. It was found that training one network for each HEVC mode and using the most suitable network to predict each block improved performance of the ANN approach. / Intra-prediktion är en metod för kodning av stillbilder i videokodning. Hittills har detta främst gjorts med hjälp av linjära formler. Användning av artificialla neuronnät (ANN) skulle kunna öka prediktionsnoggrannheten och ge högre effektivitet vid kodning. I detta examensarbete användes fully connected networks (FCN) och convolutional neural networks (CNN) för att utföra intra-prediktion. Experiment gjordes på prover från olika bildstorlekar, blockstorlekar och blockinnehåll, och de olika parametrarnas effekt på resultaten jämfördes och diskuterades. Resultaten visar att ANN-metoder har potential att prestera bättre eller lika bra som videokodaren High Efficiency Video Coding (HEVC) för intra-prediktion. De föreslagna ANN-designerna presterar bättre på mindre blockstorlekar, men andra ANN-designs skulle kunna ge bättre prestanda för större blockstorlekar. Det konstaterades att prestandan för ANN-metoderna kunde ökas genom att träna ett nätverk för varje HEVC-mode och använda det mest passande nätverket för varje block.
50

Synthetic Graph Generation at Scale : A novel framework for generating large graphs using clustering, generative models and node embeddings / Storskalig generering av syntetiska grafer : En ny arkitektur för att tillverka stora grafer med hjälp av klustring, generativa modeller och nodinbäddningar

Hammarstedt, Johan January 2022 (has links)
The field of generative graph models has seen increased popularity during recent years as it allows us to model the underlying distribution of a network and thus recreate it. From allowing anonymization of sensitive information in social networks to data augmentation of rare diseases in the brain, the ability to generate synthetic data has multiple applications in various domains. However, most current methods face the bottleneck of trying to generate the entire adjacency matrix and are thus limited to graphs with less than tens of thousands of nodes. In contrast, large real-world graphs like social networks or transaction graphs can extend significantly beyond these boundaries. Furthermore, the current scalable approaches are predominantly based on stochasticity and do not capture local structures and communities. In this paper, we propose Graphwave Edge-Linking CELL or GELCELL, a novel three-step architecture for generating graphs at scale. First, instead of constructing the entire network, GELCELL partitions the data and generates each cluster separately, allowing for efficient and parallelizable training. Then, by encoding the nodes, it trains a classifier to predict the edges between the partitions to patch them together, creating a synthetic version of the original large graph. Although it does suffer from some limitations due to necessary constraints on the cluster sizes, the results showed that GELCELL, given optimized parameters, can produce graphs with reasonable accuracy on all data tested, with the largest having 400 000 nodes and 1 000 000 edges. / Generativa grafmodeller har sett ökad popularitet under de senaste åren eftersom det möjliggör modellering av grafens underliggande distribution, och vi kan på så sätt återskapa liknande kopior. Förmågan att generera syntetisk data har ett flertal applikationsområden i en mängd av områden, allt från att möjligöra anonymisering av känslig data i sociala nätverk till att utöka mängden tillgänglig data av ovanliga hjärnsjukdomar. Dagens metoder har länge varit begränsade till grafer med under tiotusental noder, då dessa inte är tillräckligt skalbara, men grafer som sociala nätverk eller transaktionsgrafer kan sträcka sig långt utöver dessa gränser. Dessutom är de nuvarande skalbara tillvägagångssätten till största delen baserade på stokasticitet och fångar inte lokala strukturer och kluster. I denna rapport föreslår vi ”Graphwave EdgeLinking CELL” eller GELCELL, en trestegsarkitektur för att generera grafer i större skala. Istället för att återskapa hela grafen direkt så partitionerar GELCELL all datat och genererar varje kluster separat, vilket möjliggör både effektiv och parallelliserbar träning. Vi kan sedan koppla samman grafen genom att koda noderna och träna en modell för att prediktera länkarna mellan kluster och återskapa en syntetisk version av originalet. Metoden kräver vissa antaganden gällande max-storleken på dess kluster men är flexibel och kan rymma domänkännedom om en specifik graf i form av informerad parameterinställning. Trots detta visar resultaten på varierade träningsdata att GELCELL, givet optimerade parametrar, är kapabel att genera grafer med godtycklig precision upp till den största beprövade grafen med 400 000 noder och 1 000 000 länkar.

Page generated in 0.0611 seconds