• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 560
  • 32
  • 6
  • 2
  • Tagged with
  • 620
  • 620
  • 585
  • 52
  • 41
  • 40
  • 38
  • 34
  • 33
  • 30
  • 30
  • 29
  • 28
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Cluster analysis on sparse customer data on purchase of insurance products / Klusteranalys på gles kunddata på köp av försäkringsprodukter

Postigo Smura, Michel Alexander January 2019 (has links)
This thesis work aims at performing a cluster analysis on customer data of insurance products. Three different clustering algorithms are investigated. These are K-means (center-based clustering), Two-Level clustering (SOM and Hierarchical clustering) and HDBSCAN (density-based clustering). The input to the algorithms is a high-dimensional and sparse data set. It contains information about the customers previous purchases, how many of a product they have bought and how much they have paid. The data set is partitioned in four different subsets done with domain knowledge and also preprocessed by normalizing respectively scaling before running the three different cluster algorithms on it. A parameter search is performed for each of the cluster algorithms and the best clustering is compared with the other results. The best is measured by the highest average silhouette index. The results indicates that all of the three algorithms performs approximately equally good, with single exceptions. However, it can be stated that the algorithm showing best general results is K-means on scaled data sets. The different preprocessings and partitions of the data impacts the results in different ways and this shows that it is important to preprocess the input data in several ways when performing a cluster analysis. / Målet med detta examensarbete är att utföra en klusteranalys på kunddata av försäkringsprodukter. Tre olika klusteralgoritmer undersöks. Dessa är Kmeans (center-based clustering), Two-Level clustering (SOM och Hierarchical clustering) och HDBSCAN (density-based clustering). Input till algoritmerna är ett högdimensionellt och glest dataset. Det innhåller information om kundernas tidigare köp, hur många produkter de har köpt och hur mycket de har betalat. Datasetet delas upp i fyra delmängder med kunskap inom området och förarbetas också genom att normaliseras respektive skalas innan klustringsalgoritmerna körs på det. En parametersökning utförs för dem tre olika algoritmerna och den bästa klustringen jämförs med de andra resultaten. Den bästa algoritmen bestäms genom att beräkna the högsta silhouette index-medelvärdet. Resultaten indikerar att alla tre algoritmerna levererar ungefärligt lika bra resultat, med enstaka undantag. Dock, kan det bekräftas att algoritmen som visar bäst resultat överlag är K-means på skalade dataset. De olika förberedelserna och uppdelningarna av datasetet påverkar resultaten på olika sätt och detta tyder på vikten av att förbereda input datat på flera sätt när en klusteranalys utförs.
182

Sonarbildigenkänningssystem för att röja minor / Sonar image recognition system to clear mines

Englund, Moa January 2019 (has links)
Det finns ett intresse för att skapa säkra farvägar för militär och civil båttrafik. I svenska vatten ligger det kvar många havsminor från världskrigen som behöver röjas för att kunna skapa dessa vägar. Om en mina ska kunna röjas på ett säkert sätt är det till fördel att ha information om vilken bottentopografi som den befinner sig i. Detta görs genom att samla in sonarbilder ifrån autonoma undervattensfarkoster, AUV:er. I denna rapport undersöks sonarbilderna genom att analysera en bit i taget med hjälp av olika kvadratiska filterstorlekar som roteras. Den bildbit som filtret täcker analyseras med hjälp applicering av en Gaussianfunktion som med hjälp av diskret Fourier Transform tar fram fyra olika varianser. Haar- funktionen har ej använts då den inte har samma noggrannhet i rumsdimensionen som Gaussian-funktionen har. Dessa varianser beskriver hur bildbiten varierar i en punkt, en linje, i radie samt i vinkel. Olika kombinationer av dessa varianser leder till olika inneboende dimensioner i bildbitens mittersta pixel. De inneboende dimensionerna beskriver bottentopografierna på olika sätt. Med hjälp av deep learning appliceras metoderna på ett träningsset som består av ett antal sonarbilder som plockats ut för vardera dimension. Med hjälp av Fourier-metoden beskriven ovan bestäms gränserna med ett konfidensintervall på 95%. De gränser som fanns längst ifrån 0 samt 1 var 0.22257 respektive 0.77708. Gränserna applicerades i algoritmen som sedan tog fram numeriska värden för de inneboende dimensionerna. Utifrån dessa resultat blev det möjligt att presentera säkra farvägar genom grönmarkerade områden i sonarbilden. De filter som genererade det noggrannaste resultatet var de minsta filtren för alla rotationer. / There is an interest to make safe routes for military and civil boat traffic. In the Swedish seas there exist a lot of mines from the world wars that need to be removed to create these highways. If a mine is going to be demined in a safe way it is in favor to have information about what kind of seafloor topography it is laying on. This is done by collecting sonar images from autonomous underwater vehicles, AUV:s. In this report the sonar images are analyzed by investigating a smaller piece of the image. This is done by using different quadratic filter sizes which are rotating. The image piece which the filter is covering is analyzed by applying a Gaussian function that in combination with a discrete Fourier transform is producing four different variances. The Haar-function is not used since it has a lower accuracy in the dimension of the room than the Gaussian function has. These variances describes how the image piece varies in a point, a line, radius and angle. Different combinations of those variances are resulting in different intrinsic dimensions in the middle pixel of the image piece. The different intrinsic dimensions describes the seafloor topography in different ways. The methods are applied on a training set with deep learning. The training set consists of sonar images which are chosen for every dimension. Applying the above mentioned Fourier-method it is possible to choose the boundaries with a confidence interval of 95%. Those boundaries that were most far away from 0 and 1 were 0.22257 respectively 0.77708. These limits are applied in the algorithm that later on determines the numerical values for the intrinsic dimensions. It was possible to present safe highways in green in the sonar image from these results. Those filters that generated the highest accuracy were the smallest filters for all rotations.
183

Machine Learning for Sparse Time-Series Classification - An Application in Smart Metering / Maskininlärningsmetoder för klassificering av glesa tidsserier medtillämpning på smarta mätare

Ridnert, Carl January 2019 (has links)
Smart Meters are measuring devices collecting labeled time series data of utility consumptions from sub-meters and are capable of automatically transmit-ting this between the customer and utility companies together with other companies that offer services such as monitoring of consumption and cleaning of data. The smart meters are in some cases experiencing communication errors. One such error occurs when the information about what the utility sub-meters are measuring is lost. This information is important for when the producers of the utility are billing the customers for their usage. The information has had to be collected manually, something which is inefficient in terms of time and money. In this thesis a method for classifying the meters based on their raw time series data is investigated. The data used in the thesis comes from Metry AB and contains thousands of time series in five different classes. The task is complicated by the fact that the data has a high class imbalance, contains many missing values and that the time series vary substantially in length. The proposed method is based on partitioning the time series into slices of equal size and training a Deep Neural Network (DNN) together with a Bayesian Neural Network (BNN) to classify the slices. Prediction on new time series is performed by the prediction of individual slices for that time series followed by a voting procedure. The method is justified through a set of assumptions about the underlying stochastic process generating the time series coupled with an analysis based on the multinomial distribution. The results indicate that the models tend to perform worse on the samples coming from the classes ”water” and ”hot water” and that the worst performance is on the ”hot water”-class. On all the classes the models achieve accuracies of around 60%, by excluding the ”hot water” class it is possible to achieve accuracies of at least 70% on the data set. The models perform worse on time series that contain a few number of good quality slices, by considering only time series which has many good quality slices, accuracies of 70% are achieved for all classes and above 80% when excluding ”Hot Water”. It is concluded that in order to further improve the classification performance, more data is needed. Drawbacks with the method are the increased number of hyper-parameters involved in the extraction of slices. However, the voting method seems promising enough to investigate further on more highly sparse data sets. / Smarta Mätare är maskiner kapabla att automatiskt sända data från sub-mätare mätandes förbrukningar av nyttigheter(utility) mellan kunden och företag som producerar nyttigheterna. Detta har inneburit att en marknad har öppnats upp för företag som tar förbrukningsdata och erbjuder tjänster så som appar där kunden kan se sin förbrukning samt rensning eller interpolering av data. Denna kommunikation har inneburit vissa problem, ett identifierat sådant är att det händer att information om vilken nyttighet som har mätts går förlorat. Denna information är viktig och har tidigare behövt hämtas manuellt på ett eller annat sätt, något som är ineffektivt. I detta examensarbete undersöks huruvida den informationen går att få tag på med enbart rådatan och klassificeringsalgoritmer. Datan kommer från Metry AB och innehåller tusentals tidsserier från fem olika klasser. Uppgiften försvåras av att datan uppvisar en stor obalans i klasserna, innehåller många saknade datapunkter och att tidsserierna varierar stort i längd. Metoden som föreslås baseras på en uppstyckning av tidsserierna i så kallade ”slices” av samma storlek och att träna Djupa Neurala Nätverk (DNN) och Bayesiska Neurala Nätverk (BNN) på dessa. Klassificering av nya tidsserier sker genom att låta modellerna rösta på slices från dem och välja den klass som får flest röster. Arbetet innehåller en teoretisk analys av röstningsprocessen baserat på en multinomial fördelning kombinerat med olika antaganden om processen som genererar dessa slices, denna syftar till att motivera valet av metod. Resultaten visar att modellerna kan tränas och korrekt klassificera mätarna till en viss grad samt att röstningsprocessen tenderar till att ge bättre resultat än att bara använda en slice per mätare. Det påvisas att prestandan är mycket sämre för en specifik klass, genom att exkludera den klassen så lyckas modellerna prestera slutgiltiga noggrannheter på mellan 70 − 80%. Det påvisas vissa skillnader mellan BNN modellen och DNN modellen i termer av noggrannhet, dock så är skillnaderna för små för att det ska gå att dra några generella slutsatser om vilken klassificeringsalgoritm som är bäst. Slutsatserna är att metoden verkar fungera rimligt väl på denna typ av data men att det behövs mer arbete för att förstå när den fungerar och hur man kan göra den bättre, detta är framtida arbete. Den största möjligheten till förbättring för just denna tillämpning identifieras vara att samla in mer data.
184

On model risk and interconnectedness in banks / Om modellers risk och inbördes samband i banker

Kihlström, Harald January 2018 (has links)
Nowadays banks are more reliant on the use of models and many of these models depend on each other. In this thesis techniques from graph theory are used to depict and study the network caused by these dependencies. This is done by creating a portfolio that corresponds to a simplified version of a bank and then selecting models appropriate to evaluate the portfolio. The importance of each model in the network is then measured using the centrality measures; degree centrality, Katz centrality and Page rank. The model risk associated with specific models can differ depending on the interested party’s views. These views can be reflected in the Katz and Page rank measurements by slightly modifying them. In this thesis three perspectives representing possible views of interested parties are investigated. The perspectives were focused on the amount valued by each valuation model, the sensitivity and the complexity of the models. The results indicate that the connections between the models affect the centrality measures to a greater extent than the risk introduced dependent on the different perspectives. Moreover the results indicate that the centrality measures used are more appropriate to identify potential victims of contagion rather than sources of contagion. / På senare tid har banker blivit alltmer beroende av användandet av modeller och många av dessa modeller är ofta beroende av varandra. I den här uppsatsen används tekniker från grafteori för att framställa och undersöka det nätverk som uppstår på grund sambanden. Detta görs genom att skapa en portfölj som motsvarar en förenklad version av en bank och sedan välja modeller lämpliga för att utvärdera portföljen. Vikten av varje modell undersöks med hjälp av de följande centralitetsmåtten; gradcentralitet, Katz-centralitet och Page Rank. Modellrisken associerad med specifika modeller kan skilja sig åt beroende på den intresserade partens åsikter. Genom viss modifiering av Katz och Page rank måtten är det möjligt att spegla dessa åsikter. Tre perspektiv som kan motsvara olika intressenters åsikter undersöks och dessa fokuserar på hur mycket som värderas av värderingsmodellerna, känsligheten samt komplexiteten hos varje enskild modell. Resultaten tyder på att sambanden mellan de olika modellerna har större betydelse än den risk som introduceras med hjälp av de modifierade centralitetsmåtten. Resultaten tyder även på att de använda centralitetsmåtten är mer lämpliga för att identifiera modeller som blivit påverkade av andra modellers risk än de modeller som sprider risk i nätverket.
185

Online Outlier Detection in Financial Time Series / Online outlier detektering i finansiella tidsserier

Sedman, Robin January 2018 (has links)
In this Master’s thesis, different models for outlier detection in financial time series are examined. The financial time series are price series such as index prices or asset prices. Outliers are, in this thesis, defined as extreme and false points, but this definition is also investigated and revised. Two different time series models are examined: an autoregressive (AR) and a generalized autoregressive conditional heteroskedastic (GARCH) time series model, as well as one test statistic method based on the GARCH model. Additionally, a nonparametric model is examined, which utilizes kernel density estimation in order to detect outliers. The models are evaluated by how well they detect outliers and how often they misclassify inliers as well as the run time of the models. It is found that all the models performs approximately equally good, on the data sets used in thesis and the simulations done, in terms of how well the methods find outliers, apart from the test static method which performs worse than the others. Furthermore it is found that definition of an outlier is very crucial to how well a model detects the outliers. For the application of this thesis, the run time is an important aspect, and with this in mind an autoregressive model with a Student’s t-noise distribution is found to be the best one, both with respect to how well it detects outliers, misclassify inliers and run time of the model. / I detta examensarbete undersöks olika modeller för outlierdetektering i finansiella tidsserier. De finansiella tidsserierna är prisserier som indexpriser eller tillgångspriser. Outliers är i detta examensarbete definierade som extrema och falska punkter, men denna definition undersöks och revideras också. Två olika tidsseriemodeller undersöks: en autoregressiv (AR) och en generel au-toregressiv betingad heteroskedasticitet1 (GARCH) tidsseriemodell, samt en hypotesprövning2 baserad på GARCH-modellen. Dessutom undersöks en icke-parametrisk modell, vilken använder sig utav uppskattning av täthetsfunktionen med hjälp av kärnfunktioner3 för att detektera out-liers. Modellerna utvärderas utifrån hur väl de upptäcker outliers, hur ofta de kategoriserar icke-outliers som outliers samt modellens körtid. Det är konstaterat att alla modeller ungefär presterar lika bra, baserat på den data som används och de simuleringar som gjorts, i form av hur väl outliers är detekterade, förutom metoden baserad på hypotesprövning som fungerar sämre än de andra. Vidare är det uppenbart att definitionen av en outlier är väldigt avgörande för hur bra en modell detekterar outliers. För tillämpningen av detta examensarbete, så är körtid en viktig faktor, och med detta i åtanke är en autoregressiv modell med Students t-brusfördelning funnen att vara den bästa modellen, både med avseende på hur väl den detekterar outliers, felaktigt detekterar inliers som outliers och modellens körtid.
186

Modeling Non-Maturing Deposits Using Replicating Portfolio Models

Brunqvist, Oskar January 2018 (has links)
In recent years, regulatory and legislative authorities have increased their interest in non-maturing products, more specifically modeling of non-maturing deposits. This increase stems from the ever growing portion of banks funding originating from these products. The main purpose of this thesis is to provide an overview of different replicating portfolio models available for modeling non-maturing deposits and as-sess their applicability and suitability. Six different models suggested in the literature and two model extensions are presented and evaluated based on three categories; goodness of fit, stability and transparency. The results indicate that static replicating portfolios provide a poor fit for modeling the interest rate behavior in current interest rate market conditions. / Tillsynsmyndigheter och lagstiftande organ har under senare år ökat sitt intresse i finansiella produkter som saknar kontrakterad förfallodag, framförallt icke tidsbunden inlåning. Detta beror på att bankers finansiering i allt större utsträckning utgörs av dessa instrument. Det huvudsakliga syftet med detta arbete är att skapa en översiktlig bild av befintliga modeller som använder replikerande portföljer och utvärdera deras lämplighet. Sex olika modeller från befintlig litteratur samt två nya modeller presenteras och utvärderas baserat på tre kategorier; passform, stabilitet och transparens. Resultaten indikerar att statiska replikerande portföljer överlag har en dålig passform för att modellera räntesättningsbeteende i rådande marknadsränteläge.
187

Analyzing the Tobii Real-world-mapping tool and improving its workflow using Random Forests / Analys av Tobiis real-world-mapping-verktyg och förbättring av dess arbetsflöde med hjälp av random forests

Herlitz, Mattias January 2018 (has links)
The Tobii Pro Glasses 2 are used to record gaze data that is used for market research or scientific experiments. To make extraction of relevant statistics more efficient, the gaze points in the recorded video are mapped to a static snapshot with areas of interests (AOIs). The most important statistics revolve around fixations. A fixation is when a person is keeping his or her vision still for a short period of time. The method most used today is to manually map the gaze points. However, a faster method is automated mapping using the Real World Mapping (RWM) tool. In order to examine the reliability of RWM, the fixations from different recordings and projects were analyzed using Decision Trees. Further, a Random Forest (RF) model was constructed in order to predict if a gaze point was correctly or incorrectly mapped. It was shown that fixation classification on data from RWM performed significantly worse than when the same fixation classification on manually mapped data was run. It was shown that RWM works better when head movement is low and AOIs are set appropriately. This can guide researchers in set- ting up experiments, although major improvements of RWM is needed. The RF classifier showed promising results on several test sets for mapped gaze points. It also showed promising results for gaze points that were not mapped and were close in time to being mapped. In conclusion, the RF should replace current methods of estimating the quality of RWM gaze points. Gaze points that are classified as badly mapped can be manually remapped. If RWM fails to map large segments of gaze points to a snapshot, visually classifying these to be remapped is the preferred method. / Tobii Pro Glasses 2 används för att spela in tittdata vid marknadsundersökningar och vetenskapliga experiment. Tittpunkterna mappas från den inspelade filmen till en bild med intresseareor (AOI). De flesta viktiga mätvärdena handlar om fixationer, som uppkommer när en person betraktar samma ställe under en kort period. Metoden som främst används idag är att mappa tittpunkter manuellt, men ett snabbare sätt är att genom automatisk mappning använda Real World Mapping-verktyget (RWM). RWM:s tillförlitlighet undersöktes genom att analysera fixationer från flera inspelningar med hjälp av beslutsträd. En metod för att klassificera gazepunkter som korrekt eller icke-korrekt mappade skapades med hjälp av Random Forests (RF). Resultaten visar att RWM inte är särskilt bra på att mappa fixationer, varken att finna dem eller mappa dem till korrekt AOI. Det visade sig att RWM fungerar bättre vid begränsade rörelser och då AOI:erna är korrekt utformade, vilket kan agera som riktlinjer för den som utför ett experiment. RWM borde dock förbättras. RF-klassificeringen gav bra resultat på flera test set där tittpunkterna är mappade på en bild av RWM, och på tittpunkter som inte var mappade av RWM men som var i avseende av tid nära tittpunkter som är mappade. Tittpunkter som är långt ifrån mappade tittpunkter hade dåliga testresultat. Slutsatsen var att relevanta tittpunkter borde klassificeras med RF för att mappa om felaktigt mappade tittpunkter. Om RWM inte mappar stora segment tittpunkter så borde visuell klassificering användas.
188

Exotic Derivatives and Deep Learning / Exotiska derivat och djupinlärning

Broström, Axel, Kristiansson, Richard January 2018 (has links)
This thesis investigates the use of Artificial Neural Networks (ANNs)for calculating present values, Value-at-Risk and Expected Shortfall ofoptions, both European call options and more complex rainbow options. Theperformance of the ANN is evaluated by comparing it to a second-order Taylorpolynomial using pre-calculated sensitivities to certain risk-factors. Amultilayer perceptron approach is chosen based on previous literature andapplied to both types of options. The data is generated from a financial risk-managementsoftware for both call options and rainbow options along with the relatedTaylor approximations. The study shows that while the ANN outperforms theTaylor approximation in calculating present values and risk measures forcertain movements in the underlying risk-factors, the general conclusion isthat an ANN trained and evaluated in accordance with the method in this studydoes not outperform a Taylor approximation even if it is theoretically possiblefor the ANN to do so. The important conclusion of the study is that the ANNseems to be able to learn to calculate present values that otherwise requireMonte Carlo simulation. Thus, the study is a proof of concept that requiresfurther development for implementation. / Denna masteruppsats undersöker användningen avArtificiella Neurala Nätverk (ANN) för att beräkna nuvärdet, Value-at-Risk ochExpected Shortfall för optioner, både Europeiska köpoptioner samt mer komplexarainbow-optioner. ANN:t jämförs med ett Taylorpolynom av andra ordningen somanvänder känsligheter mot ett flertal riskfaktorer. En typ av ANN som kallasmultilayer perceptron väljs baserat på tidigare forskning inom området ochappliceras på båda typerna av optioner. Datan som används har genererats frånett finansiellt riskhanteringssystem för såväl köpoptioner som rainbow-optionertillsammans med tillhörande Taylorapproximation. Studien visar att även om ANNslår Taylorpolynomet för vissa specifika beräkningar av nuvärdet och riskvärdenså är den generella slutsatsen att ett ANN som är tränad och utvärderad enligtmetoden i denna studie inte presterar bättre än ett Taylorpolynom även om detär teoretiskt möjligt att ANN:t kan göra det. Den viktigaste slutsatsen fråndenna studie är att ANN:t verkar kunna lära sig prissätta komplexa finansielladerivat som annars kräver Monte Carlo-simulering. Således validerar dennastudie ett koncept som kräver ytterligare utveckling före det implementeras
189

Risk Modelling in Payment Guarantees / Riskmodellering i betalningsgarantier

Kratz, Gutstav January 2018 (has links)
The Swedish Export Credit Agency (EKN) issues payment guarantees to Swedish companies who face the risk of non-payments in export transactions. Commitments are typically correlated, as defaults of companies are driven by other factors than factors specific to that company, such as the economic cycle or the regional conditions. In deciding upon how much capital to be reserved to remain solvent even in an unlikely scenario, this has to be accounted for in order to not underestimate financial risks.By studying models for credit risk and the research available in the area, the popular CreditRisk+ has been chosen as a suitable model for EKN to use in risk assessments. The model together with a few customizations are described in detail and tested on data from EKN. / Exportkreditnämnden (EKN) utfärdar betalningsgarantier till svenska exportörer som riskerar inställda betalningar. Fallissemang hos olika motparter är typiskt korrelerade. Vid bedömning av risken i portföljen av garantier måste detta tas i beaktning, för att inte underskatta risken väsentligt. Genom att studera befintliga kreditriskmodeller och tillgänglig forskning inom området har en modell föreslagits som kan användas i EKN:s riskbedömningar. Modellen beskrivs i detalj och testas på data från EKN.
190

An analysis of how variables andhome styling affect housing prices / En analys om hur variabler och homestyling påverkar bostadspriser

Cheng, Jenny, Valdmaa, Andreas January 2018 (has links)
Based on the growing interest for home styling and earlier psychological scientific evidence, this study examines how home styling and other variables affect the final price of condominiums in Uppsala. Using multiple linear regression and different statistics, seven different models are analyzed in order to determine whether or not home styling is an influencing factor. To obtain a reliable result, nine other variables such as starting price, living area and floor level etc. are included in the initial model. In addition, these models are investigated statistically to determine if near linear dependence among the regressor variables exists or not. The results show that home styling have a positive impact on the final price of a condominium. The different analytical methods do not always agree, but if looking at the regression result and confidence interval it is obvious that home styling can help increase the final price. Using variable selection, home styling is only included in the model when allowing seven or more variables. The results and analysis from this report is not enough to determine exactly how much home styling affects the final price; since home styling is converted to a dummy variable in the study. The conclusion is that there is a correlation between the response, final price, and the regressor variable, home styling. / Baserat på det växande intresset för home styling och tidigare vetenskapliga studier inom psykologi, kommer denna rapport att undersöka huruvida home styling och andra variabler påverkar slutpriset på en bostadsrätt i Uppsala. Med hjälp av multipel regressionsanalys kommer sju olika modeller analyseras för att avgöra om home styling är en influerande faktor eller inte. För att få ett pålitligt resultat har nio andra variabler såsom startpris, bostads area och våning etc. inkluderats i initialmodellen. Dessa modeller analyseras sedan statistiskt för att upptäcka potentiell multikolinjäritet och linjärt beroende mellan variablerna. Resultatet visar på att home styling har en positiv påverkan på slutpriset av en bostadsrätt. De olika analytiska metoderna tillhandahåller inte alltid enhetliga resultat, men kollar man regressionsanalysen och på konfidensintervallet så är det uppenbart att home styling kan bidra till ett högre slutpris. Baserat på variabelselektion, är home styling endast inkluderad i modellen när vi tillåter sju eller fler variabler i modellen. Resultatet från denna studie är dock inte tillräcklig för att bestämma exakt hur mycket home styling kan påverka slutpriset, eftersom home styling är konverterad till en dummy variabel i analysen. Slutliga resultatet är att det finns en korrelation mellan responsvariabeln, slutpris och regressorvariabeln, home styling.

Page generated in 0.3954 seconds