• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 35
  • 13
  • 4
  • 3
  • Tagged with
  • 55
  • 23
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Den svenska aktiemarknadens beroende av makroekonomin i Tyskland och USA / The Swedish Stock Market's Dependence of the Macroeconomy in Germany and USA

Karlsson, Robin, Olsson, Jessica January 2007 (has links)
<p>Bakgrund: Dagligen diskuteras utländsk makroekonomiska data i svensk media, där förväntningarna på utvecklingen av dessa sätts i sammanhang med utvecklingen på den svenska börsen.</p><p>Syfte: Målet med den här studien var att utröna i hur stor utsträckning denna information kan anses vara betydande för en aktieinvesterare med kapital på den svenska börsen. Hänsyn togs även till börscykler samt varierande tidsperioder.</p><p>Genomförande: Med grund i the Arbitrage Pricing Theory genomfördes multipla regressionsanalyser, med det svenska indexet OMXS30 som beroendevariabel. Undersökningarna baserades på månadsdata för perioden april 1991 till och med augusti 2006. Den makroekonomiska datan försköts därtill en period för att ta hänsyn till variablernas eventuella fördröja effekter på Stockholmsbörsen.</p><p>Resultat: Integrationen mellan börserna visade sig ha ökat över tiden, med undantag för extraordinära perioder som IT-boomen, där makroekonomiska fundamentaldata istället slås ut. En positiv utvecklingen av långräntan samt konsumentförtroendet i USA tyder på en samtida börsuppgång i Sverige. Vidare är båda växelkurserna starkt signifikanta, där en stärkt dollar och en försvagad euro har positiva effekter på den svenska marknadsutvecklingen.</p> / <p>Background: Foreign macroeconomic fundamentals are daily discussed in the Swedish media, where expectations on the development of these are put into context with the ecnonomic development in Sweden.</p><p>Aim: The purpose of this thesis is to analyse to what extent this information is important for a investor on the Swedish Stock Market. Consideration was also taken to trends in the Stock Market as well as varying time periods.</p><p>Research Method: Against the background of the Abritrage Pricing Theory a multiple regression analysis was conducted,with the Swedish Stock Market Index OMXS30 as the dependent variable. The macroeconomic variables where based on monthly data between April 1991 and August 2006 and were thereto lagged one period in order to identify any delayed effects.</p><p>Result: The integration between the Stock Markets was found to increse over time, with the exception of extraordinary periods, as the IT-boom, where macroeconomic fundamentals lost significance. A positive long-term interest rate as well as a positive consumer confidence in the U.S. was found to indicate a contemporary rising market in Sweden. Further were both of the exchange rates found significant, where a stronger dollar and a weaker euro have positive effects on the Swedish current Stock Market.</p>
32

Den svenska aktiemarknadens beroende av makroekonomin i Tyskland och USA / The Swedish Stock Market's Dependence of the Macroeconomy in Germany and USA

Karlsson, Robin, Olsson, Jessica January 2007 (has links)
Bakgrund: Dagligen diskuteras utländsk makroekonomiska data i svensk media, där förväntningarna på utvecklingen av dessa sätts i sammanhang med utvecklingen på den svenska börsen. Syfte: Målet med den här studien var att utröna i hur stor utsträckning denna information kan anses vara betydande för en aktieinvesterare med kapital på den svenska börsen. Hänsyn togs även till börscykler samt varierande tidsperioder. Genomförande: Med grund i the Arbitrage Pricing Theory genomfördes multipla regressionsanalyser, med det svenska indexet OMXS30 som beroendevariabel. Undersökningarna baserades på månadsdata för perioden april 1991 till och med augusti 2006. Den makroekonomiska datan försköts därtill en period för att ta hänsyn till variablernas eventuella fördröja effekter på Stockholmsbörsen. Resultat: Integrationen mellan börserna visade sig ha ökat över tiden, med undantag för extraordinära perioder som IT-boomen, där makroekonomiska fundamentaldata istället slås ut. En positiv utvecklingen av långräntan samt konsumentförtroendet i USA tyder på en samtida börsuppgång i Sverige. Vidare är båda växelkurserna starkt signifikanta, där en stärkt dollar och en försvagad euro har positiva effekter på den svenska marknadsutvecklingen. / Background: Foreign macroeconomic fundamentals are daily discussed in the Swedish media, where expectations on the development of these are put into context with the ecnonomic development in Sweden. Aim: The purpose of this thesis is to analyse to what extent this information is important for a investor on the Swedish Stock Market. Consideration was also taken to trends in the Stock Market as well as varying time periods. Research Method: Against the background of the Abritrage Pricing Theory a multiple regression analysis was conducted,with the Swedish Stock Market Index OMXS30 as the dependent variable. The macroeconomic variables where based on monthly data between April 1991 and August 2006 and were thereto lagged one period in order to identify any delayed effects. Result: The integration between the Stock Markets was found to increse over time, with the exception of extraordinary periods, as the IT-boom, where macroeconomic fundamentals lost significance. A positive long-term interest rate as well as a positive consumer confidence in the U.S. was found to indicate a contemporary rising market in Sweden. Further were both of the exchange rates found significant, where a stronger dollar and a weaker euro have positive effects on the Swedish current Stock Market.
33

Untersuchung der Auflösungsgrenzen eines Variablen Formstrahlelektronenschreibers mit Hilfe chemisch verstärkter und nicht verstärkter Negativlacke

Steidel, Katja 01 April 2011 (has links) (PDF)
Ziele wie eine hohe Auflösung und ein hoher Durchsatz sind bisher in der Elektronenstrahllithografie nicht gleichzeitig erreichbar; es existieren daher die Belichtungskonzepte Gaussian-Beam und Variable-Shaped-Beam (VSB), die auf Hochauflösung respektive Durchsatz optimiert sind. In dieser Arbeit wird der experimentelle Kreuzvergleich beider Belichtungskonzepte mit Hilfe chemisch verstärkter und nicht verstärkter Lacksysteme präsentiert. Als quantitativer Parameter wurde die Gesamtunschärfe eingeführt, die sich durch quadratische Addition der auflösungslimitierenden Fehlerquellen, also Coulomb-Wechselwirkungen (Strahlunschärfe), Lackprozess (Prozessunschärfe) und Proximity-Effekt (Streuunschärfe), ergibt. Für den Vergleich wurden wohldefinierte Prozesse auf 300 mm Wafern entwickelt und umfassend charakterisiert. Weitere Grundlage ist die Anpassung oder Neuentwicklung spezieller Methoden wie Kontrast- und Basedosebestimmung, Doughnut-Test, Isofokal-Dosis-Methode für Linienbreiten und Linienrauheit sowie die Bestimmung der Gesamtunschärfe unter Variation des Fokus. Es wird demonstriert, dass sich mit einer kleineren Gesamtunschärfe die Auflösung dichter Linien verbessert. Der direkte Vergleich der Gesamtunschärfen beider Belichtungskonzepte wird durch die variable Strahlunschärfe bei VSB-Schreibern erschwert. Da für die Bestimmung der Gesamtunschärfe keine Hochauflösung nötig ist, wird das Testpattern mit größeren Shots belichtet und induziert somit eine größere Gesamtunschärfe. Es wird gezeigt, dass die Prozessunschärfe den größten Anteil der Gesamtunschärfe stellt. Außerdem spielt die Streuunschärfe bei Lackdicken kleiner 100 nm und Beschleunigungsspannungen von 50 kV oder größer keine Rolle. / Up to now, targets like high resolution and high throughput can not be achieved at the same time in electron beam lithography; therefore, the exposure concepts Gaussian-Beam and Variable-Shaped-Beam (VSB) exist, which are optimized for high resolution and throughput, respectively. In this work, the experimental cross-comparison of both exposure concepts is presented using chemically amplified and non-chemically amplified resist systems. For quantification the total blur parameter has been introduced, which is the result of the quadratic addition of the resolution limiting error sources, like Coulomb interactions (beam blur), resist process (process blur) and proximity-effect (scatter blur). For the comparison, well-defined processes have been developed on 300 mm wafers and were fully characterized. Further basis is the adaption or the new development of special methods like the determination of contrast and basedose, the doughnut-test, the isofocal-dose-method for line widths and line roughness as well as the determination of the total blur with variation of the focus. It is demonstrated, that the resolution of dense lines is improved with a smaller total blur. The direct comparison of the total blur values of both exposure concepts is complicated by the variable beam blur of VSB writers. Since high resolution is not needed for the determination of the total blur, the test pattern is exposed with larger shots on the VSB writer, which induces a larger total blur. It is shown that the process blur makes the largest fraction of the total blur. The scatter blur is irrelevant using resist thicknesses smaller than 100 nm and acceleration voltages of 50 kV or larger.
34

Readjusting Historical Credit Ratings : using Ordered Logistic Regression and Principal ComponentAnalysis

Cronstedt, Axel, Andersson, Rebecca January 2018 (has links)
Readjusting Historical Credit Ratings using Ordered Logistic Re-gression and Principal Component Analysis The introduction of the Basel II Accord as a regulatory document for creditrisk presented new concepts of credit risk management and credit risk mea-surements, such as enabling international banks to use internal estimates ofprobability of default (PD), exposure at default (EAD) and loss given default(LGD). These three measurements is the foundation of the regulatory capitalcalculations and are all in turn based on the bank’s internal credit ratings. Ithas hence been of increasing importance to build sound credit rating modelsthat possess the capability to provide accurate measurements of the credit riskof borrowers. These statistical models are usually based on empirical data andthe goodness-of-fit of the model is mainly depending on the quality and sta-tistical significance of the data. Therefore, one of the most important aspectsof credit rating modeling is to have a sufficient number of observations to bestatistically reliable, making the success of a rating model heavily dependenton the data collection and development state.The main purpose of this project is to, in a simple but efficient way, createa longer time series of homogeneous data by readjusting the historical creditrating data of one of Svenska Handelsbanken AB’s credit portfolios. Thisreadjustment is done by developing ordered logistic regression models thatare using independent variables consisting of macro economic data in separateways. One model uses macro economic variables compiled into principal com-ponents, generated through a Principal Component Analysis while all othermodels uses the same macro economic variables separately in different com-binations. The models will be tested to evaluate their ability to readjust theportfolio as well as their predictive capabilities. / Justering av historiska kreditbetyg med hjälp av ordinal logistiskregression och principialkomponentsanalys När Basel II implementerades introducerades även nya riktlinjer för finan-siella instituts riskhantering och beräkning av kreditrisk, så som möjlighetenför banker att använda interna beräkningar av Probability of Default (PD),Exposure at Default (EAD) och Loss Given Default (LGD), som tillsammansgrundar sig i varje låntagares sannoliket för fallissemang. Dessa tre mått ut-gör grunden för beräkningen av de kapitaltäckningskrav som banker förväntasuppfylla och baseras i sin tur på bankernas interna kreditratingsystem. Detär därmed av stor vikt för banker att bygga stabila kreditratingmodeller medkapacitet att generera pålitliga beräkningar av motparternas kreditrisk. Dessamodeller är vanligtvis baserade på empirisk data och modellens goodness-of-fit,eller passning till datat, beror till stor del på kvalitén och den statistiska sig-nifikansen hos det data som står till förfogande. Därför är en av de viktigasteaspekterna för kreditratingsmodeller att ha tillräckligt många observationeratt träna modellen på, vilket gör modellens utvecklingsskede samt mängdendata avgörande för modellens framgång.Huvudsyftet med detta projekt är att, på ett enkelt och effektivt sätt, skapaen längre, homogen tidsserie genom att justera historisk kreditratingdata i enportfölj med företagslån tillhandahållen av Svenska Handelsbanken AB. Jus-teringen görs genom att utveckla olika ordinala logistiska regressionsmodellermed beroende variabler bestående av makroekonomiska variabler, på olikasätt. En av modellerna använder makroekonomiska variabler i form av princi-palkomponenter skapade med hjälp av en principialkomponentsanalys, medande andra modelelrna använder de makroekonomiska variablerna enskilt i olikakombinationer. Modellerna testas för att utvärdera både deras förmåga attjustera portföljens historiska kreditratings samt för att göra prediktioner.
35

En tvärsnittsstudie som utforskar nivå av hälsokompetens hos grundskolläraren och sambandet till demografiska variabler / A cross-sectional study to investigate the level of health literacy of primary school teacher and to capture demographic variables

Reeder, Ebba January 2021 (has links)
Introduktion: Hälsokompetens är viktigt för individen för att på ett adekvat sätt kunna ta till sig hälsoinformation, bearbeta, reflektera samt omvandla kunskaperna till praktik. Skolan är en viktig arena för hälsofrämjande arbete, då elever oavsett bakgrund ingår i skolsystemet. Grundskolläraren har en viktig roll i det hälsofrämjande arbetet som sker på skolan riktat mot eleverna. Syfte: Syftet med studien var att utforska grundskollärares totala nivå av hälsokompetens och på vilket sätt nivån skiljer sig mellan variablerna i instrumentet HLS-EU-Q16. Metod: En tvärsnittsstudie genomfördes med hjälp av en webbaserad enkätundersökning. Instrumentet HLS-EU-Q16 inkluderades i enkäten för att undersöka nivån av hälsokompetens. Rekrytering skedde via sociala medier. Frekvens och Chi2-test genomfördes. Resultat: Bland grundskollärarna (n=22) hade 90.9% en tillräcklig hälsokompetensnivå, medan 9,1 % hade problematisk hälsokompetens. Medelålder var 46.7 år och medelarbetslivserfarenhet var 16 år. Självskattat allmänt hälsotillstånd var 39.7% mycket bra, 51.6% bra, samt 9.7 någorlunda. Av deltagarna hade 35.5% en utbildning på fyra år eller mindre, och 64,5% hade över fyra års utbildning. Det fanns frågor inom instrumentet HLS-EU-Q16 som varierade. Självskattad allmänt hälsotillstånd tenderade att påverkas av ålder och utbildningsnivå. Demografiska variablerna ålder, arbetslivserfarenhet, hälsotillstånd, utbildningsnivå samt kön kunde inte inkluderas i en sambandsanalys med utfallsvariabeln hälsokompetensindex på grund av för litet stickprov. Slutsats: Hälsokompetensnivån var hög i studiepopulationen / Introduction: A high health literacy level is important for the individual to be able to adequately absorb, process and reflect over health information, and transform health knowledge into practice. The school is an important arena for health promotive work, as students, regardless of background, are part of the Swedish school system. Primary school teachers have important roles in health promotive school interventions, when students are the target population. Aim: The study aim was to explore primary school teachers' level of health literacy and in what way the level differs between included demographic variables. Method: A cross-sectional study was conducted using a web-based survey. The instrument HLS-EU-Q16 was included in the questionnaire to examine the level of health literacy. Participants were recruited through Facebook. Results: Among primary school teachers, 90.9% had sufficient health literacy and 9.1% problematic. The average age was 46.7 years and the average work experience was 16 years. Self-rated general health condition was 39.7% very good, 51.6% good, and 9.7% reasonably. The education level among participants differed,where 35.5% had an education that were four years or less and 64.5% had over four years of education. The demographic variables age, work experience, state of health, level of education and gender could not be included in a correlation analysis with the outcome variable health literacy index due to too small sample group. Conclusion: The level of health literacy is high in the study group of primary school teachers.
36

Hur oförväntade makroekonomiska svängningar påverkar aktiemarknadens branschindex : En komparativ analys mellan Sverige, Danmark, Finland och Tyskland / The impact of unanticipated macroeconomic fluctuations on the stock market’s sector index : A comparative analysis between Sweden, Denmark, Finland and Germany

Utterberg, Jennie, Bååth, Johanna January 2023 (has links)
Med bakgrund till det ökade intresset för aktier och dagens ekonomiska läge är det högst aktuellt att undersöka relationen mellan makroekonomiska svängningar och aktiepriserna på den svenska börsen. Det finns flera teorier som försöker förklara hur aktiepriser förändras, en allmän slutsats är att externa faktorer påverkar priset genom oförväntade händelser. Chen, Roll och Ross konstruerade en tidsseriemodell för att studera hur oförväntade makroekonomiska faktorer påverkar aktieavkastningen på New York-börsen. Deras slutsatser landade i att oförväntade förändringar i samtliga variabler har en signifikant relation till aktieprisavkastningen. Med detta i åtanke är syftet med uppsatsen att undersöka om avkastningen på olika branscher på den svenska börsen påverkas av oförväntade månatliga förändringar i inflation (KPI), konjunkturläget (BNP), avkastningskurvan, riskpremien samt växelkursen under tidsperioden 2000-2023. Det genomförs även en jämförande analys mellan de europeiska länderna Sverige, Tyskland, Danmark och Finland. De branschindex som studeras är finans, industri, teknologi, sjukvård och detaljhandel för respektive land. Genom en multipel regressionsmodell har få signifikanta samband påvisats, däremot finner vi ett mönster i negativa respektive positiva relationer mellan oförväntade makroekonomiska händelser och aktieavkastningen för samtliga länder. Sammanfattningsvis finner vi inga tydliga skillnader i vilka branscher som påverkas av respektive riskfaktor, däremot finns en skillnad i antal signifikanta värden mellan länderna. Nationella makroekonomiska händelser påvisar flest signifikanta samband till tyska branschindex, följt av danska och finska. Minst signifikanta samband påvisas för de svenska branschindexen. En förklaring bakom resultatet kan vara att ländernas aktiemarknader är mer eller mindre effektiva och investerare på respektive marknad är olika mottagliga till ny information. Avslutningsvis ser vi det vara rimligt att både branscher och länder påverkas av riskfaktorerna i olika stor utsträckning. Att bygga en aktieportfölj med tillgångar från både olika branscher och länder är därmed betydelsefullt för att sprida sina risker. / Considering the increased interest in the stock market and the current economic situation, it is highly relevant to examine the relationship between macroeconomic fluctuations and share prices on the Swedish stock exchange. There are several theories that try to explain how stock prices change, a general conclusion is that external factors affect the price through unexpected events. Chen, Roll, and Ross constructed a time series model in order to study how unexpected macroeconomic factors affect stock returns on the New York Stock Exchange. Their conclusions resulted in that unexpected changes in all variables have a significant relationship to share price returns. With this in mind, the purpose of the essay is to investigate whether the return on various sector indexes on the Swedish stock exchange is affected by unexpected monthly changes in inflation (CPI), economic state (GNP), the term structure, the risk premium and the exchange rate during the time period 2000-2023. A comparative analysis is also carried out between the European countries Sweden, Germany, Denmark and Finland. The examined sector indexes are finance, industry, technology, healthcare and retail for each country. Through a multiple regression model, the result shows that few macroeconomic variables are significant in explaining stock returns. However, we find a pattern in negative as well as positive relationships between unexpected risk factors and stock returns for all countries. We find no significant differences in which sectors are affected by each risk factor but there is a difference in the number of significant values ​​between the countries. National macroeconomic events show the most significant relations to German sector indexes, followed by Danish and Finnish. Least significant relationships are found for the Swedish sector indexes. An explanation behind the result could be that the countries stock markets are more or less efficient and investors in each market are differently receptive to new information. Our conclusion is that we see it as reasonable that both sectors and countries are affected by the risk factors to varying degrees. Building a stock portfolio with assets from both different sectors and countries is therefore important for spreading your risks.
37

Towards a Data-Driven Football Playbook / Mot en datadriven fotbollsspelbok

Pálmason Morthens, Ágúst January 2023 (has links)
At a competitive level, football teams often have multiple matches per week. Thus, time can be a limited resource for match analysts tasked with analysing the performance of their team and its opponents. Increased availability of data in the field offers possibilities to automate processes to save time. This thesis presents a method to automatically detect pre-defined moments of interest in the game, and how they can be analysed to gain insights into the play style of football teams and how they create and concede goal-scoring opportunities in open play. An algorithm was developed to synchronise Wyscout event data with Signality tracking data of 240 matches from the Swedish Allsvenskan, which resulted in a mean absolute error of 280 ms. Comprehensible features were extracted from the combined data to detect eleven moments of interest in the absence of manually labelled data: crosses, passes to the golden zone, switches of play, central through balls, wing plays, keeping possession, long balls from the back, counterattacks, establish possession, counterpresses and fall back. The detection for fall back failed, but the remaining moments of interest were detected with a precision of 0.84. The automatic moment detection was made accessible through a web-based application, enabling analysts to focus on analysing aspects of the game rather than spending time searching for them. The detected moments were then analysed, demonstrating that by conducting a more extensive analysis, a data-driven playbook providing insights into how football teams play and create or concede goal-scoring opportunities can be established. / På elitnivå har fotbollslag ofta flera matcher per vecka. Tiden kan därmed vara en begränsad resurs för matchanalytiker som har i uppgift att analysera prestationen hos sitt eget lag och dess motståndare. Ökad tillgänglighet av data i fotboll ger möjligheter att automatisera processer för att spara tid. Denna studie presenterar en metod för att automatiskt upptäcka fördefinierade spelfaser av intresse och hur de kan analyseras för att få insikter i fotbollslagens spelsätt och hur de skapar och släpper till målchanser i öppet spel. En algoritm utvecklades för att synkronisera Wyscout händelsedata med Signality spårningsdata från 240 matcher från Allsvenskan, vilket resulterade i ett genomsnittligt absolut synkroniseringsfel på 280 ms. Begripliga variabler extraherades från den kombinerade datan för att upptäcka elva spelfaser av intresse utan manuell datamärkning: inlägg, passningar till de gyllene zonerna, spelvändningar, centrala genomskärare, spel på kanterna, bibehållning av bollinnehav, långbollar från backlinjen, kontringar, etablering av bollinnehav, direkta återerövringar och tillbakafall. Detekteringen av tillbakafall misslyckades, men de återstående faserna av intresse upptäcktes med ett positivt prediktivt värde på 0,84. Den automatiserade fasupptäckten gjordes tillgänglig genom en webbaserad applikation, vilket möjliggör för analytiker att fokusera på att analysera olika aspekter av spelet i stället för att tillbringa tid på att söka efter dem. De upptäckta faserna av intresse analyserades sedan, vilket visade att genom att genomföra en mer omfattande analys kan en datadriven spelbok skapas som ger insikter i hur fotbollslag spelar och skapar eller släpper till målchanser.
38

GDPR ́s Impact on Sales at Flygresor.se: A Regression Analysis / GDPRs påverkan på försäljning hos Flygresor.se: en regressionsanalys

Lansryd, Lisette, Engvall Birr, Madeleine January 2019 (has links)
The possible effects of the General Data Protections Regulations (GDPR) have been widely discussed among policymakers, stakeholders and ordinary people who are the objective for data collection. The purpose of GDPR is to protect people’s integrity and increase transparency for how personal data is used. Up until May 25th, 2018 personal data could be sampled and used without consent from users. Many argue that the introduction of GDPR is good, others are reluctant and argue that GDPR may harm data-driven companies. The report aims to answer how GDPR affects sales at the flight search engine Flygresor.se. By examining how and to what extent these regulations impact revenue, it is hoped for that these findings will lead to a deeper understanding of how these regulations affect businesses. Multiple linear regression analysis was used as the framework to answer the research question. Numerous models were constructed based on data provided by Flygresor.se. The models mostly included categorical variables representing time indicators such as month, weekday, etc. After carefully performing data modifications, variable selections and model evaluation tests three final models were obtained. After performing statistical inference tests and multicollinearity diagnostics on the models it could be concluded that an effect from GDPR could not be statistically proven. However, this does not mean that an actual effect of GDPR did not occur, only that it could not be isolated and proven. Thus, the extent of the effect of GDPR is statistically inconclusive. / De möjliga följderna av införandet av General Data Protections Regulations (GDPR) har varit väl omdiskuterat bland beslutsfattare, intressenter och människor som är målet för datainsamlingen. Syftet med GDPR är att skydda människors integritet samt öka insynen för hur personlig data används. Fram tills den 25 maj 2018 har det varit möjligt att samla in och använda personuppgifter utan samtyckte från användare. Många menar att införandet av GDPR är nödvändigt medans andra är mer kritiska och menar att GDPR kan skada lönsamheten för data beroende verksamheter. Denna rapport syftar till att svara på huruvida GDPR har påverkat försäljningen på flygsökmotorn Flygresor.se. Genom att undersöka om och i vilken utsträckning dessa regler påverkat intäkterna, är förhoppningen att dessa resultat kan leda till en djupare förståelse för hur GDPR påverkar företag. Multipel linjär regressionsanalys användes som ramverk för att svara på frågeställningen. Flera modeller utformades baserat på data som tillhandahölls av Flygresor.se. Modellerna var främst baserade på kategoriska variabler som representerade tidsaspekter så som månad, veckodag etc. Efter ett grundligt genomförande av data modifieringar, variabelselektion och modellutvärdering kunde tre modeller konstateras. Efter att ha genomfört signifikanstester och korrelationstester på modellerna kunde det fastställas att en effekt från GDPR inte kunde statistiskt säkerställas. Dock betyder detta inte att GDPR inte har haft en faktisk effekt, utan att en effekt inte kunde isoleras och bevisas.
39

An investigation of categorical variable encoding techniques in machine learning: binary versus one-hot and feature hashing / En undersökning av kodningstekniker för diskreta variabler inom maskininlärning: binär mot one-hot och feature hashing

Seger, Cedric January 2018 (has links)
Machine learning methods can be used for solving important binary classification tasks in domains such as display advertising and recommender systems. In many of these domains categorical features are common and often of high cardinality. Using one-hot encoding in such circumstances lead to very high dimensional vector representations, causing memory and computability concerns for machine learning models. This thesis investigated the viability of a binary encoding scheme in which categorical values were mapped to integers that were then encoded in a binary format. This binary scheme allowed for representing categorical features using log2(d)-dimensional vectors, where d is the dimension associated with a one-hot encoding. To evaluate the performance of the binary encoding, it was compared against one-hot and feature hashed representations with the use of linear logistic regression and neural networks based models. These models were trained and evaluated using data from two publicly available datasets: Criteo and Census. The results showed that a one-hot encoding with a linear logistic regression model gave the best performance according to the PR-AUC metric. This was, however, at the expense of using 118 and 65,953 dimensional vector representations for Census and Criteo respectively. A binary encoding led to a lower performance but used only 35 and 316 dimensions respectively. For Criteo, binary encoding suffered significantly in performance and feature hashing was perceived as a more viable alternative. It was also found that employing a neural network helped mitigate any loss in performance associated with using binary and feature hashed representations. / Maskininlärningsmetoder kan användas för att lösa viktiga binära klassificeringsuppgifter i domäner som displayannonsering och rekommendationssystem. I många av dessa domäner är kategoriska variabler vanliga och ofta av hög kardinalitet. Användning av one-hot-kodning under sådana omständigheter leder till väldigt högdimensionella vektorrepresentationer. Detta orsakar minnesoch beräkningsproblem för maskininlärningsmodeller. Denna uppsats undersökte användbarheten för ett binärt kodningsschema där kategoriska värden var avbildade på heltalvärden som sedan kodades i ett binärt format. Detta binära system tillät att representera kategoriska värden med hjälp av log2(d) -dimensionella vektorer, där d är dimensionen förknippad med en one-hot kodning. För att utvärdera prestandan för den binära kodningen jämfördes den mot one-hot och en hashbaserad kodning. En linjär logistikregression och ett neuralt nätverk tränades med hjälp av data från två offentligt tillgängliga dataset: Criteo och Census, och den slutliga prestandan jämfördes. Resultaten visade att en one-hot kodning med en linjär logistisk regressionsmodell gav den bästa prestandan enligt PR-AUC måttet. Denna metod använde dock 118 och 65,953 dimensionella vektorrepresentationer för Census respektive Criteo. En binär kodning ledde till en lägre prestanda generellt, men använde endast 35 respektive 316 dimensioner. Den binära kodningen presterade väsentligt sämre specifikt för Criteo datan, istället var hashbaserade kodningen en mer attraktiv lösning. Försämringen i prestationen associerad med binär och hashbaserad kodning kunde mildras av att använda ett neuralt nätverk.
40

On the impact of geospatial features in real estate appraisal with interpretable algorithms / Om påverkan av geospatiala variabler i fastighetsvärdering med tolkbara algoritmer

Jäger, Simon January 2021 (has links)
Real estate appraisal is the means of defining the market value of land and property affixed to it. Many different features determine the market value of a property. For example, the distance to the nearest park or the travel time to the central business district may be significant when determining its market value. The use of machine learning in real estate appraisal requires algorithm accuracy and interpretability. Related research often defines these two properties as a trade-off and suggests that more complex algorithms may outperform intrinsically interpretable algorithms. This study tests these claims by examining the impact of geospatial features on interpretable algorithms in real estate appraisal. The experiments use property transactions from Oslo, Norway, and adds relative and global geospatial features for all properties using geocoding and spherical distance calculations. Such as the distance to the nearest park or the city center. The experiment implements three intrinsically interpretable algorithms; a linear regression algorithm, a decision tree algorithm, and a RuleFit algorithm. For comparison, it also implements two artificial neural network algorithms as a baseline. This study measures the impact of geospatial features using the algorithm performance by the coefficient of determination and the mean absolute error for the algorithm without and with geospatial features. Then, the individual impact of each geospatial feature is measured using four feature importance measures; mean decrease impurity, input variable importance, mean decrease accuracy, and Shapley values. The statistically significant results show that geospatial features improve algorithm performance. The improvement of algorithm performance is not unique to interpretable algorithms but occurs for all algorithms. Furthermore, it shows that interpretable algorithms are not axiomatically inferior to the tested artificial neural network algorithms. The distance to the city center and a nearby hospital are, on average, the most important geospatial features. While important for algorithm performance, precisely what the geospatial features capture remains for future examination. / Fastighetsvärdering är ett sätt att bestämma marknadsvärdet på mark och egendom som anbringas på den. Flera olika variabler påverkar marknadsvärdet för en fastighet. Avståndet till närmaste park eller restiden till det centrala affärsdistriktet kan till exempel vara betydande när man bestämmer ett marknadsvärde. Användningen av maskininlärning vid fastighetsvärdering kräver noggrannhet och tolkbarhet hos algoritmer. Relaterad forskning definierar ofta dessa två egenskaper som en kompromiss och föreslår att mer komplexa algoritmer kan överträffa tolkbara algoritmer. Den här studien testar dessa påståenden genom att undersöka påverkan av geospatiala variabler på tolkbara algoritmer i fastighetsvärdering. Experimentet använder fastighetstransaktioner från Oslo i Norge, och lägger till relativa och globala geospatiala variabler för alla fastigheter med hjälp av geokodning och sfäriska avståndsberäkningar. Såsom avståndet till närmaste park eller stadens centrum. Experimentet implementerar tre tolkbara algoritmer; en linjär regressionsalgoritm, en beslutsträdalgoritm och en RuleFit-algoritm. Som jämförelse implementerar den också två artificiella neuronnätsalgoritmer som en baslinje. Studien mäter påverkan av geospatiala variabler med algoritmprestanda genom determinationskoefficienten och det genomsnittliga absoluta felet för algoritmen med och utan geospatiala variabler. Därefter mäts den individuella påverkan av varje geospatial variabel med hjälp av fyra mått på variabelbetydelse; mean decrease impurity, input variabel importance, mean decrease accuracy och Shapley-värden. De statistiskt signifikanta resultaten visar att geospatiala variabler förbättrar algoritmers prestanda. Förbättringen av algoritmprestanda är inte unik för tolkningsbara algoritmer utan sker för alla algoritmer. Dessutom visar resultatet att tolkningsbara algoritmer inte är sämre än de testade artificiella neuronnätsalgoritmerna. Avståndet till stadens centrum och det närmaste sjukhuset är i genomsnitt de viktigaste geospatiala variablerna. Även om de geospatial variablerna är viktiga för algoritmprestanda, kvarstår frågan om vad exakt de betyder för framtida granskning.

Page generated in 0.0606 seconds