• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 3
  • Tagged with
  • 21
  • 19
  • 19
  • 9
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Building a standard operating procedure for the analysis of mass spectrometry data

Malmqvist, Niklas January 2012 (has links)
Mass spectrometry (MS) is used in peptidomics to find novel endogenous peptides that may lead to the discovery of new biomarkers. Identifying endogenous peptides from MS is a time-consuming and challenging task; storing identified peptides in a database and comparing them against unknown peptides from other MS runs avoids re-doing identification. MS produce large amounts of data, making interpretation difficult. A platform for helping the identification of endogenous peptides was developed in this project, including a library application for storing peptide data. Machine learning methods were also used to try to find patterns in peptide abundance that could be correlated to a specific sample or treatment type, which can help focus the identification work on peptides of high interest.
2

Automated Setup of Display Protocols

Bergström, Patrik January 2015 (has links)
Radiologists' workload has been steadily increasing for decades. As digital technology matures it improves the workflow for radiology departments and decreases the time necessary to examine patients. Computer systems are widely used in health care and are for example used to view radiology images. To simplify this, display protocols based on examination data are used to automatically create a layout and hang images for the user. To cover a wide variety of examinations hundreds of protocols must be created, which is a time-consuming task and the system can still fail to hang series if strict requirements on the protocols are not met. To remove the need for this manual step we propose to use machine learning based on past manually corrected presentations. The classifiers are trained on the metadata in the examination and how the radiologist preferred to hang the series. The chosen approach was to create classifiers for different layout rules and then use these predictions in an algorithm for assigning series types to individual image slots according to categories based on metadata, similar to how display protocol works. The resulting presentations shows that the system is able to learn, but must increase its prediction accuracy if it is to be used commercially. Analyses of the different parts show that increased accuracy in early steps should improve overall success. / Röntgenläkares arbetsbörda har under flera årtionden ökat. Den digitala sjukvårdsteknologin utvecklas ständigt vilket bidrar till ett förbättrat arbetsflöde och kortare undersökningstider i radiologiavdelningar. Datorsystem används idag överallt inom sjukvården och används bland annat för att visa bilder åt röntgenläkare. För att underlätta visningen används display protocol som automatiskt skapar layouts och hänger bilder åt användaren. För att täcka ett stort antal olika undersökningstyper krävs att användaren skapar hundratals protokoll vilket är en tidskrävande uppgift, och systemet kan ändå misslyckas med att hänga upp bilder om de strikta kraven protokollen ställer inte uppfylls. För att ta bort detta manuella steg föreslår vi att man använder maskininlärning baserat på tidigare sparade presentationer.  Klassificerarna tränas på undersökningens metadata och radiologens preferenser på hängning av serier. Den valda metoden går ut på att skapa klassificerare för olika layout-regler och att sedan använda deras output i en algoritm som placerar ut series-typer till individuella bildplatser enligt kategorier baserade på metadata. Denna metod liknar den process de nuvarande display protokollen utför. De presentationer som skapats visar att systemet kan läras upp, men kräver högre precision om det ska användas kommersiellt. Analys av de olika delarna tyder på att ökad precision tidigt i systemet skulle öka den totala precision.
3

Automatic Tagging of Salary Differences

Gustafsson, Emanuel January 2021 (has links)
Jämlikhet på arbetsplatser är fortfarande ett stort problem särskilt när det kommer till lönesättning. För att hjälpa till att lösa det problemet har Sysarb utvecklat olika verktyg för att hitta icke jämlika förhållanden i löner på företag och organisationer. Ett av de verktygen är ett löneanalysverktyg som hjälper till att jämföra löner så de är jämlika med avseende på kön, ålder och andra faktorer. Vid lönanalyser är en av de viktigaste delarna att förklara skillnaderna i lön mellan olika grupper av arbetare. Denna process sker just nu manuellt av den chef som leder arbetet genom att välja en av fem förinställda taggar. För att snabba upp processen och göra den mindre repetitiv för chefer utforskar den här rapporten möjligheten att automatisera processen med maskinlärning. För att uppfylla det här målet var algoritmerna boosted decision tree, random forest decision tree och logistic regression utvärderade för att hitta den som bäst löste problemet. För att träna modellerna så användes data insamlad från Sysarbs löneanalysverktyg. / Workplace equality is still a big problem especially when it comes to salaries. To help solve this problem Sysarb has developed software to help find the inequalities in salaries. One of the tools they have developed is a salary analysis tool for comparing the salaries in a company or organization to make sure it is fair across gender, age and other factors. When making a salary analysis one of the most important parts is to explain the difference in salary between different groups of workers. This process is currently done manually by the managers responsible by selecting one of five premade tags. To speed up the process and make it less tedious for the managers this report aims to explore the possibility of automating the process using machine learning. To achieve this goal the algorithms boosted decision tree, random forest decision tree and logistic regression were evaluated to find which one best solved the problem. For training the models real world data collected from Sysarbs salary software was used.Keywords:
4

Förstudie till implementering av ett visionssystem i en tillverkningsprocess / Pre study for implementation of a vision system for quality control in a manufacturing process

Skoglund, Carl-Oscar, Dalbom, Markus January 2023 (has links)
In a manufacturing process defects are inevitable. The process of detecting and minimizing these are challenging and expensive. Therefore, it would be useful if the defects could be detected automatically with a machine vision system in the production environment. The purpose of the report is to evaluate potential vision based solutions that can identify these surface defects on metal surfaces as well as choose technology for Morakniv’s production. Furthermore, suitable locations for the vision system will be recommended and finally the investment will be evaluated from the cost of the system itself compared to the savings the system would generate.The report is a case study in which abduction is used to collect qualitative data from relevant literature, interviews, and observations to answer what technologies are available and to explore potential locations to install the system. Quantitative data from Morakniv and vision systems is used to evaluate the investment.The results from the study of the literature, interviews and an experiment show that vision with ai technology (machine learning) is best suited for Morakniv’s use case because of the complexity and variety of the defects. The locations most suitable for the system are presented from the interviews and observations and are further analyzed with a table in chapter 7. The investment is modelled with approximated quantitative data and later analyzed and motivated.Finally, recommendations for further work/study are laid out, the purpose of which is mostly to gain a deeper understanding of the training/installing process. The same work will also help in future dialogues with suppliers and experts of machine vision systems.
5

Kalman filters as an enhancement to object tracking using YOLOv7 / Kalman filter som en förbättring till objekt spårning som använder YOLOv7

Jernbäcker, Axel January 2022 (has links)
In this paper we study continuous tracking of airplanes using object detection models, namely YOLOv7, combined with a Kalman filter. The tracking should be able to be done in real-time. The idea of combining Kalman filters with an object detection model comes from the lack of time-dependent context in models such as YOLOv7. The model analyzes each frame independently and outputs airplane detections for the analyzed frame. Therefore, if an airplane flies behind a tree or a cloud, the object detection model will say that there is no object there. The Kalman filter is used to construct an object with a state consisting of position and velocity for every airplane. As such if an airplane flies behind a tree, it is possible to extrapolate the trajectory and resume tracking once the airplane is visible again, much like a human would extrapolate the trajectory naturally. In the report I describe the implementation and training of a YOLOv7 model, I further describe the construction and implementation of a Kalman filter as well as how observations are mapped on to objects in the Kalman filter. During this I introduce a parameter called cumulative confidence. This describes how long something is being tracked after observations cease. After losing sight of an object, the cumulative confidence starts to drop. When it reaches zero and the object is removed. This can take anywhere between 100 ms to 6 seconds depending on how much confidence the object has accumulated. Objects accumulate confidence by being observed and detected by the object detection model. In the results section I describe how the performance of the program changed when using a Kalman filter or when not using a Kalman filter. The results showed that continuous tracking of airborne airplanes was superior when using a Kalman filter as opposed to only using the YOLOv7 model. Continuous tracking was never lost in these 2 airborne cases when using the integrated Kalman filter. Continuous tracking was lost 5 respectively 11 times on the same cases when not using the Kalman filter. The last case in the results section, an airplane on a runway, showed the same performance with and without the Kalman filter. I go into detail why this is in both the results section and in Section 5.1 (Interpreting the results). / I detta pappret studeras kontinuerlig spårning av flygplan med hjälp av objektdetekterings-modeller, mer specifikt YOLOv7 modellen i kombination med Kalman filter. Spårningen ska kunna göras i realtid. Idén att kombinera Kalman filter med modeller för objektdetektering kommer från avsaknaden på tidsberoende kontext i modeller som YOLOv7. Modellen analyserar varje bild i en dataström oberoende och ger en utmatning med positioner av flygplan i den analyserade bilden. Därmed, om ett flygplan flyger in bakom ett träd eller ett moln så kommer modellen konstatera att det inte är ett objekt där. Kalman filtret används för att konstruera ett objekt med ett tillstånd som består av position och hastigheten av varje flygplan. På så vis om ett flygplan flyger in bakom ett träd är det möjligt att extrapolera vägen planet kommer flyga samt återuppta spårning när flygplanet blir synligt igen, på samma vis som en människa extrapolerar planets bana naturligt. I rapporten beskriver jag en implementering och träning av en YOLOv7 modell. Vidare beskriver jag konstruktionen och implementationen av ett Kalman filter, samt hur observationer mappas till objekt i Kalman filtret. Jag introducerar även en parameter som kallas “kumulativt förtroende”. Denna beskriver hur länge något spåras även efter att observationer upphör. När ett objekt ej får observationer längre så börjar det kumulativa förtroendet minska. När det når noll så tas objektet bort. Detta kan ta mellan 100 ms och sex sekunder, beroende på hur mycket förtroende objektet har ackumulerat. Objekt ackumulerar förtroende genom att bli observerade och detekterade av YOLOv7 modellen. I resultatdelen beskriver jag hur prestandan skiljer sig om programmet använder ett Kalman filter eller inte ett Kalman filter. Resultaten visar att kontinuerlig spårning av flygplan i luften var bättre när man använder ett Kalman filter. Spårningen av flygplan upphörde aldrig i de 2 fallen då flygplan var i luften. På dessa fallen så tappade modellen spårningen 5 respektive 11 gånger när den inte använde Kalman filtret. Det tredje och sista fallet i resultatdelen, ett flygplan på banan, visade samma prestanda med eller utan Kalman filtret. Jag går in i detalj kring varför det var så i resultatdelen och i diskussionen.
6

Deep Text Mining of Instagram Data Without Strong Supervision / Textutvinning från Instagram utan Precis Övervakning

Hammar, Kim January 2018 (has links)
With the advent of social media, our online feeds increasingly consist of short, informal, and unstructured text. This data can be analyzed for the purpose of improving user recommendations and detecting trends. The grand volume of unstructured text that is available makes the intersection of text processing and machine learning a promising avenue of research. Current methods that use machine learning for text processing are in many cases dependent on annotated training data. However, considering the heterogeneity and variability of social media, obtaining strong supervision for social media data is in practice both difficult and expensive. In light of this limitation, a belief that has put its marks on this thesis is that the study of text mining methods that can be applied without strong supervision is of a higher practical interest. This thesis investigates unsupervised methods for scalable processing of text from social media. Particularly, the thesis targets a classification and extraction task in the fashion domain on the image-sharing platform Instagram. Instagram is one of the largest social media platforms, containing both text and images. Still, research on text processing in social media is to a large extent limited to Twitter data, and little attention has been paid to text mining of Instagram data. The aim of this thesis is to broaden the scope of state-of-the-art methods for information extraction and text classification to the unsupervised setting, working with informal text on Instagram. Its main contributions are (1) an empirical study of text from Instagram; (2) an evaluation of word embeddings for Instagram text; (3) a distributed implementation of the FastText algorithm; (4) a system for fashion attribute extraction in Instagram using word embeddings; and (5) a multi-label clothing classifier for Instagram text, built with deep learning techniques and minimal supervision. The empirical study demonstrates that the text distribution on Instagram exhibits the long-tail phenomenon, that the text is just as noisy as have been reported in studies on Twitter text, and that comment sections are multi-lingual. In experiments with word embeddings for Instagram, the importance of hyperparameter tuning is manifested and a mismatch between pre-trained embeddings and social media is observed. Furthermore, that word embeddings are a useful asset for information extraction is confirmed. Experimental results show that word embeddings beats a baseline that uses Levenshtein distance on the task of extracting fashion attributes from Instagram. The results also show that the distributed implementation of FastText reduces the time it takes to train word embeddings with a factor that scales with the number of machines used for training. Finally, our research demonstrates that weak supervision can be used to train a deep classifier, achieving an F1 score of 0.61 on the task of classifying clothes in Instagram posts based only on the associated text, which is on par with human performance. / I och med uppkomsten av sociala medier så består våra online-flöden till stor del av korta och informella textmeddelanden, denna data kan analyseras med syftet att upptäcka trender och ge användarrekommendationer. Med tanke på den stora volymen av ostrukturerad text som finns tillgänglig så är kombinationen av språkteknologi och maskinlärning ett forskningsområde med stor potential. Nuvarande maskinlärningsteknologier för textbearbetning är i många fall beroende av annoterad data för träning. I praktiken så är det dock både komplicerat och dyrt att anskaffa annoterad data av hög kvalitet, inte minst vad gäller data från sociala medier, med tanke på hur pass föränderlig och heterogen sociala medier är som datakälla. En övertygelse som genomsyrar denna avhandling är att textutvinnings metoder som inte kräver precis övervakning har större potential i praktiken. Denna avhandling undersöker oövervakade metoder för skalbar bearbetning av text från sociala medier. Specifikt så täcker avhandlingen ett komplext klassifikations- och extraktions- problem inom modebranschen på bilddelningsplattformen Instagram. Instagram hör till de mest populära sociala plattformarna och innehåller både bilder och text. Trots det så är forskning inom textutvinning från sociala medier till stor del begränsad till data från Twitter och inte mycket uppmärksamhet har givits de stora möjligheterna med textutvinning från Instagram. Ändamålet med avhandlingen är att förbättra nuvarande metoder som används inom textklassificering och informationsextraktion, samt göra dem applicerbara för oövervakad maskinlärning på informell text från Instagram. De primära forskningsbidragen i denna avhandling är (1) en empirisk studie av text från Instagram; (2) en utvärdering av ord-vektorer för användning med text från Instagram; (3) en distribuerad implementation av FastText algoritmen; (4) ett system för extraktion av kläddetaljer från Instagram som använder ord-vektorer; och (5) en flerkategorisk kläd-klassificerare för text från Instagram, utvecklad med djupinlärning och minimal övervakning. Den empiriska studien visar att textdistributionen på Instagram har en lång svans, att texten är lika informell som tidigare rapporterats från studier på Twitter, samt att kommentarssektionerna är flerspråkiga. Experiment med ord-vektorer för Instagram understryker vikten av att justera parametrar före träningsprocessen, istället för att använda förbestämda värden. Dessutom visas att ord-vektorer tränade på formell text är missanpassade för applikationer som bearbetar informell text. Vidare så påvisas att ord-vektorer är effektivt för informationsextraktion i sociala medier, överlägsen ett standardvärde framtaget med informationsextraktion baserat på syntaktiskt ordlikhet. Resultaten visar även att den distribuerade implementationen av FastText kan minska tiden det tar att träna ord-vektorer med en faktor som beror på antalet maskiner som används i träningen. Slutligen, vår forskning indikerar att svag övervakning kan användas för att träna en klassificerare med djupinlärning. Den tränade klassificeraren uppnår ett F1 resultat av 0.61 på uppgiften att klassificera kläddetaljer av bilder från Instagram, baserat endast på bildtexten och tillhörande användarkommentarer, vilket är i nivå med mänsklig förmåga.
7

Krav och metoder för insamling av data för maskinlärning inom svensk byggindustri : En utforskning av behov och anpassning av dataset

Larsson, Isabell January 2023 (has links)
Ur ett pågående forskningsprojekt om artificiell intelligens (AI) har ett behov vuxit fram att hitta en metod för datainsamling inom svensk byggkontext, detta examensarbete hade som syfte är att uppfylla det behovet. Forskningen är inom området maskinlärning (ML) och dataseende (CV) i bygg och anläggningsbranschen. Där dataseende innebär i stora drag går ut på att en dator extraherar information ur visuella data, det vill säga bilder och filmer. Datainsamlingen behöver vara av tillräcklig omfattning för att skapa ett dataset för maskininlärning, med målet att Boston Dynamics SPOT ska kunna användas i bygg - och anläggningsbranschen.    Fyra metoder för datainsamling har utvärderats och ställts mot varandra i syfte att hitta den metod som ger bäst förutsättningar att bygga ett dataset. Det bästa förhållningsättet baserat på studiens förutsättningar var att använda en experimentell metod med induktiv karaktär, alltså har studiens fokus främst legat på metodutveckling baserat på empiri och inte på teori.    Breda frågeställningar har ställts för att hitta den bästa datainsamlingsmetoden för maskininlärning, dessa frågeställningar har besvarats genom att studien strukturerats upp i tre huvuddelar: en teoretisk, en empirisk och en teknisk del.    Den teoretiska delen har varit en mindre kontextuell litteraturstudie, som gett en djupare förståelse för AI. Fokus har varit på delar som ansetts mest relevanta för studien som övervakat datorseende och aktuell forskning på AI:s appliceringsområden i byggkontext. I den empiriska studien har fallstudier genomförts där data samlas in genom de olika metoderna och utvärderats ur olika synpunkter för att avgöra vilken metod som var mest hållbar i praktiken. Den tekniska delen fokuserade främst på annotering och träning av data. Resultatet blev en siffra mellan 0 och 1 där 1 var bäst. I den tekniska delen gjordes även en utvärdering av operativsystem för ML.   De fyra metoder som utvärderats för datainsamling var: 1.       Manuell fotografering av gipsskivor på byggarbetsplatser. Där en byggarbetsplats besöktes och strax under 200 bilder samlades in. Modellen som tränades med data från metod ett gav ett resultat på 0.46.  2.       Den andra metoden som testades var att utnyttja den arbetskraft som var belägen på byggarbeten. Tanken var att arbetspersonalen skulle fotografera gipsskivor under arbetsdagen och skicka in bilderna till gemensam samlingsplats. Denna metod avfärdades av byggföretaget i fråga, dels till följd av organisatoriska problem, dels av äganderättssynpunkt. 3.       I den tredje metoden undersöktes möjligheten att använda ett bildgalleri där historiska data samlats. Ett flertal av dessa bildgallerier undersöktes där behörighet till ett av gallerierna gavs till projektet och en anställd på byggföretaget gick igenom ett flertal andra bildgallerier. Totalt uppskattades att 4000 - 5000 bilder genomsöktes varifrån ett dataset av 38 bilder samlades in. Resultatet vid träningen av modellen från metod tre var 0.  4.       Den fjärde metoden var att generera syntetiska bilder. En enkel modell modellerades upp i Revit där totalt 740 bilder samlades in. Vid utvärdering av modellen som tränats på metod fyras bilder var resultatet 0.9. När valideringsbilderna ersattes från syntetiska till verkliga bilder blev resultatet i stället 0.32. Vid närmare undersökning visades det att modellen kände igen gipsskivorna, men förvirring uppstod av bruset i bakgrunden, där spackel på väggen i den verkliga bilden misstogs för gipsskivor. Därför testades en hybridmetod där ett fåtal verkliga bilder lades till i träningsdata. Resultatet av hybridmetoden blev 0.66.    Sammanfattningsvis visade resultaten av denna studie att ingen av de befintliga metoderna, i deras nuvarande former, lämpar sig för maskininlärningssyften på byggplatsen. Det framkom dock att det kan vara värt att utforska hybridmetoder närmare som en potentiell lösning. Ett intressant forskningsområde skulle vara att undersöka hybridmetoder som kombinerar element från metod ett och fyra, som tidigare beskrivits. En alternativ hybridmetod kan också utforskas, där omgivningen från bildgalleriet inkorporeras i en virtuell miljö och data samlas in med liknande processer som i metod fyra. Dessa hybridmetoder kan erbjuda fördelar som övervinner de begränsningar som identifierades i de enskilda metoderna och därmed möjliggöra effektivare och mer tillförlitlig datainsamling för maskininlärningsapplikationer inom den studerade kontexten. Framtida forskning bör inriktas på att utforska och utvärdera dessa hybridmetoder för att bättre förstå deras potential och fördelar inom området maskininlärning och datavetenskap.
8

Real-time 3D cloud animations using DCGAN

Junede, Fredrik, Asp, Samuel January 2020 (has links)
Background. Previous studies in the area of video generation using generative adversarial networks have shown limitations in perceived naturalism of the generated images. A previously proposed method of rendering and simulating clouds serves as the base for this thesis. Objectives. This thesis aims to propose a new method utilising machine learning in the context of generating 3D cloud animation in computer graphics. This aim is broken down into multiple objectives, with the primary ones being the following. The utilisation of a machine learning model includes the pre-processing of cloud images into cloud maps, training the model, as well as generating 2D cloud animations with it. 3D cloud animations are achieved by implementing the model into a pre-existing real-time cloud rendering framework. The performance of the implementation is measured and evaluated. Finally, a questionnaire is deployed and its results are analysed to evaluate the effectiveness of the proposed method. Methods. The image quality of the generated images is compared using an image quality assessment method which compares them to the data set used for training. Performance measurements are taken and compared between a base method reliant on Voronoi-noise and the proposed machine learning-based method. Finally, a questionnaire is deployed and then statistically analysed to evaluate the perceived naturalism of the base method and the proposed method. Results. The proposed method has a rendering time almost twice as long when compared to the base method when run in real-time. However, the results from the questionnaire showed that the proposed method achieves a higher level of perceived naturalism of the animation. Conclusions. The proposed method generates more natural animations than the base method at a higher cost in terms of time complexity. / Bakgrund. Tidigare studier inom videogeneration med generativa motverkande nätverk har visat begränsningar kring den upplevda naturligheten av de genererade bilderna. En tidigare föreslagen metod för rendering och simulering av moln fungerar som grund för denna uppsats. Syfte. Denna uppsats siktar på att föreslå en ny maskinlärningsbaserad metod till kontexten att generera 3D-molnanimationer inom datorgrafik. Syftet bryts ner i flera mål, av vilka de primära är som följande. Användandet av en maskinlärningsmodell inkluderar förbehandlingen av molnbilder till molnkartor, träningen av modellen samt genereringen av 2D-molnanimationer via modellen. 3D-molnanimationer uppnås genom att implementera modellen i ett förexisterande ramverk för realtidsbaserat molnrendering. Prestandan av implementationen mäts och evalueras. Slutligen distribueras ett frågeformulär vars resultat analyseras för att evaluera effektiviteten av den föreslagna metoden. Metod. Bildkvaliten av de genererade bilderna jämförs, med hjälp av en metod för bildkvalitetsevaluering, med datamängden som användes vid träningen. Prestandan mäts och jämförs mellan den gamla Voronoi-brusbaserade metoden och den föreslagna maskinlärningsbaserade metoden. Slutligen kommer ett frågeformulär skickas ut och därefter bli statistiskt analyserat för att evaluera den upplevda naturligheten mellan den gamla metoden och den föreslagna metoden. Resultat. Den föreslagna metoden har en renderingstid nästan dubbelt så hög som den gamla metoden när de kör i realtid. Dock visar resultatet från frågeformuläret att animationen i den föreslagna metoden uppnår en högre nivå av upplevd naturlighet. Slutsatser. Den föreslagna metoden genererar mer naturliga animationer än den gamla metoden till en höjning i tidskomplexitet
9

Interpretable Machine Learning for Insurance Risk Pricing / Förståbar Maskinlärning för Riskprissättning Inom Försäkring

Darke, Felix January 2023 (has links)
This Master's Thesis project set out with the objective to propose a machine learning model for predicting insurance risk at the level of an individual coverage, and compare it towards the existing models used by the project provider Gjensidige Försäkring. Due to interpretability constraints, it was found that this problem can be translated into a standard tabular regression task, with well defined target distributions. However, it was early identified that the set of feasible models do not contain pure black box models such as XGBoost, LightGBM and CatBoost which are typical choices for tabular data regression. In the report, we explicitly formulate the interpretability constraints in sharp mathematical language. It is concluded that interpretability can be ensured by enforcing a particular structure on the Hilbert space across which we are looking for the model.  Using this formalism, we consider two different approaches for fitting high performing models that maintain interpretability, where we conclude that gradient boosted regression tree based Generalized Additive Models in general, and the Explainable Boosting Machine in particular, is a promising model candidate consisting of functions within the Hilbert space of interest. The other approach considered is the basis expansion approach, which is currently used at the project provider. We make the argument that the gradient boosted regression tree approach used by the Explainable Boosting Machine is a more suitable model type for an automated, data driven modelling approach which is likely to generalize well outside of the training set. Finally, we perform an empirical study on three different internal datasets, where the Explainable Boosting Machine is compared towards the current production models. We find that the Explainable Boosting Machine systematically outperforms the current models on unseen test data. There are many potential ways to explain this, but the main hypothesis brought forward in the report is that the sequential model fitting procedure allowed by the regression tree approach allows us to effectively explore a larger portion of the Hilbert space which contains all permitted models in comparison to the basis expansion approach. / Detta mastersexamensarbete utgår från målsättningen att föreslå en maskinlärningsmodell för att förutspå försäkringsrisk, på nivån av enskilda försäkringar. Denna modell ska sedan jämföras mot nuvarande modeller som används hos Gjensidige Försäkring, som tillhandahåller projektet. Detta problem kan formuleras som ett traditionellt regressionsproblem på tabulär data, med väldefinerade målfördelningar. På grund av begränsningar kring krav på modellens förståbarhet identifierades det tidigt i projektet att mängden av tillåtna modeller inte innehåller ren black box modeller som XGBoost, LightGBM eller CatBoost, vilket är typiska förstahandsval för den här problemklassen. I rapporten formulerar vi förståbarhetskraven i skarpt, matematiskt språk, och drar slutsatsen att önskad förståbarhet kan uppnås genom en specifik struktur på det Hilbertrum där vi letar efter den optimala modellen. Utifrån denna formalism evaluerar vi två olika metoder för att anpassa modeller med god prestanda som uppnår önskade förståbarhetskrav. Vi drar slutsatsen att Generalized Additive Models anpassade till datat genom gradientboostade regressionsträd i allmänhet, och Explainable Boosting Machine i synnerhet är en lovande modellkandidat bestående av funktioner i vårt Hilbertrum av intresse. Vi utvärderar dessutom ett tillvägagångssätt för att anpassa Generalized Additive Models till datat genom basexpansioner, vilket är den metod som primärt används idag hos Gjensidige Försäkring. Vi argumenterar för att metoder som bygger på gradientboostade regressionsträd, såsom Explainable Boosting Machine, är mer lämplig för ett automatiserbart, datadrivet arbetssätt till att bygga modeller som generaliserar väl utanför träningsdatat.  Slutligen genomför vi en empirisk studie på tre olika interna dataset, där Explainable Boosting Machine jämförs mot nuvarande produktionsmodeller, vilka bygger på den tidigare nämnda basexpansionsmetodiken. Vi finner att Explainable Boosting Machine systematiskt överpresterar kontra nuvarande modeller på osedd testdata. Det finns många potentiella förklaringar till detta, men den huvudsakliga hypotsen som diskuteras i denna rapport är att den gradientboostade regressionsträdsmetodiken gör det möjligt att effektivt utforska en större delmängd av det Hilbertrum som innehåller alla tillåtna modeller i jämförelse med basexpansionsmetodiken.
10

Reduction of Temperature Forecast Errors with Deep Neural Networks / Reducering av temperaturprognosfel med djupa neuronnätverk

Isaksson, Robin January 2018 (has links)
Deep artificial neural networks is a type of machine learning which can be used to find and utilize patterns in data. One of their many applications is as method for regression analysis. In this thesis deep artificial neural networks were implemented in the application of estimating the error of surface temperature forecasts as produced by a numerical weather prediction model. An ability to estimate the error of forecasts is synonymous with the ability to reduce forecast errors as the estimated error can be offset from the actual forecast. Six years of forecast data from the period 2010--2015 produced by the European Centre for Medium-Range Weather Forecasts' (ECMWF) numerical weather prediction model together with data from fourteen meteorological observational stations were used to train and evaluate error-predicting deep neural networks. The neural networks were able to reduce the forecast errors for all the locations that were tested to a varying extent. The largest reduction in error was by 83.0\% of the original error or a 16.7\degcs decrease in the mean-square error. The performance of the neural networks' error reduction ability was compared with that of a contemporary Kalman filter as implemented by the Swedish Meteorological and Hydrological Institute (SMHI). It was shown that the neural network implementation had superior performance for six out of seven of the evaluated stations where the Kalman filter had marginally better performance at one station.

Page generated in 0.4448 seconds