Spelling suggestions: "subject:"artificiella neural nätverk"" "subject:"artificiel.la neural nätverk""
31 |
Comparing Machine Learning Estimation of Fuel Consumption of Heavy-duty Vehicles / En jämförelse av maskininlärningsalgoritmers estimering av bränsleförbrukning för tunga fordonBodell, Victor January 2020 (has links)
Fuel consumption is one of the key factors in determining expenses of operating a heavy-duty vehicle. A customer may therefor request an estimate of the fuel consumption of a given vehicle. Scania uses modular design when constructing heavy-duty vehicles. The modular design allows a customer to specify which building blocks to use when constructing the vehicle, such as gear box, engine and chassis type. The many possible combinations means that the same vehicle is rarely sold twice, which can make fuel consumption measurements unfeasible. This study investigates the accuracy of machine learning algorithms in predicting fuel consumption for heavy-duty vehicles. The study is conducted at Scania. Scania has also provided the data used in the study. This study also examines the prediction power of different parameters. Performance is evaluated by reporting the prediction error on both simulated data and operational measurements. The performance of Linear regression (LR), K-nearest neighbor (KNN) and Artificial neural networks (ANN) is compared using statistical hypothesis testing. It is found that using Country as an input parameter yields a performance increase in all the algorithms. The statistical evaluation procedure finds that ANNs have the lowest prediction error compared to LR and KNN in estimating fuel consumption on both simulated and operational data. The performance of the final models is comparable to models of previous studies in both the simulated and operational estimation scenarios. / Bränsleförbrukning utgör en av nyckelfaktorerna för att avgöra hur mycket det kostar att använda tunga lastbilar. En köpare av en tung lastbil kan därmed begära en uppskattning av hur mycket bränsle ett givet fordon förbrukar. Scania använder sig av en modulär designprincip vid fordonskonstruktion, vilket ger kunden möjlighet att bestämma vilka byggnadsblock som ska utgöra ett for- don. Detta gör att det kan vara omöjligt att mäta förbrukningen av ett tidigare icke-producerat fordon. Den här studien undersöker exaktheten av maskininlärningsalgoritmer för att estimera bränsleförbrukning av tunga lastbilar. Studien genomförs vid Scania, som även tillhandahåller data. Användbarheten av olika in-parametrar undersöks. Algoritmernas prestanda utvärderas genom att rapportera det kvadrerade felvärdet uppmätt mellan det riktiga uppmätta värdet och det av algoritmen uppskattade värdet. Bränsleförbrukning estimeras för simulerad data och för uppmätta värden från fordon i bruk. Tre kategorier av algoritmer undersöks: Artificiella neurala nätverk, linjär regression och K-nearest neighbor. Jämförelsen mellan algoritmer använder statistisk hypotes-testning. Resultatet visar att parametern som beskriver vilket land fordonet registrerats i förbättrar samtliga algoritmers estimering. Den statistiska utvärderingen finner att artificiella neurala nätverk ger det lägsta felet av de tre kategorierna av algoritmer i estimering av simulerade och uppmätta värden. De slutgiltiga modellernas exakthet är jämförbar med resultat från tidigare studier.
|
32 |
Classification and localization of extreme outliers in computer vision tasks in surveillance scenarios / Klassificering och lokalisering av extremvärden för datorseende i övervakningsscenarionDaoud, Tariq, Zere Goitom, Emanuel January 2022 (has links)
Convolutional neural networks (CNN) have come a long way and can be trained toclassify many of the objects around us. Despite this, researchers do not fullyunderstand how CNN models learn features (edges, shapes, contours, etc.) fromdata. For this reason, it is reasonable to investigate if a CNN model can learn toclassify objects under extreme conditions. An example of such an extreme conditioncould be a car that drives towards the camera at night, and therefore does not haveany distinct features because the light from the headlights covers large parts of thecar.The aim of this thesis is to investigate how the performance of a CNN model isaffected, when trained on objects under extreme conditions. A YOLOv4 model willbe trained on three different extreme cases: light polluted vehicles, nighttimeobjects and snow-covered vehicles. A validation will then be conducted on a testdataset to see if the performance decreases or improves, compared to when themodel trained is on normal conditions. Generally, the training was stable for allextreme cases and the results show an improved or similar performance incomparison to the normal cases. This indicates that models can be trained with allextreme cases. Snow-covered vehicles with mosaic data augmentation and the IOUthreshold 0,25 had the best overall performance compared to the normal cases, witha difference of +14,95% in AP for cars, −0,73% in AP for persons, +8,08% in AP fortrucks, 0 in precision and +9% in recall. / Konvolutionella neurala nätverk (CNN) har kommit långt och kan tränas till attklassificera de flesta objekten i vår omgivning. Trots detta har forskare intefullständigt förstått hur CNN modeller lär sig att klassificera drag (kanter, former,konturer, osv), på grund av detta är det rimligt att undersöka om en CNN-modellkan lära sig att klassificera objekt som befinner sig under extrema förhållanden.Ett exempel på ett sådant extremfall kan vara när en bil kör mot kameran undernattetid och inte har några distinkta drag, eftersom ljuset från framlyktorna täckerstora delar av bilen.Målet med detta arbete är att undersöka hur en CNN-modells prestanda påverkas,när den tränats på objekt som befinner sig under extrema förhållanden. EnYOLOV4 modell ska tränas på tre olika extrema fall: ljus bländade fordon,nattetidobjekt samt snötäckta fordon. En validering ska sedan utföras på ett test setför att se om prestandan försämras eller förbättras, jämfört med modellen somtränat på normala förhållanden. Generellt sett var träningen stabil för alla extremafall och resultatet visade förbättring eller liknande prestanda, i förhållande tillnormala fallen. Detta indikerar att modeller kan tränas med alla extrema fall. Bästprestanda erhölls av snötäckta bilar med mosaik data augmentering och IOUtröskeln 0,25 jämfört med normala fallen, med en skillnad på -0,73% i AP förpersoner, +14,95% i AP för bilar, +8,08% skillnad i AP för lastbilar, 0 i precisionoch +9% i recall.
|
33 |
Modern Credit Value Adjustment / Modern KreditvärdejusteringRatusznik, Wojciech January 2021 (has links)
Counterparty risk calculations have gained importance after the latest financial crisis. The bankruptcy of Lehman Brothers showed that even large financial institutiones face a risk of default. Hence, it is important to measure the risk of default for all the contracts written between financial institutions. Credit Value Adjustment, CVA, is an industry standard method for such calculations. Nevertheless, the implementation of this method is contract dependent and the necessary computer simulations can be very intensive. Monte Carlo simulations have for a long time been known as a precise but slow technique to evaluate the cash flows for contracts of all kinds. Measuring the exposure of a contract written on structured products might require half a day of calculations if the implementation is written without significant optimization. Several ideas have been presented by researchers and applied in the industry, the idea explored and implemented in this thesis was based on using Artificial Neural Networks in Python. This procedure require a decomposition of the Expected Exposure calculation within the CVA and generating a large data set using a standard Monte Carlo simulation. Three network architectures have been tested and the final performance was compared with using standard techniques for the very same calculation. The performance gain was significant, a portfolio of 100 counterparties with 10 contracts each would take 20 minutes of calculations in total when using the best performing architecture whereas a parallel C++ implementation of the standard method would require 2.6 days.
|
34 |
Input Calibration, Code Validation and Surrogate Model Development for Analysis of Two-phase Circulation Instability and Core Relocation PhenomenaPhung, Viet-Anh January 2017 (has links)
Code validation and uncertainty quantification are important tasks in nuclear reactor safety analysis. Code users have to deal with large number of uncertain parameters, complex multi-physics, multi-dimensional and multi-scale phenomena. In order to make results of analysis more robust, it is important to develop and employ procedures for guiding user choices in quantification of the uncertainties. The work aims to further develop approaches and procedures for system analysis code validation and application to practical problems of safety analysis. The work is divided into two parts. The first part presents validation of two reactor system thermal-hydraulic (STH) codes RELAP5 and TRACE for prediction of two-phase circulation flow instability. The goals of the first part are to: (a) develop and apply efficient methods for input calibration and STH code validation against unsteady flow experiments with two-phase circulation flow instability, and (b) examine the codes capability to predict instantaneous thermal hydraulic parameters and flow regimes during the transients. Two approaches have been developed: a non-automated procedure based on separate treatment of uncertain input parameters (UIPs) and an automated method using genetic algorithm. Multiple measured parameters and system response quantities (SRQs) are employed in both calibration of uncertain parameters in the code input deck and validation of RELAP5 and TRACE codes. The effect of improvement in RELAP5 flow regime identification on code prediction of thermal-hydraulic parameters has been studied. Result of the code validations demonstrates that RELAP5 and TRACE can reproduce qualitative behaviour of two-phase flow instability. However, both codes misidentified instantaneous flow regimes, and it was not possible to predict simultaneously experimental values of oscillation period and maximum inlet flow rate. The outcome suggests importance of simultaneous consideration of multiple SRQs and different test regimes for quantitative code validation. The second part of this work addresses core degradation and relocation to the lower head of a boiling water reactor (BWR). Properties of the debris in the lower head provide initial conditions for vessel failure, melt release and ex-vessel accident progression. The goals of the second part are to: (a) obtain a representative database of MELCOR solutions for characteristics of debris in the reactor lower plenum for different accident scenarios, and (b) develop a computationally efficient surrogate model (SM) that can be used in extensive uncertainty analysis for prediction of the debris bed characteristics. MELCOR code coupled with genetic algorithm, random and grid sampling methods was used to generate a database of the full model solutions and to investigate in-vessel corium debris relocation in a Nordic BWR. Artificial neural networks (ANNs) with classification (grouping) of scenarios have been used for development of the SM in order to address the issue of chaotic response of the full model especially in the transition region. The core relocation analysis shows that there are two main groups of scenarios: with relatively small (<20 tons) and large (>100 tons) amounts of total relocated debris in the reactor lower plenum. The domains are separated by transition regions, in which small variation of the input can result in large changes in the final mass of debris. SMs using multiple ANNs with/without weighting between different groups effectively filter out the noise and provide a better prediction of the output cumulative distribution function, but increase the mean squared error compared to a single ANN. / Validering av datorkoder och kvantifiering av osäkerhetsfaktorer är viktiga delar vid säkerhetsanalys av kärnkraftsreaktorer. Datorkodanvändaren måste hantera ett stort antal osäkra parametrar vid beskrivningen av fysikaliska fenomen i flera dimensioner från mikro- till makroskala. För att göra analysresultaten mer robusta, är det viktigt att utveckla och tillämpa rutiner för att vägleda användaren vid kvantifiering av osäkerheter.Detta arbete syftar till att vidareutveckla metoder och förfaranden för validering av systemkoder och deras tillämpning på praktiska problem i säkerhetsanalysen. Arbetet delas in i två delar.Första delen presenterar validering av de termohydrauliska systemkoderna (STH) RELAP5 och TRACE vid analys av tvåfasinstabilitet i cirkulationsflödet.Målen för den första delen är att: (a) utveckla och tillämpa effektiva metoder för kalibrering av indatafiler och validering av STH mot flödesexperiment med tvåfas cirkulationsflödeinstabilitet och (b) granska datorkodernas förmåga att förutsäga momentana termohydrauliska parametrar och flödesregimer under transienta förlopp.Två metoder har utvecklats: en icke-automatisk procedur baserad på separat hantering av osäkra indataparametrar (UIPs) och en automatiserad metod som använder genetisk algoritm. Ett flertal uppmätta parametrar och systemresponser (SRQs) används i både kalibrering av osäkra parametrar i indatafilen och validering av RELAP5 och TRACE. Resultatet av modifikationer i hur RELAP5 identifierar olika flödesregimer, och särskilt hur detta påverkar datorkodens prediktioner av termohydrauliska parametrar, har studerats.Resultatet av valideringen visar att RELAP5 och TRACE kan återge det kvalitativa beteende av två-fas flödets instabilitet. Däremot kan ingen av koderna korrekt identifiera den momentana flödesregimen, det var därför ej möjligt att förutsäga experimentella värden på svängningsperiod och maximal inloppsflödeshastighet samtidigt. Resultatet belyser betydelsen av samtidig behandling av flera SRQs liksom olika experimentella flödesregimer för kvantitativ kodvalidering.Den andra delen av detta arbete behandlar härdnedbrytning och omfördelning till reaktortankens nedre plenumdel i en kokarvatten reaktor (BWR). Egenskaper hos härdrester i nedre plenum ger inledande förutsättningar för reaktortanksgenomsmältning, hur smältan rinner ut ur reaktortanken och händelseförloppet i reaktorinneslutningen.Målen i den andra delen är att: (a) erhålla en representativ databas över koden MELCOR:s analysresultat för egenskaperna hos härdrester i nedre plenum under olika händelseförlopp, och (b) utveckla en beräkningseffektiv surrogatsmodell som kan användas i omfattande osäkerhetsanalyser för att förutsäga partikelbäddsegenskaper.MELCOR, kopplad till en genetisk algoritm med slumpmässigt urval användes för att generera en databas av analysresultat med tillämpning på smältans omfördelning i reaktortanken i en Nordisk BWR.Analysen av hur härden omfördelas visar att det finns två huvudgrupper av scenarier: med relativt liten (<20 ton) och stor (> 100 ton) total mängd omfördelade härdrester i nedre plenum. Dessa domäner är åtskilda av övergångsregioner, där små variationer i indata kan resultera i stora ändringar i den slutliga partikelmassan. Flergrupps artificiella neurala nätverk med klassificering av händelseförloppet har använts för utvecklingen av en surrogatmodell för att hantera problemet med kaotiska resultat av den fullständiga modellen, särskilt i övergångsregionen. / <p>QC 20170309</p>
|
35 |
Att täcka en obekant yta med Spanning Tree Covering, Topologisk Täckande Algoritm, Trilobite / Covering an unknown area with Spanning Tree Covering, Topologisk Täckande Algoritm, TrilobiteCarlsson, Josefin, Johansson, Madeleine January 2005 (has links)
Det har blivit mer och mer vanligt med ny, datoriserad teknik i hemmen. Fler människor har ett allt stressigare liv och inte längre samma tid att ta hand om det egna hemmet. Behovet av en hjälpande hand med hushållsarbete har blivit allt större. Tänk själv att komma hem från jobbet eller skolan och så har golvet blivit skinande rent utan att Ni knappt har behövt göra någonting! Det finns idag flera olika robotar på marknaden för detta ändamål. En av dessa är den autonoma dammsugaren, som är det vi inriktat vår uppsats på. I huvudsak är uppsatsen inriktad på mjukvaran, som kan användas i en autonom dammsugare. Vi har valt att titta närmare på två stycken sökalgoritmer, som kan användas av autonoma mobila robotar, exempelvis en autonom dammsugare, som har i uppdrag att täcka en hel obekant yta. Dessa algoritmer är Spanning Tree Covering (STC) och ”A Topological Coverage Algorithm”, också kallad ”Landmark-based World Model” (fritt översatt till Topologisk Täckande Algoritm, TTA). Vi har också undersökt hur ett av Sveriges största märken på marknaden för autonoma dammsugare, nämligen Electrolux Trilobite ZA1, klarar sig i test. Vi har även analyserat testet med Trilobiten och jämfört detta med antaget beteende hos Trilobiten ifall den hade varit implementerad med sökalgoritmerna STC eller TTA. Hur fungerar sökalgoritmerna? Hur kan en autonom dammsugare hitta på en hel obekant yta? Hur beter sig Electrolux Trilobite ZA1? Täcker de alla en obekant yta? Är de effektiva?
|
36 |
Neural Network-Based Residential Water End-Use Disaggregation / Neurala nätverk för klassificering av vattenanvändning i hushållPierrou, Cajsa January 2023 (has links)
Sustainable management of finite resources is vital for ensuring livable conditions for both current and future generations. Measuring the total water consumption of residential households at high temporal resolutions and automatically disaggregating the sole signal into classified end usages (e.g. shower, sink) allows for identification of behavioural patterns that could be improved to minimise wasteful water consumption. Such disaggregation is not trivial, as water consuming patterns vary greatly depending on consumer behaviour, and further since at any given time, an unknown amount of fixtures may be used simultaneously. In this work, we approach the disaggregation problem by evaluating the performance of a set of recurrent and convolutional neural network structures provided approximately one year of high resolution water consumption data from a single apartment in Sweden. Unlike previous approaches to the problem, we let the models process the full, uninterrupted flow traces (as opposed to extracted segments of water consuming activity) in order to allow for temporal dependencies within and between water consuming activities to be learned. Out of four networks applied to the task, we find that a deeper temporal convolutional network structure yields the best overall results on the test data, with prediction accuracy of 85% and F1-score above 0.8 averaged over all end-use categories - a performance exceeding that of commercial analysis tools, and comparable to components of current state-of-the-art approaches. However, significant decreases in performance are observed for all of the networks, particularly for toilet and washing machine activity, when evaluating the models on unseen and augmented data from the apartment, indicating the results can not be fully generalised for usage in other households. / Hållbar användning av ändliga resurser är avgörande för att försäkra god livskvalitet för både nutida och framtida generationer. I Sverige är vatten för många en självklarhet, vilket öppnar upp för slösaktigt användande. En metod för att utbilda användare och identifiera icke hållbara beteenden är att kvantifiera vattenförbrukningen i hushåll baserat på syfte (t.ex. tvätta händerna, diska) eller källa (t.ex. dusch, handfat) av slutanvändningen. För att göra en sådan sammanställning mäts den totala åtkomsten av vatten i hög upplösning från hushåll, och signalen delas sedan upp i respektive kategori av slutanvändning. En sådan disaggregering är inte trivial, och försvåras av skillnader i beteendemönster hos användare samt faktumet att vi inte vid någon tidpunkt vet hur många vattenarmaturer som används samtidigt. I syftet att förbättra nuvarande tekniker för disaggregeringsproblemet implementerar och utvärderar vi alternativa lösningar baserade på rekurrenta och konvolutionerande neurala nätverk, på flödesdata insamlad med hög upplösning från en lägenhet i Sverige under en period av cirka ett år. Till skillnad från tidigare förhållningssätt till problemet låter vi våra modeller bearbeta den fullständiga, oavbrutna, flödesdatan (i motsats till extraherade segment av vattenförbrukande aktiviteter) för att möjliggöra lärandet av tidsmässiga beroenden inom och mellan vattenförbrukande aktiviteter. Utav fyra testade nätverk finner vi att ett djupt konvolutionerande nätverk ger den bästa klassificeringen överlag, givet testdata, med genomsnittlig igenkänningsnogrannhet på 85%. Signifikant försämrade resultat observerades för samtliga modeller i kategorierna toalett och tvättmaskin när nätverken testades på augmenterad data från hushållet, vilket indikerar att resultaten inte kan generaliseras för användning i andra lägenheter.
|
37 |
On dysgraphia diagnosis support via the automation of the BVSCO test scoring : Leveraging deep learning techniques to support medical diagnosis of dysgraphia / Om dysgrafi diagnosstöd via automatisering av BVSCO-testpoäng : Utnyttja tekniker för djupinlärning för att stödja medicinsk diagnos av dysgrafiSommaruga, Riccardo January 2022 (has links)
Dysgraphia is a rather widespread learning disorder in the current society. It is well established that an early diagnosis of this writing disorder can lead to improvement in writing skills. However, as of today, although there is no comprehensive standard process for the evaluation of dysgraphia, most of the tests used for this purpose must be done at a physician’s office. On the other hand, the pandemic triggered by COVID-19 has forced people to stay at home and opened the door to the development of online medical consultations. The present study therefore aims to propose an automated pipeline to provide pre-clinical diagnosis of dysgraphia. In particular, it investigates the possibility of applying deep learning techniques to the most widely used test for assessing writing difficulties in Italy, the BVSCO-2. This test consists of several writing exercises to be performed by the child on paper under the supervision of a doctor. To test the hypothesis that it is possible to enable children to have their writing impairment recognized even at a distance, an innovative system has been developed. It leverages an already developed customized tablet application that captures the graphemes produced by the child and an artificial neural network that processes the images and recognizes the handwritten text. The experimental results were analyzed using different methods and were compared with the actual diagnosis that a doctor would have provided if the test had been carried out normally. It turned out that, despite a slight fixed bias introduced by the machine for some specific exercises, these results seemed very promising in terms of both handwritten text recognition and diagnosis of children with dysgraphia, thus giving a satisfactory answer to the proposed research question. / Dysgrafi är en ganska utbredd inlärningsstörning i dagens samhälle. Det är väl etablerat att en tidig diagnos av denna skrivstörning kan leda till en förbättring av skrivförmågan. Även om det i dag inte finns någon omfattande standardprocess för utvärdering av dysgrafi måste dock de flesta av de tester som används för detta ändamål göras på en läkarmottagning. Å andra sidan har den pandemi som utlöstes av COVID-19 tvingat människor att stanna hemma och öppnat dörren för utvecklingen av medicinska konsultationer online. Syftet med denna studie är därför att föreslå en automatiserad pipeline för att ge preklinisk diagnos av dysgrafi. I synnerhet undersöks möjligheten att tillämpa djupinlärningstekniker på det mest använda testet för att bedöma skrivsvårigheter i Italien, BVSCO-2. Testet består av flera skrivövningar som barnet ska utföra på papper under överinseende av en läkare. För att testa hypotesen att det är möjligt att göra det möjligt för barn att få sina skrivsvårigheter erkända även på distans har ett innovativt system utvecklats. Det utnyttjar en redan utvecklad skräddarsydd applikation för surfplattor som fångar de grafem som barnet producerar och ett artificiellt neuralt nätverk som bearbetar bilderna och känner igen den handskrivna texten. De experimentella resultaten analyserades med hjälp av olika metoder och jämfördes med den faktiska diagnos som en läkare skulle ha ställt om testet hade utförts normalt. Det visade sig att, trots en liten fast bias som maskinen införde för vissa specifika övningar, verkade dessa resultat mycket lovande när det gäller både igenkänning av handskriven text och diagnos av barn med dysgrafi, vilket gav ett tillfredsställande svar på den föreslagna forskningsfrågan.
|
38 |
Object detection for autonomous trash and litter collection / Objektdetektering för autonom skräpupplockningEdström, Simon January 2022 (has links)
Trashandlitter discarded on the street is a large environmental issue in Sweden and across the globe. In Swedish cities alone it is estimated that 1.8 billion articles of trash are thrown to the street each year, constituting around 3 kilotons of waste. One avenue to combat this societal and environmental problem is to use robotics and AI. A robot could learn to detect trash in the wild and collect it in order to clean the environment. A key component of such a robot would be its computer vision system which allows it to detect litter and trash. Such systems are not trivially designed or implemented and have only recently reached high enough performance in order to work in industrial contexts. This master thesis focuses on creating and analysing such an algorithm by gathering data for use in a machine learning model, developing an object detection pipeline and evaluating the performance of that pipeline based on varying its components. Specifically, methods using hyperparameter optimisation, psuedolabeling and the preprocessing methods tiling and illumination normalisation were implemented and analysed. This thesis shows that it is possible to create an object detection algorithm with high performance using currently available state-of-the-art methods. Within the analysed context, hyperparameter optimisation did not significantly improve performance and psuedolabeling could only briefly be analysed but showed promising results. Tiling greatly increased mean average precision (mAP) for the detection of small objects, such as cigarette butts, but decreased the mAP for large objects and illumination normalisation improved mAPforimagesthat were brightly lit. Both preprocessing methods reduced the frames per second that a full detector could run at whilst psuedolabeling and hyperparameter optimisation greatly increased training times. / Skräp som slängs på marken har en stor miljöpåverkan i Sverige och runtom i världen. Enbart i Svenska städer uppskattas det att 1,8 miljarder bitar skräp slängs på gatan varje år, bestående av cirka 3 kiloton avfall. Ett sätt att lösa detta samhälleliga och miljömässiga problem är att använda robotik och AI. En robot skulle kunna lära siga att detektera skräp i utomhusmiljöer och samla in den för att på så sätt rengöra våra städer och vår natur. En nyckelkomponent av en sådan robot skulle vara dess system för datorseende som tillåter den att se och hitta skräp. Sådana system är inte triviala att designa eller implementera och har bara nyligen påvisat tillräckligt hög prestanda för att kunna användas i kommersiella sammanhang. Detta masterexamensarbete fokuserar på att skapa och analysera en sådan algoritm genom att insamla data för att använda i en maskininlärningsmodell, utveckla en objektdetekterings pipeline och utvärdera prestandan när dess komponenter modifieras. Specifikt analyseras metoderna pseudomarkering, hyperparameter optimering samt förprocesseringsmetoderna kakling och ljusintensitetsnormalisering. Examensarbetet visar att det är möjligt att skapa en objektdetekteringsalgoritm med hög prestanda med hjälp av den senaste tekniken på området. Inom det undersökta sammanhanget gav hyperparameter optimering inte någon större förbättring av prestandan och pseudomarkering kunde enbart ytligt analyseras men uppvisade preliminärt lovande resultat. Kakling förbättrade resultatet för detektering av små objekt, som cigarettfimpar, men minskade prestandan för större objekt och ljusintensitetsnormalisering förbättrade prestandan för bilder som var starkt belysta. Båda förprocesseringsmetoderna minskade bildhastigheten som en detektor skulle kunna köra i och psuedomarkering samt hyperparameter optimering ökade träningstiden kraftigt.
|
39 |
Deep Bayesian Neural Networks for Prediction of Insurance Premiums / Djupa Bayesianska neurala nätverk för prediktioner på fordonsförsäkringarOlsgärde, Nils January 2021 (has links)
In this project, the problem concerns predicting insurance premiums and particularly vehicle insurance premiums. These predictions were made with the help of Bayesian Neural Networks (BNNs), a type of Artificial Neural Network (ANN). The central concept of BNNs is that the parameters of the network follow distributions, which is beneficial. The modeling was done with the help of TensorFlow's Probability API, where a few models were built and tested on the data provided. The results conclude the possibility of predicting insurance premiums. However, the output distributions in this report were too wide to use. More data, both in volume and in the number of features, and better-structured data are needed. With better data, there is potential in building BNN and other machine learning (ML) models that could be useful for production purposes. / Detta projekt grundar sig i möjligheten till att predikera försäkringspremier, mer specifikt fordonsförsäkringspremier. Prediktioner har gjorts med hjälp av Bayesianska neurala nätverk, vilket är en typ av artificiella neurala nätverk. Det huvudsakliga konceptet med Bayesianska neurala nätverk är att parametrarna i nätverket följer distributioner vilket har vissa fördelar och inte är fallet för vanliga artificiella neurala nätverk. Ett antal modeller har konstruerats med hjälp av TensorFlow Probability API:t som tränats och testats på given data. Resultatet visar att det finns potential att prediktera premier med hjälp av de egenskapspunkter\footnote[2]{\say{Features} på engelska} som finns tillgängliga, men att resultaten inte är tillräckligt bra för att kunna användas i produktion. Med mer data, både till mängd och egenskapspunkter samt bättre strukturerad data finns potential att skapa bättre modeller av intresse för produktion.
|
40 |
Adding temporal plasticity to a self-organizing incremental neural network using temporal activity diffusion / Om att utöka ett självorganiserande inkrementellt neuralt nätverk med temporal plasticitet genom temporal aktivitetsdiffusionLundberg, Emil January 2015 (has links)
Vector Quantization (VQ) is a classic optimization problem and a simple approach to pattern recognition. Applications include lossy data compression, clustering and speech and speaker recognition. Although VQ has largely been replaced by time-aware techniques like Hidden Markov Models (HMMs) and Dynamic Time Warping (DTW) in some applications, such as speech and speaker recognition, VQ still retains some significance due to its much lower computational cost — especially for embedded systems. A recent study also demonstrates a multi-section VQ system which achieves performance rivaling that of DTW in an application to handwritten signature recognition, at a much lower computational cost. Adding sensitivity to temporal patterns to a VQ algorithm could help improve such results further. SOTPAR2 is such an extension of Neural Gas, an Artificial Neural Network algorithm for VQ. SOTPAR2 uses a conceptually simple approach, based on adding lateral connections between network nodes and creating “temporal activity” that diffuses through adjacent nodes. The activity in turn makes the nearest-neighbor classifier biased toward network nodes with high activity, and the SOTPAR2 authors report improvements over Neural Gas in an application to time series prediction. This report presents an investigation of how this same extension affects quantization and prediction performance of the self-organizing incremental neural network (SOINN) algorithm. SOINN is a VQ algorithm which automatically chooses a suitable codebook size and can also be used for clustering with arbitrary cluster shapes. This extension is found to not improve the performance of SOINN, in fact it makes performance worse in all experiments attempted. A discussion of this result is provided, along with a discussion of the impact of the algorithm parameters, and possible future work to improve the results is suggested. / Vektorkvantisering (VQ; eng: Vector Quantization) är ett klassiskt problem och en enkel metod för mönsterigenkänning. Bland tillämpningar finns förstörande datakompression, klustring och igenkänning av tal och talare. Även om VQ i stort har ersatts av tidsmedvetna tekniker såsom dolda Markovmodeller (HMM, eng: Hidden Markov Models) och dynamisk tidskrökning (DTW, eng: Dynamic Time Warping) i vissa tillämpningar, som tal- och talarigenkänning, har VQ ännu viss relevans tack vare sin mycket lägre beräkningsmässiga kostnad — särskilt för exempelvis inbyggda system. En ny studie demonstrerar också ett VQ-system med flera sektioner som åstadkommer prestanda i klass med DTW i en tillämpning på igenkänning av handskrivna signaturer, men till en mycket lägre beräkningsmässig kostnad. Att dra nytta av temporala mönster i en VQ-algoritm skulle kunna hjälpa till att förbättra sådana resultat ytterligare. SOTPAR2 är en sådan utökning av Neural Gas, en artificiell neural nätverk-algorithm för VQ. SOTPAR2 använder en konceptuellt enkel idé, baserad på att lägga till sidleds anslutningar mellan nätverksnoder och skapa “temporal aktivitet” som diffunderar genom anslutna noder. Aktiviteten gör sedan så att närmaste-granne-klassificeraren föredrar noder med hög aktivitet, och författarna till SOTPAR2 rapporterar förbättrade resultat jämfört med Neural Gas i en tillämpning på förutsägning av en tidsserie. I denna rapport undersöks hur samma utökning påverkar kvantiserings- och förutsägningsprestanda hos algoritmen självorganiserande inkrementellt neuralt nätverk (SOINN, eng: self-organizing incremental neural network). SOINN är en VQ-algorithm som automatiskt väljer en lämplig kodboksstorlek och också kan användas för klustring med godtyckliga klusterformer. Experimentella resultat visar att denna utökning inte förbättrar prestandan hos SOINN, istället försämrades prestandan i alla experiment som genomfördes. Detta resultat diskuteras, liksom inverkan av parametervärden på prestandan, och möjligt framtida arbete för att förbättra resultaten föreslås.
|
Page generated in 0.0982 seconds