Return to search

Uncertainties in Neural Networks : A System Identification Approach

In science, technology, and engineering, creating models of the environment to predict future events has always been a key component. The models could be everything from how the friction of a tire depends on the wheels slip  to how a pathogen is spread throughout society.  As more data becomes available, the use of data-driven black-box models becomes more attractive. In many areas they have shown promising results, but for them to be used widespread in safety-critical applications such as autonomous driving some notion of uncertainty in the prediction is required. An example of such a black-box model is neural networks (NNs). This thesis aims to increase the usefulness of NNs by presenting an method where uncertainty in the prediction is obtained by linearization of the model. In system identification and sensor fusion, under the condition that the model structure is identifiable, this is a commonly used approach to get uncertainty in the prediction from a nonlinear model. If the model structure is not identifiable, such as for NNs, the ambiguities that cause this have to be taken care of in order to make the approach applicable. This is handled in the first part of the thesis where NNs are analyzed from a system identification perspective, and sources of uncertainty are discussed. Another problem with data-driven black-box models is that it is difficult to know how flexible the model needs to be in order to correctly model the true system. One solution to this problem is to use a model that is more flexible than necessary to make sure that the model is flexible enough. But how would that extra flexibility affect the uncertainty in the prediction? This is handled in the later part of the thesis where it is shown that the uncertainty in the prediction is bounded from below by the uncertainty in the prediction of the model with lowest flexibility required for representing true system accurately.  In the literature, many other approaches to handle the uncertainty in predictions by NNs have been suggested, of which some are summarized in this work. Furthermore, a simulation and an experimental studies inspired by autonomous driving are conducted. In the simulation study, different sources of uncertainty are investigated, as well as how large the uncertainty in the predictions by NNs are in areas without training data. In the experimental study, the uncertainty in predictions done by different models are investigated. The results show that, compared to existing methods, the linearization method produces similar results for the uncertainty in predictions by NNs. An introduction video is available at https://youtu.be/O4ZcUTGXFN0 / Inom forskning och utveckling har det har alltid varit centralt att skapa modeller av verkligheten. Dessa modeller har bland annat använts till att förutspå framtida händelser eller för att styra ett system till att bete sig som man önskar. Modellerna kan beskriva allt från hur friktionen hos ett bildäck påverkas av hur mycket hjulen glider till hur ett virus kan sprida sig i ett samhälle. I takt med att mer och mer data blir tillgänglig ökar potentialen för datadrivna black-box modeller. Dessa modeller är universella approximationer vilka ska kunna representera vilken godtycklig funktion som helst. Användningen av dessa modeller har haft stor framgång inom många områden men för att verkligen kunna etablera sig inom säkerhetskritiska områden såsom självkörande farkoster behövs en förståelse för osäkerhet i prediktionen från modellen. Neuronnät är ett exempel på en sådan black-box modell. I denna avhandling kommer olika sätt att tillförskaffa sig kunskap om osäkerhet i prediktionen av neuronnät undersökas. En metod som bygger på linjärisering av modellen för att tillförskaffa sig osäkerhet i prediktionen av neuronnätet kommer att presenteras. Denna metod är välbeprövad inom systemidentifiering och sensorfusion under antagandet att modellen är identifierbar. För modeller såsom neuronnät, vilka inte är identifierbara behövs det att det tas hänsyn till tvetydigheterna i modellen. En annan utmaning med datadrivna black-box modeller, är att veta om den valda modellmängden är tillräckligt generell för att kunna modellera det sanna systemet. En lösning på detta problem är att använda modeller som har mer flexibilitet än vad som behövs, det vill säga en överparameteriserad modell.  Men hur påverkas osäkerheten i prediktionen av detta? Detta är något som undersöks i denna avhandling, vilken visar att osäkerheten i den överparameteriserad modellen kommer att vara begränsad underifrån av modellen med minst flexibilitet som ändå är tillräckligt generell för att modellera det sanna systemet. Som avslutning kommer dessa resultat att demonstreras i både en simuleringsstudie och en experimentstudie inspirerad av självkörande farkoster. Fokuset i simuleringsstudien är hur osäkerheten hos modellen är i områden med och utan tillgång till träningsdata medan experimentstudien fokuserar på jämförelsen mellan osäkerheten i olika typer av modeller.Resultaten från dessa studier visar att metoden som bygger på linjärisering ger liknande resultat för skattningen av osäkerheten i prediktionen av neuronnät, jämfört med existerande metoder. / iQdeep

Identiferoai:union.ndltd.org:UPSALLA1/oai:DiVA.org:liu-174720
Date January 2021
CreatorsMalmström, Magnus
PublisherLinköpings universitet, Reglerteknik, Linköpings universitet, Tekniska fakulteten, Linköping
Source SetsDiVA Archive at Upsalla University
LanguageEnglish
Detected LanguageSwedish
TypeLicentiate thesis, monograph, info:eu-repo/semantics/masterThesis, text
Formatapplication/pdf
Rightsinfo:eu-repo/semantics/openAccess
RelationLinköping Studies in Science and Technology. Licentiate Thesis, 0280-7971 ; 1902

Page generated in 0.0024 seconds