Background: Arrhythmias are a collection of heart conditions that affect almost half of the world’s population and accounted for roughly 32.1% of all deaths in 2015. More importantly, early detection of arrhythmia through electrocardiogram analysis can prevent up to 90% of deaths. Neural networks are a modern and increasingly popular tool of choice for classifying arrhythmias hidden within ECG-data. In the pursuit of achieving increased classification accuracy, some of these neural networks can become quite complex which can result in overfitting. To combat this phenomena, a technique called regularization is typically used. Thesis’ Problem Statement: Practically all of today’s research on utilizing neural networks for arrhythmia detection incorporates some form of regularization. However, most of this research has chosen not to focus on, and experiment with, regularization. In this thesis we measured and compared different regularization techniques in order to improve arrhythmia classification accuracy. Objectives: The main objective of this thesis is to expand upon a baseline neural network model by incorporating various regularization techniques and compare how these new models perform in relation to the baseline model. The regularization techniques used are L1, L2, L1 + L2, and Dropout. Methods: The study used quantitative experimentation in order to gather metrics from all of the models. Information regarding related works and relevant scientific articles were collected from Summon and Google Scholar. Results: The study shows that Dropout generally produces the best results, on average improving performance across all parameters and metrics. The Dropout model with a regularization parameter of 0.1 performed particularly well. Conclusions: The study concludes that there are multiple models which can be considered to have the greatest positive impact on the baseline model. Depending on how much one values the consequences of False Negatives vs. False Positives, there are multiple candidates which can be considered to be the best model. For example, is it worth choosing a model which misses 11 people suffering from arrhythmia but simultaneously catches 1651 mistakenly classified arrhythmia cases? / Bakgrund: Arytmier är en samling hjärt-kärlsjukdomar som drabbar nästan hälften av världens befolkning och stod för ungefär 32,1% av alla dödsfall 2015. 90% av dödsfallen som arytmi orsakar kan förhindras om arytmin identifieras tidigare. Neurala nätverk har blivit ett populärt verktyg för att detektera arytmi baserat på ECG-data. I strävan på att uppnå bättre klassificeringsnogrannhet kan dessa nätverk råka ut för problemet ’overfitting’. Overfitting kan dock förebyggas med regulariseringstekniker. Problemställning: Praktiskt taget all forskning som utnyttjar neurala nätverk för att klassifiera arytmi innehåller någon form av regularisering. Dock har majoriteten av denna forsknings inte valt att fokusera och experimentera med regularisering. I den här avhandlingen kommer vi att testa olika regulariseringstekniker för att jämföra hur de förbättrar grundmodellens arytmiklassificeringsförmåga. Mål: Huvudmålet med denna avhandling är att modifiera ett neuralt nätverk som utnyttjar transfer learning för att klassificera arytmi baserat på två-dimensionell ECG-data. Grundmodellen utökades med olika regulariseringstekniker i mån om att jämföra dessa och därmed komma fram till vilken teknik som har störst positiv påverkan. De tekniker som jämfördes är L1, L2, L1 + L2, och Dropout. Metod: Kvantitativa experiment användes för att samla in data kring teknikernas olika prestationer och denna data analyserades och presenterades sedan. En litteraturstudie genomfördes med hjälp av Summon och Google Scholar för att hitta information från relevanta artiklar. Resultat: Forskningen tyder på att generellt sett presterar Dropout bättre än de andra teknikerna. Dropout med parametern 0.1 förbättrade mätvärderna mest. Slutsatser: I specifikt denna kontext presterade Dropout(0.1) bäst. Dock anser vi att falska negativ och falska positiv inte är ekvivalenta. Vissa modeller presterar bättre än andra beroende på hur mycket dessa variabler värderas, och därmed är den bästa modellen subjektiv. Är det till exempel värt att låta 11 personer dö om det innebär att 1651 personer inte kommer att vidare testas i onödan?
Identifer | oai:union.ndltd.org:UPSALLA1/oai:DiVA.org:bth-19731 |
Date | January 2020 |
Creators | Glandberger, Oliver, Fredriksson, Daniel |
Publisher | Blekinge Tekniska Högskola, Institutionen för datavetenskap |
Source Sets | DiVA Archive at Upsalla University |
Language | English |
Detected Language | English |
Type | Student thesis, info:eu-repo/semantics/bachelorThesis, text |
Format | application/pdf |
Rights | info:eu-repo/semantics/openAccess |
Page generated in 0.0027 seconds