• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 60
  • 26
  • 12
  • 5
  • 4
  • 2
  • 1
  • 1
  • Tagged with
  • 112
  • 76
  • 62
  • 55
  • 42
  • 41
  • 35
  • 34
  • 29
  • 25
  • 23
  • 21
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Application of TensorFlow lite on embedded devices : A hands-on practice of TensorFlow model conversion to TensorFlow Lite model and its deployment on Smartphone to compare model’s performance

Rashidi, Mitra January 2022 (has links)
Rapporten beskriver processutvecklingen av integration inom smart-enheter och gör jämförelse med de traditionella datormodeller som exempelvis TensorFlow. Maskininlärning är ett område som för närvarande observeras av många människor på grund av dess anmärkningsvärda önskan inom olika intelligenta områden som datorseende, naturlig språkbehandling, föreslagna datorsystem, etcetera. Problem med utdata och tidsserier. Resursbegränsningen av smart-enheter gör det svårt att uppfatta olika aktiviteter som helt annorlunda än en stor process. En rekommenderad användarvänlig process för att utföra design, utveckling, utvärdering och leverans av maskininlärning-modeller för resurs begränsade inbäddade enheter. TensorFlow och TensorFlow Lite valdes ut för att utföra examensarbetet som tillhandahåller arbetsflödet för en maskininlärning-modell designad för en dator, bärbar dator eller en komprimerad och optimerad version av samma modell integrerad på en enda enhet har begränsade resurser. Modellerna jämförs och resultaten erhålls. Resultatet det visar sig att TensorFlow Lite-modellen är extremt starkt integrerad med maskininlärning i inbyggda enheter Lagringen av den utvecklade modell filen, tid det tog för att förutsäga värdet jämfördes. Resultaten visade att TensorFlow Lite-modellen var korrekt i jämförelse med basmodellen, då storleken på TensorFlow Lite var 60 % mindre än basstorleken och responstid för TensorFlow Lite-modellen var 70 % mindre än basmodellen. Detta visar att det finns en möjlighet att integrera maskininlärning i enheter med den process som föreslås i avhandlingen. Slutligen är modellen gjord på en Android-smartphone, dess praktiska funktionalitet och genomförbarhet har visat. Ramverket har ett unikt och pålitligt tillvägagångssätt, vilket ger flexibilitet samtidigt som det klarar utmaningen att integrera i Android-enheter. / The thesis describes development of Machine learning (ML) integration procedure in smartphone and provides a comparison with the traditional computer models like TensorFlow. Machine learning is a field that promotes a lot of observation in the current era due to its notable desire in various Intelligent applications such as computer vision, natural language processing, recommendation systems, and time series problems. The limitation of resources on a smartphone makes it challenging to apprehend varied completely different activities with high precision. A user-friendly procedure is proposed to perform the designing, development, evaluation and deployment of Machine learning models for embedded devices with limited resources. TensorFlow (TF) and TensorFlow lite (TF Lite) were selected to perform the task. The thesis provides the procedure of a base Machine learning model designed for a computer, laptop or a machine to a compressed and optimized version of the same model for integration on a device with limited resources. The models were compared, and results were obtained. It was found that the TensorFlow lite model is extremely favorable for Machine learning integration in embedded devices. The storage of the developed model file and the time taken for the prediction of the value was compared. The results showed that the TensorFlow lite model was as accurate as the basic model, the size of the TensorFlow lite model was 60% less than the size of the base model and the response time of the TensorFlow lite model was 70% less than the base model. This showed that the Machine learning integration to the embedded devices is promising with the procedure proposed in the thesis. Finally, the model was deployed in the android smart phone and its practicality and feasibility of use was showed. The framework adopts a unique and reliable approach that provides flexibility while passing the challenge of Machine learning integrated in the android device.
2

Scenanalys av trafikmiljön

Alsalehy, Ahmad, Alsayed, Ghada January 2021 (has links)
Antalet vägtrafikanter ökar varje år, och med det ökar trängseln. Man har därför gjort undersökningar med hjälp av objektdetektionsalgoritmer på videoströmmar. Genom att analysera data resultat är det möjligt att bygga en bättre infrastruktur, för att minska trafikstockning samt olyckor. Data som analyseras kan till exempel vara att räkna hur många trafikanter som vistas på en viss väg (Slottsbron i Halmstad) under en viss tid. Detta examensarbete undersöker teoretiskt hur en YOLO algoritm samt TensorFlow kan användas för att detektera olika trafikanter. Utvärderingsmetoder som användes i projektet för att få resultatet och dra slutsatser är mAP, träning och testning av egna och andras YOLO modeller samt övervakning av FPS- och temperatur-värden. För att möjliggöra detekteringen av trafikflöde i realtid nyttjades Jetson nano toolkit. Flera olika jämförelser har skapats för att avgöra vilken YOLO modell som är lämpligast. Resultaten från tester av olika YOLO modeller visar att YOLO-TensorFlows implementationer kan detektera trafikanter med en godtagbar noggrannhet. Slutsatsen är att Jetson nano har tillräckligt med processorkraft för att detektera olika trafikanter i realtid med hjälp av original YOLO implementation. Metoderna för att detektera trafikanter är standard och fungerande för analysering av trafikflöden.Testning av mer varierande trafikmiljö under längre tidsperioder krävs för att ytterligare verifiera om Jetson nanos lämplighet.
3

Measurement of machine learning performance with different condition and hyperparameter

Yin, Jiaqi 08 October 2020 (has links)
No description available.
4

Prediction of training time for deep neural networks in TensorFlow / Förutsägning av träningstider för djupa artificiella neuronnät i TensorFlow

Adlers, Jacob, Pihl, Gustaf January 2018 (has links)
Machine learning has gained a lot of interest over the past years and is now used extensively in various areas. Google has developed a framework called TensorFlow which simplifies the usage of machine learning without compromising the end result. However, it does not resolve the issue of neural network training being time consuming. The purpose of this thesis is to investigate with what accuracy training times can be predicted using TensorFlow. Essentially, how effectively one neural network in TensorFlow can be used to predict the training times of other neural networks, also in TensorFlow. In order to do this, training times for training different neural networks was collected. This data was used to create a neural network for prediction. The resulting neural network is capable of predicting training times with an average accuracy of 93.017%. / Maskininlärning har fått mycket uppmärksamhet de senaste åren och används nu i stor utsträckning inom olika områden. Google har utvecklat ramverket TensorFlow som förenklar användningen av maskininlärning utan att kompromissa slutresultatet. Det löser dock inte problemet med att det är tidskrävande att träna neurala nätverk. Syftet med detta examensarbete är att undersöka med vilken noggrannhet träningstiden kan förutsägas med TensorFlow. Alltså, hur effektivt kan ett neuralt nätverk i TensorFlow användas för att förutsäga träningstiderna av andra neurala nätverk, även dessa i TensorFlow. För att göra detta samlades träningstider för olika neurala nätverk. Datan användes sedan för att skapa ett neuralt nätverk för förutsägelse. Det resulterande neurala nätverket kan förutsäga träningstider med en genomsnittlig noggrannhet på 93,017%.
5

An Evaluation of TensorFlow as a Programming Framework for HPC Applications / En undersökning av TensorFlow som ett utvecklingsramverk för högpresterade datorsystem

Chien, Wei Der January 2018 (has links)
In recent years, deep-learning, a branch of machine learning gained increasing popularity due to their extensive applications and performance. At the core of these application is dense matrix-matrix multiplication. Graphics Processing Units (GPUs) are commonly used in the training process due to their massively parallel computation capabilities. In addition, specialized low-precision accelerators have emerged to specifically address Tensor operations. Software frameworks, such as TensorFlow have also emerged to increase the expressiveness of neural network model development. In TensorFlow computation problems are expressed as Computation Graphs where nodes of a graph denote operation and edges denote data movement between operations. With increasing number of heterogeneous accelerators which might co-exist on the same cluster system, it became increasingly difficult for users to program efficient and scalable applications. TensorFlow provides a high level of abstraction and it is possible to place operations of a computation graph on a device easily through a high level API. In this work, the usability of TensorFlow as a programming framework for HPC application is reviewed. We give an introduction of TensorFlow as a programming framework and paradigm for distributed computation. Two sample applications are implemented on TensorFlow: tiled matrix multiplication and conjugate gradient solver for solving large linear systems. We try to illustrate how such problems can be expressed in computation graph for distributed computation. We perform scalability tests and comment on performance scaling results and quantify how TensorFlow can take advantage of HPC systems by performing micro-benchmarking on communication performance. Through this work, we show that TensorFlow is an emerging and promising platform which is well suited for a particular class of problem which requires very little synchronization. / Under de senaste åren har deep-learning, en så kallad typ av maskininlärning, blivit populärt på grund av dess applikationer och prestanda. Den viktigaste komponenten i de här teknikerna är matrismultiplikation. Grafikprocessorer (GPUs) är vanligt förekommande vid träningsprocesser av artificiella neuronnät. Detta på grund av deras massivt parallella beräkningskapacitet. Dessutom har specialiserade lågprecisionsacceleratorer  som  specifikt beräknar  matrismultiplikation tagits fram. Många utvecklingsramverk har framkommit för att hjälpa programmerare att hantera artificiella neuronnät. I TensorFlow uttrycks beräkningsproblem som en beräkningsgraf. En nod representerar en beräkningsoperation och en väg representerar dataflöde mellan beräkningsoperationer i en beräkningsgraf. Eftersom man måste programmera olika acceleratorer med olika systemarkitekturer har programmering av högprestandasystem blivit allt svårare. TensorFlow erbjuder en hög abstraktionsnivå och förenklar programmering av högprestandaberäkningar. Man programmerar acceleratorer genom att placera operationer inom grafen på olika acceleratorer med en API. I detta arbete granskas användbarheten hos TensorFlow som ett programmeringsramverk för applikationer med högprestandaberäkningar. Vi presenterar TensorFlow som ett programmeringsutvecklingsramverk för distribuerad beräkning. Vi implementerar två vanliga applikationer i TensorFlow: en lösare som löser linjära ekvationsystem med konjugerade gradientmetoden samt blockmatrismultiplikation och illustrerar hur de här problemen kan uttryckas i beräkningsgrafer för distribuerad beräkning. Vi experimenterar och kommenterar metoder för att demonstrera hur TensorFlow kan nyttja HPC-maskinvaror. Vi testar både skalbarhet och effektivitet samt gör mikro-benchmarking på kommunikationsprestanda. Genom detta arbete visar vi att TensorFlow är en framväxande och lovande plattform som passar väl för en viss typ av problem som kräver minimal synkronisering.
6

Androidapplikation för digitalisering av formulär : Minimering av inlärningstid, kostnad och felsannolikhet

Fahlén, Erik January 2018 (has links)
This study was performed by creating an android application that uses custom object recognition to scan and digitalize a series of checkbox form for example to correct multiple-choice questions or collect forms in a spreadsheet. The purpose with this study was to see which dataset and hardware with the machine learning library TensorFlow was cheapest, price worthy, enough reliable and fastest. A dataset of filled example forms with annotated checkboxes was created and used in the learning process. The model that was used for the object recognition was Single Show MultiBox Detector, MobileNet version, because it can detect multiple objects in the same image as well as it doesn’t have as high hardware requirements making it fitted for phones. The learning process was done in Google Clouds Machine Learning Engine with different image resolutions and cloud configurations. After the learning process on the cloud the finished TensorFlow model was converted to the TensorFlow Lite model that gets used in phones. The TensorFlow Lite model was used in the compilation of the android application so that the object recognition could work. The android application worked and could recognize the inputs in the checkbox form. Different image resolutions and cloud configurations during the learning process gave different results when it comes to which one was fastest and cheapest. In the end the conclusion was that Googles hardware setup STANDARD_1 was 20% faster than BASIC that was 91% cheaper and more price worthy with this dataset. / Denna studie genomfördes genom att skapa en fungerande androidapplikation som använder sig av en anpassad objektigenkänning för att skanna och digitalisera en serie av kryssruteformulär exempelvis för att rätta flervalsfrågor eller sammanställa enkäter i ett kalkylark. Syftet med undersökningen var att se vilka datauppsättningar och hårdvara med maskininlärningsbiblioteket TensorFlow som var billigast, mest prisvärd, tillräcklig tillförlitlig och snabbast. En datauppsättning av ifyllda exempelformulär med klassificerade kryssrutor skapades och användes i inlärningsprocessen. Modellen som användes för objektigenkänningen blev Single Shot MultiBox Detector, version MobileNet, för att denna kan känna igen flera objekt i samma bild samt att den inte har lika höga hårdvarukrav vilket gör den anpassad för mobiltelefoner. Inlärningsprocessen utfördes i Google Clouds Machine Learning Engine med olika bildupplösningar och molnkonfiguration. Efter inlärningsprocessen på molnet konverterades den färdiga TensorFlow- modellen till en TensorFlow Lite-modell som används i mobiltelefoner. TensorFlow Lite-modellen användes i kompileringen av androidapplikationen för att objektigenkänningen skulle fungera. Androidapplikationen fungerade och kunde känna igen alla inmatningar i kryssruteformuläret. Olika bildupplösningar och molnkonfigurationer under inlärningsprocessen gav olika resultat när det gäller vilken som var snabbast eller billigast. I slutändan drogs slutsatsen att Googles hårdvaruuppsättning STANDARD_1 var 20% snabbare än BASIC som var 91% billigare och mest prisvärd med denna datauppsättning.
7

Tolka musiktecken från bilder : Optisk musikigenkänning med maskininlärning

Payerl, Anders January 2018 (has links)
The objective of the project was to examine the possibility to use machine lear- ning without prior knowledge of machine learning or of mathematics and if that is possible also explore the possibility to use machine learning to interpret a picture of a piece of sheet music. The capacity of detecting notes from images of sheet music in the produced model was then compared to an existing pro- gram called Audiveris. The result became a model later used in a comparison with the program Audiveris. The comparison resulted in Audiveris finding al- most 100% of the notes but the new model only being able to detect about a third. The reasons for the big difference were probably: first that Audiveris has been in development for many years and secondly that the training data used for the new model wasn’t enough varied and complicated. To further increase the ability of the new model ́s skill the main point would be the need for more trai- ning data at the training of the model. Even then you need to supply a variation in the data ́s content and its degree of difficulty which is more varied then the first training data. / Målet med projektet har varit att undersöka om det går att applicera maskininlärning utan att ha kunskaper av maskininlärning och matematik sedan tidigare samt om detta är möjligt också undersöka om det går att använda maskininlärning för att tolka en bild av nottecken för musik. Detta användes sedan för att jämföra dess förmåga att upptäcka noter med ett redan existerande program kallat Audiveris. Metoden som användes var att bilder märktes med information om dess innehåll och sedan användes dessa bilder för att träna en maskininlärningsmodell att tolka bilder av nottecken. Sedan gjordes en manuell jämförelse av Audiveris resultat samt resultatet från maskininlärningsmodellen efter att den tränats på de nya notbilderna. Resultatet blev en modell som sedan användes vid jämförelsen med Audiveris. Den jämförelsen resulterade i att Audiveris visade sig bättre än den nytränade modellen då Audiveris hittade nästan 100% av noterna på bilden medan den nya modellen bara hittade cirka 33.3%. Orsaken till den stora skillnaden på upptäckande av nottecken berodde antagligen till stor del på två saker: den första att Audiveris utvecklats under många år och den andra att träningsdatat som användes till den nya modellen inte var tillräckligt varierat och komplicerat. För att vidareutveckla den nya modellens färdighet skulle framför allt mer träningsdata behöva användas vid träningsmomentet. Även då behövde man se till att variationen av material och dess svårighetsgrad blev mer varierat än vid grundmaterialet.
8

Evaluating The Performance of Machine Learning on Different Devices

Zangana, Robar January 2022 (has links)
IoT-enheter blir allt populärare i takt med att de blir kraftfullare och skalbara. Därför var det viktigt att undersöka prestandan hos IoT-enheter när det kommer till maskininlärning. Huvudsyftet med detta arbete är att implementera två maskininlärningsmodeller på en bärbar dator och en Raspberry Pi 4 för att bestämma vilka maskininlärningsuppgifter som kan utföras på dessa enheter genom att sätta upp scenarier där vi kan testa låg-, medel- och högkrävande maskininlärning uppgifter på båda enheterna, som också möjliggör noggrann mätning. En bärbar dator användes som referenspunkt för att se om Raspberry Pi 4 kan prestera bra jämfört med en modern bärbar dator när de utför maskininlärningsuppgifter. Tensorflow valdes att användas för att implementera de två maskininlärningsmodellerna och för att mäta processen. Noggrannheten och träningstiden mättes för att bestämma prestandan för modellerna på de två enheterna. Tre datauppsättningar valdes ut för att användas för att träna och testa modellerna på de två enheterna, dessa datauppsättningar innehöll bilder, den första datauppsättningen bestod av mycket små bilder, och den andra bestod av lite större bilder, den sista datauppsättningen bestod av ännu större bilder, detta gjordes för att testa tre olika svårighetsgrader för modellerna på de två olika enheterna. Efter att träningen och utvärdering av modellerna slutförts på båda enheterna med hjälp av de tre datauppsättningarna analyserades de resulterande mätningarna och diskuterades sedan för att nå en slutsats. Slutsatsen från detta arbete var att endast lågnivåmaskininlärningsuppgifter är ett gångbart alternativ nu på grund av den extrema tid som krävs för att träna modellen för bildklassificering, men om tiden inte är en viktig faktor, skulle Raspberry Pi 4 efter en lång tid fortfarande uppnå samma noggrannhet som den bärbara datorn gjorde. / IoT devices are becoming increasingly popular as they are becoming more powerful and scalable. Therefor it was important to examine the potential of IoT devices when it comes to Machine Learning. The main objective of this work is to implement two machine learning models on a laptop and a Raspberry Pi 4 to determine what machine learning tasks that can be performed on these devices by setting up scenarios where we can test low, mid and high demanding machine learning tasks on both devices that also allows for accurate measurement being taken. A laptop was used a reference point to see if the Raspberry Pi 4 can perform well relative to a modern-day laptop when performing machine learning tasks. Tensorflow was chosen to be used to implement the two machine learning models and to measure the process. The accuracy and training time were measured to determine the performance of the models on the two devices. Three datasets were chosen to be used for training and testing the models on the two devices, these datasets contained images, the first dataset consisted of very tiny images, and the second one consisted of slightly larger images, the last dataset consisted of very large images, this was done to test three different levels of difficulty for the models. After training and evaluation of the models were completed on both devices using the three datasets, the resulting measurements were analyzed and then discussed to reach the conclusion. The conclusion from this work was that only low-tier machine learning tasks are a viable option now because of the extreme amount of time required to train the model for image classification, however if time isn’t an important factor, the Raspberry Pi 4 would after a long time still reach the same accuracy as the laptop did.
9

Neural Network Regularization for Generalized Heart Arrhythmia Classification

Glandberger, Oliver, Fredriksson, Daniel January 2020 (has links)
Background: Arrhythmias are a collection of heart conditions that affect almost half of the world’s population and accounted for roughly 32.1% of all deaths in 2015. More importantly, early detection of arrhythmia through electrocardiogram analysis can prevent up to 90% of deaths. Neural networks are a modern and increasingly popular tool of choice for classifying arrhythmias hidden within ECG-data. In the pursuit of achieving increased classification accuracy, some of these neural networks can become quite complex which can result in overfitting. To combat this phenomena, a technique called regularization is typically used. Thesis’ Problem Statement: Practically all of today’s research on utilizing neural networks for arrhythmia detection incorporates some form of regularization. However, most of this research has chosen not to focus on, and experiment with, regularization. In this thesis we measured and compared different regularization techniques in order to improve arrhythmia classification accuracy. Objectives: The main objective of this thesis is to expand upon a baseline neural network model by incorporating various regularization techniques and compare how these new models perform in relation to the baseline model. The regularization techniques used are L1, L2, L1 + L2, and Dropout. Methods: The study used quantitative experimentation in order to gather metrics from all of the models. Information regarding related works and relevant scientific articles were collected from Summon and Google Scholar. Results: The study shows that Dropout generally produces the best results, on average improving performance across all parameters and metrics. The Dropout model with a regularization parameter of 0.1 performed particularly well. Conclusions: The study concludes that there are multiple models which can be considered to have the greatest positive impact on the baseline model. Depending on how much one values the consequences of False Negatives vs. False Positives, there are multiple candidates which can be considered to be the best model. For example, is it worth choosing a model which misses 11 people suffering from arrhythmia but simultaneously catches 1651 mistakenly classified arrhythmia cases? / Bakgrund: Arytmier är en samling hjärt-kärlsjukdomar som drabbar nästan hälften av världens befolkning och stod för ungefär 32,1% av alla dödsfall 2015. 90% av dödsfallen som arytmi orsakar kan förhindras om arytmin identifieras tidigare. Neurala nätverk har blivit ett populärt verktyg för att detektera arytmi baserat på ECG-data. I strävan på att uppnå bättre klassificeringsnogrannhet kan dessa nätverk råka ut för problemet ’overfitting’. Overfitting kan dock förebyggas med regulariseringstekniker. Problemställning: Praktiskt taget all forskning som utnyttjar neurala nätverk för att klassifiera arytmi innehåller någon form av regularisering. Dock har majoriteten av denna forsknings inte valt att fokusera och experimentera med regularisering. I den här avhandlingen kommer vi att testa olika regulariseringstekniker för att jämföra hur de förbättrar grundmodellens arytmiklassificeringsförmåga. Mål: Huvudmålet med denna avhandling är att modifiera ett neuralt nätverk som utnyttjar transfer learning för att klassificera arytmi baserat på två-dimensionell ECG-data. Grundmodellen utökades med olika regulariseringstekniker i mån om att jämföra dessa och därmed komma fram till vilken teknik som har störst positiv påverkan. De tekniker som jämfördes är L1, L2, L1 + L2, och Dropout. Metod: Kvantitativa experiment användes för att samla in data kring teknikernas olika prestationer och denna data analyserades och presenterades sedan. En litteraturstudie genomfördes med hjälp av Summon och Google Scholar för att hitta information från relevanta artiklar. Resultat: Forskningen tyder på att generellt sett presterar Dropout bättre än de andra teknikerna. Dropout med parametern 0.1 förbättrade mätvärderna mest. Slutsatser: I specifikt denna kontext presterade Dropout(0.1) bäst. Dock anser vi att falska negativ och falska positiv inte är ekvivalenta. Vissa modeller presterar bättre än andra beroende på hur mycket dessa variabler värderas, och därmed är den bästa modellen subjektiv. Är det till exempel värt att låta 11 personer dö om det innebär att 1651 personer inte kommer att vidare testas i onödan?
10

Predicting Student Performance Using Machine Learning: A Comparative Study Between Classification Algorithms

Hayder, Alabbas January 2022 (has links)
Forskningsfrågan i denna avhandling var att utvärdera och jämföra två ML-algoritmer som var Support Vector Machine (SVM) och Artificial Neural Network (ANN) i termer av noggrannhet, precision, återkallelse, f1-poäng och förutsägelse när de tränades för att klassificera binära datamängder. Datauppsättningen hämtades från Ladok och bestod av anonyma högskolestudenter från en mängd kurser. Algoritmerna kördes på TensorFlow med Keras som API och byggdes, tränades och kördes för utvärdering, allt på Google Colab. Källkoden skrevs i Python. Det icke-tekniska målet med studien var att försöka hitta ett förutsägelsemönster för studentprestationer och tillhandahålla ett tekniskt ramverktyg för att ge feedback till studenter och universitetsfakulteten. Forskningsfrågan delades upp i tre separata delfrågor. Den första var om ML-algoritmerna var ett lämpligt sätt att hitta dessa elevmönster och den kunskap man fick var att ja eftersom dessa algoritmer var lämpliga för den lilla datauppsättningsstorleken. Den andra handlade om hur man implementerar SVM och ANN och det löstes med TensorFlow med Keras API. Den tredje handlade om mängden som behövdes för att dra slutsatserna och förutsäga dessa algoritmer, och det fastställdes att storleken var tillräcklig på grund av att den tränade noggrannheten var högre än baslinjenoggrannheten i båda algoritmerna. Den huvudsakliga forskningsfrågan resulterade i att SVM-modellen överträffade ANN-modellen vad gäller alla nämnda parametrar. Detta teoretiserades på grund av att SVM har linjärt ökande multiparameter som matchade de ökade ingångarna. Detta var inte fallet med strukturen för ANN. / The research question of this thesis was to evaluate and compare two ML algorithms which were Support Vector Machine (SVM) and Artificial Neural Network (ANN) in terms of accuracy, precision, recall, f1 score, and prediction when trained for classifying binary datasets. The dataset was fetched from Ladok and consisted of anonymous higher education student credit from a multitude of courses. The algorithms were run on TensorFlow with Keras as an API and were built, trained, and run for evaluation all on Google Colab. The source-code was written in Python. The non-technical goal of the study was to try to find a prediction pattern for student performance and provide a technical framework tool to provide feedback for student and university faculty. The research question was broken down into three separate sub questions. The first one was if the ML algorithms were an appropriate way to find these student patterns and the knowledge gained was that yes because theses algorithms were appropriate for the small dataset size. The second one was about how to implement SVM and ANN and that was solved using TensorFlow with Keras API. The third one was about the amount needed to draw the conclusions and prediction these algorithms would make, and it was determined that the size was sufficient due to the trained accuracy being higher that the baseline accuracy in both algorithms. The main research question resulted in the SVM model outperforming the ANN model in terms of all the parameters mentioned. This was theorized due to the nature of SVM having linearly increasing multiparameter that that matched the increased inputs. This was not the case with the structure of the ANN.

Page generated in 0.4296 seconds