Return to search

En jämförande studie med hjälp av maskininlärning : Vilket neuralt nätverk är mest lämpad för objektdetektering? / A comparative study using machine learning : Which neural network is most suitable for object detection?

Artificiell intelligens, även kallat AI, har länge varit ett aktuellt ämne. Idag genomsyras hela samhället av artificiell intelligens, allt ifrån sökmotorer, servicetjänster, självkörande bilar till verktyg för att underlätta vissa arbeten. För allt detta så finns det mängder av olika neurala nätverk att välja mellan för att lösa olika problem. Men hur vet man vilket nätverk som fungerar bäst för sin uppgift?  Målet med arbetet är att hitta en modell med högst noggrannhet i ett jämförande experiment. För att göra en rättvis bedömning togs en metod för att jämföra modeller inom objektdetektering med hög tillförlitlighet fram genom en litteraturstudie.  I litteraturstudien extraherades data från andra jämförande studier och sammanställdes i en så kallad jämförelsemodell som beskriver de viktigaste faktorerna att ta hänsyn till när man jämför modeller. Jämförelsemodellen visar att kända dataset bör användas, mätvärdena recall, precision och F1 är de mest pålitliga och man bör motivera alla sina val då det ökar tillförlitligheten och validiteten. Därefter applicerades jämförelsemodellen i ett demonstrerande experimentet som använde sig av neurala nätverk (CNN) där två modeller Multi-Task Cascaded Convolutional Neural Network (MTCNN) och You Only Look Once (YOLOv3) tränades och testades med samma dataset. Resultatet visade att modellen YOLOv3 gav bäst resultat.

Identiferoai:union.ndltd.org:UPSALLA1/oai:DiVA.org:lnu-116560
Date January 2022
CreatorsEkström, Rosa, Nowakowski, Robin
PublisherLinnéuniversitetet, Institutionen för datavetenskap och medieteknik (DM)
Source SetsDiVA Archive at Upsalla University
LanguageSwedish
Detected LanguageSwedish
TypeStudent thesis, info:eu-repo/semantics/bachelorThesis, text
Formatapplication/pdf
Rightsinfo:eu-repo/semantics/openAccess

Page generated in 0.002 seconds