• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 618
  • 200
  • Tagged with
  • 818
  • 715
  • 705
  • 447
  • 392
  • 335
  • 327
  • 250
  • 214
  • 153
  • 148
  • 147
  • 121
  • 118
  • 117
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Embedded Vision Machine Learning on Embedded Devices for Image classification in Industrial Internet of things

Parvez, Bilal January 2017 (has links)
Because of Machine Learning, machines have become extremely good at image classification in near real time. With using significant training data, powerful machines can be trained to recognize images as good as any human would. Till now the norm has been to have pictures sent to a server and have the server recognize them. With increasing number of sensors the trend is moving towards edge computing to curb the increasing rate of data transfer and communication bottlenecks. The idea is to do the processing locally or as close to the sensor as possible and then only transmit actionable data to the server. While, this does solve plethora of communication problems, specially in industrial settings, it creates a new problem. The sensors need to do this computationally intensive image classification which is a challenge for embedded/wearable devices, due to their resource constrained nature. This thesis analyzes Machine Learning algorithms and libraries from the motivation of porting image classifiers to embedded devices. This includes, comparing different supervised Machine Learning approaches to image classification and figuring out which are most suited for being ported to embedded devices. Taking a step forward in making the process of testing and implementing Machine Learning algorithms as easy as their desktop counterparts. The goal is to ease the process of porting new image recognition and classification algorithms on a host of different embedded devices and to provide motivations behind design decisions. The final proposal goes through all design considerations and implements a prototype that is hardware independent. Which can be used as a reference for designing and then later porting of Machine Learning classifiers to embedded devices. / Maskiner har blivit extremt bra på bildklassificering i nära realtid. På grund av maskininlärning med kraftig träningsdata, kan kraftfulla maskiner utbildas för att känna igen bilder så bra som alla människor skulle. Hittills har trenden varit att få bilderna skickade till en server och sedan få servern att känna igen bilderna. Men eftersom sensorerna ökar i antal, går trenden mot så kallad "edge computing" för att stryka den ökande graden av dataöverföring och kommunikationsflaskhalsar. Tanken är att göra bearbetningen lokalt eller så nära sensorn som möjligt och sedan bara överföra aktiv data till servern. Samtidigt som detta löser överflöd av kommunikationsproblem, speciellt i industriella inställningar, skapar det ett nytt problem. Sensorerna måste kunna göra denna beräkningsintensiva bildklassificering ombord vilket speciellt är en utmaning för inbyggda system och bärbara enheter, på grund av sin resursbegränsade natur. Denna avhandling analyserar maskininlärningsalgoritmer och biblioteken från motivationen att portera generiska bildklassificatorer till inbyggda system. Att jämföra olika övervakade maskininlärningsmetoder för bildklassificering, utreda vilka som är mest lämpade för att bli porterade till inbyggda system, för att göra processen att testa och implementera maskininlärningsalgoritmer lika enkelt som sina skrivbordsmodeller. Målet är att underlätta processen för att portera nya bildigenkännings och klassificeringsalgoritmer på en mängd olika inbyggda system och att ge motivation bakom designbeslut som tagits och för att beskriva det snabbaste sättet att skapa en prototyp med "embedded vision design". Det slutliga förslaget går igenom all hänsyn till konstruktion och implementerar en prototyp som är maskinvaruoberoende och kan användas för snabb framtagning av prototyper och sedan senare överföring av maskininlärningsklassificatorer till inbyggda system.
202

IoT for fresh water quality monitoring

Maher, Duarte January 2018 (has links)
Water is one of the most important resources in the world. It has direct impact on the daily life ofmankind and sustainable development of society. Water quality affects biological life and has to obeystrict regulations. Traditional water quality assurance methods, used today, involve manual samplingfollowed by laboratory analysis. This process is expensive due to high labour costs for sampling andlaboratory work. Moreover, it lacks real time analysis which is essential to minimise contamination.This thesis aims to find a solution to this problem using IoT sensors and Machine Learning techniquesto detect anomalies in the water quality. The spatial scalability is key requirement when selecting transmissionprotocols, as sensors could be spread around the water network. We consider solutions readilyavailable or soon to be in the market. The key LPWAN technologies studied are: SigFox, LoRaWANand NB-IoT. In general these protocols have many characteristics essential for fresh water monitoring,like long lasting battery life and long range, however, they have many limitations in terms of transmissiondata rates and duty cycles. It is therefore essential to find a solution that would correctly find anomaliesin the water quality but at the same time comply with limited transmission and processing capabilities ofthe node sensors and above mentioned protocols.A trial sensor is already in place in lake M¨alaren and its readings are used for this study. Supervisedmachine learning algorithms such as Logistic Regression, Artificial Neural Network, Decision Tree, OneClass K-NN and Support Vector Machine (SVM) are studied and discussed regarding the data available.SVM is then selected, implemented and optimised to comply with the limitations of IoT. The trade offbetween false anomalies and false normal readings was also discussed. / Vatten ä r en av de viktigaste resurserna i vä rlden. Det har direkt inverkan på mä nsklighetens dagliga liv och samhä llets hå llbara utveckling. Vattenkvaliteten på verkar det biologiska livet och må ste fö lja strikta fö reskrifter. Traditionella metoder fö r vattenkvalitetssä kring, som anvä nds idag, innefattar manuell provtagning fö ljt av laboratorieanalys. Denna process ä r dyr på grund av hö ga arbetskostnader fö r provtagning och laboratoriearbete. Dessutom saknar den realtidsanalys som ä r vä sentlig fö r att minimera‌fö rorening.Avhandlingen syftar till att hitta en lö sning på detta problem med hjä lp av IoT-sensorer och maskinlä rningsteknik fö r att upptä cka avvikelser i vattenkvaliteten. Den spatiala skalbarheten ä r ett viktigt krav vid val av ö verfö ringsprotokoll, eftersom sensorer kan spridas runt vattennä tverket. Vi diskuterar lö sningar som ä r lä ttillgä ngliga eller snart ska vara på marknaden. De viktigaste LPWAN-teknikerna som studerats ä r: SigFox, LoRaWAN och NB-IoT. Generellt har dessa protokoll må nga egenskaper som ä r nö dvä ndiga fö r ö vervakning av fä rskvatten, som lå ng batterilivslä ngd och lå ng rä ckvidd, men de har må nga begrä nsningar vad gä ller ö verfö ringshastighet och arbetscykel. Det ä r dä rfö r viktigt att hitta en lö sning som skulle hitta anomalier vid hö gt sä kerhet men samtidigt ö verensstä mmer med begrä nsade ö verfö ringsoch bearbetningskapaciteter hos sensorerna och de ovan nä mnda protokoll.En fö rsö kssensor finns redan på plats i Lake Mä laren och dess avlä sningar anvä nds fö r dennastudie.Ö vervakade maskininlä rningsalgoritmer, så som Logistic Regression, Artificial Neural Network,Decision Tree, One Class K-NN and Support Vector Machine (SVM) studeras och diskuteras beträ ffande tillgä ngliga data. SVM vä ljs sedan, implementeras och optimeras fö r att uppfylla IoTs begrä nsningarna.Balansen mellan falska avvikelser och falska normala avlä sningar diskuteras också .
203

A Benchmark of Prevalent Feature Selection Algorithms on a Diverse Set of Classification Problems

Anette, Kniberg, Nokto, David January 2018 (has links)
Feature selection is the process of automatically selecting important features from data. It is an essential part of machine learning, artificial intelligence, data mining, and modelling in general. There are many feature selection algorithms available and the appropriate choice can be difficult. The aim of this thesis was to compare feature selection algorithms in order to provide an experimental basis for which algorithm to choose. The first phase involved assessing which algorithms are most common in the scientific community, through a systematic literature study in the two largest reference databases: Scopus and Web of Science. The second phase involved constructing and implementing a benchmark pipeline to compare 31 algorithms’ performance on 50 data sets.The selected features were used to construct classification models and their predictive performances were compared, as well as the runtime of the selection process. The results show a small overall superiority of embedded type algorithms, especially types that involve Decision Trees. However, there is no algorithm that is significantly superior in every case. The pipeline and data from the experiments can be used by practitioners in determining which algorithms to apply to their respective problems. / Variabelselektion är en process där relevanta variabler automatiskt selekteras i data. Det är en essentiell del av maskininlärning, artificiell intelligens, datautvinning och modellering i allmänhet. Den stora mängden variabelselektionsalgoritmer kan göra det svårt att avgöra vilken algoritm som ska användas. Målet med detta examensarbete är att jämföra variabelselektionsalgoritmer för att ge en experimentell bas för valet av algoritm. I första fasen avgjordes vilka algoritmer som är mest förekommande i vetenskapen, via en systematisk litteraturstudie i de två största referensdatabaserna: Scopus och Web of Science. Den andra fasen bestod av att konstruera och implementera en experimentell mjukvara för att jämföra algoritmernas prestanda på 50 data set. De valda variablerna användes för att konstruera klassificeringsmodeller vars prediktiva prestanda, samt selektionsprocessens körningstid, jämfördes. Resultatet visar att inbäddade algoritmer i viss grad är överlägsna, framför allt typer som bygger på beslutsträd. Det finns dock ingen algoritm som är signifikant överlägsen i varje sammanhang. Programmet och datan från experimenten kan användas av utövare för att avgöra vilken algoritm som bör appliceras på deras respektive problem.
204

Implementing End-to-End MLOps for Enhanced Steel Production / End-to-End Implementering av MLOps för Ståltillverkning

Westin, Marcus, Berggren, Jacob January 2024 (has links)
Steel production companies must utilize new technologies and innovations to stay ahead of a highly competitive market. Recently, there has been a focus on Industry 4.0, which involves the digitalization of production to integrate with newer technologies such as cloud solutions and the Internet of Things (IoT). This results in a greater understanding of processes and data gathered in production, laying the foundation for potential machine learning (ML) implementations. ML models can improve process quality, reduce energy usage to produce more environmentally friendly products, and gain competitive advantages. Implementing several ML models in production can be difficult, as it involves dealing with different datasets and algorithms, moving models into production, and post-deployment maintenance. If these tasks are kept manually, the workload quickly becomes too large to handle effectively. This is why machine learning operations (MLOps) has recently been a popular topic. Automating parts of the ML workflow enables these systems to scale effectively as the number of models increases. This thesis aims to investigate how implementing MLOps practices can help an organization increase its use of ML systems. To do this, an MLOps framework is implemented using Microsoft Azure services together with a dataset from the stakeholder Uddeholm AB. The resulting workflow consists of automated pipelines for data pre-processing, training, and deployment of an ML model, contributing to establishing a scalable ML framework. Automating the majority of the workflow greatly eases the workload for managing the lifecycle of ML models.
205

Förutsäga data för lastbilstrafik med maskininlärning / Predicting data for truck traffic with machine learning

Hörberg, Eric January 2017 (has links)
Artificiella neuronnätverk används idag frekvent för att försöka se mönster i stora mängder data. Ser man mönster kan man till viss del se framtiden, och hur väl det fungerar på lastbilstrafik undersöks i den här rapporten. Historisk data om lastbilstrafik används med ett framåtkopplat artificiellt neuronnätverk för att skapa prognoser för lastbilars ankomster till en logistisk plats. Med ett program som skapats för att testa vilka paramterar som ger bäst resultat för det artificiella neuronnätverket så undersöks vilken datastruktur och vilken typ av prognos som ger det bästa resultatet. De två typer av prognoser som testas är tiden till nästa lastbils ankomst samt intensiteten av lastbilarnas ankomster nästa timme. De bästa prognoserna skapades när intensiteten av lastbilar för nästa timme förutspåddes, och prognoserna visade sig då vara bättre än de prognoser nuvarande statistiska metoder kan ge. / Artificial neural networks are used frequently today in order to find patterns in large amounts of data. If one can see the patterns one can to some extent see the future, and how well this works for truck traffic is researched in this report. Historical data about truck traffic is used with a feed-forward artificial neural network to create forecasts for arrivals of trucks to a logistic location. With a program that was created to test what data structure and what parameters give the best results for the artificial neural network it is researched what type of forecast gives the best result. The two forecasts that are tested are the time to the next trucks arrival and the intensity of truck arrivals the next hour. The best forecasts were created when the intensity of trucks for the next hour were predicted, and the forecasts were shown to be better than the forecasts present statistical methods can give.
206

Deep Learning for Predicting Electrical Power in 5G / Djupinlärning för att förutspå elektrisk effekt för 5G

Mellberg, Robert January 2022 (has links)
5G is currently being implemented around the world. A way to save resources in 5G could be to have several sector carriers sharing one power source. This requires being able to predict the electrical power of the sector carriers to make sure they do not exceed the capability of the power source. This thesis investigates deep learning for predicting the electrical power of a sector carrier. The chosen deep learning models are Multilayer perceptron (MLP) and Long short-term memory network (LSTM) and they are trained and evaluated on seven generated datasets from a sector carrier in Lund. The study consists of two parts, comparing the predictive performance between MLP and LSTM as well as determining the importance of each input feature on the predictions. It is concluded from the results that the MLP outperforms the LSTM in all datasets and should be the preferred model. The most important input feature for the predictions is by far the number of Resource elements (REs) used per slot. The number of Physical resource blocks (PRBs), modulation, scaling, number of streams and codebook indices have varying importance. The results can be used for guidance when implementing a real time system for which model and which input features to include. More work is required in investigating how the models perform on aggregated data from several sector carriers and determining if the models could feasibly be implemented for real time predictions. / 5G håller på att implementeras runtom i världen. Ett sätt att spara resurser i 5G skulle kunna vara att ha flera sektorbärare dela på en strömkälla. För att implementera detta behöver man kunna förutsäga effekten av sektorbärarna för att försäkra sig om att de inte kommer överstiga den maximala effekten strömkällan tillåter. I denna avhandling undersöks djupinlärning för att förutsäga effekten av en sektorbärare. De använda djupinlärningsmodellerna är Multilayer perceptron (MLP) och Long short-term memory (LSTM) och de tränas och utvärderas på sju stycken olika dataset genererade från en sektorbärare i Lund. Studien är uppdelad i två delar, en del där MLP och LSTM jämförs med hänsyn till deras prediktiva förmåga och en del där varje datavariabel utvärderas till hur viktig den är för modellernas förutsägelser. Från resultaten kunde slutsatsen dras att MLP presterar bättre än LSTM på alla sju dataset och att MLP bör väljas före LSTM. Den viktigaste datavariabeln är antalet resurs element med en signifikant skillnad jämfört med övriga datavariabler. Antalet fysiska resursblock, modulationen, skalningsfaktorn, antalet strömmar och kodboksindex har varierande viktighet. Resultaten kan användas som stöd för implementering av realtid system för att bestämma lämplig model och data. Mer arbete krävs för att undersöka hur modellerna presterar på data som är aggregerat från flera sektorbärare samt undersöka huruvida det är genomförbart att implementera ett realtid system för förutsägelser utifrån beräkningskraft och kostandsanalys.
207

Cluster selection for Clustered Federated Learning using Min-wise Independent Permutations and Word Embeddings / Kluster selektion för Klustrad Federerad Inlärning med användning av “Min-wise” Oberoende Permutations och Ordinbäddningar

Raveen Bandara Harasgama, Pulasthi January 2022 (has links)
Federated learning is a widely established modern machine learning methodology where training is done directly on the client device with local client data and the local training results are shared to compute a global model. Federated learning emerged as a result of data ownership and the privacy concerns of traditional machine learning methodologies where data is collected and trained at a central location. However, in a distributed data environment, the training suffers significantly when the client data is not identically distributed. Hence, clustered federated learning was proposed where similar clients are clustered and trained independently to form specialized cluster models which are then used to compute a global model. In this approach, the cluster selection for clustered federated learning is a major factor that affects the effectiveness of the global model. This research presents two approaches for client clustering using local client data for clustered federated learning while preserving data privacy. The two proposed approaches use min-wise independent permutations to compute client signatures using text and word embeddings. These client signatures are then used as a representation of client data to cluster clients using agglomerative hierarchical clustering. Unlike previously proposed clustering methods, the two presented approaches do not use model updates, provide a better privacy-preserving mechanism and have a lower communication overhead. With extensive experimentation, we show that the proposed approaches outperform the random clustering approach. Finally, we present a client clustering methodology that can be utilized in a practical clustered federated learning environment. / Federerad inlärning är en etablerad och modern maskininlärnings metod. Träningen är utförd direkt på klientenheten med lokal klient data. Sen är dem lokala träningsresultat delad för att beräkna en global modell. Federerad inlärning har utvecklats på grund av dataägarskap- och dataintegritetsproblem vid traditionella maskininlärnings metoder. Dessa metoder samlar och tränar data på en central enhet. I den här metoden är kluster selektionen en viktig faktor som påverkar effektiviteten av den globala modellen. Detta forskningsarbete presenterar två metoder för klient klustring med hjälp av lokala klientdata för federerad inlärning samtidigt tar metoderna hänsyn på dataintegritet. Metoderna använder “min-wise” oberoende permutations och förtränade (“text och word”) inbäddningar. Dessa klientsignaturer används som en klientdata representation för att klustrar klienter med hjälp av agglomerativ hierarkisk klustring. Till skillnad från tidigare klustringsmetoder använder de två presenterade metoderna inte modelluppdateringar. Detta ger en bättre sekretessbevarande mekanism och har lägre kommunikationskostnader. De två presenterade metoderna överträffar den slumpmässiga klustringsmetoden genom omfattande experiment och analys. Till slut presenterar vi en klientklustermetodik som kan användas i en praktisk klustrad federerad inlärningsmiljö.
208

Offline Direction Clustering of Overlapping Radar Pulses from Homogeneous Emitters / Fristående riktningsklustring av överlappande radarpulser från homogena emittrar

Bedoire, Sofia January 2022 (has links)
Within the defence industry, it is essential to be aware of threats in the environment. A potential threat can be detected by identifying certain types of emitters in the surroundings that are typically used in the enemies’ systems. An emitter’s type can be identified by having a receiver measuring radar pulses in the environment and analysing the pulses transmitted from that specific emitter. As several emitters usually transmit pulses in an environment, the receiver measures pulses from all of these emitters. In order to analyse the pulses from only one emitter, the pulses must be sorted into groups based on what emitter they are transmitted from. This sorting can for instance be performed by considering similarities and differences in the pulses’ features. This thesis investigates whether the change in the pulses’ Angle of Arrival (AOA) over time can be used for sorting the pulses. Such an approach can be useful in scenarios where signals from homogeneous emitters, that are similar in their features, need to be distinguished. In addition, by taking the change in AOA into consideration, rather than relying on the AOA itself, the approach has the potential of separating signals from emitters that overlap with respect to the AOA over time at some time step. A multiple-step clustering algorithm which is adapted from Density-Based Spatial Clustering of Applications with Noise (DBSCAN) is used for the pulse sorting. The algorithm is primarily evaluated in testing scenarios including homogeneous emitters whose pulses overlap with respect to the AOA at some time step. The goal is to divide the pulses into groups depending on what emitter they are transmitted from. The pulses involved in an overlap are typically not distinguishable and they should therefore not be assigned to any cluster. Signals received before and after an overlap are allowed to belong to different clusters even if they are from the same emitter. The algorithm was able to cluster signals properly and to identify the overlapping signals in testing scenarios where the emitters were placed in specific patterns. The performance worsened as the emitters were allowed to have any position and the number of emitters increased, which can imply that the algorithm performs poorly when the emitters are closely located. In order to determine whether, or to what extent, this approach is suitable for pulse sorting, the algorithm should be further evaluated in more testing scenarios. / Inom försvarsindustrin är det grundläggande att vara medveten om hot i ens omgivning. Ett möjligt hot kan upptäckas genom att identifiera särskilda typer av emittrar i omgivningen som brukar användas i en fiendes system. Genom att med en mottagare mäta radarpulser i omgivningen och sedan analysera en särskild emitters pulser kan denna emitters typ identifieras. I en omgivning är det normalt ett flertal emittrar som sänder ut signaler vilket gör att mottagaren mäter flera emittrars pulser samtidigt. För att kunna analysera pulserna från endast en särskild emitter måste pulserna sorteras i grupper baserat på vilken emitter de kommer ifrån. Sorteringen kan exempelvis baseras på likheter och skillnader mellan signalernas egenskaper. Detta projekt undersöker huruvida pulser kan sorteras baserat på förändringen i pulsernas ankomstvinkel över tid. Denna metod kan vara användbar då signaler från homogena emittrar ska separeras då dessa signaler har liknande egenskaper. Genom att göra sorteringen baserad på ankomstvinkelns förändring över tid, istället för att endast kolla på ankomstvinkeln, är det även möjligt att skilja på signaler vars ankomstvinklar överlappar vid något tillfälle över tid. En klustringsalgoritm uppbyggd i flera steg används för pulssorteringen. Denna algoritm är i grunden baserad på principerna från Density-Based Spatial Clustering of Applications with Noise (DBSCAN). Algoritmen är huvudsakligen evaluerad på testscenarios med homogena emittrar vars pulsers ankomstvinkel överlappar vid något tillfälle. Målet är att dela in pulser i grupper efter vilken emitter de kommer ifrån. Pulser involverade i ett överlapp är normalt inte möjliga att särskilja och dessa pulser ska därför inte tillhöra något kluster. Signaler som mottages före och efter ett överlapp är tillåtna att höra till olika kluster även om de kommer från samma emitter. Algoritmen lyckades utföra klustringen och identifiera överlappande signaler i testscenarion då emittrarna placerats i särskilda mönster. Algoritmens prestanda försämrades då emittrarna tilläts ha godtyckliga positioner och antalet emittrar ökade. Detta kan innebära att metoden fungerar sämre när emittrarna är placerade nära varandra. För att avgöra huruvida denna metod är lämplig för pulssortering bör metoden utvärderas i flera testscenarion.
209

Smart Attack Detection for IoT Networks / Smart attackdetektering för IoT-nätverk

Yang, Yang January 2022 (has links)
The Internet of Things (IoT) is becoming related to more and more people's daily life. It is a network that consists of resource-constrained devices. Nowadays, the application of IoT like smart wearable devices is very common. Due to the wide and important application of IoT, its security also attracts research attention without any doubt. IoT networks are exposed to various attacks, so detecting attacks is necessary to enhance IoT security, which is achieved by Intrusion Detection Systems (IDS). To build an IDS, machine learning can be used as an efficient tool to train intrusion detection models. However, machine-learning methods often consume a lot of memory and computation resources, which inspires research on implementing machine-learning-based IDS on resource-constrained devices for IoT networks. This thesis aims to design and implement a machine-learning-based IDS for IoT networks. The target IoT devices are installed with an embedded operating system called Contiki. A large dataset of IoT networks is first created, which covers numerous network topologies. Then an intrusion detection classifier is trained using the Random Forests algorithm. The IDS is implemented by integrating the trained classifier with devices with the Contiki system. We perform experiments both in simulation and on real devices to evaluate the proposed IDS. The results show that our IDS works well on Contiki nodes in IoT networks. In experiments based on simulation, the detection accuracy always achieves over 92% under different setups. In the experiments on real resource-constrained devices, the IDS gets a detection accuracy of 100% in 15 different network topologies. / Sakernas Internet (från engelskans Internet of Things, IoT) blir en del av allt fler människors vardag. Det är ett nätverk som består av resursbegränsade enheter. Numera är det mycket vanligt med tillämpningar av sakernas internet, t.ex. smarta bärbara enheter. På grund av den breda och viktiga tillämpningen av sakernas internet drar säkerheten i sakernas internet också till sig forskningens uppmärksamhet utan tvekan. IoT-nätverk utsätts för olika attacker, så det är nödvändigt att upptäcka attacker för att förbättra IoT-säkerheten, vilket uppnås med hjälp av intrångsdetekteringssystem (IDS). För att bygga ett IDS kan maskininlärning användas som ett effektivt verktyg för att träna intrångsdetekteringsmodeller. Maskininlärningsmetoder förbrukar dock ofta mycket minne och beräkningsresurser, vilket inspirerar till forskning om att genomföra maskininlärningsbaserade IDS på resursbegränsade enheter för IoT-nätverk. Syftet med denna avhandling är att utforma och genomföra en maskininlärningsbaserad IDS för IoT-nätverk. IoT-enheterna är installerade med ett inbäddat operativsystem som heter Contiki. Först skapas ett stort dataset av IoT-nätverk, som täcker många nätverkstopologier. Därefter tränas en klassificerare för intrångsdetektering med hjälp av Random Forests-algoritmen. IDS genomförs genom att integrera den tränade klassificeraren med enheter med Contiki-systemet. Vi utför experiment både i simulering och på riktiga enheter för att utvärdera den föreslagna IDS. Resultaten visar att vårt IDS fungerar bra på Contiki-noder i IoT-nätverk. I experiment baserade på simulering uppnår detektionsnoggrannheten alltid över 92% under olika inställningar. I experimenten på riktiga resursbegränsade enheter uppnår IDS en detektionsnoggrannhet på 100% i 15 olika nätverkstopologier.
210

Investigating the Use of Deep Learning Models for Transactional Underwriting / En Undersökning av Djupinlärningsmodeller för Transaktionell Underwriting

Tober, Samuel January 2022 (has links)
Tabular data is the most common form of data, and is abundant throughout crucial industries, such as banks, hospitals and insurance companies. Albeit, deep learning research has largely been dominated by applications to homogeneous data, e.g. images or natural language. Inspired by the great success of deep learning in these domains, recent efforts have been made to tailor deep learning architectures for tabular data. In this thesis, two such models are selected and tested in the context of transactional underwriting. Specifically, the two models are evaluated in terms of predictive performance, interpretability and complexity, to ultimately see if they can compete with gradient boosted tree models and live up to industry requirements. Moreover, the pre-training capabilities of the deep learning models are tested through transfer learning experiments across different markets. It is concluded that the two models are able to outperform the benchmark gradient boosted tree model in terms of RMSE, and moreover, pre-training across markets gives a statistically significant improvement in RMSE, on a level of 0.05. Furthermore, using SHAP, together with model specific explainability methods, it is concluded that the two deep learning models’ explainability is on-par with gradient boosted tree models. / Tabelldata är den vanligaste formen av data och finns i överflöd i viktiga branscher, såsom banker, sjukhus och försäkringsbolag. Även om forskningen inom djupinlärning till stor del dominerats av tillämpningar på homogen data, t.ex. bilder eller naturligt språk. Inspirerad av den stora framgången för djupinlärning inom dessa domäner, har nyligen ansträngningar gjorts för att skräddarsy djupinlärnings-arkitekturer för tabelldata. I denna avhandling väljs och testas två sådana modeller på problemet att estimera vinst marginalen på en transaktion. Specifikt utvärderas de två modellerna i termer av prediktiv prestanda, tolkningsbarhet och komplexitet, för att i slutändan se om de kan konkurrera med gradient boosted tree-modeller och leva upp till branschkrav. Dessutom testas för-träningsförmågan hos djupinlärningmodellerna genom överföringsexperiment mellan olika marknader. Man drar slutsatsen att de två modellerna kan överträffa benchmark gradient boosted tree-modellen när det gäller RMSE, och dessutom ger för-träning mellan marknader en statistiskt signifikant förbättring av RMSE, på en nivå av 0,05. Vidare, med hjälp av SHAP, tillsammans med modellspecifika förklaringsmetoder, dras slutsatsen att de två djupinlärning-modellernas förklaringsbarhet är i nivå med gradient boosted tree-modellerna.

Page generated in 0.0939 seconds