• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 200
  • 59
  • Tagged with
  • 259
  • 259
  • 210
  • 153
  • 150
  • 132
  • 119
  • 112
  • 100
  • 85
  • 83
  • 81
  • 68
  • 59
  • 53
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Modern Credit Value Adjustment / Modern Kreditvärdejustering

Ratusznik, Wojciech January 2021 (has links)
Counterparty risk calculations have gained importance after the latest financial crisis. The bankruptcy of Lehman Brothers showed that even large financial institutiones face a risk of default. Hence, it is important to measure the risk of default for all the contracts written between financial institutions. Credit Value Adjustment, CVA, is an industry standard method for such calculations. Nevertheless, the implementation of this method is contract dependent and the necessary computer simulations can be very intensive. Monte Carlo simulations have for a long time been known as a precise but slow technique to evaluate the cash flows for contracts of all kinds. Measuring the exposure of a contract written on structured products might require half a day of calculations if the implementation is written without significant optimization. Several ideas have been presented by researchers and applied in the industry, the idea explored and implemented in this thesis was based on using Artificial Neural Networks in Python. This procedure require a decomposition of the Expected Exposure calculation within the CVA and generating a large data set using a standard Monte Carlo simulation. Three network architectures have been tested and the final performance was compared with using standard techniques for the very same calculation. The performance gain was significant, a portfolio of 100 counterparties with 10 contracts each would take 20 minutes of calculations in total when using the best performing architecture whereas a parallel C++ implementation of the standard method would require 2.6 days.
162

A Cycle-Accurate Simulator for Accelerating Convolution on AXI4-based Network-on-Chip Architecture / En cykelexakt simulator för att accelerera konvolution på AXI4-baserad nätverk-på-chip-arkitektur

Liu, Mingrui January 2024 (has links)
Artificial intelligence is probably one of the most prevalent research topics in computer science area, because the technology, if well developed and used properly, is promising to affect the daily lives of ordinaries or even reshape the structure of society. In the meantime, the end of Moore’s Law has promoted the development trend towards domain-specific architectures. The upsurge in researching specific architectures for artificial intelligence applications is unprecedented. Network-on-Chip (NoC) was proposed to address the scalability problem of multi-core system. Recently, NoC has gradually appeared in deep learning computing engines. NoC-based deep learning accelerator is an area worthy of research and currently understudied. Simulating a system is an important step in computer architecture research because it not only allows for rapid verification and measurement of design’s performance, but also provides guidance for subsequent hardware design. In this thesis, we present CNNoCaXiM, a flexible and cycle-accurate simulator for accelerating 2D convolution based on NoC interconnection and AXI4 protocol. We demonstrate its ability by simulating and measuring a convolution example with two different data flows. This simulator can be very useful for upcoming research, either as a baseline case or as a building block for further research. / Artificiell intelligens är förmodligen ett av de vanligaste forskningsämnena inom datavetenskap, eftersom tekniken, om den väl utvecklas och används på rätt sätt, lovar att påverka vanliga människors vardag eller till och med omforma samhällets struktur. Under tiden har slutet av Moores lag främjat utvecklingstrenden mot domänspecifika arkitekturer. Uppsvinget i forskning om specifika arkitekturer för tillämpningar av artificiell intelligens är utan motstycke. Network-on-Chip (NoC) föreslogs för att ta itu med skalbarhetsproblemet med flerkärniga system. Nyligen har NoC gradvis dykt upp i djuplärande datormotorer. NoC-baserad accelerator för djupinlärning är ett område som är värt forskning och för närvarande understuderat. Simulering av ett system är ett viktigt steg i forskning om datorarkitektur eftersom det inte bara möjliggör snabb verifiering och mätning av designens prestanda, utan också ger vägledning för efterföljande hårdvarudesign. I detta examensarbete presenterar vi CNNoCaXiM, en flexibel och cykelnoggrann simulator för att accelerera 2D-faltning baserad på NoC-interconnection och AXI4-protokoll. Vi visar dess förmåga genom att simulera och mäta ett faltningsexempel med två olika dataflöden. Denna simulator kan vara mycket användbar för kommande forskning, antingen som ett grundfall eller som en byggsten för vidare forskning.
163

Machine Learning for State Estimation in Fighter Aircraft / Maskininlärning för tillståndsestimering i stridsflygplan

Boivie, Axel January 2023 (has links)
This thesis presents an estimator to assist or replace a fighter aircraft’s air datasystem (ADS). The estimator is based on machine learning and LSTM neuralnetworks and uses the statistical correlation between states to estimate the angleof attack, angle of sideslip and Mach number using only the internal sensorsof the aircraft. The model is trained and extensively tested on a fighter jetsimulation model and shows promising results. The methodology and accuracyof the estimator are discussed, together with how a real-world implementationwould work. The estimators presented should act as a proof of concept of thepower of neural networks in state estimation, whilst the report discusses theirstrengths and weaknesses. The estimators can estimate the three targets wellin a vast envelope of altitudes, speeds, winds and manoeuvres. However, thetechnology is quite far from real-world implementation as it lacks transparencybut shows promising potential for future development. / Det här examensarbetet presenterar en estimator för att hjälpa eller ersätta ettstridsflygplans luftdatasystem (ADS). Estimatorn är baserad på maskininlärningoch LSTM neurala nätverk och använder statistisk korrelation mellan tillstånd föratt uppskatta anfallsvinkeln, sidglidningsvinkel och Mach-tal endast med hjälpav flygplanets interna sensorer. Modellen är tränad och utförligt testad på ensimuleringsmodell för stridsflygplan och visar lovande resultat. Estimatornsmetodik och noggrannhet diskuteras, tillsammans med hur en implementeringi verkligheten skulle fungera. De presenterade estimatorerna bör fungera somett “proof of concept” för kraften hos neurala nätverk för tillståndsuppskattning,medan rapporten diskuterar deras styrkor och svagheter. Estimatorerna kanuppskatta de tre tillstånden väl i ett stort spektra av altituder, hastigheter, vindaroch manövrar. Tekniken är dock ganska långt ifrån en verklig implementeringeftersom den saknar transparens, men visar lovande potential för framtidautveckling.
164

Empirisk Modellering av Trafikflöden : En spatio-temporal prediktiv modellering av trafikflöden i Stockholms stad med hjälp av neurala nätverk / Empirical Modeling of Traffic Flow : A spatio-temporal prediction model of the traffic flow in Stockholm city using neural networks

Björkqvist, Niclas, Evestam, Viktor January 2024 (has links)
A better understanding of the traffic flow in a city helps to smooth transport resulting in a better street environment, affecting not only road users and people in proximity. Good predictions of the flow of traffic helps to control and further develop the road network in order to avoid congestion and unneccessary time spent while traveling. This study investigates three different machine learning models with the purpose of predicting traffic flow on different road types inurban Stockholm using loop sensor data between 2013 and 2023. The models used was Long short term memory (LSTM), Temporal convolutional network (TCN) and a hybrid model of LSTM and TCN. The results from the hybrid model indicates a slightly better mean absolute error than TCN suggesting that a hybrid model might be advantagous when predicting traffic flow using loop sensor data. LSTM struggled to capture the complexity of the data and was unable to provide a proper prediction as a result. TCN produced a mean absolute error slightly bigger than the hybrid model and was to an extent able to capture the trends of the traffic flow, but struggled with capturing the scale of the traffic flow suggesting the need for further data preprocessing. Furthermore, this study suggests that the loop sensor data was able to act as a foundation for predicting the traffic flow using machine learning methods. However, it suggest that improvements to the data itself such as incorporating more related parameters might be advantageous to further improve traffic flow prediction.
165

Neural Network Quantum State Ansatz for the Nuclear Pairing Problem / Neuralt Nätverks Kvanttillståndsansats för Kärnparsproblemet

Bonnier, Isabelle January 2024 (has links)
As a degree project in Theoretical Physics, the variational MCMC-scheme aided by neural network quantum states was examined for the purpose ofsolving the nuclear pairing model. The method entailed minimization of the local energy sampled via the Born distribution obtained through the neural network output.Both the ground and excited states' energies were computed, where the latter case used an extended loss function which included the overlap to the former.The NNQS-ansatz worked well when emulating the ground state, in which case the Stochastic Reconfiguration optimization method was particularly effective. This optimization method resulted in relative fast convergence to low variance states, and did not require a large number of hyperparameter modifications. Ultimately, all resulting energy intervals encompassed the exact ground state solutions, and had relative errors equal to or near zero.For the excited states, the VMC-NNQS was less effective, as each individual occupation number state investigated required considerable hyperparameter testing before reasonably low lying energy eigenstates could be obtained. Moreover, the convergence properties were less distinguished than for the ground state, as the optimization struggled to maintain orthogonality to the ground state. Nonetheless, the final results included the nearest solutions of the first excited states for several systems and indicated correlation energies similar to those of the ground state. / Som examensarbete inom teoretisk fysik undersöktes den variationella MCMC-metoden tillsammans med neurala nätverk i syfte att lösa kärnparsmodellen. Metoden innebar minimering av den lokala energin som samplades via Born-fördelningen erhållen genom utdata från neurala nätverksapproximationer. Både grundtillståndets och exciterade tillstånds energier beräknades, där det senare fallet använde en utökad kostnadsfunktion som inkluderade överlappet med det förnämnda. NNQS-ansatsen fungerade väl vid emulering av grundtillståndet, i vilket fall optimeringsmethoden stokastisk omkonfigurering (Stochastic Reconfiguration) var särskilt effektivt. Denna optimeringsmetod resulterade i relativt snabb konvergens till lågvarianstillstånd och krävde inte ett stort antal hyperparametriska modifieringar. De slutliga energiintervallen innefattade de exakta lösningarna för grundtillstånden med en relativ felmarginal lika med eller nära noll. För exciterade tillstånd var VMC-NNQS mindre effektivt, eftersom varje enskilt ockupationstillstånd som undersöktes krävde en ansenlig mängd hyperparametrisk testning innan rimligt låga egentillstånd kunde erhållas. Dessutom var konvergensensegenskaperna mycket mindre särspäglade än för grundtillståndet, eftersom optimeringen inte fullt kunde upprätthålla ortogonaliteten mot grundtillståndet. Likväl inkluderade de slutliga resultaten de närmaste lösningarna av de första exciterade energierna för ett flertal system, och visade på korrelationsenergier liknande de för grundtillståndet.
166

SU-MIMO Port Selection Using Convolutional Neural Networks

Jonsson, Samuel January 2024 (has links)
Background: The exponential increase in user equipment (UE) units within mobile networks necessitates more efficient Massive MIMOalgorithms. To address this demand, integrating artificial intelligence (AI) into various network aspects is gaining traction. Goal: This thesis explores the feasibility of employing a lightweight convolutional neural network (CNN) to optimize port selection in single-usermultiple-input multiple-output (SU-MIMO) networks. Port selection, a critical component of all forms of MIMO networks, determines theoptimal ports on a UE for data transmission. The objective is to enhance selection speed, reduce computational complexity,and minimize memory consumption. Method: The methodology involves a quasi-experiment where a CNN model, trained on data transfer logs between a basestation and a UE, specifically a mobile phone, is compared with a self-implemented version of the port selection algorithm utilised in Ericssonbase stations. The evaluation criteria include time-, computational-, and spatial complexity. The accuracy of the port selection capabilities of themodels is also recorded. Results: Despite the complexity of the CNN models, the results indicate subpar performance and low test accuracies.This suggests that achieving satisfactory performance would either necessitate an increased model complexity and size or that a convolutionalneural network is not the correct choice for replacing the algorithm. Conclusion: In conclusion, the thesis finds that a lightweight CNN may not be the optimal solution for port selectionoptimization in SU-MIMO networks. However, it suggests potential avenues for further research to explore alternative approaches to this task. / Bakgrund: Den exponentiella ökningen av användarutrustning (UE-enheter) inom mobila nätverk kräver mer effektiva massive MIMO-algoritmer.För att möta detta behov har intresset för att integrera artificiell intelligens (AI) i olika delar av de modila nätverkan ökat mer och mer. Mål: Denna avhandling utforskar möjligheten att använda ett lättviktigt konvolutionellt neuralt nätverk för att optimera port selection i single usermultiple-input multiple-output (SU-MIMO) nätverk. Port selection, en viktig komponent i alla former av MIMO-nätverk, avgör de optimala portarna på enUE för dataöverföring. Det slutliga målet är att förbättra valhastigheten, minska beräkningskomplexiteten och minimeraminnesanvändningen, jämfört med den nuvarande algoritmen som används på Ericsson basstationer. Metod: Metodiken innefattar ett kvasiexperiment där en CNN-modell, tränad på dataöverföringsloggar mellan en basstation och en UE, specifikt enmobiltelefon, jämförs med en egenimplementerad version av portvalsalgoritmen som används i Ericssons basstationer. Utvärderingskriterierna inkluderartids-, beräknings- och rumskomplexitet. Även noggrannheten i portvalsmodellerna mätes. Resultat: Trots den komplexa naturen hos modellerna indikerar resultaten undermålig prestanda och låga testnoggrannheter.Detta antyder att för att uppnå tillfredsställande prestanda antinge skulle kräva en ökad modellkomplexitet och storlek, eller att ett konvolutionelltneuralt nätverk inte är den optimala lösningen för att ersätta den nuvarande algorithmen. Slutsats: Slutligen konstaterar avhandlingen att ett konvolutionellt neuralt nätverk inte är den optimala lösningen för optimering av port selectioni SU-MIMO-nätverk, då ett lättviktigt sådant inte kan uppnå en acceptabel prestanda. Dock föreslår den potentiella riktningar för vidare forskningför att utforska alternativa tillvägagångssätt för denna uppgift.
167

Makespan Estimation for Decreased Schedule Generation Time : Neural Network Job Shop Scheduling Optimisation

Holm, Tobias, Waters, Phoebe January 2024 (has links)
Background: Optimal scheduling is a common practice in various industries, facili-tating efficient workflow management. Accelerating the generation of schedules while maintaining their optimality could encourage broader adoption of this approach inindustry settings. Previous work has aimed to estimate the makespan for the JobShop Scheduling Problem, showing promising results. Objectives: Given the increasing demand for AI and Machine Learning (ML) solutions across industries, this research aims to explore the integration of ML techniquesinto optimal scheduling processes. Specifically, the goal is to develop a faster scheduling solution without compromising the optimality of the generated schedules. The proposed approach combines the effectiveness and speed of ML with the optimal results obtained from mathematical scheduling models. Methods: This thesis focuses on the Job Shop Scheduling (JSS) Problem, where a mathematical scheduler is tasked with minimizing the makespan of a set of jobs while following a predefined set of rules. An initial investigation is performed to establish if there is potential in providing the scheduler with its optimal makespan to decrease the scheduling time. To generalize the application of the concept, the study investigates the potential efficiency acceleration achieved by providing the scheduler with a Machine Learning estimated makespan. This involves training a Neural Network(NN) to estimate the optimal makespan of job sets, which is then utilized to speedup the scheduling process. Results: The preliminary investigation demonstrates that providing the scheduler with the optimal makespan results in an average speed-up of schedule generationby 24%. The results of the scheduling time with the NN estimated makespan is on the other hand not as well performing. Despite achieving a level of accuracy in estimating the makespan, the resulting speed-up in the scheduler’s performance falls short. For the scheduler to benefit from being provided an estimated makespan it is therefore theorized to require a close-to-perfect estimation of the makespan, which was not achieved with the trained NN model. The trained NN reached an average accuracy of 95.75%. Conclusions: The study concludes that while ML models can accurately estimate makespan, the observed speed-up in scheduling performance is not as significant as anticipated. The correlation between well-estimated makespan and speed-up appearsto be inconsistent, indicating potential limitations in the current approach. Further investigation into the search algorithm employed by the scheduling tool Gurobi mayprovide insights into optimizing the scheduling process more effectively. In summary, while the integration of ML techniques shows promise in accelerating scheduling processes, a higher accuracy of the ML model would be required. Additional researchis needed to refine the approach and potentially bring a faster optimal scheduling solution into the future. / Bakgrund: Optimal schemaläggning är en vanlig implemetation inom flera olika branscher och underlättar hantering och effektiviserar arbetsflöden. Att påskynda genereringen av scheman samtidigt som den optimala aspekten av schemaläggning inte går till spillo, skulle kunna främja en bredare användning av optimal schemaläggning för fler brancher. Tidigare undersökningar har gjorts för att estimera "makespan" för Job Shop problemet inom schemaläggning och har visat lovande resultat. Syfte: Med den ökande efterfrågan på AI- och maskininlärnings lösningar inom olika branscher syftar denna forskning till att utforska integrationen av ML-tekniker i den optimala schemaläggningsprocessen. Målet är att utveckla en snabbare schemaläggningslösning utan att kompromissa med det genererade schemats optimalitet. Det föreslagna tillvägagångssättet kombinerar ML’s effektivitet och hastighet med de optimala resultaten som den matematiska schemaläggningsmodellen erbjuder. Metod: Forskningen fokuserar på problemet med schemaläggning för jobbshoppen(JSSP), där en matematisk schemaläggare har i uppgift att minimera makespan fören uppsättning jobb med hänsyn till ett par fördefinierade regler. En initial under-sökning görs, vilket visar att det finns potential i att tillhandahålla schemaläggarendess optimala makespan för att minska schemaläggningstiden. För att generalisera tillämpningen undersöker studien den potentiella accelerationen som uppnås genomatt tillhandahålla schemaläggaren ett maskininlärt uppskattat makespan. Detta medför att träna ett neuralt nätverk för att uppskatta det optimala makespanet för en mängd jobbuppsättningar, som sedan används för att påskynda schemaläggningsprocessen. Resultat: Den preliminära undersökningen visar att schemaläggaren resulterar i igenomsnittlig hastighetsökning av schemagenereringen med cirka 24% när den får tillgång till det optimala makespanet för de givna jobben. Resultaten av schemaläggningstiden med det neurala nätverkets uppskattade makespan är dock lägre än förväntat. Trots att en viss noggrannhetsnivå uppnås vid estimeringen av makespanet, når den resulterande hastighetsökningen i schemaläggarens prestanda inte upp tillförväntningarna. För att schemaläggaren ska dra nytta av att tillhandahålla ett uppskattad makespan krävs en nära perfekt uppskattning av makespan, vilket inte uppnåddes med det tränade neurala nätverket. Slutsatser: Studien drar slutsatsen att även om ML-modeller kan uppskatta makespan någorlunda noggrant, är den observerade hastighetsökningen i schemaläggningen inte lika betydande som förväntat. Korrelationen mellan väl uppskattad makespan och hastighetsökning verkar vara inkonsekvent, vilket indikerar potentiella begränsningar i det nuvarande tillvägagångssättet. Vidare undersökning av sökalgoritmen som används av schemaläggningsverktyget Gurobi kan ge insikter för att optimera schemaläggningsprocessen mer effektivt. Sammanfattningsvis visar integrationen av ML-tekniker lovande resultat för att accelerera schemaläggningsprocesser, men en bättre estimering av makespan skulle krävas. Ytterligare forskning behövs för att förbättra tillvägagångssättet och potentiellt introducera en snabbare optimal schemaläggningslösning för framtiden.
168

Neurala nätverk försjälvkörande fordon : Utforskande av olika tillvägagångssätt / Neural Networks for Autonomous Vehicles : An Exploration of Different Approaches

Hellner, Simon, Syvertsson, Henrik January 2021 (has links)
Artificiella neurala nätverk (ANN) har ett brett tillämpningsområde och blir allt relevantare på flera håll, inte minst för självkörande fordon. För att träna nätverken användsmeta-algoritmer. Nätverken kan styra fordonen med hjälp av olika typer av indata. I detta projekt har vi undersökt två meta-algoritmer: genetisk algoritm (GA) och gradient descent tillsammans med bakåtpropagering (GD & BP). Vi har även undersökt två typer av indata: avståndssensorer och linjedetektering. Vi redogör för teorin bakom de metoder vi har försökt implementera. Vi lyckades inte använda GD & BP för att träna nätverk att köra fordon, men vi redogör för hur vi försökte. I resultatdelen redovisar vi hur det med GA gick att träna ANN som använder avståndssensorer och linjedetektering som indata. Sammanfattningsvis lyckades vi implementera självkörande fordon med två olika typer av indata. / Artificial Neural Networks (ANN) have a broad area of application and are growing increasingly relevant, not least in the field of autonomous vehicles. Meta algorithms are used to train networks, which can control a vehicle using several kinds of input data. In this project we have looked at two meta algorithms: genetic algorithm (GA), and gradient descent with backpropagation (GD & BP). We have looked at two types of input to the ANN: distance sensors and line detection. We explain the theory behind the methods we have tried to implement. We did not succeed in using GD & BP to train ANNs to control vehicles, but we describe our attemps. We did however succeeded in using GA to train ANNs using a combination of distance sensors and line detection as input. In summary we managed to train ANNs to control vehicles using two methods of input, and we encountered interesting problems along the way.
169

Low-power Implementation of Neural Network Extension for RISC-V CPU / Lågeffektimplementering av neural nätverksutvidgning för RISC-V CPU

Lo Presti Costantino, Dario January 2023 (has links)
Deep Learning and Neural Networks have been studied and developed for many years as of today, but there is still a great need of research on this field, because the industry needs are rapidly changing. The new challenge in this field is called edge inference and it is the deployment of Deep Learning on small, simple and cheap devices, such as low-power microcontrollers. At the same time, also on the field of hardware design the industry is moving towards the RISC-V micro-architecture, which is open-source and is developing at such a fast rate that it will soon become the standard. A batteryless ultra low power microcontroller based on energy harvesting and RISC-V microarchitecture has been the final target device of this thesis. The challenge on which this project is based is to make a simple Neural Network work on this chip, i.e., finding out the capabilities and the limits of this chip for such an application and trying to optimize as much as possible the power and energy consumption. To do that TensorFlow Lite Micro has been chosen as the Deep Learning framework of reference, and a simple existing application was studied and tested first on the SparkFun Edge board and then successfully ported to the RISC-V ONiO.zero core, with its restrictive features. The optimizations have been done only on the convolutional layer of the neural network, both by Software, implementing the Im2col algorithm, and by Hardware, designing and implementing a new RISC-V instruction and the corresponding Hardware unit that performs four 8-bit parallel multiply-and-accumulate operations. This new design drastically reduces both the inference time (3.7 times reduction) and the number of instructions executed (4.8 times reduction), meaning lower overall power consumption. This kind of application on this type of chip can open the doors to a whole new market, giving the possibility to have thousands small, cheap and self-sufficient chips deploying Deep Learning applications to solve simple everyday life problems, even without network connection and without any privacy issue. / Deep Learning och neurala nätverk har studerats och utvecklats i många år fram till idag, men det finns fortfarande ett stort behov av forskning på detta område, eftersom industrins behov förändras snabbt. Den nya utmaningen inom detta område kallas edge inferens och det är implementeringen av Deep Learning på små, enkla och billiga enheter, såsom lågeffektmikrokontroller. Samtidigt, även på området hårdvarudesign, går industrin mot RISC-V-mikroarkitekturen, som är öppen källkod och utvecklas i så snabb takt att den snart kommer att bli standarden. En batterilös mikrokontroller med ultralåg effekt baserad på energiinsamling och RISC-V-mikroarkitektur har varit den slutliga målenheten för denna avhandling. Utmaningen som detta projekt är baserat på är att få ett enkelt neuralt nätverk att fungera på detta chip, det vill säga att ta reda på funktionerna och gränserna för detta chip för en sådan applikation och försöka optimera så mycket som möjligt ström- och energiförbrukningen. För att göra det har TensorFlow Lite Micro valts som referensram för Deep Learning, och en enkel befintlig applikation studerades och testades först på SparkFun Edge-kortet och portades sedan framgångsrikt till RISC-V ONiO.zero-kärnan, med dess restriktiva funktioner. Optimeringarna har endast gjorts på det konvolutionerande skikt av det neurala nätverket, både av mjukvara, implementering av Im2col-algoritmen, och av hårdvara, design och implementering av en ny RISC-V-instruktion och motsvarande hårdvaruenhet som utför fyra 8-bitars parallella multiplikation -och-ackumulationsoperationer. Denna nya design minskar drastiskt både slutledningstiden (3,7 gånger kortare) och antalet utförda instruktioner (4.8 gånger färre), vilket innebär lägre total strömförbrukning. Den här typen av applikationer på den här typen av chip kan öppna dörrarna till en helt ny marknad, vilket ger möjlighet att ha tusentals små, billiga och självförsörjande chip som distribuerar Deep Learning-applikationer för att lösa enkla vardagsproblem, även utan nätverksanslutning och utan någon integritetsproblematik.
170

Reliable Detection of Water Areas in Multispectral Drone Imagery : A faster region-based CNN model for accurately identifying the location of small-scale standing water bodies / Tillförlitlig detektering av vattenområden i multispektrala drönarbilder : En snabbare regionbaserad CNN-modell för noggrann identifiering av var småskaliga stående vattenförekomster finns

Shangguan, Shengyao January 2023 (has links)
Dengue and Zika are two arboviral viruses that affect a significant portion of the world population. The principal vector species of both viruses are Aedes aegypti and Aedes albopictus mosquitoes. They breed in very slow flowing or standing pools of water. It is important to reduce and control such potential breeding grounds to contain the spread of these diseases. This thesis investigates a model for the detection of water bodies using high-resolution images collected by Unmanned Aerial Vehicles (UAVs) in tropical countries, exemplified by Sri Lanka, and their multispectral information to help detect water bodies where larvae are most likely to breed quickly and accurately. Although machine learning has been studied in previous work to process multispectral image information to obtain the location of water bodies, different machine learning methods have not been compared, only random forest algorithms have been used. Because Convolutional Neural Networks (CNNs) are known to provide advanced classification performance for visual recognition tasks, in this thesis, faster region-based CNNs are introduced to perform fast and accurate identification of water body locations. In order to better evaluate the experimental results, this thesis introduces Intersection over Union (IoU) as a criterion for evaluating the results. On the one hand, IoU can judge the success rate of the model for water region recognition, and on the other hand, analysis of the model recall rate under different IoU values can also evaluate the model’s ability to detect the range of water regions. Meanwhile, the basic CNN network and random forest algorithm in the previous work are also implemented to compare the results of faster region-based CNNs. In conclusion, the faster region-based CNN model achieves the best results with a 98.33% recognition success rate for water bodies in multispectral images, compared to 95.80% for the CNN model and 95.74% for the random forest model. In addition, the faster region-based CNN model significantly outperformed the CNN model and the random forest model for training speed. / Dengue och zika är två arbovirala virus som drabbar en stor del av världens befolkning. De viktigaste vektorerna för båda virusen är myggorna Aedes aegypti och Aedes albopictus. De förökar sig i mycket långsamt rinnande eller stående vattensamlingar. Det är viktigt att minska och kontrollera sådana potentiella grogrunder för att begränsa spridningen av dessa sjukdomar. I denna avhandling undersöks en modell för att upptäcka vattenområden med hjälp av högupplösta bilder som samlas in av Unmanned Aerial Vehicles (UAV) i tropiska länder, exemplifierat av Sri Lanka, och deras multispektrala information för att hjälpa till att upptäcka vattenområden där larverna sannolikt förökar sig snabbt och noggrant. Även om maskininlärning har studerats i tidigare arbeten för att bearbeta multispektral information från bilder för att få fram platsen för vattenförekomster, har olika metoder för maskininlärning inte jämförts, utan endast random forest-algoritmer har använts. Eftersom Convolutional Neural Networks (CNN) är kända för att erbjuda avancerade klassificeringsprestanda för visuella igenkänningsuppgifter i denna avhandling introduceras snabbare regionbaserade CNN för att utföra snabb och exakt identifiering av vattenkropparnas läge. För att bättre kunna utvärdera de experimentella resultaten införs i denna avhandling Intersection over Union (IoU) som ett kriterium för utvärdering av resultaten. Å ena sidan kan IoU bedöma modellens framgång för igenkänning av vattenområden, och å andra sidan kan analysen av modellens återkallningsfrekvens under olika IoU-värden också utvärdera modellens förmåga att upptäcka olika vattenområden. Samtidigt genomförs även det grundläggande CNN-nätverket och algoritmen för slumpmässig skog i det tidigare arbetet för att jämföra resultaten av Faster regionbaserad CNN. Sammanfattningsvis ger den snabbare regionbaserade CNN-modellen de bästa resultaten med 98,33% av alla igenkänningsresultat för vattenkroppar i multispektrala bilder, jämfört med 95,80% för CNN-modellen och 95,74% för modellen med slumpmässig skog. Dessutom överträffade den snabbare regionbaserade CNN-modellen CNN-modellen och random forest-modellen avsevärt när det gäller träningshastighet.

Page generated in 0.0633 seconds