• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 217
  • 30
  • Tagged with
  • 247
  • 231
  • 228
  • 175
  • 162
  • 126
  • 126
  • 111
  • 80
  • 78
  • 62
  • 51
  • 51
  • 45
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Automated Extraction of Data from Insurance Websites / Automatiserad Datautvinning från Försäkringssidor

Hodzic, Amar January 2022 (has links)
Websites have become a critical source of information for many organizations in today's digital era. However, extracting and organizing semi-structured data from web pages from multiple websites poses challenges. This is especially true when a high level of automation is desired while maintaining generality. A natural progression in the quest for automation is to extend the methods for web data extraction from only being able to handle a single website to handling multiple ones, usually within the same domain. Although these websites share the same domain, the structure of the data can vary greatly. A key question becomes how generalized such a system can be to encompass a large number of websites while maintaining adequate accuracy. The thesis examined the efficiency of automated web data extraction on multiple Swedish insurance company websites. Previous work showed that good results can be achieved with a known English data set that contains web pages from a number of domains. The state-of-the-art model MarkupLM was chosen and trained with supervised learning using two pre-trained models, a Swedish and an English model, on a labeled training set of car insurance customers' web data using zero-shot learning. The results show that such a model can achieve good accuracy on a domain scale with Swedish as the source language with a relatively small data set by leveraging pre-trained models. / Webbsidor har blivit en kritisk källa av information för många organisationer idag. Men att extrahera och strukturera semistrukturerade data från webbsidor från flertal webbplatser är en utmaning. Speciellt när det är önskvärt med en hög nivå av automatisering i kombination med en generaliserbar lösning. En naturlig utveckling i målat av automation är att utöka metoderna för datautvinning från att endast kunna hantera en specifik webbplats till flertal webbplatser inom samma domän. Men även om dessa webbplatser delar samma domän så kan strukturen på data variera i stor utsträckning. En nyckelfråga blir då hur pass generell en sådan lösning kan vara samtidigt som en adekvat prestanda uppehålls. Detta arbete undersöker prestandan av automatiserad datautvinning från ett flertal svenska försäkringssidor. Tidigare arbete visar på att goda resultat kan uppnås på ett känt engelskt dataset som innehåller webbsidor från ett flertal domän. Den toppmoderna modellen MarkupLM valdes och blev tränad med två olika förtränade modeller, en svensk och en engelsk modell, med märkt data från konsumenters bilförsäkringsdata. Modellen blev utvärderad på data från webbplatser som inte ingick i träningsdatat. Resultaten visar på att en sådan modell kan nå god prestanda på domänskala när innehållsspråket är svenska trots en relativt liten datamängd när förtränade modeller används.
62

Learning the Forward Operator in Photon-Counting Computed Tomography / Fotonräknande Datortomografi med en Inlärd Framåtoperator

Ström, Emanuel January 2021 (has links)
Computed Tomography (CT) is a non-invasive x-ray imaging method capable of reconstructing highly detailed cross-sectional interior maps of an object. CT is used in a range of medical applications such as detection of skeletal fractures, organ trauma and artery calcification. Reconstructing CT images requires the use of a forward operator, which is essentially a simulation of the scanning process. Photon-Counting CT is a rapidly developing alternative to conventional CT that promises higher spatial resolution, more accurate material separation and more robust reconstructions. A major difficulty in Photon-Counting CT is to model cross-talk between detectors. One way is to incorporate a wide point-spread function into the forward operator. Although this method works, it drastically slows down the reconstruction process.  In this thesis, we accelerate image reconstruction tasks for photon-counting CT by approximating the cross-talk component of the forward operator with a deep neural network, resulting in a learned forward operator. The learned operator reduces reconstruction error by an order of magnitude at the cost of a 20% increase in computation time, compared to ignoring cross-talk altogether. Furthermore, it generalises well to both unseen data and unseen detector settings. Our results indicate that a learned forward operator is a suitable way of approximating the forward operator in photon-counting CT. / Datortomografi (CT) är en icke-invasiv röntgenmetod som kan skapa högupplösta tvärsnittsbilder av objekt. CT används i en stor mängd tillämpningar, exempelvis vid detektion av frakturer, mjukvävnadstrauma och åderförkalkning. När man rekonstuerar tvärsnitt i CT krävs en simuleringsmodell som kallas framåtoperatorn. Fotonräknande CT är ett alternativ till konventionell CT som utlovar högre upplösning, mer precis uppdelning av material och högre robusthet i rekonstruktionerna. I fotonräknande CT är det viktigt att ta hänsyn till överhörning mellan detektorerna. Ett sätt är att inkorporera en punktspridningsfunktion i framåtoperatorn, vilket dessvärre saktar ned rekonstruktionsprocessen drastiskt.  I detta examensarbete approximerar vi överhörningseffekten mellan detektorer med ett djupt neuralt nätverk, med syfte att accelerera rekonstruktionsprocessen för fotonräknande spektral CT. Den inlärda framåtoperatorn reducerar rekonstruktionsfelet med en faktor tio på bekostnad av en 20-procentig ökning i beräkningstid, jämfört med en framåtoperator som inte modellerar överhörning. Vi visar att den inlärda framåtoperatorn generaliserar väl till data som den inte är tränad på, men även detektorinställningar den inte är van vid. Våra resultat tyder på att den inlärda framåtoperatorn är en lämplig approximationsmetod för framåtoperatorn i fotonräknande CT.
63

Board and Chip Diversity in Deep Learning Side-Channel Attacks : On ATtiny85 Implementations Featuring Encryption and Communication / Mångfald av kretskort och chip i sidokanalsattacker med djupinlärning : På ATtiny85-implementationer med kryptering och kommunikation

Björklund, Filip, Landin, Niklas January 2021 (has links)
Hardware security is an increasingly relevant topic because more and more systems and products are equipped with embedded microcontrollers. One type of threat against hardware security is attacks against encryption implementations in embedded hardware. The purpose of such attacks might be to extract the secret encryption key used to encrypt secret information that is being processed in the hardware. One type of such an attack that has gained more attention lately is side-channel attacks using deep learning algorithms. These attacks exploit the information that leaks from a chip in the form of the power the chip is consuming during encryption. In order to execute a side-channel attack assisted by deep learning, large amounts of data are needed for the neural network to train on. The data typically consists of several hundreds of thousands of power traces that have been captured from the profiling device. When the network has finished training, only a few power traces are required from a similar device to extract the key byte that has been used during encryption. In this project, the 8-bit microcontroller ATtiny85 was used as the victim device. AES-ECB 128 was used as the encryption algorithm. The goal of the project was to test how differences between boards and ATtiny85 chips affect the performance of side-channel attacks with deep learning. In the experiments, six different boards were used, where three of them had identical designs, and three of the boards had different designs. The data gathering was performed by measuring power consumption with an oscilloscope connected to a PC. The results showed that the similarity between the boards that were used for profiling and the boards that were attacked was the most important aspect for the attack to succeed with as few power traces as possible. If the board that was attacked was represented as a part of the training dataset, improved attack performance could be observed. If the training used data from several identical boards, no obvious improvement in attack performance could be seen. The results also showed that there are noticeable differences between identical ATtiny85 chips. These differences were obvious because the best attacks were the ones where the attacked chip was part of the training data set. There are several directions for future work, including how feasible these attacks are in real life scenarios and how to create efficient countermeasures. / Hårdvarusäkerhet blir mer aktuellt allt eftersom fler och fler system och produkter utrustas med mikrokontrollers. En typ av hot mot hårdvarusäkerhet är attacker mot krypteringsimplementationer i inbyggd hårdvara. Sådana attacker kan ha som syfte att försöka ta fram den krypteringsnyckel som används för att kryptera hemlig information som hanteras i hårdvaran. En sådan typ av attack, som undersökts mycket under senare år, är sidokanalsattacker där djupinlärningsalgoritmer används. Dessa attacker utnyttjar den information som läcker från ett chip genom den ström som chippet förbrukar. För att kunna utföra en sidokanalsattack med hjälp av djupinlärning krävs stora mängder data för att träna det neurala nätverket som utgör djupinlärningen. Datan består vanligtvis av flera hundra tusen strömförbrukningsspår tagna från chippet som är tänkt att attackeras. Denna data märks upp med vilken nyckel och text som använts vid krypteringen, eftersom metoden som används är övervakad inlärning. När nätverket är färdigtränat krävs bara ett fåtal strömförbrukningsspår från ett liknande chip för att ta reda på vilken nyckel som används i krypteringen. I detta projekt användes ATtiny85, en 8-bitars mikrokontroller, som det utsatta chippet för attacken. 128 bitars AES-ECB användes som krypteringsalgoritm. Målet med projektet var att testa hur olikheter mellan olika kretskort och olika identiska ATtiny85-chip påverkar resultaten av sidokanalsattacker med djupinlärning. I testerna användes sex olika kretskort, där tre stycken var likadana varandra, och tre stycken var olika varandra. Datainsamlingen skedde genom att mäta strömförbrukningen med ett oscilloskop kopplat till en dator. Resultaten visade att likheten mellan de kretskort som användes för att samla in data och kretskortet som attackeras är den viktigaste faktorn för att attacken ska lyckas med hjälp av så få insamlade strömförbrukningsspår som möjligt. Om det kretskort som attackeras är representerat som en del av träningsdatamängden ses också förbättrade effekter i attackresultaten. Om träningen sker på flera identiska kretskort kunde ingen tydlig förbättring av attackerna observeras. Resultaten visade också att det finns skillnader mellan olika identiska ATtiny85-chip. Dessa skillnader visar sig i att en attack lyckas bäst om det attackerade chippet ingick i träningsdatamängden. Framtida studier kan bland annat undersöka hur effektiva dessa attacker är i en realistisk miljö samt om det är möjligt att skapa effektiva motåtgärder.
64

Improving Knee Cartilage Segmentation using Deep Learning-based Super-Resolution Methods / Förbättring av knäbrosksegmentering med djupinlärningsbaserade superupplösningsmetoder

Kim, Max January 2021 (has links)
Segmentation of the knee cartilage is an important step for surgery planning and manufacturing patient-specific prostheses. What has been a promising technology in recent years is deep learning-based super-resolution methods that are composed of feed-forward models which have been successfully applied on natural and medical images. This thesis aims to test the feasibility to super-resolve thick slice 2D sequence acquisitions and acquire sufficient segmentation accuracy of the articular cartilage in the knee. The investigated approaches are single- and multi-contrast super-resolution, where the contrasts are either based on the 2D sequence, 3D sequence, or both. The deep learning models investigated are based on predicting the residual image between the high- and low-resolution image pairs, finding the hidden latent features connecting the image pairs, and approximating the end-to-end non-linear mapping between the low- and high-resolution image pairs. The results showed a slight improvement in segmentation accuracy with regards to the baseline bilinear interpolation for the single-contrast super-resolution, however, no notable improvements in segmentation accuracy were observed for the multi-contrast case. Although the multi-contrast approach did not result in any notable improvements, there are still unexplored areas not covered in this work that are promising and could potentially be covered as future work. / Segmentering av knäbrosket är ett viktigt steg för planering inför operationer och tillverkning av patientspecifika proteser. Idag segmenterar man knäbrosk med hjälp av MR-bilder tagna med en 3D-sekvens som både tidskrävande och rörelsekänsligt, vilket kan vara obehagligt för patienten. I samband med 3D-bildtagningar brukar även thick slice 2D-sekvenser tas för diagnostiska skäl, däremot är de inte anpassade för segmentering på grund av för tjocka skivor. På senare tid har djupinlärningsbaserade superupplösningsmetoder uppbyggda av så kallade feed-forwardmodeller visat sig vara väldigt framgångsrikt när det applicerats på verkliga- och medicinska bilder. Syftet med den här rapporten är att testa hur väl superupplösta thick slice 2D-sekvensbildtagningar fungerar för segmentering av ledbrosket i knät. De undersökta tillvägagångssätten är superupplösning av enkel- och flerkontrastbilder, där kontrasten är antingen baserade på 2D-sekvensen, 3D-sekvensen eller både och. Resultaten påvisar en liten förbättring av segmenteringnoggrannhet vid segmentering av enkelkontrastbilderna över baslinjen linjär interpolering. Däremot var det inte någon märkvärdig förbättring i superupplösning av flerkontrastbilderna. Även om superupplösning av flerkontrastmetoden inte gav någon märkbar förbättring segmenteringsresultaten så finns det fortfarande outforskade områden som inte tagits upp i det här arbetet som potentiellt skulle kunna utforskas i framtida arbeten.
65

Emotion Detection from Electroencephalography Data with Machine Learning : Classification of emotions elicited by auditory stimuli from music on self-collected data sets / Känslodetektion från Elektroencefalografidata med Maskininlärning : Klassificering av känslor framkallade av hörselstimuli från musik på egeninsamlade dataset

Söderqvist, Filip January 2021 (has links)
The recent advances in deep learning have made it state-of-the-art for many different tasks, making its potential usefulness for analyzing electroencephalography (EEG) data appealing. This study aims at automatic feature extraction and classification of likeability, valence, and arousal elicited by auditory stimuli from music by training deep neural networks (DNNs) on  minimally pre-processed multivariate EEG time series. Two data sets were collected, the first containing 840 samples from 21 subjects, the second containing 400 samples from a single subject. Each sample consists of a 30 second EEG stream which was recorded during music playback. Each subject in the multiple subject data set was played 40 different songs from 8 categories, after which they were asked to self-label their opinion of the song and the emotional response it elicited. Different pre- processing and data augmentation methods were tested on the data before it was fed to the DNNs. Three different network architectures were implemented and tested, including a one-dimensional translation of ResNet18, InceptionTime, and a novel architecture built upon from InceptionTime, dubbed EEGNet. The classification tasks were posed both as a binary and a three-class classification problem. The results from the DNNs were compared to three different methods of handcrafted feature extraction. The handcrafted features were used to train LightGBM models, which were used as a baseline. The experiments showed that the DNNs struggled to extract relevant features to discriminate between the different targets, as the results were close to random guessing. The experiments with the baseline models showed generalizability indications in the data, as all 36 experiments performed better than random guessing. The best results were a classification accuracy of 64 % and an AUC of 0.638 for valence on the multiple subject data set. The background study discovered many flaws and unclarities in the published work on the topic. Therefore, future work should not rely too much on these papers and explore other network architectures that can extract the relevant features to classify likeability and emotion from EEG data. / Djupinlärning har visat sig vara effektivt för många olika uppgifter, vilket gör det möjligt att det även kan användas för att analysera data från elektroencefalografi (EEG). Målet med denna studie är att genom två egeninsamlade dataset försöka klassificera huruvida någon gillar en låt eller inte samt vilka känslor låten väcker genom att träna djupa neurala nätverk (DNN) på minimalt pre-processade EEG-tidsserier.  För det första datasettet samlades 840 dataexempel in från 21 deltagare. Dessa fick lyssna på 30-sekunders snuttar av 40 olika låtar från 8 kategorier varvid de fick svara på frågor angående vad de tyckte om låten samt vilka känslor den väckte. Det andra datasettet samlade in 400 dataexempel från endast en deltagare. Datan blev behandlad med flera olika metoder för att öka antalet träningsexempel innan det blev visat för de neurala nätverken. Tre olika nätverksarkitekturer implementerades och testades; en endimensionell variant av ResNet18, InceptionTime samt en egenbyggd arkitektur som byggde vidare på InceptionTime, döpt till EEGNet. Nätverken tränades både för binär och tre-klass klassificering.  Resultaten från nätverken jämfördes med tre olika metoder för att bygga egna prediktorer från EEG-datan. Dessa prediktorer användes för att träna LightGBM modeller, vars resultat användes som baslinje. Experimenten visade att DNNsen hade svårt att extrahera relevanta prediktorer för att kunna diskriminera mellan de olika klasserna, då resultaten var nära till godtyckligt gissande. Experimenten med LightGBM modellerna och de handgjorda prediktorerna visade dock indikationer på att det finns relevant information i datan för att kunna prediktera ett visst utfall, då alla 36 experiment presterade bättre än godyckligt gissande. Det bästa resultatet var 64 % träffsäkerhet för valens och binär klassificering, med en AUC på 0.638, för datasettet med många deltagare. Bakgrundsstudien upptäckte många oklarheter och fel i flera av de artiklar som är publicerade på ämnet. Framtida arbete bör därför inte förlita sig på denna alltför mycket. Den bör fokusera på att utveckla arkitekturer som klarar att extrahera de relevanta prediktorer som behövs för att kunna prediktera huruvida någon tycker om en låt eller inte samt vilka känslor denna väckte.
66

Anomaly Detection using LSTM N. Networks and Naive Bayes Classifiers in Multi-Variate Time-Series Data from a Bolt Tightening Tool / Anomali detektion med LSTM neuralt nätverk och Naive Bayes klassificerare av multivariabel tidsseriedata från en mutterdragare

Selander, Karl-Filip January 2021 (has links)
In this thesis, an anomaly detection framework has been developed to aid in maintenance of tightening tools. The framework is built using LSTM networks and gaussian naive bayes  classifiers. The suitability of LSTM networks for multi-variate sensor data and time-series prediction as a basis for anomaly detection has been explored. Current literature and research is mostly concerned with uni-variate data, where LSTM based approaches have had variable but often good results. However, most real world settings with sensor networks, such as the environment and tool from which this thesis data is gathered, are multi-variable. Thus, there is a need to research the effectiveness of the LSTM model in this setting. The thesis has emphasized the need of well defined evaluation metrics of anomaly detection approaches, the difficulties of defining anomalies and anomaly datasets, as well as illustrated the effectiveness of LSTM networks in multi-variate environments. / I den här uppsatsen har ett anomali detektions ramverk utvecklats för att bidra till underhållandet av åtdragarverktyg. Ramverket bygger på LSTM neurala nätverk och gaussian Naive Bayes klassificerare. Användbarheten av LSTM nätverk för multi-variabel data och tidsserie prediktion som basis för anomali detektion har undersökts. Nutida literatur och forskning berör mest envariabel data där LSTM baserade metoder ofta har presterat bra. Men, de flesta system i verkligheten är inte envariabel utan multivariabel, som den miljö verktyget, vars data undersöks i den här uppsatsen, opererar i. Därför anses det att det finns ett behov att undersöka användbarheten av LSTM modeller i den här typen av miljö. Det här arbetet har betonat vikten av väldefinierade utvärderingsvärden för anomali detektion, svårigheterna med att definiera anomalier och anomalidataset, samt illustrerat användbarheten av LSTM nätverk i multivariabla miljöer.
67

Naive semi-supervised deep learning med sammansättning av pseudo-klassificerare / Naive semi-supervised deep learning with an ensemble of pseudo-labelers

Karlsson, Erik, Nordhammar, Gilbert January 2019 (has links)
Ett vanligt problem inom supervised learning är brist på taggad träningsdata. Naive semi-supervised deep learning är en träningsteknik som ämnar att mildra detta problem genom att generera pseudo-taggad data och därefter låta ett neuralt nätverk träna på denna samt en mindre mängd taggad data. Detta arbete undersöker om denna teknik kan förbättras genom användandet av röstning. Flera neurala nätverk tränas genom den framtagna tekniken, naive semi-supervised deep learning eller supervised learning och deras träffsäkerhet utvärderas därefter. Resultaten visade nästan enbart försämringar då röstning användes. Dock verkar inte förutsättningarna för röstning ha varit särskilt goda, vilket gör det svårt att dra en säker slutsats kring effekterna av röstning. Även om röstning inte gav förbättringar har NSSDL visat sig vara mycket effektiv. Det finns flera applikationsområden där tekniken i framtiden skulle kunna användas med goda resultat.
68

Artificiell Intelligens inom medicinsk bilddiagnostik : En allmän litteraturstudie / Artificial Intelligence in medical imaging : A general litterature review

Rönnqvist, Mats, Johansson, Magnus January 2019 (has links)
Bakgrund: Artificiell Intelligens (AI) kommer in i vårt samhälle och våra hem i allt större utsträckning. Inom sjukvården och radiologin kan AI utgöra ett hjälpmedel för både radiologer och röntgensjuksköterskor i deras profession. Forskning om AI fortsätter med oförminskad kraft för att finna allt bättre och mer funktionsdugliga algoritmer som kan anta den utmaningen. Syfte: Syftet med denna litteraturstudie är att sammanställa vid vilka modaliteter AI används som stöd. Metod: Studien utfördes som en allmän litteraturstudie vilket genererade femton artiklar som kvalitetsgranskades och kategoriserades efter analys. Resultat: Beroende på tidpunkt när artiklarna var skrivna varierade metoderna hur träning av AI genomfördes. Det varierade även hur bilderna skulle förbearbetats inför träning. Bilderna måste genomgå brusreducering och segmentering för att AI ska kunna klassificera den sjukliga förändringen. Den processen underlättades i senare versioner av AI där alla dessa moment utfördes på en och samma gång. Slutsats: Stora förändringar kommer att ske inom radiologin och förändringarna kommer sannolikt att påverka alla på en röntgenavdelning. Författarna kan se att utvecklingen bara börjat och forskningen måste fortgå många år framöver. / Background: Artificial Intelligence (AI) increasingly comes in to our society and homes. In the field of medical care and radiology, AI will provide an aid for radiologists and radiographers in their professions. Research on AI continues in finding better and more functional algorithms which can achieve that. Purpose: The purpose of this literature study is to compile facts about modalities using artificial intelligence as support. Method: The study was conducted as a general literature study, which generated fifteen articles that were quality-reviewed and categorized after analysis. Result: Depending on the date when the articles were written the methods varied concerning how training of AI was performed. It also varied how the images were pre-processed before training. The images need to be processed by noise reduction and segmentation for AI in order to be able to classify the pathological change. That process was facilitated in later versions of AI where all these steps were performed at the same time. Conclusion: Major changes may occur in radiology and the changes are likely to affect everyone in an X-ray ward. The authors can see that the development has just begun and research has to continue for many years to come.
69

Obstacle Avoidance for an Autonomous Robot Car using Deep Learning / En autonom robotbil undviker hinder med hjälp av djupinlärning

Norén, Karl January 2019 (has links)
The focus of this study was deep learning. A small, autonomous robot car was used for obstacle avoidance experiments. The robot car used a camera for taking images of its surroundings. A convolutional neural network used the images for obstacle detection. The available dataset of 31 022 images was trained with the Xception model. We compared two different implementations for making the robot car avoid obstacles. Mapping image classes to steering commands was used as a reference implementation. The main implementation of this study was to separate obstacle detection and steering logic in different modules. The former reached an obstacle avoidance ratio of 80 %, the latter reached 88 %. Different hyperparameters were looked at during training. We found that frozen layers and number of epochs were important to optimize. Weights were loaded from ImageNet before training. Frozen layers decided how many layers that were trainable after that. Training all layers (no frozen layers) was proven to work best. Number of epochs decided how many epochs a model trained. We found that it was important to train between 10-25 epochs. The best model used no frozen layers and trained for 21 epochs. It reached a test accuracy of 85.2 %.
70

Deep Learning for Sea-Ice Classification on Synthetic Aperture Radar (SAR) Images in Earth Observation : Classification Using Semi-Supervised Generative Adversarial Networks on Partially Labeled Data / Djupinlärning för hav-is klassificering av syntetisk apertur radar (SAR) bilder inom jordobservation

Staccone, Francesco January 2020 (has links)
Earth Observation is the gathering of information about planet Earth’s system via Remote Sensing technologies for monitoring land cover types and their changes. Through the years, image classification techniques have been widely studied and employed to extract useful information from Earth Observation data such as satellite imagery. One of the most attractive use cases is the monitoring of polar regions, that recently observed some dramatic changes due to global warming. Indeed drifting ice caps and icebergs represent threats to ship activities and navigation in polar areas, and the risk of collision with land-derived ice highlights the need to design a robust and automatic Sea-Ice classification for delivering up-to- date and accurate information. To achieve this goal, satellite data such as Sentinel-1 Synthetic Aperture Radar images from the European Union’s Copernicus program can be given in input to a Deep Learning classifier based on Convolutional Neural Networks capable of giving the content categorization of such images as output. For the task at hand, the availability of labeled data is generally scarce, there- fore the problem of learning with limited labeled data must be faced. There- fore, this work aims at leveraging the broader pool of unlabeled satellite data available to open up new classification solutions. This thesis proposes a Semi-Supervised Learning approach based on Generative Adversarial Networks. Such an architecture takes in input both labeled and unlabeled data and outputs the classification results exploiting the knowledge retrieved from both the data sources. Its classification performance is evaluated and it is later compared with the Supervised Learning approach and the Transfer Learning approach based on pre-trained networks. This work empirically proves that the Semi-Supervised Generative Adversarial Networks approach outperforms the Supervised Learning method, improving its Overall Accuracy by at least 5% in configurations with less than 100 training labeled samples available in the use cases under evaluation, achieving performance comparable to the Transfer Learning approach and even over- coming it under specific experimental configurations. Further analyses are then performed to highlight the effectiveness of the proposed solution. / Jordobservation är samlingen av information om jordklotets system via fjärravkänningstekniker för övervakning av landskapstyper och deras förändringar. Under årens lopp har bildklassificeringstekniker studerats och använts för att extrahera användbar information från jordobservationsdata som satellitbilder. Ett av de mest attraktiva användningsfallen är övervakningen av polära regioner, som nyligen observerade några dramatiska förändringar på grund av den globala uppvärmningen. Driftande istäcken och isberg representerar ett verkligt hot mot fartygsaktiviteter och navigering inom polära områden, och risken för kollision med land-baserad is belyser behovet av att utforma en robust och automatisk Hav-Is-klassificering för att leverera aktuell och korrekt information. För att uppnå detta mål kan satellitdata som Sentinel-1 Synthetic Aperture Radar-bilder från Europeiska unionens Copernicus-program ges som input till en Deep Learning-klassificerare baserad på Convolutional Neural Networks som kan ge innehållskategorisering av sådana bilder som output. För den aktuella uppgiften är tillgängligheten av märkt data i allmänhet otillräcklig, därför måste problemet med inlärning med begränsad mängd märkt data ställas inför rätta. Därav syftar detta arbete till att utnyttja den bredare samlingen av omärkt satellitdata som finns tillgänglig för att öppna nya klassificeringslösningar. Denna avhandling föreslår en Semi-Supervised Learning-strategi baserad på Generative Adversarial Networks. En sådan arkitektur tar som input både märkt och omärkt data, och matar ut klassificeringsresultat som utnyttjar den kunskap som hämtats från båda datakällorna. Dess klassificeringsprestanda ut- värderas och jämförs senare med tillvägagångssättet Supervised Learning och metoden Transfer Learning baserat på förtränade nätverk. Detta arbete bevisar empiriskt att Semi-Supervised Generative Adversarial Network överträffar metoden Supervised Learning och förbättrar dess totala noggrannhet med minst 5% i konfigurationer med mindre än 100 tränings- märkta prover tillgängliga i användningsfallen under utvärdering, vilket uppnår prestanda som både är jämförbar med Transfer Learning-metoden och överlägsen jämte den under specifika experimentella konfigurationer. Ytterligare analyser utförs sedan för att belysa effektiviteten hos den föreslagna lösningen.

Page generated in 0.0789 seconds