• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 217
  • 30
  • Tagged with
  • 247
  • 231
  • 228
  • 175
  • 162
  • 126
  • 126
  • 111
  • 80
  • 78
  • 62
  • 51
  • 51
  • 45
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Image-Guided Zero-Shot Object Detection in Video Games : Using Images as Prompts for Detection of Unseen 2D Icons / Bildstyrd Zero-Shot Objektdetektering i Datorspel : Användning av Bilder för att Diktera Detektion av Osedda 2D-ikoner

Larsson, Axel January 2023 (has links)
Object detection deals with localization and classification of objects in images, where the task is to propose bounding boxes and predict their respective classes. Challenges in object detection include large-scale annotated datasets and re-training of models for specific tasks. Motivated by these problems, we propose a zero-shot object detection (ZSD) model in the setting of user interface icons in video games. Allowing to quickly and accurately analyze the state of a game, with potentially millions of people watching, would greatly benefit the large and fast-growing video game sector. Our resulting model is a modification of YOLOv8, which, at inference time, is prompted with the specific object to detect in an image. Many existing ZSD models exploit semantic embeddings and high-dimensional word vectors to generalize to novel classes. We hypothesize that using only visual representations is sufficient for the detection of unseen classes. To train and evaluate our model, we create synthetic data to reflect the nature of video game icons and in-game frames. Our method achieves similar performance as YOLOv8 on bounding box prediction and detection of seen classes while retaining the same average precision and recall for unseen classes, where the number of unseen classes is in the order of thousands. / Objektdetektering handlar om lokalisering och klassificering av objekt i bilder, där uppgiften är att föreslå omskrivande rektanglar och prediktera de respektive klasserna. Utmaningar i objektdetektering inkluderar storskaliga annoterade datamängder och omträning av modeller för specifika uppgifter. Motiverade av dessa problem föreslår vi en zero-shot-modell för objektdetektering riktat mot användargränssnittsikoner i datorspel. Att snabbt och precist kunna analysera tillståndet i ett spel, med potentiellt miljontals människor som tittar, skulle vara till stor nytta för den snabbväxande datorspelssektorn. Vår slutliga modell är en modifiering av YOLOv8, som vid inferens förses med det specifika objektet som ska upptäckas i en given bild. Många befintliga zero-shot-modeller inom objektdetektering utnyttjar semantiska inbäddningar och högdimensionella ordvektorer för att generalisera till nya klasser. Vi hypotiserar att det är tillräckligt att använda visuella representationer för att upptäcka osedda klasser. För att träna och utvärdera vår modell skapar vi syntetisk data för att återspegla spelbilder och ikoner från datorspel. Vår metod uppnår liknande prestanda som YOLOv8 på prediktion av omskrivande rektanglar och på sedda klasser där antalet klasser är lågt. Samtidigt upprätthåller vi samma positiva prediktionsvärde och sensitivitet för osedda klasser där antalet klasser uppgår till tusentals.
52

US Equity REIT Returns and Digitalization

Axelsson, Birger January 2023 (has links)
This licentiate thesis is a collection of two essays that utilize time-series econometric methods in real estate finance. The first essay applies econometric modelling on Real Estate Investment Trust (REIT) index returns, focusing on estimating the effect of the quantitative easing (QE) and quantitative tightening (QT) programmes on U.S. equity REIT index returns, while controlling for several other important macro-financial factors. The second essay instead focuses on forecasting U.S. equity REIT index returns empirically, where the performance of a traditional econometric model (ARIMA) is compared to a modern state-of-the-art deep learning-based model (LSTM). Digitalization, which encompasses a broad range of technological advancements, is the main factor that we study for its impact on REIT investments. One perspective on the impact of digitalization on REITs is its effect on inflation. Digitalization has the potential to increase productivity and reduce costs, which could help to keep inflation low. This, in turn, has in the recent decades provided a supportive environment for REIT investments through lower interest rates, which we partly investigate in the first essay. Another perspective is that digitalization has not only led, but is also expected to lead, to significant innovations in the field of artificial intelligence (AI) and machine learning (ML), including deep learning (DL), which is a subset of ML. Many researchers and market practitioners are currently working to develop models that can use large amounts of data to make better forecasts and investment decisions. If successful, these models could significantly improve the performance of REIT investments. Can DL models be trained to make better forecasts for making investments? This is a question we ask ourselves in the second essay. The study of digitalization and its effects on inflation has been a growing area of interest in recent years, with researchers exploring the potential impact of technological advancements on macroeconomic trends, which founded the base to our studies. However, recent developments in the global economy have shifted the focus of this research, as inflation levels have unexpectedly risen from what was previously believed to be a low and stable environment. As a result, the setting and framework for our research on digitalization and inflation have been significantly altered, as we have tried to adapt to this changing landscape. / Denna licentiatuppsats är en samling av två forskningsartiklar som använder tidsserieekonometriska metoder inom finansiell ekonomi med fokus på fastighetsaktier. Den första artikeln tillämpar ekonometriska metoder på tidsseriedata för amerikanska börsnoterade fastighetsfonder, Real Estate Investment Trusts (REITs), med fokus på att uppskatta effekten av icke-konventionella penningpolitiska aktiviteter (kvantitativa lättnader och kvantitativ åtstramning) på avkastningsserierna, samtidigt som vi kontrollerar för andra viktiga makroekonomiska och finansiella variabler. Den andra artikeln fokuserar istället på att bygga modeller för prognoser av avkastningen på avkastningsserierna empiriskt, där prognosfelen för en traditionell ekonometrisk modell (ARIMA) jämförs med en modern djupinlärningsbaserad modell (LSTM). Digitalisering, som omfattar ett brett spektrum av tekniska framsteg, är den viktigaste faktorn som vi studerar för dess inverkan på REIT-investeringar. Ett perspektiv på digitaliseringens inverkan på REITs är dess effekt på inflationen. Digitalisering har potential att öka produktiviteten och minska kostnaderna, vilket kan bidra till att hålla inflationen låg. Detta har i sin tur under de senaste decennierna varit fördelaktigt för REIT-investeringar genom lägre räntor, vilket vi delvis undersöker i den första uppsatsen. Ett annat perspektiv är att digitaliseringen inte bara har lett, utan också förväntas leda, till betydande innovationer inom området artificiell intelligens (AI) och maskininlärning (ML), inklusive djupinlärning (DL), som är en delmängd av ML. Många forskare och professionella aktörer arbetar just nu med att utveckla modeller som kan använda stora mängder data för att göra bättre prognoser och investeringsbeslut. Om de lyckas kan dessa modeller förbättra resultatet för REITinvesteringar avsevärt. Kan DL-modeller tränas för att förbättra möjligheterna till att göra mer tillförlitliga prognoser och därmed öka chanserna till att göra mer lönsamma investeringar? Det är en fråga vi ställer oss i den andra artikeln. Digitalisering och dess effekter på inflationen har varit ett starkt växande fält inom såväl forskning som praktisk tillämpning de senaste åren, med forskare som undersöker den potentiella inverkan av tekniska framsteg på makroekonomiska trender, vilket har legat till grund för våra studier. Den senaste tidens utveckling i den globala ekonomin har dock flyttat fokus för denna forskning, eftersom inflationsnivåerna oväntat har stigit från vad som tidigare ansågs vara en låg och stabil miljö. Som ett resultat har miljön och ramarna för vår forskning om digitalisering och inflation ändrats avsevärt, eftersom vi har försökt anpassa oss till detta föränderliga landskap. / <p>QC 20231201</p>
53

Polypharmacy Side Effect Prediction with Graph Convolutional Neural Network based on Heterogeneous Structural and Biological Data / Förutsägning av biverkningar från polyfarmaci med grafiska faltningsneuronnät baserat på heterogen strukturell och biologisk data

Diaz Boada, Juan Sebastian January 2020 (has links)
The prediction of polypharmacy side effects is crucial to reduce the mortality and morbidity of patients suffering from complex diseases. However, its experimental prediction is unfeasible due to the many possible drug combinations, leaving in silico tools as the most promising way of addressing this problem. This thesis improves the performance and robustness of a state-of-the-art graph convolutional network designed to predict polypharmacy side effects, by feeding it with complexity properties of the drug-protein network. The modifications also involve the creation of a direct pipeline to reproduce the results and test it with different datasets. / För att minska dödligheten och sjukligheten hos patienter som lider av komplexa sjukdomar är det avgörande att kunna förutsäga biverkningar från polyfarmaci. Att experimentellt förutsäga biverkningarna är dock ogenomförbart på grund av det stora antalet möjliga läkemedelskombinationer, vilket lämnar in silico-verktyg som det mest lovande sättet att lösa detta problem. Detta arbete förbättrar prestandan och robustheten av ett av det senaste grafiska faltningsnätverken som är utformat för att förutsäga biverkningar från polyfarmaci, genom att mata det med läkemedel-protein-nätverkets komplexitetsegenskaper. Ändringarna involverar också skapandet av en direkt pipeline för att återge resultaten och testa den med olika dataset.
54

Deep Learning for Dynamic Portfolio Optimization / Djupinlärning för dynamisk portföljoptimering

Molnö, Victor January 2021 (has links)
This thesis considers a deep learning approach to a dynamic portfolio optimization problem. A proposed deep learning algorithm is tested on a simplified version of the problem with promising results, which suggest continued testing of the algorithm, on a larger scale for the original problem. First the dynamics and objective function of the problem are presented, and the existence of a no-trade-region is explained via the Hamilton-Jacobi-Bellman equation. The no-trade-region dictates the optimal trading strategy. Solving the Hamilton-Jacobi-Bellman equation to find the no-trade-region is not computationally feasible in high dimension with a classic finite difference approach. Therefore a new algorithm to iteratively update and improve an estimation of the no-trade-region is derived. This is a deep learning algorithm that utilizes neural network function approximation. The algorithm is tested on the one-dimensional version of the problem for which the true solution is known. While testing in one dimension only does not assess whether this algorithm scales better than a finite difference approach to higher dimensions, the learnt solution comes fairly close to true solution with a relative score of 0.72, why it is suggested that continued research of this algorithm is performed for the multidimensional version of the problem. / Den här uppsatsen undersöker en djupinlärningsmetod for att lösa ett dynamiskt portföljoptimeringsproblem. En föreslagen djupinlärningsalgoritm testas på en föreklad version av problemet, med lovande resultat. Därför föreslås det vidare att algoritmens prestanda testas i större skala även för det urpsrungliga problemet. Först presenteras dynamiken och målfunktionen för problemet. Det förklaras via Hamilton-Jacobi-Bellman-ekvationen varför det finns en handelsstoppregion. Handelsstoppregionen bestämmer den optimala handelsstrategin. Att lösa Hamilton-Jacobi-Bellman-ekvationen för att hitta handelsstoppregionen är inte beräkningspratiskt möjligt i hög dimension om ett traditionellt tillvägagångssätt med finita differenser används. Därför härleds en ny algoritm som iterativt uppdaterar och förbättrar en skattning av handelsstoppregionen. Det är en djupinlärningsalgoritm som utnyttjar funktionsapproximation med neurala nätverk. Algoritmen testas på den endimensionella verisonen av problemet, för vilken den sanna lösningen är känd. Tester i det endimensionella fallet kan naturligtvis inte ge svar på frågan om den nya algoritmen skalar bättre än en finit differensmetod till högre dimensioner. Men det är i alla fall klart att den inlärda lösningen kommer tämligen nära den sanna med relativ poäng 0.72, och därför föreslås fortsatt forskning kring algoritmen i förhållande till den flerdimensionella versionen av problemet.
55

Deep learning based ball detector / Djupinlärningsbaserad bolldetektor

Holmberg, Max January 2021 (has links)
Sports analysis that traditional computer vision techniques have long dominated is today getting replaced with more advanced machine learning models. To provide analysis in sports, tracking methods have to be fast and reliable, both for ease of use and for broadcasting systems to deliver data to customers quickly. With the growth of large datasets and the rapid development of Graphics Processing Units (GPUs), machine learning models are getting better and more precise. In football games, efficiently tracking the ball is essential when gathering statistics and performing event detection such as offside or passes. This thesis explores football detection with high-resolution images by extending current Deep- Ball and High-Resolution Net in three ways, using Gaussian labels to tackle inaccurate annotations, encoding temporal information with multi-frame input, and providing context by training on player segmentation masks. The results show that using Gaussian labels can help improve the performance drastically in some cases, especially when assuming that there only exists one ball per image. Using multiple frames proved to detect balls in challenging images, where the corresponding single-frame models failed. After training on player segmentation masks, the models were able to detect players accurately but did not show any significant improvement in terms of ball detection. Surprisingly when comparing DeepBall and High-Resolution Net, the results showed that even though DeepBall consist of far less parameters, it achieves higher performance in many of the cases. / Sportanalys som länge dominerats av traditionella datorseendetekniker ersätts idag med mer avancerade maskininlärningsmodeller. För att tillhandahålla analys inom sport måste metoderna vara snabba och pålitliga både för enkel användning men även för att sportsändningar ska kunna leverera data snabbt till sina kunder. Med tillväxten av stora dataset och den snabba utvecklingen av grafikprocessorer, blir maskininlärningsmodeller bättre och mer exakta. I fotbollsmatcher är det viktigt att effektivt kunna spåra fotbollen för att samla data till exempel för att avgöra om det blev mål eller offside. Denna avhandling undersöker fotbollsdetektering med högupplösta bilder genom att utvidga nuvarande metoder på tre olika sätt: använding av probabilistiska etiketter för att tackla inkorrekta annoteringar, utöka modellerna till att träna på sekventiella bilder i ett försök att lära sig bollens rörelse genom tid och ge kontext genom att lära sig spelares positioner. Resultaten visar att probabilistiska etiketter kan öka prestandan i vissa fall, speciellt under antagandet att det bara finns en boll per bild. Att använda flera sekventiella bilder visade sig kunna hjälpa modellerna i svåra fall där bollen var svår att hitta och där motsvarande modeller som använde sig av en bild misslyckades. Modellerna lyckades lära sig att detektera spelare i bilderna, däremot så ökade detta inte förmågan att detektera bollen.
56

Complementary Labels and Their Impact on Deep Learning of a Target Class : Evaluated on Object Detection in the Low Data Regime / Komplementära etiketter och deras påverkan på djupinlärning av en huvudklass : Evaluerat på objektdetektion i den låga dataregimen

Sirak, Simon January 2021 (has links)
In specialized object detection tasks and domains, it is sometimes only possible to collect and annotate a small amount of data for training and evaluation, which constrains training to a low data regime that can lead to poor generalization. In this thesis, the impact of annotations from additional classes, referred to as complementary labels, when learning a target class is studied as a potential approach to improve performance in the low data regime, for object detection. In particular, the thesis aims to investigate in which data regimes complementary labels seem beneficial, whether labels from different complementary classes contribute equally to the performance on the target class, and how varying the number of complementary classes can affect the performance on the target class. Two datasets were studied; CSAW-S, a medical dataset, and MSCOCO, a natural dataset. For each of these datasets, three experiments were conducted to examine various aspects of complementary labels. First, an experiment that compares the use of all available complementary labels and no complementary labels is conducted for various data regimes. Second, an experiment that leaves out individual complementary classes during training is performed. Third, an experiment that varies the number of complementary classes used during training is performed. The results suggest that complementary labels are helpful in the low data regime, provided the complementary classes have sufficient representation in the dataset. Furthermore, complementary classes that have clear context and interaction with the target class seem to be beneficial, and the impact of individual complementary classes does not seem to be cumulative. Lastly, increasing the number of complementary classes used seems to have a stabilizing effect on the target class performance, provided enough classes are used. Due to limitations in the methodology and choice of experiments, these findings are not conclusive. Nevertheless, various improvements to the methodology of studying complementary labels have been identified, which can help future studies present stronger conclusions. / I specialiserade domäner och uppgifter inom objektdetektion är det ibland inte möjligt att samla mer än en liten mängd data för träning och evaluering. Detta kan leda till dålig generalisering av objektdetektorer när ny data påträffas. I detta examensarbete undersöks komplementära etiketter från tillagda klasser som ett potentiellt sätt att förbättra generaliseringen av objektdetektion av en huvudklass. Mer specifikt fokuserar arbetet på att förstå i vilka datamängdsstorlekar som tillagda klasser kan vara användbara för inlärning av huvudklassen, huruvida olika tillagda klasser har lika inflytande på huvudklassen samt hur tillagda klasser påverkar objektdetektorns prestation på huvudklassen när antalet klasser varieras. Två datamängder studerades; CSAW-S, som är en medicinsk datamängd, och MSCOCO, som är en naturlig datamängd. På båda datamängderna genomförs tre experiment som undersöker olika aspekter av tillagda klasser. I det första experimentet jämförs träning av en huvudklass med och utan tillagda klasser med olika mängder träningsdata. I det andra experimentet lämnas individuella tillagda klasser ur träningen. I det tredje experimentet varieras antalet tillagda klasser som används i träningen. Av resultaten föreslås att tillagda klasser är användbara för att öka prestationen på osedd data när träningen begränsas till små datamängder och de tillagda klasserna har tillräcklig representation in datamängden. Utöver detta så verkar de mest fördelaktiga tillagda klasserna vara de som bidrar med tydligt sammanhang och interagerar tydligt med huvudklassen; fördelarna och nackdelarna som enstaka tillagda klasser bidrar med verkar dock inte vara kumulativa. Slutligen verkar prestationen på huvudklassen stabiliseras när antalet tillagda klasser ökar. På grund av begränsningar i metoden och valet av experimenten bör undersökningsresultaten tas som indikationer och inte definita slutsatser. Flera förbättringspunkter har dock identifierats och föreslagits i metoden angående studerandet av tillagda klasser, vilket kan möjliggöra starkare slutsatser i framtida studier.
57

Identifying New Fault Types Using Transformer Embeddings

Karlsson, Mikael January 2021 (has links)
Continuous integration/delivery and deployment consist of many automated tests, some of which may fail leading to faulty software. Similar faults may occur in different stages of the software production lifecycle and it is necessary to identify similar faults and cluster them into fault types in order to minimize troubleshooting time. Pretrained transformer based language models have been proven to achieve state of the art results in many natural language processing tasks like measuring semantic textual similarity. This thesis aims to investigate whether it is possible to cluster and identify new fault types by using a transformer based model to create context aware vector representations of fault records, which consists of numerical data and logs with domain specific technical terms. The clusters created were compared against the clusters created by an existing system, where log files are grouped by manual specified filters. Relying on already existing fault types with associated log data, this thesis shows that it is possible to finetune a transformer based model for a classification task in order to improve the quality of text embeddings. The embeddings are clustered by using density based and hierarchical clustering algorithms with cosine distance. The results show that it is possible to cluster log data and get comparable results to the existing manual system, where the cluster similarity was assessed with V-measure and Adjusted Rand Index. / Kontinuerlig integration består automatiserade tester där det finns risk för att några misslyckas vilket kan leda till felaktig programvara. Liknande fel kan uppstå under olika faser av en programvarans livscykel och det är viktigt att identifiera och gruppera olika feltyper för att optimera felsökningsprocessen. Det har bevisats att språkmodeller baserade på transformatorarkitekturen kan uppnå höga resultat i många uppgifter inom språkteknologi, inklusive att mäta semantisk likhet mellan två texter. Detta arbete undersöker om det är möjligt att gruppera och identifiera nya feltyper genom att använda en transformatorbaserad språkmodell för att skapa numeriska vektorer av loggtext, som består av domänspecifika tekniska termer och numerisk data. Klustren jämförs mot redan existerande grupperingar som skapats av ett befintligt system där feltyper identifieras med manuellt skrivna filter. Det här arbetet visar att det går att förbättra vektorrepresenationerna skapade av en språkmodell baserad på transformatorarkitekturen genom att tilläggsträna modellen för en klassificeringsuppgift. Vektorerna grupperas med hjälp av densitetsbaserade och hierarkiska klusteralgoritmer. Resultaten visar att det är möjligt att skapa vektorer av logg-texter med hjälp av en transformatorbaserad språkmodell och få jämförbara resultat som ett befintligt manuellt system, när klustren evaluerades med V-måttet och Adjusted Rand Index.
58

Deep Learning Approaches for Clustering Source Code by Functionality / Djupinlärningsmetoder för gruppering av källkod efter funktionalitet

Hägglund, Marcus January 2021 (has links)
With the rise of artificial intelligence, applications for machine learning can be found in nearly everyaspect of modern life, from healthcare and transportation to software services like recommendationsystems. Consequently, there are now more developers engaged in the field than ever - with the numberof implementations rapidly increasing by the day. In order to meet the new demands, it would be usefulto provide services that allow for an easy orchestration of a large number of repositories. Enabling usersto easily share, access and search for source code would be beneficial for both research and industryalike. A first step towards this is to find methods for clustering source code by functionality. The problem of clustering source code has previously been studied in the literature. However, theproposed methods have so far not leveraged the capabilities of deep neural networks (DNN). In thiswork, we investigate the possibility of using DNNs to learn embeddings of source code for the purpose ofclustering by functionality. In particular, we evaluate embeddings from Code2Vec and cuBERT modelsfor this specific purpose. From the results of our work we conclude that both Code2Vec and cuBERT are capable of learningsuch embeddings. Among the different frameworks that we used to fine-tune cuBERT, we found thebest performance for this task when fine-tuning the model under the triplet loss criterion. With thisframework, the model was capable of learning embeddings that yielded the most compact and well-separated clusters. We found that a majority of the cluster assignments were semantically coherent withrespect to the functionalities implemented by the methods. With these results, we have found evidenceindicating that it is possible to learn embeddings of source code that encode the functional similaritiesamong the methods. Future research could therefore aim to further investigate the possible applicationsof the embeddings learned by the different frameworks. / Med den avsevärda ökningen av användandet av artificiell intelligens går det att finna tillämpningar förmaskininlärningsalgoritmer i nästan alla aspekter av det moderna livet, från sjukvård och transport tillmjukvarutjänster som rekommendationssystem. Till följd av detta så är det fler utvecklare än någonsinengagerade inom området, där antalet nya implementationer ökar för var dag. För att möta de nyakraven skulle det vara användbart att kunna tillhandahålla tjänster som möjliggör en enkel hantering avett stort antal kodförråd. Att göra det möjligt för användare att enkelt dela, komma åt och söka efterkällkod skulle vara till nytta inom både forskning och industri. Ett första steg mot detta är att hittametoder som gör det möjligt att klustra källkod med avseende på funktionalitet. Problemet med klustring av källkod är något som har tidigare studerats. De föreslagna metoderna hardock hittils inte utnyttjat kapaciteten hos djupa neurala nätverk (DNN). I detta arbete undersöker vimöjligheten att använda DNN för inlärning av inbäddningar av källkod i syfte att klustra med avseendepå funktionalitet. I synnerhet så utvärderar vi inbäddningar från Code2Vec- och cuBERT-modeller fördetta specifika ändamål. Från resultatet av vårt arbete drar vi slutsatsen att både Code2Vec och cuBERT har kapacitet för attlära sig sådana inbäddningar. Bland de olika ramverken som vi undersökte för att finjustera cuBERT,fann vi att modellen som finjusterades under triplet-förlustkriteriet var bäst lämpad för denna uppgift.Med detta ramverk kunde modellen lära sig inbäddningar som resulterade i de mest kompakta och välseparerade klusterna, där en majoritet av klustertilldelningarna var semantiskt sammanhängande medavseende på funktionaliteten som metoderna implementerade. Med dessa resultat har vi funnit beläggsom tyder på att det är möjligt att lära sig inbäddning av källkod som bevarar och åtger funktionellalikheter mellan metoder. Framtida forskning kan därför syfta till att ytterligare undersöka de olikamöjliga användningsområdena för de inbäddningar som lärts in inom de olika ramverken.
59

Breast Cancer Risk Localization in Mammography Images using Deep Learning

Rystedt, Beata January 2020 (has links)
Breast cancer is the most common form of cancer among women, with around 9000 new diagnoses in Sweden yearly. Detecting and localizing risk of breast cancer could give the opportunity for individualized examination programs and preventative measures if necessary, and potentially be lifesaving. In this study, two deep learning methods have been designed, trained and evaluated on mammograms from healthy patients whom were later diagnosed with breast cancer, to examine how well deep learning models can localize suspicious areas in mammograms. The first proposed model is a ResNet-18 regression model which predicts the pixel coordinates of the annotated target pixel in the prior mammograms. The regression model produces predictions with an average of 44.25mm between the predictions and targets on the test set, which for average sized breasts correspond to a general area of the breast, and not a specific location. The regression network is hence not able to accurately localize suspicious areas in mammograms. The second model is a U-net segmentation model that segments out a risk area in the mammograms. The segmentation model had a 25% IoU, meaning that there is on average a 25% overlap between the target area and the prediction area. 57% of the predictions of the segmentation network had some overlap with the target mask, and predictions that did not overlap with the target often marked high density areas that are traditionally associated with high risk. Overall, the segmentation model did better than the regression model, but needs further improvement before it can be considered adequate to merge with a risk value model and used in practice. However, it is evident that there is sufficient information present in many of the mammogram images to localize the risk, and the research area holds potential for future improvements. / Bröstcancer är den vanligaste cancerformen bland kvinnor, med cirka 9000 nya diagnoser i Sverige årligen. Att upptäcka och lokalisera risken för bröstcancer kan möjliggöra individualiserade undersökningsprogram och förebyggande åtgärder vid behov och kan vara livräddande. I denna studie har två djupinlärningsmodeller designats, tränats och utvärderats på mammogram från friska patienter som senare diagnostiserades med bröstcancer, för att undersöka hur väl djupinlärningsmodeller kan lokalisera misstänkta områden i mammogram. Den första föreslagna modellen är en ResNet-baserad regressionsmodell som förutsäger pixelkoordinaterna för den utmarkerade målpixeln i de friska mammogrammen. Regressionsmodellen producerar förutsägelser med ett genomsnitt på 44,25 mm mellan förutsägelserna och målpunkterna för testbilderna, vilket för medelstora bröst motsvarar ett allmänt bröstområde och inte en specifik plats i bröstet. Regressionsnätverket kan därför inte med precision lokalisera misstänkta områden i mammogram. Den andra modellen är en U-net segmenteringsmodell som segmenterar ut ett riskområde ur mammogrammen. Segmenteringsmodellen hade ett IoU på 25%, vilket innebär att det i genomsnitt fanns en 25-procentig överlappning mellan målområdet och förutsägelsen. 57% av förutsägelserna från segmenteringsnätverket hade viss överlappning med målområdet, och förutsägelser som inte överlappade med målet markerade ofta områden med hög täthet som traditionellt är förknippade med hög risk. Sammantaget presterade segmenteringsmodellen bättre än regressionsmodellen, men behöver ytterligare förbättring innan den kan anses vara adekvat nog att sammanfogas med en riskvärdesmodell och användas i praktiken. Det är dock uppenbart att det finns tillräcklig information i många av mammogrambilderna för att lokalisera risken, och att forskningsområdet har potential för framtida förbättringar.
60

Bildklassificering av bilar med hjälp av deep learning / Image Classification of Cars using Deep Learning

Lindespång, Victor January 2017 (has links)
Den här rapporten beskriver hur en bildklassificerare skapades med förmågan att via en given bild på en bil avgöra vilken bilmodell bilen är av. Klassificeringsmodellen utvecklades med hjälp av bilder som företaget CAB sparat i samband med försäkringsärenden som behandlats via deras nuvarande produkter. Inledningsvis i rapporten så beskrivs teori för maskininlärning och djupinlärning på engrundläggande nivå för att leda in läsaren på ämnesområdet som rör rapporten, och fortsätter sedan med problemspecifika metoder som var till nytta för det aktuella problemet. Rapporten tar upp metoder för hur datan bearbetats i förväg, hur träningsprocessen gick  till med de valda verktygen samt diskussion kring resultatet och vad som påverkade det – med kommentarer om vad som kan göras i framtiden för att förbättra slutprodukten. / This report describes how an image classifier was created with the ability to identify car makeand model from a given picture of a car. The classifier was developed using pictures that the company CAB had saved from insurance errands that was managed through their current products. First of all the report begins with a brief theoretical introduction to machine learning and deep learning to guide the reader in to the subject of the report, and then continues with problemspecific methods that were of good use for the project. The report brings up methods for how the data was processed before training took place, how the training process went with the chosen tools for this project and also discussion about the result and what effected it – with comments about what can be done in the future to improve the end product.

Page generated in 0.094 seconds