• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 18
  • 3
  • Tagged with
  • 21
  • 17
  • 16
  • 16
  • 15
  • 13
  • 13
  • 12
  • 11
  • 10
  • 9
  • 9
  • 8
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Parameter Estimation of LPI Radar in Noisy Environments using Convolutional Neural Networks / Parameteruppskattning av LPI radar i brusiga miljöer med faltningsnätverk

Appelgren, Filip January 2021 (has links)
Low-probability-of-intercept (LPI) radars are notoriously difficult for electronic support receivers to detect and identify due to their changing radar parameters and low power. Previous work has been done to create autonomous methods that can estimate the parameters of some LPI radar signals, utilizing methods outside of Deep Learning. Designs using the Wigner-Ville Distribution in combination with the Hough and the Radon transform have shown some success. However, these methods lack full autonomous operation, require intermediary steps, and fail to operate in too low Signal-to-Noise ratios (SNR). An alternative method is presented here, utilizing Convolutional Neural Networks, with images created by the Smoothed-Pseudo Wigner-Ville Distribution (SPWVD), to extract parameters. Multiple common LPI modulations are studied, frequency modulated continuous wave (FMWC), Frank code and, Costas sequences. Five Convolutional Neural Networks (CNNs) of different sizes and layouts are implemented to monitor estimation performance, inference time, and their relationship. Depending on how the parameters are represented, either with continuous values or discrete, they are estimated through different methods, either regression or classification. Performance for the networks’ estimations are presented, but also their inference times and potential maximum throughput of images. The results indicate good performance for the largest networks, across most variables estimated and over a wide range of SNR levels, with decaying performance as network size decreases. The largest network achieves a standard deviation for the estimation errors of, at most, 6%, for the regression variables in the FMCW and the Frank modulations. For the parameters estimated through classification, accuracy is at least 56% over all modulations. As network size decreases, so does the inference time. The smallest network achieves a throughput of about 61000 images per second, while the largest achieves 2600. / Low-Probability-of-Intercept (LPI) radar är designad för att vara svåra att upptäcka och identifiera. En LPI radar uppnår detta genom att använda en låg effekt samt ändra något hos radarsignalen över tid, vanligtvis frekvens eller fas. Estimering av parametrarna hos vissa typer av LPI radar har gjorts förut, med andra metoder än djupinlärning. De metoderna har använt sig av Wigner-Ville Distributionen tillsammans med Hough och Radon transformer för att extrahera parametrar. Nackdelarna med dessa är framför allt att de inte fungerar fullständigt i för höga brusnivåer utan blir opålitliga i deras estimeringar. Utöver det kräver de också visst manuellt arbete, t.ex. i form av att sätta tröskelvärden. Här presenteras istället en metod som använder faltningsnätverk tillsammans med bilder som genererats genom Smoothed- Pseudo Wigner-Ville Distributionen, för att estimera parametrarna hos LPI radar. Vanligt förekommande LPI-modulationer studeras, som frequency modulated continuous wave (FMCW), Frank-koder och Costas-sekvenser. Fem faltningsnätverk av olika storlek implementeras, för att kunna studera prestandan, analystiden per bild, och deras förhållande till varandra. Beroende på hur parametrarna representeras, antingen med kontinuerliga värden eller diskreta värden, estimeras de med olika metoder, antingen regression eller klassificering. Prestanda för nätverkens estimeringar presenteras, men också deras analystid och potentiella maximala genomströmning av bilder. Testen för parameterestimering visar på god prestanda, speciellt för de större nätverken som studerats. För det största nätverket är standardavvikelsen på estimeringsfelen som mest 6%, för FMCW- och Frank-modulationerna. För alla parametrar som estimeras genom klassificering uppnås som minst 56% precision för det största nätverket. Även i testerna för analystid är nätverksstorlek relevant. När storleken minskar, går antalet beräkningar som behöver göras ned, och bilderna behandlas snabbare. Det minsta nätverket kan analysera ungefär 61000 bilder per sekund, medan det största uppnår ungefär 2600 per sekund.
2

Användningen av AI inom röntgendiagnostik / The usage of AI in radiology

Almqvist, Emelie January 2020 (has links)
De problem som denna studie behandlar är det höga antalet falska diagnoser inom radiologin samt den personalbrist som råder bland radiologer. För att behandla dessa problem är syftet med denna studie att undersöka förutsättningarna för implementeringen av Artificiell Intelligens (AI) och användningen av AI inom röntgendiagnostiken. Datainsamlingen skedde genom fyra stycken intervjuer, varav två med läkare inom radiologi från Akademiska Sjukhuset i Uppsala och en med verksamhetschefen inom radiologi på Enköpings Lasarett. Intervjuerna spelades in och transkriberades i syfte att kunna analysera den insamlade datan. Denna data ledde till 8 stycken teman. Dessa teman kommer att bli användbara för att förstå förutsättningarna för att implementera och använda AI i en organisation.
3

Deep Learning with Importance Sampling for Brain Tumor MR Segmentation / Djupinlärning med importance sampling för hjärntumörsegmentering av magnetröntgenbilder

Westermark, Hanna January 2021 (has links)
Segmentation of magnetic resonance images is an important part of planning radiotherapy treat-ments for patients with brain tumours but due to the number of images contained within a scan and the level of detail required, manual segmentation is a time consuming task. Convolutional neural networks have been proposed as tools for automated segmentation and shown promising results. However, the data sets used for training these deep learning models are often imbalanced and contain data that does not contribute to the performance of the model. By carefully selecting which data to train on, there is potential to both speed up the training and increase the network’s ability to detect tumours. This thesis implements the method of importance sampling for training a convolutional neural network for patch-based segmentation of three dimensional multimodal magnetic resonance images of the brain and compares it with the standard way of sampling in terms of network performance and training time. Training is done for two different patch sizes. Features of the most frequently sampled volumes are also analysed. Importance sampling is found to speed up training in terms of number of epochs and also yield models with improved performance. Analysis of the sampling trends indicate that when patches are large, small tumours are somewhat frequently trained on, however more investigation is needed to confirm what features may influence the sampling frequency of a patch. / Segmentering av magnetröntgenbilder är en viktig del i planeringen av strålbehandling av patienter med hjärntumörer. Det höga antalet bilder och den nödvändiga precisionsnivån gör dock manuellsegmentering till en tidskrävande uppgift. Faltningsnätverk har därför föreslagits som ett verktyg förautomatiserad segmentering och visat lovande resultat. Datamängderna som används för att träna dessa djupinlärningsmodeller är ofta obalanserade och innehåller data som inte bidrar till modellensprestanda. Det finns därför potential att både skynda på träningen och förbättra nätverkets förmåga att segmentera tumörer genom att noggrant välja vilken data som används för träning. Denna uppsats implementerar importance sampling för att träna ett faltningsnätverk för patch-baserad segmentering av tredimensionella multimodala magnetröntgenbilder av hjärnan. Modellensträningstid och prestanda jämförs mot ett nätverk tränat med standardmetoden. Detta görs förtvå olika storlekar på patches. Egenskaperna hos de mest valda volymerna analyseras också. Importance sampling uppvisar en snabbare träningsprocess med avseende på antal epoker och resulterar också i modeller med högre prestanda. Analys av de oftast valda volymerna indikerar att under träning med stora patches förekommer små tumörer i en något högre utsträckning. Vidareundersökningar är dock nödvändiga för att bekräfta vilka aspekter som påverkar hur ofta en volym används.
4

Breast Cancer Risk Localization in Mammography Images using Deep Learning

Rystedt, Beata January 2020 (has links)
Breast cancer is the most common form of cancer among women, with around 9000 new diagnoses in Sweden yearly. Detecting and localizing risk of breast cancer could give the opportunity for individualized examination programs and preventative measures if necessary, and potentially be lifesaving. In this study, two deep learning methods have been designed, trained and evaluated on mammograms from healthy patients whom were later diagnosed with breast cancer, to examine how well deep learning models can localize suspicious areas in mammograms. The first proposed model is a ResNet-18 regression model which predicts the pixel coordinates of the annotated target pixel in the prior mammograms. The regression model produces predictions with an average of 44.25mm between the predictions and targets on the test set, which for average sized breasts correspond to a general area of the breast, and not a specific location. The regression network is hence not able to accurately localize suspicious areas in mammograms. The second model is a U-net segmentation model that segments out a risk area in the mammograms. The segmentation model had a 25% IoU, meaning that there is on average a 25% overlap between the target area and the prediction area. 57% of the predictions of the segmentation network had some overlap with the target mask, and predictions that did not overlap with the target often marked high density areas that are traditionally associated with high risk. Overall, the segmentation model did better than the regression model, but needs further improvement before it can be considered adequate to merge with a risk value model and used in practice. However, it is evident that there is sufficient information present in many of the mammogram images to localize the risk, and the research area holds potential for future improvements. / Bröstcancer är den vanligaste cancerformen bland kvinnor, med cirka 9000 nya diagnoser i Sverige årligen. Att upptäcka och lokalisera risken för bröstcancer kan möjliggöra individualiserade undersökningsprogram och förebyggande åtgärder vid behov och kan vara livräddande. I denna studie har två djupinlärningsmodeller designats, tränats och utvärderats på mammogram från friska patienter som senare diagnostiserades med bröstcancer, för att undersöka hur väl djupinlärningsmodeller kan lokalisera misstänkta områden i mammogram. Den första föreslagna modellen är en ResNet-baserad regressionsmodell som förutsäger pixelkoordinaterna för den utmarkerade målpixeln i de friska mammogrammen. Regressionsmodellen producerar förutsägelser med ett genomsnitt på 44,25 mm mellan förutsägelserna och målpunkterna för testbilderna, vilket för medelstora bröst motsvarar ett allmänt bröstområde och inte en specifik plats i bröstet. Regressionsnätverket kan därför inte med precision lokalisera misstänkta områden i mammogram. Den andra modellen är en U-net segmenteringsmodell som segmenterar ut ett riskområde ur mammogrammen. Segmenteringsmodellen hade ett IoU på 25%, vilket innebär att det i genomsnitt fanns en 25-procentig överlappning mellan målområdet och förutsägelsen. 57% av förutsägelserna från segmenteringsnätverket hade viss överlappning med målområdet, och förutsägelser som inte överlappade med målet markerade ofta områden med hög täthet som traditionellt är förknippade med hög risk. Sammantaget presterade segmenteringsmodellen bättre än regressionsmodellen, men behöver ytterligare förbättring innan den kan anses vara adekvat nog att sammanfogas med en riskvärdesmodell och användas i praktiken. Det är dock uppenbart att det finns tillräcklig information i många av mammogrambilderna för att lokalisera risken, och att forskningsområdet har potential för framtida förbättringar.
5

Deep Active Learning for Image Classification using Different Sampling Strategies

Saleh, Shahin January 2021 (has links)
Convolutional Neural Networks (CNNs) have been proved to deliver great results in the area of computer vision, however, one fundamental bottleneck with CNNs is the fact that it is heavily dependant on the ground truth, that is, labeled training data. A labeled dataset is a group of samples that have been tagged with one or more labels. In this degree project, we mitigate the data greedy behavior of CNNs by applying deep active learning with various kinds of sampling strategies. The main focus will be on the sampling strategies random sampling, least confidence sampling, margin sampling, entropy sampling, and K- means sampling. We choose to study the random sampling strategy since it will work as a baseline to the other sampling strategies. Moreover, the least confidence sampling, margin sampling, and entropy sampling strategies are uncertainty based sampling strategies, hence, it is interesting to study how they perform in comparison with the geometrical based K- means sampling strategy. These sampling strategies will help to find the most informative/representative samples amongst all unlabeled samples, thus, allowing us to label fewer samples. Furthermore, the benchmark datasets MNIST and CIFAR10 will be used to verify the performance of the various sampling strategies. The performance will be measured in terms of accuracy and less data needed. Lastly, we concluded that by using least confidence sampling and margin sampling we reduced the number of labeled samples by 79.25% in comparison with the random sampling strategy for the MNIST dataset. Moreover, by using entropy sampling we reduced the number of labeled samples by 67.92% for the CIFAR10 dataset. / Faltningsnätverk har visat sig leverera bra resultat inom området datorseende, men en fundamental flaskhals med Faltningsnätverk är det faktum att den är starkt beroende av klassificerade datapunkter. I det här examensarbetet hanterar vi Faltningsnätverkens giriga beteende av klassificerade datapunkter genom att använda deep active learning med olika typer av urvalsstrategier. Huvudfokus kommer ligga på urvalsstrategierna slumpmässigt urval, minst tillförlitlig urval, marginal baserad urval, entropi baserad urval och K- means urval. Vi väljer att studera den slumpmässiga urvalsstrategin eftersom att den kommer användas för att mäta prestandan hos de andra urvalsstrategierna. Dessutom valde vi urvalsstrategierna minst tillförlitlig urval, marginal baserad urval, entropi baserad urval eftersom att dessa är osäkerhetsbaserade strategier som är intressanta att jämföra med den geometribaserade strategin K- means. Dessa urvalsstrategier hjälper till att hitta de mest informativa/representativa datapunkter bland alla oklassificerade datapunkter, vilket gör att vi behöver klassificera färre datapunkter. Vidare kommer standard dastaseten MNIST och CIFAR10 att användas för att verifiera prestandan för de olika urvalsstrategierna. Slutligen drog vi slutsatsen att genom att använda minst tillförlitlig urval och marginal baserad urval minskade vi mängden klassificerade datapunkter med 79, 25%, i jämförelse med den slumpmässiga urvalsstrategin, för MNIST- datasetet. Dessutom minskade vi mängden klassificerade datapunkter med 67, 92% med hjälp av entropi baserad urval för CIFAR10datasetet.
6

Eye Tracking Using a Smartphone Camera and Deep Learning / Blickspårning med mobilkamera och djupinlärning

Skowronek, Adam, Kuleshov, Oleksandr January 2020 (has links)
Tracking eye movements has been a central part in understanding attention and visual processing in the mind. Studying how the eyes move and what they fixate on during specific moments has been considered by some to offer a direct way to measure spatial attention. The underlying technology, known as eye tracking, has been used in order to reliably and accurately measure gaze. Despite the numerous benefits of eye tracking, research and development as well as commercial applications have been limited due to the cost and lack of scalability which the technology usually entails. The purpose and goal of this project is to make eye tracking more available to the common user by implementing and evaluating a new promising technique. The thesis explores the possibility of implementing a gaze tracking prototype using a normal smartphone camera. The hypothesis is to achieve accurate gaze estimation by utilizing deep learning neural networks and personalizing them to fit each individual. The resulting prototype is highly inaccurate in its estimations; however, adjusting a few key components such as the neural network initialization weights may lead to improved results. / Att spåra ögonrörelser har varit en central del i att förstå uppmärksamhet och visuell bearbetning i hjärnan. Att studera hur ögonen rör sig och vad de fokuserar på under specifika moment har av vissa ansetts vara ett sätt att mäta visuell uppmärksamhet. Den bakomliggande tekniken, känd som blickspårning, har använts för att pålitligt och noggrant mäta blickens riktning. Trots de fördelar som finns med blickspårning, har forskning och utveckling samt även kommersiella produkter begränsats av kostnaden och oförmågan till skalbarhet som tekniken ofta medför. Syftet och målet med arbetet är att göra blickspårning mer tillgängligt för vardagliga användare genom att implementera och utvärdera en ny lovande teknik. Arbetet undersöker möjligheten att implementera en blickspårningsprototyp genom användning av en vanlig mobilkamera. Hypotesen är att uppnå noggrann blickspårning genom användning av djupinlärning och neuronnät, samt att personalisera dem till att passa den enskilda individen. Den resulterande prototypen är väldigt oprecis i dess uppskattning av blickriktningen, dock kan justeringen av ett fåtal nyckelkomponenter, som initialiseringsvikterna till det neurala nätverket leda till bättre resultat.
7

Expressive Automatic Music Transcription : Using hard onset detection to transcribe legato slurs for violin / Expressiv Automatisk Musiktranskription : Användning av hård ansatsdetektion för transkription av legatobågar för violin

Falk, Simon January 2022 (has links)
Automatic Music Transcriptions systems such as ScoreCloud aims to convert audio signals to sheet music. The information contained in sheet music can be divided into increasingly descriptive layers, where most research on Automatic Music Transcription is restricted on note-level transcription and disregard expressive markings such as legato slurs. In case of violin playing, legato can be determined from the articulated, "hard" onsets that occur on the first note of a legato slur. We detect hard onsets in violin recordings by three different methods — two based on signal processing and one on Convolutional Neural Networks. ScoreCloud notes are then labeled as articulated or slurred, depending on the distance to the closest hard onset. Finally, we construct legato slurs between articulated notes, and count the number of notes where the detected slur label matches ground-truth. Our best-performing method correctly labels notes in 82.9% of the cases, when averaging on the test set recordings. The designed system serves as a proof-of-concept for including expressive notation within Automatic Music Transcription. Vibrato was seen to have a major negative impact on the performance, while the method is less affected by varying sound quality and polyphony. Our system could be further improved by using phase input, data augmentation, or high-dimensional articulation representations. / System för automatisk musiktranskription såsom ScoreCloud syftar till att konvertera ljudsignaler till notskrift. Informationen i en notbild kan delas in i flera lager med en ökande nivå av beskrivning, där huvuddelen av forskningen har begränsats till transkription av noter och har bortsett från uttrycksmarkeringar såsom legatobågar. I fallet med violin kan legato bestämmas från de artikulerade, ’hårda’ ansatser som uppkommer vid den första noten i en legatobåge. Vi detekterar här hårda ansatser i inspelningar av violin genom tre olika metoder — två baserade på signalbehandling och en baserat på faltningsnätverk. Noter från ScoreCloud märks sedan som artikulerade eller bundna, beroende på det närmaste avståndet till en hård ansats. Slutligen konstrueras legatobågar mellan artikulerade noter, och vi räknar antalet noter där den predicerade märkningen stämmer med den sanna. Vår bäst presterande metod gör en korrekt märkning i 82.9% i genomsnitt taget över testinspelningarna. Vårt system validerar idén att innefatta uttrycksmarkeringar i automatisk musiktranskription. Vibrato observerades påverka resultatet mycket negativt, medan metoden är mindre påverkad av varierande ljudkvalitet och polyfoni. Vårt system kan förbättras ytterligare genom användandet av fas i indata, datautvidgning och högdimensionella representationer av artikulation.
8

Deep Learning for Anomaly Detection in Microwave Links : Challenges and Impact on Weather Classification / Djupinlärning för avvikelsedetektering i mikrovågslänkar : Utmaningar och inverkan på väderklassificering

Engström, Olof January 2020 (has links)
Artificial intelligence is receiving a great deal of attention in various fields of science and engineering due to its promising applications. In today’s society, weather classification models with high accuracy are of utmost importance. An alternative to using conventional weather radars is to use measured attenuation data in microwave links as the input to deep learning-based weather classification models. Detecting anomalies in the measured attenuation data is of great importance as the output of a classification model cannot be trusted if the input to the classification model contains anomalies. Designing an accurate classification model poses some challenges due to the absence of predefined features to discriminate among the various weather conditions, and due to specific domain requirements in terms of execution time and detection sensitivity. In this thesis we investigate the relationship between anomalies in signal attenuation data, which is the input to a weather classification model, and the model’s misclassifications. To this end, we propose and evaluate two deep learning models based on long short-term memory networks (LSTM) and convolutional neural networks (CNN) for anomaly detection in a weather classification problem. We evaluate the feasibility and possible generalizations of the proposed methodology in an industrial case study at Ericsson AB, Sweden. The results show that both proposed methods can detect anomalies that correlate with misclassifications made by the weather classifier. Although the LSTM performed better than the CNN with regards to top performance on one link and average performance across all 5 tested links, the CNN performance is shown to be more consistent. / Artificiell intelligens har fått mycket uppmärksamhet inom olika teknik- och vetenskapsområden på grund av dess många lovande tillämpningar. I dagens samhälle är väderklassificeringsmodeller med hög noggrannhet av yttersta vikt. Ett alternativ till att använda konventionell väderradar är att använda uppmätta dämpningsdata i mikrovågslänkar som indata till djupinlärningsbaserade väderklassificeringsmodeller. Detektering av avvikelser i uppmätta dämpningsdata är av stor betydelse eftersom en klassificeringsmodells pålitlighet minskar om träningsdatat innehåller avvikelser. Att utforma en noggrann klassificeringsmodell är svårt på grund av bristen på fördefinierade kännetecken för olika typer av väderförhållanden, och på grund av de specifika domänkrav som ofta ställs när det gäller exekveringstid och detekteringskänslighet. I det här examensarbetet undersöker vi förhållandet mellan avvikelser i uppmätta dämpningsdata från mikrovågslänkar, och felklassificeringar gjorda av en väderklassificeringsmodell. För detta ändamål utvärderar vi avvikelsedetektering inom ramen för väderklassificering med hjälp av två djupinlärningsmodeller, baserade på long short-term memory-nätverk (LSTM) och faltningsnätverk (CNN). Vi utvärderar genomförbarhet och generaliserbarhet av den föreslagna metodiken i en industriell fallstudie hos Ericsson AB. Resultaten visar att båda föreslagna metoder kan upptäcka avvikelser som korrelerar med felklassificeringar gjorda av väderklassificeringsmodellen. LSTM-modellen presterade bättre än CNN-modellen både med hänsyn till toppprestanda på en länk och med hänsyn till genomsnittlig prestanda över alla 5 testade länkar, men CNNmodellens prestanda var mer konsistent.
9

Predicting Solar Radiation using a Deep Neural Network

Alpire, Adam January 2017 (has links)
Simulating the global climate in fine granularity is essential in climate science research. Current algorithms for computing climate models are based on mathematical models that are computationally expensive. Climate simulation runs can take days or months to execute on High Performance Computing (HPC) platforms. As such, the amount of computational resources determines the level of resolution for the simulations. If simulation time could be reduced without compromising model fidelity, higher resolution simulations would be possible leading to potentially new insights in climate science research. In this project, broadband radiative transfer modeling is examined, as this is an important part in climate simulators that takes around 30% to 50% time of a typical general circulation model. This thesis project presents a convolutional neural network (CNN) to model this most time consuming component. As a result, swift radiation prediction through the trained deep neural network achieves a 7x speedup compared to the calculation time of the original function. The average prediction error (MSE) is around 0.004 with 98.71% of accuracy. / Högupplösta globala klimatsimuleringar är oumbärliga för klimatforskningen.De algoritmer som i dag används för att beräkna klimatmodeller baserar sig på matematiska modeller som är beräkningsmässigt tunga. Klimatsimuleringar kan ta dagar eller månader att utföra på superdator (HPC). På så vis begränsas detaljnivån av vilka datorresurser som finns tillgängliga. Om simuleringstiden kunde minskas utan att kompromissa på modellens riktighet skulle detaljrikedomen kunna ökas och nya insikter göras möjliga. Detta projekt undersöker Bredband Solstrålning modellering eftersom det är en betydande del av dagens klimatsimulationer och upptar mellan 30-50% av beräkningstiden i en typisk generell cirkulationsmodell (GCM). Denna uppsats presenterar ett neuralt faltningsnätverk som ersätter denna beräkningsintensiva del. Resultatet är en sju gångers uppsnabbning jämfört med den ursprungliga metoden. Genomsnittliga uppskattningsfelet är 0.004 med 98.71 procents noggrannhet.
10

Deep Learning-based Regularizers for Cone Beam Computed Tomography Reconstruction / Djupinlärningsbaserade regulariserare för rekonstruktion inom volymtomografi

Syed, Sabina, Stenberg, Josefin January 2023 (has links)
Cone Beam Computed Tomography is a technology to visualize the 3D interior anatomy of a patient. It is important for image-guided radiation therapy in cancer treatment. During a scan, iterative methods are often used for the image reconstruction step. A key challenge is the ill-posedness of the resulting inversion problem, causing the images to become noisy. To combat this, regularizers can be introduced, which help stabilize the problem. This thesis focuses on Adversarial Convex Regularization that with deep learning regularize the scans according to a target image quality. It can be interpreted in a Bayesian setting by letting the regularizer be the prior, approximating the likelihood with the measurement error, and obtaining the patient image through the maximum-a-posteriori estimate. Adversarial Convex Regularization has previously shown promising results in regular Computed Tomography, and this study aims to investigate its potential in Cone Beam Computed Tomography.  Three different learned regularization methods have been developed, all based on Convolutional Neural Network architectures. One model is based on three-dimensional convolutional layers, while the remaining two rely on 2D layers. These two are in a later stage crafted to be applicable to 3D reconstruction by either stacking a 2D model or by averaging 2D models trained in three orthogonal planes. All neural networks are trained on simulated male pelvis data provided by Elekta. The 3D convolutional neural network model has proven to be heavily memory-consuming, while not performing better than current reconstruction methods with respect to image quality. The two architectures based on merging multiple 2D neural network gradients for 3D reconstruction are novel contributions that avoid memory issues. These two models outperform current methods in terms of multiple image quality metrics, such as Peak Signal-to-Noise Ratio and Structural Similarity Index Measure, and they also generalize well for real Cone Beam Computed Tomography data. Additionally, the architecture based on a weighted average of 2D neural networks is able to capture spatial interactions to a larger extent and is adjustable to favor the plane that best shows the field of interest, a possibly desirable feature in medical practice. / Volymtomografi kan användas inom cancerbehandling för att skapa bilder av patientens inre anatomi i 3D som sedan används vid stråldosplanering. Under den rekonstruerande fasen i en skanning används ofta iterativa metoder. En utmaning är att det resulterande inversionsproblemet är illa ställt, vilket leder till att bilderna blir brusiga. För att motverka detta kan regularisering introduceras som bidrar till att stabilisera problemet. Fokus för denna uppsats är Adversarial Convex Regularization som baserat på djupinlärning regulariserar bilderna enligt en målbildskvalitet. Detta kan även tolkas ur ett Bayesianskt perspektiv genom att betrakta regulariseraren som apriorifördelningen, approximera likelihoodfördelningen med mätfelet samt erhålla patientbilden genom maximum-a-posteriori-skattningen. Adversarial Convex Regularization har tidigare visat lovande resultat för data från Datortomografi och syftet med denna uppsats är att undersöka dess potential för Volymtomografi.  Tre olika inlärda regulariseringsmetoder har utvecklats med hjälp av faltningsnätverk. En av modellerna bygger på faltning av tredimensionella lager, medan de återstående två är baserade på 2D-lager. Dessa två sammanförs i ett senare skede för att kunna appliceras vid 3D-rekonstruktion, antingen genom att stapla 2D modeller eller genom att beräkna ett viktat medelvärde av tre 2D-modeller som tränats i tre ortogonala plan. Samtliga modeller är tränade på simulerad manlig bäckendata från Elekta. 3D-faltningsnätverket har visat sig vara minneskrävande samtidigt som det inte presterar bättre än nuvarande rekonstruktionsmetoder med avseende på bildkvalitet. De andra två metoderna som bygger på att stapla flera gradienter av 2D-nätverk vid 3D-rekonstruktion är ett nytt vetenskapligt bidrag och undviker minnesproblemen. Dessa två modeller överträffar nuvarande metoder gällande flera bildkvalitetsmått och generaliserar även väl för data från verklig Volymtomografi. Dessutom lyckas modellen som bygger på ett viktat medelvärde av 2D-nätverk i större utsträckning fånga spatiala interaktioner. Den kan även anpassas till att gynna det plan som bäst visar intresseområdet i kroppen, vilket möjligtvis är en önskvärd egenskap i medicinska sammanhang.

Page generated in 0.0774 seconds