• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 94
  • 60
  • 1
  • 1
  • Tagged with
  • 158
  • 89
  • 44
  • 43
  • 41
  • 36
  • 32
  • 28
  • 28
  • 26
  • 25
  • 25
  • 23
  • 23
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Volumetric Image Segmentation of Lizard Brains / Tredimensionell segmentering av ödlehjärnor

Dragunova, Yulia January 2023 (has links)
Accurate measurement brain region volumes are important in studying brain plasticity, which brings insight into the fundamental mechanisms in animal, memory, cognitive, and behavior research. The traditional methods of brain volume measurements are ellipsoid or histology. In this study, micro-computed tomography (micro-CT) method was used to achieve more accurate results. However, manual segmentation of micro-CT images is time consuming, hard to reprodu-ce, and has the risk of human error. Automatic image segmentation is a faster method for obtaining the segmentations and has the potential to provide eciency, reliability, repeatability, and scalability. Different methods are tested and compared in this thesis. In this project, 29 micro-CT scans of lizard heads were used and measurements of the volumes of 6 dierent brain regions was of interest. The lizard heads were semi-manually segmented into 6 regions and three open-source segmentation algorithms were compared, one atlas-based algorithm and two deep-learning-based algorithms. Dierent number of training data were quantitatively compared for deep-learning methods from all three orientations (sagittal, horizontal and coronal). Data augmentation was tested and compared, as well. The comparison shows that the deep-learning algorithms provided more accurate results than the atlas-based algorithm. The results also demonstrated that in the sagittal plane, 5 manually segmented images for training are enough to provide resulting predictions with high accuracy (dice score 0.948). Image augmentation was shown to improve the accuracy of the segmentations but a unique dataset still plays an important role. In conclusion, the results show that the manual segmentation work can be reduced drastically by using deep learning for image segmentation. / Noggrann mätning av hjärnregionsvolymer är viktigt för att studera hjärnans plasticitet, vilket ger insikt i de grundläggande mekanismerna inom djurstudier, minnes-, kognitions- och beteendeforskning. De traditionella metoderna för mätning av hjärnvolym är ellipsoid modellen eller histologi. I den här studien användes mikrodatortomografi (mikro-CT) metoden för att få mer korrekta resultat. Manuell segmentering av mikro-CT-bilder är dock tidskrävande, svår att reproducera och har en risk för mänskliga fel. Automatisk bildsegmentering är en snabb metod för att erhålla segmenteringarna. Den har potentialen att ge eektivitet, tillförlitlighet, repeterbarhet och skalbarhet. Därför testas och jämförs tre metoder för automatisk segmentering i denna studie. I projektet användes 29 mikro-CT-bilder av ödlehuvuden för att få fram volymerna hos 6 olika hjärnregioner. Ödlehuvudena segmenterades halvmanu- ellt i 6 regioner och tre segmenteringsalgoritmer med öppen källkod jämfördes (en atlasbaserad algoritm och två djupinlärningsbaserade algoritmer). Olika antal träningsdata jämfördes kvantitativt för djupinlärningsmetoder i alla tre plan (sagittal, horisontell och frontal). Även datautökning testades och analyserades. Jämförelsen visar att djupinlärningsalgoritmerna gav mer signifikanta resultat än den atlasbaserade algoritmen. Resultaten visade även att i det sagittala planet räcker det med 5 manuellt segmenterade bilder för träning för att ge segmenteringar med hög noggrannhet (dice värde 0,948). Datautökningen har visat sig förbättra segmenteringarnas noggrannhet, men ett unikt dataset spelar fortfarande en viktig roll. Sammanfattningsvis visar resultaten att det manuella segmenteringsarbetet kan minskas drastiskt genom att använda djupinlärning för bildsegmentering.
112

Automatic segmentation of microstructures in metals : A computer vision approach / Automatisk segmentering av mikrostrukturer i metaller : Med hälp av datorseende

Larsen, Oscar January 2022 (has links)
The microstructures of a metal determine the physical, electrical and chemical properties of the metal, and analysis of microstructures is therefore an important part of materials science. Modern microscopes are capable of generating a lot of high-quality micrographs in a short period of time. Analysis of metallic micrographs has traditionally been done by human experts but with the drastic increase in imaging capabilities, it becomes incredible labor intensive for humans to manually analyze the images. A way of dealing with this is to utilize computers for automatic analysis of the micrographs. An important part of the microstructural analysis of a metal is being able to segment various microstructures from each other. This thesis looks into two different metallic microstructural segmentation problems: (1) being able to automatically infer grain size by finding grain boundaries in metallic micrographs by utilizing 2D convolutions and optimization, and (2) instance segmentation of 3D dendrite structures from volumetric images using a 3D CNN. The results from the first problem indicate that the proposed method works well for synthetic images, but not for real micrographs. The results from the second problem indicate that there is a lack of data for utilizing a CNN. / Mikrostrukturerna i en metal bestämmer fysiska, elektriska samt kemiska egenskaper hos metallen och analys av mikrostrukturer är därför en viktig del av materialvetenskapen. Moderna mikroskop är kapabla att generera många högupplösta mikroskopbilder på kort tid. Analys av metalliska mikrostrukturer har traditionellt sett utförts av mänskliga experter, men med den drastiska ökningen av förmågan att generera bilder blir det en otrolig arbetsbörda för människor att manuellt analysera bilderna. Ett sätt att hantera detta är att utnyttja datorer för att automatiskt analysera mikroskopbilderna. En viktig del av mikrostruktur-analysen är att kunna segmentera olika mikrostrukturer från varandra. Denna avhandling tittar närmare på två olika problem inom segmentering av metalliska mikrostrukturer: (1) att automatisk kunna bestämma kornstorlek genom att hitta korngränser i mikroskopbilder av metaller med hjälp av 2D faltning och optimering, samt (2) instans-segmentering av 3D dendritstrukturer utifrån volymetriska bilder med hjälp av en 3D CNN. Resultaten från första problemet indikerar att den föreslagna metoden fungerar väl för syntetiska bilder, men inte för riktiga mikroskopbilder. Resultaten från andra problemet indikirerar att det finns en brist på data för att utnyttja en CNN.
113

Deep Learning-Based Automated Segmentation and Detection of Chondral Lesions on the Distal Femur

Lindemalm Karlsson, Josefin January 2019 (has links)
Articular chondral lesions in the knee joint can be diagnosed at an early stage using MRI. Segmenting and visualizing lesions and the overall joint structure allows improved communication between the radiologist and referring physician. It can also be of help when determining diagnosis or conducting surgical planning. Although there are a variety of studies proving good results of segmentation of larger structures such as bone and cartilage in the knee, there are no studies available researching segmentation of articular cartilage lesions. Automating the segmentation will save time and money since manual segmentation is very time-consuming. In this thesis, a U-Net based convolutional neural network is used to perform automatic segmentation of chondral lesions located on the distal part of the femur, in the knee joint. Using two different techniques, batch normalization and dropout, a network was trained and tested using MRI sequences collected from Episurf Medical's database. The network was then evaluated using a segmentation approach and a detection approach. For the segmentation approach, the highest achieved dice coefficient and sensitivity of 0.4059 ± 0.1833 and 0.4591 ± 0.2387, was obtained using batch normalization and 260 training subjects, consisting of MRI sequence and corresponding masks. Using a detection approach, the predicted output could correctly identify 81.8% of the chondral lesions in the MRI sequences. Although there is a need for improvement of technique and datasets used in this thesis, the achieved results show prerequisites for future improvement and possible implementation. / Skador i knäledens brosk kan diagnostiseras i ett tidigt stadie med hjälp av MR. Segmentering och visualisering av skadorna, samt ledens struktur i helhet, bidrar till en förbättrad kommunikation mellan radiolog och remitterande läkare. Det kan också underlätta för att ställa diagnos eller utföra operationsplanering. I dagsläget finns flertalet studier som påvisar goda resultat för segmentering av större strukturer, t.ex. ben och brosk. Det finns dock få studier som studerar segmentering av skador i ledbrosk. Genom att automatisera segmenteringsprocessen kan både tid och pengar sparas. Detta eftersom att manuell segmentering är mycket tidskrävande. I detta arbete kommer ett U-Net baserat convolutional neural network att användas för att utföra automatisk segmentering av skador på distala femur i knäleden. Nätverket kommer att tränas med två olika tekniker, batch normalization och dropout. Nätverket kommer att tränas med data som är hämtad från Episurf Medicals databas och består av MR sekvenser. Nätverket kommer att tränas och utvärderas med hjälp av två metoder, en segmenteringsmetod och detekteringsmetod. Den högsta uppnådda dice koefficienten och sensitiviteten vid utvärderingen av segmenteringsmetoden uppmätte 0,4059 ± 0,1833 och 0,4591 ± 0,2387. Den upnåddes med hjälp av batch normalization och 260 MR sekvenser för träning och testning. För detektionsmetoden kunde programmet identifiera 81,8% av skadorna synliga på MR sekvenserna. Även om tekniken och datan som används behöver optimeras, så visar det uppnådda resultatet på bra förutsättningar för fortsatta studier och i framtiden möjligen även implementering av tekniken.
114

Improving Change Point Detection Using Self-Supervised VAEs : A Study on Distance Metrics and Hyperparameters in Time Series Analysis

Workinn, Daniel January 2023 (has links)
This thesis addresses the optimization of the Variational Autoencoder-based Change Point Detection (VAE-CP) approach in time series analysis, a vital component in data-driven decision making. We evaluate the impact of various distance metrics and hyperparameters on the model’s performance using a systematic exploration and robustness testing on diverse real-world datasets. Findings show that the Dynamic Time Warping (DTW) distance metric significantly enhances the quality of the extracted latent variable space and improves change point detection. The research underscores the potential of the VAE-CP approach for more effective and robust handling of complex time series data, advancing the capabilities of change point detection techniques. / Denna uppsats behandlar optimeringen av en Variational Autoencoder-baserad Change Point Detection (VAE-CP)-metod i tidsserieanalys, en vital komponent i datadrivet beslutsfattande. Vi utvärderar inverkan av olika distansmått och hyperparametrar på modellens prestanda med hjälp av systematisk utforskning och robusthetstestning på diverse verkliga datamängder. Resultaten visar att distansmåttet Dynamic Time Warping (DTW) betydligt förbättrar kvaliteten på det extraherade latenta variabelutrymmet och förbättrar detektionen av brytpunkter (eng. change points). Forskningen understryker potentialen med VAE-CP-metoden för mer effektiv och robust hantering av komplexa tidsseriedata, vilket förbättrar förmågan hos tekniker för att upptäcka brytpunkter.
115

Machine Learning Methods for Segmentation of Complex Metal Microstructure Features

Fredriksson, Daniel January 2022 (has links)
Machine learning is a growing topic with possibilities that seems endless with growing areas of applications. The field of metallography today is highly dependent on the operators’ knowledge and technical equipment to perform segmentation and analysis of the microstructure. Having expert dependents is both costly and very time-consuming. Some automatic segmentation is possible using SEM but not for all materials and only having to depend on one machine will create a bottleneck. In this thesis, a traditional supervised machine learning model has been built with a Random Forest (RF) classifier. The model performs automatic segmentation of complex microstructure features from images taken using light optical- and scanning electron microscopes. Two types of material, High-Strength-Low-Alloy (HSLA) steel with in-grain carbides and grain boundary carbides, and nitrocarburized steel with different amounts of porosity were analyzed in this work. Using a bank of feature extractors together with labeled ground truth data one model for each material was trained and used for the segmentation of new data. The model trained for the HSLA steel was able to effectively segment and analyze the carbides with a small amount of training. The model could separate the two types of carbides which is not possible with traditional thresholding. However, the model trained on nitrocarburized steel showcased difficulties in detecting the porosity. The result was however improved with a different approach to the labeling. The result implies that further development can be made to improve the model. / Maskininlärning är ett växande område där möjligheterna verkar oändliga med växande applikationsområden. Området för metallografi är idag till stor utsträckning beroende av operatörens kunskap och de tekniska instrumenten som finns tillgängliga för att genomföra segmentering och analys av mikrostrukturen. Viss automatisk segmentering är möjlig genom att använda SEM, men det är inte möjligt för alla material samt att behöva vara beroende av endast en maskin kommer skapa en flaskhals. I denna uppsats har en traditionell övervakad maskininlärnings modell skapats med en Random Forest klassificerare. Modellen genomför automatisk segmentering av komplexa mikrostrukturer på bilder från både ljusoptiskt- och svepelektron-mikroskop. Två olika typer av material, Hög-Styrka-Låg-Legerat (HSLA) stål med karbider och korngräns karbider, samt nitrokarburerat stål med varierande mängd porositet analyserades i detta arbete. Genom användningen av en särdragsextraktions bank tillsammans med annoterad grundsannings data tränades en modell för vartdera materialet och användes för segmentering av ny bild data. Modellen som tränades för HSLA stålet kunde effektivt segmentera och analysera karbiderna med en liten mängd träning. Modellen kunde separera de två typerna av karbider vilket inte varit möjligt med traditionellt tröskelvärde. Den modell som tränades för det nitrokarburerade stålet visade emellertid upp svårigheter i att detektera porositeten. Resultatet kunde dock förbättras genom ett annorlunda tillvägagångssätt för annoteringen. Resultatet vittnar om att vidareutveckling kan göras för att förbättra slutresultatet.
116

Exploring the Depth-Performance Trade-Off : Applying Torch Pruning to YOLOv8 Models for Semantic Segmentation Tasks / Utforska kompromissen mellan djup och prestanda : Tillämpning av Torch Pruning på YOLOv8-modeller för uppgifter om semantisk segmentering

Wang, Xinchen January 2024 (has links)
In order to comprehend the environments from different aspects, a large variety of computer vision methods are developed to detect objects, classify objects or even segment them semantically. Semantic segmentation is growing in significance due to its broad applications in fields such as robotics, environmental understanding for virtual or augmented reality, and autonomous driving. The development of convolutional neural networks, as a powerful tool, has contributed to solving classification or object detection tasks with the trend of larger and deeper models. It is hard to compare the models from the perspective of depth since they are of different structure. At the same time, semantic segmentation is computationally demanding for the reason that it requires classifying each pixel to certain classes. Running these complicated processes on resource-constrained embedded systems may cause performance degradation in terms of inference time and accuracy. Network pruning, a model compression technique, targeting to eliminate the redundant parameters in the models based on a certain evaluation rule, is one solution. Most traditional network pruning methods, structural or nonstructural, apply zero masks to cover the original parameters rather than literally eliminate the connections. A new pruning method, Torch-Pruning, has a general-purpose library for structural pruning. This method is based on the dependency between parameters and it can remove groups of less important parameters and reconstruct the new model. A cutting-edge research work towards solving several computer vision tasks, Yolov8 has proposed several pre-trained models from nano, small, medium to large and xlarge with similar structure but different parameters for different applications. This thesis applies Torch-Pruning to Yolov8 semantic segmentation models to compare the performance of pruning based on existing models with similar structures, thus it is meaningful to compare the depth of the model as a factor. Several configurations of the pruning have been explored. The results show that greater depth does not always lead to better performance. Besides, pruning can bring about more generalization ability for Gaussian noise at medium level, from 20% to 40% compared with the original models. / För att förstå miljöer från olika perspektiv har en mängd olika datorseendemetoder utvecklats för att upptäcka objekt, klassificera objekt eller till och med segmentera dem semantiskt. Semantisk segmentering växer i betydelse på grund av dess breda tillämpningar inom områden som robotik, miljöförståelse för virtuell eller förstärkt verklighet och autonom körning. Utvecklingen av konvolutionella neurala nätverk, som är ett kraftfullt verktyg, har bidragit till att lösa klassificerings- eller objektdetektionsuppgifter med en trend mot större och djupare modeller. Det är svårt att jämföra modeller från djupets perspektiv eftersom de har olika struktur. Samtidigt är semantisk segmentering beräkningsintensiv eftersom den kräver att varje pixel klassificeras till vissa klasser. Att köra dessa komplicerade processer på resursbegränsade inbäddade system kan orsaka prestandanedgång när det gäller inferenstid och noggrannhet. Nätverksbeskärning, en modellkomprimeringsteknik som syftar till att eliminera överflödiga parametrar i modellerna baserat på en viss utvärderingsregel, är en lösning. De flesta traditionella nätverksbeskärningsmetoder, både strukturella och icke-strukturella, tillämpar nollmasker för att täcka de ursprungliga parametrarna istället för att bokstavligen eliminera anslutningarna. En ny beskärningsmetod, Torch-Pruning, har en allmän användningsområde för strukturell beskärning. Denna metod är baserad på beroendet mellan parametrar och den kan ta bort grupper av mindre viktiga parametrar och återskapa den nya modellen. Ett banbrytande forskningsarbete för att lösa flera datorseenduppgifter, Yolov8, har föreslagit flera förtränade modeller från nano, liten, medium till stor och xstor med liknande struktur men olika parametrar för olika tillämpningar. Denna avhandling tillämpar Torch-Pruning på Yolov8 semantiska segmenteringsmodeller för att jämföra prestandan för beskärning baserad på befintliga modeller med liknande strukturer, vilket gör det meningsfullt att jämföra djupet som en faktor. Flera konfigurationer av beskärningen har utforskats. Resultaten visar att större djup inte alltid leder till bättre prestanda. Dessutom kan beskärning medföra en större generaliseringsförmåga för gaussiskt brus på medelnivå, från 20% till 40%, jämfört med de ursprungliga modellerna.
117

Maximizing the performance of point cloud 4D panoptic segmentation using AutoML technique / Maximera prestandan för punktmoln 4D panoptisk segmentering med hjälp av AutoML-teknik

Ma, Teng January 2022 (has links)
Environment perception is crucial to autonomous driving. Panoptic segmentation and objects tracking are two challenging tasks, and the combination of both, namely 4D panoptic segmentation draws researchers’ attention recently. In this work, we implement 4D panoptic LiDAR segmentation (4D-PLS) on Volvo datasets and provide a pipeline of data preparation, model building and model optimization. The main contributions of this work include: (1) building the Volvo datasets; (2) adopting an 4D-PLS model improved by Hyperparameter Optimization (HPO). We annotate point cloud data collected from Volvo CE, and take a supervised learning approach by employing a Deep Neural Network (DNN) to extract features from point cloud data. On the basis of the 4D-PLS model, we employ Bayesian Optimization to find the best hyperparameters for our data, and improve the model performance within a small training budget. / Miljöuppfattning är avgörande för autonom körning. Panoptisk segmentering och objektspårning är två utmanande uppgifter, och kombinationen av båda, nämligen 4D panoptisk segmentering, har nyligen uppmärksammat forskarna. I detta arbete implementerar vi 4D-PLS på Volvos datauppsättningar och tillhandahåller en pipeline av dataförberedelse, modellbyggande och modelloptimering. De huvudsakliga bidragen från detta arbete inkluderar: (1) bygga upp Volvos datauppsättningar; (2) anta en 4D-PLS-modell förbättrad av HPO. Vi kommenterar punktmolndata som samlats in från Volvo CE och använder ett övervakat lärande genom att använda en DNN för att extrahera funktioner från punktmolnsdata. På basis av 4D-PLS-modellen använder vi Bayesian Optimization för att hitta de bästa hyperparametrarna för vår data och förbättra modellens prestanda inom en liten utbildningsbudget.
118

Investigating Few-Shot Transfer Learning for Address Parsing : Fine-Tuning Multilingual Pre-Trained Language Models for Low-Resource Address Segmentation / En Undersökning av Överföringsinlärning för Adressavkodning med Få Exempel : Finjustering av För-Tränade Språkmodeller för Låg-Resurs Adress Segmentering

Heimisdóttir, Hrafndís January 2022 (has links)
Address parsing is the process of splitting an address string into its different address components, such as street name, street number, et cetera. Address parsing has been quite extensively researched and there exist some state-ofthe-art address parsing solutions, mostly unilingual. In more recent years research has emerged which focuses on multinational address parsing and deep architecture address parsers have been used to achieve state-of-the-art performance on multinational address data. However, training these deep architectures for address parsing requires a rather large amount of address data which is not always accessible. Generally within Natural Language Processing (NLP) data is difficult to come by and most of the NLP data available consists of data from about only 20 of the approximately 7000 languages spoken around the world, so-called high-resource languages. This also applies to address data, which can be difficult to come by for some of the so-called low-resource languages of the world for which little or no NLP data exists. To attempt to deal with the lack of address data availability for some of the less spoken languages of the world, the current project investigates the potential of FewShot Learning (FSL) for multinational address parsing. To investigate this, two few-shot transfer learning models are implemented, both implementations consist of a fine-tuned pre-trained language model (PTLM). The difference between the two models is the PTLM used, which were the multilingual language models mBERT and XLM-R, respectively. The two PTLMs are finetuned using a linear classifier layer to then be used as multinational address parsers. The two models are trained and their results are compared with a state-of-the-art multinational address parser, Deepparse, as well as with each other. Results show that the two models do not outperform Deepparse, but they do show promising results, not too far from what Deepparse achieves on holdout and zero-shot datasets. On a mix of low- and high-resource language address data, both models perform well and achieve over 96% on the overall F1-score. Out of the two models used for implementation, XLM-R achieves significantly better results than mBERT and can therefore be considered the more appropriate PTLM to use for multinational FSL address parsing. Based on these results the conclusion is that there is great potential for FSL within the field of multinational address parsing and that general FSL methods can be used and perform well on multinational address parsing tasks. / Adressavkodning är processen att dela upp en adresssträng i dess olika adresskomponenter såsom gatunamn, gatunummer, et cetera. Adressavkodning har undersökts ganska omfattande och det finns några toppmoderna adressavkodningslösningar, mestadels enspråkiga. Senaste åren har forskning fokuserad på multinationell adressavkodning börjat dyka upp och djupa arkitekturer för adressavkodning har använts för att uppnå toppmodern prestation på multinationell adressdata. Att träna dessa arkitekturer kräver dock en ganska stor mängd adressdata, vilket inte alltid är tillgängligt. Det är generellt svårt att få tag på data inom naturlig språkbehandling och majoriteten av den data som är tillgänglig består av data från endast 20 av de cirka 7000 språk som används runt om i världen, så kallade högresursspråk. Detta gäller även för adressdata, vilket kan vara svårt att få tag på för vissa av världens så kallade resurssnåla språk för vilka det finns lite eller ingen data för naturlig språkbehandling. För att försöka behandla denna brist på adressdata för några av världens mindre talade språk undersöker detta projekt om det finns någon potential för inlärning med få exempel för multinationell adressavkodning. För detta implementeras två modeller för överföringsinlärning med få exempel genom finjustering av förtränade språkmodeller. Skillnaden mellan de två modellerna är den förtränade språkmodellen som används, mBERT respektive XLM-R. Båda modellerna finjusteras med hjälp av ett linjärt klassificeringsskikt för att sedan användas som multinationella addressavkodare. De två modellerna tränas och deras resultat jämförs med en toppmodern multinationell adressavkodare, Deepparse. Resultaten visar att de två modellerna presterar båda sämre än Deepparse modellen, men de visar ändå lovande resultat, inte långt ifrån vad Deepparse uppnår för både holdout och zero-shot dataset. Vidare, så presterar båda modeller bra på en blandning av adressdata från låg- och högresursspråk och båda modeller uppnår över 96% övergripande F1-score. Av de två modellerna uppnår XLM-R betydligt bättre resultat än mBERT och kan därför anses vara en mer lämplig förtränad språkmodell att använda för multinationell inlärning med få exempel för addressavkodning. Utifrån dessa resultat dras slutsatsen att det finns stor potential för inlärning med få exempel inom området multinationall adressavkodning, samt att generella metoder för inlärning med få exempel kan användas och preseterar bra på multinationella adressavkodningsuppgifter.
119

An empirical study of the impact of data dimensionality on the performance of change point detection algorithms / En empirisk studie av data dimensionalitetens påverkan på change point detection algoritmers prestanda

Noharet, Léo January 2023 (has links)
When a system is monitored over time, changes can be discovered in the time series of monitored variables. Change Point Detection (CPD) aims at finding the time point where a change occurs in the monitored system. While CPD methods date back to the 1950’s with applications in quality control, few studies have been conducted on the impact of data dimensionality on CPD algorithms. This thesis intends to address this gap by examining five different algorithms using synthetic data that incorporates changes in mean, covariance, and frequency across dimensionalities up to 100. Additionally, the algorithms are evaluated on a collection of data sets originating from various domains. The studied methods are then assessed and ranked based on their performance on both synthetic and real data sets, to aid future users in selecting an appropriate CPD method. Finally, stock data from the 30 most traded companies on the Swedish stock market are collected to create a new CPD data set to which the CPD algorithms are applied. The changes of the monitored system that the CPD algorithms aim to detect are the changes in policy rate set by the Swedish central bank, Riksbank. The results of the thesis show that the dimensionality impacts the accuracy of the methods when noise is present and when the degree of mean or covariance change is small. Additionally, the application of the algorithms on real world data sets reveals large differences in performance between the studied methods, underlining the importance of comparison studies. Ultimately, the kernel based CPD method performed the best across the real world data set employed in the thesis. / När system övervakas över tid kan förändringar upptäckas i de uppmätade variablers tidsseriedata. Change Point Detection (CPD) syftar till att hitta tidpunkten då en förändring inträffar i det övervakade systemet’s tidseriedata. Medan CPD-metoder har sitt urspring i kvalitetskontroll under 1950-talet, har få studier undersökt datans dimensionalitets påverkan på CPD-algoritmer’s förmåga. Denna avhandling avser att fylla denna kunskapslucka genom att undersöka fem olika algoritmer med hjälp av syntetiska data som inkorporerar förändringar i medelvärde, kovarians och frekvens över dimensioner upp till 100. Dessutom jämförs algoritmerna med hjälp av en samling av data från olika domäner. De studerade metoderna bedöms och rangordnas sedan baserat på deras prestanda på både syntetiska och verkliga datauppsättningar för att hjälpa framtida användare att välja en lämplig CPD algoritm. Slutligen har aktiedata samlats från de 30 mest handlade företagen på den svenska aktiemarknaden för att skapa ett nytt data set. De förändringar i det övervakade systemet som CPD-algoritmerna syftar till att upptäcka är förändringarna i styrräntan som fastställs av Riksbanken. Resultaten av studien tyder på att dimensionaliteten påverkar förmågan hos algoritmerna att upptäcka förändringspunkterna när brus förekommer i datan och när graden av förändringen är liten. Dessutom avslöjar tillämpningen av algoritmerna på den verkliga datan stora skillnader i prestanda mellan de studerade metoderna, vilket understryker vikten av jämförelsestudier för att avslöja dessa skillnader. Slutligen presterade den kernel baserade CPD metoden bäst.
120

Developing a Neural Network Model for Semantic Segmentation / Utveckling av en neural nätverksmodell för semantisk segmentering

Westphal, Ronny January 2023 (has links)
This study details the development of a neural network model designed for real-time semantic segmentation, specifically to distinguish sky pixels from other elements within an image. The model is incorporated into a feature for an Augmented Reality application in Unity, leveraging Unity Barracuda—a versatile neural network inference library. While Barracuda offers cross-platform compatibility, it poses challenges due to its lack of support for certain layers and operations. Consequently, it lacks the support of most state-of-the-art models, and this study aims to provide a model that works within Barracuda.  Given Unity's absence of a framework for model development, the development and training of the model was conducted in an open-source machine learning library. The model is continuously evaluated to optimize the trade-off between prediction accuracy and operational speed.   The resulting model is able to predict and classify each pixel in an image at around 137 frames per second. While its predictions might not be on par with some of the top-performing models in the industry, it effectively meets its objectives, particularly in the real-time classification of sky pixels within Barracuda. / Denna rapport beskriver utvecklingen av en neural nätverksmodell avsedd för semantisk segmentering i realtid, specifikt för att särskilja himlen från andra element inom en bild. Modellen integreras i en funktion för en applikation med augmenterad verklighet i Unity, med hjälp av Unity Barracuda - ett mångsidigt bibliotek för neurala nätverk. Även om Barracuda erbjuder kompatibilitet över olika plattformar, medför det utmaningar på grund av dess brist på stöd för vissa lager och operationer. Följaktligen saknar den stöd från de bäst presterande modellerna, och denna studie syftar till att erbjuda en modell som fungerar inom Barracuda. Med tanke på Unitys avsaknad av ett ramverk för modellutveckling valdes ett open-source maskininlärningsbibliotek. Modellen utvärderas kontinuerligt för att optimera avvägningen mellan förutsägelseprecision och driftshastighet. Den resulterande modellen kan förutsäga och klassificera varje pixel i en bild med en hastighet på cirka 137 bilder per sekund. Även om dess förutsägelseprecision inte är i nivå med några av de bäst presterande modellerna inom branschen, uppfyller den effektivt sina mål, särskilt när det gäller realtidsklassificering av himlen inom Barracuda.

Page generated in 0.1026 seconds