• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 106
  • 6
  • 4
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 149
  • 103
  • 69
  • 67
  • 60
  • 59
  • 47
  • 42
  • 39
  • 38
  • 38
  • 35
  • 33
  • 30
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Impact of the autoencoder-based FINTA tractogram filtering method on brain networks in subjects with Mild Cognitive Impairment / Effekten av autoencoderbaserad FINTA-traktogramfiltrering på hjärnans konnektom hos personer med mild kognitiv nedsättning

Pstrusiński, Teodor January 2023 (has links)
Diffusion Magnetic Resonance Imaging (dMRI) is a method for measuring molecular diffusion in biological tissue microstructure. This information can be used to predict the location and orientation of white matter fibers in the brain, a process known as tractography. Analysis of the map of neural connections can provide meaningful information about the severity or progression of neurodegenerative diseases such as Alzheimer's, and allow for early intervention to prevent progression. However, tractography has its pitfalls; current fiber-tracking algorithms suffer from generating false-positive connections and affect the reliability of structural connectivity maps. To counter this downside, tractogram filtering methods have been created to remove inaccurately predicted connections. This study aims at evaluating the impact of the novel semi-supervised filtering method FINTA on the brain networks of people with Mild Cognitive Impairment (MCI), which precedes diseases like Alzheimer's. The proposed experiments use the Nipype Neuroimaging Python library for the automation of the entire process. Registration, parcellation, and tracking were performed using MRtrix and FSL. Furthermore, DIPY and NiBabel were used for tractogram processing. Finally, filtering was performed based on code provided by the authors of FINTA, and graph measures were computed using the NetworkX Python library. Experiments were performed on both raw and weighted structural connectivity matrices. Results suggest that filtering has an effect on graph measures such as the clustering coefficient and betweenness centrality for different nodes corresponding to brain regions. / Diffusion magnetisk resonanstomografi (diffusions MRT) är en metod för att mäta den molekylära diffusionen i mikrostrukturen i biologisk vävnad. Denna information kan användas för att förutsäga var fibrerna i den vita substansen i hjärnan befinner sig och hur de är orienterade i den process som kallas traktografi. Analys av kartan över nervförbindelser kan ge meningsfull information om svårighetsgraden eller utvecklingen av neurodegenerativa sjukdomar som Alzheimers och möjliggöra tidiga insatser för att förhindra utvecklingen. Traktografi har dock sina fallgropar och nuvarande algoritmer för fiberspårning lider av att generera falska positiva anslutningar och påverkar de strukturella konnektivitetskartorna som förhindrar tillförlitliga förutsägelser. För att motverka denna nackdel har filtreringsmetoder för traktogram skapats för att ta bort de felaktigt förutsagda anslutningarna.  Denna studie syftar till att utvärdera effekterna av den nya semi-övervakade filtreringsmetoden FINTA på hjärnnätverk hos personer med lindrig kognitiv störning (eng. mild cognitive impairment, MCI) som föregår sjukdomar som Alzheimers. I de föreslagna experimenten används Python-biblioteket Nipype Neuroimaging för automatisering av hela processen. Registrering, parcellering och spårning gjordes med hjälp av MRtrix och FSL, dessutom användes DIPY och NiBabel för traktogrambehandling. Slutligen utfördes filtrering baserat på kod från författarna till FINTA och grafmått beräknades med hjälp av NetworkX Python-bibliotek. Experimenten utfördes på råa och viktade strukturella konnektivitetsmatriser. Resultaten tyder på att filtrering har en effekt på grafmått som klustringskoefficient och betweenness centrality för olika noder som motsvarar hjärnregioner.
22

A Review of Anomaly Detection Techniques forHeterogeneous Datasets / Undersökning av Anomalidetekteringsmetoder för Heterogena Datamängder

Piroti, Shirwan January 2021 (has links)
Anomaly detection is a field of study that is closely associated with machine learning and it is the process of finding irregularities in datasets. Developing and maintaining multiple machine learning models for anomaly detection takes time and can be an expensive task. One proposed solution is to combine all datasets and create a single model. This creates a heterogeneous dataset with a wide variation in its distribution, making it difficult to find anomalies in the dataset. The objective of this thesis is then to identify a framework that is suitable for anomaly detection in heterogeneous datasets. A selection of five methods were implemented in this project - 2 supervised learning approaches and 3 unsupervised learning approaches. These models are trained on 3 synthetic datasets that have been designed to be heterogeneous with an imbalance between the classes as anomalies are rare events. The performance of the models are evaluated with the AUC and the F1-score, aswell as observing the Precision-Recall Curve. The results makes it evident that anomaly detection in heterogeneous datasets is a challenging task. The best performing approach was with a random forest model where the class imbalance problem had been solved by generating synthetic samples of the anomaly class by implementing a generative adversarial network. / Anomalidetektering är ett studieområde som är starkt förknippat med maskininlärning och det kan beskrivas som processen att hitta avvikelser i datamängder. Att utveckla och underhålla flera maskininlärningsmodeller tar tid och kan vara kostsamt. Ett förslag för att lösa dessa problem är att kombinera alla dataset och skapa endast en modell. Detta leder till att datamängden blir heterogen i dess fördelning och gör det mer utmanande att skapa en modell som kan detektera anomalier. Syftet i denna tes är att identifiera ett ramverk som är lämpligt för anomalidetektering i heterogena datamängder. Ett urval av fem metoder tillämpades i detta projekt - 2 metoder inom övervakad inlärning och 3 metoder inom oövervakad inlärning. Dessa modeller är tränade på syntetiska datamängder som är framtagna så att de är heterogena i dess fördelning och har en urbalans mellan klasserna då anomalier är sällsynta händelser. Modellernas prestanda evalueras genom att beräkna dess AUC och F1-värde, samt observera Precision-Recall kurvan. Resultaten gör det tydligt att anomalidetektering i heterogena datamängder är ett utmanande uppdrag. Den model som presterade bäst var en random forest model där urbalansen mellan klasserna var omhändertagen genom att generera syntetiska observation av anomaliklassen med hjälp av en generativ advarserial network.
23

Applying Machine Learning for Generating Radio Channel Coefficients : Practical insights into the process of selectingand implementing machine learning algorithms for spatial channel modelling

Zander, Adrian January 2021 (has links)
One cornerstone in building future 5G and beyond wireless systems is to mimic the real-world environment using a simulator. The simulator needs to reflect the experienced propagation environment by the device in different scenarios. Today, the methods used to generate such an environment and finding the signal qualities at certain locations can be time-consuming for large cities with many base stations and devices. The objective of this project is speed up an existing SCM channel generator by replacing certain time-critical numerical formulas with a machine learning (ML) model that can generate the channel coefficients directly. The expectation is that this setup will provide much faster generations than any existing solution. A machine learning paradigm is suggested and implemented. The results suggests that a model can learn and generalize from the training data, and that provided solution is a possible configuration for modelling radio channels. Conclusions regarding the implementational considerations are made as guidance for future work. / En av hörnstenarna för att kunna bygga framtida trådlösa 5G system är att kunna efterlikna den verkliga miljön med hjälp av en simulator. Simulatorn måste återspegla enhetens upplevda propageringsmiljö i olika scenarier. I dagens läge kan metoderna som används för att skapa en sådan miljö, och hitta signalkvaliteterna på vissa platser vara tidskrävande för scenarier med stora städer med många basstationer och enheter. Målet med detta projekt är att påskynda en befintlig SCM-kanalgenerator genom att ersätta vissa tidskritiska numeriska formler med en maskininlärningsmodell (ML) som kan generera kanalkoefficienterna direkt. Förväntningen är att denna lösning kommer att generera data mycket snabbare än någon befintlig lösning. En sådan lösning föreslås och implementeras. Resultaten tyder på att en modell kan lära sig och generalisera av träningsdatat, och att den tillhandahållna lösningen är en möjlig konfiguration för modellering av radiokanaler. Slutsatser gällande övervägningarna vid implementeringen dras som vägledning för framtida arbete.
24

Learning representations of features of fish for performing regression tasks / Lärande av representationer av särdrag från fiskar för användande i regressionsstudier

Jónsson, Kristmundur January 2021 (has links)
In the ever-changing landscape of the fishing industry, demands for automating specific processes are increasing substantially. Predicting future events eliminates much of the existing communication latency between fishing vessels and their customers and makes real-time analysis of onboard catch possible for the fishing industry. Further, machine learning models, may reduce the number of human resources necessary for the numerous processes that may be automated. In this document, we focus on weight estimation of three different species of fish. Namely, we want to estimate the fish weight given its specie through datadriven techniques. Due to the high complexity of image data, the overhead expenses of collecting images at sea, and the complexities of fish features, we consider a dimensionality reduction on the inputs to reduce the curse of dimensionality and increase interpretability. We will study the viability of modeling fish weights from lower-dimensional feature vectors and the conjunction of lower-dimensional feature vectors and algorithmically obtained features. We found that modeling the residuals with latent representations of a simple power model fitted on length features resulted in a significant difference in the weight estimates for two types of fish and a decrease in Root Mean Squared Error (rMSE) and Mean Absolute Percentage Error (MAPE) scores in favour of the estimations utilizing latent representations. / I fiskeindustrins ständigt föränderliga landskap ökar kraven på att automatisera specifika processer väsentligt. Att förutsäga framtida händelser eliminerar mycket av den befintliga kommunikationsfördröjningen mellan fiskefartyg och deras kunder och möjliggör analys i realtid av ombordfångst för fiskeindustrin. Vidare kan det minska antalet personalresurser som krävs för de många processer som kan automatiseras. I detta dokument studerar vi två olika beslutsproblem relaterade till att sortera fisk av tre olika arter. Vi vill nämligen bestämma fiskvikten och dess art genom datadrivna tekniker. På grund av bilddatas höga komplexitet, de allmänna kostnaderna för att samla bilder till sjöss och komplexiteten hos fiskegenskaper, anser vi att en dimensionalitetsminskning av särdragen minskar problemet relaterat till dimensionsexplosion och ökar tolkbarheten. Vi kommer att studera lämpligheten av modellering av fiskvikter och arter från lägre dimensionella särdragsvektorer samt kombinationen av dessa med algoritmiskt erhållna funktioner. Vi fann att modellering av residual med latenta representationer av en enkel potensfunktionsmodell som är anpassad till fisklängder resulterade i en signifikant skillnad i viktuppskattningarna för två typer av fisk och en minskning av rMSE och MAPE poäng.
25

Hybrid Variational Autoencoder for Clustering of Single-Cell RNA-seq Data : Introducing HybridVI, a Variational Autoencoder with two Latent Spaces / Hybrid Variational autoencoder för analys av enkelcells RNA-sekvensering data

Narrowe Danielsson, Sarah January 2022 (has links)
Single-cell analysis means to analyze cells on an individual level. This individual analysis enhances the investigation of the heterogeneity among and the classification of individual cells. Single-cell analysis is a broad term and can include various measurements. This thesis utilizes single-cell RNA sequence data that measures RNA sequences representing genes for individual cells. This data is often high-dimensional, with tens of thousands of RNA sequences measured for each cell. Dimension reduction is therefore necessary when analyzing the data. One proposed dimension reduction method is the unsupervised machine learning method variational autoencoders. The scVI framework has previously implemented a variational autoencoder for analyzing single-cell RNA sequence data. The variational autoencoder of the scVI has one latent space with a Gaussian distribution. Several extensions have been made to the scVI framework since its creation. This thesis proposes an additional extension consisting of a variational autoencoder with two latent spaces, called hybridVI. One of these latent spaces has a Gaussian distribution and the other a von Mises-Fisher distribution. The data is separated between these two latent spaces, meaning that some of the genes go through one latent space and the rest go through the other. In this thesis the cell cycle genes go through the von Mises-Fisher latent space and the rest of the genes go through the Gaussian latent space. The motivation behind the von Mises-Fisher latent space is that cell cycle genes are believed to follow a circular distribution. Putting these genes through a von Mises-Fisher latent space instead of a Gaussian latent space could provide additional insights into the data. The main focus of this thesis was to analyze the impact this separation. The analysis consisted of comparing the performance of the hybridVI model, to the original scVI variational autoencoder. The comparison utilized three annotated datasets, one peripheral blood mononuclear cell dataset, one cortex cell dataset, and one B cell dataset collected by the Henriksson lab at Umeå University. The evaluation metrics used were the adjusted rand index, normalized mutual information and a Wilcoxon signed ranks test was used to determine if the results had statistical significance. The results indicate that the size of the dataset was essential for achieving robust and statistically significant results. For the two datasets that yielded statistically significant results, the scVI model performed better than the hybridVI model. However, more research analyzing biological aspects is necessary to declare the hybridVI model’s effect on the biological interpretation of the results. / Individuell cellanalys är en relativt ny metod som möjliggör undersökning av celler på indivudiell nivå. Det här examensarbetet analyserar RNA sekvens data, där RNA sekvenser är specifierade för individuella celler. Den här sortens data är ofta högdimensionell med flera tusen gener noterade för varje cell. För att möjliggöra en analys av den här datan krävs någon form av dimensionreducering. En föreslagen metod är den ovövervakade maskininlärningsmetoden variational autoencoders. Ett ramverk, scVI, har framtagit en variational autoencoder designad för att hantera den här sortens data. Den här modellen har endast en latentrymd med en normalfördelning. Det här examensarbetet föreslår en utökning av det här ramverket med en variational autoencoder med två latentrymder,där den ena är normalfördelad och den andra följer en von Mises-Fisher fördelning. Motiveringen till en sådan fördelning är att cellcykelgener är antagna att tillhöra en cirkulär fördelning. Cellcykelgenerna i datan kan därmed hanteras av den cirkulära latentrymden. Huvudfokuset i den här studien är att undersöka om den här separationen av gener kan förbättra modellens förmåga att hitta korrekta kluster. Experimentet utfördes på tre annoterade dataset, ett som bestod av perifera mononukleära blodceller, ett som bestod av hjärnbarksceller och ett som bestod av B celler insamlat av Henrikssongruppen vid Umeå universitet. Modellen från scVI ramverket jämfördes med den nya metoden med två latentrymder, hybridVI. Måtten som användes för att bedöma de modellerna var adjusted rand index och normaliserad mutual information och ett Wilcoxon Signed-Ranks test användes för att bedöma resultatens statistiska signifikans. Resultaten påvisar att de båda modellerna preseterar bättre och mer konsekvent för större dataset. Två dataset gav statistiskt signifikanta resultat och visade att scVI modellen presterade bättre än hybridmodellen. Det behövs dock en biologisk analys av resultaten för att undersöka vilken modells resultat som har mest biologisk relevans.
26

Выявление аномалий технологического процесса на примере макета очистной установки воды SWaT (Secure Water Treatment) : магистерская диссертация / Identification of technological process anomalies using the example of a mock-up of a SWaT (Secure Water Treatment) water treatment plant

Жериборова, Е. В., Zheriborova, E. V. January 2023 (has links)
Цель работы – анализ моделей машинного обучения, направленных на обнаружение аномалий на промышленных предприятиях, использующих автоматизированные системы управления технологическим процессом, а также выявление причин аномалий. Объектом исследования является выявление аномалий во время работы технологического оборудования, агрегатов, установок, отдельных производств – выявление атак на датчик или группу датчиков. Рассматриваются основные модели машинного обучения, позволяющие выявлять аномалии, которые могут возникать при попытках внешнего воздействия, так и при технологических неисправностях промышленного производства. Рассмотрена модель – AutoEncoder. Оценена точность предсказания применяемой модели ML. / The purpose of the work is to analyze machine learning models aimed at detecting anomalies at industrial enterprises using automated process control systems, as well as identifying the causes of anomalies. The object of the study is to identify anomalies during the operation of technological equipment, units, installations, individual industries - identifying attacks on a sensor or group of sensors. The main models of machine learning are considered, allowing to identify anomalies that can arise during attempts of external influence, as well as during technological malfunctions of industrial production. The model considered is AutoEncoder. The prediction accuracy of the applied ML model is assessed.
27

Polar Codes for Biometric Identification Systems / Polära Koder för Biometriska Identifieringssystem

Bao, Yicheng January 2022 (has links)
Biometrics are widely used in identification systems, such as face, fingerprint, iris, etc. Polar code is the only code that can be strictly proved to achieve channel capacity, and it has been proved to be optimal for channel and source coding. In this degree project, our goal is to apply polar codes algorithms to biometric identification systems, and to design a biometric identification system with high identification accuracy, low system complexity, and good privacy preservation. This degree project has carried out specific and in-depth research in four aspects, following results are achieved: First, idea of polar codes is learnt, for example channel combination, channel splitting, successive cancellation decoding. The successive cancellation and successive cancellation list algorithm are also applied to encoding, which further realizes polar codes for source coding. Second, using autoencoder to process biometrics. Autoencoder is introduced to compress fingerprints into binary sequences of length 1024, it has 5 encoding layers and 12 decoding layers, achieved reconstruction error is 0.03. The distribution is close to Gaussian distribution, and compressed codes are quantized into binary sequences. Properties of sequences are similar with random sequences in terms of entropy, correlation, variance. Third, the identification system under Wyner-Ziv problem is studied with fingerprints. In enrollment phase, encoding algorithms are designed to compress biometrics, and in identification phase, decoding algorithms are designed to estimate the original sequence based on decoded results and noisy sequence. Maximum mutual information method is used to identify users. Results show that with smaller number of users, longer code length, smaller noise, then recognition error rate is lower. Fourth, human faces are used in the generated secret key system. After fully considering the trade off to achieve optimal results, in enrollment phase both public data and secure data are generated, in identification phase user’s index and secret key are estimated. A hierarchical structure is further studied. First, CNN is used to classify the age of faces, and then the generated secret key system is used for identification after narrowing the range. The system complexity is reduced by 80% and the identification accuracy is not reduced. / Biometriska kännetecken används i stor utsträckning i identifieringssystem, kännetecken såsom ansikte, fingeravtryck, iris, etc. Polär kod är den enda koden som strikt bevisats uppnå kanalkapacitet och den har visat sig vara optimal för kanal- och källkodning. Målet med detta examensarbete är att tillämpa polära kodalgoritmer på biometriska identifieringssystem, och att designa ett biometriskt identifieringssystem med hög identifieringsnoggrannhet, låg systemkomplexitet och bra integritetsskydd. Under examensarbetet har det genomförts specifik och djupgående forskning i fyra aspekter, följande resultat har uppnåtts: För det första introduceras idén om polära koder, till exempel kanalkombination, kanaluppdelning, successiv annulleringsavkodning. Algoritmerna för successiv annullering och successiv annulleringslista tillämpas även på kodning,vilket ytterligare realiserar polära koders användning för källkodning. För det andra används autoencoder för att bearbeta biometriska uppgifter. Autoencoder introduceras för att komprimera fingeravtryck till binära sekvenser med längden 1024, den har 5 kodningslager och 12 avkodningslager, det uppnådda rekonstruktionsfelet är 0,03. Fördelningen liknar en normaldistribution och komprimerade koder kvantiseras till binära sekvenser. Egenskaperna för sekvenserna liknar slumpmässiga sekvenser vad gäller entropi, korrelation, varians. För det tredje studeras identifieringssystemet under Wyner-Ziv-problemet med fingeravtryck. I inskrivningsfasen är kodningsalgoritmer utformade för att komprimera biometriska kännetecken, och i identifieringsfasen är avkodningsalgoritmer utformade för att estimera den ursprungliga sekvensen baserat på avkodade resultat och brusiga sekvenser. Maximal ömsesidig informationsmetod används för att identifiera användare. Resultaten visar att med ett mindre antal användare, längre kodlängd och mindre brus så är identifieringsfelfrekvensen lägre. För det fjärde används mänskliga ansikten i det genererade hemliga nyckelsystemet. Efter att noggrant ha övervägt kompromisser fullt ut för att uppnå det optimala resultatet genereras både offentlig data och säker data under registreringsfasen, i identifieringsfasen uppskattas användarens index och säkerhetsnyckel. En hierarkisk struktur studeras vidare. Först används CNN för att klassificera ålder baserat på ansikten och sedan används det genererade hemliga nyckelsystemet för identifiering efter att intervallet har begränsats. Systemkomplexiteten reduceras med 80% men identifieringsnoggrannheten reduceras inte.
28

MCMC estimation of causal VAE architectures with applications to Spotify user behavior / MCMC uppskattning av kausala VAE arkitekturer med tillämpningar på Spotify användarbeteende

Harting, Alice January 2023 (has links)
A common task in data science at internet companies is to develop metrics that capture aspects of the user experience. In this thesis, we are interested in systems of measurement variables without direct causal relations such that covariance is explained by unobserved latent common causes. A framework for modeling the data generating process is given by Neuro-Causal Factor Analysis (NCFA). The graphical model consists of a directed graph with edges pointing from the latent common causes to the measurement variables; its functional relations are approximated with a constrained Variational Auto-Encoder (VAE). We refine the estimation of the graphical model by developing an MCMC algorithm over Bayesian networks from which we read marginal independence relations between the measurement variables. Unlike standard independence testing, the method is guaranteed to yield an identifiable graphical model. Our algorithm is competitive with the benchmark, and it admits additional flexibility via hyperparameters that are natural to the approach. Tuning these parameters yields superior performance over the benchmark. We train the improved NCFA model on Spotify user behavior data. It is competitive with the standard VAE on data reconstruction with the benefit of causal interpretability and model identifiability. We use the learned latent space representation to characterize clusters of Spotify users. Additionally, we train an NCFA model on data from a randomized control trial and observe treatment effects in the latent space. / En vanlig uppgift för en data scientist på ett internetbolag är att utveckla metriker som reflekterar olika aspekter av användarupplevelsen. I denna uppsats är vi intresserade av system av mätvariabler utan direkta kausala relationer, så till vida att kovarians förklaras av latenta gemensamma orsaker. Ett ramverk för att modellera den datagenererande processen ges av Neuro-Causal Factor Analysis (NCFA). Den grafiska modellen består av en riktad graf med kanter som pekar från de latenta orsaksvariablerna till mätvariablerna; funktionssambanden uppskattas med en begränsad Variational Auto-Encoder (VAE). Vi förbättrar uppskattningen av den grafiska modellen genom att utveckla en MCMC algoritm över Bayesianska nätverk från vilka vi läser de obetingade beroendesambanden mellan mätvariablerna. Till skillnad från traditionella oberoendetest så garanterar denna metod en identifierbar grafisk modell. Vår algoritm är konkurrenskraftig jämfört med referensmetoderna, och den tillåter ytterligare flexibilitet via hyperparametrar som är naturliga för metoden. Optimal justering av dessa hyperparametrar resulterar i att vår metod överträffar referensmetoderna. Vi tränar den förbättrade NCFA modellen på data om användarbeteende på Spotify. Modellen är konkurrenskraftig jämfört med en standard VAE vad gäller rekonstruktion av data, och den tillåter dessutom kausal tolkning och identifierbarhet. Vi analyserar representationen av Spotify-användarna i termer av de latenta orsaksvariablerna. Specifikt så karakteriserar vi grupper av liknande användare samt observerar utfall av en randomiserad kontrollerad studie.
29

From Pixels to Prices with ViTMAE : Integrating Real Estate Images through Masked Autoencoder Vision Transformers (ViTMAE) with Conventional Real Estate Data for Enhanced Automated Valuation / Från pixlar till priser med ViTMAE : Integrering av bostadsbilder genom Masked Autoencoder Vision Transformers (ViTMAE) med konventionell fastighetsdata för förbättrad automatiserad värdering

Ekblad Voltaire, Fanny January 2024 (has links)
The integration of Vision Transformers (ViTs) using Masked Autoencoder pre-training (ViTMAE) into real estate valuation is investigated in this Master’s thesis, addressing the challenge of effectively analyzing visual information from real estate images. This integration aims to enhance the accuracy and efficiency of valuation, a task traditionally dependent on realtor expertise. The research involved developing a model that combines ViTMAE-extracted visual features from real estate images with traditional property data. Focusing on residential properties in Sweden, the study utilized a dataset of images and metadata from online real estate listings. An adapted ViTMAE model, accessed via the Hugging Face library, was trained on the dataset for feature extraction, which was then integrated with metadata to create a comprehensive multimodal valuation model. Results indicate that including ViTMAE-extracted image features improves prediction accuracy in real estate valuation models. The multimodal approach, merging visual and traditional metadata, improved accuracy over metadata-only models. This thesis contributes to real estate valuation by showcasing the potential of advanced image processing techniques in enhancing valuation models. It lays the groundwork for future research in more refined holistic valuation models, incorporating a wider range of factors beyond visual data. / Detta examensarbete undersöker integrationen av Vision Transformers (ViTs) med Masked Autoencoder pre-training (ViTMAE) i bostadsvärdering, genom att addressera utmaningen att effektivt analysera visuell information från bostadsannonser. Denna integration syftar till att förbättra noggrannheten och effektiviteten i fastighetsvärdering, en uppgift som traditionellt är beroende av en fysisk besiktning av mäklare. Arbetet innefattade utvecklingen av en modell som kombinerar bildinformation extraherad med ViTMAE från fastighetsbilder med traditionella fastighetsdata. Med fokus på bostadsfastigheter i Sverige använde studien en databas med bilder och metadata från bostadsannonser. Den anpassade ViTMAE-modellen, tillgänglig via Hugging Face-biblioteket, tränades på denna databas för extraktion av bildinformation, som sedan integrerades med metadata för att skapa en omfattande värderingsmodell. Resultaten indikerar att inklusion av ViTMAE-extraherad bildinformation förbättrar noggranheten av bostadssvärderingsmodeller. Den multimodala metoden, som kombinerar visuell och traditionell metadata, visade en förbättring i noggrannhet jämfört med modeller som endast använder metadata. Denna uppsats bidrar till bostadsvärdering genom att visa på potentialen hos avancerade bildanalys för att förbättra värderingsmodeller. Den lägger grunden för framtida forskning i mer raffinerade holistiska värderingsmodeller som inkluderar ett bredare spektrum av faktorer utöver visuell data.
30

Machine Anomaly Detection using Sound Spectrogram Images and Neural Networks

Hanjun Kim (6947996) 14 August 2019 (has links)
<div> <p>Sound and vibration analysis is a prominent tool used for scientific investigations in various fields such as structural model identification or dynamic behavior studies. In manufacturing fields, the vibration signals collected through commercial sensors are utilized to monitor machine health, for sustainable and cost-effective manufacturing.</p> <p> Recently, the development of commercial sensors and computing environments have encouraged researchers to combine gathered data and Machine Learning (ML) techniques, which have been proven to be efficient for categorical classification problems. These discriminative algorithms have been successfully implemented in monitoring problems in factories, by simulating faulty situations. However, it is difficult to identify all the sources of anomalies in a real environment. </p> <p>In this paper, a Neural Network (NN) application on a KUKA KR6 robot arm is introduced, as a solution for the limitations described above. Specifically, the autoencoder architecture was implemented for anomaly detection, which does not require the predefinition of faulty signals in the training process. In addition, stethoscopes were utilized as alternative sensing tools as they are easy to handle, and they provide a cost-effective monitoring solution. To simulate the normal and abnormal conditions, different load levels were assigned at the end of the robot arm according to the load capacity. Sound signals were recorded from joints of the robot arm, then meaningful features were extracted from spectrograms of the sound signals. The features were utilized to train and test autoencoders. During the autoencoder process, reconstruction errors (REs) between the autoencoder’s input and output were computed. Since autoencoders were trained only with features corresponding to normal conditions, RE values corresponding to abnormal features tend to be higher than those of normal features. In each autoencoder, distributions of the RE values were compared to set a threshold, which distinguishes abnormal states from the normal states. As a result, it is suggested that the threshold of RE values can be utilized to determine the condition of the robot arm.</p> </div> <br>

Page generated in 0.1991 seconds