• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 618
  • 200
  • Tagged with
  • 818
  • 715
  • 705
  • 447
  • 392
  • 335
  • 327
  • 250
  • 214
  • 153
  • 148
  • 147
  • 121
  • 118
  • 117
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Machine Learning Methods for Fault Classification / Maskininlärningsmetoder för felklassificering

Felldin, Markus January 2014 (has links)
This project, conducted at Ericsson AB, investigates the feasibility of implementing machine learning techniques in order to classify dump files for more effi cient trouble report routing. The project focuses on supervised machine learning methods and in particular Bayesian statistics. It shows that a program utilizing Bayesian methods can achieve well above random prediction accuracy. It is therefore concluded that machine learning methods may indeed become a viable alternative to human classification of trouble reports in the near future. / Detta examensarbete, utfört på Ericsson AB, ämnar att undersöka huruvida maskininlärningstekniker kan användas för att klassificera dumpfiler för mer effektiv problemidentifiering. Projektet fokuserar på övervakad inlärning och då speciellt Bayesiansk klassificering. Arbetet visar att ett program som utnyttjar Bayesiansk klassificering kan uppnå en noggrannhet väl över slumpen. Arbetet indikerar att maskininlärningstekniker mycket väl kan komma att bli användbara alternativ till mänsklig klassificering av dumpfiler i en nära framtid.
162

Ensemble Models for Trend Investing / Ensemble modeller för trendinvesteringar

Book, Emil, Gnem, Emil January 2021 (has links)
Portfolio strategies focusing on following the trend, so called momentum based strategies, have been popular for a long time among investors and have had many academic studies, however with varying results. This study sets out to investigate different momentum trading signals as well as combining them in ensemble models such as Random Forest and the unique Dim Switch portfolio and then compare them to set benchmarks. Only one of the benchmarks, the 100% equity portfolio, is found to have better returns than the constructed momentum based strategies, however the momentum based strategies show a lot of potential with high risk-adjusted returns and good performance with regards to Expected Shortfall, Value at Risk and Maximum Drawdown. The most common momentum trading signal, the momentum rule with 9 months lookback, was found to have the highest risk-adjusted returns compared to both the benchmarks and the ensemble models, but it was also found to have slightly heavier left tail than the ensemble models. / Portföljstrategier som baserar sig på att följa trenden, så kallade momentumstrategier, har varit populära länge bland investerare. Många akademiska studier har gjorts om ämnet med varierande resultat. Denna studie utreder olika trendsignaler och kombinerar dem för att forma så kallade ensemble modeller, mer specifikt Random Forest och den unika "Dim Switch"-approachen, för att sedan jämföra dessa strategier mot benchmark portföljer. Endast en av benchmark portföljerna, 100% aktier i en ''buy and hold''-portfölj hade bättre avkastning än de momentumbaserade ensemble modellerna i studien. Däremot har momentumbaserade ensemble modellerna högre riskjusterad avkastning, Expected Shortfall, Value at Risk och Maximum drawdown. Den mest återkommande trendsignalen ''Momentum rule'' med nio månaders lookback hade extremt hög riskjusterad avkastning jämfört med benchmarks och ensemble modellerna, men det kom med kostnaden av högre risker i svansen.
163

Coreference Resolution for Swedish / Koreferenslösning för svenska

Vällfors, Lisa January 2022 (has links)
This report explores possible avenues for developing coreference resolution methods for Swedish. Coreference resolution is an important topic within natural language processing, as it is used as a preprocessing step in various information extraction tasks. The topic has been studied extensively for English, but much less so for smaller languages such as Swedish. In this report we adapt two coreference resolution algorithms that were originally used for English, for use on Swedish texts. One algorithm is entirely rule-based, while the other uses machine learning. We have also annotated a Swedish dataset to be used for training and evaluation. Both algorithms showed promising results and as none clearly outperformed the other we can conclude that both would be good candidates for further development. For the rule-based algorithm more advanced rules, especially ones that could incorporate some semantic knowledge, was identified as the most important avenue of improvement. For the machine learning algorithm more training data would likely be the most beneficial. For both algorithms improved detection of mention spans would also help, as this was identified as one of the most error-prone components. / I denna rapport undersöks möjliga metoder för koreferenslösning för svenska. Koreferenslösning är en viktig uppgift inom språkteknologi, eftersom det utgör ett första steg i många typer av informationsextraktion. Uppgiften har studerats utförligt för flera större språk, framförallt engelska, men är ännu relativt outforskad för svenska och andra mindre språk. I denna rapport har vi anpassat två algoritmer som ursprungligen utvecklades för engelska för användning på svensk text. Den ena algoritmen bygger på maskininlärning och den andra är helt regelbaserad. Vi har också annoterat delar av Talbankens korpus med koreferensrelationer, för att användas för träning och utvärdering av koreferenslösningsalgoritmer. Båda algoritmerna visade lovande resultat, och ingen var tydligt bättre än den andra. Bägge vore därför lämpliga alternativ för vidareutveckling. För ML-algoritmen vore mer träningsdata den viktigaste punkten för förbättring, medan den regelbaserade algoritmen skulle kunna förbättras med mer komplexa regler, för att inkorporera exempelvis semantisk information i besluten. Ett annat viktigt utvecklingsområde är identifieringen av de fraser som utvärderas för möjlig koreferens, eftersom detta steg introducerade många fel i bägge algoritmerna.
164

Automatic detection of the fuel composition in a Diesel Engine : Identifying fuel composition in the fuel system of a combustion engine and optimising for computational complexity / Automatisk bränsledetektering med beräkningseffektiv variabelval : Idenftifiering av bränslekomposition i en förbränningmotors bränslesystem för optimerat variabelsval

Hultgren, Andree January 2021 (has links)
The transportation industry is responsible for 26% of all emission of greenhouse gases in the European Union. Many steps are being taken to minimise greenhouse gas emissions. The most effective way to reduce the emission of greenhouse gases is by transitioning to biofuels. The combustion engines in most vehicles perform below their potential efficiency when running on biofuels due to the reduced energy density. The characteristics of the injection into the combustion chamber can be adjusted if the fuel type being injected is known. In Diesel engines, Fatty Acid Methyl Esters (FAME) is one of the most used biofuels. The higher weight density and lower energy density of FAME compared to Diesel result in lower power output when used in a Diesel engine. Detecting the fuel composition in the engine would allow for adaptation to the injection characteristics and bring back the engine’s efficiency to its full potential independent of the fuel composition. The most significant issue with fuel composition prediction is that no work has been done in this field using machine learning. There are several hundreds of features inside the control system of a truck. The selection of which features contribute to the prediction of fuel composition is important and challenging. The prediction should be computationally inexpensive and relatively accurate to facilitate in-time prediction. Using a feature selection method based on Shapley additive explanations (SHAP) applied to an expert network enables feature selection perfectly tailored for finding the optimal features that combined will provide accurate predictions with minimal computational resources. This feature selection method has been tested before but with limited analysis and adaptation. We apply various feature selection methods and propose a new feature selection method coined SHAP-C, which outperforms all other feature selection methods we have tested for this particular scope of application. The results show that with a minimal network of two input features and six hidden nodes, the fuel composition can be predicted with a 98.82% accuracy using a total of 75 floating-point operations. The low computational complexity allows for real-time predictions in the control system of a truck, which can be used to modulate the injection characteristics into the engine’s combustion chamber. The network used to identify the fuel composition has been trained with data from a single truck. The results are therefore not generalised across trucks. This adjustment based on fuel composition would allow a truck to run optimally independent of the fuel composition. / Transportindustrin är ansvarig för 26% av alla utsläpp i den Europeiska Unionen. Många steg tas för att minimera utsläpp av växthusgaser. En av de mest effektiva metoderna för att minska utsläppen är biobränslen. Förbränningsmotorer i de flesta fordon underpresterar när de använder biobränslen som källa för energi. Karaktäristiken av injektionen i förbränningskammaren kan justeras om bränsletypen är känd. I dieselmotorer är fettsyrametylestrar en av de mest använda biobränslena. Den högre densiteten i vikt och den lägre densiteten i energi resulterar i en låg effekt när biobränslet används i en dieselmotor. Detektering av bränslekomposition i bränslesystemet skulle möjliggöra en adaptiv injektion av bränsle för att optimera effektiviteten av motorn. Det största problemet med bränsledetektering är att inget arbete har gjorts inom maskininlärning i detta område. Det finns hundratals olika mätvärden inuti kontrollsystemet av en lastbil. Valet av vilket mätvärde som bidrar till en träffsäker beräkning av bränslekomposition är mycket viktigt. Beräkningen måste vara beräkningsmässigt billig, snabb och träffsäker. Därför måste en skräddarsydd lösning byggas för att finna de bästa mätvärden med minimal beräkningskostnad för att kunna beräkna bränsletyp i realtid. Användningen av en mätvärdesväljande metod baserad på SHAP och ett expert-nätverk tillåter ett val av mätpunkter som är perfekt anpassat för att finna vilka mätpunkter är optimala för att träffsäkert och beräkningsbilligt ta fram bränslekompositionen. Detta val av mätvärden har testats förut men klassades som opålitligt på grund av den slumpmässiga naturen av neurala nätverk. Denna brist har överkommits genom att träna ett stort antal expertnätverk och använda resultatet från genomsnittet över alla modeller, vilket eliminerar den stokastiska naturen av problemet. Resultaten visar att med hjälp av ett litet nätverk med två mätpunkter och sex dolda noder, kan bränslekompositionen beräknas med en träffsäkerhet av 98.82% med endast 75 flyttalsoperationer. Detta tillåter för realtids beräkning av bränslekomposition i kontrollsystemet till en lastbil, vilket i sin tur kan modulera injektionskaraktäristiken av bränsle till förbränningskammaren i motorn. Denna justering baserat på bränslekompositionen tillåter en lastbil att köras optimalt oavsätt komposition av bränsle.
165

Explainable Deep Learning Methods for Market Surveillance / Förklarbara Djupinlärningsmetoder för Marknadsövervakning

Jonsson Ewerbring, Marcus January 2021 (has links)
Deep learning methods have the ability to accurately predict and interpret what data represents. However, the decision making of a deep learning model is not comprehensible for humans. This is a problem for sectors like market surveillance which needs clarity in the decision making of the used algorithms. This thesis aimed to investigate how a deep learning model can be constructed to make the decision making of the model humanly comprehensible, and to investigate the potential impact on classification performance. A literature study was performed and publicly available explanation methods were collected. The explanation methods LIME, SHAP, model distillation and SHAP TreeExplainer were implemented and evaluated on a ResNet trained on three different time-series datasets. A decision tree was used as the student model for model distillation, where it was trained with both soft and hard labels. A survey was conducted to evaluate if the explanation method could increase comprehensibility. The results were that all methods could improve comprehensibility for people with experience in machine learning. However, none of the methods could provide full comprehensibility and clarity of the decision making. The model distillation reduced the performance compared to the ResNet model and did not improve the performance of the student model. / Djupinlärningsmetoder har egenskapen att förutspå och tolka betydelsen av data. Däremot så är djupinlärningsmetoders beslut inte förståeliga för människor. Det är ett problem för sektorer som marknadsövervakning som behöver klarhet i beslutsprocessen för använda algoritmer. Målet för den här uppsatsen är att undersöka hur en djupinlärningsmodell kan bli konstruerad för att göra den begriplig för en människa, och att undersöka eventuella påverkan av klassificeringsprestandan. En litteraturstudie genomfördes och publikt tillgängliga förklaringsmetoder samlades. Förklaringsmetoderna LIME, SHAP, modelldestillering och SHAP TreeExplainer blev implementerade och utvärderade med en ResNet modell tränad med tre olika dataset. Ett beslutsträd användes som studentmodell för modelldestillering och den blev tränad på båda mjuka och hårda etiketter. En undersökning genomfördes för att utvärdera om förklaringsmodellerna kan förbättra förståelsen av modellens beslut. Resultatet var att alla metoder kan förbättra förståelsen för personer med förkunskaper inom maskininlärning. Däremot så kunde ingen av metoderna ge full förståelse och insyn på hur beslutsprocessen fungerade. Modelldestilleringen minskade prestandan jämfört med ResNet modellen och förbättrade inte prestandan för studentmodellen.
166

EVALUATION OF UNSUPERVISED MACHINE LEARNING MODELS FOR ANOMALY DETECTION IN TIME SERIES SENSOR DATA

Bracci, Lorenzo, Namazi, Amirhossein January 2021 (has links)
With the advancement of the internet of things and the digitization of societies sensor recording time series data can be found in an always increasing number of places including among other proximity sensors on cars, temperature sensors in manufacturing plants and motion sensors inside smart homes. This always increasing reliability of society on these devices lead to a need for detecting unusual behaviour which could be caused by malfunctioning of the sensor or by the detection of an uncommon event. The unusual behaviour mentioned is often referred to as an anomaly. In order to detect anomalous behaviours, advanced technologies combining mathematics and computer science, which are often referred to as under the umbrella of machine learning, are frequently used to solve these problems. In order to help machines to learn valuable patterns often human supervision is needed, which in this case would correspond to use recordings which a person has already classified as anomalies or normal points. It is unfortunately time consuming to label data, especially the large datasets that are created from sensor recordings. Therefore in this thesis techniques that require no supervision are evaluated to perform anomaly detection. Several different machine learning models are trained on different datasets in order to gain a better understanding concerning which techniques perform better when different requirements are important such as presence of a smaller dataset or stricter requirements on inference time. Out of the models evaluated, OCSVM resulted in the best overall performance, achieving an accuracy of 85% and K- means was the fastest model as it took 0.04 milliseconds to run inference on one sample. Furthermore LSTM based models showed most possible improvements with larger datasets. / Med utvecklingen av Sakernas internet och digitaliseringen av samhället kan man registrera tidsseriedata på allt fler platser, bland annat igenom närhetssensorer på bilar, temperatursensorer i tillverkningsanläggningar och rörelsesensorer i smarta hem. Detta ständigt ökande beroende i samhället av dessa enheter leder till ett behov av att upptäcka ovanligt beteende som kan orsakas av funktionsstörning i sensorn eller genom upptäckt av en ovanlig händelse. Det ovanliga beteendet som nämns kallas ofta för en anomali. För att upptäcka avvikande beteenden används avancerad teknik som kombinerar matematik och datavetenskap, som ofta kallas maskininlärning. För att hjälpa maskiner att lära sig värdefulla mönster behövs ofta mänsklig tillsyn, vilket i detta fall skulle motsvara användningsinspelningar som en person redan har klassificerat som avvikelser eller normala punkter. Tyvärr är det tidskrävande att märka data, särskilt de stora datamängder som skapas från sensorinspelningar. Därför utvärderas tekniker som inte kräver någon handledning i denna avhandling för att utföra anomalidetektering. Flera olika maskininlärningsmodeller utbildas på olika datamängder för att få en bättre förståelse för vilka tekniker som fungerar bättre när olika krav är viktiga, t.ex. närvaro av en mindre dataset eller strängare krav på inferens tid. Av de utvärderade modellerna resulterade OCSVM i bästa totala prestanda, uppnådde en noggrannhet på 85% och K- means var den snabbaste modellen eftersom det hade en inferens tid av 0,04 millisekunder. Dessutom visade LSTM- baserade modeller de bästa möjliga förbättringarna med större datamängder.
167

Användningen av AI inom röntgendiagnostik / The usage of AI in radiology

Almqvist, Emelie January 2020 (has links)
De problem som denna studie behandlar är det höga antalet falska diagnoser inom radiologin samt den personalbrist som råder bland radiologer. För att behandla dessa problem är syftet med denna studie att undersöka förutsättningarna för implementeringen av Artificiell Intelligens (AI) och användningen av AI inom röntgendiagnostiken. Datainsamlingen skedde genom fyra stycken intervjuer, varav två med läkare inom radiologi från Akademiska Sjukhuset i Uppsala och en med verksamhetschefen inom radiologi på Enköpings Lasarett. Intervjuerna spelades in och transkriberades i syfte att kunna analysera den insamlade datan. Denna data ledde till 8 stycken teman. Dessa teman kommer att bli användbara för att förstå förutsättningarna för att implementera och använda AI i en organisation.
168

Learning from 3D generated synthetic data for unsupervised anomaly detection

Fröjdholm, Hampus January 2021 (has links)
Modern machine learning methods, utilising neural networks, require a lot of training data. Data gathering and preparation has thus become a major bottleneck in the machine learning pipeline and researchers often use large public datasets to conduct their research (such as the ImageNet [1] or MNIST [2] datasets). As these methods begin being used in industry, these challenges become apparent. In factories objects being produced are often unique and may even involve trade secrets and patents that need to be protected. Additionally, manufacturing may not have started yet, making real data collection impossible. In both cases a public dataset is unlikely to be applicable. One possible solution, investigated in this thesis, is synthetic data generation. Synthetic data generation using physically based rendering was tested for unsupervised anomaly detection on a 3D printed block. A small image dataset was gathered of the block as control and a data generation model was created using its CAD model, a resource most often available in industrial settings. The data generation model used randomisation to reduce the domain shift between the real and synthetic data. For testing the data, autoencoder models were trained, both on the real and synthetic data separately and in combination. The material of the block, a white painted surface, proved challenging to reconstruct and no significant difference between the synthetic and real data could be observed. The model trained on real data outperformed the models trained on synthetic and the combined data. However, the synthetic data combined with the real data showed promise with reducing some of the bias intentionally introduced in the real dataset. Future research could focus on creating synthetic data for a problem where a good anomaly detection model already exists, with the goal of transferring some of the synthetic data generation model (such as the materials) to a new problem. This would be of interest in industries where they produce many different but similar objects and could reduce the time needed when starting a new machine learning project.
169

Unsupervised Image Enhancement Using Generative Adversarial Networks : An attempt at real-time video enhancement

Gustafsson, Fredrik January 2021 (has links)
As the world has become more connected meetings have moved online. However, since few have access to studio lighting and uses the embedded webcam the video quality can be far from good. Hence, there is an interest in using a software solution to enhance the video quality in real time. This thesis investigates the feasibility to train a machine learning model to automatically enhance the quality of images. The model must learn without using paired images, since it is difficult to capture images with the exact same content but different quality. Furthermore, the model has to process at least 30 images per second which is a common frequency for videos. Therefore, this thesis investigates the possibility to train a model without paired images and whether such a model can be used in real-time. To answer these questions several sizes of the same model was trained. These were evaluated using six different measures during in order to determine if training without paired data is possible. The models image enhancement capabilities and inference speed were investigated followed by attempts at improving the speed. Finally, different combinations of datasets were investigated to test how well the model generalised to new data. The results show that it is possible to train models for image enhancement without paired data. However, to use such a model in real time a graphics card is needed to reach above 30 images per second.
170

AI för en lyckad läsundervisning: : Pedagogers erfarenheter av att använda AI för att nivåkategorisera läsning och individanpassa läsundervisningen / AI for Successful Reading Instructions: : Educators' experiences of using AI to categorize reading levels and individualize reading instructions

Shafiee, Lejla January 2021 (has links)
Utvecklingen av teknologiska lösningar i skolan har ökat i en drastisk fart, liksom teknologi i övriga delar av samhället. Ögonrörelser vid läsning har tidigare visat sig ha en koppling till läsförmågan, bland annat från studier gjorda på dyslektiker. Ögonrörelsedata kan samlas in med eye-tracker när eleverna läser från en skärm för att analyseras av AI och nivåindela eleverna. Tjänsten tillhandahålls av Lexplore och har funnits tillgänglig för skolor att använda i ca. fem års tid. Till tjänsten tillkommer även ett lärprogram som följer SVR-modellen för läsning, kallat Lexplore Intensiv. I lärprogrammet ingår dels läslistor och böcker för att träna på avkodning och läsflyt, dels lingvistiska aktiviteter för att stimulera språkförståelse. Enligt SVR-modellen, och annan forskning, om läsutveckling föranleder avkodningen övriga delar av läsutvecklingen och ses som ett första steg till att få upp läsflytet. Därför ses automatisering av avkodningsförmågan som en viktig del av lästräning i unga åldrar. Studiens syfte var att undersöka i vilken utsträckning metoden med AI-screening och läslistor kunde bidra till kunskap och utveckling i skolan genom att få en förståelse för effekterna av att använda AI-verktyg för screening av elevers läsförmåga. I studien undersöktes även hur arbetet med läslistor har påverkat undervisningen och avkodningsförmågan hos elever på olika läsnivåer, ur pedagogers perspektiv. Studieresultaten visade att Lexplore-metoden och Lexplore Intensivs läslistor kan vara ett bidrag till att föra jämlikhet i skolan framåt. Detta genom att screeningen ses som objektiv och rättvis samt att resultatet kan användas för olika analyser som dels kan leda till punktinsatser för elever som är i behov av stöd och som dels kan användas på högre nivåer av resursfördelning. Studieresultatet visade också att metoden har underlättat för klasslärare, speciallärare och specialpedagoger i arbetet genom att frigöra tid, underlätta kommunikation och ge ett underlag att utgå ifrån i didaktisk planering. Intensivperioderna och läslistorna visade effekt på eleverna dels genom att de blev bättre på att läsa (vilket var både en upplevd effekt och en effekt som visades vid omscreening av eleverna), dels på ett personvärdesplan då eleverna upplevts som mer självsäkra.

Page generated in 0.0649 seconds