• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 218
  • 30
  • Tagged with
  • 248
  • 232
  • 229
  • 176
  • 163
  • 126
  • 126
  • 111
  • 80
  • 78
  • 62
  • 52
  • 52
  • 45
  • 42
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Extracting information about arms deals from news articles / Extrahering av information om vapenaffärer från nyhetsartiklar

Hernqvist, Fredrik January 2022 (has links)
The Stockholm International Peace Research Institute (SIPRI) maintains the most comprehensive publicly available database on international arms deals. Updating this database requires humans to sift through large amounts of news articles, only some of which contain information relevant to the database. To save time, it would be useful to automate a part of this process. In this thesis project we apply ALBERT, a state of the art Pre-trained Language Model for Natural Language Processing (NLP), to the task of determining if a text contains information about arms transfers and extracting that information. In order to train and evaluate the model we also introduce a new dataset of 600 news articles, where information about arms deals is annotated with lables such as Weapon, Buyer, Seller, etc. We achieve an F1-score of 0.81 on the task of determining if an arms deal is present in a text, and an F1-score of 0.77 on determining if a given part of a text has a specific arms deal-related attribute. This is probably not enough to entirely automate SIPRI’s process, but it demonstrates that the approach is feasible. While this paper focuses specifically on arms deals, the methods used can be generalized to extracting other kinds of information. / Stockholm International Peace Research Institute (SIPRI) tillhandahåller den största allmänt tillgängliga databasen med internationella vapenaffärer. För att hålla databasen uppdaterad måste människor sålla igenom stora mängder nyhetsartiklar, varav endast några innehåller information som är relevant för databasen. För att spara tid vore det bra att kunna automatisera en del av den processen. I det här examensarbetet använder vi ALBERT, en maskininlärningsmodell för behandling av naturliga språk (NLP), för att avgöra om en text innehåller information om vapenaffärer och för att extrahera den informationen. För att träna modellen skapar vi också ett dataset med 600 nyhetsartiklar, där information om vapenaffärer finns annoterad med attribut som Vapen, Köpare, Säljare, etc. Vi fick en F1-score på 0.81 på problemet att avgöra om en vapenaffär finns i en text, och en F1-score på 0.77 på problemet att avgöra om en given del av en text har ett specifikt vapenaffärsrelaterat attribut. Resultaten är förmodligen inte bra nog för att helt kunna automatisera SIPRIs process, men de demonstrerar att metoden är lovande. Det här examensarbetet fokuserar specifikt på vapenaffärer, men metoderna kan förmodligen generaliseras för att extrahera andra sorters information.
82

Hybrid pool based deep active learning for object detection using intermediate network embeddings

Marbinah, Johan January 2021 (has links)
With the advancements in deep learning, object detection networks have become more robust. Nevertheless, a challenge with training deep networks is finding enough labelled training data for the model to perform well, due to constraints associated with acquiring relevant data. For this reason, active learning is used to minimize the cost by sampling the unlabeled samples that increase the performance the most. In the field of object detection, few works have been done in exploring effective hybrid active learning strategies that exploit the intermediate feature embeddings in neural networks. In this work, hybrid active learning methods are proposed and tested, using various uncertainty sampling techniques and the well-respected core-set method as the representative strategy. In addition, experiments are conducted with network embeddings to find a suitable strategy to model representation of all available samples. Experiments show mixed outcomes as to whether hybrid methods perform better than the core-set method used separately. / Med framstegen inom djupinlärning, har neurala nätverk för objektdetektering blivit mer robusta. En utmaning med att träna djupa neurala nätverk är att hitta en tillräcklig mängd träningsdata för att ett nätverk ska prestera bra, med tanke på de begränsningar som är förknippade med anskaffningen av relevant data. Av denna anledning används aktiv maskininlärning för att minimera kostnaden med att förvärva nya datapunkter, genom att göra kontinuerliga urval av de omärkta bilder som ökar prestandan mest. När det gäller objektsdetektering har få arbeten gjorts för att utforska effektiva hybridstrategier som utnyttjar de mellanliggande lagren som finns i ett neuralt nätverk. I det här arbetet föreslås och testas hybridmetoder i kontext av aktiv maskininlärning med hjälp av olika tekniker för att göra urval av datamängder baserade på osäkerhetsberäkningar men även beräkningar med hänsyn till representation (core-set-metoden). Dessutom utförs experiment med mellanliggande nätverksinbäddningar för att hitta en lämplig strategi för att modellera representation av alla tillgängliga bilder i datasetet. Experimenten visar blandade resultat när det gäller huruvida hybridmetoderna presterar bättre i jämförelse med seperata aktiv maskininlärning strategier där core-set metoden inte används.
83

Detecting illegal gold mining sites in the Amazon forest : Using Deep Learning to Classify Satellites Images

Labbe, Nathan January 2021 (has links)
Illegal gold mining in the Amazon forest has increased dramatically since 2005 with the rise in the price of gold. The use of chemicals such as mercury, which facilitate the gold extraction, increases the toxicity of the soil and can enter the food chain, leading to health problems for the inhabitants, and causes the environmental scourge we know today. In addition, the massive increase in these activities favours deforestation and impacts on protected areas such as indigenous areas and natural reserves. Organisations and governments from Peru, Brazil and French Guyana in particular, are trying to regulate these activities, but the area to cover being very large, by the time illegal exploitation is detected it is often too late to react. The idea of this thesis is to evaluate whether it is possible to automate the task of detecting these illegal gold mines using open satellite images and deep learning. In order to answer this question, this report includes the creation of new datasets, as well as the evaluation of two techniques which are object detection using RetinaNet and semantic segmentation using U-Net. The influence of image spectral bands is also studied in this thesis. The numerous trained models are all evaluated using the Dice Coefficient and Intersection over Union metrics, and each comparison is supported by the statistical sign-test. The report shows the superiority of the segmentation model for the binary classification of illegal mines. However, it is suggested to first use RetinaNet to find out more precisely whether the mine is legal or illegal, and then to use U-Net if the mine is illegal in order to make a more precise segmentation. It also shows and illustrates the importance of using the right image spectral bands which greatly increases the accuracy of the models. / Den illegala guldutvinningen i Amazonas har ökat dramatiskt sedan 2005 i och med att guldpriset stigit. Användningen av kemikalier, exempelvis kvicksilver, underlättar guldutvinningen men ökar giftigheten i marken och kan komma in i näringskedjan. Detta leder till hälsoproblem för invånarna och orsakar det miljöplågeri som vi känner till i dag. Dessutom leder den massiva ökningen av dessa verksamheter till ytterligare avskogning i skyddade områden, vilket exempelvis påverkar ursprungsområden och naturreservat. Organisationer och regeringar i Peru, Brasilien och Franska Guyana försöker att reglera denna verksamhet, men eftersom det område som ska täckas är mycket stort är det ofta för sent att agera när olaglig exploatering upptäcks. Syftet med denna avhandling är att utvärdera om det är möjligt att automatisera uppgiften att upptäcka dessa illegala guldgruvor med hjälp av öppna satellitbilder och djup inlärning. För att besvara denna fråga omfattar denna rapport skapandet av nya datamängder samt utvärderingen av två tekniker som är objektsdetektering med hjälp av RetinaNet och semantisk segmentering med hjälp av U-Net. Inflytandet av bildens spektralband studeras också i denna avhandling. De tränade modellerna utvärderas alla med hjälp av Dice-koefficienten och Intersection over Union-måtten, och varje jämförelse stöds av det statistiska sign-testet. Rapporten visar att segmenteringsmodellen är extremt överlägsen när det gäller binär klassificering av illegala gruvor. Det föreslås dock att man först använder RetinaNet för att mer exakt ta reda på om gruvan är laglig eller olaglig, och sedan använder U-Net om gruvan är olaglig för att göra en mer exakt segmentering. Rapporten visar och illustrerar också vikten av att använda rätt bildspektralband, vilket ökar modellernas noggrannhet avsevärt
84

Advanced Side-Channel Analysis of USIMs, Bluetooth SoCs and MCUs

Brisfors, Martin January 2021 (has links)
The use of deep learning for side channel analysis has shown a lot of success in recent years. Impressive results have been presented by many researchers. However, critics of this approach have voiced concerns about the ad hoc methodologies and bespoke neural network designs used in many presented approaches. This thesis first analyzes a possibility of generalizing the selection of neural network architecture for side channel analysis. Then, it presents a simple model for a multilayer perceptron network that does not need to be altered for different targets. Experiments are conducted on three different data sets; power consumption measurements of USIMs, far-field electromagnetic measurements of a Bluetooth device, and power consumption measurements of dedicated XMega victim boards. For each of these sets a model is presented with equivalent or better than state-of-the art results for secret key recovery. Training and testing are done on separate devices in each case. One of the models achieves a classification accuracy of 94.5% from a single measurement. Furthermore, the target and the training device do not even share the same printed circuit board layout. Another model achieves a 47.4% classification accuracy from measurements captured in a manner that is possible in a real-world attack. The thesis also investigates if three different numerical ways of determining the leakage point in unprotected implementations of AES agree. The tests are applied to all three data sets. Finally the thesis evaluates whether the popular transformer architecture is beneficial for side channel analysis. / Användande av djupinlärning för sidokanalsanalys har haft stora framgångar de senaste åren. Imponerande resultat har presenterats av många forskare. Men kritiker av detta tillvägagångssätt har uttryckt oro över att metoderna är ad hoc, och att specialanpassade neuronnätverksdesigner används i många presenterade rapporter. Detta examensarbete undersöker först möjligheten att generalisera valet av neuronnätverksarkitekturer för sidokanalsanalys. Sedan presenterar jag en enkel modell för ett multilayer perceptron-nätverk som inte behöver anpassas för olika enheter. Experiment genomförs på tre olika dataset; strömförbrukningsmätningar av USIMs, elektromagnetiska mätningar i fjärrfält av en Bluetooth-enhet, och strömförbrukningsmätningar av dedikerade XMega sidokanalsanalys-enheter. För var och en av dessa enheter presenteras en modell med likvärdiga eller bättre resultat som tidigare publicerad forskning. Träning och testning görs på separata enheter i varje fall. En av modellerna uppnår en klassificeringsprecision på 94,5% från en enda mätning. Dessutom delar attackenheten och träningsenheten inte ens samma kretskortslayout. En annan modell uppnår en klassificeringsprecision på 47,4% från mätningar som gjorts på ett sätt som ar realistiskt i en verklig attack. Examensarbetet undersöker också om tre olika numeriska sätt att bestämma läckagepunkten i oskyddade implementeringar av AES överensstämmer. Testerna tillämpas på alla tre dataset. Slutligen utvärderar examensarbetet om den populära transformer-arkitekturen ar passande för sidokanalsanalys.
85

Deep Active Learning for Image Classification using Different Sampling Strategies

Saleh, Shahin January 2021 (has links)
Convolutional Neural Networks (CNNs) have been proved to deliver great results in the area of computer vision, however, one fundamental bottleneck with CNNs is the fact that it is heavily dependant on the ground truth, that is, labeled training data. A labeled dataset is a group of samples that have been tagged with one or more labels. In this degree project, we mitigate the data greedy behavior of CNNs by applying deep active learning with various kinds of sampling strategies. The main focus will be on the sampling strategies random sampling, least confidence sampling, margin sampling, entropy sampling, and K- means sampling. We choose to study the random sampling strategy since it will work as a baseline to the other sampling strategies. Moreover, the least confidence sampling, margin sampling, and entropy sampling strategies are uncertainty based sampling strategies, hence, it is interesting to study how they perform in comparison with the geometrical based K- means sampling strategy. These sampling strategies will help to find the most informative/representative samples amongst all unlabeled samples, thus, allowing us to label fewer samples. Furthermore, the benchmark datasets MNIST and CIFAR10 will be used to verify the performance of the various sampling strategies. The performance will be measured in terms of accuracy and less data needed. Lastly, we concluded that by using least confidence sampling and margin sampling we reduced the number of labeled samples by 79.25% in comparison with the random sampling strategy for the MNIST dataset. Moreover, by using entropy sampling we reduced the number of labeled samples by 67.92% for the CIFAR10 dataset. / Faltningsnätverk har visat sig leverera bra resultat inom området datorseende, men en fundamental flaskhals med Faltningsnätverk är det faktum att den är starkt beroende av klassificerade datapunkter. I det här examensarbetet hanterar vi Faltningsnätverkens giriga beteende av klassificerade datapunkter genom att använda deep active learning med olika typer av urvalsstrategier. Huvudfokus kommer ligga på urvalsstrategierna slumpmässigt urval, minst tillförlitlig urval, marginal baserad urval, entropi baserad urval och K- means urval. Vi väljer att studera den slumpmässiga urvalsstrategin eftersom att den kommer användas för att mäta prestandan hos de andra urvalsstrategierna. Dessutom valde vi urvalsstrategierna minst tillförlitlig urval, marginal baserad urval, entropi baserad urval eftersom att dessa är osäkerhetsbaserade strategier som är intressanta att jämföra med den geometribaserade strategin K- means. Dessa urvalsstrategier hjälper till att hitta de mest informativa/representativa datapunkter bland alla oklassificerade datapunkter, vilket gör att vi behöver klassificera färre datapunkter. Vidare kommer standard dastaseten MNIST och CIFAR10 att användas för att verifiera prestandan för de olika urvalsstrategierna. Slutligen drog vi slutsatsen att genom att använda minst tillförlitlig urval och marginal baserad urval minskade vi mängden klassificerade datapunkter med 79, 25%, i jämförelse med den slumpmässiga urvalsstrategin, för MNIST- datasetet. Dessutom minskade vi mängden klassificerade datapunkter med 67, 92% med hjälp av entropi baserad urval för CIFAR10datasetet.
86

Monolith to microservices using deep learning-based community detection / Monolit till mikrotjänster med hjälp av djupinlärningsbaserad klusterdetektion

Bothin, Anton January 2023 (has links)
The microservice architecture is widely considered to be best practice. Yet, there still exist many companies currently working in monolith systems. This can largely be attributed to the difficult process of updating a systems architecture. The first step in this process is to identify microservices within a monolith. Here, artificial intelligence could be a useful tool for automating the process of microservice identification. The aim of this thesis was to propose a deep learning-based model for the task of microservice identification, and to compare this model to previously proposed approaches. With the goal of helping companies in their endeavour to move towards a microservice-based architecture. In particular, the thesis has evaluated whether the more complex nature of newer deep learning-based techniques can be utilized in order to identify better microservices. The model proposed by this thesis is based on overlapping community detection, where each identified community is considered a microservice candidate. The model was evaluated by looking at cohesion, modularity, and size. Results indicate that the proposed deep learning-based model performs similarly to other state-of-the-art approaches for the task of microservice identification. The results suggest that deep learning indeed helps in finding nontrivial relations within communities, which overall increases the quality of identified microservices, From this it can be concluded that deep learning is a promising technique for the task of microservice identification, and that further research is warranted. / Allmänt anses mikrotjänstarkitekturen vara bästa praxis. Trots det finns det många företag som fortfarande arbetar i monolitiska system. Detta då det finns många svårigheter runt processesen av att byta systemaritekture. Första steget i denna process är att identifiera mikrotjänster inom en monolit. Här kan artificiell intelligens vara ett användbart verktyg för att automatisera processen runt att identifiera mikrotjänster. Denna avhandling syftar till att föreslå en djupinlärningsbaserad modell för att identifiera mikrotjänster och att jämföra denna modell med tidigare föreslagna modeller. Målet är att hjälpa företag att övergå till en mikrotjänstbaserad arkitektur. Avhandlingen kommer att utvärdera nyare djupinlärningsbaserade tekniker för att se ifall deras mer komplexa struktur kan användas för att identifiera bättre mikrotjänster. Modellen som föreslås är baserad på överlappande klusterdetektion, där varje identifierad kluster betraktas som en mikrotjänstkandidat. Modellen utvärderades genom att titta på sammanhållning, modularitet och storlek. Resultaten indikerar att den föreslagna djupinlärningsbaserade modellen identifierar mikrotjänster av liknande kvalitet som andra state-of-the-art-metoder. Resultaten tyder på att djupinlärning bidrar till att hitta icke triviala relationer inom kluster, vilket ökar kvaliteten av de identifierade mikrotjänsterna. På grund av detta dras slutsatsen att djupinlärning är en lovande teknik för identifiering av mikrotjänster och att ytterligare forskning bör utföras.
87

Volumetric Image Segmentation of Lizard Brains / Tredimensionell segmentering av ödlehjärnor

Dragunova, Yulia January 2023 (has links)
Accurate measurement brain region volumes are important in studying brain plasticity, which brings insight into the fundamental mechanisms in animal, memory, cognitive, and behavior research. The traditional methods of brain volume measurements are ellipsoid or histology. In this study, micro-computed tomography (micro-CT) method was used to achieve more accurate results. However, manual segmentation of micro-CT images is time consuming, hard to reprodu-ce, and has the risk of human error. Automatic image segmentation is a faster method for obtaining the segmentations and has the potential to provide eciency, reliability, repeatability, and scalability. Different methods are tested and compared in this thesis. In this project, 29 micro-CT scans of lizard heads were used and measurements of the volumes of 6 dierent brain regions was of interest. The lizard heads were semi-manually segmented into 6 regions and three open-source segmentation algorithms were compared, one atlas-based algorithm and two deep-learning-based algorithms. Dierent number of training data were quantitatively compared for deep-learning methods from all three orientations (sagittal, horizontal and coronal). Data augmentation was tested and compared, as well. The comparison shows that the deep-learning algorithms provided more accurate results than the atlas-based algorithm. The results also demonstrated that in the sagittal plane, 5 manually segmented images for training are enough to provide resulting predictions with high accuracy (dice score 0.948). Image augmentation was shown to improve the accuracy of the segmentations but a unique dataset still plays an important role. In conclusion, the results show that the manual segmentation work can be reduced drastically by using deep learning for image segmentation. / Noggrann mätning av hjärnregionsvolymer är viktigt för att studera hjärnans plasticitet, vilket ger insikt i de grundläggande mekanismerna inom djurstudier, minnes-, kognitions- och beteendeforskning. De traditionella metoderna för mätning av hjärnvolym är ellipsoid modellen eller histologi. I den här studien användes mikrodatortomografi (mikro-CT) metoden för att få mer korrekta resultat. Manuell segmentering av mikro-CT-bilder är dock tidskrävande, svår att reproducera och har en risk för mänskliga fel. Automatisk bildsegmentering är en snabb metod för att erhålla segmenteringarna. Den har potentialen att ge eektivitet, tillförlitlighet, repeterbarhet och skalbarhet. Därför testas och jämförs tre metoder för automatisk segmentering i denna studie. I projektet användes 29 mikro-CT-bilder av ödlehuvuden för att få fram volymerna hos 6 olika hjärnregioner. Ödlehuvudena segmenterades halvmanu- ellt i 6 regioner och tre segmenteringsalgoritmer med öppen källkod jämfördes (en atlasbaserad algoritm och två djupinlärningsbaserade algoritmer). Olika antal träningsdata jämfördes kvantitativt för djupinlärningsmetoder i alla tre plan (sagittal, horisontell och frontal). Även datautökning testades och analyserades. Jämförelsen visar att djupinlärningsalgoritmerna gav mer signifikanta resultat än den atlasbaserade algoritmen. Resultaten visade även att i det sagittala planet räcker det med 5 manuellt segmenterade bilder för träning för att ge segmenteringar med hög noggrannhet (dice värde 0,948). Datautökningen har visat sig förbättra segmenteringarnas noggrannhet, men ett unikt dataset spelar fortfarande en viktig roll. Sammanfattningsvis visar resultaten att det manuella segmenteringsarbetet kan minskas drastiskt genom att använda djupinlärning för bildsegmentering.
88

Neural Cleaning of Swedish Textual Data : Using BERT-based methods for Token Classification of Running and Non-Running Text / Rensning av svensk textdata med hjälp av neurala nätverk : Token-klassificering av text som löpande, eller inte löpande, med BERT-baserade metoder

Ericsson, Andreas January 2023 (has links)
Modern natural language processing methods requires big textual datasets to function well. A common method is to scrape the internet to acquire the needed data. This does, however, come with the issue that some of the data may be unwanted – for instance, spam websites. As a consequence, the datasets become larger and thus increasing training cost. This thesis defines text as written by humans as running text, and automatically generated texts as non-running text. The goal of the thesis was then to fine-tune the KB-BERT model, BERT pre-trained on Swedish textual data, to classify tokens as either running or non-running text. To do this, texts from the Swedish C4 corpus were manually annotated. In total, 1000 texts were annotated and used for the fine-tuning phase. As the annotated data was a bit skewed in favour of running-text, it was also tested how using class weights to balance the training data affected the end results. When using the BERT-based method with no class weights, the method got a precision and recall for non-running text of 95.13% and 78.84%, and for running text the precision and recall was 83.87% and 96.46%. When using class weights to balance the data, the precision and recall for non-running text were 90.08% and 87.4%, and for running text 89.36% and 92.40%. From these results, one can see that it is possible to alter how strict the model is depending on one’s needs, for instance, purpose and amount of available textual data by using class weights. The number of samples in the manually annotated dataset is too small to make a definite conclusion from, but this thesis shows that using a BERT-based method has the potential to handle problems such as these, as it produced much better results when compared to a more simple baseline-method. Therefore, further research in this area of natural language processing is encouraged. / Moderna språkteknologi-metoder behöver i regel en stor mängd data i form av text för att fungera väl. En vanlig metod för att samla ihop tillräckliga datamängder är att använda tekniker såsom webbskrapning. Detta leder dock i regel till problemet att man även får med oönskad data – till exempel spamhemsidor. Detta leder till att datamängden blir större, vilket innebär en ökad kostnad att träna modellen. Denna avhandling definierar text som löpande ifall den är skriven av människor, och automatiskt genererad text som icke-löpande. Målet med denna avhandling var sedan att finjustera KB-BERT, en BERT-modell som tidigare tränats med svensk text-data, för att klassificera tokens som antingen löpande eller icke-löpande text. För att genomföra detta så annoterades 1000 texter från den svenska delen av C4-korpuset manuellt som sedan användes för att finjustera KB-BERT. Då den annoterade datan innehöll mer löpande än icke-löpande text testades det också hur resultatet påverkades av att använda vikter för att jämna ut förhållandet. När den BERT-baserade metoden utan vikter användes så uppnåddes ett precision och recall för icke-löpande text till 95.13% respektive 78.84%, och för löpande text var precision och recall 83.87% respektive 96.46%. När vikter användes för att balansera datan, så var precision och recall för icke-löpande text 90.08% respektive 87.4%, och för löpande text 89.36% respektive 92.40%. Från dessa resultat kan man tydligt se att det är möjligt att påverka hur strikt modellen är. Hur strikt man vill att modellen ska vara kan variera beroende på, till exempel, ens syfte och hur mycket data man har tillgång till. Dock, det är viktigt att notera att mängden manuellt annoterad data är för liten för att kunna nå en definitiv slutsats. Däremot så visar denna avhandling att BERT-baserade metoder har potentialen att kunna användas för problem likt denna avhandlings frågeställning då den uppnådde mycket bättre resultat än den simplare metod de jämfördes med. Således uppmuntras fortsatt forskning inom detta område av språkteknologi.
89

Predicting Sales with Deep Learning in a Retail Setting / Förutsäga Försäljning i Detaljhandeln med Djupinlärning

Lundell, Victor January 2021 (has links)
Product pricing is an always present issue and there are a number of different traditional pricing strategies that can be applied depending on the situation. With an increasing amount of available data, as well as new improved methods to take advantage of this information, companies are presented with the opportunity to become more data driven in their decision making. The aim of this this thesis is to examine the possibilities of using statistical machine learning methods, more specifically neural networks, to predict what effect price changes have on sales numbers, and to identify what features are of importance when making these predictions. This would allow us to use a more data driven pricing strategy. The work is done in collaboration with Kjell \& Company, a Swedish consumer electronics retailer.  The results of this thesis shows that no predictions regarding sales can be done with any meaningful accuracy using the limited features available at the time of this thesis. More work has to be done in order to identify and quantify more value contributing features. Due to the limitations of the results presented here, no conclusions can be made regarding applying neural networks for these types of problems in general, based on the results of this report. However, the author still believes that it is a promising area of research, and that with a greater domain knowledge, interesting results could be achieved using similar methods. / Prissättning är ett alltid närvarande problem, och det finns ett antal olika traditionella strategier för prissättning som kan användas beroende på situationen. I samband med att mer och mer data blir tillgänglig, samt att nya metoder som kan användas för att ta tillvara på informationen läggs fram, presenteras företag med möjligheter att bli mer datadrivna i sitt beslutsfattande. Syftet med den här rapporten är att undersöka möjligheterna att använda statiska maskininlärningsmetoder, specifikt neurala nätverk, för att förutsäga vilken påverkan prisändringar har på försäljning samt vilka faktorer som är viktiga för att kunna göra dessa förutsägningar. Detta skulle innebära att man kan en mer datadriven prisstrategi. Arbetet görs i sammarbete med Kjell \& Company, en svensk butikskedja med fokus på hemelektronik. Resultaten av det här projektet tyder inte på det går att göra förutsägningar med någon meningsfull noggrannhet med den data som var tillgänglig. Mer arbete måste göras för att identifiera och kvantifiera nya parametrar, föreslagsvis parametrar med större koppling till värdeskapande faktorer. Baserat på de begränsade resultaten från detta arbete, går det inte att dra några slutsatser angående användandet av neurala nätverk i denna typ av problem i allmänhet. Dock anser författaren att det är ett lovande område med stora möjligheter, och att man med bättre domänkunskap borde kunna få fram intressanta resultat med liknande metoder.
90

Automatic segmentation of microstructures in metals : A computer vision approach / Automatisk segmentering av mikrostrukturer i metaller : Med hälp av datorseende

Larsen, Oscar January 2022 (has links)
The microstructures of a metal determine the physical, electrical and chemical properties of the metal, and analysis of microstructures is therefore an important part of materials science. Modern microscopes are capable of generating a lot of high-quality micrographs in a short period of time. Analysis of metallic micrographs has traditionally been done by human experts but with the drastic increase in imaging capabilities, it becomes incredible labor intensive for humans to manually analyze the images. A way of dealing with this is to utilize computers for automatic analysis of the micrographs. An important part of the microstructural analysis of a metal is being able to segment various microstructures from each other. This thesis looks into two different metallic microstructural segmentation problems: (1) being able to automatically infer grain size by finding grain boundaries in metallic micrographs by utilizing 2D convolutions and optimization, and (2) instance segmentation of 3D dendrite structures from volumetric images using a 3D CNN. The results from the first problem indicate that the proposed method works well for synthetic images, but not for real micrographs. The results from the second problem indicate that there is a lack of data for utilizing a CNN. / Mikrostrukturerna i en metal bestämmer fysiska, elektriska samt kemiska egenskaper hos metallen och analys av mikrostrukturer är därför en viktig del av materialvetenskapen. Moderna mikroskop är kapabla att generera många högupplösta mikroskopbilder på kort tid. Analys av metalliska mikrostrukturer har traditionellt sett utförts av mänskliga experter, men med den drastiska ökningen av förmågan att generera bilder blir det en otrolig arbetsbörda för människor att manuellt analysera bilderna. Ett sätt att hantera detta är att utnyttja datorer för att automatiskt analysera mikroskopbilderna. En viktig del av mikrostruktur-analysen är att kunna segmentera olika mikrostrukturer från varandra. Denna avhandling tittar närmare på två olika problem inom segmentering av metalliska mikrostrukturer: (1) att automatisk kunna bestämma kornstorlek genom att hitta korngränser i mikroskopbilder av metaller med hjälp av 2D faltning och optimering, samt (2) instans-segmentering av 3D dendritstrukturer utifrån volymetriska bilder med hjälp av en 3D CNN. Resultaten från första problemet indikerar att den föreslagna metoden fungerar väl för syntetiska bilder, men inte för riktiga mikroskopbilder. Resultaten från andra problemet indikirerar att det finns en brist på data för att utnyttja en CNN.

Page generated in 0.0517 seconds