• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 618
  • 200
  • Tagged with
  • 818
  • 715
  • 705
  • 447
  • 392
  • 335
  • 327
  • 250
  • 214
  • 153
  • 148
  • 147
  • 121
  • 118
  • 117
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Intelligent valutarobot / Intelligent Exchange Rate Robot Using Python

Strandberg, Joakim January 2020 (has links)
I dagens samhälle har informationsflödet ökat dramatiskt bara de senaste åren. Vi ser det genom sociala medier och en utveckling mot att vi ska vara konstant uppkopplade mot internet och olika tjänster, som bombarderar oss med ny information. En digital verklighet som ställer högre krav och som kräver mer och mer interaktion från oss användare och system som är uppdaterade. Utveckling har även tagit fart inom Artificell Intelligence och machine learning som används för att vi som användare ska kunna få information som vi förväntas vilja ha. Umeå universitet handlar frekvent med andra länder i olika valutor. Den dagen fakturorna i utländska valutor betalas sätter banken växelkursen för varje valuta. Skillnaden mellan bankens valutakurser och de som finns i ekonomisystemet måste bokas om manuellt vilket skapar ett behov att ha sina valutakurser uppdaterade. Dagsaktuella valutakurser finns att hämta via ett stort antal så kallade application programming interfaces (API)er världen över. Denna uppsats handlar om framtagandet av en applikation i programmeringsspråket Python som ska kunna hämta valutakurser med en viss frekvens från ett antal olika API beroende på användarens val. Applikationen ska göra en rimlighetsbedömning av valutakurserna innan de läses in i ekonomisystemet, detta för att säkerställa korrekta och uppdaterade data. Hela processen ska vara automatisk efter det att användaren gör ett val av API i applikationen. En ytterligare möjlighet med applikationen är att använda historiska data för prediktion av valutakursen vid en framtida tidpunkt. Jag har i denna uppsats valt att använda gratisversioner, men det finns naturligtvis möjlighet att få mer eller mindre data i realtid om man väljer betalversionerna och sålunda skapa ännu bättre analysmaterial för mer exakta prediktioner av framtida valutakurser.
82

AI:s upplevda möjligheter och utmaningar : Ekonomernas perspektiv på AI och dess inverkan på yrkesrollen

Almalla, Mohammad Tarek, Eassa, Iyad January 2023 (has links)
Artificial intelligence (AI) has entered the accounting sector, raising both hope and fear among economists worldwide. It is a revolution that challenges our understanding of the workplace and forces us to ask questions about our own role in this new reality. Economists face a development that is filled with various opportunities and obstacles as AI takes over routine tasks and leaves room for creativity and strategic thinking. The idea of being freed from repetitive tasks is enticing, but what opportunities and challenges do economists experience in connection with the introduction of AI? This study highlights the economists' perspectives and experiences when they encounter AI in their work tasks. By examining economists' acceptance of AI and their experiences of working with the technology, the study gains insight into the complex dynamics between man and machine. We delve into the theory and explore the Technology Acceptance Model (TAM) as a guide to understanding how economists accept or reject AI. Through qualitative interviews with eight economists, we take part in their thoughts and reflections. We review previous research and analyze the results along with economists responses to discover patterns and insights. The results show that the economists' perceived benefits regarding AI's implementation are more at the individual level rather than the organizational level, i.e. AI primarily benefits the economists themselves rather than the entire organization. While perceived disadvantages are at both the individual and organizational level, which means that the disadvantages of AI affect both individual economists and the organization. The uncertainty is based on a lack of knowledge, but filling the knowledge gap can facilitate acceptance and ensure success in this revolutionary age.
83

Artificiell intelligens i rekryteringsprocessen : En undersökning om användningen av artificiell intelligens för utvärdering av kandidaters hårda och mjuka förmågor

Jonsson, Ivar, Ström, Love January 2023 (has links)
No description available.
84

AI for Cybersecurity : A Study on Machine Learning and DoS Attacks AI Robustness and Bypassing Detection Methods

Matti, Molin, Fredrik, Böhme January 2023 (has links)
Cybercrime has increased for several years; both in volume andsophistication. When the capabilities of threat actors increase, techniques andtactics within cybersecurity also need to evolve. AI and machine learninghave potential to prevent and mitigate attacks. This report explores thepossible usage of machine learning for detection of DoS attacks, and furtherinvestigates the potential consequences of adversarial machine Learning. Weuse decision tree model that we train on publicly available DoS attack data.Then we use five computers to perform DoS attacks against a web server andcreate a machine learning model that attempts to detect the attacks based onthe attack's characteristics. In addition, we analyse the consequences ofadversarial machine learning with data poisoning. Our results show thepotential of using machine learning to detect DoS attacks and the dangers ofpoisoning attacks in this context. / Cyberbrottslighet har ökat i både mängd och komplexitet de senaste åren. Närkunskapen och förmågorna hos hotaktörer ökar behöver även teknikerna ochtaktikerna som används inom cybersäkerhet hänga med. AI ochmaskininlärning är verktyg som kan användas för att förebygga attacker. Idetta projekt undersöker vi användning av maskininlärning för att upptäckaDoS attacker. Dessutom undersöker vi de konsekvenserna av angrepp motsjälva maskininlärningsmetoden. Vi börjar med att utföra DoS attacker emotett system och sedan skapar vi en maskininlärningsmodell som försökerupptäcka attackerna utifrån attackernas egenskaper. Sedan undersöker vi vadkonsekvenserna kan bli vid attacker mot maskininlärning via poisoning. Våraresultat visar dels potentialen för maskininlärning vid DoS attacker, och delsfarorna med poisoning.
85

Att använda maskininlärning som försvar mot desinformation / The use of machine learning as defense against disinformation

Rundquist, Felix January 2023 (has links)
Desinformation, eller fake news som det kallas i vissa sammanhang, är ett problem som i samband med internet blivit allt större. Vare sig det gäller politiska val, falska påståenden om Covid-19 eller krigspropaganda så lever vi idag i vad vissa kallar för en infodemi. Begreppet syftar på det hav av både sann och falsk information som finns inom den digitala världen idag som det är väldigt lätt att drunkna i (World Health Organisation, 2020). Det ökade hotet har inte bara gjort det mer relevant att forska om desinformation som problem men även för forskning som ämnar att lösa problemet. Det finns flera olika typer av lösningar men maskininlärningsalgoritmer är en av de vanligaste samt det som detta arbete har undersökt (Gradon et al., 2021). Den frågeställning som arbetet har haft som mål att besvara är följande:“Vad är det som gör maskininlärning till ett effektivt skydd när det används för att identifiera desinformation?” Genom en kvalitativ fallstudie har semistrukturerade intervjuer genomförts med målet att besvara frågan mer på djupet och i detalj. Med metoden genererades ett resultat som förhoppningsvis underlättar att avgöra vad som gör maskininlärningsalgoritmer effektiva på att identifiera desinformation. I resultatet framkom det totalt 11 olika delområden där flera kategoriseras som argument till varför det är en effektiv lösning, samt argument som talar för att de inte är det. Det gjordes även fynd i form av förbättringsförslag som skulle kunna öka effektiviteten. Positiva argument som hittades är följande: 1) Maskininlärning är automatiserat, 2) Maskininlärningsalgoritmer arbetar snabbare än människor, 3) Maskininlärning kan agera snabbt mot nya hot, 4) Maskininlärning hittar mönster enklare än vad människor gör, 5) Maskininlärningsalgoritmer blir bättre ju mer de används. Negativa arguments som hittades är: 6) Maskininlärningsalgoritmer kan manipuleras, 7) Maskininlärningsalgoritmer kan missbrukas, 8) Hur processen går till med maskininlärning kan vara otydlig. Förbättringsförslag som hittades är: 9) Manuellövervakning av maskininlärningsalgoritmer, 10) Nya tekniker inom maskininlärning, 11) Att kombinera maskininlärningsalgoritmer med filter.
86

Predicting future purchases with matrix factorization

Hojlas, Azer, Paulsrud, August January 2022 (has links)
This thesis aims to establish the efficacy of using matrix factorization to predict future purchases. Matrix factorisation is a machine learning method, commonly used to implement the collaborative filtering recommendation system. It finds items that a user may be interested in by comparing items that other similar users have rated, explicitly or implicitly, highly. To fulfill the purpose of the thesis, a qualitative and comparative approach was taken. First, three different implementations of matrix factorisation were created and trained on one year of purchase histories. Two generic methods of predicting future purchases, picking a random item and picking the top selling items, were also created to serve as a point of comparison. The ability to predict future purchases was established as the proportion of correct predictions a method could make. All five methods were then tested using a separate data set and the results compared. The results clearly show that matrix factorisation models are better at predicting future purchases than the generic models. However, the difference between the matrix factorization models was comparatively small. A notable discovery was that there was a decrease in the gap between all methods ability of predicting future purchases, as more predictions are made. The method of predicting a random item fared poorly, correctly predicting cumulatively less than one tenth of any other method. / Denna avhandling syftar till att fastställa matrisfaktoriseringens förmåga att förutsäga framtida köp. Matrisfaktorisering är en maskininlärningsmethod som vanligen används för att implementera rekommendationssystemet för kollaborativ filtrering. Den hittar artiklar som en användare kan vara intresserad av genom att jämföra artiklar som liknande användare har betygsatt högt, uttryckligen eller implicit. För att uppfylla avhandlingens syfte har en kvalitativ och jämförande studie genomförts. Först skapades tre olika matrisfaktoriserings modeler som tränades på ett års köphistorik. Två enkla metoder för att förutsäga framtida köp, att välja ett slumpmässigt föremål och välja de mest sålda föremålen, skapades också för att möjliggöra jämförelser. Möjligheten att förutsäga framtida köp fastställdes som andelen korrekta förutsägelser en metod kunde göra. Alla fem metoderna testades sedan med en separat datamängd och resultaten jämfördes. Resultaten visar tydligt att matrisfaktoriseringsmodeller är bättre på att förutsäga framtida köp än de enkla modellerna. Skillnaden mellan matrisfaktoriseringsmodellerna var dock jämförelsevis liten. En anmärkningsvärd upptäckt var att gapet mellan alla metoders förmåga att förutsäga framtida köp minskade, desto fler förutsägelser som gjordes. Metoden att förutsäga ett slumpmässigt objekt presterade dåligt, då kumulativa andelen korrekta förutsägelser var mindre än en tiondel av någon av de andra metoderna.
87

Emergency Department Triage Prediction of Emergency Severity Index using Machine Learning Models / Akutmottagningens förutsägelse av Emergency Severity Index med hjälp av Maskininlärningsmodeller

Sekandari, Zohib, Saleh, Shahin January 2019 (has links)
Study Objective: The emergency department (ED) in the United States strongly rely on subjective assessment of patients. This study seeks to evaluate an electronic triage system based on machine learning models that can predict the patients emergency severity index (ESI). Methods: A dataset containing 560 486 patients triage data was investigated.Three different machine learning models was tested and evaluated. A crossvalidation table and a confusion matrix was conducted from each of the models. The precision rate, recall rate and f1-score were calculated and reported. Result: The Gradient Boosting model returned an accuracy rate of 68%. The random forest model returned an accuracy rate of 66%. The Gaussian Naive Bayesmodel returned an accuracy rate of 25%. Conclusion: The model that best predicted the ESI-level is the GradientBoosting model. Further testing is needed with better computational power since we could not train our model with the whole dataset. / Syfte: Akutmottagningen i USA förlitar sig kraftigt på en subjektiv värdering av patienter. Denna studie söker efter att evaluera ett elektronisk triage systembaserad på maskininlärningsmodeller som kan förutse patienters ESI. Metod: Ett data set som innehåller 560 486 patienters triage data har undersökts. Tre olika maskininlärningsmodeller har testats och evaluerats. En cross validation tabell och en confusion matrix har skapats för varje modell. Precision, recall och f1 värde har kalkylerats och rapporterats. Resultat: Gradient Boosting modellen har returnerat ett accuracy värde av 68%. Random Forest modellen har returnerat ett accuracy värde av 66%. Gaussian Naive Bayes modellen har returnerat ett accuracy värde av 25%. Slutsats: Modellen som har bäst förutsett ESI nivåerna är Gradient Boostingmodellen. Flera tester behövs med starkare beräkningskraft då vi inte kunde träna vår modell med hela datasetet.
88

A Machine Learning Approach for Comprehending Cosmic Expansion / Användning av maskininlärning för att förstå kosmisk expansion

Doeser, Ludvig January 2021 (has links)
This thesis aims at using novel machine learning techniques to test the dynamics of the Universe via the cosmological redshift-distance test. Currently, one of the most outstanding questions in cosmology is the physical cause of the accelerating cosmic expansion observed with supernovae. Simultaneously, tensions in measurements of the Hubble expansion parameter $H_0$ are emerging. Measuring the Universe expansion with next generation galaxy imaging surveys, such as provided by the Vera Rubin Observatory, offers the opportunity to discover new physics governing the Universe dynamics. In this thesis, with the long-term goal to unravel these peculiarities, we create a deep generative model in the form of a convolutional variational auto-encoder (VAE), trained with a "Variational Mixture of Posteriors" prior (VampPrior) and high-resolution galaxy images from the simulation project \texttt{TNG-50}. Our model is able to learn a prior on the visual features of galaxies and can generate synthetic galaxy images which preserve the coarse features (shape, size, inclination, and surface brightness profile), but not finer morphological features, such as spiral arms. The generative model for galaxy images is applicable to uses outside the scope of this thesis and is thus a contribution in itself. We next implement a cosmological pinhole camera model, taking angular diameter changes with redshift into account, to forward simulate the actual observation on a telescope detector. Building upon the hypothesis that certain features of galaxies should be of proper physical sizes, we use probabilistic triangulation to find the comoving distance $r(z,\Omega)$ to these in a flat ($K=0$) Universe. Using a sample of high-resolution galaxy images from redshifts $z\in[0.05,0.5]$ from \texttt{TNG-50}, we demonstrate that the implemented Bayesian inference approach successfully estimates $r(z)$ within $1\sigma$-error ($\Delta r_{\text{est}} = 140$ $(580)$ Mpc for $z=0.05$ $(0.5)$). Including the surface brightness attenuation and utilizing the avalanche of upcoming galaxy images could significantly lower the uncertainties. This thesis thus shows a promising path forward utilizing novel machine learning techniques and massive next-generation imaging data to improve and generalize the traditional cosmological angular-diameter test, which in turn has the potential to increase our understanding of the Universe. / Denna avhandling syftar till att använda nya maskininlärningstekniker för att testa universums dynamik via det kosmologiska rödförskjutningsavståndstestet. För närvarande är en av de mest framstående frågorna inom kosmologi den fysiska orsaken till den accelererande kosmiska expansionen som observerats med supernovor. Samtidigt uppstår spänningar i mätningar av Hubble-expansionsparametern $H_0$. Att mäta universums expansion med nästa generations galaxundersökningar, såsom de som ska genomföras av Vera Rubin Observatory, ger möjlighet att upptäcka ny fysik som styr universums dynamik. I den andan skapar vi i den här avhandlingen en djup generativ modell i form av en "convolutional variational auto-encoder" (VAE), tränad med en "Variational Mixture of Posteriors" prior (VampPrior) och högupplösta galaxbilder från simuleringsprojektet \texttt{TNG-50}. Vår modell kan lära sig en "prior" om galaxernas visuella egenskaper och kan generera syntetiska galaxbilder som bevarar de grova dragen (form, storlek, lutning och ytans ljusprofil), men inte finare morfologiska egenskaper, såsom spiralarmar. Den generativa modellen för galaxbilder är tillämplig på användningar som inte omfattas av denna avhandling och är därmed ett bidrag i sig. Därefter implementerar vi en kosmologisk hålkameramodell, med vilken hänsyn till förändringar i vinkelstorleken med rödförskjutning tas, för att framåt-simulera den faktiska observationen på en teleskopdetektor. Med utgångspunkt från hypotesen att galaxer i grunden borde ha gemensamma egenskaper med liknande fysiska storlekar, använder vi probabilistisk triangulering för att hitta avståndet (s.k. "comoving distance") $ r (z, \Omega) $ till dessa i ett platt ($ K = 0 $) universum. Med hjälp av ett urval av högupplösta galaxbilder från rödförskjutningar $ z \in [0.05,0.5] $ från \texttt {TNG-50} visar vi att den implementerade "Bayesian inference"-metoden framgångsrikt uppskattar $ r (z) $ inom $ 1 \sigma $ felmarginaler ($ \Delta r _ {\text{est}} = 140 $ $ (580) $ Mpc för $ z = 0,05 $ $ (0,5) $). Att inkludera dämpning i ytljusstyrka med rödförskjutning och att använda den massiva mängd av kommande galaxbilder skulle kunna minska den erhållna osäkerheten betydligt. Denna avhandling visar således en lovande väg framåt med nya maskininlärningstekniker och kommande enorma mängder av galaxbilder för att förbättra och generalisera det traditionella kosmologiska vinkeldiametertestet, vilket i sin tur har potentialen att öka vår förståelse om universum.
89

Machine Learning Based Beam Tracking in mmWave Systems / Maskininlärningsbaserad Strålspårning i mmWave-system

Yang, Yizhan January 2021 (has links)
The demand for high data rates communication and scarcity of spectrum in existing microwave bands has been the key aspect in 5G. To fulfill these demands, the millimeter wave (mmWave) with large bandwidths has been proposed to enhance the efficiency and the stability of the 5G network. In mmWave communication, the concentration of the transmission signal from the antenna is conducted by beamforming and beam tracking. However, state-of-art methods in beam tracking lead to high resource consumption. To address this problem, we develop 2 machine-learning-based solutions for overhead reduction. In this paper, a scenario configuration simulator is proposed as the data collection approach. Several LSTM based time series prediction models are trained for experiments. Since the overhead is reduced by decreasing the number of sweeping beams in solutions, multiple data imputation methods are proposed to improve the performance of the solution. These methods are based on Multiple Imputation by Chained Equations (MICE) and generative adversarial networks. Both qualitative and quantitative experimental results on several types of datasets demonstrate the efficacy of our solution. / Efterfrågan på hög datahastighetskommunikation och brist på spektrum i befintliga mikrovågsband har varit nyckelaspekten i 5G. För att uppfylla dessa krav har millimetervåg (mmWave) med stora bandbredder föreslagits för att förbättra effektiviteten och stabiliteten i 5G-nätverket. I mmWavekommunikation utförs koncentrationen av överföringssignalen från antennen genom strålformning och strålspårning. Toppmoderna metoder inom strålspårning leder dock till hög resursförbrukning. För att lösa detta problem utvecklar vi två maskininlärningsbaserade lösningar för reduktion av omkostnader. I det här dokumentet föreslås en scenariokonfigurationssimulator som datainsamlingsmetod. Flera LSTM-baserade modeller för förutsägelse av tidsserier tränas för experiment. Eftersom omkostnaderna reduceras genom att minska svepstrålarna i lösningar föreslås flera datainputeringsmetoder för att förbättra lösningens prestanda. Dessa metoder är baserade på Multipel Imputation by Chained Equations (MICE) och generativa kontroversiella nätverk. Både kvalitativa och kvantitativa experimentella resultat på flera typer av datamängder visar effektiviteten i vår lösning.
90

Machine Learning Models for Estimating Temperatures of Electric Powertrains

Li, Dinan January 2022 (has links)
Towards a sustainable future, more and more powertrains are being electrified today, thus it is important to prevent unwanted failures and secure a reliable operation. Monitoring the internal temperatures of powertrains and keeping them under their thresholds is an important first step. Traditional modeling methods require expert knowledge and complicated modeling. With all the operating information an electric drive can collect nowadays about the whole powertrain, it becomes possible to apply black boxed machine learning to do the temperature estimating job. In this thesis, multiple machine learning algorithms are tested on their ability to estimate temperatures of the rotor fin, the stator winding, the bearing, and the power module case. The tested algorithms range from an ordinary least square to a deep neuron network. For this purpose, about 150 hours of data are recorded by letting the system run under predefined operating conditions. A hyperparameter search is also conducted for each model to find the best configuration. All the algorithms are evaluated by several metrics. It has been found that neuron networks can perform quite well even under fast transient conditions without any expert knowledge. / Mot en hållbar framtid elektrifieras fler och fler drivlinor idag, därför är det viktigt att förhindra oönskade haverier och säkra en tillförlitlig drift. Att övervaka drivlinornas interna temperaturer och hålla dem under sina trösklar är ett viktigt första steg. Traditionella modelleringsmetoder kräver expertkunskap och komplicerad modellering. Med all driftinformation som en elektrisk drivenhet kan samla in nuförtiden om hela drivlinan, blir det möjligt att tillämpa black boxed machine learning för att utföra temperaturuppskattningsjobbet. I den här avhandlingen testas flera maskininlärningsalgoritmer på deras förmåga att uppskatta temperaturer på rotorfenan, statorlindningen, lagret och kraftmodulhuset. De testade algoritmerna sträcker sig från ett vanligt minsta kvadrat till ett djupt neuronnätverk. För detta ändamål registreras cirka 150 timmars data genom att låta systemet köras under fördefinierade driftsförhållanden. En hyperparametersökning görs också för varje modell för att hitta den bästa konfigurationen. Alla algoritmer utvärderas av flera mätvärden. Det har visat sig att neuronnätverk kan fungera ganska bra även under snabba transienta förhållanden utan någon expertkunskap.

Page generated in 0.0531 seconds