141 |
Hur kan artificiell intelligens hjälpa till att identifiera cyberhot i små och medelstora företag? / How can artificial intelligence help identify cyber threats in SMEs?Gauriye, Samuel January 2024 (has links)
Artificiell intelligens (AI) är en maskins förmåga att visa människoliknande egenskaper såsom inlärning, problemlösning, planering och kreativitet. Genom att använda stora datamängder och avancerade algoritmer kan AI-system lära sig att utföra uppgifter som tidigare har krävt mänsklig intelligens, med en ofta överlägsen effektivitet och precision. Maskininlärning och djupinlärning är avancerade metoder inom AI som gör att datorer har förmågan att lära sig av data och fatta intelligenta beslut. Cyberhot drabbar idag både små och medelstora företag, och det är avgörande att utforska hur AI kan användas för att proaktivt förhindra dessa hot för att skydda företagen och säkra framtiden för dem. Trots AI:s stora potential finns det utmaningar som måste tas itu med för att fullt utnyttja dess potential i kampen mot cyberhot eftersom hackare och cyberkriminella blir allt mer sofistikerade och anpassar sig snabbt till nya tekniker. För att utreda hur AI kan hjälpa små och medelstora företag att förhindra cyberhot har en kvalitativ ansats använts där detaljerad information har samlats in från intervjuer med experter som har erfarenhet av att arbeta med detta område. AI har visat att dess förmåga att analysera stora datamängder på kort tid har varit en avgörande faktor för att upptäcka och förhindra cyberhot i god tid innan företaget tar allvarlig skada. Denna snabba analys av data som utgörs av AI har resulterat i att AI-system kan identifiera mönster som kan missas av mänskliga analytiker, vilket ger en betydande fördel för företagen i kampen mot cyberhot. Trots företagens begränsade resurser lyckas utvecklingen och implementeringen av AI-system verkställas och det leder till att framtiden ser ljus ut med hopp och möjligheter.
|
142 |
Classifying laser solders : Machine learning in production / Klassificering av laserlödning : Maskininlärning i produktionRhönnstad, Jonas, Rojroung, Kevalin January 2024 (has links)
Advancements in machine learning and artificial intelligence has created opportunities for vast improvements in the manufacturing sector. This study was conducted at a world-leading manufacturing company with the goal to assist in the development of a framework for application of machine learning in the company's operational workflow. Specifically, with the aim to investigate the potential benefits and pitfalls when utilizing machine learning to supervise a laser soldering process. This thesis analyzes and designs all the required steps for a machine learning approach for this specific manufacturing process. This included (1) image capturing, (2) preprocessing, (3) modelling, (4) testing and (5) functional tool. The thesis also discusses strategies for dealing with limitations posed by the industrial environment, for example unattainable process data and imbalanced datasets. In conclusion, it became evident that for a machine learning approach in an industrial setting it is crucial to understand the underlying process, the importance of a reliable data collection setup as well as the necessity of a proper framework. The thesis also proposes a sliding window approach as a preprocessing method for similar image classification tasks. / Framsteg inom maskininlärning och artificiell intelligens har banat vägen för omfattande förbättringar inom tillverkningsindustrin. Denna studie genomfördes på ett världsledande tillverkningsföretag för att stödja utvecklingen av ett ramverk kring hur maskininlärning kan appliceras inom deras operativa flöde. Syftet var specifikt att undersöka de potentiella fördelarna och fallgroparna med att utnyttja maskininlärning för övervakning av en laserlödningsprocess. Denna rapport undersökte och konstruerade alla nödvändiga steg för hur maskininlärning kan appliceras på denna specifika produktionsprocess. Detta inkluderar (1) bildtagning, (2) dataförbehandling, (3) modellering, (4) testning och (5) slutgiltig implementation. Rapporten diskuterar även strategier för att hantera de begränsningar som uppstod på grund av den industriella miljön, till exempel otillgänglig processdata och obalanserad data. Avslutningsvis, så var det uppenbart att förståelsen för den underliggande processen, vikten av en tillförlitlig anordning för datainsamlig samt behovet för ett tillbörligt ramverk för maskininlärning inom företaget är avgörande. Rapporten förslår även en "sliding window" ansats som preprocessering metod för liknade cases inom bildklassificering.
|
143 |
Hierarchical Initial Condition Generator for Cosmic Structure Using Normalizing Flows / Hierarkisk generator av begynnelsetillstånd till kosmisk struktur med användning av normaliserade flödenHolma, Pontus January 2024 (has links)
In this report, we present a novel Bayesian inference framework to reconstruct the three-dimensional initial conditions of cosmic structure formation from data. To achieve this goal, we leverage deep learning technologies to create a generative model of cosmic initial conditions paired with a fast machine learning surrogate model emulating the complex gravitational structure formation. According to the cosmological paradigm, all observable structures were formed from tiny primordial quantum fluctuations generated during the early stages of the Universe. As time passed, these seed fluctuations grew via gravitational aggregation to form the presently observed cosmic web traced by galaxies. For this reason, the specific shape of a configuration of the observed galaxy distribution retains a memory of its initial conditions and the physical processes that shaped it. To recover this information, we develop a novel machine learning approach that leverages the hierarchical nature of structure formation. We demonstrate our method in a mock analysis and find that we can recover the initial conditions with high accuracy, showing the potential of our model. / I detta examensarbete presenteras ett ramverk baserat på Bayesiansk inferens för att rekonstruera de tredimensionella begynnelsevärdena av kosmisk struktur från data. För att uppnå detta har tekniker från djupinlärning använts för att skapa en generativ modell av kosmiska begynnelsevärden, vilket parats ihop med en snabb maskininlärningsmodell som efterliknar den komplexa gravitationella strukturformationen. Utifrån moderna teorier inom kosmologi skapades alla observerbara strukturer i universum från små kvantfluktuationer i det tidiga universumet. Allt eftersom tiden gick har dessa fluktuationer vuxit via gravitationella krafter för att forma det av galaxer uppspända kosmiska nät som idag kan observeras. På grund av detta bibehåller en specifik form av en konfiguration av den observerade galaxdistributionen ett minne av sina begynnelsevärden och de fysikaliska processer som formade den. För att återfå denna information presenteras en maskininlärningsmetod som utnyttjar den hierarkiska naturen av strukturformation. Metoden demonstreras genom ett modelltest som påvisar att begynnelsevärdena kan återfås med hög noggrannhet, vilket indikerar modellens potential.
|
144 |
Artificiell intelligens inom IT-forensik : Kan AI effektivisera brottsutredningarCarlsson, Felix, Rapp, Ted January 2024 (has links)
Artificiell intelligens är ett snabbt utvecklande område som gör det möjligt att automatisera och effektivisera arbetsuppgifter, vilket kan behövas när vi genererar mer mängder data än någonsin. Syftet med denna uppsats var att undersöka potentialen i att integrera AI inom IT-forensiska brottsutredningar. Genom en litteraturöversikt visades det hur olika tekniker inom AI kunde appliceras för att underlätta för dagens IT-forensiska utredare. Genom ett experiment demonstrerades också hur AI-applikationen “objektdetektering” kunde underlätta IT-forensiskt arbete inom bildanalys.
|
145 |
Artificiell intelligens som verktyg och ämne i gymnasiet : En intervjustudie bland lärare och elever på skolor i Karlstad och Örebro / Artificial Intelligence as a tool and subject in Swedish Upper Secondary SchoolDeprem, Mehmet January 2024 (has links)
Studien undersöker hanteringen av generativ artificiell intelligens i utbildningssammanhang bland lärare och elever inför att det kan erbjudas som ämne i svenska gymnasieskolor. Beslutet att kunna erbjuda ett AI ämne i gymnasieskolor har tagits från Skolverket. Syftet med studien är att undersöka hur generativ AI används i undervisningssammanhang vid Sundsta-Älvkulle gymnasiet i Karlstad och det tekniska Tullängsgymnasiet i Örebro, samt om införandet av artificiell intelligens som ämne skulle kunna bidra till ett gemensamt förhållningssätt och ett reflekterat användande hos eleverna. För att uppfylla syftet med studien utforskades tre huvudområden som utgör undersökningsfrågorna. På vilket sätt används generativ AI för närvarande i undervisningen? Vilka utmaningar och möjligheter finns det med att undervisa AI som ämne i skolorna? Hur kan införandet av AI som ämne påverka elevernas förståelse för användning av generativ AI som verktyg? Författaren av studien har valt en kvalitativ inriktad forskning genom att samla in material, studera tidigare forskning och utföra semi-strukturerade intervjuer där totalt 12 personer intervjuades, 3 lärare och 3 elever från respektive gymnasieskola för att besvara studiens undersökningsfrågor. Resultatet visar att användningen av generativa AI-verktyg förekommer både bland lärare och elever där majoriteten av lärarna anser att det underlättar i arbetet för att utforma lektioner. Elevernas användning är utbredd där samtliga elever använder generativa AI-verktyg. Lärarna ser ett behov av utbildning kring artificiell intelligens för att kunna stödja eleverna i att använda verktygen på ett reflekterat sätt och ser potentialen som det kan medföra i elevernas studier. I de två gymnasieskolorna finns det olika utmaningar när det gäller undervisning i ett AI ämne. Gymnasieskolan i Karlstad kommer att erbjuda ämnet höstterminen 2024 och vid det tekniska gymnasiet i Örebro finns redan ett AI ämne sedan tidigare. Studien visar att det finns utmaningar med att hinna implementera AI som ämne och utveckla den kompetens som krävs i Karlstad, kritik riktas även mot de behörighetskrav Skolverket tagit fram för att lärare ska få undervisa i ämnet. Att kunskaper för Sveriges elever är viktiga finns det en gemensam syn kring i de båda gymnasieskolorna och för att kunna skapa ett gemensamt förhållningssätt krävs det utbildningar om AI som är ämnesspecifika för lärare på gymnasieskolorna.
|
146 |
Federated Learning for Natural Language Processing using Transformers / Evaluering av Federerad Inlärning tillämpad på Transformers för klassificering av analytikerrapporterKjellberg, Gustav January 2022 (has links)
The use of Machine Learning (ML) in business has increased significantly over the past years. Creating high quality and robust models requires a lot of data, which is at times infeasible to obtain. As more people are becoming concerned about their data being misused, data privacy is increasingly strengthened. In 2018, the General Data Protection Regulation (GDPR), was announced within the EU. Models that use either sensitive or personal data to train need to obtain that data in accordance with the regulatory rules, such as GDPR. One other data related issue is that enterprises who wish to collaborate on model building face problems when it requires them to share their private corporate data [36, 38]. In this thesis we will investigate how one might overcome the issue of directly accessing private data when training ML models by employing Federated Learning (FL) [38]. The concept of FL is to allow several silos, i.e. separate parties, to train models with the same objective, using their local data and then with the learned model parameters create a central model. The objective of the central model is to obtain the information learned by the separate models, without ever accessing the raw data itself. This is achieved by averaging the separate models’ weights into the central model. FL thus facilitates opportunities to train a model on large amounts of data from several sources, without the need of having access to the data itself. If one can create a model with this methodology, that is not significantly worse than a model trained on the raw data, then positive effects such as strengthened data privacy, cross-enterprise collaboration and more could be attainable. In this work we have used a financial data set consisting of 25242 equity research reports, provided by Skandinaviska Enskilda Banken (SEB). Each report has a recommendation label, either Buy, Sell or Hold, making this a multi-class classification problem. To evaluate the feasibility of FL we fine-tune the pre-trained Transformer model AlbertForSequenceClassification [37] on the classification task. We create one baseline model using the entire data set and an FL model with different experimental settings, for which the data is distributed both uniformly and non-uniformly. The baseline model is used to benchmark the FL model. Our results indicate that the best FL setting only suffers a small reduction in performance. The baseline model achieves an accuracy of 83.5% compared to 82.8% for the best FL model setting. Further, we find that with an increased number of clients, the performance is worsened. We also found that our FL model was not sensitive to non-uniform data distributions. All in all, we show that FL results in slightly worse generalisation compared to the baseline model, while strongly improving on data privacy, as the central model never accesses the clients’ data. / Företags nyttjande av maskininlärning har de senaste åren ökat signifikant och för att kunna skapa högkvalitativa modeller krävs stora mängder data, vilket kan vara svårt att insamla. Parallellt med detta så ökar också den allmänna förståelsen för hur användandet av data missbrukas, vilket har lätt till ett ökat behov av starkare datasäkerhet. 2018 så trädde General Data Protection Regulation (GDPR) i kraft inom EU, vilken bland annat ställer krav på hur företag skall hantera persondata. Företag med maskininlärningsmodeller som på något sätt använder känslig eller personlig data behöver således ha fått tillgång till denna data i enlighet med de rådande lagar och regler som omfattar datahanteringen. Ytterligare ett datarelaterat problem är då företag önskar att skapa gemensamma maskininlärningsmodeller som skulle kräva att de delar deras bolagsdata [36, 38]. Denna uppsats kommer att undersöka hur Federerad Inlärning [38] kan användas för att skapa maskinlärningsmodeller som överkommer dessa datasäkerhetsrelaterade problem. Federerad Inlärning är en metod för att på ett decentraliserat vis träna maskininlärningsmodeller. Detta omfattar att låta flera aktörer träna en modell var. Varje enskild aktör tränar respektive modell på deras isolerade data och delar sedan endast modellens parametrar till en central modell. På detta vis kan varje enskild modell bidra till den gemensamma modellen utan att den gemensamma modellen någonsin haft tillgång till den faktiska datan. Givet att en modell, skapad med Federerad Inlärning kan uppnå liknande resultat som en modell tränad på rådata, så finns många positiva fördelar så som ökad datasäkerhet och ökade samarbeten mellan företag. Under arbetet har ett dataset, bestående av 25242 finansiella rapporter tillgängliggjort av Skandinaviska Ensilda Banken (SEB) använts. Varje enskild rapport innefattar en rekommendation, antingen Köp, Sälj eller Håll, vilket innebär att vi utför muliklass-klassificering. Med datan tränas den förtränade Transformermodellen AlbertForSequence- Classification [37] på att klassificera rapporterna. En Baseline-modell, vilken har tränats på all rådata och flera Federerade modellkonfigurationer skapades, där bland annat varierande fördelningen av data mellan aktörer från att vara jämnt fördelat till vara ojämnt fördelad. Resultaten visar att den bästa Federerade modellkonfigurationen endast presterar något sämre än Baseline-modellen. Baselinemodellen uppnådde en klassificeringssäkerhet på 83.5% medan den bästa Federerade modellen uppnådde 82.8%. Resultaten visar också att den Federerade modellen inte var känslig mot att variera fördelningen av datamängd mellan aktorerna, samt att med ett ökat antal aktörer så minskar klassificeringssäkerheten. Sammanfattningsvis så visar vi att Federerad Inlärning uppnår nästan lika goda resultat som Baseline-modellen, samtidigt så bidrar metoden till avsevärt bättre datasäkerhet då den centrala modellen aldrig har tillgång till rådata.
|
147 |
Ditch detection using refined LiDAR data : A bachelor’s thesis at Jönköping University / Dikesdetektion med hjälp av raffinerad LiDAR-dataFlyckt, Jonatan, Andersson, Filip January 2019 (has links)
In this thesis, a method for detecting ditches using digital elevation data derived from LiDAR scans was developed in collaboration with the Swedish Forest Agency. The objective was to compare a machine learning based method with a state-of-the-art automated method, and to determine which LiDAR-based features represent the strongest ditch predictors. This was done by using the digital elevation data to develop several new features, which were used as inputs in a random forest machine learning classifier. The output from this classifier was processed to remove noise, before a binarisation process produced the final ditch prediction. Several metrics including Cohen's Kappa index were calculated to evaluate the performance of the method. These metrics were then compared with the metrics from the results of a reproduced state-of-the-art automated method. The confidence interval for the Cohen's Kappa metric for the population was calculated to be [0.567 , 0.645] with a 95 % certainty. Features based on the Impoundment attribute derived from the digital elevation data overall represented the strongest ditch predictors. Our method outperformed the state-of-the-art automated method by a high margin. This thesis proves that it is possible to use AI and machine learning with digital elevation data to detect ditches to a substantial extent.
|
148 |
Comparison of Machine Learning Techniques when Estimating Probability of Impairment : Estimating Probability of Impairment through Identification of Defaulting Customers one year Ahead of Time / En jämförelse av maskininlärningstekniker för uppskattning av Probability of Impairment : Uppskattningen av Probability of Impairment sker genom identifikation av låntagare som inte kommer fullfölja sina återbetalningsskyldigheter inom ett årEriksson, Alexander, Långström, Jacob January 2019 (has links)
Probability of Impairment, or Probability of Default, is the ratio of how many customers within a segment are expected to not fulfil their debt obligations and instead go into Default. This is a key metric within banking to estimate the level of credit risk, where the current standard is to estimate Probability of Impairment using Linear Regression. In this paper we show how this metric instead can be estimated through a classification approach with machine learning. By using models trained to find which specific customers will go into Default within the upcoming year, based on Neural Networks and Gradient Boosting, the Probability of Impairment is shown to be more accurately estimated than when using Linear Regression. Additionally, these models provide numerous real-life implementations internally within the banking sector. The new features of importance we found can be used to strengthen the models currently in use, and the ability to identify customers about to go into Default let banks take necessary actions ahead of time to cover otherwise unexpected risks. / Titeln på denna rapport är En jämförelse av maskininlärningstekniker för uppskattning av Probability of Impairment. Uppskattningen av Probability of Impairment sker genom identifikation av låntagare som inte kommer fullfölja sina återbetalningsskyldigheter inom ett år. Probability of Impairment, eller Probability of Default, är andelen kunder som uppskattas att inte fullfölja sina skyldigheter som låntagare och återbetalning därmed uteblir. Detta är ett nyckelmått inom banksektorn för att beräkna nivån av kreditrisk, vilken enligt nuvarande regleringsstandard uppskattas genom Linjär Regression. I denna uppsats visar vi hur detta mått istället kan uppskattas genom klassifikation med maskininlärning. Genom användandet av modeller anpassade för att hitta vilka specifika kunder som inte kommer fullfölja sina återbetalningsskyldigheter inom det kommande året, baserade på Neurala Nätverk och Gradient Boosting, visas att Probability of Impairment bättre uppskattas än genom Linjär Regression. Dessutom medför dessa modeller även ett stort antal interna användningsområden inom banksektorn. De nya variabler av intresse vi hittat kan användas för att stärka de modeller som idag används, samt förmågan att identifiera kunder som riskerar inte kunna fullfölja sina skyldigheter låter banker utföra nödvändiga åtgärder i god tid för att hantera annars oväntade risker.
|
149 |
Utvärdering av marknad och analysmetoder för snabbtest av antibiotikaresistens för polymikrobiella blodprover : En studie för utveckling av icke-invasiva optiska metoder och automatisering med maskininlärningJansson, Linnéa, Johnson, Gustav, Wallskog, Amanda, Svalberg, Linn, Svärd, Karl, Engström Kindmark, Hedvig, Dost, Maryam January 2019 (has links)
Gradientech AB is a company that develops a new ultra-rapid system for antibiotic susceptibility testing and their product will hopefully be used in health care for more efficient diagnosis of sepsis. Today the product has difficulties with the analysis of polymicrobial tests. For our project, the task is therefore to examine the market and the demand for the ability to detect polymicrobial infections. Our project is meant to provide ideas for improvements on their current method for the feasibility to detect several types of bacteria in the same test. Through literature studies, we have received an overview of how optical methods using image analysis can work and how they could be implemented in Gradientech's product. Image analysis can make the identification of bacteria possible. Interesting objects in the image can be distinguished from each other with filters that handle, for example, size, shape and light intensity. A potential improvement in the classification of bacteria by optical methods may be to test several different angles and wavelengths. This is to get more training data for machine learning and thus more accurately detect and analyze samples. The results from literature studies and interviews with clinicians, a microbiologist, and professor in image analysis have led to a conclusion that techniques that contribute to a decrease of antimicrobial resistance will be crucial for the future. In Sweden, the development of resistant bacteria is pretty low, but in many other parts of the world, there is a different reality. The product’s greatest potential will probably be in countries with a high incidence of resistant bacteria and with educated personnel available to use the product. Ultra-rapid systems for AST can contribute to saving lives by making sure that the right type of antibiotics is given directly. Detection and identification of polymicrobial samples in sepsis are also relevant, but it will not contribute to reduced antibiotic use since the patient's health will always be prioritized as of now. Finally, we reached the conclusion that identification of polymicrobial tests is not a necessary feature for the success of the product. This is above all due to the mass spectrometry method MALDI-TOF, a technique that is already well-established in health care systems. It can quickly and cheaply identify bacteria in clinical samples.
|
150 |
Comparison of different machine learning models for wind turbine power predictionsWerngren, Simon January 2018 (has links)
The goal of this project is to compare different machine learning algorithms ability to predict wind power output 48 hours in advance from earlier power data and meteorological wind speed predictions. Three different models were tested, two autoregressive integrated moving average (ARIMA) models one with exogenous regressors one without and one simple LSTM neural net model. It was found that the ARIMA model with exogenous regressors was the most accurate while also beingrelatively easy to interpret and at 1h 45min 32s had a comparatively short training time. The LSTM was less accurate, harder to interpretand took 14h 3min 5s to train. However the LSTM only took 32.7s to create predictions once the model was trained compared to the 33min13.7s it took for the ARIMA model with exogenous regressors to deploy.Because of this fast deployment time the LSTM might be preferable in certain situations. The ARIMA model without exogenous regressors was significantly less accurate than the other two without significantly improving on the other ARIMA model in any way
|
Page generated in 0.3473 seconds