• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • Tagged with
  • 5
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modeling pavement performance based on data from the Swedish LTPP database : predicting cracking and rutting

Svensson, Markus January 2013 (has links)
The roads in our society are in a state of constant degradation. The reasons for this are many, and therefore constructed to have a certain lifetime before being reconstructed. To minimize the cost of maintaining the important transport road network high quality prediction models are needed. This report presents new models for flexible pavement structures for initiation and propagation of fatigue cracks in the bound layers and rutting for the whole structure. The models are based on observations from the Swedish Long Term Pavement Performance (LTPP) database. The intention is to use them for planning maintenance as part of a pavement management system (PMS). A statistical approach is used for the modeling, where both cracking and rutting are related to traffic data, climate conditions, and the subgrade characteristics as well as the pavement structure.
2

Evaluating Environmental Sensor Value Prediction using Machine Learning : Long Short-Term Memory Neural Networks for Smart Building Applications

Andersson, Joakim January 2021 (has links)
IoT har blivit en stor producent av big data. Big data kan användas för att optimera operationer, för att kunna göra det så måste man kunna extrahera användbar information från big data. Detta kan göras med hjälp av neurala nätverk och maskininlärning, vilket kan leda till nya typer av smarta applikationer. Den här rapporten fokuserar på att besvara frågan hur bra är neurala nätverk på att förutspå sensor värden och hur pålitliga är förutsägelserna och om dom kan användas i verkliga applikationer. Sensorlådor användes för att samla data från olika rum och olika neurala nätverksmodeller baserade på LSTM nätverk användes för att förutspå framtida värden. Dessa värden jämfördes sedan med dom riktiga värdena och absoluta medelfelet och standardavvikelsen beräknades. Tiden som behövdes för att producera en förutsägelse mättes och medelvärde och standardavvikelsen beräknades även där. LSTM modellerna utvärderades utifrån deras prestanda och träffsäkerhet. Modellen som endast förutspådde ett värde hade bäst träffsäkerhet, och modellerna tappade träffsäkerheten desto längre in i framtiden dom försökte förutspå. Resultaten visar att även dom enkla modellerna som skapades i detta projekt kan med säkerhet förutspå värden och därför användas i olika applikationer där extremt bra förutsägelser inte behövs. / The IoT is becoming an increasing producer of big data. Big data can be used to optimize operations, realizing this depends on being able to extract useful information from big data. With the use of neural networks and machine learning this can be achieved and can enable smart applications that use this information. This thesis focuses on answering the question how good are neural networks at predicting sensor values and is the predictions reliable and useful in a real-life application? Sensory boxes were used to gather data from rooms, and several neural networks based on LSTM were used to predict the future values of the sensors. The absolute mean error of the predictions along with the standard deviation was calculated. The time needed to produce a prediction was measured as an absolute mean values with standard deviation. The LSTM models were then evaluated based on their performance and prediction accuracy. The single-step model, which only predicts the next timestep was the most accurate. The models loose accuracy when they need to predict longer periods of time. The results shows that simple models can predict the sensory values with some accuracy, while they may not be useful in areas where exact climate control is needed the models can be applicable in work areas such as schools or offices.
3

Deep Learning for Predicting Electrical Power in 5G / Djupinlärning för att förutspå elektrisk effekt för 5G

Mellberg, Robert January 2022 (has links)
5G is currently being implemented around the world. A way to save resources in 5G could be to have several sector carriers sharing one power source. This requires being able to predict the electrical power of the sector carriers to make sure they do not exceed the capability of the power source. This thesis investigates deep learning for predicting the electrical power of a sector carrier. The chosen deep learning models are Multilayer perceptron (MLP) and Long short-term memory network (LSTM) and they are trained and evaluated on seven generated datasets from a sector carrier in Lund. The study consists of two parts, comparing the predictive performance between MLP and LSTM as well as determining the importance of each input feature on the predictions. It is concluded from the results that the MLP outperforms the LSTM in all datasets and should be the preferred model. The most important input feature for the predictions is by far the number of Resource elements (REs) used per slot. The number of Physical resource blocks (PRBs), modulation, scaling, number of streams and codebook indices have varying importance. The results can be used for guidance when implementing a real time system for which model and which input features to include. More work is required in investigating how the models perform on aggregated data from several sector carriers and determining if the models could feasibly be implemented for real time predictions. / 5G håller på att implementeras runtom i världen. Ett sätt att spara resurser i 5G skulle kunna vara att ha flera sektorbärare dela på en strömkälla. För att implementera detta behöver man kunna förutsäga effekten av sektorbärarna för att försäkra sig om att de inte kommer överstiga den maximala effekten strömkällan tillåter. I denna avhandling undersöks djupinlärning för att förutsäga effekten av en sektorbärare. De använda djupinlärningsmodellerna är Multilayer perceptron (MLP) och Long short-term memory (LSTM) och de tränas och utvärderas på sju stycken olika dataset genererade från en sektorbärare i Lund. Studien är uppdelad i två delar, en del där MLP och LSTM jämförs med hänsyn till deras prediktiva förmåga och en del där varje datavariabel utvärderas till hur viktig den är för modellernas förutsägelser. Från resultaten kunde slutsatsen dras att MLP presterar bättre än LSTM på alla sju dataset och att MLP bör väljas före LSTM. Den viktigaste datavariabeln är antalet resurs element med en signifikant skillnad jämfört med övriga datavariabler. Antalet fysiska resursblock, modulationen, skalningsfaktorn, antalet strömmar och kodboksindex har varierande viktighet. Resultaten kan användas som stöd för implementering av realtid system för att bestämma lämplig model och data. Mer arbete krävs för att undersöka hur modellerna presterar på data som är aggregerat från flera sektorbärare samt undersöka huruvida det är genomförbart att implementera ett realtid system för förutsägelser utifrån beräkningskraft och kostandsanalys.
4

The Extent of Customer Data : A study of creating value from customer data for the finance department.

Limbäck, Ida, Yahya, Semer Said January 2021 (has links)
Among the diverse perspectives of value creation throughout history, recent studies imply that CFOs and finance officials can contribute to a holistic value creation process by integrating different business values. Therefore, this study aims to research whether the current dilemma of intangible assets (customer data) plays an important role in financial activities to lead to business value creation. The literature review highlights three independent variables; customer loyalty, decision-making, and predicting that are tested for an effect on the dependent variable value creation. Additionally, previous studies highlight data as efficiently utilized in cross-functional environments. A moderating variable cross-functional teams is thereby examined if it has a moderating effect. An online questionnaire was sent to 56 companies who were interested in participating, of which eventually 42 companies responded. Given the low response rate, the results revealed that decision-making was significant and valuable for the finance department’s value creation. However, the moderating effect significantly revealed, on the contrary, to strengthen predicting capabilities for the finance department to create value. / Begreppet värdeskapande har historiskt sett studerats utifrån olika perspektiv. Tidigare studier har visat på att finansavdelningen kan, utöver de traditionella uppgifterna, bidra till att skapa värde inom företaget. Med bakgrund i detta är syftet med studien att undersöka huruvida det nuvarande dilemmat med immateriella tillgångar (kunddata) spelar en viktig roll i finansiella aktiviteter för att leda till skapande av affärsvärde. En litteraturöversikt i studien belyser följande värden som kunddata eventuellt leder till: kundlojalitet, beslutsfattande och förutsägelser. Variablerna testas i denna studie för att se om det, ur ett finansiellt perspektiv, har en effekt på värdeskapande. Tidigare studier visar även att data kan användas effektivt i tvärfunktionella miljöer. En modererande variabel tvärfunktionella team undersöks därmed för att se om den har en interaktionseffekt. Ett frågeformulär sändes till 56 företag som var intresserade av att delta, varav 42 företag svarade. Givet bristen på antal respondenter, visar resultatet att beslutfattande är en värdefull faktor för värdeskapande. Resultatet av moderatorn visar att den styrker relationen mellan förutsägelser och värdeskapande för finansavdelningen.
5

Explainability Methods for Transformer-based Artificial Neural Networks: : a Comparative Analysis / Förklaringsmetoder för Transformer-baserade artificiella neurala nätverk : en jämförande analys

Remmer, Eliott January 2022 (has links)
The increasing complexity of Artificial Intelligence (AI) models is accompanied by an increase in difficulty in interpreting model predictions. This thesis work provides insights and understanding of the differences and similarities between explainability methods for AI models. Opening up black-box models is important, especially if AI is applied in sensitive domains such as to, e.g., aid medical professionals. In recent years, the use of Transformer-based artificial neural network architectures such as Bidirectional Encoder Representations from Transformers (BERT) has become common in the field of Natural Language Processing (NLP), showing human-level performance on tasks such as sentiment classification and question answering. In addition, a growing portion of research within eXplainable AI (XAI) has shown success in using explainability methods to output auxiliary explanations at inference time together with predictions made by these complex models. When scoping the different methods, there is a distinction to be made whether the explanations emerge as part of the prediction process or subsequently via a separate model. These two categories of explainability methods are referred to as self-explaining and post-hoc, respectively. The goal of this work is to evaluate, analyze and compare these two categories of methods for assisting BERT models with explanations in the context of sentiment classification. A comparative analysis was therefore conducted in order to investigate quantitative and qualitative differences. To measure the quality of explanations, the Intersection Over Union (IOU) and Precision-Recall Area Under the Curve (PR-AUC) scores were used together with Explainable NLP (ExNLP) datasets, containing human annotated explanations. Apart from discussing benefits, drawbacks and assumptions of the different methods, results of the work indicated that the self-explaining method proved more successful in some instances while the post-hoc method performed better in others. Given the subjective nature of explanation quality, however, this work should be extended in several proposed directions, in order to fully capture the nuances of the explainability methods. / Parallellt med den ökande komplexiteten hos modeller med artificiell intelligens (AI) följer en ökad svårighet att tolka förutsägelser som modellerna gör. Detta examensarbete fokuserar på skillnader och likheter mellan förklaringsmetoder för AI-modeller. Att skapa mer transparens kring modellerna är viktigt, speciellt om AI ska appliceras i känsliga områden som t.ex. inom hälso- och sjukvård. Under de senaste åren har användningen av Transformer-baserade artificiella neurala nätverk som Bidirectional Encoder Representations from Transformers (BERT) blivit vanligt inom Natural Language Processing (NLP). Resultaten som modellerna når på uppgifter såsom sentimentklassificering och svar på frågor är på en mänsklig nivå. En växande del av forskningen inom eXplainable AI (XAI) har dessutom kunnat visa stora framsteg inom användandet av förklaringsmetoder, för att bistå förutsägelserna som dessa komplexa modeller gör med förklaringar. I kategoriseringar av metoderna särskiljs det ofta mellan huruvida förklaringarna uppstår som en del av förutsägelsen, tillsammans med modellen eller om de skapas efteråt via en separat modell. Dessa två kategorier av förklaringsmetoder kallas självförklarande och post-hoc. Målet med detta arbete är att utvärdera, analysera och jämföra dessa två kategorier av metoder som används för att hjälpa BERT-modeller med förklaringar i samband med sentimentklassificering av text. En jämförande analys genomfördes därför för att undersöka kvantitativa och kvalitativa skillnader. För att mäta kvaliteten på förklaringar användes Intersection Over Union (IOU) och Precision-Recall Area Under the Curve (PR-AUC) tillsammans med dataset skräddarsydda för just Explainable NLP (ExNLP) innehållande mänskligt annoterade förklaringar. Förutom att diskutera fördelar, nackdelar och antaganden med de olika metoderna, pekade resultaten på att den självförklarande metoden presterade bättre i vissa fall medan post-hoc-metoden presterade bättre i andra. Med tanke på hur kvaliteten av förklaringar till stor del handlar om en subjektiv bedömning bör dock detta arbete utvidgas i flera riktningar – föreslagna i detta arbete – för att fånga alla nyanser av förklaringsmetoderna.

Page generated in 0.0295 seconds