• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 5
  • Tagged with
  • 30
  • 27
  • 17
  • 17
  • 15
  • 14
  • 12
  • 10
  • 10
  • 10
  • 9
  • 8
  • 6
  • 6
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Vehicle Collision Risk Prediction Using a Dynamic Bayesian Network / Förutsägelse av kollisionsrisk för fordon med ett dynamiskt Bayesianskt nätverk

Lindberg, Jonas, Wolfert Källman, Isak January 2020 (has links)
This thesis tackles the problem of predicting the collision risk for vehicles driving in complex traffic scenes for a few seconds into the future. The method is based on previous research using dynamic Bayesian networks to represent the state of the system. Common risk prediction methods are often categorized into three different groups depending on their abstraction level. The most complex of these are interaction-aware models which take driver interactions into account. These models often suffer from high computational complexity which is a key limitation in practical use. The model studied in this work takes interactions between drivers into account by considering driver intentions and the traffic rules in the scene. The state of the traffic scene used in the model contains the physical state of vehicles, the intentions of drivers and the expected behaviour of drivers according to the traffic rules. To allow for real-time risk assessment, an approximate inference of the state given the noisy sensor measurements is done using sequential importance resampling. Two different measures of risk are studied. The first is based on driver intentions not matching the expected maneuver, which in turn could lead to a dangerous situation. The second measure is based on a trajectory prediction step and uses the two measures time to collision (TTC) and time to critical collision probability (TTCCP). The implemented model can be applied in complex traffic scenarios with numerous participants. In this work, we focus on intersection and roundabout scenarios. The model is tested on simulated and real data from these scenarios. %Simulations of these scenarios is used to test the model. In these qualitative tests, the model was able to correctly identify collisions a few seconds before they occur and is also able to avoid false positives by detecting the vehicles that will give way. / Detta arbete behandlar problemet att förutsäga kollisionsrisken för fordon som kör i komplexa trafikscenarier för några sekunder i framtiden. Metoden är baserad på tidigare forskning där dynamiska Bayesianska nätverk används för att representera systemets tillstånd. Vanliga riskprognosmetoder kategoriseras ofta i tre olika grupper beroende på deras abstraktionsnivå. De mest komplexa av dessa är interaktionsmedvetna modeller som tar hänsyn till förarnas interaktioner. Dessa modeller lider ofta av hög beräkningskomplexitet, vilket är en svår begränsning när det kommer till praktisk användning. Modellen som studeras i detta arbete tar hänsyn till interaktioner mellan förare genom att beakta förarnas avsikter och trafikreglerna i scenen. Tillståndet i trafikscenen som används i modellen innehåller fordonets fysiska tillstånd, förarnas avsikter och förarnas förväntade beteende enligt trafikreglerna. För att möjliggöra riskbedömning i realtid görs en approximativ inferens av tillståndet givet den brusiga sensordatan med hjälp av sekventiell vägd simulering. Två olika mått på risk studeras. Det första är baserat på förarnas avsikter, närmare bestämt att ta reda på om de inte överensstämmer med den förväntade manövern, vilket då skulle kunna leda till en farlig situation. Det andra riskmåttet är baserat på ett prediktionssteg som använder sig av time to collision (TTC) och time to critical collision probability (TTCCP). Den implementerade modellen kan tillämpas i komplexa trafikscenarier med många fordon. I detta arbete fokuserar vi på scerarier i korsningar och rondeller. Modellen testas på simulerad och verklig data från dessa scenarier. I dessa kvalitativa tester kunde modellen korrekt identifiera kollisioner några få sekunder innan de inträffade. Den kunde också undvika falsklarm genom att lista ut vilka fordon som kommer att lämna företräde.
22

Multi-Class Emotion Classification for Interactive Presentations : A case study on how emotional sentiment analysis can help end users better convey intended emotion

Andersson, Charlotte January 2022 (has links)
Mentimeter is one of the fastest-growing startups in Sweden. They are an audience engagement platform that allows users to create interactive presentations and engage an audience. As online information spreads increasingly faster, methods of analyzing, understanding, and categorizing information are developing and improving rapidly. Natural Language Processing (NLP) is the ability to break down input, for instance, text or audio, and process it using technologies such as computational linguistics and statistical learning, machine learning, and deep learning models. This thesis aimed to investigate if a tool that applies multi-class emotion classification of text could benefit end users when they are creating presentations using Mentimeter. A case study was conducted where a pre-trained BERT base model that had been fine-tuned and trained to the GoEmotions data set was applied as a tool to Mentimeter’s presentation software and then evaluated by end users. The results found that the tool was accurate; however, overall was not helpful for end users. For future research, improvements such as including emotions/tones that are more related to presentations would make the tool more applicable to presentations and would be helpful according to end users. / Mentimeter är en av Sveriges snabbast växande startupbolag som erbjuder en tjänst där användare kan skapa interaktiva presenationer och engagera sin publik. Medan infomration online sprids allt snabbare utvecklas och förbättras metoder för att kunna analysera, förstå och kategorisera information. Natural Language Processing (NLP) är förmågan att kunna bryta ner indata, som text och ljud, och processera det med hjälp av teknologier som datalingvistik och statistisk inlärnings, maskininlärnings, och djupinlärnings modeller. Syftet med denna uppsats var att undersöka om ett verktyg som applicerar multi-class emotion classification med text skulle gynna användare när de skapar presentation med Mentimeter. En fallstudie utfördes där en förtränad BERT modell som hade finjusterats och tränats på GoEmotions dataset applicerades som ett verktyg på Mentimeters programvara som användare sen fick utvärdera. Resultaten visar att verktyget var motsvarande men övergripande fann användarna att verktyget inte var hjälpsamt. För framtida forskning skulle förbättringar av verktyget som att använda känslor/toner som är mer relterade till presentationer göra verktyget mer hjälpsamt enligt användare.
23

Anticipating bankruptcies among companies with abnormal credit risk behaviour : Acase study adopting a GBDT model for small Swedish companies / Förutseende av konkurser bland företag med avvikande kreditrisks beteende : En fallstudie som använder en GBDT-modell för små svenska företag

Heinke, Simon January 2022 (has links)
The field of bankruptcy prediction has experienced a notable increase of interest in recent years. Machine Learning (ML) models have been an essential component of developing more sophisticated models. Previous studies within bankruptcy prediction have not evaluated how well ML techniques adopt for data sets of companies with higher credit risks. This study introduces a binary decision rule for identifying companies with higher credit risks (abnormal companies). Two categories of abnormal companies are explored based on the activity of: (1) abnormal credit risk analysis (”AC”, herein) and (2) abnormal payment remarks (”AP”, herein) among small Swedish limited companies. Companies not fulfilling the abnormality criteria are considered normal (”NL”, herein). The abnormal companies showed a significantly higher risk for future payment defaults than NL companies. Previous studies have mainly used financial features for bankruptcy prediction. This study evaluates the contribution of different feature categories: (1) financial, (2) qualitative, (3) performed credit risk analysis, and (4) payment remarks. Implementing a Light Gradient Boosting Machine (LightGBM), the study shows that bankruptcies are easiest to anticipate among abnormal companies compared to NL and all companies (full data set). LightGBM predicted bankruptcies with an average Area Under the Precision Recall Curve (AUCPR) of 45.92% and 61.97% for the AC and AP data sets, respectively. This performance is 6.13 - 27.65 percentage units higher compared to the AUCPR achieved on the NL and full data set. The SHapley Additive exPlanations (SHAP)-values indicate that financial features are the most critical category. However, qualitative features highly contribute to anticipating bankruptcies on the NL companies and the full data set. The features of performed credit risk analysis and payment remarks are primarily useful for the AC and AP data sets. Finally, the field of bankruptcy prediction is introduced to: (1) evaluate if bankruptcies among companies with other forms of credit risk can be anticipated with even higher predictive performance and (2) test if other qualitative features bring even better predictive performance to bankruptcy prediction. / Konkursklassificering har upplevt en anmärkningsvärd ökning av intresse de senaste åren. I denna utveckling har maskininlärningsmodeller utgjort en nyckelkompentent i utvecklingen mot mer sofistikerade modeller. Tidigare studier har inte utvärderat hur väl maskininlärningsmodeller kan appliceras för att förutspå konkurser bland företag med högre kreditrisk. Denna studie introducerar en teknik för att definiera företag med högre kreditrisk, det vill säga avvikande företag. Två olika kategorier av avvikande företag introduceras baserat på företagets aktivitet av: (1) kreditrisksanalyser på företaget (”AK”, hädanefter), samt (2) betalningsanmärkningar (”AM”, hädanefter) för små svenska aktiebolag. Företag som inte uppfyller kraven för att vara ett avvikande företag klassas som normala (”NL”, hädanefter). Studien utvärderar sedan hur väl konkurser kan förutspås för avvikande företag i relation till NL och alla företag. Tidigare studier har primärt utvärdera finansiella variabler för konkursförutsägelse. Denna studie utvärderar ett bredare spektrum av variabler: (1) finansiella, (2) kvalitativa, (3) kreditrisks analyser, samt (4) betalningsanmärkningar för konkursförutsägelse. Genom att implementera LightGBM finner studien att konkurser förutspås med högst noggrannhet bland AM företag. Modellen presenterar bättre för samtliga avvikande företag i jämförelse med både NL företag och för hela datasetet. LightGBM uppnår ett genomsnittligt AUC-PR om 45.92% och 61.97% för AK och AM dataseten. Dessa resultat är 6.13-27.65 procentenheter högre i jämförelse med det AUC-PR som uppnås för NL och hela datasetet. Genom att analysera modellens variabler med SHAP-värden visar studien att finansiella variabler är mest betydelsefulla för modells prestation. Kvalitativa variabler har däremot en stor betydelse för hur väl konkurser kan förutspås för NL företag samt alla företag. Variabelkategorierna som indikerar företagets historik av genomförda kreditrisksanalyser samt betalningsanmärkningar är primärt betydelsefulla för konkursklassificering av AK samt AM företag. Detta introducerar området av konkursförutsägelse till att: (1) undersöka om konkurser bland företag med andra kreditrisker kan förutspås med högre noggrannhet och (2) test om andra kvalitativa variabler ger bättre prediktive prestandard för konkursförutsägelse.
24

Optimizing Resource Allocation in Kubernetes : A Hybrid Auto-Scaling Approach / Optimering av resurstilldelning i Kubernetes : En hybrid auto-skalningsansats

Chiminelli, Brando January 2023 (has links)
This thesis focuses on addressing the challenges of resource management in cloud environments, specifically in the context of running resource-optimized applications on Kubernetes. The scale and growth of cloud services, coupled with the dynamic nature of workloads, make it difficult to efficiently manage resources and control costs. The objective of this thesis is to explore the proactive autoscaling of virtual resources based on traffic demand, aiming to improve the current reactive approach, the Horizontal Pod Autoscaler (HPA), that relies on predefined rules and threshold values. By enabling proactive autoscaling, resource allocation can be optimized proactively, leading to improved resource utilization and cost savings. The aim is to strike a balance between resource utilization and the risk of Service Level Agreement (SLA) violations while optimizing resource usage for microservices. The study involves generating predictions and assessing resource utilization for both the current HPA implementation and the proposed solution. By comparing resource utilization and cost implications, the economic feasibility and benefits of adopting the new approach can be determined. The analysis aims to provide valuable insights into resource utilization patterns and optimization opportunities. The analysis shows significant improvements in CPU utilization and resource consumption using the proposed approach compared to the current HPA implementation. The proactive strategy allows for handling the same number of requests with fewer replicas, resulting in improved efficiency. The proposed solution has the potential to be applied to any type of service running on Kubernetes, with low computational costs. In conclusion, the analysis demonstrates the potential for resource optimization and cost savings through the proposed approach. By adopting proactive strategies and accurately predicting resource needs, organizations can achieve efficient resource utilization, system robustness, and compliance with SLA. Further research and enhancements can be explored based on the findings of this analysis. / Denna avhandling fokuserar på att adressera utmaningarna med resurshantering i molnmiljöer, specifikt i kontexten att köra resursoptimerade applikationer på Kubernetes. Skalan och tillväxten av molntjänster, tillsammans med arbetsbelastningarnas dynamiska natur, gör det svårt att effektivt hantera resurser och kontrollera kostnader. Syftet med denna avhandling är att utforska proaktiv autoskalning av virtuella resurser baserat på trafikbehov, med målet att förbättra den nuvarande reaktiva metoden, Horizontal Pod Autoscaler (HPA), som förlitar sig på fördefinierade regler och tröskelvärden. Genom att möjliggöra proaktiv autoskalning kan resurstilldelningen optimeras i förväg, vilket leder till förbättrad resursanvändning och kostnadsbesparingar. Målet är att hitta en balans mellan resursanvändning och risken för överträdelser av Service Level Agreements (SLA) samtidigt som resursanvändningen för mikrotjänster optimeras. Studien innefattar att generera förutsägelser och bedöma resursanvändning för både den nuvarande HPA-implementeringen och den föreslagna lösningen. Genom att jämföra resursanvändning och kostnadsimplikationer kan den ekonomiska genomförbarheten och fördelarna med att anta det nya tillvägagångssättet bestämmas. Analysen syftar till att ge värdefulla insikter i mönster för resursanvändning och möjligheter till optimering. Analysen visar betydande förbättringar i CPU-användning och resursförbrukning med den föreslagna metoden jämfört med den nuvarande HPA-implementeringen. Den proaktiva strategin möjliggör hantering av samma antal förfrågningar med färre replikor, vilket resulterar i förbättrad effektivitet. Den föreslagna lösningen har potential att tillämpas på alla typer av tjänster som körs på Kubernetes, med låga beräkningskostnader. Sammanfattningsvis visar analysen potentialen för resursoptimering och kostnadsbesparingar genom det föreslagna tillvägagångssättet. Genom att anta proaktiva strategier och noggrant förutsäga resursbehov kan organisationer uppnå effektiv resursanvändning, systemets robusthet och uppfyllnad av SLA:er. Vidare forskning och förbättringar kan utforskas baserat på resultaten av denna analys.
25

A Deep Learning Approach to Predicting the Length of Stay of Newborns in the Neonatal Intensive Care Unit / En djupinlärningsstrategi för att förutsäga vistelsetiden för nyfödda i neonatala intensivvårdsavdelingen

Straathof, Bas Theodoor January 2020 (has links)
Recent advancements in machine learning and the widespread adoption of electronic healthrecords have enabled breakthroughs for several predictive modelling tasks in health care. One such task that has seen considerable improvements brought by deep neural networks is length of stay (LOS) prediction, in which research has mainly focused on adult patients in the intensive care unit. This thesis uses multivariate time series extracted from the publicly available Medical Information Mart for Intensive Care III database to explore the potential of deep learning for classifying the remaining LOS of newborns in the neonatal intensive care unit (NICU) at each hour of the stay. To investigate this, this thesis describes experiments conducted with various deep learning models, including long short-term memory cells, gated recurrentunits, fully-convolutional networks and several composite networks. This work demonstrates that modelling the remaining LOS of newborns in the NICU as a multivariate time series classification problem naturally facilitates repeated predictions over time as the stay progresses and enables advanced deep learning models to outperform a multinomial logistic regression baseline trained on hand-crafted features. Moreover, it shows the importance of the newborn’s gestational age and binary masks indicating missing values as variables for predicting the remaining LOS. / Framstegen inom maskininlärning och det utbredda införandet av elektroniska hälsoregister har möjliggjort genombrott för flera prediktiva modelleringsuppgifter inom sjukvården. En sådan uppgift som har sett betydande förbättringar förknippade med djupa neurala nätverk är förutsägelsens av vistelsetid på sjukhus, men forskningen har främst inriktats på vuxna patienter i intensivvården. Den här avhandlingen använder multivariata tidsserier extraherade från den offentligt tillgängliga databasen Medical Information Mart for Intensive Care III för att undersöka potentialen för djup inlärning att klassificera återstående vistelsetid för nyfödda i den neonatala intensivvårdsavdelningen (neonatal-IVA) vid varje timme av vistelsen. Denna avhandling beskriver experiment genomförda med olika djupinlärningsmodeller, inklusive longshort-term memory, gated recurrent units, fully-convolutional networks och flera sammansatta nätverk. Detta arbete visar att modellering av återstående vistelsetid för nyfödda i neonatal-IVA som ett multivariat tidsserieklassificeringsproblem på ett naturligt sätt underlättar upprepade förutsägelser över tid och gör det möjligt för avancerade djupa inlärningsmodeller att överträffaen multinomial logistisk regressionsbaslinje tränad på handgjorda funktioner. Dessutom visar det vikten av den nyfödda graviditetsåldern och binära masker som indikerar saknade värden som variabler för att förutsäga den återstående vistelsetiden.
26

Adding temporal plasticity to a self-organizing incremental neural network using temporal activity diffusion / Om att utöka ett självorganiserande inkrementellt neuralt nätverk med temporal plasticitet genom temporal aktivitetsdiffusion

Lundberg, Emil January 2015 (has links)
Vector Quantization (VQ) is a classic optimization problem and a simple approach to pattern recognition. Applications include lossy data compression, clustering and speech and speaker recognition. Although VQ has largely been replaced by time-aware techniques like Hidden Markov Models (HMMs) and Dynamic Time Warping (DTW) in some applications, such as speech and speaker recognition, VQ still retains some significance due to its much lower computational cost — especially for embedded systems. A recent study also demonstrates a multi-section VQ system which achieves performance rivaling that of DTW in an application to handwritten signature recognition, at a much lower computational cost. Adding sensitivity to temporal patterns to a VQ algorithm could help improve such results further. SOTPAR2 is such an extension of Neural Gas, an Artificial Neural Network algorithm for VQ. SOTPAR2 uses a conceptually simple approach, based on adding lateral connections between network nodes and creating “temporal activity” that diffuses through adjacent nodes. The activity in turn makes the nearest-neighbor classifier biased toward network nodes with high activity, and the SOTPAR2 authors report improvements over Neural Gas in an application to time series prediction. This report presents an investigation of how this same extension affects quantization and prediction performance of the self-organizing incremental neural network (SOINN) algorithm. SOINN is a VQ algorithm which automatically chooses a suitable codebook size and can also be used for clustering with arbitrary cluster shapes. This extension is found to not improve the performance of SOINN, in fact it makes performance worse in all experiments attempted. A discussion of this result is provided, along with a discussion of the impact of the algorithm parameters, and possible future work to improve the results is suggested. / Vektorkvantisering (VQ; eng: Vector Quantization) är ett klassiskt problem och en enkel metod för mönsterigenkänning. Bland tillämpningar finns förstörande datakompression, klustring och igenkänning av tal och talare. Även om VQ i stort har ersatts av tidsmedvetna tekniker såsom dolda Markovmodeller (HMM, eng: Hidden Markov Models) och dynamisk tidskrökning (DTW, eng: Dynamic Time Warping) i vissa tillämpningar, som tal- och talarigenkänning, har VQ ännu viss relevans tack vare sin mycket lägre beräkningsmässiga kostnad — särskilt för exempelvis inbyggda system. En ny studie demonstrerar också ett VQ-system med flera sektioner som åstadkommer prestanda i klass med DTW i en tillämpning på igenkänning av handskrivna signaturer, men till en mycket lägre beräkningsmässig kostnad. Att dra nytta av temporala mönster i en VQ-algoritm skulle kunna hjälpa till att förbättra sådana resultat ytterligare. SOTPAR2 är en sådan utökning av Neural Gas, en artificiell neural nätverk-algorithm för VQ. SOTPAR2 använder en konceptuellt enkel idé, baserad på att lägga till sidleds anslutningar mellan nätverksnoder och skapa “temporal aktivitet” som diffunderar genom anslutna noder. Aktiviteten gör sedan så att närmaste-granne-klassificeraren föredrar noder med hög aktivitet, och författarna till SOTPAR2 rapporterar förbättrade resultat jämfört med Neural Gas i en tillämpning på förutsägning av en tidsserie. I denna rapport undersöks hur samma utökning påverkar kvantiserings- och förutsägningsprestanda hos algoritmen självorganiserande inkrementellt neuralt nätverk (SOINN, eng: self-organizing incremental neural network). SOINN är en VQ-algorithm som automatiskt väljer en lämplig kodboksstorlek och också kan användas för klustring med godtyckliga klusterformer. Experimentella resultat visar att denna utökning inte förbättrar prestandan hos SOINN, istället försämrades prestandan i alla experiment som genomfördes. Detta resultat diskuteras, liksom inverkan av parametervärden på prestandan, och möjligt framtida arbete för att förbättra resultaten föreslås.
27

Development of a Software Reliability Prediction Method for Onboard European Train Control System

Longrais, Guillaume Pierre January 2021 (has links)
Software prediction is a complex area as there are no accurate models to represent reliability throughout the use of software, unlike hardware reliability. In the context of the software reliability of on-board train systems, ensuring good software reliability over time is all the more critical given the current density of rail traffic and the risk of accidents resulting from a software malfunction. This thesis proposes to use soft computing methods and historical failure data to predict the software reliability of on-board train systems. For this purpose, four machine learning models (Multi-Layer Perceptron, Imperialist Competitive Algorithm Multi-Layer Perceptron, Long Short-Term Memory Network and Convolutional Neural Network) are compared to determine which has the best prediction performance. We also study the impact of having one or more features represented in the dataset used to train the models. The performance of the different models is evaluated using the Mean Absolute Error, Mean Squared Error, Root Mean Squared Error and the R Squared. The report shows that the Long Short-Term Memory Network is the best performing model on the data used for this project. It also shows that datasets with a single feature achieve better prediction. However, the small amount of data available to conduct the experiments in this project may have impacted the results obtained, which makes further investigations necessary. / Att förutsäga programvara är ett komplext område eftersom det inte finns några exakta modeller för att representera tillförlitligheten under hela programvaruanvändningen, till skillnad från hårdvarutillförlitlighet. När det gäller programvarans tillförlitlighet i fordonsbaserade tågsystem är det ännu viktigare att säkerställa en god tillförlitlighet över tiden med tanke på den nuvarande tätheten i järnvägstrafiken och risken för olyckor till följd av ett programvarufel. I den här avhandlingen föreslås att man använder mjuka beräkningsmetoder och historiska data om fel för att förutsäga programvarans tillförlitlighet i fordonsbaserade tågsystem. För detta ändamål jämförs fyra modeller för maskininlärning (Multi-Layer Perceptron, Imperialist Competitive Algorithm Mult-iLayer Perceptron, Long Short-Term Memory Network och Convolutional Neural Network) för att fastställa vilken som har den bästa förutsägelseprestandan. Vi undersöker också effekten av att ha en eller flera funktioner representerade i den datamängd som används för att träna modellerna. De olika modellernas prestanda utvärderas med hjälp av medelabsolut fel, medelkvadratfel, rotmedelkvadratfel och R-kvadrat. Rapporten visar att Long Short-Term Memory Network är den modell som ger bäst resultat på de data som använts för detta projekt. Den visar också att dataset med en enda funktion ger bättre förutsägelser. Den lilla mängd data som fanns tillgänglig för att genomföra experimenten i detta projekt kan dock ha påverkat de erhållna resultaten, vilket gör att ytterligare undersökningar är nödvändiga.
28

Hybrid Deep Learning Model for Cellular Network Traffic Prediction : Case Study using Telecom Time Series Data, Satellite Imagery, and Weather Data / Hybrid Djupinlärning Modell för Förutsägelse av Mobilnätstrafik : Fallstudie med Hjälp av Telekomtidsseriedata, Satellitbilder och Väderdata

Shibli, Ali January 2022 (has links)
Cellular network traffic prediction is a critical challenge for communication providers, which is important for use cases such as traffic steering and base station resources management. Traditional prediction methods mostly rely on historical time-series data to predict traffic load, which often fail to model the real world and capture surrounding environment conditions. In this work, we propose a multi-modal deep learning model for 4G/5G Cellular Network Traffic prediction by considering external data sources such as satellite imagery and weather data. Specifically, our proposed model consists of three components (1) temporal component (modeling correlations between traffic load values with historical data points via LSTM) (2) computer vision component (using embeddings to capture correlations between geographic regions that share similar landscape patterns using satellite imagery data and state of the art CNN models), and (3) weather component (modeling correlations between weather measurements and traffic patterns). Furthermore, we study the effects and limitations of using such contextual datasets on time series learning process. Our experiments show that such hybrid models do not always lead to better performance, and LSTM model is capable of modeling complex sequential interactions. However, there is a potential for classifying or labelling regions by their urban landscape and the network traffic. / Förutsägelse av mobilnätstrafik är en kritisk utmaning för kommunikation leverantörer, där användningsområden inkluderar trafikstyrning och hantering av basstationsresurser. Traditionella förutsägelsesmetoder förlitar sig främst på historisk tidsseriedata för att förutsäga trafikbelastning, detta misslyckas ofta med att modellera den verkliga världen och fånga omgivande miljö. Det här arbetet föreslår en multimodal modell med djupinlärning förutsägelse av 4G/5G nätverkstrafik genom att beakta externa datakällor som satellitbilder och väderdata. Specifikt består vår föreslagna modell av tre komponenter (1) temporal komponent (korrelationsmodellering mellan trafikbelastningsvärden med historiska datapunkter via LSTM) (2) datorseende komponent (med inbäddningar för att fånga korrelationer mellan geografiska regioner som delar liknande landskapsmönster med hjälp av satelitbilddata och state-of-the-art CNN modeller), och (3) väderkomponent (modellerande korrelationer mellan vädermätningar och trafikmönster). Dessutom studerar vi effekterna och begränsningarna av att använda sådana kontextuella datamängder på tidsserieinlärningsprocessen. Våra experiment visar att hybridmodeller inte alltid leder till bättre prestanda och att LSTM-modellen är kapabel att modellera komplexa sekventiella interaktioner. Det finns dock en potential att klassificera eller märka regioner efter deras stadslandskap och nättrafiken. / La prévision du trafic sur les réseaux cellulaires est un défi crucial pour les fournisseurs de communication, ce qui est important pour les cas d’utilisation tels que la direction du trafic et la gestion des ressources des stations de base. Les méthodes de prédiction traditionnelles reposent principalement sur des données historiques de séries chronologiques pour prédire la charge de trafic, qui échouent souvent à modéliser le monde réel et à capturer les conditions de l’environnement environnant. Dans ce travail, nous proposons un modèle d’apprentissage profond multimodal pour la prédiction du trafic des réseaux cellulaires 4G/5G en considérant des sources de données externes telles que l’imagerie satellitaire et les données météorologiques. Plus précisément, notre modèle proposé se compose de trois composants (1) composant temporel (modélisation des corrélations entre les valeurs de charge de trafic avec des points de données historiques via LSTM) (2) composant de vision par ordinateur (utilisant des incorporations pour capturer les corrélations entre les régions géographiques qui partagent des modèles de paysage similaires à l’aide de données d’imagerie satellitaire et de modèles CNN de pointe) et (3) composante météorologique (modélisation des corrélations entre les mesures météorologiques et les modèles de trafic). De plus, nous étudions les effets et les limites de l’utilisation de tels ensembles de données contextuelles sur le processus d’apprentissage des séries chronologiques. Nos expériences montrent que de tels modèles hybrides ne conduisent pas toujours à de meilleures performances, et le modèle LSTM est capable de modéliser des interactions séquentielles complexes. Cependant, il est possible de classer ou d’étiqueter les régions en fonction de leur paysage urbain et du trafic du réseau.
29

Reliability prediction of electronic products combining models, lab testing and field data analysis

Choudhury, Noor January 2016 (has links)
At present there are different reliability standards that are being used for carrying out reliability prediction. They take into consideration different factors, environments and data sources to give reliability data for a wide range of electronic components. However, the users are not aware of the differences between the different reliability standards due to the absence of benchmarks of the reliability standards that would help classify and compare between them. This lack of benchmark denies the users the opportunity to have a top-down view of these different standards and choose the appropriate standard based on qualitative judgement in performing reliability prediction for a specific system. To addres this issue, the benchmark of a set of reliability standards are developed in this dissertation. The benchmark helps the users of the selected reliability standards understand the similarities and differences between them and based on the evaluation criterion defined can easily choose the appropriate standard for reliability prediction in different scenarios. Theoretical reliability prediction of two electronic products in Bombardier is performed using the standards that have been benchmarked. One of the products is matured with available incident report from the field while the other is a new product that is under development and yet to enter in service. The field failure data analysis of the matured product is then compared and correlated to the theoretical prediction. Adjustment factors are then derived to help bridge the gap between the theoretical reliability prediction and the reliability of the product in field conditions. Since the theoretical prediction of the product under development could not be used to compare and correlate any data due to unavailability, instead, the accelerated life test is used to find out the product reliability during its lifetime and find out any failure modes intrinsic to the board. A crucial objective is realized as an appropriate algorithm/model is found in order to correlate accelerated test temperature-cycles to real product temperature-cycles. The PUT has lead-free solder joints, hence, to see if any failures occurring due to solder joint fatigue has also been of interest. Additionally, reliability testing simulation is a performed in order to verify and validate the performance of the product under development during ALT. Finally, the goal of the thesis is achieved as separate models are proposed to predict product reliability for both matured products and products under development. This will assist the organization in realizing the goal of predicting their product reliability with better accuracy and confidence. / För närvarande finns det olika tillförlitlighetsstandarder som används för att utföra tillförlitlighet förutsägelse. De tar hänsyn till olika faktorer, miljöer och datakällor för att ge tillförlitlighetsdata för ett brett spektrum av elektronikkomponenter. Men användarna inte är medvetna om skillnaderna mellan de olika tillförlitlighetsstandarder på grund av avsaknaden av riktmärken för tillförlitlighetsstandarder som skulle hjälpa klassificera och jämföra mellan dem. Denna brist på jämförelse förnekar användarna möjlighet att få en top-down bakgrund av dessa olika standarder och välja lämplig standard baserad på kvalitativ bedömning att utföra tillförlitlighet prognos för ett specifikt system. För att lösa detta problem, är riktmärket en uppsättning av tillförlitlighetsstandarder som utvecklats i denna avhandling. Riktmärket hjälper användarna av de utvalda tillförlitlighetsstandarder förstå likheter och skillnader mellan dem och på grundval av bedömningskriteriet definieras kan enkelt välja lämplig standard för pålitlighet förutsägelse i olika scenarier. Teoretisk tillförlitlighet förutsäga två elektroniska produkter i Bombardier utförs med hjälp av standarder som har benchmarking. En av produkterna är mognat med tillgängliga incidentrapport från fältet, medan den andra är en ny produkt som är under utveckling och ännu inte gå in i tjänsten. Analysen av den mognade produkten fält feldata jämförs sedan och korreleras till den teoretiska förutsägelsen. Justeringsfaktorer sedan härledas för att överbrygga klyftan mellan den teoretiska tillförlitlighet förutsägelse och tillförlitligheten av produkten i fältmässiga förhållanden. Eftersom den teoretiska förutsägelsen av produkt under utveckling inte kan användas för att jämföra och korrelera alla data på grund av otillgängligheten, i stället är det accelererade livslängdstest som används för att ta reda på produktens tillförlitlighet under dess livstid och reda ut eventuella felmoder inneboende till styrelsen . Ett viktigt mål realiseras som en lämplig algoritm /modell finns i syfte att korrelera accelererade provningen temperaturcykler på verkliga produkttemperatur cykler. PUT har blyfria lödfogar därmed att se om några fel inträffar på grund av löda gemensam trötthet har också varit av intresse. Dessutom är tillförlitlighet testning simulering en utförs för att verifiera och validera produktens prestanda under utveckling under ALT. Slutligen är målet med avhandlingen uppnås som separata modeller föreslås att förutsäga produktens tillförlitlighet för både förfallna och produkter under utveckling. Detta kommer att hjälpa organisationen att förverkliga målet att förutsäga deras tillförlitlighet med bättre noggrannhet och förtroende.
30

Predicting PV self-consumption in villas with machine learning

GALLI, FABIAN January 2021 (has links)
In Sweden, there is a strong and growing interest in solar power. In recent years, photovoltaic (PV) system installations have increased dramatically and a large part are distributed grid connected PV systems i.e. rooftop installations. Currently the electricity export rate is significantly lower than the import rate which has made the amount of self-consumed PV electricity a critical factor when assessing the system profitability. Self-consumption (SC) is calculated using hourly or sub-hourly timesteps and is highly dependent on the solar patterns of the location of interest, the PV system configuration and the building load. As this varies for all potential installations it is difficult to make estimations without having historical data of both load and local irradiance, which is often hard to acquire or not available. A method to predict SC using commonly available information at the planning phase is therefore preferred.  There is a scarcity of documented SC data and only a few reports treating the subject of mapping or predicting SC. Therefore, this thesis is investigating the possibility of utilizing machine learning to create models able to predict the SC using the inputs: Annual load, annual PV production, tilt angle and azimuth angle of the modules, and the latitude. With the programming language Python, seven models are created using regression techniques, using real load data and simulated PV data from the south of Sweden, and evaluated using coefficient of determination (R2) and mean absolute error (MAE). The techniques are Linear Regression, Polynomial regression, Ridge Regression, Lasso regression, K-Nearest Neighbors (kNN), Random Forest, Multi-Layer Perceptron (MLP), as well as the only other SC prediction model found in the literature. A parametric analysis of the models is conducted, removing one variable at a time to assess the model’s dependence on each variable.  The results are promising, with five out of eight models achieving an R2 value above 0.9 and can be considered good for predicting SC. The best performing model, Random Forest, has an R2 of 0.985 and a MAE of 0.0148. The parametric analysis also shows that while more input data is helpful, using only annual load and PV production is sufficient to make good predictions. This can only be stated for model performance for the southern region of Sweden, however, and are not applicable to areas outside the latitudes or country tested. / I Sverige finns ett starkt och växande intresse för solenergi. De senaste åren har antalet solcellsanläggningar ökat dramatiskt och en stor del är distribuerade nätanslutna solcellssystem, dvs takinstallationer. För närvarande är elexportpriset betydligt lägre än importpriset, vilket har gjort mängden egenanvänd solel till en kritisk faktor vid bedömningen av systemets lönsamhet. Egenanvändning (EA) beräknas med tidssteg upp till en timmes längd och är i hög grad beroende av solstrålningsmönstret för platsen av intresse, PV-systemkonfigurationen och byggnadens energibehov. Eftersom detta varierar för alla potentiella installationer är det svårt att göra uppskattningar utan att ha historiska data om både energibehov och lokal solstrålning, vilket ofta inte är tillgängligt. En metod för att förutsäga EA med allmän tillgänglig information är därför att föredra.  Det finns en brist på dokumenterad EA-data och endast ett fåtal rapporter som behandlar kartläggning och prediktion av EA. I denna uppsats undersöks möjligheten att använda maskininlärning för att skapa modeller som kan förutsäga EA. De variabler som ingår är årlig energiförbrukning, årlig solcellsproduktion, lutningsvinkel och azimutvinkel för modulerna och latitud. Med programmeringsspråket Python skapas sju modeller med hjälp av olika regressionstekniker, där energiförbruknings- och simulerad solelproduktionsdata från södra Sverige används. Modellerna utvärderas med hjälp av determinationskoefficienten (R2) och mean absolute error (MAE). Teknikerna som används är linjär regression, polynomregression, Ridge regression, Lasso regression, K-nearest neighbor regression, Random Forest regression, Multi-Layer Perceptron regression. En additionell linjär regressions-modell skapas även med samma metodik som används i en tidigare publicerad rapport. En parametrisk analys av modellerna genomförs, där en variabel exkluderas åt gången för att bedöma modellens beroende av varje enskild variabel.  Resultaten är mycket lovande, där fem av de åtta undersökta modeller uppnår ett R2-värde över 0,9. Den bästa modellen, Random Forest, har ett R2 på 0,985 och ett MAE på 0,0148. Den parametriska analysen visar också att även om ingångsdata är till hjälp, är det tillräckligt att använda årlig energiförbrukning och årlig solcellsproduktion för att göra bra förutsägelser. Det måste dock påpekas att modellprestandan endast är tillförlitlig för södra Sverige, från var beräkningsdata är hämtad, och inte tillämplig för områden utanför de valda latituderna eller land.

Page generated in 0.0386 seconds