Spelling suggestions: "subject:"artificiellt neuralt dcnätverk"" "subject:"artificiellt neuralt denätverk""
1 |
Artificiell intelligens som evolverande animationsverktygHeder, Marcus January 2010 (has links)
Animationer av karaktärer och objekt är en viktig del vid skapandet av spel. Detta är något som det läggs mycket fokus på att få så realistisk som möjligt, även spelfysik används till viss del här för att ge karaktärer möjlighet att anpassa sig till miljöer. Det här arbetet undersöker och implementerar ett styrsystem, som används för animations generering till en trasdocka, med hjälp av artificiell intelligens. Styrsystemet använder sig av en självorganiserande artificiell intelligens för att generera animationer som följer ett specifikt beteende, i det här arbetet har animationer som fokuserar på att skydda höften skapats. Arbetet har gett goda resultat som indikerar på att denna lösning fungerar för att generera animationer på en trasdocka, som ska följa ett visst beteende. Detta visade sig möjligt genom att använda artificiellt neuralt nätverk kombinerat med genetisk algoritm.
|
2 |
Artificiell intelligens som evolverande animationsverktyg : <html /> / <html /> : <html />Heder, Marcus January 2010 (has links)
<p>Animationer av karaktärer och objekt är en viktig del vid skapandet av spel. Detta är något som det läggs mycket fokus på att få så realistisk som möjligt, även spelfysik används till viss del här för att ge karaktärer möjlighet att anpassa sig till miljöer. Det här arbetet undersöker och implementerar ett styrsystem, som används för animations generering till en trasdocka, med hjälp av artificiell intelligens. Styrsystemet använder sig av en självorganiserande artificiell intelligens för att generera animationer som följer ett specifikt beteende, i det här arbetet har animationer som fokuserar på att skydda höften skapats.</p><p>Arbetet har gett goda resultat som indikerar på att denna lösning fungerar för att generera animationer på en trasdocka, som ska följa ett visst beteende. Detta visade sig möjligt genom att använda artificiellt neuralt nätverk kombinerat med genetisk algoritm.</p>
|
3 |
Inlärning och illusionen av intelligenta karaktärer : Undersökning av hur inlärning hos karaktärer påverkar spelarens uppfattning av intelligenta karaktärer i spel / Learning and the illusion of intelligent characters : Study of how learning capabilities in characters affect players’ interpretation of intelligent characters in gamesEkberg, Marie January 2013 (has links)
Det här arbetet har undersökt hur inlärning av hur en datorstyrd karaktär fattar sina beslut baserat på det gällande speltillståndet, påverkar spelarens uppfattning om hur mänskligt intelligent dess resulterande beteende uppfattas, med bakgrunden att det finns ett behov av intelligentare beteenden hos karaktärer i spel. Undersökningen har genomförts genom att jämföra en tillståndsmaskin med ett artificiellt neuralt nätverk, implementerade i ett enklare actionspel med en spelare och en datorstyrd karaktär. Nätverket är konstruerat att initialt bete sig som tillståndsmaskinen, men sedan utveckla sitt beteende genom att lära från den individuella spelarens spelstil. Ett antal testpersoner har sedan fått spela spelet mot respektive teknik, och fått ange hur de upplevde respektive beteende i en enkätundersökning. Resultatet av undersökningens sammanställda data särskiljer inte det resulterande beteendet från tillståndsmaskinen med beteendet från det artificiella neurala nätverket, vilket kan ha en förklaring i undersökningens felkällor, samt den mindre domänen teknikerna implementerats i.
|
4 |
Evaluating the use of Machine Learning for Fault Detection using Log File AnalysisTenov, Rosen Nikolaev January 2021 (has links)
Under de senaste åren fick maskininlärning mer och mer popularitet i samhället. Den implementeras i stor utsträckning inom många datavetenskapliga områden, t.ex. igenkänning av tal, video, objekt, sentimentanalys osv. Dessutom genererar moderna datorsystem och program stora filer med loggdata under deras körning och användning. Dessa loggfiler innehåller vanligtvis enorma mängder data, vilket leder till svårigheter att bearbeta all data manuellt. Således är användning av maskininlärningstekniker vid analys av loggdata för detektering av anomalibeteende av stort intresse för att uppnå skalbar underhåll av systemen. Syftet med detta arbete var att undersöka tillgängliga framträdande metoder för att implementera maskininlärning för upptäckning av loggfel och utvärdera en av dessa metoder. Uppsatsen fokuserade på att utvärdera DeepLog artificiella neurala nätverk som innehåller Long short-term memory algoritm. Utvärderingen omfattade mätning av den exekveringstid som behövdes och vilken precision, återkallande, noggrannhet och F1-index uppnåddes med modellen för maskininlärningsfelsdetektering vid användning av två olika loggdatamängder, en från OpenStack och en annan från Hadoop Distributed File System. Resultaten visade att DeepLog presterade bättre när man använde OpenStack-datamängd genom att uppnå höga resultat för alla index, särskilt recallsindex på cirka 90% som minimerade falska negativa förutsägelser, vilket är viktigt vid loggfelsdetektering. När DeepLog användes med HDFS-datamängd förbättrades körningstiden något men noggrannheten och recall av modellen tappades. Framtida arbete inkluderar att försöka och testa modellen med andra loggdatamängder eller andra ML-modeller för upptäckning av loggfel. / During the last years machine learning was gaining more and more popularity in the society. It is widely implemented in many fields of computer science, e.g. recognition of speech, video, objects, sentiment analysis, etc. Additionally, modern computer systems and programs generate large files with log data through their execution. These log files contain usually immense amount of data, which is a struggle for processing it manually. Thus, using machine learning techniques in the analysis of log data for detection of anomaly behavior is of a high interest for achieving scalable maintaining of the systems. The purpose of this work was to look into available prominent approaches of implementing machine learning for log fault detection and evaluate one of them. The paper focused on evaluating DeepLog artificial neural network that incorporates Long short-term memory. The evaluation included measuring the execution time needed and what precision, recall, accuracy and F1-index were achieved by the machine learning fault detection model when using two different log datasets, one from OpenStack and another from Hadoop Distributed File System. The results showed that DeepLog performed better when using OpenStack dataset by achieving high results for all indexes, especially the recall index of around 90%, minimizing the false negative predictions, which is important in the log fault detection. When using DeepLog with HDFS dataset the execution time was slightly improved but the accuracy and recall of the model were dropped. Future works includes trying another log datasets or ML models for log fault detection.
|
5 |
Calibrating Constitutive Models Using Data-Driven Method : Material Parameter Identification for an Automotive Sheet MetalHaller, Anton, Fridström, Nicke January 2024 (has links)
The automotive industry is reliant on accurate finite element simulations for developing new parts or machines and to achieve this, accurate material models are essential. Material cards contain input about the material model, and are significant; however, time-consuming to calibrate with traditional methods. Therefore a newer method involving Machine Learning (ML) and Feed-Forward Neural Networks (FFNN) is studied in the thesis. The direct application of calibration with FFNN has never been applied to calibrate the Swift hardening law and Barlat yield 2000 criteria, which is done in this thesis. All steps for calibration are performed to achieve a high-fidelity database capable of training the FFNN. The outline of the thesis involves four different phases; experiments, simulations, building the high-fidelity database, and building and optimizing the FFNN. The experiment phase involves tensile testing of three different types of specimens in three material directions with Digital Image Correlation (DIC) to capture local strain. The simulation phase is to replicate all the experiments in LS-DYNA and perform finite element simulation. The finite element models are simulated 100 times and, respectively, 1000 times with different material parameters within a specific range. This range has a lower and upper bound that covers the experimental results. The database phase involves extracting the data from a huge amount of simulations and then extracting the key characteristics from the force-displacement curve. The last phase is building the FFNN and optimizing the network to find the best parameters. It’s first optimized based on Root Mean Square Error (RMSE) and then points from the Swift hardening curve and Barlat yield 2000 criteria are compared with experimental points. The result shows that the FFNN with the high-fidelity database can predict material parameters with an accuracy of over 99 % for the hardening law at the points chosen for optimization and the anisotropy parameters are optimized to 97 % accuracy for the yielding points and Lankford coefficients. The thesis concludes that the FFNN can accurately predict the material parameters with real experimental data. The effectiveness of using this method is significantly faster than traditional methods because only one type of test is needed. / Bilindustrin är beroende av trovärdiga och noggranna finita element simuleringar för utveckling av nya komponenter eller maskiner, och för det behövs noggranna materialmodeller. Materialkort innehåller information om materialmodellerna och är av stor betydelse, men är tidskrävande att kalibrera med traditionella metoder. Därför är en ny metod som involverar Maskininlärning (ML) och Feed-Forward Neurala Nätverk (FFNN) undersökt i avhandlingen. Applikationen av att kalibrera med FFNN har aldrig blivit undersökt för ”Swift hardening law” och anisotropi kriteriet ”Barlat yield 2000”. Alla steg för att kalibrera materialet är utförda för att uppnå en högkvalitativ databas som är kapabel att träna ett FFNN. Arbetets översikt involverar fyra faser som är; experiment, simulationer, databasensuppbyggnad och utvecklingen samt optimeringen av FFNN. Experimentfasen involverar dragprov för tre olika geometrier i tre materialriktningar tillsammans med Digital Image Correlation (DIC) för att fånga lokala töjningspunkter. Simulationsfasen går ut på att replikera experimentfasen genom finita element simuleringar i LS-DYNA. Finita element modellerna är simulerade 100 respektive 1000 gånger med olika materialparametrar inom ett specifikt intervall med en övre och undre gräns som ska täcka experimentdatan. Databasfasen handlar om att extrahera data från de massiva antalet simuleringar och extrahera nyckelbeteenden från kraft-förflyttningskurvan. Den sista fasen är att bygga FFNN och optimera för att hitta bästa möjliga parametrar. Det är först optimerat baserat på Root Mean Squared Error (RMSE) och sedan punkter från Swift härdningskurvan och beteenden genererat från Barlat yield 2000 som är jämförda med experimentella värden som Lankfordkoefficienter och sträckgränser för rullningsriktningarna. Resultatet visar att ett FFNN med en högkvalitiativ databas kan estimera materialparametrar med en noggrannhet över 99 % för härdningskurvan för jämförelsepunkterna och med en 97 % noggrannhet för anisotropipunkterna som Lankfordkoefficienter och sträckgränser i rullningsriktningarna. Exjobbet avslutas med att dra slutsatsen att FFNN kan estimera riktiga materialparametrar med en viss noggrannhet. Effektiviteten av att använda metoden är betydligt snabbare än traditionella metoder eftersom det endast tar några sekunder att estimera parametrarna när datan är extraherad och enbart en typ av test behövs.
|
6 |
Providing Situational Awareness For Naval Operators : Implementation of Two Prioritization AlgorithmsNilsson, Jonna, Lidh, Jesper January 2024 (has links)
On the 29th of August, the vessel Stena Scandica experienced a blackout. Before the blackout, 294 alarms were issued in 4 minutes. With the number of alarms, the operators could not prevent the blackout. The amount of information and the way it was presented became a hindrance to operators. They could not interpret their surroundings' information without fault from them. This interpretation is called situational awareness. This thesis will solve how information can be provided to operators without hindrance to situational awareness. The focus will be on the Swedish Navy's operators and their needs. The aim is to solve the problem by creating a system that provides situational awareness. The system will use the information on air- and seaborne targets from a radar and a camera display. Three research questions were proposed: how will the radar data structure be, how will it be ranked, and how will it be presented? The structure was expected to tell the targets' location, size, and movement. The ranking of the targets would tell if the targets were a threat to the naval operators. Lastly, the targets were expected to be presented with some of their information on a camera display. For the first question, the structure for both kinds of targets was constructed to meet the expectations. Two models were used to solve the second question. An artificial neural network and fuzzy c-means. The artificial neural network was chosen as it is one of the best classification algorithms. Fuzzy c-means were chosen since it can cluster similar behaviors together, therefore clustering high-threat targets together. Of these two models, the result showed that the artificial neural network was a better ranking method, with a higher accuracy of 92.9% for airborne targets and 80.6% for seaborne targets. A simulation was made to answer the third question and was built according to the expectations. The simulation only displayed the highest threat targets in the camera display. By presenting the high-threat targets, the operators received a better understanding of where the targets are in reality. In the future, studies should be conducted on implementation of the system on Swedish Navy vessels. For example, is there enough computational power for an artificial neural network? / Den 29 augusti drabbades fartyget Stena Scandica av ett strömavbrott. Innan strömavbrottet utlöste 294 larm inom 4 minuter, vilket gjorde det omöjligt för operatörerna att förhindra avbrottet. Mängden information och sättet den presenterades på blev ett hinder för operatörerna, vilket påverkade deras lägesbild. Arbete syftar till att lösa hur information kan tillhandahållas till operatörer utan att hindra deras situationsmedvetenhet, med fokus på den svenska marinens operatörer och deras behov. Detta arbete föreslår ett system som använder radardata och kameradisplayer för att tillhandahålla lägesbilden. Tre forskningsfrågor ställs: hur ska radarns datastruktur vara, hur ska den rankas, och hur ska den presenteras? Strukturen förväntas visa målens plats, storlek och rörelse. Rankningen ska indikera om målen utgör ett hot, och hög-hotmål ska presenteras på kameradisplayen. För att svara på den första frågan konstruerades strukturen för båda typerna av mål. För den andra frågan användes två modeller: ett artificiellt neuralt nätverk och fuzzy c-means. Det artificiella neurala nätverket visade sig vara den bästa metoden med en noggrannhet på 92,9% för luftmål och 80,6% för sjömål. En simulering gjordes för att svara på den tredje frågan, där endast de mest hotfulla målen visades på kameradisplayen. Detta gav operatörerna en bättre förståelse för var målen befann sig. Framtida studier bör undersöka systemets implementering på svenska marinens fartyg. Exempelvis om tillräcklig beräkningskraft finns för ett artificiellt neuralt nätverk.
|
7 |
Long-term forecasting model for future electricity consumption in French non-interconnected territoriesCARON, MATHIEU January 2021 (has links)
In the context of decarbonizing the electricity generation of French non-interconnected territories, the knowledge of future electricity demand, in particular annual and peak demand in the long-term, is crucial to design new renewable energy infrastructures. So far, these territories, mainly islands located in the Pacific and Indian ocean, relies mainly on fossil fuels powered facilities. Energy policies envision to widely develop renewable energies to move towards a low-carbon electricity mix by 2028. This thesis focuses on the long-term forecasting of hourly electricity demand. A methodology is developed to design and select a model able to fit accurately historical data and to forecast future demand in these particular territories. Historical data are first analyzed through a clustering analysis to identify trends and patterns, based on a k-means clustering algorithm. Specific calendar inputs are then designed to consider these first observations. External inputs, such as weather data, economic and demographic variables, are also included. Forecasting algorithms are selected based on the literature and they are than tested and compared on different input datasets. These input datasets, besides the calendar and external variables mentioned, include different number of lagged values, from zero to three. The combination of model and input dataset which gives the most accurate results on the testing set is selected to forecast future electricity demand. The inclusion of lagged values leads to considerable improvements in accuracy. Although gradient boosting regression features the lowest errors, it is not able to detect peaks of electricity demand correctly. On the contrary, artificial neural network (ANN) demonstrates a great ability to fit historical data and demonstrates a good accuracy on the testing set, as well as for peak demand prediction. Generalized additive model, a relatively new model in the energy forecasting field, gives promising results as its performances are close to the one of ANN and represent an interesting model for future research. Based on the future values of inputs, the electricity demand in 2028 in Réunion was forecasted using ANN. The electricity demand is expected to reach more than 2.3 GWh and the peak demand about 485 MW. This represents a growth of 12.7% and 14.6% respectively compared to 2019 levels. / I samband med utfasningen av fossila källor för elproduktion i franska icke-sammankopplade territorier är kunskapen om framtida elbehov, särskilt årlig förbrukning och topplast på lång sikt, avgörande för att utforma ny infrastruktur för förnybar energi. Hittills är dessa territorier, främst öar som ligger i Stilla havet och Indiska oceanen, beroende av anläggningar med fossila bränslen. Energipolitiken planerar att på bred front utveckla förnybar energi för att gå mot en koldioxidsnål elmix till 2028. Denna avhandling fokuserar på den långsiktiga prognosen för elbehov per timme. En metod är utvecklad för att utforma och välja en modell som kan passa korrekt historisk data och för att förutsäga framtida efterfrågan inom dessa specifika områden. Historiska data analyseras först genom en klusteranalys för att identifiera trender och mönster, baserat på en k-means klusteralgoritm. Specifika kalenderinmatningar utformas sedan för att beakta dessa första observationer. Externa inmatningar, såsom väderdata, ekonomiska och demografiska variabler, ingår också. Prognosalgoritmer väljs utifrån litteraturen och de testas och jämförs på olika inmatade dataset. Dessa inmatade dataset, förutom den nämnda kalenderdatan och externa variabler, innehåller olika antal fördröjda värden, från noll till tre. Kombinationen av modell och inmatat dataset som ger de mest exakta resultaten på testdvärdena väljs för att förutsäga framtida elbehov. Införandet av fördröjda värden leder till betydande förbättringar i exakthet. Även om gradientförstärkande regression har de lägsta felen kan den inte upptäcka toppar av elbehov korrekt. Tvärtom, visar artificiella neurala nätverk (ANN) en stor förmåga att passa historiska data och visar en god noggrannhet på testuppsättningen, liksom för förutsägelse av toppefterfrågan. En generaliserad tillsatsmodell, en relativt ny modell inom energiprognosfältet, ger lovande resultat eftersom dess prestanda ligger nära den för ANN och representerar en intressant modell för framtida forskning. Baserat på de framtida värdena på indata, prognostiserades elbehovet 2028 i Réunion med ANN. Elbehovet förväntas nå mer än 2,3 GWh och toppbehovet cirka 485 MW. Detta motsvarar en tillväxt på 12,7% respektive 14,6% jämfört med 2019 års nivåer.
|
8 |
Preprocesserings påverkan på prediktiva modeller : En experimentell analys av tidsserier från fjärrvärme / Impact of preprocessing on predictive models : An experimental analysis of time series from district heatingAndersson, Linda, Laurila, Alex, Lindström, Johannes January 2021 (has links)
Värme står för det största energibehovet inom hushåll och andra byggnader i samhället och olika tekniker används för att kunna reducera mängden energi som går åt för att spara på både miljö och pengar. Ett angreppssätt på detta problem är genom informatiken, där maskininlärning kan användas för att analysera och förutspå värmebehovet. I denna studie används maskininlärning för att prognostisera framtida energiförbrukning för fjärrvärme utifrån historisk fjärrvärmedata från ett fjärrvärmebolag tillsammans med exogena variabler i form av väderdata från Sveriges meteorologiska och hydrologiska institut. Studien är skriven på svenska och utforskar effekter av preprocessering hos prediktionsmodeller som använder tidsseriedata för att prognostisera framtida datapunkter. Stegen som utförs i studien är normalisering, interpolering, hantering av numeric outliers och missing values, datetime feature engineering, säsongsmässighet, feature selection, samt korsvalidering. Maskininlärningsmodellen som används i studien är Multilayer Perceptron som är en subkategori av artificiellt neuralt nätverk. Forskningsfrågan som besvaras fokuserar på effekter av preprocessering och feature selection för prediktiva modellers prestanda inom olika datamängder och kombinationer av preprocesseringsmetoder. Modellerna delades upp i tre olika datamängder utifrån datumintervall: 2009, 2007–2011, samt 2007–2017, där de olika kombinationerna utgörs av preprocesseringssteg som kombineras inom en iterativ process. Procentuella ökningar på R2-värden för dessa olika intervall har uppnått 47,45% för ett år, 9,97% för fem år och 32,44% för 11 år. I stora drag bekräftar och förstärker resultatet befintlig teori som menar på att preprocessering kan förbättra prediktionsmodeller. Ett antal mindre observationer kring enskilda preprocesseringsmetoders effekter har identifierats och diskuterats i studien, såsom DateTime Feature Engineerings negativa effekter på modeller som tränats med ett mindre antal iterationer. / Heat accounts for the greatest energy needs in households and other buildings in society. Effective production and distribution of heat energy require techniques for minimising economic and environmental costs. One approach to this problem is through informatics where machine learning is used to analyze and predict the heating needs with the help of historical data from a district heating company and exogenous variables in the form of weather data from Sweden's Meteorological and Hydrological Institute (SMHI). This study is written in Swedish and explores the importance of preprocessing practices before training and using prediction models which utilizes time-series data to predict future energy consumption. The preprocessing steps explored in this study consists of normalization, interpolation, identification and management of numerical outliers and missing values, datetime feature engineering, seasonality, feature selection and cross-validation. The machine learning model used in this study is Multilayer Perceptron which is a subcategory of artificial neural network. The research question focuses on the effects of preprocessing and feature selection for predictive model performance within different datasets and combinations of preprocessing methods. The models were divided into three different data sets based on date ranges: 2009, 2007–2011, and 2007–2017, where the different combinations consist of preprocessing steps that are combined within an iterative process. Percentage increases in R2 values for these different ranges have reached 47,45% for one year, 9,97% for five years and 32,44% for 11 years. The results broadly confirm and reinforce the existing theory that preprocessing can improve prediction models. A few minor observations about the effects of individual preprocessing methods have been identified and discussed in the study, such as DateTime Feature Engineering having a detrimental effect on models with very few training iterations.
|
9 |
Adding temporal plasticity to a self-organizing incremental neural network using temporal activity diffusion / Om att utöka ett självorganiserande inkrementellt neuralt nätverk med temporal plasticitet genom temporal aktivitetsdiffusionLundberg, Emil January 2015 (has links)
Vector Quantization (VQ) is a classic optimization problem and a simple approach to pattern recognition. Applications include lossy data compression, clustering and speech and speaker recognition. Although VQ has largely been replaced by time-aware techniques like Hidden Markov Models (HMMs) and Dynamic Time Warping (DTW) in some applications, such as speech and speaker recognition, VQ still retains some significance due to its much lower computational cost — especially for embedded systems. A recent study also demonstrates a multi-section VQ system which achieves performance rivaling that of DTW in an application to handwritten signature recognition, at a much lower computational cost. Adding sensitivity to temporal patterns to a VQ algorithm could help improve such results further. SOTPAR2 is such an extension of Neural Gas, an Artificial Neural Network algorithm for VQ. SOTPAR2 uses a conceptually simple approach, based on adding lateral connections between network nodes and creating “temporal activity” that diffuses through adjacent nodes. The activity in turn makes the nearest-neighbor classifier biased toward network nodes with high activity, and the SOTPAR2 authors report improvements over Neural Gas in an application to time series prediction. This report presents an investigation of how this same extension affects quantization and prediction performance of the self-organizing incremental neural network (SOINN) algorithm. SOINN is a VQ algorithm which automatically chooses a suitable codebook size and can also be used for clustering with arbitrary cluster shapes. This extension is found to not improve the performance of SOINN, in fact it makes performance worse in all experiments attempted. A discussion of this result is provided, along with a discussion of the impact of the algorithm parameters, and possible future work to improve the results is suggested. / Vektorkvantisering (VQ; eng: Vector Quantization) är ett klassiskt problem och en enkel metod för mönsterigenkänning. Bland tillämpningar finns förstörande datakompression, klustring och igenkänning av tal och talare. Även om VQ i stort har ersatts av tidsmedvetna tekniker såsom dolda Markovmodeller (HMM, eng: Hidden Markov Models) och dynamisk tidskrökning (DTW, eng: Dynamic Time Warping) i vissa tillämpningar, som tal- och talarigenkänning, har VQ ännu viss relevans tack vare sin mycket lägre beräkningsmässiga kostnad — särskilt för exempelvis inbyggda system. En ny studie demonstrerar också ett VQ-system med flera sektioner som åstadkommer prestanda i klass med DTW i en tillämpning på igenkänning av handskrivna signaturer, men till en mycket lägre beräkningsmässig kostnad. Att dra nytta av temporala mönster i en VQ-algoritm skulle kunna hjälpa till att förbättra sådana resultat ytterligare. SOTPAR2 är en sådan utökning av Neural Gas, en artificiell neural nätverk-algorithm för VQ. SOTPAR2 använder en konceptuellt enkel idé, baserad på att lägga till sidleds anslutningar mellan nätverksnoder och skapa “temporal aktivitet” som diffunderar genom anslutna noder. Aktiviteten gör sedan så att närmaste-granne-klassificeraren föredrar noder med hög aktivitet, och författarna till SOTPAR2 rapporterar förbättrade resultat jämfört med Neural Gas i en tillämpning på förutsägning av en tidsserie. I denna rapport undersöks hur samma utökning påverkar kvantiserings- och förutsägningsprestanda hos algoritmen självorganiserande inkrementellt neuralt nätverk (SOINN, eng: self-organizing incremental neural network). SOINN är en VQ-algorithm som automatiskt väljer en lämplig kodboksstorlek och också kan användas för klustring med godtyckliga klusterformer. Experimentella resultat visar att denna utökning inte förbättrar prestandan hos SOINN, istället försämrades prestandan i alla experiment som genomfördes. Detta resultat diskuteras, liksom inverkan av parametervärden på prestandan, och möjligt framtida arbete för att förbättra resultaten föreslås.
|
10 |
Development of a Software Reliability Prediction Method for Onboard European Train Control SystemLongrais, Guillaume Pierre January 2021 (has links)
Software prediction is a complex area as there are no accurate models to represent reliability throughout the use of software, unlike hardware reliability. In the context of the software reliability of on-board train systems, ensuring good software reliability over time is all the more critical given the current density of rail traffic and the risk of accidents resulting from a software malfunction. This thesis proposes to use soft computing methods and historical failure data to predict the software reliability of on-board train systems. For this purpose, four machine learning models (Multi-Layer Perceptron, Imperialist Competitive Algorithm Multi-Layer Perceptron, Long Short-Term Memory Network and Convolutional Neural Network) are compared to determine which has the best prediction performance. We also study the impact of having one or more features represented in the dataset used to train the models. The performance of the different models is evaluated using the Mean Absolute Error, Mean Squared Error, Root Mean Squared Error and the R Squared. The report shows that the Long Short-Term Memory Network is the best performing model on the data used for this project. It also shows that datasets with a single feature achieve better prediction. However, the small amount of data available to conduct the experiments in this project may have impacted the results obtained, which makes further investigations necessary. / Att förutsäga programvara är ett komplext område eftersom det inte finns några exakta modeller för att representera tillförlitligheten under hela programvaruanvändningen, till skillnad från hårdvarutillförlitlighet. När det gäller programvarans tillförlitlighet i fordonsbaserade tågsystem är det ännu viktigare att säkerställa en god tillförlitlighet över tiden med tanke på den nuvarande tätheten i järnvägstrafiken och risken för olyckor till följd av ett programvarufel. I den här avhandlingen föreslås att man använder mjuka beräkningsmetoder och historiska data om fel för att förutsäga programvarans tillförlitlighet i fordonsbaserade tågsystem. För detta ändamål jämförs fyra modeller för maskininlärning (Multi-Layer Perceptron, Imperialist Competitive Algorithm Mult-iLayer Perceptron, Long Short-Term Memory Network och Convolutional Neural Network) för att fastställa vilken som har den bästa förutsägelseprestandan. Vi undersöker också effekten av att ha en eller flera funktioner representerade i den datamängd som används för att träna modellerna. De olika modellernas prestanda utvärderas med hjälp av medelabsolut fel, medelkvadratfel, rotmedelkvadratfel och R-kvadrat. Rapporten visar att Long Short-Term Memory Network är den modell som ger bäst resultat på de data som använts för detta projekt. Den visar också att dataset med en enda funktion ger bättre förutsägelser. Den lilla mängd data som fanns tillgänglig för att genomföra experimenten i detta projekt kan dock ha påverkat de erhållna resultaten, vilket gör att ytterligare undersökningar är nödvändiga.
|
Page generated in 0.0827 seconds