• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 46
  • 35
  • Tagged with
  • 81
  • 49
  • 49
  • 49
  • 44
  • 40
  • 38
  • 31
  • 26
  • 25
  • 22
  • 19
  • 18
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Forecasting and¨Optimization Models for Integrated PV-ESS Systems: : A Case Study at KTH Live-In Lab

Flor Lopes, Mariana January 2023 (has links)
With the ever-increasing adoption of renewable energy sources, the seamless integration of PV systems into existing grids becomes imperative. Therefore, this study investigates the integration of a PV-ESS system into sustainable urban living. It entails the development and evaluation of forecasting models for PV production and electricity consumption using artificial neural network models, as well as the analysis of linear optimization algorithms. These investigations give insight into the benefits, challenges, and implications of implementing a PV-ESS system. The photovoltaic generation forecasting model demonstrates high accuracy in winter months while encountering complexity in dynamic summer conditions. The model for estimating power demand poses challenges due to a variety of factors, including human behaviour and data quality.Moreover, the study focuses on the formulation and assessment of linear optimization models with two aims: minimizing costs and optimizing self-consumption. The first continually reduces electricity costs while increasing self-consumption, whereas the second maximizes self-consumption, with limitations in winter battery use. Finally, forecast precision appears as a crucial factor for optimization models. Forecast errors have an impact on the system’s operation. Improving forecasting accuracy and adaptive control strategies are therefore critical. / Med den ständigt ökande användningen av förnybara energikällor blir sömlös integration av solcellssystem i befintliga elnät nödvändig. Därför undersöker denna studie integrationen av ett solcellsenergilagringssystem (PV-ESS) i hållbart stadsboende. Det innefattar utveckling och utvärdering av prognosmodeller för solcellsproduktion och elförbrukning med hjälp av artificiella neurala nätverksmodeller, samt analys av linjär optimeringsalgoritmer. Dessa undersökningar ger insikt om fördelarna, utmaningarna och konsekvenserna av att implementera ett PV-ESS-system. Modellen för prognostisering av solcellsgeneration visar hög noggrannhet under vintermånaderna men stöter på komplexitet under dynamiska sommarförhållanden. Modellen för att uppskatta elförbrukning står inför utmaningar på grund av olika faktorer, inklusive mänskligt beteende och datakvalitet. Dessutom fokuserar studien på formulering och utvärdering av linjära optimeringsmodeller med två mål: att minimera kostnader och optimera självkonsumtion. Den första minskar kontinuerligt elkostnader samtidigt som den ökar självkonsumtionen, medan den andra maximerar självkonsumtionen med begränsningar i vinterbatterianvändning. Slutligen framstår precision i prognoser som en avgörande faktor för optimeringsmodeller. Prognosfel påverkar systemets drift. Därför är förbättring av prognosnoggrannhet och adaptiva kontrollstrategier avgörande.
52

Predicting user churn using temporal information : Early detection of churning users with machine learning using log-level data from a MedTech application / Förutsägning av användaravhopp med tidsinformation : Tidig identifiering av avhoppande användare med maskininlärning utifrån systemloggar från en medicinteknisk produkt

Marcus, Love January 2023 (has links)
User retention is a critical aspect of any business or service. Churn is the continuous loss of active users. A low churn rate enables companies to focus more resources on providing better services in contrast to recruiting new users. Current published research on predicting user churn disregards time of day and time variability of events and actions by feature selection or data preprocessing. This thesis empirically investigates the practical benefits of including accurate temporal information for binary prediction of user churn by training a set of Machine Learning (ML) classifiers on differently prepared data. One data preparation approach was based on temporally sorted logs (log-level data set), and the other on stacked aggregations (aggregated data set) with additional engineered temporal features. The additional temporal features included information about relative time, time of day, and temporal variability. The inclusion of the temporal information was evaluated by training and evaluating the classifiers with the different features on a real-world dataset from a MedTech application. Artificial Neural Networks (ANNs), Random Forrests (RFs), Decision Trees (DTs) and naïve approaches were applied and benchmarked. The classifiers were compared with among others the Area Under the Receiver Operating Characteristics Curve (AUC), Positive Predictive Value (PPV) and True Positive Rate (TPR) (a.k.a. precision and recall). The PPV scores the classifiers by their accuracy among the positively labeled class, the TPR measures the recognized proportion of the positive class, and the AUC is a metric of general performance. The results demonstrate a statistically significant value of including time variation features overall and particularly that the classifiers performed better on the log-level data set. An ANN trained on temporally sorted logs performs best followed by a RF on the same data set. / Bevarande av användare är en kritisk aspekt för alla företag eller tjänsteleverantörer. Ett lågt användarbortfall gör det möjligt för företag att fokusera mer resurser på att tillhandahålla bättre tjänster istället för att rekrytera nya användare. Tidigare publicerad forskning om att förutsäga användarbortfall bortser från tid på dygnet och tidsvariationer för loggad användaraktivitet genom val av förbehandlingsmetoder eller variabelselektion. Den här avhandlingen undersöker empiriskt de praktiska fördelarna med att inkludera information om tidsvariabler innefattande tid på dygnet och tidsvariation för binär förutsägelse av användarbortfall genom att träna klassificerare på data förbehandlat på olika sätt. Två förbehandlingsmetoder används, en baserad på tidssorterade loggar (loggnivå) och den andra på packade aggregeringar (aggregerat) utökad med framtagna tidsvariabler. Inklusionen av tidsvariablerna utvärderades genom att träna och utvärdera en uppsättning MLklassificerare med de olika tidsvariablerna på en verklig datamängd från en digital medicinskteknisk produkt. ANNs, RFs, DTs och naiva tillvägagångssätt tillämpades och jämfördes på den aggregerade datamängden med och utan tidsvariationsvariablerna och på datamängden på loggnivå. Klassificerarna jämfördes med bland annat AUC, PPV och TPR. PPV betygsätter algoritmerna efter träffsäkerhet bland den positivt märkta klassen och TPR utvärderar hur stor del av den positiva klassen som identifierats medan AUC är ett mått av klassificerarnas allmänna prestanda. Resultaten visar ett betydande värde av att inkludera tidsvariationsvariablerna överlag och i synnerhet att klassificerarna presterade bättre på datauppsättningen på loggnivå. Ett ANN tränad på tidssorterade loggar presterar bäst följt av en RF på samma datamängd.
53

Deep Bayesian Neural Networks for Prediction of Insurance Premiums / Djupa Bayesianska neurala nätverk för prediktioner på fordonsförsäkringar

Olsgärde, Nils January 2021 (has links)
In this project, the problem concerns predicting insurance premiums and particularly vehicle insurance premiums. These predictions were made with the help of Bayesian Neural Networks (BNNs), a type of Artificial Neural Network (ANN). The central concept of BNNs is that the parameters of the network follow distributions, which is beneficial. The modeling was done with the help of TensorFlow's Probability API, where a few models were built and tested on the data provided. The results conclude the possibility of predicting insurance premiums. However, the output distributions in this report were too wide to use. More data, both in volume and in the number of features, and better-structured data are needed. With better data, there is potential in building BNN and other machine learning (ML) models that could be useful for production purposes. / Detta projekt grundar sig i möjligheten till att predikera försäkringspremier, mer specifikt fordonsförsäkringspremier. Prediktioner har gjorts med hjälp av Bayesianska neurala nätverk, vilket är en typ av artificiella neurala nätverk. Det huvudsakliga konceptet med Bayesianska neurala nätverk är att parametrarna i nätverket följer distributioner vilket har vissa fördelar och inte är fallet för vanliga artificiella neurala nätverk. Ett antal modeller har konstruerats med hjälp av TensorFlow Probability API:t som tränats och testats på given data. Resultatet visar att det finns potential att prediktera premier med hjälp av de egenskapspunkter\footnote[2]{\say{Features} på engelska} som finns tillgängliga, men att resultaten inte är tillräckligt bra för att kunna användas i produktion. Med mer data, både till mängd och egenskapspunkter samt bättre strukturerad data finns potential att skapa bättre modeller av intresse för produktion.
54

Comparing Machine Learning Estimation of Fuel Consumption of Heavy-duty Vehicles / En jämförelse av maskininlärningsalgoritmers estimering av bränsleförbrukning för tunga fordon

Bodell, Victor January 2020 (has links)
Fuel consumption is one of the key factors in determining expenses of operating a heavy-duty vehicle. A customer may therefor request an estimate of the fuel consumption of a given vehicle. Scania uses modular design when constructing heavy-duty vehicles. The modular design allows a customer to specify which building blocks to use when constructing the vehicle, such as gear box, engine and chassis type. The many possible combinations means that the same vehicle is rarely sold twice, which can make fuel consumption measurements unfeasible. This study investigates the accuracy of machine learning algorithms in predicting fuel consumption for heavy-duty vehicles. The study is conducted at Scania. Scania has also provided the data used in the study. This study also examines the prediction power of different parameters. Performance is evaluated by reporting the prediction error on both simulated data and operational measurements. The performance of Linear regression (LR), K-nearest neighbor (KNN) and Artificial neural networks (ANN) is compared using statistical hypothesis testing. It is found that using Country as an input parameter yields a performance increase in all the algorithms. The statistical evaluation procedure finds that ANNs have the lowest prediction error compared to LR and KNN in estimating fuel consumption on both simulated and operational data. The performance of the final models is comparable to models of previous studies in both the simulated and operational estimation scenarios. / Bränsleförbrukning utgör en av nyckelfaktorerna för att avgöra hur mycket det kostar att använda tunga lastbilar. En köpare av en tung lastbil kan därmed begära en uppskattning av hur mycket bränsle ett givet fordon förbrukar. Scania använder sig av en modulär designprincip vid fordonskonstruktion, vilket ger kunden möjlighet att bestämma vilka byggnadsblock som ska utgöra ett for- don. Detta gör att det kan vara omöjligt att mäta förbrukningen av ett tidigare icke-producerat fordon. Den här studien undersöker exaktheten av maskininlärningsalgoritmer för att estimera bränsleförbrukning av tunga lastbilar. Studien genomförs vid Scania, som även tillhandahåller data. Användbarheten av olika in-parametrar undersöks. Algoritmernas prestanda utvärderas genom att rapportera det kvadrerade felvärdet uppmätt mellan det riktiga uppmätta värdet och det av algoritmen uppskattade värdet. Bränsleförbrukning estimeras för simulerad data och för uppmätta värden från fordon i bruk. Tre kategorier av algoritmer undersöks: Artificiella neurala nätverk, linjär regression och K-nearest neighbor. Jämförelsen mellan algoritmer använder statistisk hypotes-testning. Resultatet visar att parametern som beskriver vilket land fordonet registrerats i förbättrar samtliga algoritmers estimering. Den statistiska utvärderingen finner att artificiella neurala nätverk ger det lägsta felet av de tre kategorierna av algoritmer i estimering av simulerade och uppmätta värden. De slutgiltiga modellernas exakthet är jämförbar med resultat från tidigare studier.
55

Classification and localization of extreme outliers in computer vision tasks in surveillance scenarios / Klassificering och lokalisering av extremvärden för datorseende i övervakningsscenarion

Daoud, Tariq, Zere Goitom, Emanuel January 2022 (has links)
Convolutional neural networks (CNN) have come a long way and can be trained toclassify many of the objects around us. Despite this, researchers do not fullyunderstand how CNN models learn features (edges, shapes, contours, etc.) fromdata. For this reason, it is reasonable to investigate if a CNN model can learn toclassify objects under extreme conditions. An example of such an extreme conditioncould be a car that drives towards the camera at night, and therefore does not haveany distinct features because the light from the headlights covers large parts of thecar.The aim of this thesis is to investigate how the performance of a CNN model isaffected, when trained on objects under extreme conditions. A YOLOv4 model willbe trained on three different extreme cases: light polluted vehicles, nighttimeobjects and snow-covered vehicles. A validation will then be conducted on a testdataset to see if the performance decreases or improves, compared to when themodel trained is on normal conditions. Generally, the training was stable for allextreme cases and the results show an improved or similar performance incomparison to the normal cases. This indicates that models can be trained with allextreme cases. Snow-covered vehicles with mosaic data augmentation and the IOUthreshold 0,25 had the best overall performance compared to the normal cases, witha difference of +14,95% in AP for cars, −0,73% in AP for persons, +8,08% in AP fortrucks, 0 in precision and +9% in recall. / Konvolutionella neurala nätverk (CNN) har kommit långt och kan tränas till attklassificera de flesta objekten i vår omgivning. Trots detta har forskare intefullständigt förstått hur CNN modeller lär sig att klassificera drag (kanter, former,konturer, osv), på grund av detta är det rimligt att undersöka om en CNN-modellkan lära sig att klassificera objekt som befinner sig under extrema förhållanden.Ett exempel på ett sådant extremfall kan vara när en bil kör mot kameran undernattetid och inte har några distinkta drag, eftersom ljuset från framlyktorna täckerstora delar av bilen.Målet med detta arbete är att undersöka hur en CNN-modells prestanda påverkas,när den tränats på objekt som befinner sig under extrema förhållanden. EnYOLOV4 modell ska tränas på tre olika extrema fall: ljus bländade fordon,nattetidobjekt samt snötäckta fordon. En validering ska sedan utföras på ett test setför att se om prestandan försämras eller förbättras, jämfört med modellen somtränat på normala förhållanden. Generellt sett var träningen stabil för alla extremafall och resultatet visade förbättring eller liknande prestanda, i förhållande tillnormala fallen. Detta indikerar att modeller kan tränas med alla extrema fall. Bästprestanda erhölls av snötäckta bilar med mosaik data augmentering och IOUtröskeln 0,25 jämfört med normala fallen, med en skillnad på -0,73% i AP förpersoner, +14,95% i AP för bilar, +8,08% skillnad i AP för lastbilar, 0 i precisionoch +9% i recall.
56

Nakenhetens narrativa funktion : En semiotisk analys med grund i Westworlds första säsongs nakenscener / The Narrative Function of Nudity : A semiotic analysis based on Westworld’s first season’s nude scenes

Hansson, Louise January 2022 (has links)
I denna semiotiska analys granskas hur nakenhet i Westworlds första säsong används för att stöda en etablering av androiderna som objekt. Detta görs utifrån en analys av mise-en-scène i två sekvenser av scener där nakenscenen följs av en påklädd sådan. I analysen ses ett samband mellan nakenscenernas science fiction-kodade miljöer och teorier kring en perfekt artificiell kropp, medan de påklädda scenerna visar livfulla och känslosamma ögonblick. Detta resulterar i en nakenhet som inte kan bli osedd och som även förändrar hur tittaren ser på påklädda scener. / This semiotic analysis examines the way nudity in Westworld’s first season is used to support an establishment of the androids as object. This is done through an analysis of mise-en-scène in two sequences of scenes where the nude scene is followed by a clothed one. In the analysis a connection between the nude scenes’ science fiction coded environments and theories about a perfect artificial body can be found, while the clothed scenes show lifeful and emotional moments. This results in a nudity that cannot be unseen and even affects the way the viewer sees clothed scenes.
57

Modern Credit Value Adjustment / Modern Kreditvärdejustering

Ratusznik, Wojciech January 2021 (has links)
Counterparty risk calculations have gained importance after the latest financial crisis. The bankruptcy of Lehman Brothers showed that even large financial institutiones face a risk of default. Hence, it is important to measure the risk of default for all the contracts written between financial institutions. Credit Value Adjustment, CVA, is an industry standard method for such calculations. Nevertheless, the implementation of this method is contract dependent and the necessary computer simulations can be very intensive. Monte Carlo simulations have for a long time been known as a precise but slow technique to evaluate the cash flows for contracts of all kinds. Measuring the exposure of a contract written on structured products might require half a day of calculations if the implementation is written without significant optimization. Several ideas have been presented by researchers and applied in the industry, the idea explored and implemented in this thesis was based on using Artificial Neural Networks in Python. This procedure require a decomposition of the Expected Exposure calculation within the CVA and generating a large data set using a standard Monte Carlo simulation. Three network architectures have been tested and the final performance was compared with using standard techniques for the very same calculation. The performance gain was significant, a portfolio of 100 counterparties with 10 contracts each would take 20 minutes of calculations in total when using the best performing architecture whereas a parallel C++ implementation of the standard method would require 2.6 days.
58

Evertebraters kolonisation på fin ved i semi-naturliga bäckar / Colonization of invertebrates on fine wood in semi-natural streams

Johansson, Patricia January 2015 (has links)
Wood can be added to streams to create microhabitats that provide macroinvertebrates with an opportunity for re-colonization by making the stream more heterogeneous. I examined colonization on wood substrate by macroinvertebrates in semi-natural streams in northern Finland during a three month period. Each of the streams was divided in three sections A, B and C, half of which were provided with wood. The focus has been on whether the density of macroinvertebrates changes with time, along an upstream-downstream direction in the streams, or in streams with two wood sections if macroinvertebrates will colonize the first section with wood that they come in contact with (upstream section) or if they continue downstream to the second section with wood. Wood from Salix sp. was placed in nine of the 18 enclosures during mid-June. Samples of wood were removed from the streams on three different occasions from August to October 2014. A total of 32 taxa were identified from the wood and assigned to functional feeding groups: shredders, scrapers, active filter feeders, passive filter feeders, collectors, miners, piercers and predators. The results showed that collectors, miners and piercers increased in density during the month of October and the abundance of scrapers was higher in the upstream location than in the downstream location. Total number of macroinvertebrates, collectors, passive filter feeders and predators had a higher colonization on the first substrate they came into contact with. / Ved i homogena vattendrag skapar mikrohabitat och ger evertebrater en möjlighet att återkolonisera vattendraget genom att göra vattendraget mer heterogent. Jag har undersökt makroevertebraters kolonisation på ved i semi-naturliga bäckar under en tre månaders-period i norra Finland. Bäckarna var uppdelade i tre sektioner upp-, mellan- och nedströms respektive A, B och C. Av 18 sektioner var nio ved försedda. Jag har fokuserat på om tätheten av evertebrater och diversiteten förändras med tiden, längs bäckarna dvs. uppströms – nedströms, och om makroevertebrater kommer kolonisera den första vedförsedda sektionen de kommer i kontakt med eller fortsätta till den efterföljande vedförsedda sektionen. Ved från Salix sp. placerades i nio inhägnader i mitten på juni. Prov på ved togs vid tre olika tidpunkter under studieperioden från Augusti till Oktober 2014. En totala av 32 taxa identifierades från veden och grupperades i funktionella födogrupper: Sönderdelare, skrapare, aktiva filtrerare, passiva filtrerare, samlare, växtgrävare, växtsugare och predatorer. Resultatet visade att samlare, växtgrävare och växtsugare ökade i täthet under oktober månad samt att skapare föredrog ett uppströmsläge framför de andra två möjligheterna. Totala antalet evertebrater, samlare, passiva filtrerare och predatorer koloniserade det första substratet de kom i kontakt med i större utsträckning än de andra födogrupperna.
59

Input Calibration, Code Validation and Surrogate Model Development for Analysis of Two-phase Circulation Instability and Core Relocation Phenomena

Phung, Viet-Anh January 2017 (has links)
Code validation and uncertainty quantification are important tasks in nuclear reactor safety analysis. Code users have to deal with large number of uncertain parameters, complex multi-physics, multi-dimensional and multi-scale phenomena. In order to make results of analysis more robust, it is important to develop and employ procedures for guiding user choices in quantification of the uncertainties.   The work aims to further develop approaches and procedures for system analysis code validation and application to practical problems of safety analysis. The work is divided into two parts.   The first part presents validation of two reactor system thermal-hydraulic (STH) codes RELAP5 and TRACE for prediction of two-phase circulation flow instability.   The goals of the first part are to: (a) develop and apply efficient methods for input calibration and STH code validation against unsteady flow experiments with two-phase circulation flow instability, and (b) examine the codes capability to predict instantaneous thermal hydraulic parameters and flow regimes during the transients.   Two approaches have been developed: a non-automated procedure based on separate treatment of uncertain input parameters (UIPs) and an automated method using genetic algorithm. Multiple measured parameters and system response quantities (SRQs) are employed in both calibration of uncertain parameters in the code input deck and validation of RELAP5 and TRACE codes. The effect of improvement in RELAP5 flow regime identification on code prediction of thermal-hydraulic parameters has been studied.   Result of the code validations demonstrates that RELAP5 and TRACE can reproduce qualitative behaviour of two-phase flow instability. However, both codes misidentified instantaneous flow regimes, and it was not possible to predict simultaneously experimental values of oscillation period and maximum inlet flow rate. The outcome suggests importance of simultaneous consideration of multiple SRQs and different test regimes for quantitative code validation.   The second part of this work addresses core degradation and relocation to the lower head of a boiling water reactor (BWR). Properties of the debris in the lower head provide initial conditions for vessel failure, melt release and ex-vessel accident progression.   The goals of the second part are to: (a) obtain a representative database of MELCOR solutions for characteristics of debris in the reactor lower plenum for different accident scenarios, and (b) develop a computationally efficient surrogate model (SM) that can be used in extensive uncertainty analysis for prediction of the debris bed characteristics.   MELCOR code coupled with genetic algorithm, random and grid sampling methods was used to generate a database of the full model solutions and to investigate in-vessel corium debris relocation in a Nordic BWR. Artificial neural networks (ANNs) with classification (grouping) of scenarios have been used for development of the SM in order to address the issue of chaotic response of the full model especially in the transition region.   The core relocation analysis shows that there are two main groups of scenarios: with relatively small (&lt;20 tons) and large (&gt;100 tons) amounts of total relocated debris in the reactor lower plenum. The domains are separated by transition regions, in which small variation of the input can result in large changes in the final mass of debris.  SMs using multiple ANNs with/without weighting between different groups effectively filter out the noise and provide a better prediction of the output cumulative distribution function, but increase the mean squared error compared to a single ANN. / Validering av datorkoder och kvantifiering av osäkerhetsfaktorer är viktiga delar vid säkerhetsanalys av kärnkraftsreaktorer. Datorkodanvändaren måste hantera ett stort antal osäkra parametrar vid beskrivningen av fysikaliska fenomen i flera dimensioner från mikro- till makroskala. För att göra analysresultaten mer robusta, är det viktigt att utveckla och tillämpa rutiner för att vägleda användaren vid kvantifiering av osäkerheter.Detta arbete syftar till att vidareutveckla metoder och förfaranden för validering av systemkoder och deras tillämpning på praktiska problem i säkerhetsanalysen. Arbetet delas in i två delar.Första delen presenterar validering av de termohydrauliska systemkoderna (STH) RELAP5 och TRACE vid analys av tvåfasinstabilitet i cirkulationsflödet.Målen för den första delen är att: (a) utveckla och tillämpa effektiva metoder för kalibrering av indatafiler och validering av STH mot flödesexperiment med tvåfas cirkulationsflödeinstabilitet och (b) granska datorkodernas förmåga att förutsäga momentana termohydrauliska parametrar och flödesregimer under transienta förlopp.Två metoder har utvecklats: en icke-automatisk procedur baserad på separat hantering av osäkra indataparametrar (UIPs) och en automatiserad metod som använder genetisk algoritm. Ett flertal uppmätta parametrar och systemresponser (SRQs) används i både kalibrering av osäkra parametrar i indatafilen och validering av RELAP5 och TRACE. Resultatet av modifikationer i hur RELAP5 identifierar olika flödesregimer, och särskilt hur detta påverkar datorkodens prediktioner av termohydrauliska parametrar, har studerats.Resultatet av valideringen visar att RELAP5 och TRACE kan återge det kvalitativa beteende av två-fas flödets instabilitet. Däremot kan ingen av koderna korrekt identifiera den momentana flödesregimen, det var därför ej möjligt att förutsäga experimentella värden på svängningsperiod och maximal inloppsflödeshastighet samtidigt. Resultatet belyser betydelsen av samtidig behandling av flera SRQs liksom olika experimentella flödesregimer för kvantitativ kodvalidering.Den andra delen av detta arbete behandlar härdnedbrytning och omfördelning till reaktortankens nedre plenumdel i en kokarvatten reaktor (BWR). Egenskaper hos härdrester i nedre plenum ger inledande förutsättningar för reaktortanksgenomsmältning, hur smältan rinner ut ur reaktortanken och händelseförloppet i reaktorinneslutningen.Målen i den andra delen är att: (a) erhålla en representativ databas över koden MELCOR:s analysresultat för egenskaperna hos härdrester i nedre plenum under olika händelseförlopp, och (b) utveckla en beräkningseffektiv surrogatsmodell som kan användas i omfattande osäkerhetsanalyser för att förutsäga partikelbäddsegenskaper.MELCOR, kopplad till en genetisk algoritm med slumpmässigt urval användes för att generera en databas av analysresultat med tillämpning på smältans omfördelning i reaktortanken i en Nordisk BWR.Analysen av hur härden omfördelas visar att det finns två huvudgrupper av scenarier: med relativt liten (&lt;20 ton) och stor (&gt; 100 ton) total mängd omfördelade härdrester i nedre plenum. Dessa domäner är åtskilda av övergångsregioner, där små variationer i indata kan resultera i stora ändringar i den slutliga partikelmassan. Flergrupps artificiella neurala nätverk med klassificering av händelseförloppet har använts för utvecklingen av en surrogatmodell för att hantera problemet med kaotiska resultat av den fullständiga modellen, särskilt i övergångsregionen. / <p>QC 20170309</p>
60

Artificiella neurala nät för datorseende hos en luftmålsrobot / Artificial Neural Nets for Computer Vision with an Air-target Missile

Hård af Segerstad, Per January 2018 (has links)
Studiens syfte är att öka förståelsen för möjligheterna med modern artificiell intelligens (AI) vid militär användning genom att bidra med information om ny teknik. Moderna civila applikationer av datorseende som skapats genom användande av så kallade artificiella neurala nät visar resultat som närmar sig den mänskliga synens nivå när det gäller att känna igen olika saker i sin omgivning. Denna studie motiveras av dessa observationer inom området AI i förhållande till situationer i luftstrid då pilotens syn används för att känna igen flygplan innan det bekämpas. Exempelvis vid användande av hjälmsikte riktar pilotens ögon målsökaren hos en luftmålsrobot mot det flygplan som robotens målsökare sedan låser på. Utanför visuella avstånd kan pilotens ögon av naturliga skäl inte användas på detta sätt, varför datorseende använt i en luftmålsrobot undersöks. Resultaten från studien stödjer att datorseende genom användande av artificiella neurala nät kan användas i en luftmålsrobot samt att datorseende kan utföra uppgiften att känna igen stridsflygplan. / This study is aimed at increasing the knowledge to those concerned within the Armed Forces by providing information on the possibilities of modern artificial intelligence (AI). Motivation comes from observations of civilian technology on the use of AI in the field of Computer Vision showing performance equaling the level of the human vision when using the technology of Deep Learning of Artificial Neural Nets. In air-combat aircraft the pilot´s vision is used for recognizing the aircraft that is about to be shot down. For example when utilizing helmet mounted displays, the seeker of an air-target-missile is directed upon the aircraft on which the pilot´s eyes are looking. However when air-target-missiles are utilized beyond visual range the pilot´s vision cannot help in directing the seeker on a specific target. Therefore computer vision within an air-target-missile is studied. The results of the study support that the technology of neural networks may be used in an air-target-missile and that computer vision provided by this technology can do the job of recognizing a combat aircraft.

Page generated in 0.0362 seconds