• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 17
  • Tagged with
  • 54
  • 42
  • 27
  • 25
  • 21
  • 19
  • 16
  • 14
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Real-time Object Detection on Raspberry Pi 4 : Fine-tuning a SSD model using Tensorflow and Web Scraping

Ferm, Oliwer January 2020 (has links)
Edge AI is a growing area. The use of deep learning on low cost machines, such as the Raspberry Pi, may be used more than ever due to the easy use, availability, and high performance. A quantized pretrained SSD object detection model was deployed to a Raspberry Pi 4 B to evaluate if the throughput is sufficient for doing real-time object recognition. With input size of 300x300, an inference time of 185 ms was obtained. This is an improvement as of the previous model; Raspberry Pi 3 B+, 238 ms with a input size of 96x96 which was obtained in a related study. Using a lightweight model is for the benefit of higher throughput as a trade-off for lower accuracy. To compensate for the loss of accuracy, using transfer learning and tensorflow, a custom object detection model has been trained by fine-tuning a pretrained SSD model. The fine-tuned model was trained on images scraped from the web with people in winter landscape. The pretrained model was trained to detect different objects, including people in various environments. Predictions shows that the custom model performs significantly better doing detections on people in snow. The conclusion from this is that web scraping can be used for fine-tuning a model. However, the images scraped is of bad quality and therefore it is important to thoroughly clean and select which images that is suitable to keep, given a specific application. / Användning av djupinlärning på lågkostnadsmaskiner, som Raspberry Pi, kan idag mer än någonsin användas på grund av enkel användning, tillgänglighet, och hög prestanda. En kvantiserad förtränad SSD-objektdetekteringsmodell har implementerats på en Raspberry Pi 4 B för att utvärdera om genomströmningen är tillräcklig för att utföra realtidsobjektigenkänning. Med en ingångsupplösning på 300x300 pixlar erhölls en periodtid på 185 ms. Detta är en stor förbättring med avseende på prestanda jämfört med den tidigare modellen; Raspberry Pi 3 B+, 238 ms med en ingångsupplösning på 96x96 som erhölls i en relaterad studie. Att använda en kvantiserad modell till förmån för hög genomströmning bidrar till lägre noggrannhet. För att kompensera för förlusten av noggrannhet har, med hjälp av överföringsinlärning och Tensorflow, en skräddarsydd modell tränats genom att finjustera en färdigtränad SSD-modell. Den finjusterade modellen tränas på bilder som skrapats från webben med människor i vinterlandskap. Den förtränade modellen var tränad att känna igen olika typer av objekt, inklusive människor i olika miljöer. Förutsägelser visar att den skräddarsydda modellen detekterar människor med bättre precision än den ursprungliga. Slutsatsen härifrån är att webbskrapning kan användas för att finjustera en modell. Skrapade bilder är emellertid av dålig kvalitet och därför är det viktigt att rengöra all data noggrant och välja vilka bilder som är lämpliga att behålla gällande en specifik applikation.
22

Feasibility study of initial orbit determination with open astronomical data / Studie av initial banbestämning med öppen astronomisk data

Mattsson, Linn January 2022 (has links)
In this report I present a feasibility study of using open astronomical data to make Initial Orbit Determination (IOD) for Resident Space Objects (RSO) appearing as streaks in telescope images. The purpose is to contribute to Space Surveillance and Tracking (SST) for maintaining Space Situation Awareness (SSA). Data from different wide-field survey telescopes were considered but due to availability constraints only mask images from Zwicky Transient Facility (ZTF) survey were chosen for the analysis. An algorithm was developed to detect streaks in the mask images and match them to RSO known to be within the Field of View (FoV) at the observation time. Further, the IOD was made with angles-only Laplace’s method and the state vectors calculated for the streaks from the IOD were compared to those from the TLE for the matching RSO. The algorithm was tested with 6 different image fields acquired between the 14th to the 16th December 2019, of which 4 are characterised as non-crowded and 2 as crowded. The streak finding algorithm has a better precision and sensitivity for the non-crowded field, with an F1-score of 0.65, but is worse for the crowded fields with an F1-score of 0.035. In the non-crowded fields 95% of all streak and object matches are true matches to unique RSO, while for the crowded field only 10% are true matches. It was found that the 1''/pixel resolution in the images is too low for doing an IOD with Laplace’s method, despite how well the streak finding algorithm performs. However, with some improvements, the method is suitable as a cost effective way to verify known RSO in catalogues. / I den här rapporten presenterar jag en studie om att använda öppen astronomiska data för att göra initial banbestämning för artificiella rymdobjekt avbildade som streck i teleskopbilder. Syftet är att tillhandahålla information för att upprätthålla en god rymdlägesbild. Data från olika kartläggnings teleskop övervägdes men på grund av begränsningar i tillgänglighet valdes endast mask-bilderna från Zwicky Transient Facility för analysen. En algoritm utvecklades för att upptäcka streck i mask-bilderna och matcha dem med kända objekt i bildens synfält vid observationstillfället. Vidare gjordes den initiala banbestämningen med Laplaces metod, som använder vinkelkoordinaterna för streckens position vid observationen. Tillståndsvektorerna för strecken och de matchade objekten jämfördes, de beräknades från den initiala banbestämningen respektive objektets TLE. Algoritmen testades med 6 olika bildfält från observationsdatum mellan den 14:e till den 16:e december 2019, av dessa karakteriseras 4 som glesa och 2 som fyllda. Algoritmen för streck detektering har bättre precision och känslighet för de glesa fälten, med ett F1-värde på 0.65, men sämre för de fulla fälten med ett F1-värde på 0.035. I de glesa fälten är 95% av alla streck- och objektmatchningar korrekta matchningar med unika objekt, medan för det fulla fälten är endast 10% korrekta matchningar. Det visar sig att upplösningen på 1''/pixel i bilderna är för låg för att göra en initial banbestämning med Laplaces metod, oavsett hur bra algoritmen för streck detektering presterar. Genom att göra vissa förbättringar i algoritmen är metoden lämplig för att, på ett kostnadseffektivt sätt, verifiera kända objekt i kataloger.
23

Advanced Hardened Registration Process for Mobile Crowd Sensing / Avancerad Härdad registreringsprocess för Mobile Crowd Sensing

Li, Ronghua January 2022 (has links)
Mobile Crowd Sensing (MCS) or Participatory Sensing (PS) are two emerging systems as smart mobile devices become ubiquitous. One of the advantages of such a sensing system is that almost anyone with a mobile device can become a moving "sensor". However, despite the convenience, the openness of such systems is a double-edged sword: participants can misbehave and pose a threat. Usually, current MCS or PS systems are relatively weak and lack effective data sources selection mechanisms. As a result, fake or forged data can be collected, representing wrongly the sensed conditions on the surroundings, i.e. noise, moisture, etc. Therefore, a Hardened Registration Process (HRP) is proposed to provide a pre-examination on participants that are chosen to collect sensing data. There is one previous work on such a topic. It targets device examination (root, emulator, bot-net detection, etc.) for Android devices, preventing attackers from managing to register not actual but emulated devices and thus manage to effectively manipulate the collected data. The focus of this project is on enhancing the previous work and extending it with complementary mechanisms. We proposed a two-step HRP process, comprising a client detection for identifying malicious devices and server-side detection for revealing Sybil devices. We improve the previous HRP by implementing detection mechanisms in C (native) code and such an enhanced device examination process is the first step: client detection. In addition, to detect adversaries that can bypass the client detection method, we proposed an additional server-side detection to eliminate emulators and Sybil devices, adopting peer-to-peer interaction with Bluetooth Low Energy to corroborate the physical presence of the registered devices. With this enhancement, we achieve higher detection performance. Adversaries cannot easily bypass the client-side detection with rooted or emulated devices. Moreover, even if some adversaries can bypass the client-side detection, the server-side detection can prevent adversaries from registering Sybil devices more than the number of devices they own. / Mobile Crowd Sensing (MCS) eller Participatory Sensing (PS) är två framväxande system när smarta mobila enheter blir allestädes närvarande. En av fördelarna med ett sådant avkänningssystem är att nästan alla med en mobil enhet kan bli en rörlig sensor". Men trots bekvämligheten är öppenheten i sådana system ett tveeggat svärd: deltagare kan missköta sig och utgöra ett hot. Vanligtvis är nuvarande MCS- eller PS-system relativt svaga och saknar effektiva valmekanismer för datakällor. Som ett resultat kan falska eller förfalskade data samlas in, som felaktigt representerar de avkända förhållandena i omgivningen, d.v.s. buller, fukt, etc. Därför föreslås en förstärkt registreringsprocess för att ge en förundersökning av deltagare som väljs för att samla in avkänningsdata. Det finns ett tidigare arbete om ett sådant ämne. Det är inriktat på enhetsundersökning (root, emulator, bot-net-detektion, etc.) för Android-enheter, vilket förhindrar angripare från att lyckas registrera inte faktiska utan emulerade enheter och på så sätt lyckas effektivt manipulera den insamlade informationen. Fokus för detta projekt ligger på att förbättra det tidigare arbetet och utöka det med kompletterande mekanismer. Vi föreslog en tvåstegs HRP-process, som omfattar en klientdetektering för att identifiera skadliga enheter och detektering på serversidan för att avslöja Sybil-enheter. Vi förbättrar den tidigare HRP genom att implementera detekteringsmekanismer i C (native) kod och en sådan förbättrad enhetsundersökningsprocess är det första steget: klientdetektering. Dessutom, för att upptäcka motståndare som kan kringgå klientdetekteringsmetoden, föreslog vi en extra detektering på serversidan för att eliminera emulatorer och Sybil-enheter, genom att använda peer-to-peer-interaktion med Bluetooth Low Energy för att bekräfta den fysiska närvaron av de registrerade enheterna. Med denna förbättring uppnår vi högre detektionsprestanda. Motståndare kan inte lätt kringgå upptäckten på klientsidan med rotade eller emulerade enheter. Dessutom, även om vissa motståndare kan kringgå upptäckten på klientsidan, kan detekteringen på serversidan förhindra att motståndarna registrerar Sybil-enheter mer än antalet enheter de äger.
24

Realtidsklassificering av munskyddsanvändning på Google Coral Dev Board

Carlgren, Mathilda, Pihl, Svante January 2021 (has links)
Covid-19 pandemin är den mest omfattande pandemin i modern tid. Länder världen över har infört olika typer av krav och rekommendationer för att hämma smittspridningen, däribland rekommendationer om att bära munskydd. Tidigare studier har utvecklat modeller och system för att avgöra huruvida personer bär munskydd eller ej. Syftet med denna studie är att bevisa att det är tekniskt genomförbart att utveckla och implementera en IT-artefakt på en Google Coral Dev Board som i realtid inte bara kan avgöra om en person bär munskydd eller ej, utan även kan klassificera om ett munskydd bärs korrekt samt ge återkoppling om eventuell felanvändning. Ett sådant system skulle kunna användas för att uppmuntra och påminna om korrekt användning av munskydd. Det utvecklade systemet bygger på en två-stegs-arkitektur bestående av två stycken Convolutional Neural Networks (CNN), en förtränad ansiktsdetekteringsmodell samt en egenutvecklad klassificeringsmodell som bygger på en MobileNetV3-arkitektur. Klassificeringsmodellen tränades med hjälp av ett dataset bestående av 184 572 bilder och kategoriserar ansikten i fyra olika kategorier: munskydd används korrekt, munskydd täcker ej näsa, munskydd placerat på haka och munskydd används ej. Vid 5-delad korsvalidering uppnådde klassificeringsmodellen en genomsnittlig accuracy på >0.9994. Resultaten för studien var goda och bevisar den tekniska genomförbarheten. Den utvecklade prototypen kunde med hög tillförlitlighet detektera och korrekt klassificera ansikten i en videoström. Dock kommer studien fram till att denna typ av två-stegs-arkitektur är mindre lämplig i situationer då ett större antal ansikten är synliga i bild samtidigt då tiden som krävs för att behandla en bild ökar när antalet ansikten blir fler, vilket innebär att systemet ej kommer upplevas som responsivt.
25

Diskussioner om våld i sociala medier - En metod för att mäta förekomsten av diskussioner om våld på olika digitala plattformar

Bisell, Evelina, Rosenqvist, Kim January 2023 (has links)
Möjligheten för individer att uttrycka sig på internet har underlättat för det fria ordet, som är en demokratisk grundsten i vårt samhälle. Baksidan av detta mynt är att alltmer våldsam radikalisering sker runt om på digitala plattformar. I digitala miljöer sprids idag våldsbejakande propaganda där våldsverkare hyllas som hjältar, våld mot fienden rättfärdigas, och instruktioner om hur attentat kan genomföras delas. För socialt utsatta individer som får sin verklighetsförankring i dessa våldsbejakande digitala miljöer kan världsuppfattningen ändras till den grad att de till slut själva väljer att utföra grova våldsdåd. Att kunna identifiera digitala plattformar där diskussioner om våld är mer vanligt förekommande kan därför ge en första indikation på vilka sidor som riskerar att potentiellt främja våldsutövning. Tidigare forskning om hotbedömning genom textanalys har främst fokuserat på att identifiera individer som utgör ett hot. Mindre utrymme har ägnats åt att utveckla metoder som istället kan identifiera gemenskaper som utgör ett hot för individen. Det saknas idag applicerbara och validerade metoder som genom automatiserad textanalys kan mäta diskussioner om våld på digitala forum. Arbetets forskningsmål var att skapa en metod som ska kunna mäta förekomsten av våld i diskussioner på digitala plattformar, och tillämpar metodramverket designforskning. Genom både kvalitativa och kvantitativa metoder skapades en ordlista över en mängd våldsuttryck som används på flera samtida sociala medier. Programkod utvecklades för att automatiskt kunna räkna antalet förekommande våldsuttryck i en given textsamling. Genom tidigare tillgänglig data från flera olika forum utfördes en testning och utvärdering av metoden. Resultaten visar att våldsuttryck var upp till 100 gånger mer vanligt förekommande på vissa av de mer kända högerextrema forumen jämfört med mer generella diskussionsforum. Spektrumet är i linje med vad som initialt skulle kunna förväntas utifrån karaktären på dessa olika forum och indikerar därmed att metoden levererar realistiska resultat. En djupare kvalitativ analys av inläggen skulle vara nödvändig för att identifiera hur stor del av de identifierade våldsuttrycken tas upp i diskussioner med en positiv inställning till våld. / Individuals being able to express themselves on the internet has been a boon to free speech, a democratic pillar to our community. The backside of this is that an increasing amount of violent radicalization is happening all over social media. At this moment, propaganda that praises violence is being spread on digital platforms, where violent perpetrators are praised as heroes, violence against "the enemy" is justified, and instructions on how to perform violent attacks are being spread. Socially vulnerable individuals repeatedly exposed to violent social communities can have their worldview change so drastically that they end up committing violent crimes. That is why identifying digital platforms where discussions about violence are more commonly occurring could give a first indication of which sites pose a higher risk of promoting violent attacks. Previous research on threat assessment through text analysis has mainly focused on detecting warning behaviours in radicalised individuals. Less room within this area of research has been given to developing methods that instead identify communities that can pose a risk to the individual. Therefore, there is a lack of applicable and validated methods that can measure discussions of violence on social media through automated text analysis. The research goal of this thesis was to create a method that can measure the occurrence of violent discussions on digital platforms using the method framework Design Science. A list of violent words and expressions commonly used on social media was created with qualitative and quantitative methods. Code was then developed to automatically count the number of occurrences of these expressions in a given text. Testing and evaluation of the method were carried out with data previously made available from several forums. The results show that violent expressions occurred up to 100 times more often on some of the more known right-wing extremist forums than on more general discussion forums. The resulting spectrum aligns with what one initially could expect to find by judging the character of these forums and therefore indicates that the method delivers accurate results. A deeper qualitative analysis of the posts would be necessary to identify how many of the identified violent expressions appeared in discussions with a positive attitude toward violence.
26

6G RF Waveform with AI for Human Presence Detection in Indoor Environments

Stratigi, Eirini January 2022 (has links)
Wireless communication equipment is widely available and the number of transmitters and receivers keeps increasing. In addition to communications, wireless nodes can be used for sensing. This project is focuses on human presence detection in indoor environments using measurements such as CSI that can be extracted from radio receivers and labeled using a camera and AI computer vision techniques (YoLo framework). Our goal is to understand if a room is empty or has one or two people by utilizing machine learning algorithms. We have selected SVM (Support Vector Machines) and CNN (Convolutional Neural Networks). These methods will be evaluated in different scenarios such as different locations, bandwidths of 20, 40 and 120MHz, carrier frequencies of 2.4 and 5 GHz, high/low SNR values as well as different antenna configurations (MIMO, SIMO, SISO). Both methods perform very well for classification and specifically in case of CNN it performs better in low SNR compared to SVM. We found that some of the measurements seemed to be outliers and the clustering algorithm DBScan was used in order to identify them. Last but not least, we explore whether the radio can complement computer vision in presence detection since radio waves may propagate through walls and opaque obstacles. / Trådlös kommunikationsutrustning är allmänt tillgänglig och antalet sändare och mottagare fortsätter att öka. Förutom kommunikation kan trådlösa noder användas för avkänning. Detta projekt fokuserar på mänsklig närvarodetektering i inomhusmiljöer med hjälp av mätningar som CSI som kan extraheras från radiomottagare och märkas med hjälp av en kamera och AI datorseende tekniker (YoLo-ramverket). Vårt mål är att förstå om ett rum är tomt eller har en eller två personer genom att använda maskininlärningsalgoritmer. Vi har valt SVM och CNN. Dessa metoder kommer att utvärderas i olika scenarier såsom olika platser, bandbredder på 20, 40 och 120MHz, bärvågsfrekvenser på 2,4 och 5 GHz, höga/låga SNR-värden samt olika antennkonfigurationer (MIMO, SIMO, SISO). Båda metoderna fungerar mycket bra för klassificering och specifikt i fall av CNN presterar den bättre i låg SNR jämfört med SVM. Vi fann att några av mätningarna verkade vara extremvärden och klustringsalgoritmen DBScan användes för att identifiera dem. Sist men inte minst undersöker vi om radion kan komplettera datorseende vid närvarodetektering eftersom radiovågor kan fortplanta sig genom väggar och ogenomskinliga hinder.
27

Scraping bot detection using machine learning / Botdetektering med hjälp av maskininlärning

Dezfoli, Hamta, Newman, Joseph January 2022 (has links)
Illegitimate acquisition and use of data is a problematic issue faced by many organizations operating web servers on the internet today. Despite frameworks of rules to prevent ”scraping bots” from carrying out this action, they have developed advanced methods to continue taking data. Following research into what the problem is and how it can be handled, this report identifies and evaluates how machine learning can be used to detect bots. Since developing and testing a machine learning solution proved difficult, an alternative solution was also developed aiming to polarize (separate) bot and human traffic through behavioral analysis. This particular solution to optimize traffic session classification is presented and discussed, as well as, other key findings which can help in detecting and preventing these unwanted visitors. / Olaglig insamling och användning av data är problematiskt för många organisationer som idag använder sig av webbservrar på internet. Trots ramar av regler för att förhindra ”scraping bots” så har de utvecklat avancerade sätt att komma åt data. Efter forskning om vad problemet är och hur det kan hanteras, identifierar och evaluerar denna rapport hur maskininlärning kan användas för att detektera bottar. Då utvecklingen och testningen av en lösning med hjälp av maskininlärning visade sig bli svårt, utvecklades en alternativ lösning med målet att polarisera (separera) bottrafik och legitim trafik. Denna lösning presenteras och diskuteras i rapporten tillsammans med andra nyckelresultat som kan hjälpa till att upptäcka och förhindra dessa oönskade besökare.
28

An empirical study of the impact of data dimensionality on the performance of change point detection algorithms / En empirisk studie av data dimensionalitetens påverkan på change point detection algoritmers prestanda

Noharet, Léo January 2023 (has links)
When a system is monitored over time, changes can be discovered in the time series of monitored variables. Change Point Detection (CPD) aims at finding the time point where a change occurs in the monitored system. While CPD methods date back to the 1950’s with applications in quality control, few studies have been conducted on the impact of data dimensionality on CPD algorithms. This thesis intends to address this gap by examining five different algorithms using synthetic data that incorporates changes in mean, covariance, and frequency across dimensionalities up to 100. Additionally, the algorithms are evaluated on a collection of data sets originating from various domains. The studied methods are then assessed and ranked based on their performance on both synthetic and real data sets, to aid future users in selecting an appropriate CPD method. Finally, stock data from the 30 most traded companies on the Swedish stock market are collected to create a new CPD data set to which the CPD algorithms are applied. The changes of the monitored system that the CPD algorithms aim to detect are the changes in policy rate set by the Swedish central bank, Riksbank. The results of the thesis show that the dimensionality impacts the accuracy of the methods when noise is present and when the degree of mean or covariance change is small. Additionally, the application of the algorithms on real world data sets reveals large differences in performance between the studied methods, underlining the importance of comparison studies. Ultimately, the kernel based CPD method performed the best across the real world data set employed in the thesis. / När system övervakas över tid kan förändringar upptäckas i de uppmätade variablers tidsseriedata. Change Point Detection (CPD) syftar till att hitta tidpunkten då en förändring inträffar i det övervakade systemet’s tidseriedata. Medan CPD-metoder har sitt urspring i kvalitetskontroll under 1950-talet, har få studier undersökt datans dimensionalitets påverkan på CPD-algoritmer’s förmåga. Denna avhandling avser att fylla denna kunskapslucka genom att undersöka fem olika algoritmer med hjälp av syntetiska data som inkorporerar förändringar i medelvärde, kovarians och frekvens över dimensioner upp till 100. Dessutom jämförs algoritmerna med hjälp av en samling av data från olika domäner. De studerade metoderna bedöms och rangordnas sedan baserat på deras prestanda på både syntetiska och verkliga datauppsättningar för att hjälpa framtida användare att välja en lämplig CPD algoritm. Slutligen har aktiedata samlats från de 30 mest handlade företagen på den svenska aktiemarknaden för att skapa ett nytt data set. De förändringar i det övervakade systemet som CPD-algoritmerna syftar till att upptäcka är förändringarna i styrräntan som fastställs av Riksbanken. Resultaten av studien tyder på att dimensionaliteten påverkar förmågan hos algoritmerna att upptäcka förändringspunkterna när brus förekommer i datan och när graden av förändringen är liten. Dessutom avslöjar tillämpningen av algoritmerna på den verkliga datan stora skillnader i prestanda mellan de studerade metoderna, vilket understryker vikten av jämförelsestudier för att avslöja dessa skillnader. Slutligen presterade den kernel baserade CPD metoden bäst.
29

Grouping Similar Bug Reports from Crash Dumps with Unsupervised Learning / Gruppering av liknande felrapporter med oövervakat lärande av kraschdumpar

Vestergren, Sara January 2021 (has links)
Quality software usually means high reliability, which in turn has two main components; the software should provide correctness, which means it should perform the specified task, and robustness in the sense that it should be able to manage unexpected situations. In other words, reliable systems are systems without bugs. Because of this, testing and debugging are recurrent and resource expensive tasks in software development, notably in large software systems. This thesis investigate the potential of using unsupervised machine learning on Ericsson bug reports to avoid unnecessary debugging by identifying duplicate bug reports. The bug report data that is considered are crash dumps from software crashes. The data is clustered using the clustering algorithms k-modes, k-prototypes and expectation maximization where-after the generated clusters are used to assign new incoming bug reports to the previously generated clusters, thus indicating whether an old bug report is similar to the newly submitted one. Due to the dataset only being partially labeled both internal and external validity indices are applied to evaluate the clustering. The results indicate that many, small clusters can be identified using the applied method. However, for the results to have high validity the methods could be applied on a larger data set. / Mjukvara av hög kvalitet innebär ofta hög tillförlitlighet, vilket i sin tur har två huvudkomponenter; mjukvaran bör vara korrekt, den ska alltså uppfylla dom specifierade kraven, och dessutom robust vilket innebär att den ska kunna hantera oväntade situationer. Med andra ord, tillförlitliga system är system utan buggar. På grund av detta är testning och felsökning återkommande och resurskrävande uppgifter inom mjukvaruutveckling, i synnerhet för stora mjukvarusystem. Detta arbete utforskar vilken potential oövervakad maskininlärning på Ericssons felrapporter har för att undvika onödig felsökning genom att identifiera felrapporter som är dubletter. Felrapporterna som används i detta arbete innehåller data som sparats i minnet vid en mjukvarukrasch. Data klustras sedan med klustringsalgoritmerna k-modes, k-prototypes och expectation maximization varpå dom genererade klustren används för att tilldela nya inkommande felrapporter till de tidigare generade klustren, för att på så sätt kunna identifiera om en gammal felrapport är lik en ny felrapport. Då de felrapporter som behandlas endast till viss del redan är märkta som dubletter används både externa och interna valideringsmått för att utvärdera klustringen. Resultaten tyder på att många, små kluster kunde identifieras med de använda metoderna. Dock skulle metoderna behöva appliceras på ett dataset med större antal felrapporter för att resultaten ska få hög validitet.
30

Tank-to-Wheel Energy Breakdown Analysis

Yu, Xu January 2020 (has links)
In early design phase for new hybrid electric vehicle (HEV) powertrains, simulation isused for the estimation of vehicle fuel consumption. For hybrid electric powertrains,fuel consumption is highly related to powertrain efficiency. While powertrainefficiency of hybrid electric powertrain is not a linear product of efficiencies ofcomponents, it has to be analysed as a sequence of energy conversions includingcomponent losses and energy interaction among components.This thesis is aimed at studying the energy losses and flows and present them in theform of Sankey diagram, later, an adaptive energy management system is developedbased on current rule-based control strategy. The first part involves developing energycalculation block in GT-SUITE corresponding to the vehicle model, calculating allthe energy losses and flows and presenting them in Sankey diagram. The secondpart involves optimizing energy management system control parameters according todifferent representative driving cycles. The third part involves developing adaptiveenergy management system by deploying optimal control parameter based on drivingpattern recognition with the help of SVM (support vector machine).In conclusion, a sturctured way to generate the Sankey diagram has been successfullygenerated and it turns out to be an effective tool to study HEV powertrain efficiencyand fuel economy. In addition, the combination of driving pattern recognition andoptimized control parameters also show a significant potential improvement in fuelconsumption. / Under den tidiga utvecklingsfasen av nya elektrifieradedrivlinor for hybridapplikationer (HEV) används simulering för uppskattning avfordonets bränsleförbrukning. För dess drivlinor är bränsleförbrukningen i hög gradkopplad till drivlinans verkningsgrad. Även om drivlinans verkningsgrad inte ären linjär prokukt av komponenternas verkningsgrad behöve rden analyseras somen sekvens av energiomvandlingar, inklusive förluster och energipåverkan mellankomponenter.Detta examensarbete syftar till att undersöka energiförluster och flöden samtpresentera dessa i form av sankey diagram. Senare utvecklas ett anpassningsbartenergihanteringssystem baserat på nuvarande regelbaserad kontrollstrategi. Deninledande delen involverar utvecklandet av energianalys i GT-SUITE som motsvararfordonsmodellen, beräkningar av totala energiförluster och flöden samt presentationav dessa i ett sankey diagram. Den andra delen innefattar optimering avenergihanteringssystems kontrollparametrar enligt olika representativa körcykler.Den tredje delen involverar utveckling av anpassningsbara energihanteringssystemgenom användning av optimala kontrollparameterar baserad på detektering avkörbeteende med hjälp av SVM ( stödvektormaskin).Slutligen, ett strukturerat sätt att generera sankey diagrammet har med framgånggenererats och visat sig vara ett effektivt verktyg för studier av HEV drivlinorseffektivitet och bränsleekonomi. Dessutom visar kombinationen av detektering avkörbeteende och optimerade kontrollparametrar på en markant potentiell förbättringi bränsleförbrukning.

Page generated in 0.1019 seconds