• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 24
  • Tagged with
  • 50
  • 24
  • 20
  • 18
  • 18
  • 14
  • 14
  • 11
  • 10
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Automation of the design process of printed circuit boards : Determining minimum distance required by auto-routing software

Ström, Simon, Qhorbani, Ali January 2018 (has links)
This thesis project aims to create an overview of new technologies in printed circuit board manufacturing which when automated could become part of an Industry 4.0 production flow. Potential design limits imposed by new technologies are then applied in the creation process of a minimum distance estimation function. The intended purpose of this function is to correctly estimate the minimum distance required for the auto-routing software FreeRouting to be able to successfully route between two components. This is achieved by using a brute-force attack to progressively decrease the distance between components using a bisectional approach to find the minimum distance at which the auto-routing software can still successfully route for a specific design. Using the results from this brute-force attack a couple of linear functions based on different base designs are created and then used to implement a minimum distance function. The minimum distance estimation function is then intended to be used to implement limits to how close components can be placed to each other in a printed circuit board design tool which purpose is to enable people with lesser knowledge of printed circuit boards to still be able to realize their design ideas. / Detta examensarbete ämnar skapa en överblick av nya tekniker inom mönsterkorts-tillverkning som när de automatiseras skulle kunna bli en del av ett Industri 4.0 produktionsflöde. Eventuella designbegränsningar som uppstår till följd av dessa tekniker kommer sedan appliceras i skapningsprocessen av en minsta avståndsfunktion. Syftet med denna funktion är att korrekt uppskatta det minimala avståndet som krävs för att auto-routing mjukvaran FreeRouting ska kunna dra ledningar mellan två komponenter. Detta görs genom en brute-force attackvinkel där avståndet mellan komponenter fortsätter minskas med bisektionsmetoden tills ett minsta avstånd hittats där auto-routing mjukvaran fortfarande kan dra ledningar för en specifik design. Genom användande av resultaten från denna brute-force attack skapas sedan ett par linjära funktioner baserade på olika bas-designer och dessa används sedan för att implementera minsta avståndsfunktionen. Denna minsta avståndet-funktion är sedan ämnad att implementeras som begränsningar för hur nära komponenter kan placeras varandra i ett program för design av mönsterkort vars syfte är att möjliggöra folk utan kunskaper inom mönsterkortsdesign att ändå kunna realisera sina designidéer.
42

A Machine Learning Estimation of the Occupancy of Padel Facilities in Sweden : An application of Random Forest algorithm on a padel booking dataset / Uppskattning av svenska padelanläggningars beläggningsgrad genom maskininlärning

Johansson, Michael, Gonzálvez Läth, Nadia January 2022 (has links)
Padel is one of the fastest growing sports in Sweden. Its popularity rose significantly during the Covid-19 pandemic in 2020, as many other types of sport facilities closed, and people had more flexible work schedules due to remote work. This paper is an analysis on the monthly occupancy of indoor padel facilities in Sweden between January 2018 and April 2022. It aims to answer to what degree a machine learning algorithm can predict the occupancy for a given padel facility and which key features have the largest impact on the occupancy. With these findings, it is possible to estimate the revenue for a given padel facility and therefore be used to identify which type of padel facilities have the biggest opportunity to succeed from an economical perspective. This article reviews the literature regarding different methods of machine learning, in this case, applied to booking systems and occupancy estimations. The reviewed literature also presents the most common evaluation metrics used for comparing different machine learning models. This study analyses the relationship between the occupancy level of a given padel facility and 12 input features, related to the padel facility in question, with a random forest regression model. This work results in a model that achieved a R2 score of 49% and a mean absolute error of 11%. The input features ranked according to the largest impact on the model’s estimation are (with the mean of all absolute SHAP values written in parentheses): Year (7.71), Month (5.23), Average Income in municipality (4.13), Driving Time from municipality Centre (2.35), Population of municipality (1.97), Padel Slots in municipality (1.27), Padel Slots in facility (1.27), Average Court Price (1.12), Tennis Slots in municipality (0.73), Badminton Slots in municipality (0.55), Squash Slots in municipality (0.44) and Golf Slots in municipality (0.26). Padel facilities had the highest average occupancy in 2020. The Covid-19 pandemic is likely a significant contributor to this, due to the shutdown of offices and many types of training venues. Therefore, Year has the largest impact on the model’s estimation. Occupancy of indoor facilities follows a seasonal trend, where it tends to be highest in December and January and lowest in June and July. This trend can partly be explained by a larger demand for indoor sport activities during winter and increased competition from outside padel facilities and other activities during summer. Because of this, Month had the second largest impact on the model’s estimation. / Padel är en av de snabbast växande sporterna i Sverige. Dess popularitet ökade avsevärt under Covid-19-pandemin i 2020, främst på grund av att många andra typer av sportanläggningar stängdes ner och människor hade mer flexibla arbetsscheman på grund av distansarbete. Den här uppsatsen är en analys av den månatliga beläggningen av inomhuspadelanläggningar i Sverige mellan januari 2018 och april 2022. Studien syftar till att svara på i vilken grad en maskininlärningsalgoritm kan förutsäga beläggningen för en given padelanläggning och vilka nyckelfunktioner som har störst inverkan på beläggningen. Med dessa insikter är det möjligt att uppskatta intäkterna för en given padelanläggning och kan därför användas vilka typer av padelanläggningar som har störst möjlighet att vara framgångsrika ur ett ekonomiskt perspektiv. Den granskade litteraturen studerar olika maskininlärningsmetoder tillämpad i områden som bokningssystemsanalys och beläggningsgradsstudier, samt presenterar de vanligaste utvärderingsmåtten som används för att jämföra metoderna. Denna studie analyserar sambandet mellan beläggningsgraden för en given padelanläggning och 12 inputparametrar, relaterade till padelanläggningen i fråga med hjälp av en random forest regressionsalgoritm. Detta arbete resulterar i en modell som uppnådde ett R2 värde på 49% och en genomsnittlig absolut avvikelse på 11 %. Inputparametrarna rangordnade enligt den största påverkan på modellens uppskattning är (med medelvärdet av alla absoluta SHAP-värden skrivna inom parentes): År (7.71), Månad (5.23), Genomsnittlig Inkomst i kommunen (4.13), Körtid mellan anläggning och kommunens centrum (2.35), Kommunens befolkningsmängd (1.97), Antal padeltider i kommunen (1.27), Padeltider i anläggningen(1.27), Genomsnittlig pris för bana(1.12), Tennistider i kommunen (0.73), Badmintontider i kommunen (0.55), Squashtider i kommunen (0.44) och Golftider i kommunen (0.26). Padelanläggningar hade högsta genomsnittliga beläggningsgraden under 2020. Covid-19-pandemin är sannolikt en betydande bidragande orsak till detta på grund av nedläggningen av kontor och andra sportanläggningar. Därför har inputparametern År den största inverkan på modellens uppskattning. Beläggningen av inomhusanläggningar följer en säsongsmässig trend, där den tenderar att vara högst i januari och lägst i juli. Denna trend kan delvis förklaras av en större efterfrågan på inomhussportaktiviteter under vintern och ökad konkurrens från utomstående padelanläggningar och andra aktiviteter under sommaren. På grund av detta hade Månad den näst största påverkan på modellens uppskattning.
43

Privacy-preserving Building Occupancy Estimation via Low-Resolution Infrared Thermal Cameras

Zhu, Shuai January 2021 (has links)
Building occupancy estimation has become an important topic for sustainable buildings that has attracted more attention during the pandemics. Estimating building occupancy is a considerable problem in computer vision, while computer vision has achieved breakthroughs in recent years. But, machine learning algorithms for computer vision demand large datasets that may contain users’ private information to train reliable models. As privacy issues pose a severe challenge in the field of machine learning, this work aims to develop a privacypreserved machine learningbased method for people counting using a lowresolution thermal camera with 32 × 24 pixels. The method is applicable for counting people in different scenarios, concretely, counting people in spaces smaller than the field of view (FoV) of the camera, as well as large spaces over the FoV of the camera. In the first scenario, counting people in small spaces, we directly count people within the FoV of the camera by Multiple Object Detection (MOD) techniques. Our MOD method achieves up to 56.8% mean average precision (mAP). In the second scenario, we use Multiple Object Tracking (MOT) techniques to track people entering and exiting the space. We record the number of people who entered and exited, and then calculate the number of people based on the tracking results. The MOT method reaches 47.4% multiple object tracking accuracy (MOTA), 78.2% multiple object tracking precision (MOTP), and 59.6% identification F-Score (IDF1). Apart from the method, we create a novel thermal images dataset containing 1770 thermal images with proper annotation. / Uppskattning av hur många personer som vistas i en byggnad har blivit ett viktigt ämne för hållbara byggnader och har fått mer uppmärksamhet under pandemierna. Uppskattningen av byggnaders beläggning är ett stort problem inom datorseende, samtidigt som datorseende har fått ett genombrott under de senaste åren. Algoritmer för maskininlärning för datorseende kräver dock stora datamängder som kan innehålla användarnas privata information för att träna tillförlitliga modeller. Eftersom integritetsfrågor utgör en allvarlig utmaning inom maskininlärning syftar detta arbete till att utveckla en integritetsbevarande maskininlärningsbaserad metod för personräkning med hjälp av en värmekamera med låg upplösning med 32 x 24 pixlar. Metoden kan användas för att räkna människor i olika scenarier, dvs. att räkna människor i utrymmen som är mindre än kamerans FoV och i stora utrymmen som är större än kamerans FoV. I det första scenariot, att räkna människor i små utrymmen, räknar vi direkt människor inom kamerans FoV med MOD teknik. Vår MOD-metod uppnår upp till 56,8% av den totala procentuella fördelningen. I det andra scenariot använder vi MOT-teknik för att spåra personer som går in i och ut ur rummet. Vi registrerar antalet personer som går in och ut och beräknar sedan antalet personer utifrån spårningsresultaten. MOT-metoden ger 47,4% MOTA, 78,2% MOTP och 59,6% IDF1. Förutom metoden skapar vi ett nytt dataset för värmebilder som innehåller 1770 värmebilder med korrekt annotering.
44

Trouble Tickets resolution time estimation : The Design of a Solution for a Real Case Scenario / Uppskattning av tiden för lösning av problembiljetter : Utformning av en lösning för ett verkligt scenario

Colella, Riccardo January 2021 (has links)
Internet Service Providers are companies that deliver services managing a complex network of apparatus and cables. Given the complexity of the network, it often happens that alarms are generated. When a problem within the network occurs, a ticket is issued from an alarm and the company starts to supervise it to manage the situation and solve the problem. This work aims to present how can be designed a system that estimates how much time will the trouble ticket take to be solved. The situation is presented within the context of a real case scenario and takes into consideration how the involved company processes the available information and manages the problem. The achieved result is pursued by the company to deliver the information to the final customer that will be able to understand how much time the problem he is facing is going to take before it will be solved. This work will focus on estimating the resolution time for a subset of all the tickets: those that are classified as low priority network problems. The work started with a study of the company that led to the understanding of the available information about the problem, then it focused on the understanding of the procedure adopted by the company to face the solution. It studies the processes that lie behind the ticket creation, the alarm generation and the human intervention, and it concludes with the design of the proposed solution. The proposed solution leverages the company’s processes to produce a result as valuable as possible given the specific use case. / Internetleverantörer är företag som tillhandahåller tjänster genom att hantera ett komplext nätverk av apparater och kablar. Med tanke på nätets komplexitet händer det ofta att larm genereras. När ett problem i nätverket uppstår utfärdas en biljett från ett larm och företaget börjar övervaka det för att hantera situationen och lösa problemet. Syftet med detta arbete är att presentera hur man kan utforma ett system som uppskattar hur lång tid det kommer att ta att lösa problemet. Situationen presenteras inom ramen för ett verkligt scenario och tar hänsyn till hur det berörda företaget behandlar den tillgängliga informationen och hanterar problemet. Företaget strävar efter att leverera information till slutkunden som kan förstå hur lång tid det kommer att ta innan problemet är löst. Detta arbete kommer att inriktas på att uppskatta lösningstiden för en delmängd av alla biljetter: de som klassificeras som nätproblem med låg prioritet. Arbetet inleddes med en studie av företaget som ledde till att man förstod den tillgängliga informationen om problemet, och sedan fokuserade man på att förstå det förfarande som företaget använde för att lösa problemet. Det studeras vilka processer som ligger bakom skapandet av biljetter, alarmeringen och det mänskliga ingripandet, och det avslutas med utformningen av den föreslagna lösningen. Den föreslagna lösningen utnyttjar företagets processer för att ge ett så värdefullt resultat som möjligt med tanke på det specifika användningsfallet.
45

Non-Bayesian Out-of-Distribution Detection Applied to CNN Architectures for Human Activity Recognition

Socolovschi, Serghei January 2022 (has links)
Human Activity Recognition (HAR) field studies the application of artificial intelligence methods for the identification of activities performed by people. Many applications of HAR in healthcare and sports require the safety-critical performance of the predictive models. The predictions produced by these models should be not only correct but also trustworthy. However, in recent years it has been shown that modern neural networks tend to produce sometimes wrong and overconfident predictions when processing unusual inputs. This issue puts at risk the prediction credibility and calls for solutions that might help estimate the uncertainty of the model’s predictions. In the following work, we started the investigation of the applicability of Non-Bayesian Uncertainty Estimation methods to the Deep Learning classification models in the HAR. We trained a Convolutional Neural Network (CNN) model with public datasets, such as UCI HAR and WISDM, which collect sensor-based time-series data about activities of daily life. Through a series of four experiments, we evaluated the performance of two Non-Bayesian uncertainty estimation methods, ODIN and Deep Ensemble, on out-of-distribution detection. We found out that the ODIN method is able to separate out-of-distribution samples from the in-distribution data. However, we also obtained unexpected behavior, when the out-of-distribution data contained exclusively dynamic activities. The Deep Ensemble method did not provide satisfactory results for our research question. / Inom området Human Activity Recognition (HAR) studeras tillämpningen av metoder för artificiell intelligens för identifiering av aktiviteter som utförs av människor. Många av tillämpningarna av HAR inom hälso och sjukvård och idrott kräver att de prediktiva modellerna har en säkerhetskritisk prestanda. De förutsägelser som dessa modeller ger upphov till ska inte bara vara korrekta utan också trovärdiga. Under de senaste åren har det dock visat sig att moderna neurala nätverk tenderar att ibland ge felaktiga och överdrivet säkra förutsägelser när de behandlar ovanliga indata. Detta problem äventyrar förutsägelsernas trovärdighet och kräver lösningar som kan hjälpa till att uppskatta osäkerheten i modellens förutsägelser. I följande arbete inledde vi undersökningen av tillämpligheten av icke-Bayesianska metoder för uppskattning av osäkerheten på Deep Learning-klassificeringsmodellerna i HAR. Vi tränade en CNN-modell med offentliga dataset, såsom UCI HAR och WISDM, som samlar in sensorbaserade tidsseriedata om aktiviteter i det dagliga livet. Genom en serie av fyra experiment utvärderade vi prestandan hos två icke-Bayesianska metoder för osäkerhetsuppskattning, ODIN och Deep Ensemble, för upptäckt av out-of-distribution. Vi upptäckte att ODIN-metoden kan skilja utdelade prover från data som är i distribution. Vi fick dock också ett oväntat beteende när uppgifterna om out-of-fdistribution uteslutande innehöll dynamiska aktiviteter. Deep Ensemble-metoden gav inga tillfredsställande resultat för vår forskningsfråga.
46

Map-aided localization for autonomous driving using a particle filter

Eriksson, Simon January 2020 (has links)
Vehicles losing their GPS signal is a considerable issue for autonomous vehicles and can be a danger to people in their vicinity. To circumvent this issue, a particle filter localization technique using pre-generated offline Open Street Map (OSM) maps was investigated in a software simulation of Scania’s heavy-duty trucks. The localization technique runs in real-time and provides a way to localize the vehicle safely if the starting position is known. Access to global localization was limited, and the particle filter still succeeded in localizing the vehicle in the vicinity of the correct road segment by creating a graph of the map information and matching the trajectory to the vehicle’s sensor data. The mean error of the Particle filter localization technique in optimal conditions is 16m, which is 20% less than an optimally tuned dead reckoning solution. The mean error is about 50% larger compared to a Global Positioning System. The final product shows potential for expansion but requires more investigation to allow for real-world deployment. / Att fordon kan mista sin GPS-signal är ett stort problem för autonoma fordon och kan vara en fara för människor i dess närhet. För att undvika detta problem föreslås en icke-global lokaliseringsteknik som använder Open Street Maps-kartor (OSM) och ett partikelfilter för att lokalisera fordonet i en mjukvarusimulation. Implementering körs i realtid och anger fordonets position med en tillräcklig träffsäkerhet för att det inte ska utgöra någon fara om dess startposition är känd. Globala lokaliseringsmöjligheter var begränsade, och partikelfiltret lyckades lokalisera fordonet till rätt vägsegment genom att konstruera en graf över den kartinformation den läst in och para ihop fordonets nuvarande färdväg med denna. Resultatet ger en lösning som optimalt har ett medelfel på 16m, vilket är 20% mindre än medelfelet jämfört med optimiserad dödräkning. Lösningen har ca 50% större medelfel än positionering med GPS. Slutresultatet visar en potential att användas i verkliga situationer, men kräver mer undersökningar.
47

Open Source Model of the Nordic Power System for EU Project Spine

Satheeskumar, Aravind January 2020 (has links)
Decision problems in operation and planning of power systems often rely on large-scale models and data sets. Lack of historical power flow data due to regulatory restrictions often limits researchers to study the system with aggregated network models. Aggregated data from the electricity market operators (Nordpool in the Nordics) and the Transmission System Operator (TSO) (from ENTSO-E) are openly available, and can be used to study the power flow and exchanges between different regions but do not directly provide information about intra-region flows. This project builds upon the Nordic 490 system, a previously built model of the Nordic power system. The main objective of this work is to improve the existing open source power flow model of the Nordic power system, in order to become in turn available for the multi-energy modelling and simulation software Spine. The N490 model generates a model of the Nordic power system consisting of various nodes/buses which represent substations at different voltage levels. Then, it distributes the aggregated production, consumption and power exchange data from Nordpool to the various buses. In this project, different possible improvements are evaluated for the model, aiming at estimating a set of network parameters that minimize the errors between the calculated inter-region flows and the ones from the open data repositories. The different improvements which are evaluated are the following. Firstly, the load distribution is modified and reassigned to match the regional electricity consumption. The generators and wind farms are then reallocated to different bus based on their bidding region and proximity to the bus. The databases are improved and the power balance relation modified. Transmission line parameters are then investigated, first to standard recommended values and then by solving an optimisation problem formulated to extract the parameters from the market data. Finally, the model is also tested with wind and solar generation modelled as a generator rather than as a negative load. / Beslutsproblem gällande drift och planering av kraftsystemet baseras ofta på storskaliga modeller och datamängder. Bristen på historiska data gällande effektflöden beror på säkerhetsrestriktioner vilket begränsar forskare till att enbart studera aggregerade nätverksmodeller. Det finns tillgängliga aggregerade data från den nordiska elmarknadsplatsen Nordpool och organisationen ENTSO-E som kan användas för att studera effektflöden mellan olika regioner, dock finns det inte direkta data för flöden inom regionerna. Det här projektet bygger på det nordiska 490-systemet, en tidigare byggd modell av det nordiska kraftsystemet. Huvudsyftet med detta arbete är att förbättra den existerande effektflödesmodellen av det nordiska kraftsystemet, för att i sin tur bli tillgänglig för multienergimodelleringar och simuleringsprogramvaran Spine. N490-modellen genererar en modell för det nordiska kraftsystemet som innehåller olika noder som presenterar ställverk med olika spänningsnivåer och modellen ger också aggregerade data för produktion, konsumtion och effektutbyte mellan de olika noderna från Nordpool. I detta projekt utvärderades olika möjliga förbättringar för modellen som syftar till att uppskatta nätverkets parametrar som kan minimera felen mellan beräkningar av flöde inom regionen och data från öppna datalagringskällor. Följande förbättringar gjordes: Först har lastens fördelning modifierats och ändrats för att matcha den regionala elkonsumtionen. Generatorer och vindkraftsparker allokerades till olika noder baserad på elhandelsområden och närhet till noderna. Databasen förbättrades för att erhålla en bättre effektbalans per område. Kraftledningarnas parametrar ändrades först till rekommenderade standardvärden, vilka sedan förbättrades genom att formulera ett optimeringsproblem för att extrahera parametrarna från markandsdata. Slutligen testades modellen genom att presentera vind- och sol-produktion som generatorer istället för som negativ förbrukning.
48

Evaluating the use of clock frequency ratio estimators in the playout from video distribution networks / Utvärdering av klockfrekvensratiosuppskattare i videoutspelning från ett distributionsnätverk

Myresten, Emil January 2023 (has links)
As traditional TV-broadcasters utilize the Internet to transport video streams, they often employ third party distribution networks to ensure that the Quality of Service of the packet stream remain high. In the last step of such a distribution network, a playout scheduler will schedule the packets so that their intervals are as close as possible to the intervals with which they were initially sent by the source. This is done with the aim to minimize the amount of packet delay variation experienced by the final destination. Due to the source and distribution network not always being synchronized to the same reference clock, reconstructing the packet intervals back into the initial values is subject to the issue of clock skew; the clocks run at different frequencies. In the presence of clock skew, each packet interval will be reconstructed with a slight error, which will accumulate throughout the packet stream. This thesis evaluates how clock frequency ratio estimators can be implemented as part of the playout scheduler, allowing it to better reconstruct the packet intervals in the face of clock skew. Two clock frequency ratio estimators presented in the literature are implemented as a part of playout schedulers, and their use in the context of a video distribution network is evaluated and compared to other playout schedulers. All in all, four of the considered playout schedulers employ clock frequency ratio estimation, and four do not. The playout schedulers are tested on a test bed consisting of two unsynchronized computers, physically separated into a source and a destination connected via Ethernet, to ensure the presence of clock skew. The source generates a video stream, which is sent to the destination. The destination is responsible for packet interval reconstruction and data collection, that allows for comparison of the eight playout schedulers. Each playout scheduler is evaluated under three different network scenarios, each network scenario with increasing amounts of packet delay variation added to the packet stream. The results show that the Cumulative Ratio Scaling with Warm-up scheduler, which employs a clock frequency ratio estimator based on accumulating inter-packet times, performs well under all three network scenarios. The behaviour of the playout scheduler is predictable and the frequency ratio estimate seems to converge towards the true clock frequency ratio as more packets arrive at the playout scheduler. While this playout scheduler is not perfect, its behaviour shows promise in being extended. / När traditionella TV-bolag sänder från avlägsna platser skickas ofta videoströmmen till huvudanläggningen via Internet. För att säkerställa att paketströmmen levereras till huvudanläggningen med hög kvalitet används ofta distributionsnätverk som tillhandahålls av en tredje part. Det sista steget i ett sådant distributionsnätverk utgörs av en utspelningsschemaläggare som schemalägger paketen så att de skickas ut med intervall så lika som möjligt de intervall paketen ursprungligen skickades med, en så kallad återkonstruktion av paketintervallen. Detta görs för att minimera mängden fördröjningsvariation som upplevs av den slutgiltiga destinationen. På grund av att källan och distributionsnätverket inte alltid är synkroniserade till samma referensklocka kommer återkonstruktionen av paketintervallen påverkas av klockskevning; klockorna i källan och det sista steget i distributionsnätverket går i olika takt. Klockskevningen innebär att varje paketintervall återskapas med ett litet fel – ett fel som ackumuleras över tid. Denna uppsats utvärderar hur klockfrekvensratiouppskattare kan användas i en utspelningsschemaläggare, och huruvida uppskattaren kan bidra till att bättre återkonstruera paketintervallen. Två uppskattare som presenterats i tidigare forskning implementeras i utspelningsschemaläggare, och dess användbarhet utvärderas och jämförs inom kontexten för videodistributionsnätverk. Fyra av de utvärderade utspelningsschemaläggarna använder sig av uppskattare och fyra gör det inte. Utspelningsschemaläggarna testas på en testbädd bestående av två osynkroniserade datorer, sammankopplade via Ethernet, för att säkerställa förekomsten av klockskevning. Källan skickar en videoström till destinationen, som i sig ansvarar för återkonstruktion av paketintervallen samt insamling av den data som möjliggör jämförelser mellan de åtta utspelningsschemaläggarna. Varje utspelningsschemaläggare testas under tre olika nätverksscenarion, där varje nätverksscenario utsätter paketströmmen för olika grader av fördröjningsvariation. Resultaten visar att en av utspelningsschemaläggarna, som använder en uppskattare där paketintervall ackumuleras över tid, presterar bra under alla tre nätverksscenarion. Schemaläggaren beter sig förutsägbart, och uppskattningen av klockfrekvensration verkar konvergera till den sanna klockfrekvensration i takt med att allt fler paket inkluderas i beräkningen. Utspelningsschemaläggaren är inte perfekt, men uppvisar lovande beteende för framtida förbättringar.
49

Estimation of Voltage Drop in Power Circuits using Machine Learning Algorithms : Investigating potential applications of machine learning methods in power circuits design / Uppskattning av spänningsfall i kraftkretsar med hjälp av maskininlärningsalgoritmer : Undersöka potentiella tillämpningar av maskininlärningsmetoder i kraftkretsdesign

Koutlis, Dimitrios January 2023 (has links)
Accurate estimation of voltage drop (IR drop), in Application-Specific Integrated Circuits (ASICs) is a critical challenge, which impacts their performance and power consumption. As technology advances and die sizes shrink, predicting IR drop fast and accurate becomes increasingly challenging. This thesis focuses on exploring the application of Machine Learning (ML) algorithms, including Extreme Gradient Boosting (XGBoost), Convolutional Neural Network (CNN) and Graph Neural Network (GNN), to address this problem. Traditional methods of estimating IR drop using commercial tools are time consuming, especially for complex designs with millions of transistors. To overcome that, ML algorithms are investigated for their ability to provide fast and accurate IR drop estimation. This thesis utilizes electrical, timing and physical features of the ASIC design as input to train the ML models. The scalability of the selected features allows for their effective application across various ASIC designs with very few adjustments. Experimental results demonstrate the advantages of ML models over commercial tools, offering significant improvements in prediction speed. Notably, GNNs, such as Graph Convolutional Network (GCN) models showed promising performance with low prediction errors in voltage drop estimation. The incorporation of graph-structures models opens new fields of research for accurate IR drop prediction. The conclusions drawn emphasize the effectiveness of ML algorithms in accurately estimating IR drop, thereby optimizing ASIC design efficiency. The application of ML models enables faster predictions and noticeably reducing calculation time. This contributes to enhancing energy efficiency and minimizing environmental impact through optimised power circuits. Future work can focus on exploring the scalability of the models by training on a smaller portion of the circuit and extrapolating predictions to the entire design seems promising for more efficient and accurate IR drop estimation in complex ASIC designs. These advantages present new opportunities in the field and extend the capabilities of ML algorithms in the task of IR drop prediction. / Noggrann uppskattning av spänningsfallet (IR-fall), i ASIC är en kritisk utmaning som påverkar deras prestanda och strömförbrukning. När tekniken går framåt och formstorlekarna krymper, blir det allt svårare att förutsäga IR-fall snabbt och exakt. Denna avhandling fokuserar på att utforska tillämpningen av ML-algoritmer, inklusive XGBoost, CNN och GNN, för att lösa detta problem. Traditionella metoder för att uppskatta IR-fall med kommersiella verktyg är tidskrävande, särskilt för komplexa konstruktioner med miljontals transistorer. För att övervinna det undersöks ML-algoritmer för deras förmåga att ge snabb och exakt IR-falluppskattning. Denna avhandling använder elektriska, timing och fysiska egenskaper hos ASIC-designen som input för att träna ML-modellerna. Skalbarheten hos de valda funktionerna möjliggör deras effektiva tillämpning över olika ASIC-designer med mycket få justeringar. Experimentella resultat visar fördelarna med ML-modeller jämfört med kommersiella verktyg, och erbjuder betydande förbättringar i förutsägelsehastighet. Noterbart är att GNNs, såsom GCN-modeller, visade lovande prestanda med låga prediktionsfel vid uppskattning av spänningsfall. Införandet av grafstrukturmodeller öppnar nya forskningsfält för exakt IRfallförutsägelse. De slutsatser som dras betonar effektiviteten hos MLalgoritmer för att noggrant uppskatta IR-fall, och därigenom optimera ASICdesigneffektiviteten. Tillämpningen av ML-modeller möjliggör snabbare förutsägelser och märkbart minskad beräkningstid. Detta bidrar till att förbättra energieffektiviteten och minimera miljöpåverkan genom optimerade kraftkretsar. Framtida arbete kan fokusera på att utforska skalbarheten hos modellerna genom att träna på en mindre del av kretsen och att extrapolera förutsägelser till hela designen verkar lovande för mer effektiv och exakt IR-falluppskattning i komplexa ASIC-designer. Dessa fördelar ger nya möjligheter inom området och utökar kapaciteten hos ML-algoritmer i uppgiften att förutsäga IR-fall.
50

ML implementation for analyzing and estimating product prices / ML implementation för analys och estimation av produktpriser

Kenea, Abel Getachew, Fagerslett, Gabriel January 2024 (has links)
Efficient price management is crucial for companies with many different products to keep track of, leading to the common practice of price logging. Today, these prices are often adjusted manually, but setting prices manually can be labor-intensive and prone to human error. This project aims to use machine learning to assist in the pricing of products by estimating the prices to be inserted. Multiple machine learning models have been tested, and an artificial neural network has been implemented for estimating prices effectively. Through additional experimentation, the design of the network was fine-tuned to make it compatible with the project’s needs. The libraries used for implementing and managing the machine learning models are mainly ScikitLearn and TensorFlow. As a result, the trained model has been saved into a file and integrated with an API for accessibility.

Page generated in 0.0568 seconds