Spelling suggestions: "subject:"1aster thesis"" "subject:"1master thesis""
41 |
Evaluation of Traction Control Systems for an Electric Forklift TruckKarlsson, Mattias, Johansson, Sebastian January 2021 (has links)
This thesis evaluates different controllers for traction control on an electric forklift truck and has been done in cooperation with Toyota Material Handling Manufacturing Sweden. The need for a traction control system has increased with the introduction of lithium-ion batteries replacing the older lead-acid batteries, reducing the battery weight and therefore the downward force on the driving wheel increasing the risk for slip. The forklift truck was modelled using Simulink and validated by experiment. Different possible control strategies were investigated and three were chosen for implementation in simulation. These were controllers based on Model Following Control, Maximum Transmissible Torque Estimation and Sliding Mode Control. Model Following Control makes use of a nominal model to compare actual wheel speed values with nominal wheel speed values to determine if slip is occurring, Maximum Transmissible Torque Estimation makes use of a closed-loop disturbance observer to compute the maximum transmissible torque possible without inducing slip and using it as a limitation on the input signal, and Sliding Mode Control uses different functions to \say{slide} along a sliding surface to stay around a specific slip value. All three controller types were developed both as speed controlled and torque controlled. All of the controllers could reduce slip heavily in simulation. The Maximum Transmissible Torque Estimation controller reduced slip the most and kept oscillations at a minimum, but was not as responsive as the others to driver commands. The conclusion was that the controller of choice would depend on the working environment of the forklift truck. In a low friction environment where slip is expected to occur often, the Maximum Transmissible Torque Estimation controller is advisable, while the other two would be a better choice for environment with low slip occurrence. The use of torque control, while often better with regards to decreasing slip, could not be advised due to a perceived increase in implementation cost.
|
42 |
Machine Learning model applied to Reactor Dynamics / Maskininlärningsmodel Tillämpad på Reaktor DynamikNikitopoulos, Dionysios Dimitrios January 2023 (has links)
This project’s idea revolved around utilizing the most recent techniques in MachineLearning, Neural Networks, and Data processing to construct a model to be used asa tool to determine stability during core design work. This goal will be achieved bycollecting distribution profiles describing the core state from different steady statesin five burn-up cycles in a reactor to serve as the dataset for training the model. Anadditional cycle will be reserved as a blind testing dataset for the trained model topredict. The variables that will be the target for the predictions are the decay ratioand the frequency since they describe the core stability.The distribution profiles extracted from the core simulator POLCA7 were subjectedto many different Data processing techniques to isolate the most relevant variablesto stability. The processed input variables were merged with the decay ratio andfrequency for those cases, as calculated with POLCA-T. Two different MachineLearning models, one for each output parameter, were designed with Pytorch toanalyze those labeled datasets. The goal of the project was to predict the outputvariables with an error lower than 0.1 for decay ratio and 0.05 for frequency. Themodels were able to predict the testing data with an RMSE of 0.0767 for decay ratioand 0.0354 for frequency.Finally, the trained models were saved and tasked with predicting the outputparameters for a completely unknown cycle. The RMSE was even better forthe unknown cycle, with 0.0615 for decay ratio and 0.0257 for frequency,respectively. / Idén bakom detta projekt var att använda de senaste teknikerna inom maskininlärning, neurala nätverk och databehandling för att konstruera en modell att använda som ett verktyg för att avgöra stabilitet under härddesignsarbete. Detta mål kommer uppnås genom att samla distribueringsprofiler av härdens tillstånd från olika stabila lägen i fem förbränningscyklar (burn-up cycles) i en reaktor, som tjänar som en datamängd att träna modellen på.En sjätte förbränningscykel användes som en datamängd för ett blindprov som den tränade modellen ska förutse. Variablerna som kommer tjäna som mål för förutsägelserna är sönderfallsförhållandet (decay ratio) och frekvensen, då dessa beskriver härdens stabilitet. Distribueringsprofilerna som extraherats från härdsimulatorn POLCA7 utsattes för många olika databehandlingstekniker för att isolera de mest relevanta variablerna för stabilitet. De behandlade indatavariablerna blandades med sönderfallsförhållandet och frekvensen för dessa fall, som beräknats med POLCA-T. Två olika maskininlärningsmodeller, en för varje utdataparameter, designades med Pytorch för att analysera dessa märkta datamängder. Projektets mål var att förutse utdatavariablerna med ett fel under 0.1 för sönderfallsförhållandet och 0.05 för frekvensen. Modellerna lyckades förutse testdatan med en RMSE på 0.0767 för sönderfallsförhållande och 0.0354 för frekvensen.Slutligen sparades de tränade modellerna och gavs uppgiften att förutse utdataparametrarna för en komplett okänd cykel. För den okända cykeln var RMSE ännu lägre, med 0.0615 för sönderfallsförhållande och 0.0257 för frekvensen.
|
43 |
Validation of sPEeD: A study aimed to validate the analysis program sPEeD12953 / Validering av sPEeD: En studie med mål att validera beräkningsprogrammet sPEeD12953Strinnholm, Mathias January 2023 (has links)
Shell boilers used in Sweden and Europe has to be certified before being used. Kiwa Sweden performs the role as an accredited third party for control services within most industries in Sweden. Kiwa Sweden has acquired an analysis program called sPEeD12953 from the danish company Danish Exergy Technology (DXT). The analysis program sPEeD has previously not yet been validated and therefore, Kiwa can not use this program as a stand alone tool in their reviews of shell boilers. In order for Kiwa to be able to use the analysis program as more than just a support program, it has to be validated and quality assured. There are two versions of the program sPEeD, one called 2002 version and one called 2016 version. In this thesis, only the version called 2016 is investigated. This thesis was aimed to validate the analysis program sPEeD12953. The result of this study shows that the program sPEeD12953 performs well on most parts and gives good results. However, some of the calculation part of the program gives the wrong result according to the standard. Most of these errors are on the conservative side. Conservative errors leads to that if the user obtains a result that shows that the part of the boiler is okay, then it can be used. However, if the user obtains a not okay result in sPEeD, the user is required to perform additional calculations with another tool. A few results ended up with non-conservative results and these parts of the program can therefore not be used without the use of additional tools. The program can because of this not be fully validated and the software provider has to resolve these issues before the software can be considered fully validated. / Eldrörspannor som används i Sverige och Europa måste certifieras innan de kan tas i bruk. Kiwa Sverige är ett ackrediterat tredjeparts organ inom de flesta branscher i Sverige. Kiwa Sverige har köpt in ett analysprogram som heter sPEeD12953 från det danska företaget Danish Exergy Technology (DXT). Analysprogrammet sPEeD är ännu inte validerat och därför kan Kiwa inte använda detta program som enda verktyg i sina utvärderingar av eldrörspannor. För att Kiwa ska kunna använda analysprogram som mer än bara ett stödprogram, måste det valideras och kvalitetssäkras. Det finns två versioner av programmet sPEeD, en som heter ”2002 version” och en som heter ”2016 version”. I detta examensarbete är det bara den variant som heter 2016 som undersöks. Detta examensarbete syftade till att validera analysprogrammet sPEeD12953. Resultatet av denna studie visar att programmet sPEeD12953 presterar bra på de flesta delar och ger bra resultat. En del av programmet ger dock fel resultat enligt standarden. De flesta av dessa fel är konservativa. Konservativa fel leder till att om användaren får ett resultat som visar att den del av pannan är okej, kan den användas. Men om användaren får ett inte okej resultat i SPEeD, måste användaren utföra ytterligare beräkningar med andra verktyg. Däremot visade några resultat icke-konservativa resultat och dessa delar av programmet kan därför inte användas utan andra beräkningsverktyg. Programmet kan på grund av detta inte klassas som helt validerat och programleverantören måste justera och komplettera programmet innan det kan anses fullt ut kvalitetssäkrat.
|
44 |
Analysing the Optimal Fund Selection and Allocation Structure of a Fund of Funds / Analys av optimala fondval och allokeringsstrukturer för en fond i fondCederberg, Idun, Cui, Ida January 2023 (has links)
This thesis aims to investigate different types of optimization methods that can be used when optimizing fund of fund portfolios. Moreover, the thesis investigates which funds that should be included and what their respective portfolio weights should be, in order to outperform the Swedish SIX Portfolio Return Index. The funds considered for the particular fund of funds in this thesis are all managed by a particular company. The optimization frameworks applied include traditional mean variance optimization, min conditional value at risk optimization, as well as optimization methods studying alpha in combination with the risk measures tracking error and maximum drawdown, respectively. All four optimization methods were applied on a ten years data period as well as on a five years data period. It was found that while the funds have different strengths and weaknesses, four of the funds were considered most appropriate for the fund of funds. Geography and sector constraints were also taken into account and it was found that, in this particular case, the healthcare sector constraint affected the allocated portfolio weights the most. / Syftet med detta masterexamensarbete är att undersöka olika typer av optimeringsmetoder som kan användas vid optimering av en fond i fond. Vidare är syftet med optimeringen att utvärdera vilka fonder som bör inkluderas och vilka deras respektive portföljvikter bör vara för att prestera bättre än det svenska SIX Portfolio Return Indexet. Optimeringsmetoderna inkluderar traditionell modern portföljteori, minimering av conditional Value at Risk och optimeringsmetoder som studerar alpha i kombination med riskmåtten tracking error respektive maximum drawdown. Alla fyra optimeringsmetoder applicerades på en tio år lång respektive fem år lång dataperiod. Det visade sig att även om fonderna har olika styrkor och svagheter kunde fyra av fonderna anses vara mest lämpliga att inkluderas i fond i fonden. Geografiska och sektoriella begränsningar beaktades och det konstaterades att sektorbegränsningen för hälsovårdssektorn hade störst påverkan på resultatet.
|
45 |
Predicting Revenue with Price Indices for Baskets of Spare Parts using Machine Learning / Prediktering av omsättning med hjälp av prisindex för reservdelar och maskininlärningIvinskiy, Valery, Olsson, Kevin January 2021 (has links)
Companies in the spare part industry can implement a variety of different pricing techniques, which have traditionally been done through personnel know-how and industry conventions. One such technique is the use of price indices to track sales performance. This thesis investigates if machine learning or time series analysis can predict revenue using price and price indices in a data-driven manner which can potentially validate current pricing strategies or serve as a basis for sales teams pricing decisions. Price indices used were the Fisher Index and the Törnqvist Index. The data came from a spare parts supplier and consisted of daily transactions. Two target variables were tested: revenue as a continuous and categorical variable. The continuous target variable represented revenue the following day, while the categorical variable represented either an increase or decrease the following day. Models tested were OLS, XGBoost, ARIMAX and LSTM for the continuous case and Logistic Regression and XGBoost in the categorical case on several different feature sets. In the continuous case, ARIMAX outperformed the other models, but the best model was produced by the feature set not containing any indices. In the categorical case on a feature set containing price indices, XGBoost yielded an accuracy of 68% in classifying revenue increases or decreases. This study suggest that price indices contain some information about whether a revenue movement is going to happen, but not the magnitude of it. / Företag som säljer reservdelar kan implementera olika prissättningsstrategier. Dessa har traditionellt baserats på personalkunnande och branschkonventioner. En strategi som tillämpas är prisindex för att följa upp försäljning. Detta examensarbete undersöker om maskininlärning eller tidsserier kan prediktera omsättning med hjälp av pris- och prisindex på ett datadrivet sätt som kan potentiellt validera nuvarande strategier eller agera underlag för prissättningsbeslut. Prisindex som användes var Fisherindex och Törnqvistindex. Datan kom från en reservdelsleverantör och bestod av dagliga transaktioner. Två beroende variabler testades: omsättning som en kontinuerlig och omsättning som kategorisk variabel. Den kontinuerliga variabeln representerade omsättning nästa dag, medan den kategoriska variabeln representerade utfallet ökning eller minskning av omsättning nästa dag. Modellerna som tränades var OLS, XGBoost, ARIMAX och LSTM i det kontinuerliga fallet och Logistisk Regression och XGBoost i det kategoriska fallet. De tränades på flera uppsättningar av oberoende variabler. I det kontinuerliga fallet presterade ARIMAX bäst, men den bästa modellen tränades på en uppsättning oberoende variabler som inte innehöll några index. I det kategoriska fallet gav XGBoost en noggrannhet på 68% vid klassificering av omsättningsökningar eller minskningar. Detta på en uppsättning oberoende variabler som innehöll prisindex. Resultaten antyder att prisindex innehåller viss information om huruvida en omsättningsrörelse kommer att ske, men inte storleken på den.
|
46 |
Practical evaluation of the viability of sensorsand algorithms to detect falling and burial by avalanche / Praktisk utvärdering av genomförbarheten av sensoreroch algoritmer för att avkänna fall och begravning av lavinConradi, Justus, Tiainen, Patrik January 2021 (has links)
Avalanches kill on average 250 people per year. Fall detection algorithms have been used to detect many different types of falls. In this work, a robust humanoid test rigwas designed and built to investigate the use of proven threshold based fall detection algorithms during skiing. A novel burial detection algorithm is used, to detect whether or not a person has been buried by snow, as this is often lethal. Data acquisition were conducted in the Swedish mountains, as well as computer simulations to further strengthen the results. This thesis shows that an IMU, in conjunction with force sensors around the chest and shoulders are sufficient to detect a fall and burial by snow. The algorithms achieve excellent results based on measurement data gathered by thetest rig. Tests were made to check the algorithm for a person gathering data. This showed that additional evaluation is needed to be applicable to live people, since skiing by the test rig is not completely representative of human skiing. / Laviner dödar i genomsnitt 250 människor per år. Fallavkänningsalgoritmer har använts för att upptäcka många olika typer av fall. I detta arbete har en robust människoliknande testrigg designats och byggts för att undersöka användningen avbevisade gränsvärdebaserade fallavkänningsalgortimer under skidåkning. En ny begravningsavkänningsalgoritm används, för att avkänna om en person har blivit begraven av snö, då det är livshotande. Datainsamling gjordes i de svenska fjällen, samt datorsimuleringar för att vidare stärka resultaten. Denna avhandling visar att en IMU, tillsammans med kraftsensorer runt bröstet och axlar är tillräckligt för att avkänna ett fall och begravning i snö. Algoritmerna producerar förträffliga resultat av baserat på mätdata samlat avtestriggen. Tester gjordes för att granska algoritmen när en person samlar data. Det visade att ytterligare undersökning krävs för applicering på levande människor, då skidåkning av testriggen inte är helt representativt av mänsklig skidåkning.
|
47 |
Forbedring af jordkvaliteten efter jordpakning : er løsning løsningen?Grossmann, Freya. January 2002 (has links)
Speciale. / Haves kun i elektronisk udg.
|
48 |
Návrh a realizace demonstračního modelu dvojítého kyvadla / Design and implementation of demonstration model "double inverted pendulum"Slabý, Vít January 2018 (has links)
This thesis describes the process of rebuilding an experimental model of a single pendulum on a cart into the double pendulum on a cart. The control algorithm in MATLAB/Simulink environment for stabilization of the pendulum in the inverse position is designed. For this purpose, LQR state feedback control was implemented. Also method for swinging the pendulum into inverse position from stable state (swing-up) was designed. Feedforward method was utilised for swing-up control. In the thesis, functionality of these algorithms is shown.
|
49 |
Carbon Intensity Estimation of Publicly Traded Companies / Uppskattning av koldioxidintensitet hos börsnoterade bolagRibberheim, Olle January 2021 (has links)
The purpose of this master thesis is to develop a model to estimate the carbon intensity, i.e the carbon emission relative to economic activity, of publicly traded companies which do not report their carbon emissions. By using statistical and machine learning models, the core of this thesis is to develop and compare different methods and models with regard to accuracy, robustness, and explanatory value when estimating carbon intensity. Both discrete variables, such as the region and sector the company is operating in, and continuous variables, such as revenue and capital expenditures, are used in the estimation. Six methods were compared, two statistically derived and four machine learning methods. The thesis consists of three parts: data preparation, model implementation, and model comparison. The comparison indicates that boosted decision tree is both the most accurate and robust model. Lastly, the strengths and weaknesses of the methodology is discussed, as well as the suitability and legitimacy of the boosted decision tree when estimating carbon intensity. / Syftet med denna masteruppsats är att utveckla en modell som uppskattar koldioxidsintensiteten, det vill säga koldioxidutsläppen i förhållande till ekonomisk aktivitet, hos publika bolag som inte rapporterar sina koldioxidutsläpp. Med hjälp av statistiska och maskininlärningsmodeller kommer stommen i uppsatsen vara att utveckla och jämföra olika metoder och modeller utifrån träffsäkerhet, robusthet och förklaringsvärde vid uppskattning av koldioxidintensitet. Både diskreta och kontinuerliga variabler används vid uppskattningen, till exempel region och sektor som företaget är verksam i, samt omsättning och kapitalinvesteringar. Sex stycken metoder jämfördes, två statistiskt härledda och fyra maskininlärningsmetoder. Arbetet består av tre delar; förberedelse av data, modellutveckling och modelljämförelse, där jämförelsen indikerar att boosted decision tree är den modell som är både mest träffsäker och robust. Slutligen diskuteras styrkor och svagheter med metodiken, samt lämpligheten och tillförlitligheten med att använda ett boosted decision tree för att uppskatta koldioxidintensitet.
|
50 |
Real-time Depth of Field with Realistic Bokeh : with a Focus on Computer Games / Realtids Skärpedjup med Realistisk Bokeh : med ett Fokus på DatorspelChristoffersson, Anton January 2020 (has links)
Depth of field is a naturally occurring effect in lenses describing the distance between theclosest and furthest object that appears in focus. The effect is commonly used in film andphotography to direct a viewers focus, give a scene more complexity, or to improve aes-thetics. In computer graphics, the same effect is possible, but since there are no naturaloccurrences of lenses in the virtual world, other ways are needed to achieve it. There aremany different approaches to simulate depth of field, but not all are suited for real-time usein computer games. In this thesis, multiple methods are explored and compared to achievedepth of field in real-time with a focus on computer games. The aspect of bokeh is alsocrucial when considering depth of field, so during the thesis, a method to simulate a bokeheffect similar to reality is explored. Three different methods based on the same approachwas implemented to research this subject, and their time and memory complexity weremeasured. A questionnaire was performed to measure the quality of the different meth-ods. The result is three similar methods, but with noticeable differences in both quality andperformance. The results give the reader an overview of different methods and directionsfor implementing it on their own, based on which requirements suits them.
|
Page generated in 0.0662 seconds