• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 25
  • Tagged with
  • 83
  • 45
  • 32
  • 21
  • 18
  • 17
  • 16
  • 16
  • 12
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Qualification of Tool for Static Code Analysis : Processes and Requirements for Approval of Static Code Analysis in the Aviation Industry / Kvalificering av statiskt kodanalysverktyg : Process och krav för godkännandet av statisk kodanalys i flygindustrin

Gustafson, Christopher, Florin, Sam January 2020 (has links)
In the aviation industry, the use of software development tools is not as easily adopted as in other industries. Due to the catastrophic consequences of software errors in airborne systems, software development processes has rigorous requirements. One of these requirements is that a code standard must be followed. Code standards are used to exclude code constructions which could result in unwanted behaviours. The process of manually ensuring a specific code standard can be costly. This process could be automated by a tool for static code analysis, however, this requires a formal qualification. This thesis evaluates the process of qualifying a tool for static code analysis in accordance with the requirements of the major aviation authorities EASA and FAA. To describe the qualification process, a literature study was conducted. To further explain how an existing tool could be put through the qualification process, a case study of the existing tool Parasoft C/C++ test was conducted. The results of the literature study show what processes must be completed in order to qualify a static code analysis tool. Importantly, the study shows that no requirements are put on the development process of the tool. This was an important takeaway as it meant that an existing tool could be qualified without any additional data from the developer of the tool. The case study of Parasoft C/C++ test showed how the tool could be configured and verified to analyze code in accordance with a small set of code rules. Furthermore, three documents including qualification data were produced showing how the qualification process should be documented in order to communicate the process to an authority. The results of the thesis do not provide the full picture of how a tool could be qualified as the software, in which the tool is used, is considerations the are specific to the software the tool is used to develop still need to be taken into consideration. The thesis does, however, provide guidance on the majority of the applicable requirements. Future research could be done to provide the complete picture of the qualification process, as well as how the process would look like for other types of tools. / Inom flygindustrin är användandet av olika programmeringsverktyg inte lika självklart som inom andra industrier. På grund av de katastrofala konsekvenser som fel i mjukvaran i ett flygplan kan resultera i finns det rigorösa krav på mjukvaruutvecklingsprocessen. Ett av dessa krav är att en viss kodstandard måste upprätthållas. Kodstandarder används för att exkludera vissa strukturer i kod som kan leda till oönskat beteende. Upprätthållandet av en viss kodstandard är en långdragen process att genomföra manuellt, och kan därför automatiseras med hjälp av ett statiskt kodanalysverktyg. För att kunna använda ett sådant verktyg behövs däremot en formell verktygskvalificering. I denna uppsats kommer kvalificeringsprocessen av ett verktyg för statisk kodanalys att evalueras enligt de krav som de två stora flygmyndigheterna EASA och FAA ställer. För att förklara processen av att kvalificera ett sådant verktyg gjordes en litteraturstudie följt av en fallstudie av det existerande verktyget Parasoft C/C++ test. Resultaten av litteraturstudien beskriver de olika processerna som måste genomföras för att kvalificera ett statiskt kodanalysverktyg. Noterbart är att resultaten visar att inga krav ställs på utvecklingsprocessen av verktyget själv. Detta betyder att ett existerande kommersiellt verktyg kan kvalificeras utan att verktygsutvecklarna själva behöver bidra med extra information. Fallstudien visade hur verktyget Parasoft C/C++ test kan konfigureras och verifieras att följa en viss kodstandard. Vidare resulterade fallstudien i utkast av de nödvändiga dokumenten som behöver produceras för att kommunicera kvalificeringsprocessen till en myndighet. De resultat som presenteras i denna uppsats är i sig inte tillräckliga för beskriva hela kvalificeringsprocessen. Ytterligare överväganden som är specifika till den mjukvaran som verktyget ska användas till att utveckla måste göras för att en komplett kvalificering ska kunna genomföras. Uppsatsen bidrar däremot med riktlinjer och vägledning av majoriteten av de processerna som behöver genomföras. Ytterligare forskning kan göras för att bidra med den kompletta bilden av verktygskvalificering av ett statiskt kodanalysverktyg, samt hur kvalificering kan göras av andra typer av verktyg.
62

Automated Security Analysis of Firmware

Bolandi, Farrokh January 2022 (has links)
Internet of Things (IoT) devices are omnipresent in both industries and our homes. These devices are controlled by a software called firmware. Firmware like any other software may contain security vulnerabilities and the sole entity responsible to provide secure firmware is the vendor of the device. There are many analysis reports for individual devices that have found vulnerabilities however this is a manual process and unscalable. Several tools exist today for security analysis but usually with focus on a single aspect of firmware analysis. In this thesis, to better understand challenges with respect to automation of securityfocused analysis of firmware images in largescale, a framework is implemented by combining a number of existing tools using both static and dynamic analysis. A dataset of 241 firmware images from 7 vendors was collected. After evaluation of the framework on the dataset, it was shown that 85 images contained several known vulnerabilities which for some images a high percentage of these already were known before the firmware release date. / Internet of Things (IoT) enheter är allestädes närvarande i både industrier och våra hem. Dessa enheter styrs av en programvara som kallas firmware. Firmware som alla andra programvara kan innehålla säkerhetsbrister och den enda entiet som är ansvarig för att tillhandahålla säker firmware är leverantören av enheten. Det finns många analysrapporter för enskilda enheter som har hittat sårbarheter men detta är en manuell process och oskalbar. Flera verktyg finns idag för säkerhetsanalys men oftast med fokus på en enda aspekt av firmwareanalys. I denna avhandling, för att bättre förstå utmaningar med avseende på automatisering av säkerhet fokuserad analys av firmwarebilder i stor skala, implementeras ett ramverk genom att kombinera ett antal befintliga verktyg med både statisk och dynamisk analys. A datauppsättning av 241 firmwarebilder från 7 leverantörer samlades in. Efter utvärdering av ramverket på datamängden visades det att 85 bilder innehöll flera kända sårbarheter som för vissa bilder en hög andel av dessa redan var kända före releasedatumet för den fasta programvaran.
63

Particle-Based Online Bayesian Learning of Static Parameters with Application to Mixture Models / Partikelbaserad Bayesiansk realtidsinlärning av statiska modellparameterar med tillämpning på mixturmodeller

Fuglesang, Rutger January 2020 (has links)
This thesis investigates the possibility of using Sequential Monte Carlo methods (SMC) to create an online algorithm to infer properties from a dataset, such as unknown model parameters. Statistical inference from data streams tends to be difficult, and this is particularly the case for parametric models, which will be the focus of this paper. We develop a sequential Monte Carlo algorithm sampling sequentially from the model's posterior distributions. As a key ingredient of this approach, unknown static parameters are jittered towards the shrinking support of the posterior on the basis of an artificial Markovian dynamic allowing for correct pseudo-marginalisation of the target distributions. We then test the algorithm on a simple Gaussian model, a Gausian Mixture Model (GMM), as well as a variable dimension GMM. All tests and coding were done using Matlab. The outcome of the simulation is promising, but more extensive comparisons to other online algorithms for static parameter models are needed to really gauge the computational efficiency of the developed algorithm. / Detta examensarbete undersöker möjligheten att använda Sekventiella Monte Carlo metoder (SMC) för att utveckla en algoritm med syfte att utvinna parametrar i realtid givet en okänd modell. Då statistisk slutledning från dataströmmar medför svårigheter, särskilt i parameter-modeller, kommer arbetets fokus ligga i utvecklandet av en Monte Carlo algoritm vars uppgift är att sekvensiellt nyttja modellens posteriori fördelningar. Resultatet är att okända, statistiska parametrar kommer att förflyttas mot det krympande stödet av posterioren med hjälp utav en artificiell Markov dynamik, vilket tillåter en korrekt pseudo-marginalisering utav mål-distributionen. Algoritmen kommer sedan att testas på en enkel Gaussisk-modell, en Gaussisk mixturmodell (GMM) och till sist en GMM vars dimension är okänd. Kodningen i detta projekt har utförts i Matlab.
64

Utvärdering av SLAM och indirekt georefering av punktmolnsdata : En jämförselse mellan de två laserskannrarna Leica Scanstation P40 och Leica RTC 360 3D.

Mattsson, Markus, Eng, Rikard January 2020 (has links)
Detta är en fallstudie där två olika Laserskannrar jämförs. Dessa skannrar skiljer sig då de använder två skilda metoder för punktmolnsregistrering. Dessa två metoder är: SLAM (Simultaneous Localization and Mapping) -baserad punktmolnsregistrering och punktmolnsregistrering med den indirekta två-stegs-metoden. Målet med projektet var således att granska den statiska SLAM-baserade skannern Leica RTC 360 3D och jämföra den med den mer traditionsenliga terrestra laserskannern Leica Scanstation P40. Denna undersökning är relevant eftersom det finns en tydlig skillnad mellan dessa laserskannrar både ur en planerings- och en effektivitetssynpunkt. Den statiska SLAM skannern RTC 360 har möjligheten att vara väldigt tidseffektiv då den använder sig av SLAM algoritmen VIS (Visual Inertial System) för punkmolnsregistrering i fält, samt att skannern använder en IMU (Inertial Measurement Unit) som möjliggör skanningar med hög kvalitet utan att instrumentet är ordentligt horisonterat. Vilket är en förutsättning för att kunna genomföra en skanning med P40. Punktmolnen från dessa två laserskannrar jämförs med varandra och granskas visuellt för att analysera vilka skillnader som finns mellan dem. Samma punktäthet används och skanningarna genomförs från samma positioner med båda instrumenten. Utöver detta görs en statistisk undersökning med hjälp av kontrollpunkter och RMS-värden beräknas med hjälp av dessa. För att tillåta denna statistiska analys, georefererades båda punktmolnen med indirekt georeferering till referenssystemet SWEREF 99 16 30 i plan samt RH 2000 i höjd. Just denna process var något enklare att genomföra med P40 än med RTC 360. Då P40 data var något bättre anpassat för bearbetning i Leica Cyclone. Vilket var de program som främst användes för bearbetning av data. RTC 360 använder två pulser för att skanna in varje punkt, vilket resulterade i att den skannade in något fler punkter. Framförallt märktes denna funktion på områden som traditionellt är svåra att skanna med en laserskanner, främst blanka, svarta områden. Det visade sig av kontrollpunkterna att det fanns en liten variation mellan punktmolnenskvalitet där lasersdata från P40 höll 1–2 millimeters kvalitet. Ur detta resultat kunde slutsatsen dras att Leica Scanstation P40 är något bättre för geodetiska ändamål med mycket höga krav på georefereringen. I det flesta andra sammanhang är RTC 360 att rekommendera. Leicas RTC 360 är ett bra exempel på hur SLAM-algoritmen kan användas för att förenkla många laserskanningsprojekt. Även i de projekten med höga krav på detaljrikedom. / This is a case study which aims to compare two different laser scanners. The main difference between these two scanners is that they use different solutions for registration of point clouds. These two solutions are SLAM (Simultaneous Localization and Mapping) as well as the indirect two-step approach. The thesis aims at comparing the static SLAM-based scanner Leica RTC 360 with the more traditional scanner Leica Scanstation P40. This is a relevant study due to the big differences between these two scanners, in the aspect of both how much preparation that is need and how effective both scanners are. The static SLAM scanner RTC 360 has the possibility to be very time efficient due to use of the SLAM-algorithm called VIS (Visual Inertial System) that are used for alignment of different point clouds as early as in the fieldwork. The RTC 360 also uses an IMU (Inertial Measurement Unit) that allows the laser scanner to do complete and detailed scans without the need to be perfectly levelled. The P40 on the other hand do need to be precisely levelled to be able to complete a scan. The point clouds from these two laser scanners are compared with each other by reviewing the visual features of the two clouds and finding differences between the point clouds. The same point density was used in both clouds and the scans took place from the same positions with both scanners. A statistical comparison was also made. This statistical analysis was made with use of control points and RMS values that were established with the help of these. This statistical analysis was made possible by the fact that both point clouds were georeferenced to the reference system SWEREF 99 16 30 as well the system RH 2000 for height. This process of georeferencing both clouds was easier to perform with the P40 than the RTC 360. Because the laser data from P40 were slightly better suited for the program Leica Cyclone, which were the program that was used for most of the data processing. RTC 360 uses two individual laser-pulses for each scanned point. This resulted in that the RTC 360 scanned some more points compared to the P40. This difference was extra noticeable on surfaces that usually are difficult for laser scanners to scan, such as plain, black surfaces. The control points showed that quality of both point clouds was very similar to each other. The P40 showed slightly higher accuracy, about 1-2millimeter, relative to the RTC 360 scanner. This resulted in the conclusion that P40 were slightly better for geodic purposes with very high demands on the georeferencing. In most of the other cases RTC 360 is the recommended scanner. Leica RTC 360 is a good example of how the SLAM-algorithm can be used to make many laser scanning projects easier and more efficient.
65

Robust Code Generation using Large Language Models : Guiding and Evaluating Large Language Models for Static Verification

Al-Mashahedi, Ahmad, Ljung, Oliver January 2024 (has links)
Background: Generative AI has achieved rapid and widespread acclaim over a short period since the inception of recent models that have opened up opportunities not possible before. Large Language Models (LLMs), a subset of generative AI, have become an essential part of code generation for software development. However, there is always a risk that the generated code does not fulfill the programmer's intent and contains faults or bugs that can go unnoticed. To that end, we propose that verification of generated code should increase its quality and trust. Objectives: This thesis aims to research generation of code that is both functionally correct and verifiable by implementing and evaluating four prompting approaches and a reinforcement learning solution to increase robustness within code generation, using unit-test and verification rewards. Methods: We used a Rapid Literature Review (RLR) and Design Science methodology to get a solid overview of the current state of robust code generation. From the RLR and related works, we evaluated the following four prompting approaches: Base prompt, Documentation prompting, In-context learning, and Documentation + In-context learning on the two datasets: MBPP and HumanEval. Moreover, we fine-tuned one model using Proximal Policy Optimization (PPO) for the novel task. Results: We measured the functional correctness and static verification success rates, amongst other metrics, for the four proposed approaches on eight model configurations, including the PPO fine-tuned LLM. Our results show that for the MBPP dataset, on average, In-context learning had the highest functional correctness at 29.4% pass@1, Documentation prompting had the highest verifiability at 8.48% verfiable@1, and finally, In-context learning had the highest functionally correct verifiable code at 3.2% pass@1 & verifiable@1. Moreover, the PPO fine-tuned model showed an overall increase in performance across all approaches compared to the pre-trained base model. Conclusions: We found that In-context learning on the PPO fine-tuned model yielded the best overall results across most metrics compared to the other approaches. The PPO fine-tuned with In-context learning resulted in 32.0% pass@1, 12.8% verifiable@1, and 5.0% pass@1 & verifiable@1. Documentation prompting was better for verifable@1 on MBPP. However, it did not perform as well for the other metrics. Documentation prompting + In-context learning was performance-wise between Documentation prompting and In-context learning, while Base prompt performed the worst overall. For future work, we envision several improvements to PPO training, including but not limited to training on Nagini documentation and utilizing expert iteration to create supervised fine-tuning datasets to improve the model iteratively. / Bakgrund: Generativ AI har uppnått snabb och utbredd popularitet under en kort tid sedan lanseringen av språk- och bildmodeller som har öppnat upp nya möjligheter. Large Language Models (LLMs), en del av generativ AI, har blivit en viktig del inom mjukvaruutveckling för kodgenerering. Det finns dock alltid en risk att den genererade koden inte uppfyller programmerarens avsikt och innehåller fel eller buggar som kan förbli oupptäckta. För att motverka detta föreslår vi formell verifiering av den genererade koden, vilket bör öka dess kvalitet och därmed förtroendet för den. Syfte: Detta examensarbetets syfte är att undersöka generering av kod som är bååde funktionellt korrekt och verifierbar genom att implementera och utvärdera fyra prompt-metoder samt en ny lösning genom reinforcement learning. Detta för att öka robusthet inom kodgenerering genom unit-test och verifieringsbelöningar. Metoder: Vi använde Rapid Literature Review (RLR) och Design Science metodik för att få en solid översikt över det nuvarande tillståndet för robust kodgenerering. Från RLR:en och relaterade arbeten utvärderade vi följande fyra prompt-metoder: Base prompt, Documentation prompting, In-context learning och Documentation + In-context learning. Dessutom fine-tune:ade vi en modell med Proximal Policy Optimization (PPO) för denna uppgift. Resultat: Vi mätte funktionell korrekthet- och verifieringsvinst-statistiken samt andra mätvärden för de fyra föreslagna prompten på åtta modellkonfigurationer, inklusive den PPO fine-tune:ade LLM:en. Våra resultat visar på MBPP datasetet att i genomsnitt hade In-context learning den högsta funktionella korrektheten vid 29,4% pass@1, Documentation prompting hade den högsta verifierbarheten vid 8,48% verifiable@1, och slutligen hade In-context learning mest funktionellt korrekta verifierbara kod vid 3.2% pass@1 & verifiable@1. Utöver detta visade den PPO fine-tune:ade modellen konsekventa förbättringar gentemot den förtränade basmodellen. Slutsatser: Vi fann att In-context learning med den fine-tune:ade PPO-modellen gav de bästa övergripande resultaten över de flesta mätvärden jämfört med de andra metoderna. Den PPO fine-tune:ade modellen med In-context learning resulterade i 32.0% pass@1, 12.8% verifiable@1, och 5.0% pass@1 & verifiable@1. Documentation prompting va bättre för verifable@1, men den fungerade inte lika bra för de andra mätvärdena. Documentation + In-context learning hamnade mellan Documentation prompting och In-context learning prestationsmässigt. Base prompt presterade sämst av de utvärderade metoderna. För framtida arbete ser vi flera förbättringar av träningen av PPO-modellen. Dessa innefattar, men är inte begränsade till, träning med Nagini dokumentation samt användning av expert iteration för att bygga ett dataset i syfte att iterativt förbättra modellen.
66

GNSS-positionering med webbaserade beräkningstjänster : Utvärdering av den relativa osäkerheten

Fredin, Edvin, Skoog, Ellen January 2024 (has links)
Ett sätt att efterberäkna statiska GNSS-observationer är att använda webbaserade beräkningstjänster. Fördelen med att använda webbaserade beräkningstjänster är att det inte krävs någon avancerad kunskap om GNSS- mätning för att bestämma en position. I Sverige finns SWEPOS Beräkningstjänst, som använder sig av de permanenta referensstationerna i SWEPOS-nätverket för att utföra efterberäkning. Andra exempel på webbaserade beräkningstjänster är AUSPOS, Online User Positioning Service (OPUS), Trimble CenterPoint RTX Post Processing Service (TrimbleRTX) och Canadian Spatial Reference System Precise Point Positioning (CSRS-PPP). Dessa tjänster kan användas på platser utan geodetisk infrastruktur. Syftet med examensarbetet är att undersöka hur den relativa osäkerheten mellan närliggande punkter skiljer sig vid koordinatbestämning med de fem just nämnda tjänsterna.  Fem kontrollpunkter valdes i ett redan etablerat stomnät runt Högskolan i Gävle. Kontrollpunkterna mättes i tre sessioner och varje session varade i fyra timmar. Från varje observationsfil skapades fyra nya observationsfiler som hade en, två, tre respektive fyra timmars observationstid. Filerna, totalt 60, skickades till beräkningstjänsterna när efterberäknade bandata var tillgängliga. För att jämföra de olika tjänsterna beräknades standardosäkerhet, medelavvikelse samt RMS-värdet.  Resultatet visade att AUSPOS, CSRS-PPP, TrimbleRTX och SWEPOS presterar ungefär lika bra. Med fyra timmars observationstid hade dessa tjänster ett RMS för de relativa koordinatskillnaderna i plan runt 5–7 mm och i höjd 9–15 mm. OPUS presterade dock betydligt sämre än de andra tjänsterna. OPUS hade vid fyra timmars observationstid ett RMS-värde runt 16 mm och i höjd 27 mm.  Resultaten visar även att längre observationstider förbättrar den relativa osäkerheten, men efter en viss observationstid förbättras inte osäkerheten.För AUSPOS och CSRS-PPP sker detta vid tre timmars observationstid medan för SWEPOS börjar RMS-värdet stabiliseras vid två timmar. TrimbleRTX presterar bra redan vid korta observationstider men förbättras något vid längre observationstider. OPUS visade en tydlig förbättring vid längre observationstider. / One way to post process static GNSS-observations is to use a web-based post processing service. One advantage of using web-based services is that no advanced knowledge of GNSS is needed to determine the position. In Sweden, SWEPOS Post Processing Service is available, which uses the permanent reference stations in the SWEPOS network. Other examples of web-based post processing services are AUSPOS, Online User Positioning Service (OPUS), Trimble CenterPoint RTX Post Processing Service (Trimble RTX) and Canadian Spatial Reference System Precise Point Positioning (CSRS-PPP). The services can be used in areas without geodetic infrastructure. The purpose of this thesis is to evaluate how the relative uncertainty differs over short distances when determining the position using web-based post processing services.  Five control points were chosen from an already established control network around the campus of University of Gävle. The control points were measured in three sessions using GNSS static measurement. Each session lasted four hours. The resulting observation file was divided based on observation time into 1, 2, 3 and 4 hours long files. The files, 60 in total, were sent to the five post processing services when the final post processed precise orbits became available. In order to compare the results of the different services the standard uncertainty, mean deviation and RMS were calculated.  The results indicate that AUSPOS, CSRS-PPP, TrimbleRTX and SWEPOS performs at approximately the same level. With four hours observation time, the services result in a horizontal RMS around 5-7 mm and a vertical RMS around 9-15 mm for the relative coordinate differences. However, the OPUS performance is considerably worse compared to the other services. With four hours observation time OPUS delivers a horizontal RMS around 16 mm and a vertical RMS around 27 mm.  The results further indicate that longer observation time improves the relative uncertainty, but this tends to stabilise after a few hours of observation. AUSPOS and CSRS-PPP stabilises after three hours and SWEPOS stabilises after two hours. TrimbleRTX performs well with short observation time but shows a small improvement with longer observation times. OPUS showed clear improvement with longer observation times.
67

Analys av reaktiv effektinmatning till överliggande nät samt optimal kondensatordrift / Analysis of reactive power input to the higher-level grid and optimal operation of capacitor banks

Sundström, Göran January 2017 (has links)
Bakgrunden till detta projekt är att Vattenfall Eldistribution AB (nedan kallat Vattenfall) kommer att införa ett avgiftssystem för inmatning av reaktiv effekt till sitt elnät. Avgiften införs till följd av problem på elnätet som orsakas av reaktiv effekt. Umeå Energi Elnät AB (nedan kallat Umeå Energi) har historiskt matat in reaktiv effekt vilket motiverade detta arbete som utreder den reaktiva effekten på Umeå Energis elnät samt bidrar med information om två alternativa tillvägagångssätt att bemöta avgiften. Alternativ 0 är att kompensationsutrustning inte installeras, utan att ett abonnemang på inmatning av reaktiv effekt upprättas. Alternativ 1 är att kompensationsutrustning installeras. För att utreda den reaktiva effekten erhölls och behandlades data på reaktiv effekt i Umeå Energis nät. Historisk kondensatordrift togs fram för år 2016 ur händelsehistoriken hos Umeå Energis driftcentral. Kondensatordriften år 2015 kunde enbart erhållas från ett tidigare arbete på Umeå Energi eftersom ett begränsat antal händelser lagras i händelsehistoriken. Genom att subtrahera kondensatorernas produktion från den reaktiva effekten i Umeå Energis anslutningspunkter som uppmätts av Vattenfall erhölls data som mer representerade underliggande fenomen på nätet. Utan kondensatordrift beräknades inmatningen enligt Vattenfalls definition uppgå till cirka 34 MVAr utifrån data från 2015 och 2016. För åren 2018 till och med 2023 beräknades ändringar i reaktiv effekt till följd av förändringar på Umeå Energis nät. Vid beräkningarna försummades ledningarnas induktiva karaktär, vilket gav ett tomgångsscenario med maximal produktion av reaktiv effekt. År 2023 beräknades inmatningen ska ha ökat till 59 MVAr till följd av förändringar på Umeå Energis nät. Med antagandet att Umeå Energi inte kommer att drifta kondensatorbatterierna så att inmatningen höjs föreslogs för alternativ 0 val av abonnemang på inmatning av reaktiv effekt för åren 2018 till och med 2023 utifrån de 34 MVAr som nämnts ovan och inverkan från förändringarna på nätet. År 2019 föreslogs ett abonnemang på 41 MVAr, och 2023 föreslogs ett på 59 MVAr. Kostnaderna för dessa beräknades enligt Vattenfalls tariff till 820 000 kr respektive 1 187 000 kr. Kostnaden för eventuell överinmatning av reaktiv effekt beräknades med tariffen för överinmatning årligen uppgå till maximalt 76 000 kr med 95 % sannolikhet enligt den korrigerade standardavvikelsen hos inmatningen utan kondensatordrift åren 2015 och 2016. Optimal kondensatordrift beräknades för åren 2015 och 2016 genom att addera den produktion av reaktiv effekt från befintliga kondensatorbatterier som gav minst absolutvärde i reaktiv effekt. Beroende på hur ofta kondensatordriften justerades erhölls olika resultat. En undersökning av störningar till följd av kondensatorkopplingar rekommenderas för att få en förståelse för förutsättningarna för optimal kondensatordrift. Det bedömdes inte ekonomiskt motiverbart med mer avancerad kompensationsteknik såsom statiska VAr-kompensatorer då variabla reaktorer kan kompensera dygns- och säsongsvariationer i reaktiv effekt. Den reaktiva effektproduktionen i ledningar är störst på 145 kV-nivån och kommer öka i framtiden på denna nivå. Det är därför sannolikt här kompensationsutrustning såsom reaktorer först bör installeras. För att kunna ta så bra beslut som möjligt angående den reaktiva effekten rekommenderas att snarast möjligt ingå ett arbetssätt som om avgiftssystemet redan tagits i bruk och utöka ett representativt dataunderlag. / The background of this project is that Vattenfall Eldistribution AB (hereinafter referred to as Vattenfall) will establish a system of fees for input of reactive power. This will be done due to problems in the grid caused by reactive power. Umeå Energi Elnät AB (hereinafter referred to as Umeå Energi) has historically input reactive power, motivating this work which investigates the reactive power in the grid of Umeå Energi and provides information on two alternative approaches to responding to the fee. Alternative 0 entails no installation of compensation technology, and that a subscription for reactive power input is established instead. Alternative 1 entails that compensation technology is installed. To investigate the reactive power, data on reactive power in the grid of Umeå Energi were obtained and processed. Historical operations of capacitor banks for the year 2016 were obtained from the history of events of the control center at Umeå Energi. The operations of the capacitor banks during 2015 could only be obtained from an earlier work at Umeå Energi since the number of events stored in the history is limited. By subtracting the capacitor banks’ production from the reactive power measured by Vattenfall in the connections of Umeå Energi, data more representative of underlying phenomena were obtained. Without capacitor production of reactive power, the input was calculated according to the definition of Vattenfall to about 34 MVAr, by using data from 2015 and 2016. For the years 2018 through 2023, changes in reactive power due to changes in the grid of Umeå Energi were calculated. These calculations did not consider inductances, and thus yielded zero-load scenarios with maximum reactive power production. By the year of 2023, the input was calculated to have increased to 59 MVAr due to changes in the grid of Umeå Energi. Assuming that Umeå Energi will not operate the capacitors so that the input is increased, for alternative 0 subscriptions for input of reactive power were suggested for the years 2018 through 2023 by considering the abovementioned 34 MVAr and the changes in the grid. Subscriptions of 41 MVAr and 59 MVAr were suggested for the years 2019 and 2023 respectively. The costs of these were calculated with the fee specified by Vattenfall to SEK 820,000 and SEK 1,187,000 respectively. Calculations with the applicable fee yielded that the yearly cost of possible over-input could amount to a maximum of SEK 76,000 with a 95 % probability, using the corrected standard deviation of the input without capacitor production of reactive power for the years 2015 and 2016. Optimal capacitor bank operations were calculated for the years 2015 and 2016 by adding the production of reactive power from existing capacitor banks which yielded the minimum absolute reactive power. Depending on how often the capacitors were operated different results were obtained. An investigation of power quality disturbances due to capacitor bank operations is recommended to achieve an understanding of the conditions for optimal capacitor bank operations. It was not deemed economically justifiable to install more advanced compensation technologies such as static VAr compensators since variable reactors are able to compensate daily and seasonal variations in reactive power. The production of reactive power in cables is the largest on the 145 kV level and will increase in the future on this level. It is therefore likely here compensation technologies such as reactors should be installed first. To be able to make as good decisions as possible concerning the reactive power, it is recommended to as soon as possible commence a working method as if the fee system had already come into effect; thus increasing the amount of representative data.
68

Omnia HR En HR-plattform för SharePoint / Omnia HR A HR-Platform for SharePoin

Dybeck, Markus January 2017 (has links)
Omnia HR är en HR-plattform utvecklat för Microsofts SharePoint. I denna artikel beskrivs hur en liten del av plattformen är skapad – onboardingen. När en ny person anställs på ett företag bör det göras förberedelser inför den nyanställdes första dag, det är vad onboardingen handlar om. I detta projekt skapades förutsättningar för att administrera och hantera dessa förberedelser.   Projektet skrevs i Microsoft-utvecklade programmeringsspråket TypeScript, en påbyggnad på JavaScript. TypeScript transpileras ned till JavaScript och har stöd för de senaste funktionerna. I rapporten diskuteras fördelarna samt nackdelarna med att använda TypeScript för ett projekt, hur vida det faktiskt underlättar arbetet eller om det går lika bra att använda vanlig JavaScript. / Omnia HR is a HR-platform developed for Microsoft SharePoint. In this article, the creation of a smaller part for the platform – the onboarding – is described. When a new employee is hired, the company need to do some tasks before the new employees first day, that’s what the onboarding is all about. In this project conditions to administrate and handle these tasks were made.   The project was written in the programing language TypeScript, developed by Microsoft. TypeScript is superset of JavaScript and is transpiled down to pure JavaScript with support for the latest functions. In this rapport pros and cons by using TypeScript for a project is discussed, and if it actually makes the process easier or if it’s just as good to use regular JavaScript.
69

Implementation and Evaluation of a Continuous Code Inspection Platform / Implementation och utvärdering av en kontinuerlig kodgranskningsplattform

Melin, Tomas January 2016 (has links)
Establishing and preserving a high level of software quality is a not a trivial task, although the benefits of succeeding with this task has been proven profitable and advantageous. An approach to mitigate the decreasing quality of a project is to track metrics and certain properties of the project, in order to view the progression of the project’s properties. This approach may be carried out by introducing continuous code inspection with the application of static code analysis. However, as the initial common opinion is that these type of tools produce a too high number of false positives, there is a need to investigate what the actual case is. This is the origin for the investigation and case study performed in this paper. The case study is performed at Ida Infront AB in Linköping, Sweden and involves interviews with developers to determine the performance of the continuous inspection platform SonarQube, in addition to examine the general opinion among developers at the company. The author executes the implementation and configuration of a continuous inspection environment to analyze a partition of the company’s product and determine what rules that are appropriate to apply in the company’s context. The results from the investigation indicate the high quality and accuracy of the tool, in addition to the advantageous functionality of continuously monitoring the code to observe trends and the progression of metrics such as cyclomatic complexity and duplicated code, with the goal of preventing the constant increase of complex and duplicated code. Combining this with features such as false positive suppression, instant analysis feedback in pull requests and the possibility to break the build given specified conditions, suggests that the implemented environment is a way to mitigate software quality difficulties. / 建立和保持高水平的软件质量可以带来经济利益等诸多好处,然而这是一项很困难的任务。其中一种防止软件项目质量下降的方法是通过跟踪项目的度量值和某些属性,来查看项目的属性的变化情况。通过引入持续的代码审查和应用静态代码分析方法可以实现这种方法。然而,在人们的印象中,这类工具往往具有较高的误检,因此需要进一步调查实际情况、研究其可行性,这是本文的初始研究目标。本文在瑞典林雪平的Ida Infront AB公司开展了案例研究,调研了该公司开发人员的意见,并通过访问开发人员,确定持续的代码审查平台SonarQube的性能。作者对持续的代码审查环境进行了配置,分析了公司的部分产品,进而确定哪些规则适用于该公司。调查结果表明该工具是高质量并且准确的,还提供了持续监测代码来观察度量值的趋势和进展等先进功能,例如通过监测环路复杂度和重复代码等度量值,来防止复杂度和重复代码的增加。通过组合误检压缩、对pull requests的瞬间分析反馈、以及分解和建立给定的条件等特征,使得所实现的环境成为一种可以降低软件质量保障难度的方式。
70

Torsion resistant chassis design for the Kalmar Cargotec empty container truck : A study to reduce swinging effect while handling elevated loads / Torsionsbeständigt chassi till Kalmar Cargotec's empty container truck

Svernlöv, Jonathan January 2020 (has links)
Kalmar Cargotec is a company offering solutions for container and heavy industrial material handling. One of their products, EC-truck (empty container), lifts objects as heavy as 11 tonnes and sometimes as high as 16 meters vertically up in the air. Lifting very heavy objects high up in the air can cause the pulse to rise if unwanted movement is caused due to strong winds. This thesis was raised by Kalmar Cargotec, to study if the swinging effect of the elevated load could be reduced by increasing the torsional resistance of the truck chassis framework. The project work will be conducted at the engineering consultancy firm Citec AB in Karlstad, whom together with Kalmar Cargotec, offered the opportunity for this thesis. Concepts were generated for the chassis framework to find a new and improved design. The conceptual designs were compared both numerically, through the finite element analysis based program Mechanical, and analytically. The three best performing concepts were studied further with more variables accounted for where one was picked to be implemented in a large scale computational model. It was discovered that it is possible to reduce the swinging effect of the mast by replacing the current U-profiled beams in the chassis framework with hollow rectangular cross-sectional beams. / Kalmar Cargotec är ett företag som erbjuder lösningar till kontainer- och materialhantering i tungviktsindustrin. En av deras produkter, EC-trucken (empty container), lyfter föremål så tunga som 11 ton och ibland s˚a högt som 16 meter vertikalt upp i luften. Att lyfta så tunga föremål, så högt upp i luften kan väcka oro ifall föremålet börjar förflytta sig på grund av starka vindar. Den här masteruppsatsen presenterades av Kalmar Cargotec för att studera om svängningseffekten av det upphöjda föremålet kan reduceras genom att öka vridmotståndet i truckens chassi-ramverket. Projektet kommer att utföras på ingenjörsinriktade konsultfirman Citec AB i Karlstad, som genom Kalmar Cargotec, erbjöd möligheten för att utföra detta examensarbete. Koncept genererades på chassi-ramverket med syfte att hitta nya och förbättrade lösningar. De konceptuella utformningarna jämfördes både numeriskt, genom det finita element-baserade programmet Mechanical, och analytiskt. De tre koncept som presterade bäst valdes för vidare studier med fler variabler inräknade, där en till slut valdes för att implementeras i en större beräkningsmodell. Det visade sig vara möjligt att reducera den svängande effekten av stativet med lasten genom att byta ut de befintliga U-profil balkarna i chassi-ramverket mot balkar med rektangulärt ihåliga tvärsnitt.

Page generated in 0.0671 seconds