• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 43
  • 26
  • Tagged with
  • 69
  • 39
  • 23
  • 16
  • 15
  • 12
  • 12
  • 10
  • 10
  • 9
  • 8
  • 8
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Webbapplikation för filtrering och visualisering av data : utvecklad med Pythonramverket Dash / Web application for data filtration and visualization : developed with the Python framework Dash

Blomqvist, Andreas, de Brun Mangs, William, Elfstrand, Tobias, Grahn, David, Holm, Hampus, Matstoms, Axel, Mersh, Jamie, Ngo, Robin, Wåtz, Christopher January 2023 (has links)
Denna rapport behandlar skapandet av en webbapplikation för filtreraring och visualisering av data i Pythonramverket Dash. Rapporten ger en översikt av gruppens arbetsmetodik och projektets utveckling. Webbapplikationen utvecklades inom kursen TDDD96 Kandidatprojekt i programvaruutveckling av nio studenter som studerar civilingenjör Datateknik och civilingenjör Mjukvaruteknik. Detta uppdrag fick projektgruppen av företaget Ericsson. Projektets resultat blev en fungerade webbapplikation efterfrågad funktionalitet. Resultatet och arbetsmetodiken, bland annat testdriven utveckling, diskuteras i rapporten med fokus på hur utvecklingsprocessen förbättrades. Rapportens slutsatser är att ramverket Dash lämpar sig för webbutveckling i ett mindre projekt, särskilt för datavisualisering, och att produkten skapar värde för kunden.
42

Komplexitet med hantering och utveckling av cyberfysiska system (CPS) i sjukhusmiljö / The complexity of managing and developing CPS in a hospital environment

Bakeleh, Majd January 2023 (has links)
Denna rapport närmar sig cyberfysiska system (CPS) ur både användnings- och utvecklingsperspektiv, med särskilt fokus på utmaningarna i en sjukhusmiljö. Vikten av en kontinuerlig utveckling för att optimera teknologins prestanda och användbarhet betonas, och de specifika utmaningar som är unika för en sjukhusmiljö belyses. Studien undersöker hantering av komplexitet kopplat till CPS i form av automatiserade transportsystem på Nya Karolinska Universitetssjukhuset, Stockholm, Sverige. Målet är att ge framtida sjukhusprojekt en klar beskrivning av erfarenheterna av att utveckla och hantera CPS i sjukhusmiljö. Genom att titta på både möjligheter och utmaningar kommer rapporten att bidra till en ökad förståelse för CPS och dess förmåga att förbättra vården. Resultaten visar att utmaningarna inkluderar höga säkerhetskrav, integrering med personal, noga övervakning för att undvika driftstörningar och behovet av samarbete och flexibilitet. Rapporten drar slutsatsen att samarbete, proaktiv inställning och kontinuerlig utveckling är nödvändiga för att optimera prestanda och användbarhet hos CPS. Användare och kunder bör också vara aktiva i att dokumentera och rapportera systemets beteende för en kontinuerlig förbättring. Utvecklingen av CPS inom sjukhusmiljöer kräver också kontinuerlig testning och utbildning av personal samt ett koordinerat och strategiskt förhållningssätt för att säkerställa god samverkan mellan systemets olika aspekter. / This report approaches CPS technology from both usage and development perspectives, with a particular focus on the challenges in a hospital environment. The importance of continuous development to optimize the technology's performance and usability is explored, as well as the specific challenges that are unique to a hospital environment. The study investigates the complexity management of CPS in the form of automated transport systems at the New Karolinska University Hospital in Stockholm, Sweden. The goal is to provide future hospital projects with a clear description of the experiences of developing and managing CPS in a hospital environment. By looking at both opportunities and challenges, the report contributes to a greater understanding of CPS and its ability to improve health care. The study shows that the challenges include high security requirements, integration with staff, careful monitoring to avoid disruptions, and the need for cooperation and flexibility. The report concludes that cooperation, proactive attitude and continuous development are necessary to optimize the performance and usability of CPS. Users and customers should be active in documenting and reporting the system's behavior for continuous improvement. The development of CPS in hospital environments also requires continuous testing and training of staff and a coordinated and strategic approach to ensure cooperation between the system's different aspects.
43

A Scala DSL for Rust code generation

Segeljakt, Klas January 2018 (has links)
Continuous Deep Analytics (CDA) is a new form of analytics with performance requirements exceeding what the current generation of distributed systems can offer. This thesis is part of a five year project in collaboration between RISE SICS and KTH to develop a next generation distributed system capable of CDA. The two issues which the system aims to solve are computation sharing and hardware acceleration. The former refers to how BigData and machine learning libraries such as TensorFlow, Pandas and Numpy must collaborate in the most efficient way possible. Hardware acceleration relates to how the back-end of current generation general purpose data processing systems such as Spark and Flink are bottlenecked by the Java Virtual Machine (JVM). As the JVM abstracts over the underlying hardware, its applications become portable but also forfeit the opportunity to fully exploit the available hardware resources. This thesis aims to explore the area of Domain Specific Languages (DSLs) and code generation as a solution to hardware acceleration. The idea is to translate incoming queries to the system into low-level code, tailor suited to each worker machine’s specific hardware. To this end, two Scala DSLs for generating Rust code have been developed for the translation step. Rust is a new, low-level programming language with a unique take on memory management which makes it as safe as Java and fast as C. Scala is a language which is well suited towards development of DSLs due to its flexible syntax and semantics. The first DSL is implemented as a string interpolator. The interpolator splices strings of Rust code together, at compile time or runtime, and passes the result to an external process for static checking. The second DSL instead provides an API for constructing an abstract syntax tree, which after construction can be traversed and printed into Rust source code. The API combines three concepts: heterogeneous lists, fluent interfaces, and algebraic data types. These allow the userto express advanced Rust syntax such as polymorphic structs, functions, and traits, without sacrificing type safety. / Kontinuerlig Djup Analys (CDA) är en ny form av analys med prestandakrav som överstiger vad den nuvarande generationen av distributerade system kan erbjuda. Den här avhandlingen är del av ett project mellan RISE SICS och KTH för att utveckla ett nästa-generations distribuerat system kapabelt av CDA. Det är två problem som systemet syftar på att lösa: hårdvaruacceleration och beräkningsdelning. Det första handlar om hur BigData och maskininlärningssystem som sådan som TensorFlow, Pandas och Numpy måste kunna samarbeta så effektivt som möjligt. Hårdvaruacceleration relaterar till hur back-end delen i den dagens distribuerade beräknings system, såsom Spark och Flink, flaskhalsas av Javas Virtuella Maskin. JVM:en abstraherar över den underliggande hårvaran. Som resultat blir dess applikationer portabla, men ger också upp möjligheten att fullständigt utnyttja de tillgängliga hårdvaruresurserna. Den här avhandlingen siktar på att utforska området kring Domänspecifika Språk (DSLer) och kodgenerering som en lösning till hårdvaruacceleration. Idén är att översätta inkommande förfrågningar till låg-nivå kod, skräddarsydd till varje arbetar maskin’s specifika hårdvara. Till detta ändamål har två Scala DSLer utvecklats för generering av Rust kod. Rust är ett nytt låg-nivå språk med ett unikt vidtagande kring minneshantering som gör det både lika säkert som Java och snabbt som C. Scala är ett språk som passar bra tillutveckling av DSLer pågrund av dess flexibla syntax och semantik. Den första DSLen är implementerad som en sträng-interpolator. Interpolatorn sammanfogar strängar av Rust kod, under kompileringstid eller exekveringstid, och passerar resultatet till enextern process för statisk kontroll. Den andra DSLen består istället av ett API för att konstruera ett abstrakt syntaxträd, som efteråt kan traverseras och skrivas ut till Rust kod. API:et kombinerar tre koncept: heterogena listor, flytande gränssnitt, och algebraiska datatyper. Dessa tillåter användaren att uttrycka avancerad Rust syntax, såsom polymorfiska strukts, funktioner, och traits, utan att uppoffra typsäkerhet.
44

Continuous Event Log Extraction for Process Mining

Selig, Henny January 2017 (has links)
Process mining is the application of data science technologies on transactional business data to identify or monitor processes within an organization. The analyzed data often originates from process-unaware enterprise software, e.g. Enterprise Resource Planning (ERP) systems. The differences in data management between ERP and process mining systems result in a large fraction of ambiguous cases, affected by convergence and divergence. The consequence is a chasm between the process as interpreted by process mining, and the process as executed in the ERP system. In this thesis, a purchasing process of an SAP ERP system is used to demonstrate, how ERP data can be extracted and transformed into a process mining event log that expresses ambiguous cases as accurately as possible. As the content and structure of the event log already define the scope (i.e. which process) and granularity (i.e. activity types), the process mining results depend on the event log quality. The results of this thesis show how the consideration of case attributes, the notion of a case and the granularity of events can be used to manage the event log quality. The proposed solution supports continuous event extraction from the ERP system. / Process mining är användningen av datavetenskaplig teknik för transaktionsdata, för att identifiera eller övervaka processer inom en organisation. Analyserade data härstammar ofta från processomedvetna företagsprogramvaror, såsom SAP-system, vilka är centrerade kring affärsdokumentation. Skillnaderna i data management mellan Enterprise Resource Planning (ERP)och process mining-system resulterar i en stor andel tvetydiga fall, vilka påverkas av konvergens och divergens. Detta resulterar i ett gap mellan processen som tolkas av process mining och processen som exekveras i ERP-systemet. I denna uppsats används en inköpsprocess för ett SAP ERP-system för att visa hur ERP-data kan extraheras och omvandlas till en process mining-orienterad händelselogg som uttrycker tvetydiga fall så precist som möjligt. Eftersom innehållet och strukturen hos händelseloggen redan definierar omfattningen (vilken process) och granularitet (aktivitetstyperna), så beror resultatet av process mining på kvalitén av händelseloggen. Resultaten av denna uppsats visar hur definitioner av typfall och händelsens granularitet kan användas för att förbättra kvalitén. Den beskrivna lösningen stöder kontinuerlig händelseloggsextraktion från ERPsystemet.
45

Algorithms for Mold Temperature Detection and System Investigation / Algoritmer för temperaturdetektering och realtidsanalys av kontinuerlig gjutning

Li, Boying January 2018 (has links)
Recently ABB AB/Metallurgy has developed a novel temperature measuring system in the mold copper plate for continuous casting, named OptiMold Monitor, with the purpose of dynamically monitoring mold conditions and to control the FC Mold.The OptiMold Monitor temperature signals can be further analyzed for the information of the shape of the meniscus of the molten steel together with fluid flow symmetry and speed. Also, it can be analyzed for extracting information about how the steel has started to solidify in the mold and to detect solidification deficiencies such as cracks or risks of shell break-outs. Algorithms and Matlab codes developed by ABB for the thermal data analysis has perceived good insight into the results. The OptiMold Monitor system is currently being tested in Tata Steel IJmuiden steelworks.Algorithms for local cold and hot spot detection have been suggested for robust performance and to address the issue of false alarms. And the nail bed tests for meniscus profile and speed have been analyzed. / ABB AB / Metallurgi har utvecklat ett nytt temperaturmätningssystem i gjutkopparplattan för kontinuerlig gjutning, benämnd OptiMold Monitor, med syfte att dynamiskt övervaka aktuell gjutningsstatus och för att styra FC Mold.Temperatursignalerna från OptiMold Monitor- kan analyseras vidare för ge informationen om formen av det smälta stålet tillsammans med fluidflödessymmetri och hastighet. Det kan också analyseras för att extrahera information om hur stålet har börjat stelna i formen och för att upptäcka stelningsdefekter som sprickor eller risker för utbrytning av skal. Algoritmer och Matlab-koder som utvecklats av ABB för termisk dataanalys har givit god inblick i resultaten. OptiMold Monitor-systemet testas för närvarande i stålverket Tata Steel IJmuiden. Algoritmer för lokal kylning och detektering av ”hot spots” har föreslagits för att ge robusta prestanda och att för att hantera risken för falska larm. Även resultat från nagelbäddstesterna för gjutprofil och hastighet har analyserats.
46

Blockchain - Mirakelkuren för en effektivare revisionsprocess?

Alm, Emil, Carlsson, David January 2023 (has links)
Inom revisionsbranschen tenderar arbetsbelastningen att vara extra hög, framför allt under de två första kvartalen vilket bidrar till hög stress och långa arbetsdagar. I dagens samhälle spelar den teknologiska utvecklingen en stor roll. Det historiska perspektivet visar att teknisk utveckling ur ett företagsekonomiskt perspektiv är en avgörande faktor för att bedriva en väl fungerande verksamhet. I början av 2000-talet introducerades blockchain, främst i samband med kryptovalutor. Tekniken väckte ett intresse hos de stora revisions- och redovisningsbyråerna som såg vilka implikationer detta skulle kunna ha på branscherna. I studien ämnar vi att identifiera tidskrävande arbetsuppgifter en revisor stöter på i sitt praktiska arbete för att sedan undersöka om dessa kan effektiviseras med hjälp av blockchain. Undersökningen har utförts genom intervjuer med revisorer av olika befattningar och erfarenheter på byråer av olika storlekar. Semistrukturerade frågor har använts för att erhålla uttömmande redogörelser kring revisorns praktiska arbete. Studien bidrar med kunskap om tidskrävande arbetsuppgifter och om blockchain har potentialen att effektivisera dessa. Med utgångspunkt i revisorns praktiska arbete har tidskrävande arbetsuppgifter och potentiella effektiviseringsåtgärder identifierats. Sedan gjordes kopplingar till blockchain. I undersökningen framgår det att vissa blockchainapplikationer har potentialen att effektivisera tidskrävande arbetsuppgifter medan andra inte besitter den potentialen / In the audit industry, workloads tend to be particularly high, especially during the first two quarters, leading to elevated levels of stress and long working hours. In today's society, technological advancements play a crucial role, and historical perspectives demonstrate that technological development from a business administration perspective is a critical factor in conducting well-functioning operations. In the early 2000s, blockchain was introduced, primarily in connection with cryptocurrencies. The technology sparked interest among major audit and accounting firms, which recognized the potential implications it could have on the industries. The purpose of this study is to identify time-consuming tasks encountered by auditors in their practical work and investigate whether these tasks can be streamlined using blockchain technology. The study was conducted through interviews with auditors of various positions and experiences in firms of varied sizes. Semi-structured questions were employed to obtain comprehensive insights into the auditors' practical work. The study contributes knowledge about time-consuming tasks and the potential of blockchain to streamline these tasks. Based on the auditors' practical work, time-consuming tasks and potential streamlining measures were identified. Subsequently, connections were made to technological features of blockchain. The findings of the study indicate that certain blockchain features have the potential to streamline time-consuming tasks, while other features do not possess such potential.
47

Real-Time Failure Event Streaming of Continuous Integration Builds / Realtidsströmning av Felhändelser i Kontinuerlig Integration

Seifert, Felix January 2022 (has links)
An application build describes compiling and linking the source code of a developed application to libraries and executables. A Continuous Integration (CI) build executes such a build after the source code has been changed and tries to integrate the changes into the existing application. Such CI builds are executed automatically and include automated software tests, which give the developer the assurance that the changes are technically correct. When the time between the discovery of a test failure and the notification to the developer about it is too long, the development process will be impacted negatively and the beneficial effects of CI decrease. Even though several companies already have CI systems that display all events of a single CI build on a terminal during runtime, bigger applications often involve several CI builds in a single CI pipeline to integrate code changes. Observing the events of these CI builds during runtime might require concurrent monitoring of several different terminals. This thesis overcomes this issue by developing a Proof of Concept (PoC) which streams the test failures of a whole CI pipeline in real-time to the developer. To show the feasibility of real-time failure event streaming of CI builds, the PoC is implemented within Spotify’s CI for clientfacing applications. The issues highlighted by this initial PoC will help to refine the whole CI practice. Furthermore, the faster feedback cycles realised by this PoC will lead to a productivity, efficiency and happiness increase for the involved developers and, eventually, higher quality of the developed software. / Ett applikationsbygge beskriver kompilering och länkning av källkod för en utvecklad applikation till bibliotek och körbara filer. Ett Kontinuerlig Integrerings (CI)-bygge kör en sådan bygge efter att källkoden har ändrats och försöker integrera ändringarna i den befintliga applikationen. Sådana CIbyggen exekveras automatiskt och inkluderar automatiserade mjukvarutester, som ger utvecklaren en försäkran om att ändringarna är tekniskt korrekta. När tiden mellan upptäckten av ett testfel och meddelandet till utvecklaren om det är för lång kommer utvecklingsprocessen att påverkas negativt och de fördelaktiga effekterna av CI minskar. Även om flera företag redan har CIsystem som visar alla händelser av ett enskilt CI-bygge i en terminal under körning, involverar större applikationer ofta flera CI-byggen i en och samma CI-pipeline för att integrera kodändringar. Att observera händelserna i dessa CI-byggen under körning kan kräva jämlöpande övervakning av flera olika terminaler. Den här avhandlingen övervinner detta problem genom att utveckla en PoC som strömmar testfelen för en hel CI-pipeline i realtid till utvecklaren. För att visa genomförbarheten av strömning av felhändelser i realtid av CIbyggnader implementeras PoC i Spotifys CI för klientvända applikationer. De problem som lyfts fram av denna första PoC kommer att bidra till att förfina hela CI-praxisen. Dessutom kommer de snabbare återkopplingscyklerna som realiseras av denna PoCatt leda till ökad produktivitet, effektivitet och glädje för de inblandade utvecklarna och, så småningom, högre kvalitet på den utvecklade mjukvaran.
48

Kontinuerlig rötning med hydrokol för högre biogasutbyte / Continuous anaerobic digestion with hydrochar for higher biogas yield

Kariis, Annette January 2023 (has links)
Befolkningsökningen och därmed efterfrågan på energikällor som tillhandahålls från fossila bränslen leder till allvarliga miljöproblem på grund av utsläpp av växthusgaser. En annan utmaning är att effektivt hantera organisk avfall som till exempel matavfall som genereras världen över. Matproduktionen orsakar stora miljöproblem som övergödning, klimatpåverkan, kemikaliespridning, regnskogsavverkning och utfiskning. Det är därför viktigt att matsvinnet minskar men också att effektiva metoder används för hantering av avfallet för att inte belasta miljön ytterligare.  En lösning för att hantera organiskt avfall, och samtidigt producera en förnybar energikälla är att använda anaerob rötning för att producera biogas. Vid anaerob rötning bryts organiskt material ner i en syrefri miljö, vilket resulterar i produktion av biogas som innehåller koldioxid och energirik metangas. Biprodukten som bildas är rötrest, som kan vidare användas som gödsel.  Den anaeroba rötningsprocessen har olika utmaningar där biogasprocessen kan stabiliseras och effektiviseras genom tillsats av hydrokol. Hydrokol är ett kolrikt material framställd från hydrotermisk karbonisering av biomassa. Eftersom det finns mycket begränsad forskning på kontinuerlig anaerob rötning av matavfall med tillsats av hydrokol, och ingen forskning har utförts på hydrokol som är tillverkat från skogsindustriellt avfall, så var det viktigt och av intresse att genomföra denna studie.  Syftet med studien är att undersöka hur tillsats av hydrokol påverkar biogasproduktion, metanproduktion och stabiliteten i en kontinuerlig anaerob rötningsprocess. Vidare syftar studien till att analysera effekterna av hydrokol på rötresterna som genereras, undersöka möjligheterna av sammankoppling av en befintlig rötkammare med en HTC reaktor, samt bedöma om det är ekonomiskt försvarbart att investera i hydrokol som additiv i rötningsprocessen. Målet har varit att undersöka om tillsats av hydrokol ger högre biogasutbyte, ökad metanproduktion och en stabil rötningsprocess. Målet har även varit att analysera rötresterna, utföra en materialflödesanalys över när Karlskogas rötkammare sammankopplas med en HTC reaktor, samt utföra en livscykelkostnadsanalys för att svara på om det är ekonomiskt försvarbart att investera i en HTC anläggning, alternativt att köpa in hydrokol externt.  De laborativa försöket gjordes på Karlstads universitet där rötningen var en enstegs anaerob samrötning som gjordes i två kontinuerligt matade reaktorer. Inmatning och uttag av gas gjordes en gång om dagen där försöksserierna pågick under 68 dagars tid. Substratblandningarna eftersträvades efterlikna substratförhållandena på Biogasbolaget i Karlskoga. Inmatat material, det vill säga substratblandningen utgjorde 8,5% av ensilage, 0,6% av glycerol, och 90,9% av substrat (matavfall och flytgödsel). Detta förhållande är detsamma som på Biogasbolaget. I en av reaktorerna användes substratblandningen och i den andra substratblandningen och hydrokol. Hydrokolet blandades in med substratblandningen vid en koncentration på 8g/l. Materialflödesanalysen gjordes över Karlskogas biogasanläggning där flödena ritades ut i programmet Stan 2.5. LCC gjordes utifrån två olika scenarion, om hydrokol köps in externt alternativt att en HTC-reaktor ansluts till biogasanläggningen. Det valdes att beräkna utifrån scenarion om metanutbytet ökar med 17%, enligt resultat från studien gjord av Maria Kristoffersson eller om utbytet ökar med 53% enligt resultat från den här studien.  Resultatet visar att tillsats av hydrokol som additiv ger en ökning på 59% för biogas utbytet och 53,5% för metanutbytet. I medelvärde från rötningsdag 27 till 68 så resulterade biogasproduktionen för hydrokolsreaktorn i 533 ml/g VS. Medelvärdet för referensreaktorn resulterade i 70 ml/g VS. Det här resulterar i en procentuell ökning med 663%. Eftersom misstankar finns att referensreaktorn inte bildar biogas som den ska har biogasproduktionen jämförts med tidigare studie som har gjorts på ungefär samma substratblandning och samma utrustning. Biogasproduktionen i medelvärde för referensreaktorn för (Leijen, 2016) resulterade i 335 ml/g VS. Procentuella skillnaden i biogasproduktion resulterar då i 59% mellan referensreaktorn och hydrokolsreaktorn. Metanproduktionen i hydrokolsreaktorn resulterade i medelvärde till 367 ml/g VS, i referensreaktorn till 18 ml/g VS och i referensreaktorn i Leijens studie till 237 ml/g VS. Jämfört med Leijens resultat resulterade den procentuella ökningen i metangasproduktion till 53,5%. En stabil rötningsprocess bekräftades genom att pH på rötresterna resulterade i 7,66 under hela rötningsprocessen.  Det är möjligt att sammankoppla Karlskogas befintliga anläggning med en HTC-anläggning och återföra rötresterna för hydrokolsproduktion. Rötresterna med ett högre kol-och näringsinnehåll kan återanvändas och recirkuleras för produktion av hydrokol. Av 10 tonTS/dag rötrester som kommer ut från rötningskammaren kommer 2,46 tonTS/dag att recirkuleras för hydrokolsproduktion. Resten av rötresterna kan användas vidare som gödsel.  Det är ekonomiskt försvarbart att investera i hydrokol som additiv till rötningsprocessen. Genom att bygga en HTC-anläggning, där tillsatsen av hydrokol kan ge 17% respektive 53% högre metanproduktion resulterar nettovinsten i 363 miljoner respektive 1237 miljoner kr över en 20-årsperiod. Alternativet är att köpa in hydrokol externt, där nettovinsten uppgår till 177 miljoner respektive 1052 miljoner kr över samma tidsperiod. Livscykelkostnadsanalysen visar att det är ekonomiskt mer fördelaktigt att investera i en HTC-anläggning jämfört med att köpa hydrokol externt. / The population growth and thus the demand for energy sources provided by fossil fuels leads to serious environmental problems due to greenhouse gas emissions. Another challenge is to effectively manage organic waste such as food waste generated worldwide. Food production causes major environmental problems such as eutrophication, climate impact, chemical dispersion, rainforest deforestation and depletion. It is therefore important that food waste is reduced, but also that effective methods are used to manage the waste so as not to burden the environment further.  One solution for managing organic waste, while producing a renewable energy source, is to use anaerobic digestion to produce biogas. In anaerobic digestion, organic material is broken down in an oxygen-free environment, resulting in the production of biogas containing carbon dioxide and energy-rich methane gas. The by-product formed is digestate, which can be further used as fertilizer.  The anaerobic digestion process has various challenges, where the biogas process can be stabilized and made more efficient by adding hydrochar. Hydrochar is a carbon-rich material produced from hydrothermal carbonization of biomass. Since there is very limited research on continuous anaerobic digestion of food waste with the addition of hydrochar, and no research has been conducted on hydrochar produced from forest industry biosludge, it was important and of interest to conduct this study.  The aim of the study is to investigate how the addition of hydrochar affects biogas production, methane production and the stability of a continuous anaerobic digestion process. Furthermore, the study aims to analyze the effects of hydrochar on the digestate generated, investigate the possibilities of connecting an existing digester with an HTC reactor, and assess whether it is economically justifiable to invest in hydrochar as an additive in the digestion process. The goal has been to investigate whether the addition of hydrochar provides higher biogas yield, increased methane production and a stable digestion process. The goal has also been to analyze the digestate, perform a material flow analysis of when Karlskoga's digester is connected to an HTC reactor, and perform a life cycle cost analysis to answer whether it is economically justifiable to invest in an HTC plant, or to purchase hydrochar externally.  The laboratory experiments were carried out at Karlstad University where the digestion was a single-stage anaerobic co-digestion in two continuously fed reactors. Gas was fed and withdrawn once a day and the experimental series lasted for 68 days. The substrate mixtures sought to mimic the substrate conditions at Biogasbolaget in Karlskoga. Input material, i.e. the substrate mixture consisted of 8.5% silage, 0.6% glycerol, and 90.9% substrate (food waste and liquid manure). This ratio is the same as at Biogasbolaget. One of the reactors used the substrate mixture and the other used the substrate mixture and hydrochar. The hydrochar was mixed with the substrate mixture at a concentration of 8g/l. The material flow analysis was made over Karlskoga's biogas plant where the flows were drawn in the program Stan 2.5. LCC was made based on two different scenarios, if hydrochar is purchased externally or if an HTC reactor is connected to the biogas plant. It was chosen to calculate based on scenarios if the methane yield increases by 17%, according to results from the study made by Maria Kristoffersson or if the yield increases by 53% according to results from this study.  The results show that adding hydrochar as an additive gives an increase of 59% for the biogas yield and 53.5% for the methane yield. In average from digestion day 27 to 68, the biogas production for the hydrochar reactor resulted in 533 ml/g VS. The average value for the reference reactor resulted in 70 ml/g VS. This results in a percentage increase of 663%. Since there are suspicions that the reference reactor does not produce biogas as it should, the biogas production has been compared with previous studies that have been done on approximately the same substrate mixture and the same equipment. The biogas production in average for the reference reactor for (Leijen, 2016) resulted in 335 ml/g VS. The percentage difference in biogas production then results in 59% between the reference reactor and the hydrochar reactor. The methane production in the hydrochar reactor resulted on average to 367 ml/g VS, in the reference reactor to 18 ml/g VS and in the reference reactor in Leijen's study to 237 ml/g VS. Compared to Leijen's results, the percentage increase in methane gas production resulted in 53.5%. A stable digestion process was confirmed by the fact that the pH of the digestate resulted in 7.66 during the whole digestion process.  It is possible to interconnect the existing Karlskoga plant with an HTC plant and recycle the digestate for hydrochar production. The digestate with a higher carbon and nutrient content can be reused and recycled for hydrochar production. Out of 10 tonTS/day of digestate coming out of the digestion chamber, 2.46 tonTS/day will be recycled for hydrochar production. The rest of the digestate can be further used as fertilizer.  It is economically justifiable to invest in hydrochar as an additive to the digestion process. By building a HTC plant, where the addition of hydrochar can provide 17% and 53% higher methane production, the net profit results in 363 million and 1237 million SEK over a 20-year period. The alternative is to purchase hydrochar externally, where the net benefit amounts to SEK 177 million and 1052 million respectively over the same time period. The life cycle cost analysis shows that it is economically more advantageous to invest in an HTC plant compared to buying hydrochar externally.
49

Continuous Integration for Embedded Software with Modular Firmware Architecture / Kontinuerlig Integration för Inbäddad Programvara med Modulär Firmware-Arkitektur

Segatz, Fabian January 2023 (has links)
Continuous Integration (CI) techniques are widely adopted in web and application development but have received limited attention in the embedded software domain. This thesis investigates the application of CI techniques in embedded software development through a case study at Cobolt AB, a company specializing in optoelectronics. The study aims to identify suitable CI techniques, assess implementation efforts, and evaluate the impact of CI adoption in this domain. A CI service is implemented using Jenkins as the automation server, following an iterative development and deployment process. The service incorporates multi-target compilation, automated unit testing, test reporting, visual CI feedback, and trunk-based development. These techniques prove effective for embedded software with a modular firmware architecture. However, automated system testing encounters limitations due to the need for manual interaction with hardware targets. Challenges encountered during implementation, such as learning CI tools, managing build tool dependencies, and addressing manual input requirements for system testing, are overcome through iterative implementation, distributed build architecture, and selective test automation. Developers’ resistance to CI adoption diminishes as they experience the positive impact of the CI service. CI adoption in the embedded domain brings benefits such as fast bug detection, increased developer motivation, higher confidence in code quality, and encouragement for standardization n. No noticeable negative impacts are observed. Future research should focus on integrating hardware-in-the-loop simulation systems for comprehensive automated system testing, exploring validation on multiple hardware targets, and studying the vertical scaling capabilities of distributed build architectures with Jenkins. / Kontinuerlig integration (CI) tekniker används i stor utsträckning inom webboch applikationsutveckling, men har fått begränsad uppmärksamhet inom inbyggd programvarudomän. Denna avhandling undersöker tillämpningen av CI-tekniker inom inbyggd programvaruutveckling genom en fallstudie vid Cobolt AB, ett företag specialiserat på optoelektronik. Studien syftar till att identifiera lämpliga CI-tekniker, bedöma implementeringsinsatser och utvärdera effekten av CI-användning inom detta område. En CI-tjänst implementeras med Jenkins som automatiseringsserver, efter en iterativ utvecklings- och distribueringsprocess. Tjänsten inkluderar kompilering för flera målenheter, automatiserad enhetstestning, testrapportering, visuell CI-återkoppling och utveckling baserad på huvudgrenen. Dessa tekniker visar sig vara effektiva för inbyggd programvara med en modulär firmware-arkitektur. Dock begränsas automatiserad systemtestning av behovet av manuell interaktion med hårdvarumål. Utmaningar som uppstår under implementeringen, såsom att lära sig CIverktyg, hantera byggverktygsberoenden och hantera manuella indatakrav för systemtestning, övervinner genom iterativ implementering, distribuerade byggarkitekturer och selektiv testautomatisering. Utvecklarnas motstånd mot CI-användning minskar när de upplever de positiva effekterna av CI-tjänsten. CI-användning inom inbyggd programvaruutveckling medför fördelar som snabb upptäckt av fel, ökad utvecklar motivation, högre förtroende för kodkvalitet och främjande av standardisering. Inga märkbara negativa effekter observeras. Framtida forskning bör fokusera på att integrera hårdvaru-i-loop simulering för omfattande automatiserad systemtestning, utforska validering på flera hårdvarumål och studera de vertikala skalningsmöjligheterna hos distribuerade byggarkitekturer med Jenkins.
50

Experimental Research on a Continuous Integrating pipeline with a Machine Learning approach : Master Thesis done in collaboration with Electronic Arts

Sigurdardóttir, Sigrún Arna January 2021 (has links)
Time-consuming code builds within the Continuous Integration pipeline is a common problem in today’s software industry. With fast-evolving trends and technologies, Machine Learning has become a more popular approach to tackle and solve real problems within the software industry. It has been shown to be successful to train Machine Learning models that can classify whether a code change is likely to be successful or fail during a code build. Reducing the time it takes to run code builds within the Continuous Integration pipeline can lead to higher productivity in software development, faster feedback for developers, and lower the cost of hardware resources used to run the builds. To answer the research question: How accurate can success or failure in code build be predicted by using Machine Learning techniques on the historical data collection? The important factor is the historical data available and understanding the data. Thorough data analysis was conducted on the historical data and a data cleaning process to create a dataset suitable for feeding the Machine Learning models. The dataset was imbalanced, favouring the successful builds, and to balance the dataset the SMOTE method was used to create synthetic samples. Binary classification and supervised learning comparison of four Machine Learning models were performed; Random Forest, Logistic Regression, Support Vector Machine, and Neural Network. The performance metrics used to measure the performance of the models were recall, precision, specificity, f1-score, ROC curve, and AUC score. To reduce the dimensionality of the features the PCA method was used. The outcome of the Machine Learning models revealed that historical data can be used to accurately predict if a code change will result in a code build success or failure. / Den tidskrävande koden bygger inom pipeline för kontinuerlig integration är en vanlig faktor i dagens mjukvaruindustri. Med trender och teknologier som utvecklas snabbt har maskininlärning blivit ett mer populärt tillvägagångssätt för att ta itu med och lösa verkliga problem inom programvaruindustrin. Det har visat sig vara framgångsrikt att träna maskininlärningsmodeller som kan klassificeras om en kodändring sannolikt kommer att lyckas eller misslyckas under en kodbyggnad. Genom att förbättra och minska den tid det tar att köra kodbyggnader i den kontinuerliga integrationsrörledningen kan det leda till högre produktivitet inom mjukvaruutveckling och snabbare feedback för utvecklare. För att svara på forskningsfrågan: Hur korrekt kan förutsäga framgång eller misslyckande i kodbyggnad med hjälp av Machine Learning-tekniker för historisk datainsamling? Den viktiga faktorn är den tillgängliga historiska informationen och förståelsen för data. Noggrann dataanalys utfördes på historiska data och en datarengöringsprocess för att skapa en datamängd lämplig för matning av maskininlärningsmodellerna. Datauppsättningen var obalanserad och för att balansera användes uppsättningen SMOTE-metoden. Med binär klassificering och övervakad inlärningsjämförelse gjordes fyra maskininlärningsmodeller, Random Forest, Logistic Regression, Support Vector Machine och Neural Network. Prestandamätvärdena som används för att mäta prestandan hos modellerna är återkallelse, precision, f1-poäng och genomsnittlig ROCAUC-poäng. För att minska dimensionaliteten hos funktionerna användes PCA-metoden. Resultatet av modellerna avslöjar att de med god noggrannhet kan klassificeras om en kodändring misslyckas eller lyckas baserat på den datamängd som skapats från historiska data som används för att träna modellerna.

Page generated in 0.0405 seconds