• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 274
  • 271
  • 2
  • Tagged with
  • 550
  • 310
  • 245
  • 82
  • 82
  • 81
  • 77
  • 70
  • 66
  • 65
  • 60
  • 58
  • 58
  • 57
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Comparing database optimisation techniques in PostgreSQL : Indexes, query writing and the query optimiser

Inersjö, Elizabeth January 2021 (has links)
Databases are all around us, and ensuring their efficiency is of great importance. Database optimisation has many parts and many methods, two of these parts are database tuning and database optimisation. These can then further be split into methods such as indexing. These indexing techniques have been studied and compared between Database Management Systems (DBMSs) to see how much they can improve the execution time for queries. And many guides have been written on how to implement query optimisation and indexes. In this thesis, the question "How does indexing and query optimisation affect response time in PostgreSQL?" is posed, and was answered by investigating these previous studies and theory to find different optimisation techniques and compare them to each other. The purpose of this research was to provide more information about how optimisation techniques can be implemented and map out when what method should be used. This was partly done to provide learning material for students, but also people who are starting to learn PostgreSQL. This was done through a literature study, and an experiment performed on a database with different table sizes to see how the optimisation scales to larger systems. What was found was that there are many use cases to optimisation that mainly depend on the query performed and the type of data. From both the literature study and the experiment, the main take-away points are that indexes can vastly improve performance, but if used incorrectly can also slow it. The main use cases for indexes are for short queries and also for queries using spatio-temporal data - although spatio-temporal data should be researched more. Using the DBMS optimiser did not show any difference in execution time for queries, while correctly implemented query tuning techniques also vastly improved execution time. The main use cases for query tuning are for long queries and nested queries. Although, most systems benefit from some sort of query tuning, as it does not have to cost much in terms of memory or CPU cycles, in comparison to how indexes add additional overhead and need some memory. Implementing proper optimisation techniques could improve both costs, and help with environmental sustainability by more effectively utilising resources. / Databaser finns överallt omkring oss, och att ha effektiva databaser är mycket viktigt. Databasoptimering har många olika delar, varav två av dem är databasjustering och SQL optimering. Dessa två delar kan även delas upp i flera metoder, så som indexering. Indexeringsmetoder har studerats tidigare, och även jämförts mellan DBMS (Database Management System), för att se hur mycket ett index kan förbättra prestanda. Det har även skrivits många böcker om hur man kan implementera index och SQL optimering. I denna kandidatuppsats ställs frågan "Hur påverkar indexering och SQL optimering prestanda i PostgreSQL?". Detta besvaras genom att undersöka tidigare experiment och böcker, för att hitta olika optimeringstekniker och jämföra dem med varandra. Syftet med detta arbete var att implementera och kartlägga var och när dessa metoder kan användas, för att hjälpa studenter och folk som vill lära sig om PostgreSQL. Detta gjordes genom att utföra en litteraturstudie och ett experiment på en databas med olika tabell storlekar, för att kunna se hur dessa metoder skalas till större system. Resultatet visar att det finns många olika användingsområden för optimering, som beror på SQL-frågor och datatypen i databasen. Från både litteraturstudien och experimentet visade resultatet att indexering kan förbättra prestanda till olika grader, i vissa fall väldigt mycket. Men om de implementeras fel kan prestandan bli värre. De huvudsakliga användingsområdena för indexering är för korta SQL-frågor och för databaser som använder tid- och rum-data - dock bör tid- och rum-data undersökas mer. Att använda databassystemets optimerare visade ingen förbättring eller försämring, medan en korrekt omskrivning av en SQL fråga kunde förbättra prestandan mycket. The huvudsakliga användingsområdet för omskriving av SQL-frågor är för långa SQL-frågor och för nestlade SQL-frågor. Dock så kan många system ha nytta av att skriva om SQL-frågor för prestanda, eftersom att det kan kosta väldigt lite när det kommer till minne och CPU. Till skillnad från indexering som behöver mer minne och skapar så-kallad överhead". Att implementera optimeringstekniker kan förbättra både driftkostnad och hjälpa med hållbarhetsutveckling, genom att mer effektivt använda resuser.
342

Robotic Illustration / Robotic Illustration : Illustration med industrirobotar

Wallin, Marcus January 2013 (has links)
Detta projekt åsyftade att möjliggöra för en industrirobot att illustrera godtyckliga digitalabilder på en plan yta. Detta uppnåddes genom att utrusta en manipulator med ett ritverktyg. Genom digital bildbehandling så kunde rörelsemönster genereras vilka matades till industriroboten för att den skulle kunna återskapa den digitala versionen. Roboten ritar med en teknik benämnd pointillism som innebär att endast punkter plottas. Resultatet blir en konkret svartvit representation av originalbilden. Projektet genomfördes på institutionen Industriell Produktion på Kungliga Tekniska Högskolan. Projektet är i sin natur väldigt inriktat på forskning och utveckling eftersom det går ut på skapandet av en teknik för att uppnå ett tydligt mål. Kontinuerlig utveckling var kopplat till målet för att förbättra resultatet från olika aspekter. / This project strived to enable an industrial robot to illustrate arbitrary digitized images on a planar surface. This was accomplished by equipping a robotic manipulator with a drawing utensil. Motion patterns were generated based on digital image processing and fed to the robot for it to imitate the digital version. The robot prints with a technique called pointillism, which implies that solely points are plotted. The result is a tangible black and white representation of the original image. The project was carried out in the Production Engineering facilities at the Royal Institute of Technology. The nature of the project is very research and development oriented as it deals with the creation of a technology to achieve an explicit goal. Continuous development was related to the goal to improve the result from different aspects.
343

Developing an optimization model to determine AGV fleet size given the capacity of machines and vehicles in the production industry

Zaher, Milad, El Ghazzi, Ale January 2021 (has links)
Background: In the present competitive environment manufacturing firms have shifted their production from mass production to mass customization. In this line, a flexible manufacturing system (or FMS) has evolved to the changing requirements. The estimation of fleet size of AGVs has shown to be a critical decision to increase the efficiency of material handling systems by increasing throughput and reduce delay in manufacturing.[4] The initial investment cost and the total life cycle cost of AGV systems rely on the number of AGVs required.   Objectives: The objective of this study is to analyze the optimal fleet sizing of AGVs in terms of the capacity needs of machines/stations and the available capacity of the AGVs working in the production site. The aim of this study is to give potential users of AGVs an optimization model to consider when planning the optimal number of AGVs needed given their capacity needs.   Methods: The methodology presents our contribution to a general model for deciding fleet size with multiple AGV’s defined as a “big system”. In comparison to previous models, we consider how the capacity of AGV’s can change depending on several factors leading to congestion and delay. The study defines these factors, finds the cause behind them and categorizes them to be used as input variables for the model. The methodology explains the important factors needed for implementing the general model for specific cases when conducting the investigation. The final part of the methodology will discuss the reliability and validity of our approach.  Results: the result presents how the general model was applied at the manufacturing company of Emballator Växjöplast AB. The data gathered and information from the capacity analysis were used to measure the demand for transportation, the AGV capacity, and the factors affecting delay and congestion. The values were then used in the model to determine the optimal fleet size for the case. The result gave a high indication for accuracy and that the general model can be used in specific cases. Finally, we conducted an analysis of how delays and congestion affected the supply of transportation as fleet size increases. The result indicated that the optimal fleet size of AGVs that satisfy 35 machines/stations was 1,32 while the theoretical fleet size of AGVs was 1.3. This yielded a result of 98.84% accuracy in estimating the optimal fleet sizing of AGVs in terms of the capacity needs of machines/stations and the available capacity of the AGVs working in the production site. Conclusions: The result shows that the approach of analyzing the capacity needs of the production site and the capacity available to the AGV can accurately be used to estimate the optimal fleet sizing of AGVs. The implication of this study and the optimization model that considers capacity needs and capacity available rather than specific layout characteristics will allow users to cope with the changing requirements of mass customization. The users will consider their demand forecast and use the optimization model to help them plan the optimal fleet sizing of AGVs. / Bakgrund: I den nuvarande konkurrensenskraftiga miljön har tillverkningsföretag skiftat produktion från massproduktion till massanpassning. Därmed har flexible manufacturing system (eller FMS) växt fram till följd av de förändrade kraven. Estimation av fleet size av AGV har visat sig vara ett kritiskt beslut för att öka effektiviteten av materialhanteringssystem genom ökad genomströmning och minskad försening i produktionen.[4] Den initiala investeringskostnaden och den totala livscykelkostnaden beror på antalet AGVer som det finns behov av i produktionen.   Syfte: Syftet med här studien är att analysera det optimala antalet AGVer som det finns behov av i relation till kapacitetsbehovet hos maskiner/stationer och den tillgängliga kapaciteten hos AGV som arbetar i produktionsanläggningen. Målet med den här studien är att förse potentiella användare av AGV med en optimeringsmodell som de kan använda vid planering av antalet AGV som de har behov av givet deras kapacitetsbehov.   Metod: I metoden presenteras vårt bidrag till en generell modell för att bestämma antalet AGV: er för ett system med flera enheter som definieras som ett ”stort system”. Till skillnad från tidigare modeller, så tar vi hänsyn till flera faktorer som orsakar kongestion och fördröjningar. Studien definierar dessa faktorer, finner orsaken till dem, och kategoriserar dem för att kunna tillämpa dem i modellen. Metoden förklarar vikten av varför dess variabler är nödvändiga att mäta när den generella modellen tillämpas för specifika fall när man utför en utredning av fallet. Slutligen avslutas metoden med att diskutera dess trovärdighet och validitet.     Resultat: Resultatet presenterar hur den generella modellen tillämpats på ett produktionsföretag Emballator Växjöplast AB.  Datainsamlingen och information från kapacitet analysen har använts för att mäta transportbehovet, AGV: ens kapacitet och de påverkande faktorer som orsakar fördröjning och kongestion. Dessa värden användes sedan i den generella modellen för att avgöra det optimala antalet AGV: er för fallet. Resultatet indikerar tydligt på att det finns en hög precision av den generella modellen kan tillämpas för specifika fall. Slutligen utför vi en analys om hur fördröjningar och kongestion påverkar transportillförsen i samband med att antalet AGV: er ökar. Resultatet visar att det optimala antalet AGVer som det finns behov av för att förse kapacitetsbehovet av 35 maskiner/stationer var 1.32 medan det teoretiska svaret från optimeringsmodellen visade ett svar på 1.30 AGVer. Detta resulterade i en noggrannhet på 98.84% för att estimera antalet AGVer som det finns behov av givet kapacitetsbehovet från maskiner/stationer och den tillgängliga kapaciteten hos AGVerna som jobbar på produktionsanläggningen.   Slutsatser:  Resultatet av tillvägagångssättet som använts i denna studie, att analysera kapacitetsbehovet i produktionsanläggningen och den tillgängliga kapaciteten hos AGVerna, visade sig vara noggrann för att estimera det optimala behovet av AGVer. Detta innebär att optimeringsmodellen som presenteras i denna studie och som tar hänsyn till kapacitetbehovet snarare än de specifika layoutegenskaperna kommer göra det möjligt för användarna att kunna uppfylla de förändrade kraven på massanpassning. Användaren kommer kunna använda sin prognos på efterfrågan och i samspel med användning av optimeringsmodellen presenterad i denna studie kunna estimera det optimala antalet AGVer som det finns behov av.
344

Emission Calculation Model for Vehicle Routing Planning : Estimation of emissions from heavy transports and optimization with carbon dioxide equivalents for a route planning software

Hartikka, Alice, Nordenhög, Simon January 2021 (has links)
The transport sector is a major cause of emissions both in Sweden and globally. This master thesis aims to develop a model for estimating emissions from heavy transport on a specific route. The emissions can be used in a route planning software and help the driver choose a route that contributes to reduced emissions. The methodology was to investigate attributes, like vehicle-related attributes and topography, and their impact on transport emissions. The carbon dioxide, methane and nitrous oxide emissions were converted into carbon dioxide equivalents, which were incorporated as one cost together with a precalculated driving time as a second cost in a multi objective function used for route planning. Different tests were conducted to investigate the accuracy and the usability of the model. First, a validation test was performed, where the optimized routes were analyzed. The test showed that the model was more likely to choose a shorter route in general. The fuel consumption values largely met expectations towards generic values and measurements, that were gathered from research. A second test of the model made use of the driving time combined with the emissions in a multi objective function. In this test, a weighting coefficient was varied and analyzed to understand the possibility to find a value of the coefficient for the best trade-off. The result showed that the model generates different solutions for different coefficients and that it is possible to find a suitable trade-off between the driving time and emissions. Therefore, this study shows that there is a possibility to combine emission with other objectives such as driving time for route optimization. Finally, a sensitivity analysis was performed, where attribute factors and assumptions were varied to see how sensitive they were and, in turn, how much a change would impact the calculated emissions. The result from the sensitivity analysis showed that the changes in topography-attributes had less impact than changes on vehicle-related attributes. In conclusion, this thesis has built a foundation for route planning, based on the environmental aspect, for heavy transports.
345

May there be light : A study of optimising public lighting in park spaces for energy efficiency and subjective factors

Lind, Hjalmar, Ahrenius, Theodor January 2021 (has links)
Public lighting is an important part of city infrastructure. In parks, it enables activity, transportation and recreation in the darker hours. As the field of city lighting is rapidly expanding and advancing, innovations like customisable luminaries and LED light source options are making their way into the fray. This study is focused on comparing two parks with different lighting setups: Tegnérparken – equipped with newer, individually programmable luminaries with LED light sources and a separate control system (Interact City), and Bergsbrunnaparken – which hosts non-customisable luminaries with halogen light bulbs. By interviewing relevant professionals, conducting a survey, and performing several field studies in the two parks, many subjective factors were identified. These are the unmeasurable entities that lighting affect – like sense of safety, comfort, light pollution and blinding.  In order to create a more energy efficient system that does not compromise with the subjective factors, but rather improves them – a new schedule with changed dimming levels is designed for Tegnérparken. By simulating the schedule in Python, the new schedule shows a 15 percent reduction in energy consumption compared to the old. Compared with Bergsbrunnaparken, the improvement is between 46 (old schedule) and 54 (new schedule) percent.  The study also point to a range of possible improvements in Bergsbrunnaparken, that should be taken into account when thinking of redesigning the lighting there. These are based on input from investigating subjective factors, as well as lux measurements and visual inspections.  The study resulted in a change of schedules in Tegnérparken, as the new one was accepted and implemented by Uppsala Kommun in late May 2021. It is also groundwork for further studies into implementing the Interact City system throughout more park spaces, and its usability for improving subjective factors with relative ease.  The study is commissioned by Uppsala Kommun.
346

Computing Equivalent hydropower models in Sweden using inflow clustering

Lilja, Daniel January 2023 (has links)
To simulate a hydropower system, one can use what is known as a Detailed model. However, due to the complexity of river systems, this is often a computationally heavy task. Equivalent models, which aim to reproduce the result of a Detailed model, are used to significantly reduce the computation time for these simulations. This thesis attempts to compute Equivalent models for hydropower systems in Sweden by categorizing the inflow data using a spectral clustering method. Computing the Equivalent models also involves solving a bilevel optimization problem, which is done using a variant of the particle swarm optimization algorithm. Equivalent models are computed for all four electricity trading areas in Sweden, using solutions of a Detailed model which includes ten rivers. Then, the Equivalent models are evaluated based on their similarity to the Detailed model in terms of power production and objective value. The results vary depending on the area and period, and the Equivalent models range from 8% - 15% error in terms of the relative power production difference. The results indicate that the inflow clustering procedure produces adequate Equivalent models in most cases. / För att simulera ett vattenkraftsystem, kan en så kallad Detaljerad modell användas. På grund av komplexiteten av flodsystem, kan lösningen av en Detaljerad modell ta mycket lång tid att hitta. Ekvivalenta modeller, som strävar att efterlikna en Detaljerad modell, används för att reducera lösningstiden markant. Denna avhandling försöker beräkna Ekvivalenta modeller för vattenkraftsystem i Sverige genom att kategorisera inflödesdata med hjälp av en spektral klustringsmetod. Beräkningen av de Ekvivalenta modellerna involverar att lösa ett så kallat bilevelproblem, vilket görs med en variant av particle swarm optimization. Ekvivalenta modeller beräknas för alla fyra elområden i Sverige, baserad på lösningar av en Detaljerad modell som inkluderar tio floder. Sedan utvärderas de Ekvivalenta modellerna efter hur mycket de liknar den Detaljerade modellens kraftproduktion samt objektivvärde. Resultaten varierar beroende på elområde och period, och de Ekvivalenta modellerna har fel på 8% - 15% i den relativa kraftproduktionsskillnaden. Resultaten indikerar att metoden att klustra efter inflöde ger tilfredsställande Ekvivalenta modeller i de flesta fallen.
347

Utveckling av driftstöd för planering av fjärrkyla : En explorativ studie om utvecklingen av ett optimeringsbaserat driftplaneringsverktyg för fjärrkylanätet City i Linköping, Sverige / Development of process support for planning of district cooling : An explorative study of the development of an optimization-based process planning tool for the district cooling network City in Linköping, Sweden

Haapanen, Christian, Hedenskog, Louise January 2023 (has links)
The average global temperature is rising due to climate change. This leads to an increase in cooling demand along with higher usage of electricity to operate cooling processes. One way to decrease the electricity usage is to introduce absorption cooling which uses heat instead of electricity as its main source of power. To further increase resource efficiency in urban areas centralized district cooling can substitute independent cooling units. In a district cooling network, a mixture of absorption and compressor cooling units, as well as free cooling, can be included. This enables the ability to coordinate which cooling technology is to be used based on profitability at the current time. By introducing an optimization-based plan, the operation of a district cooling network in a smart energy system can incorporate important factors for the interaction between different sectors, such as electricity and district heating prices. The usage of optimization-based tools to plan the operation of energy systems has previously shown promising results. However, further studies are needed to investigate how they perform in different scenarios. There is also a need to develope more reliable forecasts which motivated this study; a case study on the district cooling network "City" in Linköping.  The study aimed to develope a method for forecasting the cooling demand in a district cooling network, investigating how the coordination of absorption and compressor cooling units, as well as free cooling, can be improved. This has been done from a system perspective that encompasses the district heating and electricity network by developing an optimization-based operational plan. In this study an explorative method has been used to develope a forecasting tool based on an algorithm and a Mixed Integer Linear Programming (MILP) model with appertaining constraints and coefficients which can solve an Unit Commitment problem for a district cooling network. The forecasting tool and MILP model resulted in an optimization-based operational plan that enabled the ability to coordinate the usage between absorption and compressor cooling units as well as free cooling. The method can be divided into five distinct iterative steps; (1) data collection for the parameters that affect the cooling demand, (2) forecasting of the cooling demand based on the identified parameters, (3) pressure simulations of Linköping's district cooling network in the software NetSim, (4) operational optimization via MILP modeling, and (5) evaluation of the optimization-based operational plan from the perspective of operational cost, electricity and heat usage, as well as greenhouse gas emissions. Six different algorithms were developed to forecast the cooling demand. All of the algorithms were based on the retrospective operation the previous day through linear regressions. The algorithm that best followed a historical operational period on the district cooling network City had a margin of error of 14\%. The algorithm was based on the time of the day and either solar irradiation or outside temperature based on the difference between the forecasted outdoor temperature and the measured temperature the previous day. The MILP model that was developed had an objective function that minimized the operational cost which included the cost of electricity and heat usage, distribution, maintenance, and start-up and shut-down costs. The constraints that was constructed in the MILP model to define a district cooling network included balancing the cooling demand, specifications for the operation of cooling units and distribution flows. Furthermore, the coefficients that defined the City network were estimated dynamically. These included power limitations, operational costs, and start-up costs for each cooling unit, as well as distribution costs for each cooling plant.  During this case-study, it was observed that by using optimization-based operational planning produced from a MILP model solving an UC problem, the operational costs, electricity and heat usage can decrease by 27\%, 22\%, and 2\% respectively for this case-study of the City network in Linköping during a seven-month period. In addition, a decrease in greenhouse gases by 16\% was observed when applying the perspective "avoided global emissions". For the calculations an emission factor of 702 $gram \, CO_2-eq/kWh_{el}$ and 130, 72, or 3 $gram \, CO_2-eq/kWh_{heat}$ depending on if waste, bio-oil, or recycled waste wood were used as fuel for the marginal production of district heating. When there was excess heat in the district heating network the emission factor for heat usage was instead assumed to be 0 $gram \, CO_2-eq/kWh_{heat}$. Lastly, this case-study emphasizes the importance of solid operational planning as a foundational pillar in satisfying the increase of future cooling demand in a resource-efficient way for local energy systems in sustainable societies.
348

The One Spider To Rule Them All : Web Scraping Simplified: Improving Analyst Productivity and Reducing Development Time with A Generalized Spider / Spindeln som härskar över dom alla : Webbskrapning förenklat: förbättra analytikerproduktiviteten och minska utvecklingstiden med generaliserade spindlar

Johansson, Rikard January 2023 (has links)
This thesis addresses the process of developing a generalized spider for web scraping, which can be applied to multiple sources, thereby reducing the time and cost involved in creating and maintaining individual spiders for each website or URL. The project aims to improve analyst productivity, reduce development time for developers, and ensure high-quality and accurate data extraction. The research involves investigating web scraping techniques and developing a more efficient and scalable approach to report retrieval. The problem statement emphasizes the inefficiency of the current method with one customized spider per source and the need for a more streamlined approach to web scraping. The research question focuses on identifying patterns in the web scraping process and functions required for specific publication websites to create a more generalized web scraper. The objective is to reduce manual effort, improve scalability, and maintain high-quality data extraction. The problem is resolved using a quantitative approach that involves the analysis and implementation of spiders for each data source. This enables a comprehensive understanding of all potential scenarios and provides the necessary knowledge to develop a general spider. These spiders are then grouped based on their similarity, and through the application of simple logic, they are consolidated into a single general spider capable of handling all the sources. To construct the general spider, a utility library is created, equipped with the essential tools for extracting relevant information such as title, description, date, and PDF links. Subsequently, all the individual information is transferred to configuration files, enabling the execution of the general spider. The findings demonstrate the successful integration of multiple sources and spiders into a unified general spider. However, due to the limited time frame of the project, there is potential for further improvement. Enhancements could include better structuring of the configuration files, expansion of the utility library, or even the integration of AI capabilities to enhance the performance of the general spider. Nevertheless, the current solution is deemed suitable for automated article retrieval and ready to be used. / Denna rapport tar upp processen att utveckla en generaliserad spindel för webbskrapning, som kan appliceras på flera källor, och därigenom minska tiden och kostnaderna för att skapa och underhålla individuella spindlar för varje webbplats eller URL. Projektet syftar till att förbättra analytikers produktivitet, minska utvecklingstiden för utvecklare och säkerställa högkvalitativ och korrekt dataextraktion. Forskningen går ut på att undersöka webbskrapningstekniker och utveckla ett mer effektivt och skalbart tillvägagångssätt för att hämta rapporter. Problemformuleringen betonar ineffektiviteten hos den nuvarande metoden med en anpassad spindel per källa och behovet av ett mer effektiviserad tillvägagångssätt för webbskrapning. Forskningsfrågan fokuserar på att identifiera mönster i webbskrapningsprocessen och funktioner som krävs för specifika publikationswebbplatser för att skapa en mer generaliserad webbskrapa. Målet är att minska den manuella ansträngningen, förbättra skalbarheten och upprätthålla datautvinning av hög kvalitet. Problemet löses med hjälp av en kvantitativ metod som involverar analys och implementering av spindlar för varje datakälla. Detta möjliggör en omfattande förståelse av alla potentiella scenarier och ger den nödvändiga kunskapen för att utveckla en allmän spindel. Dessa spindlar grupperas sedan baserat på deras likhet, och genom tillämpning av enkel logik konsolideras de till en enda allmän spindel som kan hantera alla källor. För att konstruera den allmänna spindeln skapas ett verktygsbibliotek, utrustat med de väsentliga verktygen för att extrahera relevant information som titel, beskrivning, datum och PDF-länkar. Därefter överförs all individuell information till konfigurationsfiler, vilket möjliggör exekvering av den allmänna spindeln. Resultaten visar den framgångsrika integrationen av flera källor och spindlar till en enhetlig allmän spindel. Men på grund av projektets begränsade tidsram finns det potential för ytterligare förbättringar. Förbättringar kan inkludera bättre strukturering av konfigurationsfilerna, utökning av verktygsbiblioteket eller till och med integrering av AI-funktioner för att förbättra den allmänna spindelns prestanda. Ändå bedöms den nuvarande lösningen vara lämplig för automatisk artikelhämtning och redo att användas.
349

Assessment of hydrogen supply chain for transport sector of Sweden

Maria Soares Rodrigues, José January 2023 (has links)
Fuel cell electric vehicles, powered by hydrogen are an enticing alternative to fossil-fuel vehicles in order to reduce greenhouse gas emissions and consequently accomplish the environmental targets set to tackle the environmental crisis. It is crucial to develop the appropriate infrastructure if the FCEVs are to be successfully accepted as an alternative to fossil-fuel vehicles. This study aims to carry out a techno-economic analysis of different hydrogen supply chain designs, that are coupled with the Swedish electricity system in order to study the inter-dependencies between them. The supply chain designs comprehend centralised production, decentralised production and a combination of both. The outputs of the hydrogen supply chain model include the hydrogen refuelling stations’ locations, the electrolyser’s locations and their respective sizes as well as the operational schedule. Both the hydrogen supply chain designs and the electricity system were parameterized with data for 2030. The supply chain design is modelled to minimize the overall cost while ensuring the hydrogen demands are met. The mixed-integer linear programming problems were modelled using Python and the optimisation software was Gurobi. The hydrogen models were run for two different scenarios, one that considers seasonal variations in hydrogen demand, and another that does not. The results show that for the scenario with seasonal variation the supply chain costs are higher than for the scenario without seasonal variation, regardless of the supply chain design. In addition, the hydrogen supply chain design with the minimal cost is based on decentralised hydrogen production. / Bränslecellsdrivna elbilar, som drivs av vätgas, är ett lockande alternativ till fossildrivna fordon för att minska växthusgasutsläppen och därigenom uppnå de miljömål som satts för att tackla miljökrisen. Det är avgörande att utveckla lämplig infrastruktur om FCEV:er ska accepteras som ett alternativ till fossildrivna fordon. Denna studie syftar till att utföra en teknisk-ekonomisk analys av olika vätgas supply kedjedesign som är kopplade till det svenska elsystemet för att studera beroendeförhållandena mellan dem. Försörjningskedjans design omfattar centraliserad produktion, decentraliserad produktion och en kombination av båda. Resultaten från vätgas supply kedja modellen inkluderar vätgasmackarnas placeringar, elektrolysörernas placeringar och deras respektive storlekar samt den operationella schemat. Både vätgas supplykedjedesi och elsystemet parameteriserades med data för 2030. Supplykedjedesignen modellerades för att minimera de totala kostnaderna samtidigt som vätgasbehoven uppfylls. Mixed-integer lineära programmeringsproblem modellerades med hjälp av Python och optimeringsprogramvaran Gurobi. Vätgasmodellerna kördes för två olika scenarier, ett som tar hänsyn till säsongsvariationer i vätgasbehovet och ett annat som inte gör det. Resultaten visar att för scenariet med säsongsvariation är supply kedja kostnaderna högre än för scenariot utan säsongsvariation, oavsett supplykedjedesignen. Dessutom är vätgas supply kedjedesignen med minimal kostnad baserad på decentraliserad vätgasproduktion.
350

State of the Art Rapport inom laserskärning vid bearbetning av aluminium och rostfritt stål / State of the Art Report in laser cutting when machining aluminum and stainless steel

Matic, Gabrijella, Larsen, Johan January 2020 (has links)
Denna State of the Art Rapport behandlar ämnet laserskärning vid bearbetning av aluminium och rostfritt stål. Rapporten svarar på vad som finns skrivet inom aluminium respektive rostfritt stål samt skillnaderna i materialens egenskaper efter bearbetning med laserskärning från det senaste decenniet. Rapportens innehåll erhåller analyser och sammanfattningar av artiklar inom det aktuella ämnet. Analysen av de använda artiklarna påvisar ett antal olika resultat inom olika kategorier. Dessa kategorier är optimering, effektivisering, påverkan på material samt nukleär avveckling. Inom optimering av aluminium undersöks det hur avfallsmaterialet skall bibehålla bästa möjliga kvalité. Optimering inom rostfritt stål undersöker tillvägagångssättet om att kunna ta fram beräkning av operationskostnaderna alternativt förbättra dess skärprocess. Effektivisering inom aluminium handlar om att effektivisera skär kvalitén och inom rostfritt stål handlar det istället om effektivisering av prestanda, kvalitén och konsumtionen av assistans gas. Inom kategorin påverkan på material påvisas det hur djupt de båda materialen påverkas samt hur den bearbetade ytan reagerar på bearbetning. Vid nukleär avveckling inom rostfritt stål undersöks det hur laserskärning skall implementeras inom ämnesområdet för att säkerställa att denna process fungerar. Denna State of the Art innehåller en litteraturmatris av de analyserade artiklarna för att få en översikt inom ämnesområdet. / This State of the Art report deals with the subject of the method laser cutting of aluminum and stainless steel. The report gives answers to what has been written the last decade within the area of aluminum respectively stainless steel and which differences can be found regarding the material characteristics after processing them through laser cutting. The report contains several analyses and summaries of the articles written on the subject. The analyses of the used articles show a number of different results in different categories. The categories are as follows: optimization, effectivity, impact of the materials and nuclear decommissioning. Optimization within aluminum explore how waste material is supposed to obtain the best possible quality. Optimization within the area of stainless steel examine the procedure making it possible to establish a way to calculate the cost of operation or improve the cutting process. Efficiency within the area of aluminum is about making the process of cutting more effective. Effectivity within the area of stainless steel is instead about making the performance, quality and consumption of assisting gas more effective. It is shown in the category impact of the material how deeply the materials are affected and how the processed surface reacts to the process. Within the material stainless steel and the category nuclear decommissioning they have investigated if it could be implemented in the field to ensure that the process works. This State of the Art contains a matrix of the analyzed articles to provide an overview of the subject.

Page generated in 0.0855 seconds