Spelling suggestions: "subject:"andata"" "subject:"fondata""
1 |
Orsaker till differens mellan beräknad och uppmätt energianvändning för flerbostadshus / Reasons for difference between calculated and measured energy use in apartment buildingsBergwaahl, Johannes January 2016 (has links)
The European parliament has, during recent years, continuously updated their energy efficient requirements and directives underlining how much energy a building may use. Since the building sector accounts for such a large amount of the total energy use in Sweden, it’s important to make it more efficient. During a building’s planning phase, the energy use must be calculated in order to see whether the building will meet the building codes set by the Swedish National Board of Housing, Building and Planning. Unfortunately, it is very common that the actual use differs from the calculated, because of uncertainties in the input data. In this master thesis, input data that is used in energy calculations for apartment buildings has been studied. This has been performed thoroughly through a literature study and via computer simulations in which an apartment building is simulated using IDA ICE. Lastly, a sensitivity analysis was performed where the effect from variations in the input data was compiled. The results show that variations in hot-water use, indoor temperature and hot-water circulation losses also assumptions about thermal bridges and buildings mechanical systems can have significant impact on a building’s energy use. For new smaller apartment buildings the energy loss from hot-water circulation can amount to much higher than what is recommended as input data. Therefore, it is important to use as little standardized input data as possible to reduce the uncertainties.
|
2 |
Indata till energiberäkningar för nybyggda småhus : En jämförelse med Sveby 12Lind, Johan January 2017 (has links)
No description available.
|
3 |
Rutiner för insamling av indata för energisimuleringsmodeller av skolbyggnader i Norra Sverige (Gävle) : En studie baserad på litteraturundersökning och analys av simuleringsmodellen av Stigslundsskolan i GävleMalysheva, Alexandra January 2016 (has links)
Energianvändning i befintlig byggnadsstock utgör en stor del av den totala energianvändningen i Sverige. I dagens läge är minskning av energianvändning av hög prioritet. Moderna simuleringsteknologier ger möjlighet till uppskattning av energianvändning i befintliga hus och utveckling av effektiviseringsåtgärder samt till beräkning av energiprestanda av byggnader i projekteringsfas. Korrekta indata och indatakällor avgör osäkerhetsnivå hos modellen. I detta sammanhang är det viktigt att utveckla rutiner för insamling av indata och specificera osäkerhetskällor. Arbetet fokuseras på utveckling av förslag till rutiner för insamling av indata för energisimuleringsmodeller av skolbyggnader i Norra Sverige, identifiering av termograferings roll vid renovering och ombyggnation samt känslighetsanalys vid byggnadssimulering och framställning av källhierarki. Projektet baserades på litteraturanalys och intervjuning av beträdande konstruktörer. Dessutom utreddes mätdata samlade i samband med renovering av Stigslundsskolan i Gävle och utarbetade simuleringsmodellen av den här skolan. Resultatet av denna studie beskriver rutiner för insamling av indata som omfattar byggnadens lokalisering och klimatdata; specifik konstruktionsdata för simulerad byggnad/del av byggnad; inomhustemperatur, luftflöde vid ventilation och infiltration samt interna värmekällor och data om innevånare och HVAC-system. Dessutom identifierades möjliga osäkerhetskällor och åtgärder för att höja noggrannhet hos modell. Källhierarki för indatakällor bestämdes vilket är angeläget vid modellkalibrering. Termografin av Stiglundsskolan visade att det finns ett antal bristfälliga delar i klimatskallet som ger upphov till värmeförluster, framför allt fönstren, entrépartierna och sockeln. Fönstren och dörrarna behöver bytas och bristande delar av stommen isoleras. Slutsatserna som kan göras utifrån detta projekt är att det bör väljas indata från källor som står överst i källhierarki för att få fram en modell med låg osäkerhetsnivå. I verkigheten vid simulering av skolbyggnader är hög precision sällan ett krav. I regel prioriteras det tid och bekostnad så länge osäkerheten ligger inom bestämda gränser.
|
4 |
Ändrade rapporteringskrav : En kvalitativ fallstudie baserat på Volvokoncernens arbete med redovisningssystem för att efterleva CSRDEdström, Marcus, Plyhr, Matilda January 2024 (has links)
Med ökat fokus på hållbarhet och samhällsansvar inom företagsvärlden, står Volvokoncernen inför en kommande förändring för att rapportera enligt Corporate Sustainability Reporting Directive 2025. Direktivet utvidgar hållbarhetskraven och kräver att företag är mer transparenta än någonsin. Studien utforskar Volvokoncernen med syfte att se hur direktivet påverkar företagets redovisningssystem. Den fördjupar sig i hur de nya kraven påverkar vilken typ av data som samlas in, den utdata som kommer att presenteras i kommande årsredovisningar och de kompetenser som eftersträvas till följd av direktivet. Studien använder sig av en kvalitativ fallstudie som metod, där datainsamlingen består av semistrukturerade intervjuer och dokument. Resultatet understryker att Volvokoncernen först behöver färdigställa sin väsentlighetsbedömning för att följa dubbel väsentlighetskravet innan de kan bestämma vilken ny data som ska inhämtas samt presenteras. Vidare belyses att koncernen ännu inte är tillräckligt mogna för att integrera hållbarhetsdata i sina redovisningssystem. För att uppnå den kompetens som eftersträvas visar resultatet att samarbete och kompetensutveckling mellan företagets avdelningar är centralt.
|
5 |
Utvärdering och analys av batchstorlekar, produktsekvenser och omställningstider / Evaluation and analysis of batch sizes, production sequences and setup timesLundberg, Jesper, Mehtonen, Ronja January 2015 (has links)
Volvo GTO is one of the strongest brands in the truck industry, with a long and proud history of world-leading innovations. The factory in Skövde produces diesel engines of various sizes to Volvo GTO. The project has been carried out on the processing part of grovdel crankshaft. Where the objective was to construct a simulation model that reflects flows 0, 1 and 2 on the crankshaft grovdel order to produce the best driving style for the size of the batches and sequences, focusing on PIA, between the stock and conversion-up times. A theoretical study intervention gave knowledge to the methodology to ensure that the data is collected and processed correctly. The data were collected in an Excel document, which was integrated with the simulation model for an overview and adjustments would be possible. The simulation program, Siemens Plant Simulation 12 used in the construction of the complex model of the three flows, which where verified and validated against the real flows. Optimization on the simulation model was made with a high and a low demand for crankshafts. Several objects were taken into consideration as: minimal waiting processing Findel, minimal setup time and minimal total-PIA from a truly viable perspective. The optimization showed a possible production planning in order to best be able to run such large batches as possible with reduced readjustment time and for delays of production in processing rawflows to not occur in the refined flow. For maximum capacity in the company there are two different optimal solutions one solution focused on reducing setup time and the second solution to minimize the number of additional production hours per week. Discrete simulation of production flows are being used to support production planning and simulation model is created for the continued use of the Volvo GTO, either in simulation group or future researches and theses in collaboration with the University of Skövde. The project objectives were achieved with good results and resulted as a standing basis for future planning of batches and sequences of processing crankshaft Volvo GTO.
|
6 |
Input Calibration, Code Validation and Surrogate Model Development for Analysis of Two-phase Circulation Instability and Core Relocation PhenomenaPhung, Viet-Anh January 2017 (has links)
Code validation and uncertainty quantification are important tasks in nuclear reactor safety analysis. Code users have to deal with large number of uncertain parameters, complex multi-physics, multi-dimensional and multi-scale phenomena. In order to make results of analysis more robust, it is important to develop and employ procedures for guiding user choices in quantification of the uncertainties. The work aims to further develop approaches and procedures for system analysis code validation and application to practical problems of safety analysis. The work is divided into two parts. The first part presents validation of two reactor system thermal-hydraulic (STH) codes RELAP5 and TRACE for prediction of two-phase circulation flow instability. The goals of the first part are to: (a) develop and apply efficient methods for input calibration and STH code validation against unsteady flow experiments with two-phase circulation flow instability, and (b) examine the codes capability to predict instantaneous thermal hydraulic parameters and flow regimes during the transients. Two approaches have been developed: a non-automated procedure based on separate treatment of uncertain input parameters (UIPs) and an automated method using genetic algorithm. Multiple measured parameters and system response quantities (SRQs) are employed in both calibration of uncertain parameters in the code input deck and validation of RELAP5 and TRACE codes. The effect of improvement in RELAP5 flow regime identification on code prediction of thermal-hydraulic parameters has been studied. Result of the code validations demonstrates that RELAP5 and TRACE can reproduce qualitative behaviour of two-phase flow instability. However, both codes misidentified instantaneous flow regimes, and it was not possible to predict simultaneously experimental values of oscillation period and maximum inlet flow rate. The outcome suggests importance of simultaneous consideration of multiple SRQs and different test regimes for quantitative code validation. The second part of this work addresses core degradation and relocation to the lower head of a boiling water reactor (BWR). Properties of the debris in the lower head provide initial conditions for vessel failure, melt release and ex-vessel accident progression. The goals of the second part are to: (a) obtain a representative database of MELCOR solutions for characteristics of debris in the reactor lower plenum for different accident scenarios, and (b) develop a computationally efficient surrogate model (SM) that can be used in extensive uncertainty analysis for prediction of the debris bed characteristics. MELCOR code coupled with genetic algorithm, random and grid sampling methods was used to generate a database of the full model solutions and to investigate in-vessel corium debris relocation in a Nordic BWR. Artificial neural networks (ANNs) with classification (grouping) of scenarios have been used for development of the SM in order to address the issue of chaotic response of the full model especially in the transition region. The core relocation analysis shows that there are two main groups of scenarios: with relatively small (<20 tons) and large (>100 tons) amounts of total relocated debris in the reactor lower plenum. The domains are separated by transition regions, in which small variation of the input can result in large changes in the final mass of debris. SMs using multiple ANNs with/without weighting between different groups effectively filter out the noise and provide a better prediction of the output cumulative distribution function, but increase the mean squared error compared to a single ANN. / Validering av datorkoder och kvantifiering av osäkerhetsfaktorer är viktiga delar vid säkerhetsanalys av kärnkraftsreaktorer. Datorkodanvändaren måste hantera ett stort antal osäkra parametrar vid beskrivningen av fysikaliska fenomen i flera dimensioner från mikro- till makroskala. För att göra analysresultaten mer robusta, är det viktigt att utveckla och tillämpa rutiner för att vägleda användaren vid kvantifiering av osäkerheter.Detta arbete syftar till att vidareutveckla metoder och förfaranden för validering av systemkoder och deras tillämpning på praktiska problem i säkerhetsanalysen. Arbetet delas in i två delar.Första delen presenterar validering av de termohydrauliska systemkoderna (STH) RELAP5 och TRACE vid analys av tvåfasinstabilitet i cirkulationsflödet.Målen för den första delen är att: (a) utveckla och tillämpa effektiva metoder för kalibrering av indatafiler och validering av STH mot flödesexperiment med tvåfas cirkulationsflödeinstabilitet och (b) granska datorkodernas förmåga att förutsäga momentana termohydrauliska parametrar och flödesregimer under transienta förlopp.Två metoder har utvecklats: en icke-automatisk procedur baserad på separat hantering av osäkra indataparametrar (UIPs) och en automatiserad metod som använder genetisk algoritm. Ett flertal uppmätta parametrar och systemresponser (SRQs) används i både kalibrering av osäkra parametrar i indatafilen och validering av RELAP5 och TRACE. Resultatet av modifikationer i hur RELAP5 identifierar olika flödesregimer, och särskilt hur detta påverkar datorkodens prediktioner av termohydrauliska parametrar, har studerats.Resultatet av valideringen visar att RELAP5 och TRACE kan återge det kvalitativa beteende av två-fas flödets instabilitet. Däremot kan ingen av koderna korrekt identifiera den momentana flödesregimen, det var därför ej möjligt att förutsäga experimentella värden på svängningsperiod och maximal inloppsflödeshastighet samtidigt. Resultatet belyser betydelsen av samtidig behandling av flera SRQs liksom olika experimentella flödesregimer för kvantitativ kodvalidering.Den andra delen av detta arbete behandlar härdnedbrytning och omfördelning till reaktortankens nedre plenumdel i en kokarvatten reaktor (BWR). Egenskaper hos härdrester i nedre plenum ger inledande förutsättningar för reaktortanksgenomsmältning, hur smältan rinner ut ur reaktortanken och händelseförloppet i reaktorinneslutningen.Målen i den andra delen är att: (a) erhålla en representativ databas över koden MELCOR:s analysresultat för egenskaperna hos härdrester i nedre plenum under olika händelseförlopp, och (b) utveckla en beräkningseffektiv surrogatsmodell som kan användas i omfattande osäkerhetsanalyser för att förutsäga partikelbäddsegenskaper.MELCOR, kopplad till en genetisk algoritm med slumpmässigt urval användes för att generera en databas av analysresultat med tillämpning på smältans omfördelning i reaktortanken i en Nordisk BWR.Analysen av hur härden omfördelas visar att det finns två huvudgrupper av scenarier: med relativt liten (<20 ton) och stor (> 100 ton) total mängd omfördelade härdrester i nedre plenum. Dessa domäner är åtskilda av övergångsregioner, där små variationer i indata kan resultera i stora ändringar i den slutliga partikelmassan. Flergrupps artificiella neurala nätverk med klassificering av händelseförloppet har använts för utvecklingen av en surrogatmodell för att hantera problemet med kaotiska resultat av den fullständiga modellen, särskilt i övergångsregionen. / <p>QC 20170309</p>
|
7 |
Streamlining Certification Management with Automation and Certification Retrieval : System development using ABP Framework, Angular, and MongoDB / Effektivisering av certifikathantering med automatisering och certifikathämtning : Systemutveckling med ABP Framework, Angular och MongoDBHassan, Nour Al Dine January 2024 (has links)
This thesis examines the certification management challenge faced by Integrity360. The decentralized approach, characterized by manual processes and disparate data sources, leads to inefficient tracking of certification status and study progress. The main objective of this project was to construct a system that automates data retrieval, ensures a complete audit, and increases security and privacy. Leveraging the ASP.NET Boilerplate (ABP) framework, Angular, and MongoDB, an efficient and scalable system was designed, developed, and built based on DDD (domain-driven design) principles for a modular and maintainable architecture. The implemented system automates data retrieval from the Credly API, tracks exam information, manages exam vouchers, and implements a credible authentication system with role-based access control. With the time limitations behind the full-scale implementation of all the planned features, such as a dashboard with aggregated charts and automatic report generation, the platform significantly increases the efficiency and precision of employee certification management. Future work will include these advanced functionalities and integrations with external platforms to improve the system and increase its impact on operations in Integrity360.
|
Page generated in 0.0225 seconds