• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 24
  • Tagged with
  • 64
  • 33
  • 22
  • 10
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Towards using microscopic traffic simulations for safety evaluation

Tamayo Cascan, Edgar January 2018 (has links)
Microscopic traffic simulation has become an important tool to investigate traffic efficiency and road safety. In order to produce meaningful results, incorporated driver behaviour models need to be carefully calibrated to represent real world conditions. In addition to macroscopic relationships such as the speed-density diagram, they should also adequately represent the average risk of accidents occurring on the road. In this thesis, I present a two stage computationally feasible multi-objective calibration process. The first stage performs a parameter sensitivity analysis to select only parameters with considerable effect on the respective objective functions to keep the computational complexity of the calibration at a manageable level. The second stage employs a multi-objective genetic algorithm that produces a front of Pareto optimal solutions with respect to the objective functions. Compared to traditional methods which focus on only one objective while sacrificing accuracy of the other, my method achieves a high degree of realism for both traffic flow and average risk. / Mikroskopisk trafiksimulering har blivit ett viktigt verktyg för att undersöka trafik effektivitet och trafiksäkerhet. För att producera meningsfulla resultat måste inbyggda drivrutinsbeteendemodeller noggrant kalibreras för att representera verkliga förhållanden i världen. Förutom makroskopiska relationer, såsom hastighetsdensitetsdiagrammet, bör de också på ett adekvat sätt representera den genomsnittliga risken för olyckor som uppträder på vägen. I denna avhandling presenterar jag en tvåstegs beräkningsberättigbar mångsidig kalibreringsprocess. Det första steget utför en parameterkänslighetsanalysför att bara välja parametrar med stor effekt på respektive objektiv funktioner för att hålla kalibrerings komplexiteten på en hanterbar nivå. Det andra steget använder en mångriktig genetisk algoritm som ger framsidan av Pareto optimala lösningar med hänsyn till objektivfunktionerna. Jämfört med traditionella metoder som fokuserar på endast ett mål, samtidigt som man offrar den andra, ger min metod en hög grad av realism för både trafikflöde och genomsnittlig risk.
42

The effect of model calibration on noisy label detection / Effekten av modellkalibrering vid detektering av felmärkta bildetiketter

Joel Söderberg, Max January 2023 (has links)
The advances in deep neural networks in recent years have opened up the possibility of using image classification as a valuable tool in various areas, such as medical diagnosis from x-ray images. However, training deep neural networks requires large amounts of annotated data which has to be labelled manually, by a person. This process always involves a risk of data getting the wrong label, either by mistake or ill will, and training a machine learning model on mislabelled images has a negative impact on accuracy. Studies have shown that deep neural networks are so powerful at memorization that if they train on mislabelled data, they will eventually overfit this data, meaning learning a data representation that does not fully mirror real data. It is therefore vital to filter out these images. Area under the margin is a method that filters out mislabelled images by observing the changes in a network’s predictions during training. This method does however not take into consideration the overconfidence in deep neural networks and the uncertainty of a model can give indications of mislabelled images during training. Calibrating the confidence can be done through label smoothing and this thesis aims to investigate if the performance of Area under the margin can be improved when combined with different smoothing techniques. The goal is to develop a better insight into how different types of label noise affects models in terms of confidence, accuracy and the impact it has depending on the dataset itself. Three different label smoothing techniques will be applied to evaluate how well they can mitigate overconfidence, prevent the model from memorizing the mislabelled samples and if this can improve the filtering process for the Area under the margin method. Results show when training on data with noise present, adding label smoothing improves accuracy, an indication of noise robustness. Label noise is seen to decrease confidence in the model and at the same time reduce the calibration. Adding label smoothing prevents this and allows the model to be more robust as the noise rate increases. In the filtering process, label smoothing was seen to prevent correctly labelled samples to be filtered and received a better accuracy at identifying the noise. This did not improve the classification results on the filtered data, indicating that it is more important to filter out as many mislabelled samples as possible even if this means filtering out correctly labelled images as well. The label smoothing methods used in this work was set up to preserve calibration, a future topic of research could be to adjust the hyperparameters to increase confidence instead, focusing on removing as much noise as possible. / De senaste årens framsteg inom djupa neurala nätverk har öppnat för möjligheten att använda bildklassificering som ett värdefullt verktyg inom olika områden, såsom medicinsk diagnos från röntgenbilder. Men att träna djupa neurala nätverk kräver stora mängder annoterad data som måste märkas antingen av människor eller datorer. Denna process involverar alltid med en risk för att data får fel etikett, antingen av misstag eller av uppsåt och att träna en maskininlärningsmodell på felmärkta bilder har negativ inverkan på resultatet. Studier har visat att djupa neurala nätverk är så kraftfulla att memorera att om de tränar på felmärkta data, kommer de så småningom att överanpassa dessa data, vilket betyder att de kommer att lära sig en representation som inte helt speglar verklig data. Det är därför viktigt att filtrera bort dessa bilder. Area under marginalen är en metod som filtrerar bort felmärkta bilder genom att observera förändringarna i ett nätverks beteende under träning. Denna metod tar dock inte hänsyn till översäkerhet i djupa neurala nätverk och osäkerheten i en modell kan ge indikationer på felmärkta bilder under träning. Kalibrering av förtroendet kan göras genom etikettutjämning och denna uppsats syftar till att undersöka om prestandan för Area under marginalen kan förbättras i kombination med olika tekniker för etikettutjämning. Målet är att utveckla en bättre insikt i hur olika typer av brusiga etiketter påverkar modeller när det gäller tillförlitlighet, noggrannhet och den påverkan det har beroende på själva datasetet. Tre olika tekniker för etikettutjämning kommer att tillämpas för att utvärdera hur väl de kan mildra översäkerheten, förhindra modellen från att memorera de felmärkta bilderna och om detta kan förbättra filtreringsprocessen för Area under marginalen-metoden. Resultaten visar att när man tränar på data innehållande felmärkt data, förbättrar etikettutjämning noggrannheten vilket indikerar på robusthet mot felmärkning. Felmärkning tycks minska säkerheten hos modellen och samtidigt minska kalibreringen. Att lägga till etikettutjämning förhindrar detta och gör att modellen blir mer robust när mängden brusiga etiketter ökar. I filtreringsprocessen sågs att etikettutjämning förhindrar att korrekt märkt data filtreras bort och fick en bättre noggrannhet vid identifiering av bruset. Detta förbättrade dock inte klassificeringsresultaten på den filtrerade datan, vilket indikerar att det är viktigare att filtrera bort så mycket felmärkta prover som möjligt även om detta innebär att filtrera bort korrekt märkta bilder. Metoderna för etikettutjämning som används i detta arbete sattes upp för att bevara kalibreringen, ett framtida forskningsämne kan vara att justera hyperparametrarna för att istället öka förtroendet, med fokus på att ta bort så mycket felmärkta etiketter som möjligt.
43

Standardization of Eddy Current Testing Calibration for Valve Spring Wire / Standardisering av Eddy Current Testing Procedures för ventilfjädertråd

Ingabire, Annick, Olsson, Robin January 2018 (has links)
Elektromagnetisk provning (ECT) har blivit en av de mest använda metoderna för attkvalitetssäkra produkter där icke-destruktiv testning av material krävs. Vid provning av ståltrådinteragerar utrustningen med det testade materialet och upptäcker ytdefekter och, i vissomfattning, om strukturen skiljer sig från det kalibrerade provet. Om produkten befinner sigutanför specifikationen, skrotas den eller ombearbetas. Denna Mastersuppsats undersökerkalibreringsförfarandet för elektromagnetisk provning som utförs av Suzuki Garphyttan, som är enav de största tillverkarna i världen av ventil- och transmissionsfjädrar för bilindustrin. Genom deslutsatser som framgår av denna rapport, som baseras på undersökningar gjorda i vetenskapligaartiklar och genom att analysera den data som inhämtats från produktionen, presenteras enstandardisering av kalibreringsförfarandet. Detta är nödvändigt för att säkerställa såväl testernastillförlitlighet, såväl som minimering av risken för att skrota ut material på grund av felaktigainställningar, till exempel på grund av otillräckligt signal-brus (S/N)-förhållande. Fokus ligger påsond-baserad, roterande testning, i denna avhandling kallad circografen, eftersom den är manuelltkalibrerad.Några av de konstaterade resultaten i rapporten är:● Standard Operating Procedures (SOP)-baserade instruktioner implementeras i företagetskvalitetssystem. Detta för att minska variationer i kvalitet mellan olika operatörer ochmaskiner.● Ett förslag på intervaller för värden (fasvinkel, förstärkning, korrigering av filter och såvidare) presenteras. Detta är baserat på insamlad unik produktionsdata från operatöreroch utförda test.● Fasvinklarna som används varierar inom specifika intervaller och bestäms av materialval iallmänhet och frekvensval i synnerhet.● Konduktivitets- och permeabilitetsvärdena för oljehärdad tråd, liksom penetrationsdjupetför tre olika frekvenser presenteras.● Härdningsfel kan inte detekteras i roterande provning● Ökat kolinnehåll minskar den elektriska ledningsförmågan och ger ökad resistivitet, vilketgör att fasen flyttar sig och resulterar i ett minskande gap mellan brussignal ochspricksignal. / Eddy current testing (ECT) has become one of the most extensively used methods to secure theproducts and constructions when non-destructive testing is required. In typical cases of steel wiretesting, the equipment interacts with the tested material and discovers surface defects and, to alimited extent, if the inner structure is differing from the calibration sample. If the product isfound to be outside specification, it is either scrapped or reworked. This master thesis investigatesthe Eddy current testing calibration procedures performed by steel wire manufacturer SuzukiGarphyttan, which is one of the largest producers in the world of valve and transmission springwire for the automotive industry. By the research shown in this thesis, based on the investigationmade in scientific papers and by analyzing data extracted from production, a standardization ofthe calibration procedure is being presented. This is to secure both the testing reliability, andminimizing the risk of scrapping material due to inaccurate settings, for example due toinsufficient signal to noise (S/N) ratio. The focus is on probe-based, rotating testing, in this thesiscalled the circograph, since it is manually calibrated.Some of the findings established in the report: Standard Operating Procedures (SOP) based instructions is being implemented in thecompany's Quality system. This is to decrease the process variations between differentoperators and machines. Suggestions of intervals for values (Phase angle, gain, filter correction and so forth) arepresented. These values are based on collected unique production data from operators andmachines, as well as performed tests. The phase angles used are ranging between specific value intervals, and set by materialchoice in general and choice of frequency in particular. The conductivity and permeability values for oil-tempered wire, as well as penetrationdepth for three different frequencies, are presented. Hardening error cannot be detected in the circograph. Increased carbon content is decreasing conductivity and increasing resistivity, causing thephase to move slightly and decreasing the gap between noise signal and crack signal.
44

Soil-structure interaction for traffic induced vibrations in buildings

Hofstetter, Marcel, Pashai, Nima January 2018 (has links)
Major cities in Sweden experience a population growth, demanding innovative solutions regarding land exploitation for residential housing. One solution is to build closer to existing railway tracks, however difficulties arise regarding determining traffic induced vibrations from trains. This sometimes results in vibrations being too large in buildings regarding comfort, resulting in expensive measures taken as to reduce the vibrations. The scope of this thesis is to investigate the soil-structure interaction caused by traffic induced vibrations in buildings using ABAQUS FE software, where the aim is to partly investigate how a structure effects surrounding soil, partly to investigate which parameters of a structure has largest favorable impact on foundation vibrations. Major results include that ground vibrations at 2-4 meters parallel to a structure relative to the vibration source remain constant, independent on whether a house is present or not. Further results show that increasing the thickness of the foundation slab has a mitigating effect on the induced vibrations. The main conclusions of this thesis include that quadratic elements are superior to linear elements for dynamic analyses for soil, and that accelerometers should be placed at least 2-4 m next to an existing structure to obtain accurate measurements comparable to if no structure was present. / Större städer i Sverige upplever en befolkningstillväxt, vilket resulterar i att kreativa lösningar måste introduceras gällande markexploatering för bostadshus. En sådan lösning är att bygga närmre befintlig järnväg, dock resulterar detta i svårigheter gällande att kvantifiera magnituden av trafikinducerade vibrationer i byggnadsfundament orsakade av tågtrafik. En konsekvens av detta är att vibrationsnivåerna i husen ibland blir för stora sett till komfortvibrationer, vilket resulterar i att dyra åtgärder måste tas för att minska vibrationerna. Denna avhandling syftar till att genom att använda ABAQUS FE-mjukvara utforska jord-strukturinverkan i hus orsakade av trafikvibrationer. Målet är delvis att undersöka hur byggnation påverkar omgivande markvibrationer, delvis att undersöka vilka parametrar som har störst gynnsam effekt gällande dämpning av trafikinducerade vibrationer. De viktigaste resultaten indikerar att markvibrationer 2-4 meter bredvid ett hus relativt vibrationskällan förblir oförändrade oberoende av om byggnation existerar eller ej, samt att en ökning av tjockleken av grundplattan resulterar i minskade fundamentvibrationer. Slutsatserna som presenteras är flera, däribland att kvadratiska element är mer beräkningseffektiva än linjära element för dynamiska analyser för jord, samt att accelerometrar bör placeras minst 2-4 m bredvid ett befintligt hus för att erhålla mätdata jämförbara med om ett hus inte skulle finnas på platsen.
45

Three-way catalyst calibration and system modelling for CNG engine exhaust aftertreatment / Kalibrering av trevägskatalysator och systemmodellering för avgasefterbehandling med CNG-motor

Parikh, Khyati January 2022 (has links)
Detta projekt behandlar metodutveckling för att modellera en trevägskatalysator som skulle kunna användas vidare för att uppskatta utsläppen från en Ottomotor. Modellen är byggd i AVL Cruise M för att bestämma omvandlingarna för de tre lagstiftade föroreningarna kolmonoxid, kväveoxider (NOx) och metan baserat på reaktioner som sker i trevägskatalysatorer. Projektet tar också upp olika experimentella metoder och specifika kalibreringsmetoder som används för att samla in data och bygga modellen. Projektet diskuterar två olika kalibreringsprocesser baserade på insamlade experimentella data och antalet reaktioner kalibrerade i varje steg. Dessutom diskuteras programvaran som används och ändringarna som gjorts i den fördefinierade modellen av programvaran. Resultatet efter kalibreringen visade att den andra kalibreringsprocessen gav bättre resultat, men vissa avvikelser observerades i den byggda modellen. Avvikelserna antas bero på följande tre anledningar. För det första, försummar ytreaktionsmodellen föroreningarnas diffusionshastigheter. Dessutom kan komplexiteten hos objektfunktionen som matas in i optimeraren samt de stationära data som används för kalibreringsändamål också ge avvikelser. Dessa tre argument testas i projektet och slutsatserna som dras för att kunna förbättra modellen är följande.  Objektfunktionen behöver förenklas så mycket som möjligt, diffusion av föroreningar genom washcoaten kan inkluderas i olika komplicerade steg och syrelagringsreaktioner blir viktiga när man tar hänsyn till transienta förhållanden. / This project discusses about development of a method to model the three-way catalyst which could be used further to estimate the emissions from an Otto engine. The model is built in the commercial software called AVL Cruise M to determine the conversions of three legislative pollutants namely, carbon monoxide, nitrogen oxide and methane based on reactions occurring within the three-way catalyst. The project also discusses about different experimental and calibration methods used for collecting the data and building the model. The project discusses two different calibration process based on the experimental data used and number of reactions calibrated on each step. Furthermore, the software used, and the modifications made in the predefined model of the software are also discussed. The result after the calibration showed that the second calibration process gave better results, but some deviations were observed in the model built. The deviations are assumed to be because of three arguments present. Firstly, considering the surface reaction model which neglects the diffusion rates of the species. Secondly, the complexity of the objective function fed into the optimiser. The optimiser is also a software by AVL named design explorer which helps to optimise the parameters. And thirdly, the use of steady state data only and not including transient conditions for the calibration purposes. These arguments are tested in the project, and it is concluded to improve the model, the objective function needs to be simplified as much as possible, diffusion of species through washcoat could be considered at advance stages and oxygen storage reactions become important when transient conditions are taken into consideration.
46

Increasing efficiency in ECU function development for Battery Management Systems

Singh Rajput, Shivaram January 2016 (has links)
In the context of automotive industries today, the focus of ECU function development is always on finding the best possible combinations of control algorithms and parameter. The complex algorithms with broad implementation range requires optimal calibration of ECU parameters to achieve the desired behaviour during the drive cycle of the vehicle. With the growing function complexity of automotive E/E Systems, the traditional approaches of designing the automotive embedded systems are not suitable. In order to overcome the challenge of complexity, many of the leading automotive companies have formed a partnership in order to develop and establish an open industry standard for automotive E/E architecture called AUTOSAR. In this thesis, toolchain for ECU function development following AUTOSAR standard and an efficient measurement and calibration mechanism using XCP on CAN will be investigated and implemented. Two toolchains will be proposed in this thesis, describing their usage in different stages of ECU function development and in calibration. Both these toolchains will be tested to prove its working. / I området utveckling av funktionalitet på elektroniska styrsystem inom bilindustrin idag, ligger fokus på att finna den bästa kombinationen av reglermetoder och styrparametrar. Dessa avancerade system, med breda användningsområden, kräver bästa möjliga injustering av dess kalibrerbara parametrar, för att nå önskat beteende vid användning av fordonet. Det ökande omfånget av funktionskraven på styrsystemen, innebär att sedvanlig metodik för utveckling av dessa system inte är lämplig. För att kunna lösa dessa svårigheter, har de stora inom bilindustrin ingått ett samarbete, där de tillsammans skapat och utvecklar en industristandard för funktionsoch systemutveckling av styrsystem. Standarden kallas AUTOSAR. Denna rapport beskriver hur en kedja av utvecklingsverktyg som följer AUTOSAR-standarden kan användas, för att undersöka och använda en metod för systemövervakning och parameterkalibrering, genom användning av XCP över CAN.
47

Calibration of a 2D hydrodynamic model for flood inundation extent using aerial photographs : A case study of the Hallsberg flood event in 5-9 September 2015 / Kalibrering av en 2D hydrodynamisk modell för en översvämnings utbredning genom användande av flygbilder : En fallstudie över översvämningen i Hallsberg den 5-9:e september 2015

Chatzakis, Alexandros January 2017 (has links)
Alteration of rainfall patterns is one major impact of climate change. Rainfall events with big precipitation volumes under short periods of time are predicted to become even more frequent in higher latitude regions, including Sweden. One characteristic example of such an intense rainfall occurred between the 5th and 6th of September 2015 in Hallsberg, a city in central Sweden, where approximately 105 mm of rain fell under 24 hours, causing severe flooding in the city. In order to be able to predict flood cases like the aforementioned one, hydrodynamic models are employed to simulate floods and investigate rainfall scenarios so that the competent authorities can take precaution measures. However, due to lack of calibration data most of flood models are not validated and are comprised of substantial uncertainty. This report aims to study the Hallsberg flood event in September 2015 by calibrating a hydrodynamic model using aerial photographs for the flood inundation extent. The utilized model is MIKE 21, which is a 2D overland flow model developed by DHI. Contrary to the common practice in flood studies where inclusion of the infiltration capacity is implemented with an arbitrary reduction of the rain volume, the infiltration module of MIKE 21, which is a new development in the model, was utilized. Apart from the inundation extent, the outputs were also evaluated for the water depth in two points based on a photograph captured from the streets of the affected area, the description of the course of events for the timing of flood’s culmination and the water volume on the pixels that were erroneously simulated as flooded. The results presented a high degree of agreement with the observations. The parameter of surface resistance, expressed as Manning’s “M”, was found to be of paramount importance with the suitable values for undeveloped areas being below 5. In addition, the culverts’ limited capacity played an important role in the flooding of the city and hence including them in the simulations is crucial. Finally, utilization of the infiltration module resulted in a higher accuracy of 8.3% although it can be considered more of an arbitrary deduction of water as some of the parameters used in it are not physically well justified. / Ändringar i nederbördsmönster är en tydlig konsekvens av klimatförändringen. Regnhändelser med stora volymer nederbörd under korta tidsperioder förutses bli alltmer frekventa i regioner vid högre breddgrader, däribland Sverige. Ett karaktäristiskt exempel av en sådan händelse skedde mellan den femte och sjätte september 2015 i Hallsberg. Ca 105 mm regn föll inom loppet av 24 timmar vilket orsakade stora översvämningar i staden. För att kunna förutse översvämningar så som den tidigare nämnd och möjliggöra vidtagning av förebyggande åtgärder används hydrodynamiska modeller för att simulera vattenflöden och undersöka möjliga scenarion av nederbörd. Emellertid, på grund av avsaknaden av data för kalibrering av modellerna medför användandet av dem en signifikant osäkerhet. Syftet med den här rapporten är att undersöka översvämningen i Hallsberg i september 2015 genom att kalibrera en hydrodynamisk modell med hjälp av flygbilder för översvämningens utbredning. Den använda modellen, MIKE 21, är en 2D modell över ytavrinningen utvecklad av DHI. Praxis vid studiet av översvämningar är att inkludera infiltrationsförmåga med ett godtyckligt avdrag av nederbörden. Här används istället infiltreringsmodulen för MIKE 21, vilket är en ny del som har utvecklats i modellen. Förutom översvämningens utbredning utvärderades även resultaten utifrån vattendjupet vid två punkter baseras på ett fotografi från gatorna i det drabbade området. Utvärdering av resultaten gjordes också mot tid av översvämnings kulm från beskrivning av händelses förlopp samt vattenvolym vid pixlarna som felaktigt simulerades som översvämmade. Resultatet visade på en hög grad av samstämmighet med gjorda observationer. Parametern ytans råhet, uttryckt som Mannings ”M”, visade sig vara av stor betydelse med lämpliga värden för underutvecklade områden under 5. Därtill spelade kulvertarnas begränsade kapacitet en viktig roll vid översvämmandet av staden. Att inkludera dessa i simuleringarna var därför avgörande. Slutligen, användandet av infiltreringsmodulen resulterade i en högre noggrannhet av 8.3 %, även om det kan anses vara ett godtyckligt vattenavdrag då vissa av de använda parametrarna inte är fysiskt välmotiverade.
48

A study on gas-module test-system to attain high precision gas-flow control in medical ventilators / En studie av testsystem av gasmoduler för att uppnå hög precision i gasflödeskontrollen i medicinska ventilatorer

Narayanan, Vishnu January 2021 (has links)
A medical ventilator is a life-sustaining device that helps critically ill patients with complete or partial breathing support. It provides a patient with the right amount of air and/or oxygen as per requirement. It is therefore essential to have a highly accurate device controlling the flow of these essential gases. In ventilators developed by Maquet, an electro-mechanical device called Gas-Module is used for gas flow control. The Gas-Module is the heart of the ventilator since it is responsible for providing the patient with the right amount of gas at the right time. The focus of this thesis is on improving the accuracy of the gas flow control in these Gas-Modules. This is done through identifying various factors that influence the accuracy of gas flow control, and then finding an efficient method to calibrate the Gas-Modules. Calibration of a Gas-Module is done by tuning values of components in the analog electronic circuit. In this thesis, an electrical model of the circuit is built to simulate various modes of operation. A new trimming method is proposed that with a few measurements, and a simulation model, can be predict the optimal calibration parameters. This method helps to improve accuracy at various flow rates. Predicting the calibration parameters in advance avoids many iteration cycles of measure-adjust-measure which would otherwise be required to calibrate the Gas-Module. The new trimming method proposed in this thesis also has the potential to save calibration time of each Gas-Module and thus save production cost. / Medicinsk ventilator är en livsupphållande apparat som hjälper kritiska sjuka patienter med helt eller partiellt andningsstöd. Den förser en patient med rätt mängd luft eller syre efter individuellt behov. Det är därför viktigt att ha en mycket noggranna anordning som styr flödet av dessa viktiga gaser. I ventilatorer från Maquet görs detta med hjälp av gasmoduler som är en elektromekanisk enhet som styr flödet. Denna modul kallas också hjärtat i en ventilatorn eftersom den ansvarar för tillförseln av rätt mängd gas vid rätt tidpunkt. Arbetet som beskrivs i denna avhandling fokuseras på att förbättra noggrannhet för gasflödeskontroll i dessa gasmoduler. Detta görs genom att identifiera olika faktorer som påverkar flödeskontrollens noggrannhet och sedan hitta en effektiv metod för kalibrering av gasmodulerna. Kalibrering av gasmodul görs genom att justera värdet på elektriska komponenter i kontroll kretsen. I denna avhandling buggdes upp en elektrisk modell av kretsen för att simulera olika driftfall. En ny trimmningsmetod föreslås att med hjälp av ett fåtal mätningar och en funktions modell kan de mest optimala kalibrerings parametrarna prediceras. Denna metod hjälper till att förbättra noggrannheten vid olika flödesbehov.Att förutsäga kalibreringsparametrarna i förväg undviker många mätjusteringscykler som annars skulle krävas för att kalibrera en gasmodul. Med denna nya metod reduceras caliberingstid för varje gasmodul vilket kan bidra till minskade produktions kostnader.
49

Input Calibration, Code Validation and Surrogate Model Development for Analysis of Two-phase Circulation Instability and Core Relocation Phenomena

Phung, Viet-Anh January 2017 (has links)
Code validation and uncertainty quantification are important tasks in nuclear reactor safety analysis. Code users have to deal with large number of uncertain parameters, complex multi-physics, multi-dimensional and multi-scale phenomena. In order to make results of analysis more robust, it is important to develop and employ procedures for guiding user choices in quantification of the uncertainties.   The work aims to further develop approaches and procedures for system analysis code validation and application to practical problems of safety analysis. The work is divided into two parts.   The first part presents validation of two reactor system thermal-hydraulic (STH) codes RELAP5 and TRACE for prediction of two-phase circulation flow instability.   The goals of the first part are to: (a) develop and apply efficient methods for input calibration and STH code validation against unsteady flow experiments with two-phase circulation flow instability, and (b) examine the codes capability to predict instantaneous thermal hydraulic parameters and flow regimes during the transients.   Two approaches have been developed: a non-automated procedure based on separate treatment of uncertain input parameters (UIPs) and an automated method using genetic algorithm. Multiple measured parameters and system response quantities (SRQs) are employed in both calibration of uncertain parameters in the code input deck and validation of RELAP5 and TRACE codes. The effect of improvement in RELAP5 flow regime identification on code prediction of thermal-hydraulic parameters has been studied.   Result of the code validations demonstrates that RELAP5 and TRACE can reproduce qualitative behaviour of two-phase flow instability. However, both codes misidentified instantaneous flow regimes, and it was not possible to predict simultaneously experimental values of oscillation period and maximum inlet flow rate. The outcome suggests importance of simultaneous consideration of multiple SRQs and different test regimes for quantitative code validation.   The second part of this work addresses core degradation and relocation to the lower head of a boiling water reactor (BWR). Properties of the debris in the lower head provide initial conditions for vessel failure, melt release and ex-vessel accident progression.   The goals of the second part are to: (a) obtain a representative database of MELCOR solutions for characteristics of debris in the reactor lower plenum for different accident scenarios, and (b) develop a computationally efficient surrogate model (SM) that can be used in extensive uncertainty analysis for prediction of the debris bed characteristics.   MELCOR code coupled with genetic algorithm, random and grid sampling methods was used to generate a database of the full model solutions and to investigate in-vessel corium debris relocation in a Nordic BWR. Artificial neural networks (ANNs) with classification (grouping) of scenarios have been used for development of the SM in order to address the issue of chaotic response of the full model especially in the transition region.   The core relocation analysis shows that there are two main groups of scenarios: with relatively small (&lt;20 tons) and large (&gt;100 tons) amounts of total relocated debris in the reactor lower plenum. The domains are separated by transition regions, in which small variation of the input can result in large changes in the final mass of debris.  SMs using multiple ANNs with/without weighting between different groups effectively filter out the noise and provide a better prediction of the output cumulative distribution function, but increase the mean squared error compared to a single ANN. / Validering av datorkoder och kvantifiering av osäkerhetsfaktorer är viktiga delar vid säkerhetsanalys av kärnkraftsreaktorer. Datorkodanvändaren måste hantera ett stort antal osäkra parametrar vid beskrivningen av fysikaliska fenomen i flera dimensioner från mikro- till makroskala. För att göra analysresultaten mer robusta, är det viktigt att utveckla och tillämpa rutiner för att vägleda användaren vid kvantifiering av osäkerheter.Detta arbete syftar till att vidareutveckla metoder och förfaranden för validering av systemkoder och deras tillämpning på praktiska problem i säkerhetsanalysen. Arbetet delas in i två delar.Första delen presenterar validering av de termohydrauliska systemkoderna (STH) RELAP5 och TRACE vid analys av tvåfasinstabilitet i cirkulationsflödet.Målen för den första delen är att: (a) utveckla och tillämpa effektiva metoder för kalibrering av indatafiler och validering av STH mot flödesexperiment med tvåfas cirkulationsflödeinstabilitet och (b) granska datorkodernas förmåga att förutsäga momentana termohydrauliska parametrar och flödesregimer under transienta förlopp.Två metoder har utvecklats: en icke-automatisk procedur baserad på separat hantering av osäkra indataparametrar (UIPs) och en automatiserad metod som använder genetisk algoritm. Ett flertal uppmätta parametrar och systemresponser (SRQs) används i både kalibrering av osäkra parametrar i indatafilen och validering av RELAP5 och TRACE. Resultatet av modifikationer i hur RELAP5 identifierar olika flödesregimer, och särskilt hur detta påverkar datorkodens prediktioner av termohydrauliska parametrar, har studerats.Resultatet av valideringen visar att RELAP5 och TRACE kan återge det kvalitativa beteende av två-fas flödets instabilitet. Däremot kan ingen av koderna korrekt identifiera den momentana flödesregimen, det var därför ej möjligt att förutsäga experimentella värden på svängningsperiod och maximal inloppsflödeshastighet samtidigt. Resultatet belyser betydelsen av samtidig behandling av flera SRQs liksom olika experimentella flödesregimer för kvantitativ kodvalidering.Den andra delen av detta arbete behandlar härdnedbrytning och omfördelning till reaktortankens nedre plenumdel i en kokarvatten reaktor (BWR). Egenskaper hos härdrester i nedre plenum ger inledande förutsättningar för reaktortanksgenomsmältning, hur smältan rinner ut ur reaktortanken och händelseförloppet i reaktorinneslutningen.Målen i den andra delen är att: (a) erhålla en representativ databas över koden MELCOR:s analysresultat för egenskaperna hos härdrester i nedre plenum under olika händelseförlopp, och (b) utveckla en beräkningseffektiv surrogatsmodell som kan användas i omfattande osäkerhetsanalyser för att förutsäga partikelbäddsegenskaper.MELCOR, kopplad till en genetisk algoritm med slumpmässigt urval användes för att generera en databas av analysresultat med tillämpning på smältans omfördelning i reaktortanken i en Nordisk BWR.Analysen av hur härden omfördelas visar att det finns två huvudgrupper av scenarier: med relativt liten (&lt;20 ton) och stor (&gt; 100 ton) total mängd omfördelade härdrester i nedre plenum. Dessa domäner är åtskilda av övergångsregioner, där små variationer i indata kan resultera i stora ändringar i den slutliga partikelmassan. Flergrupps artificiella neurala nätverk med klassificering av händelseförloppet har använts för utvecklingen av en surrogatmodell för att hantera problemet med kaotiska resultat av den fullständiga modellen, särskilt i övergångsregionen. / <p>QC 20170309</p>
50

Automatiserad kalibrering av väderradar / Automated Calibration of Weather Radar

Pedersson, Cecilia January 2009 (has links)
<p>För att kalibrera väderradarna i Sverige finns en miniräknare med program som styr kalibreringen. Deluppgiften ”Program för kalibrering” innebär att överföra dessa program till en PC. Då ingen dokumentation finns om hur kommunikationen sker mellan radar och miniräknare, är första steget att analysera och jämföra programkoden från miniräknaren med informationen från en linjelyssnare. Därefter skrivs programmen i det grafiska programmeringsspråket Agilent Vee. Programmen läser av radarns svar på signaler med olika dämpning från en signalgenerator, beräknar en radarkonstant, skapar en kalibreringstabell, samt programmerar kalibreringstabellen i radarns signalprocessor. Datorns mätvärden och beräkningar jämförs med miniräknarens, och det kan konstateras att programmen överensstämmer med varandra.</p><p>Deluppgiften ”Automatiserad kontroll av dämpsteg” innebär att med en spektrumanalysator läsa av effekten på en signal med varierande dämpning från en signalgenerator. Detta görs för att kontrollera dämpstegen, då man på Saab Aerotech upptäckt problem med signalgeneratorn. Ett program skrivs för att automatiskt styra både signalgenerator och spektrumanalysator. Den avlästa effekten vid varje dämpsteg sparas och en graf med dessa värden genereras automatiskt av programmet. I grafen återfås en linjär kurva, vilket är det förväntade utseendet vid fungerande dämpsteg. För en ytterligare kontroll läses effekten av vid varje enskild dämpare. Även dessa värden ligger inom accepterade gränser, vilket innebär att problemet ligger på annat håll i signalgeneratorn, än i dämpstegen.</p> / <p>A calculator is used to calibrate all the weather radars in Sweden. One part of this thesis is to transfer the programs on this calculator to a PC. There is no documentation on how the calculator communicates with the radar, so the first step is to analyze and compare the code from the program with the information shown on a protocol analyzer. When the communication is known, a program is written in the language Agilent Vee. One program reads the response from the radar of a signal with different attenuation. Others calculates the radar constant, generates a calibration table and programs the table to the signal processor in the radar. By comparing the result from the programs on the PC and the corresponding results from the calculator it is verified that the programs run correctly.</p><p>Saab Aerotech have found that the signal generator in not working correctly. The other part of this thesis is to automatically control the signal generator and a spectrum analyzer. The spectrum analyzer reads the power of a signal with different attenuation from the signal generator and presents the values in a graph. The curve of the graph is linear which means that there is no problem with the attenuation.</p>

Page generated in 0.4667 seconds