• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 1
  • Tagged with
  • 16
  • 16
  • 7
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Investigation of methods used to predict the heat release rate and enclosure temperatures during mattress fires

Threlfall, Todd 05 September 2005 (has links)
Fires in buildings ranging in size from small residential houses to large office buildings and sports stadiums pose significant threats to human safety. Many advances have been made in the area of fire behaviour modeling and have lead to much safer, and more efficient fire protection engineering designs, saving countless lives. Fire, however, is still a difficult phenomenon to accurately model and the most important quantity used to describe a fire is the heat (energy) release rate (HRR). Predictions of the fire hazard posed by mattresses, using relatively simple modeling techniques, were investigated in this research work and compared to full-scale experimental results. Specifically, several common methods of predicting the HRR from a mattress fire were examined. Current spatial separation guidelines, which exist in order to mitigate fire spread between buildings, were used to predict radiation heat flux levels emitted by a burning building and compared to experimental results measured in the field. Enclosure ceiling temperatures, predicted using the Alpert temperature correlation, and average hot gas layer temperature predictions were also compared to experimental results. Results from this work indicate that the t-squared fire heat release rate modeling technique combined with the common Alpert ceiling temperature correlation, provide a reasonable prediction of real-life fire temperatures as results within 30% were obtained. The cone calorimeter was also found to be a useful tool in the prediction of full-scale fire behaviour and the guidelines used for spatial separation calculations were found to predict the radiant heat flux emitted by a burning building reasonably well.
12

EDGE COMPUTING APPROACH TO INDOOR TEMPERATURE PREDICTION USING MACHINE LEARNING

Hyemin Kim (11565625) 22 November 2021 (has links)
<p>This paper aims to present a novel approach to real-time indoor temperature forecasting to meet energy consumption constraints in buildings, utilizing computing resources available at the edge of a network, close to data sources. This work was inspired by the irreversible effects of global warming accelerated by greenhouse gas emissions from burning fossil fuels. As much as human activities have heavy impacts on global energy use, it is of utmost importance to reduce the amount of energy consumed in every possible scenario where humans are involved. According to the US Environmental Protection Agency (EPA), one of the biggest greenhouse gas sources is commercial and residential buildings, which took up 13 percent of 2019 greenhouse gas emissions in the United States. In this context, it is assumed that information of the building environment such as indoor temperature and indoor humidity, and predictions based on the information can contribute to more accurate and efficient regulation of indoor heating and cooling systems. When it comes to indoor temperature, distributed IoT devices in buildings can enable more accurate temperature forecasting and eventually help to build administrators in regulating the temperature in an energy-efficient way, but without damaging the indoor environment quality. While the IoT technology shows potential as a complement to HVAC control systems, the majority of existing IoT systems integrate a remote cloud to transfer and process all data from IoT sensors. Instead, the proposed IoT system incorporates the concept of edge computing by utilizing small computer power in close proximity to sensors where the data are generated, to overcome problems of the traditional cloud-centric IoT architecture. In addition, as the microcontroller at the edge supports computing, the machine learning-based prediction of indoor temperature is performed on the microcomputer and transferred to the cloud for further processing. The machine learning algorithm used for prediction, ANN (Artificial Neural Network) is evaluated based on error metrics and compared with simple prediction models.</p>
13

A Smart WIFI Thermostat Data-Based Neural Network Model for Controlling Thermal Comfort in Residences Through Estimates of Mean Radiant Temperature

Lou, Yisheng January 2021 (has links)
No description available.
14

Supervised Machine Learning Modeling in Secondary Metallurgy : Predicting the Liquid Steel Temperature After the Vacuum Treatment Step of the Vacuum Tank Degasser

Vita, Roberto January 2022 (has links)
In recent years the steelmaking industry has been subjected to continuous attempts to improve its production route. The main goals has been to increase the competitiveness and to reduce the environmental impact. The development of predictive models has therefore been of crucial importance in order to achieve such optimization. Models are representations or idealizations of reality which can be used to investigate new process strategies without the need of intervention in the process itself. Together with the development of Industry 4.0, Machine Learning (ML) has turned out as a promising modeling approach for the steel industry. However, ML models are generally difficult to interpret, which makes it complicated to investigate if the model accurately represents reality. The present work explores the practical usefulness of applied ML models in the context of the secondary metallurgy processes in steelmaking. In particular, the application of interest is the prediction of the liquid steel temperature after the vacuum treatment step in the Vacuum Tank Degasser (VTD). The choice of the VTD process step is related to its emerging importance in the SSAB Oxelösund steel plant due to the planned future investment in an Electric Arc Furnace (EAF) based production line. The temperature is an important parameter of process control after the vacuum treatment since it directly influences the castability of the steel. Furthermore, there are not many available models which predict the temperature after the vacuum treatment step. The present thesis focuses first on giving a literature background of the statistical modeling approach, mainly addressing the ML approach, and the VTD process. Furthermore, it is reported the methodology behind the construction of the ML model for the application of interest and the results of the numerical experiments. All the statistical concepts used are explained in the literature section. By using the described methodologies, several findings originated from the resulting ML models predicting the temperature of the liquid steel after the vacuum treatment in the VTD.A high complexity of the model is not necessary in order to achieve a high predictive performance on the test data. On the other hand, the data quality is the most important factor to take into account when improving the predictive performance. Itis fundamental having an expertise in both metallurgy and machine learning in order to create a machine learning model that is both relevant and interpretable to domain experts. This knowledge is indeed fundamental for the selection of the input data and the machine learning model framework. Crucial information for the predictions result to be the heat status of the ladle as well as the stirring process time and the temperature benchmarks before and after the vacuum steps. However, to draw specific conclusions, a higher model predictive performance is needed. This can only be obtained upon a significant data quality improvement. / Stålindustrin har under de senaste åren ständigt förbättrat sin produktionsförmåga som i huvudsak har bidragit till ökad konkurrenskraft och minskad miljöpåverkan. Utvecklingen  av  prediktiva  modeller  har  under  denna  process  varit  av  avgörande betydelse för att uppnå dessa bedrifter. Modeller är representationer eller idealiseringar av verkligheten som kan användas för att utvärdera nya processtrategier utan att åberopa  ingrepp  i  själva  processen.    Detta  sparar  industrin  både  tid och pengar.   I takt  med  Industri  4.0  har  maskininlärning  blivit  uppmärksammad  som ett ytterligare modelleringsförfarande inom stålindustrin. Maskininlärningsmodeller är dock generellt svårtolkade, vilket gör det utmanande att undersöka om modellen representerar verkligheten. Detta arbete undersöker den praktiska användningen av maskininlärningsmodeller inom sekundärmetallurgin på  ett  svenskt  stålverk.    Tillämpningen  är  i  synnerhet av   intresse   för   att   kunna   förutspå   temperaturen   hos   det   flytande   stålet   efter vakuumbehandlingssteget  i  VTD-processen. Denna  process  valdes  eftersom den är av  stor  betydelse  för  framtida  ståltillverkning  hos  SSAB  i  Oxelösund. Detta är primärt  på  grund  utav  att  SSAB  kommer  att  investera  i  en ljusbågsugnsbaserad produktionslinje.   Temperaturen är en viktig processparameter eftersom den direkt påverkar   stålets   gjutbarhet. Utöver   detta   har   inga   omfattande   arbeten   gjorts gällande  att  förutspå  temperaturen  efter vakuumbehandlingssteget  med  hjälp av maskininlärningsmodeller. Arbetet presenterar först en litteraturbakgrund inom statistisk modellering med fokus på maskininlärning och VTD-processen.  Därefter redovisas metodiken som använts för att skapa  maskininlärningsmodellerna  som  ligger  till  grund  för  de  numeriska experimenten samt resultaten. Genom att använda de beskrivna metoderna härrörde flera fynd från de skapande maskininlärningsmodellerna. En hög grad av komplexitet är inte   nödvändig   för   att   uppnå   en   hög   prediktiv   förmåga   på   data   som   inte använts  för  att  anpassa  modellens  parametrar.   Å  andra  sidan  är  datakvalitén den viktigaste faktorn om man ämnar att förbättra den prediktiva förmågan hos modellen. Utöver  detta  är  det  av  yttersta  vikt  att  ha  kompetens  inom  både  metallurgi  och maskininlärning för att skapa en modell som är både relevant och tolkbar för experter inom  området  processmetallurgi. Ideligen  är  kunskap  inom  processmetallurgi grundläggande för val av indata och val av maskininlärningsalgoritm. Under analysen av maskininlärningsmodellerna upptäcktes det att skänkens värmestatus, omrörningstiden i processen, samt temperaturriktmärkena före och efter vakuumstegen var de mest avgörande variablerna för modellens prediktiva förmåga. För att kunna dra specifika slutsatser behöver modellen ha en högre prediktiv förmåga. Detta kan endast erhållas efter en betydande förbättring av datakvalitén.
15

Short-horizon Prediction of Indoor Temperature using Low-Order Thermal Networks : A case study of thermal models for heat-system control applications / Kortsiktig Modellering av Inomhustemperatur med Termiska Nätverk : En fallstudie av termiska modeller för kontrollapplikationer

Cederberg, Jonas January 2023 (has links)
Optimizing and controlling the heating systems in buildings is one way to decrease their load on the power grid, as well as introduce load flexibility to be used in Demand Response (DR) applications. A requirement in occupied buildings is that the thermal comfort of the residents is guaranteed, making the optimization of heating systems a constrained problem with respect to indoor temperature. Thermal models capable of predicting indoor temperatures over short (24 hour) horizons are one way to guarantee this comfort. The accuracy and computational complexity of these models have the most significant impact on controller performance. The data requirements and the expert knowledge required for model implementation are also important factors, since they determine the development costs and, finally, whether a model is feasible to implement. First a literature study explores current modeling approaches that depend only on time-series sensor data and that are suited for control applications. A modeling type found to be fit for such purposes are grey-box models, specifically physically inspired inverse models whose parameters are estimated based on data, such as Resistance- Capacitance (RC) models. This modeling of a dynamical system approach uses prior information in the form of the assumed physical equations and has the potential to increase the performance on sparse data problems. The simple form of the model also has a low level of complexity, making it well suited for control applications. However, expert knowledge can be needed for choosing the model equations as well as initializing the parameters. Then the effects of varying RC model complexity, parameter initialization, and training data are investigated in the case study. The chosen models are 1R1C, 2R2C, and 3R2C. They are fitted using the Nelder-Mead algorithm and validated using the data collected from the RISE Research Villa. Parameter initializations are varied by two orders of magnitude and then fitted on different data sequences to avoid relying on expert knowledge in model creation. The initializations that converged with the best R2 training fit on all sequences were deemed reasonable initializations for the problem and used in the training length comparison. The training length of the models varies from 24 to 384 hours. The results showed that increased training data length correlates positively with performance up to 192 hours for all models, but further increasing it gave inconclusive results. The higher order models evaluated struggled to beat the simplest model or even the constant prediction baseline in Mean Absolute Error (MAE) performance at all training lengths, indicating either that the models selected are unsuitable or that the data features chosen are unrepresentative of the indoor temperature dynamics. Regardless, the MAE errors presented here are comparable to the outcomes of related works. This is possibly an artifact of this dataset having a low variance in temperature and thus resulting in lower errors, which underlines the importance of the data used in case-studies. / Att optimera och styra värmesystemen i byggnader är ett sätt att minska belastningen på elnätet och införa flexibilitet i belastningen som kan användas i tillämpningar för efterfrågeflexibilitet (Demand Response, DR). Ett krav i bebodda byggnader är att de boendes termiska komfort garanteras, vilket gör optimeringen av värmesystemen till ett begränsat problem med avseende på inomhustemperaturen. Termiska modeller som kan förutsäga inomhustemperaturer på kort sikt (24 timmar) är ett sätt att garantera denna komfort. Dessa modellers noggrannhet och beräkningskomplexitet har störst inverkan på styrningens prestanda. Datakraven och den expertkunskap som krävs för att genomföra modellen är också viktiga faktorer, eftersom de avgör utvecklingskostnaderna och slutligen om en modell är möjlig att implementera. Först görs en litteraturstudie av nuvarande modelleringsmetoder som endast är beroende av tidsserier av sensordata och som lämpar sig för reglertillämpningar. En modelleringstyp som visat sig vara lämplig för sådana ändamål är grey-box-modeller, särskilt fysikaliskt inspirerade inversa modeller vars parametrar estimeras på basis av data, t.ex. RC-modeller (Resistance-Capacitance). Denna modell av ett dynamiskt system modellering använder förhandsinformation i form av de antagna fysiska ekvationerna och har potential att öka prestandan vid problem med begränsad data. Modellens enkla form har också en låg komplexitetsnivå, vilket gör den väl lämpad för kontrolltillämpningar. Expertkunskap kan dock behövas för att välja modellekvationer och initiera parametrarna. Därefter undersöks effekterna av att variera RC-modellens komplexitet, parameterinitialisering och träningsdata i fallstudien. De valda modellerna är 1R1C, 2R2C och 3R2C. De tränas med hjälp av Nelder-Mead-algoritmen och valideras med hjälp av data som samlats in från RISE Research Villa. Initialiseringarna av parametrarna varieras med två storleksordningar och anpassas sedan på olika dataserier för att undvika att förlita sig på expertkunskap vid skapandet av modellerna. De initialiseringar som konvergerade med den bästa träningsanpassningen R2 på alla sekvenser ansågs vara rimliga initialiseringar för problemet och användes i jämförelsen av träningslängden. Modellernas träningslängd varierar mellan 24 och 384 timmar. Resultaten visade att en ökad längd på träningsdata korrelerar positivt med prestanda upp till 192 timmar för alla modeller, men att ytterligare ökning inte ger några entydiga resultat. De utvärderade modellerna av högre ordning hade svårt att överträffa den enklaste modellen eller till och med referensmodellen med konstant prediktion i fråga om genomsnittligt absolut fel (MAE) vid alla träningslängder, vilket tyder antingen på att de valda modellerna är olämpliga eller att de valda datafunktionerna inte är representativa för inomhustemperaturens dynamik. Oavsett detta är de MAE-fel som presenteras här jämförbara med resultaten från relaterade studier. Detta är möjligen en artefakt av att detta dataset har en låg varians i temperaturen och därmed resulterar i lägre fel, vilket understryker vikten av de data som används i fallstudier.
16

Correction and Optimization of 4D aircraft trajectories by sharing wind and temperature information / Correction et Optimisation de trajectoires d'avions 4D par partage des informations de vent et de température

Legrand, Karim 28 June 2019 (has links)
Cette thèse s'inscrit dans l'amélioration de la gestion du trafic aérien. Le vent et la température sont deux paramètres omniprésents, subis, et à l'origine de nombreux biais de prédiction qui altèrent le suivi des trajectoires. Nous proposons une méthode pour limiter ces biais. Le concept "Wind and Température Networking" améliore la prédiction de trajectoire en utilisant le vent et la température mesurés par les avions voisins. Nous détaillons les effets de la température sur l'avion, permettant sa prise en compte. L'évaluation du concept est faite sur 8000 vols. Nous traitons du calcul de trajectoires optimales en présence de vent prédit, pour remplacer les actuelles routes de l'Atlantique Nord, et aboutir à des groupes de trajectoires optimisées et robustes. Dans la conclusion, nous présentons d'autres champs d'applications du partage de vents, et abordons les besoins en nouvelles infrastructures et protocoles de communication, nécessaires à la prise en compte de ce nouveau concept. / This thesis is related to air traffic management systems current changes. On the ground and in flight, trajectory calculation methods and available data differ. Wind and temperature are two ubiquitous parameters that are subject to and cause prediction bias. We propose a concept to limit this bias. Our "Wind and Temperature Networking" concept improves trajectory prediction, using wind and temperature information from neighboring aircraft. We detail the effects of temperature on the aircraft performances, allowing for temperature to be taken into account. The concept evaluation is done on 8000 flights. We discuss the calculation of optimal trajectories in the presence of predicted winds, to replace the current North Atlantic Tracks, and to provide optimized and robust groups of trajectories. The conclusion of this thesis presents other fields of wind sharing applications, and addresses the need for new telecommunications infrastructures and protocols.

Page generated in 0.1025 seconds