Spelling suggestions: "subject:"[een] DATA RECONCILIATION"" "subject:"[enn] DATA RECONCILIATION""
1 |
Bayesian Methods for On-Line Gross Error Detection and CompensationGonzalez, Ruben 11 1900 (has links)
Data reconciliation and gross error detection are traditional methods toward detecting mass balance inconsistency within process instrument data. These methods use a static approach for statistical evaluation. This thesis is concerned with using an alternative statistical approach (Bayesian statistics) to detect mass balance inconsistency in real time.
The proposed dynamic Baysian solution makes use of a state space process model which incorporates mass balance relationships so that a governing set of mass balance variables can be estimated using a Kalman filter. Due to the incorporation of mass balances, many model parameters are defined by first principles. However, some parameters, namely the observation and state covariance matrices, need to be estimated from process data before the dynamic Bayesian methods could be applied. This thesis makes use of Bayesian machine learning techniques to estimate these parameters, separating process disturbances from instrument measurement noise. / Process Control
|
2 |
Bayesian Methods for On-Line Gross Error Detection and CompensationGonzalez, Ruben Unknown Date
No description available.
|
3 |
Robust Process Monitoring for Continuous Pharmaceutical ManufacturingMariana Moreno (5930069) 03 January 2019 (has links)
<p>Robust process monitoring in
real-time is a challenge for Continuous Pharmaceutical Manufacturing. Sensors
and models have been developed to help to make process monitoring more robust,
but they still need to be integrated in real-time to produce reliable estimates
of the true state of the process. Dealing with random and gross errors in the
process measurements in a systematic way is a potential solution. In this work,
we present such a systematic framework, which for a given sensor network and
measurement uncertainties will predict the most likely state of the process. As
a result, real-time process decisions, whether for process control, exceptional
events management or process optimization can be based on the most reliable
estimate of the process state.</p><p><br></p><p></p><p>Data reconciliation (DR) and gross
error detection (GED) have been developed to accomplish robust process
monitoring. DR and GED mitigate the effects of random measurement errors and
non-random sensor malfunctions. This methodology has been used for decades in
other industries (i.e., Oil and Gas), but it has yet to be applied to the
Pharmaceutical Industry. Steady-state data reconciliation (SSDR) is the
simplest forms of DR but offers the benefits of short computational times. However,
it requires the sensor network to be redundant (i.e., the number of
measurements has to be greater than the degrees of freedom).</p><p><br></p><p>In this dissertation, the SSDR
framework is defined and implemented it in two different continuous tableting
lines: direct compression and dry granulation. The results for two pilot plant
scales via continuous direct compression tableting line are reported in this
work. The two pilot plants had different equipment and sensor configurations.
The results for the dry granulation continuous tableting line studies were also
reported on a pilot-plant scale in an end-to-end operation. New measurements
for the dry granulation continuous tableting line are also proposed in this
work.</p><p><br></p><p></p><p>A comparison is made for the
model-based DR approach (SSDR-M) and the purely data-driven approach (SSDR-D)
based on the use of principal component constructions. If the process is linear or mildly nonlinear,
SSDR-M and SSDR-D give comparable results for the variables estimation and GED.
The reconciled measurement values generate using SSDR-M satisfy the model
equations and can be used together with the model to estimate unmeasured
variables. However, in the presence of nonlinearities, the SSDR-M and SSDR-D will
differ. SSDR successfully estimates the real state of the process in the
presence of gross errors, as long as steady-state is maintained and the
redundancy requirement is met. Gross errors are also detected whether using
SSDR-M or SSDR-D. </p><p><br></p>
|
4 |
On the On-line Tools for Treatment of Deterioration in Industrial ProcessesKarlsson, Christer January 2008 (has links)
For industrial processes high availability and efficiency are important goals in plant operation. This thesis presents studies and development of tools for on-line treatment of process deterioration and model and sensor errors in order to achieve these goals. Deterioration of measurement devices, process components and process models has caused economical losses, plant failure and human losses. The development of on-line methods to prevent such losses is of special interest and has been conducted at The Department of Energy Technology, Mälardalen University. Important technological obstacles to implementing automatic on-line methods have been identified, such as data selection for adaptation and adaptation of data-driven models to new states. A new method has been developed for decision support by combining artificial intelligence methods and heat and mass balance models, and concepts are proposed for decision support in order to detect developing faults and to conduct appropriate maintenance actions. The methods have been implemented in simulation environment and evaluated on real process data when available. The results can be sumarised as successful development of a decision support method on a steam turbine by combining artificial neural networks and Bayesian networks, and identification of important obstacles for automation of methods for adaptation of heat and mass balance process models and data-driven models when they are subject to deterioration.
|
5 |
The use of classification methods for gross error detection in process dataGerber, Egardt 12 1900 (has links)
Thesis (MScEng)-- Stellenbosch University, 2013. / ENGLISH ABSTRACT: All process measurements contain some element of error. Typically, a distinction is made between
random errors, with zero expected value, and gross errors with non-zero magnitude. Data Reconciliation
(DR) and Gross Error Detection (GED) comprise a collection of techniques designed to attenuate
measurement errors in process data in order to reduce the effect of the errors on subsequent use of the
data. DR proceeds by finding the optimum adjustments so that reconciled measurement data satisfy
imposed process constraints, such as material and energy balances. The DR solution is optimal under
the assumed statistical random error model, typically Gaussian with zero mean and known covariance.
The presence of outliers and gross errors in the measurements or imposed process constraints invalidates
the assumptions underlying DR, so that the DR solution may become biased. GED is required to detect,
identify and remove or otherwise compensate for the gross errors. Typically GED relies on formal
hypothesis testing of constraint residuals or measurement adjustment-based statistics derived from the
assumed random error statistical model.
Classification methodologies are methods by which observations are classified as belonging to one of
several possible groups. For the GED problem, artificial neural networks (ANN’s) have been applied
historically to resolve the classification of a data set as either containing or not containing a gross error.
The hypothesis investigated in this thesis is that classification methodologies, specifically classification
trees (CT) and linear or quadratic classification functions (LCF, QCF), may provide an alternative to the
classical GED techniques.
This hypothesis is tested via the modelling of a simple steady-state process unit with associated
simulated process measurements. DR is performed on the simulated process measurements in order to
satisfy one linear and two nonlinear material conservation constraints. Selected features from the DR
procedure and process constraints are incorporated into two separate input vectors for classifier
construction. The performance of the classification methodologies developed on each input vector is
compared with the classical measurement test in order to address the posed hypothesis.
General trends in the results are as follows: - The power to detect and/or identify a gross error is a strong function of the gross error magnitude
as well as location for all the classification methodologies as well as the measurement test.
- For some locations there exist large differences between the power to detect a gross error and the
power to identify it correctly. This is consistent over all the classifiers and their associated
measurement tests, and indicates significant smearing of gross errors.
- In general, the classification methodologies have higher power for equivalent type I error than
the measurement test.
- The measurement test is superior for small magnitude gross errors, and for specific locations,
depending on which classification methodology it is compared with.
There is significant scope to extend the work to more complex processes and constraints, including
dynamic processes with multiple gross errors in the system. Further investigation into the optimal
selection of input vector elements for the classification methodologies is also required. / AFRIKAANSE OPSOMMING: Alle prosesmetings bevat ʼn sekere mate van metingsfoute. Die fout-element van ʼn prosesmeting word
dikwels uitgedruk as bestaande uit ʼn ewekansige fout met nul verwagte waarde, asook ʼn nie-ewekansige
fout met ʼn beduidende grootte. Data Rekonsiliasie (DR) en Fout Opsporing (FO) is ʼn versameling van
tegnieke met die doelwit om die effek van sulke foute in prosesdata op die daaropvolgende aanwending
van die data te verminder. DR word uitgevoer deur die optimale veranderinge aan die oorspronklike
prosesmetings aan te bring sodat die aangepaste metings sekere prosesmodelle gehoorsaam, tipies
massa- en energie-balanse. Die DR-oplossing is optimaal, mits die statistiese aannames rakende die
ewekansige fout-element in die prosesdata geldig is. Dit word tipies aanvaar dat die fout-element
normaal verdeel is, met nul verwagte waarde, en ʼn gegewe kovariansie matriks.
Wanneer nie-ewekansige foute in die data teenwoordig is, kan die resultate van DR sydig wees. FO is
daarom nodig om nie-ewekansige foute te vind (Deteksie) en te identifiseer (Identifikasie). FO maak
gewoonlik staat op die statistiese eienskappe van die meting aanpassings wat gemaak word deur die DR
prosedure, of die afwykingsverskil van die model vergelykings, om formele hipoteses rakende die
teenwoordigheid van nie-ewekansige foute te toets.
Klassifikasie tegnieke word gebruik om die klasverwantskap van observasies te bepaal. Rakende die FO
probleem, is sintetiese neurale netwerke (SNN) histories aangewend om die Deteksie en Identifikasie
probleme op te los. Die hipotese van hierdie tesis is dat klassifikasie tegnieke, spesifiek klassifikasiebome
(CT) en lineêre asook kwadratiese klassifikasie funksies (LCF en QCF), suksesvol aangewend
kan word om die FO probleem op te los.
Die hipotese word ondersoek deur middel van ʼn simulasie rondom ʼn eenvoudige gestadigde toestand
proses-eenheid wat aan een lineêre en twee nie-lineêre vergelykings onderhewig is. Kunsmatige
prosesmetings word geskep met behulp van lukrake syfers sodat die foutkomponent van elke
prosesmeting bekend is. DR word toegepas op die kunsmatige data, en die DR resultate word gebruik
om twee verskillende insetvektore vir die klassifikasie tegnieke te skep. Die prestasie van die
klassifikasie metodes word vergelyk met die metingstoets van klassieke FO ten einde die gestelde
hipotese te beantwoord. Die onderliggende tendense in die resultate is soos volg:
- Die vermoë om ‘n nie-ewekansige fout op te spoor en te identifiseer is sterk afhanklik van die
grootte asook die ligging van die fout vir al die klassifikasie tegnieke sowel as die metingstoets.
- Vir sekere liggings van die nie-ewekansige fout is daar ‘n groot verskil tussen die vermoë om die
fout op te spoor, en die vermoë om die fout te identifiseer, wat dui op smering van die fout. Al
die klassifikasie tegnieke asook die metingstoets baar hierdie eienskap.
- Oor die algemeen toon die klassifikasie metodes groter sukses as die metingstoets.
- Die metingstoets is meer suksesvol vir relatief klein nie-ewekansige foute, asook vir sekere
liggings van die nie-ewekansige fout, afhangende van die klassifikasie tegniek ter sprake.
Daar is verskeie maniere om die bestek van hierdie ondersoek uit te brei. Meer komplekse, niegestadigde
prosesse met sterk nie-lineêre prosesmodelle en meervuldige nie-ewekansige foute kan
ondersoek word. Die moontlikheid bestaan ook om die prestasie van klassifikasie metodes te verbeter
deur die gepaste keuse van insetvektor elemente.
|
6 |
Réconciliation de données en présence d’incertitudes de modèle. : application au convertisseur à oxygène / Data reconciliation with uncertain model : application to the basic oxygen furnaceFrancken, Julien 05 July 2010 (has links)
Dans le domaine sidérurgique, l'ajustement des commandes de préréglage est un problème courant. L'objectif des systèmes de commande est d'obtenir des produits de qualité imposée. On observe cependant fréquemment des variations de comportement d'un lot à l'autre, ce qui nécessite de modifier les paramètres des modèles employés pour les préréglages suivants. Cela est particulièrement vrai pour le convertisseur à oxygène où les informations rassemblées pendant une coulée spécifique servent à ajuster les points de consigne de la coulée suivante.Dans cette thèse, nous présentons une méthode de validation de données s'appuyant sur un modèle incertain. Les incertitudes portant sur les mesures des variables et sur la connaissance des paramètres du modèle sont simultanément prises en compte pour fournir des estimées cohérentes qui pourront être mises à profit par le système de contrôle-commande du convertisseur à oxygène. L'estimation paramétrique étant sensible à la présence de mesures aberrantes , la méthode proposée a été rendue robuste à la présence de ces informations erronées par la prise en compte, dans la méthode d'estimation, de la notion de distribution statistique contaminée.Le modèle du convertisseur a été établi sur la base des principes de conservation de masse et d'énergie, mais aussi sur des relations d'équilibre chimique pour lesquelles certains paramètres sont assez mal connus ce qui justifie pleinement l'approche utilisée. Les estimations des variables et des paramètres fournissent une image plus juste de l'état réel du système ce qui en facilite la conduite. Appliquée au convertisseur à oxygène, cette méthode permet l'actualisation du modèle de calcul de charge utile au préréglage. De plus, le suivi de l'évolution de certains paramètres du modèle permet d'évaluer un niveau de dégradation du système (par exemple, l'endommagement du réfractaire de la poche / In the steel industry, tuning the control system set-points in order to reach given product specification is a common problem. The control system objective is to obtain products satisfying the given specifications. There are however frequent changes in the behavior from one batch to another, thus requiring the modification of model parameters used for the following presets. This is particularly true for the Basic Oxygen Furnace (BOF) where the information collected during a specific batch serves to adjust the set-points of the next batch.In this thesis, we proposed a method allowing simultaneously robust data reconciliation and model parameter estimation. This approach is original because the current data validation methods make the assumption that the system model is known perfectly. Here, the uncertainties on the measurements of variables and on the knowledge of the model parameters are simultaneously taken into account to provide consistent estimates that can be utilized by the control system of the BOF, especially for the determination of the set-points. Parameter estimation being sensitive to the presence of outliers, which is common in this type of process operating in highly disturbed environment, the proposed method has been made robust to the presence of these errors by including in the estimation method, the notion of contaminated statistical distribution.The model of the converter was based on the principles of mass and energy conservation, but also on chemical equilibrium relationships for which some parameters are not well known that fully justifies the proposed approach. The variable and parameter estimates provide a more accurate picture of the actual state of the system which facilitates its control. Applied to the BOF, this method allows the updating of the model used for the preset. In addition, monitoring the evolution of some model parameters can be used to evaluate the degradation level of the system (eg, damage to the refractory of the converter)
|
7 |
Application de la validation de données dynamiques au suivi de performance d'un procédéUllrich, Christophe 17 October 2010 (has links)
La qualité des mesures permettant de suivre l'évolution de procédés chimiques ou pétrochimiques peut affecter de manière significative leur conduite. Malheureusement, toute mesure est entachée d'erreur. Les erreurs présentes dans les données mesurées peuvent mener à des dérives significatives dans la conduite du procédé, ce qui peut avoir des effets néfastes sur la sécurité du procédé ou son rendement. La validation de données est une tâche très importante car elle transforme l'ensemble des données disponibles en un jeu cohérent de valeurs définissant l'état du procédé. La validation de données permet de corriger les mesures, d'estimer les valeurs des variables non mesurées et de calculer les incertitudes a posteriori de toutes les variables. À l'échelle industrielle, elle est régulièrement appliquée à des procédés fonctionnant en continu, représentés par des modèles stationnaires. Cependant, pour le suivi de phénomènes transitoires, les algorithmes de validation stationnaires ne sont plus efficaces. L'étude abordée dans le cadre de cette thèse est l'application de la validation de données dynamiques au suivi des performances des procédés chimiques.
L'algorithme de validation de données dynamiques développé dans le cadre de cette thèse, est basé sur une résolution simultanée du problème d'optimisation et des équations du modèle. Les équations différentielles sont discrétisées par une méthode des résidus pondérés : les collocations orthogonales. L'utilisation de la méthode des fenêtres de temps mobiles permet de conserver un problème de dimension raisonnable. L'algorithme d'optimisation utilisé est un algorithme "Successive Quadratic Programming" à point intérieur. L'algorithme de validation de données dynamiques développé a permis la réduction de l'incertitude des estimées.
Les exemples étudiés sont présentés du plus simple au plus complexe. Les premiers modèles étudiés sont des cuves de stockages interconnectées. Ce type de modèle est composé uniquement de bilans de matière. Les modèles des exemples suivants, des réacteurs chimiques, sont composés des bilans de matière et de chaleur. Le dernier modèle étudié est un ballon de séparation liquide vapeur. Ce dernier est composé de bilans de matière et de chaleur couplés à des phénomènes d'équilibre liquide-vapeur.
L'évaluation de la matrice de sensibilité et du calcul des variances a posteriori a été étendue aux procédés représentés par des modèles dynamiques. Son application a été illustrée par plusieurs exemples. La modification des paramètres de fenêtre de validation influence la redondance dans celle-ci et donc le facteur de réduction de variances a posteriori. Les développements proposés dans ce travail offrent donc un critère rationnel de choix de la taille de fenêtre pour les applications de validation de données dynamiques.
L'intégration d'estimateurs alternatifs dans l'algorithme permet d'en augmenter la robustesse. En effet, ces derniers permettent l'obtention d'estimées non-biaisées en présence d'erreurs grossières dans les mesures.
Organisation de la thèse :
La thèse débute par un chapitre introductif présentant le problème, les objectifs de la recherche ainsi que le plan du travail.
La première partie de la thèse est consacrée à l'état de l'art et au développement théorique d'une méthode de validation de données dynamiques. Elle est organisée de la manière suivante :
-Le premier chapitre est consacré à la validation de données stationnaires. Il débute en montrant le rôle joué par la validation de données dans le contrôle des procédés. Les différents types d'erreurs de mesure et de redondances sont ensuite présentés. Différentes méthodes de résolution de problèmes stationnaires linéaires et non linéaires sont également explicitées. Ce premier chapitre se termine par la description d'une méthode de calcul des variances a posteriori.
-Dans le deuxième chapitre, deux catégories des méthodes de validation de données dynamiques sont présentées : les méthodes de filtrage et les méthodes de programmation non-linéaire. Pour chaque type de méthode, les principales formulations trouvées dans la littérature sont exposées avec leurs principaux avantages et inconvénients.
-Le troisième chapitre est consacré au développement théorique de l'algorithme de validation de données dynamiques mis au point dans le cadre de cette thèse. Les différents choix stratégiques effectués y sont également présentés. L'algorithme choisi se base sur une formulation du problème d'optimisation comprenant un système d'équations algébro-différentielles. Les équations différentielles sont discrétisées au moyen d'une méthode de collocations orthogonales utilisant les polynômes d'interpolation de Lagrange. Différentes méthodes de représentation des variables d'entrée sont discutées. Afin de réduire les coûts de calcul et de garder un problème d'optimisation résoluble, la méthode des fenêtres de temps mobiles est utilisée. Un algorithme "Interior Point Sucessive Quadratic Programming" est utilisé afin de résoudre de manière simultanée les équations différentielles discrétisées et les équations du modèle. Les dérivées analytiques du gradient de la fonction objectif et du Jacobien des contraintes sont également présentées dans ce chapitre. Pour terminer, un critère de qualité permettant de comparer les différentes variantes de l'algorithme est proposé.
-Cette première partie se termine par le développement d'un algorithme original de calcul des variances a posteriori. La méthode développée dans ce chapitre est similaire à la méthode décrite dans le premier chapitre pour les procédés fonctionnant de manière stationnaire. Le développement est réalisé pour les deux représentations des variables d'entrée discutées au chapitre 3. Pour terminer le chapitre, cette méthode de calcul des variances a posteriori est appliquée de manière théorique sur un petit exemple constitué d'une seule équation différentielle et d'une seule équation de liaison.
La seconde partie de la thèse est consacrée à l'application de l'algorithme de validation de données dynamiques développé dans la première partie à l'étude de plusieurs cas. Pour chacun des exemples traités, l'influence des paramètres de l'algorithme sur la robustesse, la facilité de convergence et la réduction de l'incertitude des estimées est examinée. La capacité de l'algorithme à réduire l'incertitude des estimées est évaluée au moyen du taux de réduction d'erreur et du facteur de réduction des variances.
-Le premier chapitre de cette deuxième partie est consacré à l'étude d'une ou plusieurs cuves de stockage à niveau variable, avec ou sans recyclage de fluide. Ce premier cas comporte uniquement des bilans de matière.
- Le chapitre 6 examine le cas d'un réacteur à cuve agitée avec échange de chaleur. L'exemple traité dans ce chapitre est donc constitué de bilans de matière et d'énergie.
-L'étude d'un ballon flash au chapitre 7 permet de prendre en compte les équilibres liquide-vapeur.
- Le chapitre 8 est consacré aux estimateurs robustes dont la performance est comparée pour les exemples étudiés aux chapitres 5 et 6.
La thèse se termine par un chapitre consacré à la présentation des conclusions et de quelques perspectives futures.
|
8 |
Error detection in wastewater treatment plants using mass balancesKarlsson, Maja January 2018 (has links)
Process data from wastewater treatment plants are often corrupted by errors. These data provide a basis for operating the plant, therefore effort should be made to improve the data quality. Currently, Stockholm Vatten och Avfall uses a method where they quantitatively verify water flow measurement data by comparing it to water level measurements. In this thesis, an alternative approach based on mass balancing to detect errors was evaluated. The aim was to find, implement and evaluate a mass balance based method to detect and locate errors. The objective was to use this method to corroborate the flow verification method used by Stockholm Vatten och Avfall, and to improve flow data from Bromma Wastewater treatment plant. The chosen method consisted of two major steps, gross error detection and data reconciliation. A case study was performed where the method was tested on both simulated data with known added errors, real process data and finally a case where the suggested method was compared to the flow verification method. The results showed that this method was efficient in detecting a gross error when only one flow measurement was erroneous and that the estimation of the error magnitude was good. However, the suggested method was not useful for corroboration of the flow verification method. With the flow verification method, the flow in one filter basin at the time was examined. The suggested method required the combined flow in all 24 filter basins, which made it difficult to compare the two methods. The method has potential to be valuable for error detection in wastewater treatment plants, and to be used as a live tool to detect gross errors.
|
9 |
Desenvolvimento de um software para reconciliação de dados de processos quimicos e petroquimicos / Development of software for data reconciliation of chemical and petrochemical processesBarbosa, Agremis Guinho 11 June 2003 (has links)
Orientador: Rubens Maciel Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-10T21:51:34Z (GMT). No. of bitstreams: 1
Barbosa_AgremisGuinho_M.pdf: 1501070 bytes, checksum: c20fd373ba5e239e2b783608aebbc7f2 (MD5)
Previous issue date: 2003 / Resumo: O objetivo deste trabalho é o desenvolvimento de rotinas computacionais para o condicionamento de dados provenientes de um processo químico, de modo que estes sejam consistentes para a representação do comportamento do processo. A descrição adequada do comportamento de um processo é a base fundamental de qualquer sistema de controle e/ou otimização, uma vez que será em resposta às medições deste processo (sua descrição) que os referidos sistemas atuarão. Desta forma o tratamento e correção dos erros de medição, especificamente, e a estimativa de parâmetros, de um modo mais geral, constituem uma etapa que não deve ser negligenciada no controle e otimização de processos. O condicionamento de dados estudado neste trabalho é a reconciliação de dados, que tem como característica principal o uso de um modelo de restrições para condicionar a informação. Geralmente os modelos de restrição são balanços de massa e energia e os somatórios das frações mássicas e molares, mas outros modelos também podem ser usados. Matematicamente, a reconciliação de dados é um problema de otimização sujeito a restrições. Neste trabalho, a formulação do problema de reconciliação é a dos mínimos quadrados ponderados sujeito a restrições e a abordagem para a sua solução é a fatoração QR. Objetiva-se também reunir as rotinas desenvolvidas em uma única ferramenta computacional para a descrição, resolução e análise dos resultados do problema de reconciliação de dados, constituindo-se em um software de fácil utilização e que tenha ainda um mecanismo de comunicação com banco de dados, conferindo-lhe interatividade em tempo real com sistemas de aquisição de dados de processo / Abstract: The purpose of this work is the development of computational routines for conditioning chemical process data in order to represent the process behavior as reliable as possible. Reliable process description is fundamental for any control or optimization system development, since they respond to the process measurements (its description). Thus, data conditioning and correction of process measurement errors, and parameter estimation are a step that should not be neglected in process control and optimization.
The data conditioning considered in this work is data reconciliation which has as the main characteristic the use of a constraint model. In general constraint models are mass and energy balances and mass and molar fraction summation, but other models may be used.
Under a mathematical point of view, data reconciliation is an optimization subject to constraints. In this work, it is used the formulation of weighed least squares subject to constraints and QR factorization approach to solve the problem. The additional objective of this work is to accommodate the developed routines in such a way to build up an integrated computational tool characterized by its easy to use structure, capability to solve and perform data reconciliation. Its structure takes into account the interaction with data bank, giving it real time interactiveness with process data acquisition systems / Mestrado / Desenvolvimento de Processos Químicos / Mestre em Engenharia Química
|
10 |
Výpočtový systém pro vyhodnocení výrobních ukazatelů spaloven komunálních odpadů / Computational tool for processing of production data from waste-to-energy systemsMachát, Ondřej January 2013 (has links)
This thesis contains evaluation of crucial operational indicators of a waste-to-energy plant. Above all, it is lower heating value of municipal solid waste and boiler efficiency. An approach for evaluation improvement by mathematical methods is proposed. The approach is implemented in a computational tool developed in Microsoft Excel. The approach is tested and subsequently used for operational data from a real waste-to-energy plant.
|
Page generated in 0.073 seconds