1 |
Bayesian Methods for On-Line Gross Error Detection and CompensationGonzalez, Ruben 11 1900 (has links)
Data reconciliation and gross error detection are traditional methods toward detecting mass balance inconsistency within process instrument data. These methods use a static approach for statistical evaluation. This thesis is concerned with using an alternative statistical approach (Bayesian statistics) to detect mass balance inconsistency in real time.
The proposed dynamic Baysian solution makes use of a state space process model which incorporates mass balance relationships so that a governing set of mass balance variables can be estimated using a Kalman filter. Due to the incorporation of mass balances, many model parameters are defined by first principles. However, some parameters, namely the observation and state covariance matrices, need to be estimated from process data before the dynamic Bayesian methods could be applied. This thesis makes use of Bayesian machine learning techniques to estimate these parameters, separating process disturbances from instrument measurement noise. / Process Control
|
2 |
Bayesian Methods for On-Line Gross Error Detection and CompensationGonzalez, Ruben Unknown Date
No description available.
|
3 |
Robust Process Monitoring for Continuous Pharmaceutical ManufacturingMariana Moreno (5930069) 03 January 2019 (has links)
<p>Robust process monitoring in
real-time is a challenge for Continuous Pharmaceutical Manufacturing. Sensors
and models have been developed to help to make process monitoring more robust,
but they still need to be integrated in real-time to produce reliable estimates
of the true state of the process. Dealing with random and gross errors in the
process measurements in a systematic way is a potential solution. In this work,
we present such a systematic framework, which for a given sensor network and
measurement uncertainties will predict the most likely state of the process. As
a result, real-time process decisions, whether for process control, exceptional
events management or process optimization can be based on the most reliable
estimate of the process state.</p><p><br></p><p></p><p>Data reconciliation (DR) and gross
error detection (GED) have been developed to accomplish robust process
monitoring. DR and GED mitigate the effects of random measurement errors and
non-random sensor malfunctions. This methodology has been used for decades in
other industries (i.e., Oil and Gas), but it has yet to be applied to the
Pharmaceutical Industry. Steady-state data reconciliation (SSDR) is the
simplest forms of DR but offers the benefits of short computational times. However,
it requires the sensor network to be redundant (i.e., the number of
measurements has to be greater than the degrees of freedom).</p><p><br></p><p>In this dissertation, the SSDR
framework is defined and implemented it in two different continuous tableting
lines: direct compression and dry granulation. The results for two pilot plant
scales via continuous direct compression tableting line are reported in this
work. The two pilot plants had different equipment and sensor configurations.
The results for the dry granulation continuous tableting line studies were also
reported on a pilot-plant scale in an end-to-end operation. New measurements
for the dry granulation continuous tableting line are also proposed in this
work.</p><p><br></p><p></p><p>A comparison is made for the
model-based DR approach (SSDR-M) and the purely data-driven approach (SSDR-D)
based on the use of principal component constructions. If the process is linear or mildly nonlinear,
SSDR-M and SSDR-D give comparable results for the variables estimation and GED.
The reconciled measurement values generate using SSDR-M satisfy the model
equations and can be used together with the model to estimate unmeasured
variables. However, in the presence of nonlinearities, the SSDR-M and SSDR-D will
differ. SSDR successfully estimates the real state of the process in the
presence of gross errors, as long as steady-state is maintained and the
redundancy requirement is met. Gross errors are also detected whether using
SSDR-M or SSDR-D. </p><p><br></p>
|
4 |
On the On-line Tools for Treatment of Deterioration in Industrial ProcessesKarlsson, Christer January 2008 (has links)
For industrial processes high availability and efficiency are important goals in plant operation. This thesis presents studies and development of tools for on-line treatment of process deterioration and model and sensor errors in order to achieve these goals. Deterioration of measurement devices, process components and process models has caused economical losses, plant failure and human losses. The development of on-line methods to prevent such losses is of special interest and has been conducted at The Department of Energy Technology, Mälardalen University. Important technological obstacles to implementing automatic on-line methods have been identified, such as data selection for adaptation and adaptation of data-driven models to new states. A new method has been developed for decision support by combining artificial intelligence methods and heat and mass balance models, and concepts are proposed for decision support in order to detect developing faults and to conduct appropriate maintenance actions. The methods have been implemented in simulation environment and evaluated on real process data when available. The results can be sumarised as successful development of a decision support method on a steam turbine by combining artificial neural networks and Bayesian networks, and identification of important obstacles for automation of methods for adaptation of heat and mass balance process models and data-driven models when they are subject to deterioration.
|
5 |
The use of classification methods for gross error detection in process dataGerber, Egardt 12 1900 (has links)
Thesis (MScEng)-- Stellenbosch University, 2013. / ENGLISH ABSTRACT: All process measurements contain some element of error. Typically, a distinction is made between
random errors, with zero expected value, and gross errors with non-zero magnitude. Data Reconciliation
(DR) and Gross Error Detection (GED) comprise a collection of techniques designed to attenuate
measurement errors in process data in order to reduce the effect of the errors on subsequent use of the
data. DR proceeds by finding the optimum adjustments so that reconciled measurement data satisfy
imposed process constraints, such as material and energy balances. The DR solution is optimal under
the assumed statistical random error model, typically Gaussian with zero mean and known covariance.
The presence of outliers and gross errors in the measurements or imposed process constraints invalidates
the assumptions underlying DR, so that the DR solution may become biased. GED is required to detect,
identify and remove or otherwise compensate for the gross errors. Typically GED relies on formal
hypothesis testing of constraint residuals or measurement adjustment-based statistics derived from the
assumed random error statistical model.
Classification methodologies are methods by which observations are classified as belonging to one of
several possible groups. For the GED problem, artificial neural networks (ANN’s) have been applied
historically to resolve the classification of a data set as either containing or not containing a gross error.
The hypothesis investigated in this thesis is that classification methodologies, specifically classification
trees (CT) and linear or quadratic classification functions (LCF, QCF), may provide an alternative to the
classical GED techniques.
This hypothesis is tested via the modelling of a simple steady-state process unit with associated
simulated process measurements. DR is performed on the simulated process measurements in order to
satisfy one linear and two nonlinear material conservation constraints. Selected features from the DR
procedure and process constraints are incorporated into two separate input vectors for classifier
construction. The performance of the classification methodologies developed on each input vector is
compared with the classical measurement test in order to address the posed hypothesis.
General trends in the results are as follows: - The power to detect and/or identify a gross error is a strong function of the gross error magnitude
as well as location for all the classification methodologies as well as the measurement test.
- For some locations there exist large differences between the power to detect a gross error and the
power to identify it correctly. This is consistent over all the classifiers and their associated
measurement tests, and indicates significant smearing of gross errors.
- In general, the classification methodologies have higher power for equivalent type I error than
the measurement test.
- The measurement test is superior for small magnitude gross errors, and for specific locations,
depending on which classification methodology it is compared with.
There is significant scope to extend the work to more complex processes and constraints, including
dynamic processes with multiple gross errors in the system. Further investigation into the optimal
selection of input vector elements for the classification methodologies is also required. / AFRIKAANSE OPSOMMING: Alle prosesmetings bevat ʼn sekere mate van metingsfoute. Die fout-element van ʼn prosesmeting word
dikwels uitgedruk as bestaande uit ʼn ewekansige fout met nul verwagte waarde, asook ʼn nie-ewekansige
fout met ʼn beduidende grootte. Data Rekonsiliasie (DR) en Fout Opsporing (FO) is ʼn versameling van
tegnieke met die doelwit om die effek van sulke foute in prosesdata op die daaropvolgende aanwending
van die data te verminder. DR word uitgevoer deur die optimale veranderinge aan die oorspronklike
prosesmetings aan te bring sodat die aangepaste metings sekere prosesmodelle gehoorsaam, tipies
massa- en energie-balanse. Die DR-oplossing is optimaal, mits die statistiese aannames rakende die
ewekansige fout-element in die prosesdata geldig is. Dit word tipies aanvaar dat die fout-element
normaal verdeel is, met nul verwagte waarde, en ʼn gegewe kovariansie matriks.
Wanneer nie-ewekansige foute in die data teenwoordig is, kan die resultate van DR sydig wees. FO is
daarom nodig om nie-ewekansige foute te vind (Deteksie) en te identifiseer (Identifikasie). FO maak
gewoonlik staat op die statistiese eienskappe van die meting aanpassings wat gemaak word deur die DR
prosedure, of die afwykingsverskil van die model vergelykings, om formele hipoteses rakende die
teenwoordigheid van nie-ewekansige foute te toets.
Klassifikasie tegnieke word gebruik om die klasverwantskap van observasies te bepaal. Rakende die FO
probleem, is sintetiese neurale netwerke (SNN) histories aangewend om die Deteksie en Identifikasie
probleme op te los. Die hipotese van hierdie tesis is dat klassifikasie tegnieke, spesifiek klassifikasiebome
(CT) en lineêre asook kwadratiese klassifikasie funksies (LCF en QCF), suksesvol aangewend
kan word om die FO probleem op te los.
Die hipotese word ondersoek deur middel van ʼn simulasie rondom ʼn eenvoudige gestadigde toestand
proses-eenheid wat aan een lineêre en twee nie-lineêre vergelykings onderhewig is. Kunsmatige
prosesmetings word geskep met behulp van lukrake syfers sodat die foutkomponent van elke
prosesmeting bekend is. DR word toegepas op die kunsmatige data, en die DR resultate word gebruik
om twee verskillende insetvektore vir die klassifikasie tegnieke te skep. Die prestasie van die
klassifikasie metodes word vergelyk met die metingstoets van klassieke FO ten einde die gestelde
hipotese te beantwoord. Die onderliggende tendense in die resultate is soos volg:
- Die vermoë om ‘n nie-ewekansige fout op te spoor en te identifiseer is sterk afhanklik van die
grootte asook die ligging van die fout vir al die klassifikasie tegnieke sowel as die metingstoets.
- Vir sekere liggings van die nie-ewekansige fout is daar ‘n groot verskil tussen die vermoë om die
fout op te spoor, en die vermoë om die fout te identifiseer, wat dui op smering van die fout. Al
die klassifikasie tegnieke asook die metingstoets baar hierdie eienskap.
- Oor die algemeen toon die klassifikasie metodes groter sukses as die metingstoets.
- Die metingstoets is meer suksesvol vir relatief klein nie-ewekansige foute, asook vir sekere
liggings van die nie-ewekansige fout, afhangende van die klassifikasie tegniek ter sprake.
Daar is verskeie maniere om die bestek van hierdie ondersoek uit te brei. Meer komplekse, niegestadigde
prosesse met sterk nie-lineêre prosesmodelle en meervuldige nie-ewekansige foute kan
ondersoek word. Die moontlikheid bestaan ook om die prestasie van klassifikasie metodes te verbeter
deur die gepaste keuse van insetvektor elemente.
|
6 |
A systems engineering approach to metallurgical accounting of integrated smelter complexesMtotywa, Busisiwe Percelia, Lyman, G. J. 12 1900 (has links)
Thesis (PhD)--Stellenbosch University, 2008. / ENGLISH ABSTRACT: The growing need to improve accounting accuracy, precision and to standardise
generally accepted measurement methods in the mining and processing industries
has led to the joining of a number of organisations under the AMIRA International
umbrella, with the purpose of fulfilling these objectives. As part of this venture,
Anglo Platinum undertook a project on the material balancing around its largest
smelter, the Waterval Smelter.
The primary objective of the project was to perform a statistical material balance
around the Waterval Smelter using the Maximum Likelihood method with respect
to platinum, rhodium, nickel, sulphur and chrome (III) oxide.
Pt, Rh and Ni were selected for their significant contribution to the company’s profit
margin, whilst S was included because of its environmental importance. Cr2O3 was
included for its importance in as far as the difficulties its presence poses in
smelting of PGMs.
The objective was achieved by performing a series of statistical computations.
These include; quantification of total and analytical uncertainties, detection of
outliers, estimation and modelling of daily and monthly measurement uncertainties,
parameter estimation and data reconciliation. Comparisons were made between
the Maximum Likelihood and Least Squares methods.
Total uncertainties associated with the daily grades were determined by use of
variographic studies. The estimated Pt standard deviations were within 10%
relative to the respective average grades with a few exceptions. The total
uncertainties were split into their respective components by determining analytical variances from analytical replicates. The results indicated that the sampling
components of the total uncertainty were generally larger as compared to their
analytical counterparts. WCM, the platinum rich Waterval smelter product, has an
uncertainty that is worth ~R2 103 000 in its daily Pt grade. This estimated figure
shows that the quality of measurements do not only affect the accuracy of metal
accounting, but can have considerable implications if not quantified and managed.
The daily uncertainties were estimated using Kriging and bootstrapped to obtain
estimates for the monthly uncertainties. Distributions were fitted using MLE on the
distribution fitting tool of the JMP6.0 programme and goodness of fit tests were
performed. The data were fitted with normal and beta distributions, and there was
a notable decrease in the skewness from the daily to the monthly data.
The reconciliation of the data was performed using the Maximum Likelihood and
comparing that with the widely used Least Squares. The Maximum Likelihood and
Least Squares adjustments were performed on simulated data in order to conduct
a test of accuracy and to determine the extent of error reduction after the
reconciliation exercise. The test showed that the two methods had comparable
accuracies and error reduction capabilities. However, it was shown that modelling
of uncertainties with the unbounded normal distribution does lead to the estimation
of adjustments so large that negative adjusted values are the result. The benefit of
modelling the uncertainties with a bounded distribution, which is the beta
distribution in this case, is that the possibility of obtaining negative adjusted values
is annihilated. ML-adjusted values (beta) will always be non-negative, therefore
feasible. In a further comparison of the ML(bounded model) and the LS methods in
the material balancing of the Waterval smelter complex, it was found that for all
those streams whose uncertainties were modelled with a beta distribution, i.e.
those whose distribution possessed some degree of skewness, the ML
adjustments were significantly smaller than the LS counterparts
It is therefore concluded that the Maximum Likelihood (bounded models) is a
rigorous alternative method of data reconciliation to the LS method with the benefits of; -- Better estimates due to the fact that the nature of the data (distribution) is not assumed, but determined through distribution fitting and parameter estimation
-- Adjusted values can never be negative due to the bounded nature of the
distribution
The novel contributions made in this thesis are as follows;
-- The Maximum Likelihood method was for the first time employed in the
material balancing of non-normally distributed data and compared with the
well-known Least Squares method
-- This was an original integration of geostatistical methods with data
reconciliation to quantify and predict measurement uncertainties.
-- For the first time, measurement uncertainties were modeled with a
distribution that was non-normal and bounded in nature, leading to smaller
adjustments / AFRIKAANSE OPSOMMING: Die groeiende behoefte aan rekeningkundige akkuraatheid, en om presisie te
verbeter, en te standardiseer op algemeen aanvaarde meetmetodes in die mynbou
en prosesseringsnywerhede, het gelei tot die samwewerking van 'n aantal van
organisasies onder die AMIRA International sambreel, met die doel om
bogenoemde behoeftes aan te spreek. As deel van hierdie onderneming, het
Anglo Platinum onderneem om 'n projek op die materiaal balansering rondom sy
grootste smelter, die Waterval smelter.
Die primêre doel van die projek was om 'n statistiese materiaal balans rondom die
Waterval smelter uit te voer deur gebruik te maak van die sogenaamde maksimum
waarskynlikheid metode met betrekking tot platinum, rodium, nikkel, swawel en
chroom (iii) oxied.
Pt, Rh en Ni was gekies vir hul beduidende bydrae tot die maatskappy se
winsmarge, terwyl S ingesluit was weens sy belangrike omgewingsimpak. Cr2O3
was ingesluit weens sy impak op die smelting van Platinum groep minerale.
Die doelstelling was bereik deur die uitvoering van 'n reeks van statistiese
berekeninge. Hierdie sluit in: die kwantifisering van die totale en analitiese
variansies, opsporing van uitskieters, beraming en modellering van daaglikse en
maandelikse metingsvariansies, parameter beraming en data rekonsiliasie.
Vergelykings was getref tussen die maksimum waarskynlikheid en kleinste
kwadrate metodes.
Totale onsekerhede of variansies geassosieer met die daaglikse grade was bepaal
deur ’n Variografiese studie. Die beraamde Pt standaard afwykings was binne 10% relatief tot die onderskeie gemiddelde grade met sommige uitsonderings. Die totale
onsekerhede was onderverdeel in hul onderskeie komponente deur bepaling van
die ontledingsvariansies van duplikate. Die uitslae toon dat die monsternemings
komponente van die totale onsekerheid oor die algemeen groter was as hul
bypassende analitiese variansies. WCM, ‘n platinum-ryke Waterval Smelter
produk, het 'n onsekerheid in die orde van ~twee miljoen rand in sy daagliks Pt
graad. Hierdie beraamde waarde toon dat die kwaliteit van metings nie alleen die
akkuraatheid van metaal rekeningkunde affekteer nie, maar aansienlike finansiële
implikasies het indien nie die nie gekwantifiseer en bestuur word nie.
Die daagliks onsekerhede was beraam deur gebruik te maak van “Kriging” en
“Bootstrap” metodes om die maandelikse onsekerhede te beraam. Verspreidings
was gepas deur gebruik te maak van hoogste waarskynlikheid beraming passings
en goedheid–van-pas toetse was uitgevoer. Die data was gepas met Normaal en
Beta verspreidings, en daar was 'n opmerklike vermindering in die skeefheid van
die daaglikse tot die maandeliks data.
Die rekonsiliasies van die massabalans data was uitgevoer deur die gebruik die
maksimum waarskynlikheid metodes en vergelyk daardie met die algemeen
gebruikde kleinste kwadrate metode. Die maksimum waarskynlikheid (ML) en
kleinste kwadrate (LS) aanpassings was uitgevoer op gesimuleerde data ten einde
die akkuraatheid te toets en om die mate van fout vermindering na die rekonsiliasie
te bepaal. Die toets getoon dat die twee metodes het vergelykbare akkuraathede
en foutverminderingsvermoëns. Dit was egter getoon dat modellering van die
onsekerhede met die onbegrensde Normaal verdeling lei tot die beraming van
aanpassings wat so groot is dat negatiewe verstelde waardes kan onstaan na
rekosniliasie. Die voordeel om onsekerhede met 'n begrensde distribusie te
modelleer, soos die beta distribusie in hierdie geval, is dat die moontlikheid om
negatiewe verstelde waardes te verkry uitgelsuit word. ML-verstelde waardes (met
die Beta distribusie funksie) sal altyd nie-negatief wees, en om hierdie rede
uitvoerbaar. In 'n verdere vergelyking van die ML (begrensd) en die LS metodes in
die materiaal balansering van die waterval smelter kompleks, is dit gevind dat vir
almal daardie strome waarvan die onserkerhede gesimuleer was met 'n Beta distribusie, dus daardie strome waarvan die onsekerheidsdistribusie ‘n mate van
skeefheid toon, die ML verstellings altyd beduidend kleiner was as die
ooreenkomstige LS verstellings. Vervolgens word die Maksimum Waarskynlikheid
metode (met begrensde modelle) gesien as 'n beter alternatiewe metode van data
rekosiliasie in vergelyking met die kleinste kwadrate metode met die voordele van:
• Beter beramings te danke aan die feit dat die aard van die
onsekerheidsdistribusie nie aangeneem word nie, maar bepaal is deur die
distribusie te pas en deur van parameter beraming gebruik te maak.
• Die aangepaste waardes kan nooit negatief wees te danke aan die begrensde
aard van die verdeling.
Die volgende oorspronklike bydraes is gelewer in hierdie verhandeling:
• Die Maksimum Waarskynlikheid metode was vir die eerste keer geëvalueer vir
massa balans rekonsiliasie van nie-Normaal verspreide data en vergelyk met die
bekendde kleinste kwadrate metode.
• Dit is die eerste keer geostatistiese metodes geïntegreer is met data rekonsiliasie
om onsekerhede te beraam waarbinne verstellings gemaak word.
• Vir die eerste keer, is meetonsekerhede gemoddelleer met 'n distribusie wat nie-
Normaal en begrensd van aard is, wat lei tot kleiner en meer realistiese verstellings.
|
7 |
Réconciliation de données en présence d’incertitudes de modèle. : application au convertisseur à oxygène / Data reconciliation with uncertain model : application to the basic oxygen furnaceFrancken, Julien 05 July 2010 (has links)
Dans le domaine sidérurgique, l'ajustement des commandes de préréglage est un problème courant. L'objectif des systèmes de commande est d'obtenir des produits de qualité imposée. On observe cependant fréquemment des variations de comportement d'un lot à l'autre, ce qui nécessite de modifier les paramètres des modèles employés pour les préréglages suivants. Cela est particulièrement vrai pour le convertisseur à oxygène où les informations rassemblées pendant une coulée spécifique servent à ajuster les points de consigne de la coulée suivante.Dans cette thèse, nous présentons une méthode de validation de données s'appuyant sur un modèle incertain. Les incertitudes portant sur les mesures des variables et sur la connaissance des paramètres du modèle sont simultanément prises en compte pour fournir des estimées cohérentes qui pourront être mises à profit par le système de contrôle-commande du convertisseur à oxygène. L'estimation paramétrique étant sensible à la présence de mesures aberrantes , la méthode proposée a été rendue robuste à la présence de ces informations erronées par la prise en compte, dans la méthode d'estimation, de la notion de distribution statistique contaminée.Le modèle du convertisseur a été établi sur la base des principes de conservation de masse et d'énergie, mais aussi sur des relations d'équilibre chimique pour lesquelles certains paramètres sont assez mal connus ce qui justifie pleinement l'approche utilisée. Les estimations des variables et des paramètres fournissent une image plus juste de l'état réel du système ce qui en facilite la conduite. Appliquée au convertisseur à oxygène, cette méthode permet l'actualisation du modèle de calcul de charge utile au préréglage. De plus, le suivi de l'évolution de certains paramètres du modèle permet d'évaluer un niveau de dégradation du système (par exemple, l'endommagement du réfractaire de la poche / In the steel industry, tuning the control system set-points in order to reach given product specification is a common problem. The control system objective is to obtain products satisfying the given specifications. There are however frequent changes in the behavior from one batch to another, thus requiring the modification of model parameters used for the following presets. This is particularly true for the Basic Oxygen Furnace (BOF) where the information collected during a specific batch serves to adjust the set-points of the next batch.In this thesis, we proposed a method allowing simultaneously robust data reconciliation and model parameter estimation. This approach is original because the current data validation methods make the assumption that the system model is known perfectly. Here, the uncertainties on the measurements of variables and on the knowledge of the model parameters are simultaneously taken into account to provide consistent estimates that can be utilized by the control system of the BOF, especially for the determination of the set-points. Parameter estimation being sensitive to the presence of outliers, which is common in this type of process operating in highly disturbed environment, the proposed method has been made robust to the presence of these errors by including in the estimation method, the notion of contaminated statistical distribution.The model of the converter was based on the principles of mass and energy conservation, but also on chemical equilibrium relationships for which some parameters are not well known that fully justifies the proposed approach. The variable and parameter estimates provide a more accurate picture of the actual state of the system which facilitates its control. Applied to the BOF, this method allows the updating of the model used for the preset. In addition, monitoring the evolution of some model parameters can be used to evaluate the degradation level of the system (eg, damage to the refractory of the converter)
|
8 |
Application de la validation de données dynamiques au suivi de performance d'un procédéUllrich, Christophe 17 October 2010 (has links)
La qualité des mesures permettant de suivre l'évolution de procédés chimiques ou pétrochimiques peut affecter de manière significative leur conduite. Malheureusement, toute mesure est entachée d'erreur. Les erreurs présentes dans les données mesurées peuvent mener à des dérives significatives dans la conduite du procédé, ce qui peut avoir des effets néfastes sur la sécurité du procédé ou son rendement. La validation de données est une tâche très importante car elle transforme l'ensemble des données disponibles en un jeu cohérent de valeurs définissant l'état du procédé. La validation de données permet de corriger les mesures, d'estimer les valeurs des variables non mesurées et de calculer les incertitudes a posteriori de toutes les variables. À l'échelle industrielle, elle est régulièrement appliquée à des procédés fonctionnant en continu, représentés par des modèles stationnaires. Cependant, pour le suivi de phénomènes transitoires, les algorithmes de validation stationnaires ne sont plus efficaces. L'étude abordée dans le cadre de cette thèse est l'application de la validation de données dynamiques au suivi des performances des procédés chimiques.
L'algorithme de validation de données dynamiques développé dans le cadre de cette thèse, est basé sur une résolution simultanée du problème d'optimisation et des équations du modèle. Les équations différentielles sont discrétisées par une méthode des résidus pondérés : les collocations orthogonales. L'utilisation de la méthode des fenêtres de temps mobiles permet de conserver un problème de dimension raisonnable. L'algorithme d'optimisation utilisé est un algorithme "Successive Quadratic Programming" à point intérieur. L'algorithme de validation de données dynamiques développé a permis la réduction de l'incertitude des estimées.
Les exemples étudiés sont présentés du plus simple au plus complexe. Les premiers modèles étudiés sont des cuves de stockages interconnectées. Ce type de modèle est composé uniquement de bilans de matière. Les modèles des exemples suivants, des réacteurs chimiques, sont composés des bilans de matière et de chaleur. Le dernier modèle étudié est un ballon de séparation liquide vapeur. Ce dernier est composé de bilans de matière et de chaleur couplés à des phénomènes d'équilibre liquide-vapeur.
L'évaluation de la matrice de sensibilité et du calcul des variances a posteriori a été étendue aux procédés représentés par des modèles dynamiques. Son application a été illustrée par plusieurs exemples. La modification des paramètres de fenêtre de validation influence la redondance dans celle-ci et donc le facteur de réduction de variances a posteriori. Les développements proposés dans ce travail offrent donc un critère rationnel de choix de la taille de fenêtre pour les applications de validation de données dynamiques.
L'intégration d'estimateurs alternatifs dans l'algorithme permet d'en augmenter la robustesse. En effet, ces derniers permettent l'obtention d'estimées non-biaisées en présence d'erreurs grossières dans les mesures.
Organisation de la thèse :
La thèse débute par un chapitre introductif présentant le problème, les objectifs de la recherche ainsi que le plan du travail.
La première partie de la thèse est consacrée à l'état de l'art et au développement théorique d'une méthode de validation de données dynamiques. Elle est organisée de la manière suivante :
-Le premier chapitre est consacré à la validation de données stationnaires. Il débute en montrant le rôle joué par la validation de données dans le contrôle des procédés. Les différents types d'erreurs de mesure et de redondances sont ensuite présentés. Différentes méthodes de résolution de problèmes stationnaires linéaires et non linéaires sont également explicitées. Ce premier chapitre se termine par la description d'une méthode de calcul des variances a posteriori.
-Dans le deuxième chapitre, deux catégories des méthodes de validation de données dynamiques sont présentées : les méthodes de filtrage et les méthodes de programmation non-linéaire. Pour chaque type de méthode, les principales formulations trouvées dans la littérature sont exposées avec leurs principaux avantages et inconvénients.
-Le troisième chapitre est consacré au développement théorique de l'algorithme de validation de données dynamiques mis au point dans le cadre de cette thèse. Les différents choix stratégiques effectués y sont également présentés. L'algorithme choisi se base sur une formulation du problème d'optimisation comprenant un système d'équations algébro-différentielles. Les équations différentielles sont discrétisées au moyen d'une méthode de collocations orthogonales utilisant les polynômes d'interpolation de Lagrange. Différentes méthodes de représentation des variables d'entrée sont discutées. Afin de réduire les coûts de calcul et de garder un problème d'optimisation résoluble, la méthode des fenêtres de temps mobiles est utilisée. Un algorithme "Interior Point Sucessive Quadratic Programming" est utilisé afin de résoudre de manière simultanée les équations différentielles discrétisées et les équations du modèle. Les dérivées analytiques du gradient de la fonction objectif et du Jacobien des contraintes sont également présentées dans ce chapitre. Pour terminer, un critère de qualité permettant de comparer les différentes variantes de l'algorithme est proposé.
-Cette première partie se termine par le développement d'un algorithme original de calcul des variances a posteriori. La méthode développée dans ce chapitre est similaire à la méthode décrite dans le premier chapitre pour les procédés fonctionnant de manière stationnaire. Le développement est réalisé pour les deux représentations des variables d'entrée discutées au chapitre 3. Pour terminer le chapitre, cette méthode de calcul des variances a posteriori est appliquée de manière théorique sur un petit exemple constitué d'une seule équation différentielle et d'une seule équation de liaison.
La seconde partie de la thèse est consacrée à l'application de l'algorithme de validation de données dynamiques développé dans la première partie à l'étude de plusieurs cas. Pour chacun des exemples traités, l'influence des paramètres de l'algorithme sur la robustesse, la facilité de convergence et la réduction de l'incertitude des estimées est examinée. La capacité de l'algorithme à réduire l'incertitude des estimées est évaluée au moyen du taux de réduction d'erreur et du facteur de réduction des variances.
-Le premier chapitre de cette deuxième partie est consacré à l'étude d'une ou plusieurs cuves de stockage à niveau variable, avec ou sans recyclage de fluide. Ce premier cas comporte uniquement des bilans de matière.
- Le chapitre 6 examine le cas d'un réacteur à cuve agitée avec échange de chaleur. L'exemple traité dans ce chapitre est donc constitué de bilans de matière et d'énergie.
-L'étude d'un ballon flash au chapitre 7 permet de prendre en compte les équilibres liquide-vapeur.
- Le chapitre 8 est consacré aux estimateurs robustes dont la performance est comparée pour les exemples étudiés aux chapitres 5 et 6.
La thèse se termine par un chapitre consacré à la présentation des conclusions et de quelques perspectives futures.
|
9 |
Error detection in wastewater treatment plants using mass balancesKarlsson, Maja January 2018 (has links)
Process data from wastewater treatment plants are often corrupted by errors. These data provide a basis for operating the plant, therefore effort should be made to improve the data quality. Currently, Stockholm Vatten och Avfall uses a method where they quantitatively verify water flow measurement data by comparing it to water level measurements. In this thesis, an alternative approach based on mass balancing to detect errors was evaluated. The aim was to find, implement and evaluate a mass balance based method to detect and locate errors. The objective was to use this method to corroborate the flow verification method used by Stockholm Vatten och Avfall, and to improve flow data from Bromma Wastewater treatment plant. The chosen method consisted of two major steps, gross error detection and data reconciliation. A case study was performed where the method was tested on both simulated data with known added errors, real process data and finally a case where the suggested method was compared to the flow verification method. The results showed that this method was efficient in detecting a gross error when only one flow measurement was erroneous and that the estimation of the error magnitude was good. However, the suggested method was not useful for corroboration of the flow verification method. With the flow verification method, the flow in one filter basin at the time was examined. The suggested method required the combined flow in all 24 filter basins, which made it difficult to compare the two methods. The method has potential to be valuable for error detection in wastewater treatment plants, and to be used as a live tool to detect gross errors.
|
10 |
Desenvolvimento de um software para reconciliação de dados de processos quimicos e petroquimicos / Development of software for data reconciliation of chemical and petrochemical processesBarbosa, Agremis Guinho 11 June 2003 (has links)
Orientador: Rubens Maciel Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-10T21:51:34Z (GMT). No. of bitstreams: 1
Barbosa_AgremisGuinho_M.pdf: 1501070 bytes, checksum: c20fd373ba5e239e2b783608aebbc7f2 (MD5)
Previous issue date: 2003 / Resumo: O objetivo deste trabalho é o desenvolvimento de rotinas computacionais para o condicionamento de dados provenientes de um processo químico, de modo que estes sejam consistentes para a representação do comportamento do processo. A descrição adequada do comportamento de um processo é a base fundamental de qualquer sistema de controle e/ou otimização, uma vez que será em resposta às medições deste processo (sua descrição) que os referidos sistemas atuarão. Desta forma o tratamento e correção dos erros de medição, especificamente, e a estimativa de parâmetros, de um modo mais geral, constituem uma etapa que não deve ser negligenciada no controle e otimização de processos. O condicionamento de dados estudado neste trabalho é a reconciliação de dados, que tem como característica principal o uso de um modelo de restrições para condicionar a informação. Geralmente os modelos de restrição são balanços de massa e energia e os somatórios das frações mássicas e molares, mas outros modelos também podem ser usados. Matematicamente, a reconciliação de dados é um problema de otimização sujeito a restrições. Neste trabalho, a formulação do problema de reconciliação é a dos mínimos quadrados ponderados sujeito a restrições e a abordagem para a sua solução é a fatoração QR. Objetiva-se também reunir as rotinas desenvolvidas em uma única ferramenta computacional para a descrição, resolução e análise dos resultados do problema de reconciliação de dados, constituindo-se em um software de fácil utilização e que tenha ainda um mecanismo de comunicação com banco de dados, conferindo-lhe interatividade em tempo real com sistemas de aquisição de dados de processo / Abstract: The purpose of this work is the development of computational routines for conditioning chemical process data in order to represent the process behavior as reliable as possible. Reliable process description is fundamental for any control or optimization system development, since they respond to the process measurements (its description). Thus, data conditioning and correction of process measurement errors, and parameter estimation are a step that should not be neglected in process control and optimization.
The data conditioning considered in this work is data reconciliation which has as the main characteristic the use of a constraint model. In general constraint models are mass and energy balances and mass and molar fraction summation, but other models may be used.
Under a mathematical point of view, data reconciliation is an optimization subject to constraints. In this work, it is used the formulation of weighed least squares subject to constraints and QR factorization approach to solve the problem. The additional objective of this work is to accommodate the developed routines in such a way to build up an integrated computational tool characterized by its easy to use structure, capability to solve and perform data reconciliation. Its structure takes into account the interaction with data bank, giving it real time interactiveness with process data acquisition systems / Mestrado / Desenvolvimento de Processos Químicos / Mestre em Engenharia Química
|
Page generated in 0.1323 seconds