• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 4
  • 4
  • 2
  • 2
  • Tagged with
  • 27
  • 27
  • 10
  • 9
  • 8
  • 8
  • 8
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Bayesian Methods for On-Line Gross Error Detection and Compensation

Gonzalez, Ruben 11 1900 (has links)
Data reconciliation and gross error detection are traditional methods toward detecting mass balance inconsistency within process instrument data. These methods use a static approach for statistical evaluation. This thesis is concerned with using an alternative statistical approach (Bayesian statistics) to detect mass balance inconsistency in real time. The proposed dynamic Baysian solution makes use of a state space process model which incorporates mass balance relationships so that a governing set of mass balance variables can be estimated using a Kalman filter. Due to the incorporation of mass balances, many model parameters are defined by first principles. However, some parameters, namely the observation and state covariance matrices, need to be estimated from process data before the dynamic Bayesian methods could be applied. This thesis makes use of Bayesian machine learning techniques to estimate these parameters, separating process disturbances from instrument measurement noise. / Process Control
2

Bayesian Methods for On-Line Gross Error Detection and Compensation

Gonzalez, Ruben Unknown Date
No description available.
3

Robust Process Monitoring for Continuous Pharmaceutical Manufacturing

Mariana Moreno (5930069) 03 January 2019 (has links)
<p>Robust process monitoring in real-time is a challenge for Continuous Pharmaceutical Manufacturing. Sensors and models have been developed to help to make process monitoring more robust, but they still need to be integrated in real-time to produce reliable estimates of the true state of the process. Dealing with random and gross errors in the process measurements in a systematic way is a potential solution. In this work, we present such a systematic framework, which for a given sensor network and measurement uncertainties will predict the most likely state of the process. As a result, real-time process decisions, whether for process control, exceptional events management or process optimization can be based on the most reliable estimate of the process state.</p><p><br></p><p></p><p>Data reconciliation (DR) and gross error detection (GED) have been developed to accomplish robust process monitoring. DR and GED mitigate the effects of random measurement errors and non-random sensor malfunctions. This methodology has been used for decades in other industries (i.e., Oil and Gas), but it has yet to be applied to the Pharmaceutical Industry. Steady-state data reconciliation (SSDR) is the simplest forms of DR but offers the benefits of short computational times. However, it requires the sensor network to be redundant (i.e., the number of measurements has to be greater than the degrees of freedom).</p><p><br></p><p>In this dissertation, the SSDR framework is defined and implemented it in two different continuous tableting lines: direct compression and dry granulation. The results for two pilot plant scales via continuous direct compression tableting line are reported in this work. The two pilot plants had different equipment and sensor configurations. The results for the dry granulation continuous tableting line studies were also reported on a pilot-plant scale in an end-to-end operation. New measurements for the dry granulation continuous tableting line are also proposed in this work.</p><p><br></p><p></p><p>A comparison is made for the model-based DR approach (SSDR-M) and the purely data-driven approach (SSDR-D) based on the use of principal component constructions. If the process is linear or mildly nonlinear, SSDR-M and SSDR-D give comparable results for the variables estimation and GED. The reconciled measurement values generate using SSDR-M satisfy the model equations and can be used together with the model to estimate unmeasured variables. However, in the presence of nonlinearities, the SSDR-M and SSDR-D will differ. SSDR successfully estimates the real state of the process in the presence of gross errors, as long as steady-state is maintained and the redundancy requirement is met. Gross errors are also detected whether using SSDR-M or SSDR-D. </p><p><br></p>
4

On the On-line Tools for Treatment of Deterioration in Industrial Processes

Karlsson, Christer January 2008 (has links)
For industrial processes high availability and efficiency are important goals in plant operation. This thesis presents studies and development of tools for on-line treatment of process deterioration and model and sensor errors in order to achieve these goals. Deterioration of measurement devices, process components and process models has caused economical losses, plant failure and human losses. The development of on-line methods to prevent such losses is of special interest and has been conducted at The Department of Energy Technology, Mälardalen University. Important technological obstacles to implementing automatic on-line methods have been identified, such as data selection for adaptation and adaptation of data-driven models to new states. A new method has been developed for decision support by combining artificial intelligence methods and heat and mass balance models, and concepts are proposed for decision support in order to detect developing faults and to conduct appropriate maintenance actions. The methods have been implemented in simulation environment and evaluated on real process data when available. The results can be sumarised as successful development of a decision support method on a steam turbine by combining artificial neural networks and Bayesian networks, and identification of important obstacles for automation of methods for adaptation of heat and mass balance process models and data-driven models when they are subject to deterioration.
5

The use of classification methods for gross error detection in process data

Gerber, Egardt 12 1900 (has links)
Thesis (MScEng)-- Stellenbosch University, 2013. / ENGLISH ABSTRACT: All process measurements contain some element of error. Typically, a distinction is made between random errors, with zero expected value, and gross errors with non-zero magnitude. Data Reconciliation (DR) and Gross Error Detection (GED) comprise a collection of techniques designed to attenuate measurement errors in process data in order to reduce the effect of the errors on subsequent use of the data. DR proceeds by finding the optimum adjustments so that reconciled measurement data satisfy imposed process constraints, such as material and energy balances. The DR solution is optimal under the assumed statistical random error model, typically Gaussian with zero mean and known covariance. The presence of outliers and gross errors in the measurements or imposed process constraints invalidates the assumptions underlying DR, so that the DR solution may become biased. GED is required to detect, identify and remove or otherwise compensate for the gross errors. Typically GED relies on formal hypothesis testing of constraint residuals or measurement adjustment-based statistics derived from the assumed random error statistical model. Classification methodologies are methods by which observations are classified as belonging to one of several possible groups. For the GED problem, artificial neural networks (ANN’s) have been applied historically to resolve the classification of a data set as either containing or not containing a gross error. The hypothesis investigated in this thesis is that classification methodologies, specifically classification trees (CT) and linear or quadratic classification functions (LCF, QCF), may provide an alternative to the classical GED techniques. This hypothesis is tested via the modelling of a simple steady-state process unit with associated simulated process measurements. DR is performed on the simulated process measurements in order to satisfy one linear and two nonlinear material conservation constraints. Selected features from the DR procedure and process constraints are incorporated into two separate input vectors for classifier construction. The performance of the classification methodologies developed on each input vector is compared with the classical measurement test in order to address the posed hypothesis. General trends in the results are as follows: - The power to detect and/or identify a gross error is a strong function of the gross error magnitude as well as location for all the classification methodologies as well as the measurement test. - For some locations there exist large differences between the power to detect a gross error and the power to identify it correctly. This is consistent over all the classifiers and their associated measurement tests, and indicates significant smearing of gross errors. - In general, the classification methodologies have higher power for equivalent type I error than the measurement test. - The measurement test is superior for small magnitude gross errors, and for specific locations, depending on which classification methodology it is compared with. There is significant scope to extend the work to more complex processes and constraints, including dynamic processes with multiple gross errors in the system. Further investigation into the optimal selection of input vector elements for the classification methodologies is also required. / AFRIKAANSE OPSOMMING: Alle prosesmetings bevat ʼn sekere mate van metingsfoute. Die fout-element van ʼn prosesmeting word dikwels uitgedruk as bestaande uit ʼn ewekansige fout met nul verwagte waarde, asook ʼn nie-ewekansige fout met ʼn beduidende grootte. Data Rekonsiliasie (DR) en Fout Opsporing (FO) is ʼn versameling van tegnieke met die doelwit om die effek van sulke foute in prosesdata op die daaropvolgende aanwending van die data te verminder. DR word uitgevoer deur die optimale veranderinge aan die oorspronklike prosesmetings aan te bring sodat die aangepaste metings sekere prosesmodelle gehoorsaam, tipies massa- en energie-balanse. Die DR-oplossing is optimaal, mits die statistiese aannames rakende die ewekansige fout-element in die prosesdata geldig is. Dit word tipies aanvaar dat die fout-element normaal verdeel is, met nul verwagte waarde, en ʼn gegewe kovariansie matriks. Wanneer nie-ewekansige foute in die data teenwoordig is, kan die resultate van DR sydig wees. FO is daarom nodig om nie-ewekansige foute te vind (Deteksie) en te identifiseer (Identifikasie). FO maak gewoonlik staat op die statistiese eienskappe van die meting aanpassings wat gemaak word deur die DR prosedure, of die afwykingsverskil van die model vergelykings, om formele hipoteses rakende die teenwoordigheid van nie-ewekansige foute te toets. Klassifikasie tegnieke word gebruik om die klasverwantskap van observasies te bepaal. Rakende die FO probleem, is sintetiese neurale netwerke (SNN) histories aangewend om die Deteksie en Identifikasie probleme op te los. Die hipotese van hierdie tesis is dat klassifikasie tegnieke, spesifiek klassifikasiebome (CT) en lineêre asook kwadratiese klassifikasie funksies (LCF en QCF), suksesvol aangewend kan word om die FO probleem op te los. Die hipotese word ondersoek deur middel van ʼn simulasie rondom ʼn eenvoudige gestadigde toestand proses-eenheid wat aan een lineêre en twee nie-lineêre vergelykings onderhewig is. Kunsmatige prosesmetings word geskep met behulp van lukrake syfers sodat die foutkomponent van elke prosesmeting bekend is. DR word toegepas op die kunsmatige data, en die DR resultate word gebruik om twee verskillende insetvektore vir die klassifikasie tegnieke te skep. Die prestasie van die klassifikasie metodes word vergelyk met die metingstoets van klassieke FO ten einde die gestelde hipotese te beantwoord. Die onderliggende tendense in die resultate is soos volg: - Die vermoë om ‘n nie-ewekansige fout op te spoor en te identifiseer is sterk afhanklik van die grootte asook die ligging van die fout vir al die klassifikasie tegnieke sowel as die metingstoets. - Vir sekere liggings van die nie-ewekansige fout is daar ‘n groot verskil tussen die vermoë om die fout op te spoor, en die vermoë om die fout te identifiseer, wat dui op smering van die fout. Al die klassifikasie tegnieke asook die metingstoets baar hierdie eienskap. - Oor die algemeen toon die klassifikasie metodes groter sukses as die metingstoets. - Die metingstoets is meer suksesvol vir relatief klein nie-ewekansige foute, asook vir sekere liggings van die nie-ewekansige fout, afhangende van die klassifikasie tegniek ter sprake. Daar is verskeie maniere om die bestek van hierdie ondersoek uit te brei. Meer komplekse, niegestadigde prosesse met sterk nie-lineêre prosesmodelle en meervuldige nie-ewekansige foute kan ondersoek word. Die moontlikheid bestaan ook om die prestasie van klassifikasie metodes te verbeter deur die gepaste keuse van insetvektor elemente.
6

A systems engineering approach to metallurgical accounting of integrated smelter complexes

Mtotywa, Busisiwe Percelia, Lyman, G. J. 12 1900 (has links)
Thesis (PhD)--Stellenbosch University, 2008. / ENGLISH ABSTRACT: The growing need to improve accounting accuracy, precision and to standardise generally accepted measurement methods in the mining and processing industries has led to the joining of a number of organisations under the AMIRA International umbrella, with the purpose of fulfilling these objectives. As part of this venture, Anglo Platinum undertook a project on the material balancing around its largest smelter, the Waterval Smelter. The primary objective of the project was to perform a statistical material balance around the Waterval Smelter using the Maximum Likelihood method with respect to platinum, rhodium, nickel, sulphur and chrome (III) oxide. Pt, Rh and Ni were selected for their significant contribution to the company’s profit margin, whilst S was included because of its environmental importance. Cr2O3 was included for its importance in as far as the difficulties its presence poses in smelting of PGMs. The objective was achieved by performing a series of statistical computations. These include; quantification of total and analytical uncertainties, detection of outliers, estimation and modelling of daily and monthly measurement uncertainties, parameter estimation and data reconciliation. Comparisons were made between the Maximum Likelihood and Least Squares methods. Total uncertainties associated with the daily grades were determined by use of variographic studies. The estimated Pt standard deviations were within 10% relative to the respective average grades with a few exceptions. The total uncertainties were split into their respective components by determining analytical variances from analytical replicates. The results indicated that the sampling components of the total uncertainty were generally larger as compared to their analytical counterparts. WCM, the platinum rich Waterval smelter product, has an uncertainty that is worth ~R2 103 000 in its daily Pt grade. This estimated figure shows that the quality of measurements do not only affect the accuracy of metal accounting, but can have considerable implications if not quantified and managed. The daily uncertainties were estimated using Kriging and bootstrapped to obtain estimates for the monthly uncertainties. Distributions were fitted using MLE on the distribution fitting tool of the JMP6.0 programme and goodness of fit tests were performed. The data were fitted with normal and beta distributions, and there was a notable decrease in the skewness from the daily to the monthly data. The reconciliation of the data was performed using the Maximum Likelihood and comparing that with the widely used Least Squares. The Maximum Likelihood and Least Squares adjustments were performed on simulated data in order to conduct a test of accuracy and to determine the extent of error reduction after the reconciliation exercise. The test showed that the two methods had comparable accuracies and error reduction capabilities. However, it was shown that modelling of uncertainties with the unbounded normal distribution does lead to the estimation of adjustments so large that negative adjusted values are the result. The benefit of modelling the uncertainties with a bounded distribution, which is the beta distribution in this case, is that the possibility of obtaining negative adjusted values is annihilated. ML-adjusted values (beta) will always be non-negative, therefore feasible. In a further comparison of the ML(bounded model) and the LS methods in the material balancing of the Waterval smelter complex, it was found that for all those streams whose uncertainties were modelled with a beta distribution, i.e. those whose distribution possessed some degree of skewness, the ML adjustments were significantly smaller than the LS counterparts It is therefore concluded that the Maximum Likelihood (bounded models) is a rigorous alternative method of data reconciliation to the LS method with the benefits of; -- Better estimates due to the fact that the nature of the data (distribution) is not assumed, but determined through distribution fitting and parameter estimation -- Adjusted values can never be negative due to the bounded nature of the distribution The novel contributions made in this thesis are as follows; -- The Maximum Likelihood method was for the first time employed in the material balancing of non-normally distributed data and compared with the well-known Least Squares method -- This was an original integration of geostatistical methods with data reconciliation to quantify and predict measurement uncertainties. -- For the first time, measurement uncertainties were modeled with a distribution that was non-normal and bounded in nature, leading to smaller adjustments / AFRIKAANSE OPSOMMING: Die groeiende behoefte aan rekeningkundige akkuraatheid, en om presisie te verbeter, en te standardiseer op algemeen aanvaarde meetmetodes in die mynbou en prosesseringsnywerhede, het gelei tot die samwewerking van 'n aantal van organisasies onder die AMIRA International sambreel, met die doel om bogenoemde behoeftes aan te spreek. As deel van hierdie onderneming, het Anglo Platinum onderneem om 'n projek op die materiaal balansering rondom sy grootste smelter, die Waterval smelter. Die primêre doel van die projek was om 'n statistiese materiaal balans rondom die Waterval smelter uit te voer deur gebruik te maak van die sogenaamde maksimum waarskynlikheid metode met betrekking tot platinum, rodium, nikkel, swawel en chroom (iii) oxied. Pt, Rh en Ni was gekies vir hul beduidende bydrae tot die maatskappy se winsmarge, terwyl S ingesluit was weens sy belangrike omgewingsimpak. Cr2O3 was ingesluit weens sy impak op die smelting van Platinum groep minerale. Die doelstelling was bereik deur die uitvoering van 'n reeks van statistiese berekeninge. Hierdie sluit in: die kwantifisering van die totale en analitiese variansies, opsporing van uitskieters, beraming en modellering van daaglikse en maandelikse metingsvariansies, parameter beraming en data rekonsiliasie. Vergelykings was getref tussen die maksimum waarskynlikheid en kleinste kwadrate metodes. Totale onsekerhede of variansies geassosieer met die daaglikse grade was bepaal deur ’n Variografiese studie. Die beraamde Pt standaard afwykings was binne 10% relatief tot die onderskeie gemiddelde grade met sommige uitsonderings. Die totale onsekerhede was onderverdeel in hul onderskeie komponente deur bepaling van die ontledingsvariansies van duplikate. Die uitslae toon dat die monsternemings komponente van die totale onsekerheid oor die algemeen groter was as hul bypassende analitiese variansies. WCM, ‘n platinum-ryke Waterval Smelter produk, het 'n onsekerheid in die orde van ~twee miljoen rand in sy daagliks Pt graad. Hierdie beraamde waarde toon dat die kwaliteit van metings nie alleen die akkuraatheid van metaal rekeningkunde affekteer nie, maar aansienlike finansiële implikasies het indien nie die nie gekwantifiseer en bestuur word nie. Die daagliks onsekerhede was beraam deur gebruik te maak van “Kriging” en “Bootstrap” metodes om die maandelikse onsekerhede te beraam. Verspreidings was gepas deur gebruik te maak van hoogste waarskynlikheid beraming passings en goedheid–van-pas toetse was uitgevoer. Die data was gepas met Normaal en Beta verspreidings, en daar was 'n opmerklike vermindering in die skeefheid van die daaglikse tot die maandeliks data. Die rekonsiliasies van die massabalans data was uitgevoer deur die gebruik die maksimum waarskynlikheid metodes en vergelyk daardie met die algemeen gebruikde kleinste kwadrate metode. Die maksimum waarskynlikheid (ML) en kleinste kwadrate (LS) aanpassings was uitgevoer op gesimuleerde data ten einde die akkuraatheid te toets en om die mate van fout vermindering na die rekonsiliasie te bepaal. Die toets getoon dat die twee metodes het vergelykbare akkuraathede en foutverminderingsvermoëns. Dit was egter getoon dat modellering van die onsekerhede met die onbegrensde Normaal verdeling lei tot die beraming van aanpassings wat so groot is dat negatiewe verstelde waardes kan onstaan na rekosniliasie. Die voordeel om onsekerhede met 'n begrensde distribusie te modelleer, soos die beta distribusie in hierdie geval, is dat die moontlikheid om negatiewe verstelde waardes te verkry uitgelsuit word. ML-verstelde waardes (met die Beta distribusie funksie) sal altyd nie-negatief wees, en om hierdie rede uitvoerbaar. In 'n verdere vergelyking van die ML (begrensd) en die LS metodes in die materiaal balansering van die waterval smelter kompleks, is dit gevind dat vir almal daardie strome waarvan die onserkerhede gesimuleer was met 'n Beta distribusie, dus daardie strome waarvan die onsekerheidsdistribusie ‘n mate van skeefheid toon, die ML verstellings altyd beduidend kleiner was as die ooreenkomstige LS verstellings. Vervolgens word die Maksimum Waarskynlikheid metode (met begrensde modelle) gesien as 'n beter alternatiewe metode van data rekosiliasie in vergelyking met die kleinste kwadrate metode met die voordele van: • Beter beramings te danke aan die feit dat die aard van die onsekerheidsdistribusie nie aangeneem word nie, maar bepaal is deur die distribusie te pas en deur van parameter beraming gebruik te maak. • Die aangepaste waardes kan nooit negatief wees te danke aan die begrensde aard van die verdeling. Die volgende oorspronklike bydraes is gelewer in hierdie verhandeling: • Die Maksimum Waarskynlikheid metode was vir die eerste keer geëvalueer vir massa balans rekonsiliasie van nie-Normaal verspreide data en vergelyk met die bekendde kleinste kwadrate metode. • Dit is die eerste keer geostatistiese metodes geïntegreer is met data rekonsiliasie om onsekerhede te beraam waarbinne verstellings gemaak word. • Vir die eerste keer, is meetonsekerhede gemoddelleer met 'n distribusie wat nie- Normaal en begrensd van aard is, wat lei tot kleiner en meer realistiese verstellings.
7

Réconciliation de données en présence d’incertitudes de modèle. : application au convertisseur à oxygène / Data reconciliation with uncertain model : application to the basic oxygen furnace

Francken, Julien 05 July 2010 (has links)
Dans le domaine sidérurgique, l'ajustement des commandes de préréglage est un problème courant. L'objectif des systèmes de commande est d'obtenir des produits de qualité imposée. On observe cependant fréquemment des variations de comportement d'un lot à l'autre, ce qui nécessite de modifier les paramètres des modèles employés pour les préréglages suivants. Cela est particulièrement vrai pour le convertisseur à oxygène où les informations rassemblées pendant une coulée spécifique servent à ajuster les points de consigne de la coulée suivante.Dans cette thèse, nous présentons une méthode de validation de données s'appuyant sur un modèle incertain. Les incertitudes portant sur les mesures des variables et sur la connaissance des paramètres du modèle sont simultanément prises en compte pour fournir des estimées cohérentes qui pourront être mises à profit par le système de contrôle-commande du convertisseur à oxygène. L'estimation paramétrique étant sensible à la présence de mesures aberrantes , la méthode proposée a été rendue robuste à la présence de ces informations erronées par la prise en compte, dans la méthode d'estimation, de la notion de distribution statistique contaminée.Le modèle du convertisseur a été établi sur la base des principes de conservation de masse et d'énergie, mais aussi sur des relations d'équilibre chimique pour lesquelles certains paramètres sont assez mal connus ce qui justifie pleinement l'approche utilisée. Les estimations des variables et des paramètres fournissent une image plus juste de l'état réel du système ce qui en facilite la conduite. Appliquée au convertisseur à oxygène, cette méthode permet l'actualisation du modèle de calcul de charge utile au préréglage. De plus, le suivi de l'évolution de certains paramètres du modèle permet d'évaluer un niveau de dégradation du système (par exemple, l'endommagement du réfractaire de la poche / In the steel industry, tuning the control system set-points in order to reach given product specification is a common problem. The control system objective is to obtain products satisfying the given specifications. There are however frequent changes in the behavior from one batch to another, thus requiring the modification of model parameters used for the following presets. This is particularly true for the Basic Oxygen Furnace (BOF) where the information collected during a specific batch serves to adjust the set-points of the next batch.In this thesis, we proposed a method allowing simultaneously robust data reconciliation and model parameter estimation. This approach is original because the current data validation methods make the assumption that the system model is known perfectly. Here, the uncertainties on the measurements of variables and on the knowledge of the model parameters are simultaneously taken into account to provide consistent estimates that can be utilized by the control system of the BOF, especially for the determination of the set-points. Parameter estimation being sensitive to the presence of outliers, which is common in this type of process operating in highly disturbed environment, the proposed method has been made robust to the presence of these errors by including in the estimation method, the notion of contaminated statistical distribution.The model of the converter was based on the principles of mass and energy conservation, but also on chemical equilibrium relationships for which some parameters are not well known that fully justifies the proposed approach. The variable and parameter estimates provide a more accurate picture of the actual state of the system which facilitates its control. Applied to the BOF, this method allows the updating of the model used for the preset. In addition, monitoring the evolution of some model parameters can be used to evaluate the degradation level of the system (eg, damage to the refractory of the converter)
8

Application de la validation de données dynamiques au suivi de performance d'un procédé

Ullrich, Christophe 17 October 2010 (has links)
La qualité des mesures permettant de suivre l'évolution de procédés chimiques ou pétrochimiques peut affecter de manière significative leur conduite. Malheureusement, toute mesure est entachée d'erreur. Les erreurs présentes dans les données mesurées peuvent mener à des dérives significatives dans la conduite du procédé, ce qui peut avoir des effets néfastes sur la sécurité du procédé ou son rendement. La validation de données est une tâche très importante car elle transforme l'ensemble des données disponibles en un jeu cohérent de valeurs définissant l'état du procédé. La validation de données permet de corriger les mesures, d'estimer les valeurs des variables non mesurées et de calculer les incertitudes a posteriori de toutes les variables. À l'échelle industrielle, elle est régulièrement appliquée à des procédés fonctionnant en continu, représentés par des modèles stationnaires. Cependant, pour le suivi de phénomènes transitoires, les algorithmes de validation stationnaires ne sont plus efficaces. L'étude abordée dans le cadre de cette thèse est l'application de la validation de données dynamiques au suivi des performances des procédés chimiques. L'algorithme de validation de données dynamiques développé dans le cadre de cette thèse, est basé sur une résolution simultanée du problème d'optimisation et des équations du modèle. Les équations différentielles sont discrétisées par une méthode des résidus pondérés : les collocations orthogonales. L'utilisation de la méthode des fenêtres de temps mobiles permet de conserver un problème de dimension raisonnable. L'algorithme d'optimisation utilisé est un algorithme "Successive Quadratic Programming" à point intérieur. L'algorithme de validation de données dynamiques développé a permis la réduction de l'incertitude des estimées. Les exemples étudiés sont présentés du plus simple au plus complexe. Les premiers modèles étudiés sont des cuves de stockages interconnectées. Ce type de modèle est composé uniquement de bilans de matière. Les modèles des exemples suivants, des réacteurs chimiques, sont composés des bilans de matière et de chaleur. Le dernier modèle étudié est un ballon de séparation liquide vapeur. Ce dernier est composé de bilans de matière et de chaleur couplés à des phénomènes d'équilibre liquide-vapeur. L'évaluation de la matrice de sensibilité et du calcul des variances a posteriori a été étendue aux procédés représentés par des modèles dynamiques. Son application a été illustrée par plusieurs exemples. La modification des paramètres de fenêtre de validation influence la redondance dans celle-ci et donc le facteur de réduction de variances a posteriori. Les développements proposés dans ce travail offrent donc un critère rationnel de choix de la taille de fenêtre pour les applications de validation de données dynamiques. L'intégration d'estimateurs alternatifs dans l'algorithme permet d'en augmenter la robustesse. En effet, ces derniers permettent l'obtention d'estimées non-biaisées en présence d'erreurs grossières dans les mesures. Organisation de la thèse : La thèse débute par un chapitre introductif présentant le problème, les objectifs de la recherche ainsi que le plan du travail. La première partie de la thèse est consacrée à l'état de l'art et au développement théorique d'une méthode de validation de données dynamiques. Elle est organisée de la manière suivante : -Le premier chapitre est consacré à la validation de données stationnaires. Il débute en montrant le rôle joué par la validation de données dans le contrôle des procédés. Les différents types d'erreurs de mesure et de redondances sont ensuite présentés. Différentes méthodes de résolution de problèmes stationnaires linéaires et non linéaires sont également explicitées. Ce premier chapitre se termine par la description d'une méthode de calcul des variances a posteriori. -Dans le deuxième chapitre, deux catégories des méthodes de validation de données dynamiques sont présentées : les méthodes de filtrage et les méthodes de programmation non-linéaire. Pour chaque type de méthode, les principales formulations trouvées dans la littérature sont exposées avec leurs principaux avantages et inconvénients. -Le troisième chapitre est consacré au développement théorique de l'algorithme de validation de données dynamiques mis au point dans le cadre de cette thèse. Les différents choix stratégiques effectués y sont également présentés. L'algorithme choisi se base sur une formulation du problème d'optimisation comprenant un système d'équations algébro-différentielles. Les équations différentielles sont discrétisées au moyen d'une méthode de collocations orthogonales utilisant les polynômes d'interpolation de Lagrange. Différentes méthodes de représentation des variables d'entrée sont discutées. Afin de réduire les coûts de calcul et de garder un problème d'optimisation résoluble, la méthode des fenêtres de temps mobiles est utilisée. Un algorithme "Interior Point Sucessive Quadratic Programming" est utilisé afin de résoudre de manière simultanée les équations différentielles discrétisées et les équations du modèle. Les dérivées analytiques du gradient de la fonction objectif et du Jacobien des contraintes sont également présentées dans ce chapitre. Pour terminer, un critère de qualité permettant de comparer les différentes variantes de l'algorithme est proposé. -Cette première partie se termine par le développement d'un algorithme original de calcul des variances a posteriori. La méthode développée dans ce chapitre est similaire à la méthode décrite dans le premier chapitre pour les procédés fonctionnant de manière stationnaire. Le développement est réalisé pour les deux représentations des variables d'entrée discutées au chapitre 3. Pour terminer le chapitre, cette méthode de calcul des variances a posteriori est appliquée de manière théorique sur un petit exemple constitué d'une seule équation différentielle et d'une seule équation de liaison. La seconde partie de la thèse est consacrée à l'application de l'algorithme de validation de données dynamiques développé dans la première partie à l'étude de plusieurs cas. Pour chacun des exemples traités, l'influence des paramètres de l'algorithme sur la robustesse, la facilité de convergence et la réduction de l'incertitude des estimées est examinée. La capacité de l'algorithme à réduire l'incertitude des estimées est évaluée au moyen du taux de réduction d'erreur et du facteur de réduction des variances. -Le premier chapitre de cette deuxième partie est consacré à l'étude d'une ou plusieurs cuves de stockage à niveau variable, avec ou sans recyclage de fluide. Ce premier cas comporte uniquement des bilans de matière. - Le chapitre 6 examine le cas d'un réacteur à cuve agitée avec échange de chaleur. L'exemple traité dans ce chapitre est donc constitué de bilans de matière et d'énergie. -L'étude d'un ballon flash au chapitre 7 permet de prendre en compte les équilibres liquide-vapeur. - Le chapitre 8 est consacré aux estimateurs robustes dont la performance est comparée pour les exemples étudiés aux chapitres 5 et 6. La thèse se termine par un chapitre consacré à la présentation des conclusions et de quelques perspectives futures.
9

Error detection in wastewater treatment plants using mass balances

Karlsson, Maja January 2018 (has links)
Process data from wastewater treatment plants are often corrupted by errors. These data provide a basis for operating the plant, therefore effort should be made to improve the data quality. Currently, Stockholm Vatten och Avfall uses a method where they quantitatively verify water flow measurement data by comparing it to water level measurements. In this thesis, an alternative approach based on mass balancing to detect errors was evaluated. The aim was to find, implement and evaluate a mass balance based method to detect and locate errors. The objective was to use this method to corroborate the flow verification method used by Stockholm Vatten och Avfall, and to improve flow data from Bromma Wastewater treatment plant. The chosen method consisted of two major steps, gross error detection and data reconciliation. A case study was performed where the method was tested on both simulated data with known added errors, real process data and finally a case where the suggested method was compared to the flow verification method. The results showed that this method was efficient in detecting a gross error when only one flow measurement was erroneous and that the estimation of the error magnitude was good. However, the suggested method was not useful for corroboration of the flow verification method. With the flow verification method, the flow in one filter basin at the time was examined. The suggested method required the combined flow in all 24 filter basins, which made it difficult to compare the two methods. The method has potential to be valuable for error detection in wastewater treatment plants, and to be used as a live tool to detect gross errors.
10

Desenvolvimento de um software para reconciliação de dados de processos quimicos e petroquimicos / Development of software for data reconciliation of chemical and petrochemical processes

Barbosa, Agremis Guinho 11 June 2003 (has links)
Orientador: Rubens Maciel Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-10T21:51:34Z (GMT). No. of bitstreams: 1 Barbosa_AgremisGuinho_M.pdf: 1501070 bytes, checksum: c20fd373ba5e239e2b783608aebbc7f2 (MD5) Previous issue date: 2003 / Resumo: O objetivo deste trabalho é o desenvolvimento de rotinas computacionais para o condicionamento de dados provenientes de um processo químico, de modo que estes sejam consistentes para a representação do comportamento do processo. A descrição adequada do comportamento de um processo é a base fundamental de qualquer sistema de controle e/ou otimização, uma vez que será em resposta às medições deste processo (sua descrição) que os referidos sistemas atuarão. Desta forma o tratamento e correção dos erros de medição, especificamente, e a estimativa de parâmetros, de um modo mais geral, constituem uma etapa que não deve ser negligenciada no controle e otimização de processos. O condicionamento de dados estudado neste trabalho é a reconciliação de dados, que tem como característica principal o uso de um modelo de restrições para condicionar a informação. Geralmente os modelos de restrição são balanços de massa e energia e os somatórios das frações mássicas e molares, mas outros modelos também podem ser usados. Matematicamente, a reconciliação de dados é um problema de otimização sujeito a restrições. Neste trabalho, a formulação do problema de reconciliação é a dos mínimos quadrados ponderados sujeito a restrições e a abordagem para a sua solução é a fatoração QR. Objetiva-se também reunir as rotinas desenvolvidas em uma única ferramenta computacional para a descrição, resolução e análise dos resultados do problema de reconciliação de dados, constituindo-se em um software de fácil utilização e que tenha ainda um mecanismo de comunicação com banco de dados, conferindo-lhe interatividade em tempo real com sistemas de aquisição de dados de processo / Abstract: The purpose of this work is the development of computational routines for conditioning chemical process data in order to represent the process behavior as reliable as possible. Reliable process description is fundamental for any control or optimization system development, since they respond to the process measurements (its description). Thus, data conditioning and correction of process measurement errors, and parameter estimation are a step that should not be neglected in process control and optimization. The data conditioning considered in this work is data reconciliation which has as the main characteristic the use of a constraint model. In general constraint models are mass and energy balances and mass and molar fraction summation, but other models may be used. Under a mathematical point of view, data reconciliation is an optimization subject to constraints. In this work, it is used the formulation of weighed least squares subject to constraints and QR factorization approach to solve the problem. The additional objective of this work is to accommodate the developed routines in such a way to build up an integrated computational tool characterized by its easy to use structure, capability to solve and perform data reconciliation. Its structure takes into account the interaction with data bank, giving it real time interactiveness with process data acquisition systems / Mestrado / Desenvolvimento de Processos Químicos / Mestre em Engenharia Química

Page generated in 0.5001 seconds