• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 386
  • 14
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 403
  • 403
  • 159
  • 130
  • 106
  • 99
  • 76
  • 62
  • 48
  • 48
  • 43
  • 42
  • 39
  • 36
  • 34
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Desenvolvimento de uma ferramenta para obtenção de modelos empíricos

Finkler, Tiago Fiorenzano January 2003 (has links)
O objetivo deste trabalho é o desenvolvimento de uma ferramenta de regressão multivariável apropriada para abordar o problema da modelagem de propriedades relacionadas à qualidade final de produtos em processos industriais. No caso geral, dados provenientes de sistemas físicos e químicos típicos do meio industrial são caracterizados pela presença de relação não linear entre as variáveis, podendo, ainda, apresentar outros problemas que dificultam o processo de modelagem empírica, como baixa disponibilidade de observações experimentais, presença de ruído excessivo nas medidas e a presença de colinearidade entre os termos explicativos. Foi feita uma revisão de diferentes métodos de regressão multivariável tais como regressão linear múltipla (MLR), regressão não linear baseada em transformações das variáveis explicativas e métodos de redução de dimensionalidade (PCA, PLS, QPLS e BTPLS). Também foram propostas novas metodologias para a abordagem das questões da seleção de variáveis e estimação das incertezas dos modelos. Posteriormente, utilizando as metodologias revisadas e propostas, foi sugerida uma sistemática para o tratamento da questão da modelagem empírica de dados industriais, que constitui a base para a implementação da ferramenta desejada. A aplicabilidade da ferramenta desenvolvida foi ilustrada através de alguns estudos de caso retirados da literatura, onde modelos para a predição de propriedades relativas à qualidade de produtos produzidos em quatro tipos de processos industriais diferentes são obtidos.
52

Planejamento de perturbações para a identificação de modelos dinâmicos

Machado, Vinicius Cunha January 2004 (has links)
A identificação de modelos é determinante no sucesso das modernas técnicas de controle avançado de processos. Um modelo para o sistema pode ser obtido através de modelagem rigorosa, baseada em equações governantes do sistema ou através da modelagem empírica e estimação de parâmetros. Embora mais rápida e fácil, a modelagem empírica necessita de alguns testes de identificação nos quais as variáveis manipuladas são variadas de modo que resultem em variações nas variáveis controladas. Os testes de identificação podem apresentar custos muito elevados tendo em vista que o sistema pode sair de seu ponto normal de operação, gerando produtos com folga de especificação. Este fato ocorre porque usualmente as perturbações aplicadas nas variáveis manipuladas nas indústrias de processos são independentes umas das outras, aumentando a duração do teste de identificação. Desta forma, neste trabalho foi desenvolvida uma nova metodologia de projeto de perturbações simultâneas para a identificação de modelos dinâmicos baseada na direcionalidade do sistema, com o objetivo de fornecer dados mais ricos para se capturar corretamente o comportamento multivariável do sistema e manter o processo no ponto de operação normal. As perturbações são projetadas conforme as características de um modelo simplificado do processo, ou pré-modelo. Este modelo inicial é obtido essencialmente de dados históricos de planta, selecionados através de uma sistemática análise de correlação desenvolvida neste trabalho A metodologia proposta é composta de duas partes: a primeira parte diz respeito à análise dos dados históricos de planta para obtenção de informações prelimirares as quais são utilizadas no planejamento de perturbações, tais como amplitude do ruído de medida, correlação entre as variáveis de processo, constante de tempo do sistema e matriz de ganhos. E a segunda parte consiste no cálculo da amplitude das perturbações baseado nos resultados da primeira etapa do planejamento. Para sistemas mal-condicionados verificou-se que as perturbações planejadas pela metodologia removem menos a planta de seu ponto de operação gerando resultados mais consistentes em relação às perturbações tradicionais. Já para sistemas bem-condicionados, os resultados são semelhantes. A metodologia foi aplicada em uma unidade piloto experimental e numa unidade de destilação da PETROBRAS, cujos resultados apontam pouca remoção dos sistemas do ponto de operação e modelos consistentes. A validação dos modelos também foi contemplada na dissertação, uma vez que foi proposto um novo critério de validação que considera a derivada dos dados de planta e a do modelo e não apenas os dados de planta e os dados da simulação das saídas do modelo.
53

Otimização dinâmica em tempo real : arquitetura de software, diagnóstico e análise de inviabilidades

Almeida Neto, Euclides January 2011 (has links)
As constantes pressões por redução de margem de lucro, melhoria de qualidade de produtos e segurança operacional que a indústria de processamento vem sofrendo, tem levado as mesmas a utilizarem ferramentas especializadas de otimização de processos. Nas décadas de 1980 e 1990, esta indústria investiu fortemente na utilização de ferramentas de otimização estacionária em tempo real (RTO) nas formas online e offline. Esta tecnologia já atingiu o seu grau de maturidade. Porém está limitada pelas suas características estacionárias, não tendo capacidade de otimizar processos diante das perturbações freqüentes, tais como alterações de qualidade e quantidade de carga, transições decorrentes de alterações de programação de produção ou de receita de uma produção em batelada ou semi-batelada, dentre outros. Para cobrir este espaço, a otimização dinâmica em tempo real (DRTO) é a tecnologia adequada para reduzir a quantidade de produtos fora de especificação e otimizar o lucro operacional diante destas perturbações. Porém, esta tecnologia ainda não atingiu o seu grau de maturidade, tendo ferramentas comerciais apenas na sua versão offline. Com o objetivo de contribuir com a consolidação desta tecnologia, propõe-se estudar e desenvolver uma arquitetura de sistema de DRTO para operar nas plantas de processo, promover melhorias conceituais nesta tecnologia, e desenvolver uma ferramenta de diagnóstico e sintonia de DRTO. Esta estrutura é bem completa e fornece a flexibilidade necessária para uso industrial. A ferramenta de diagnóstico permite resolver os problemas que ocorrerem ao longo do uso do DRTO. Além disso, é apresentada uma nova metodologia de análise e solução de inviabilidades, baseada em otimização multiobjetivos aplicada à otimização dinâmica. Esta técnica pode ser utilizada tanto online quanto offline, para diagnóstico, e na solução de problemas de otimização dinâmica, conferindo mais robustez ao DRTO, evitando insucessos do otimizador. / Considering the constant pressures for profit margins reduction, improvement of products quality and operational safety, that the processing industry has been submitted, has led them to the use of specialized tools of processes optimization. In the 1980 and 1990 decades, this industry has invested strongly in the use of stationary real-time optimization tools (RTO), in the online and offline forms. This technology already reached its degree of maturity, but limited to its stationary characteristics, having no ability to optimize processes due to frequent disturbances, such as quality and feed flows transitions, consequence of frequent changes in the production scheduling or recipes in batch or semibatch operations, and others. To cover this space, the dynamic real-time optimization (DRTO) is the appropriate technology to reduce the off-spec production and optimize the operational profit when the process is submitted to these disturbances. However, this technology has not reached its maturity, having only commercial tools available only in yuor offline version. In order to contribute to the consolidation of this technology, it is proposed to study and develop a DRTO system architecture to operate in process plants, to promote a conceptual improvements in this technology, and to develop a DRTO diagnostic and tuning tool. This structure is quite complete and provides the flexibility required for industrial application. The diagnostic tool allows us to solve problems that occur during the use of the DRTO system. In addition, a new methodology for infeasibility analysis and solution in DAOP is proposed here, and it is based on the solution of the multiobjective dynamic optimization. This technique can be used in online and offline modes, for diagnostics and troubleshooting dynamic optimization problems, giving more robustness to the DRTO systems, avoiding some optimizer failures.
54

Novas metodologias para compressão de dados de processos e para o ajuste do Sistema PI

Silveira, Rodrigo Paulo January 2012 (has links)
A consolidação da automação na indústria química trouxe um desafio: transformar o grande volume de dados provenientes dos processos em informação útil. Com o advento dos sistemas digitais, a expansão no desenvolvimento de sensores e métodos de amostragem possibilitou a aquisição de uma elevada quantidade de dados advindos do campo industrial, de forma que, atualmente, engenheiros e operadores dificilmente carecem de informações sobre as diferentes variáveis de um processo. Os algoritmos para compressão de dados de planta surgiram como alternativa para reduzir o espaço de armazenamento demandado por essas informações. Comprimir dados significa gravar apenas uma porção da informação original, devendo-se preservar, no entanto, as características importantes que elas carregam. Ultimamente, não é apenas o espaço em disco que deve ser priorizado quando se fala em compressão. É necessário que os dados sejam fieis às reais informações do processo e, além disso, devem ser recuperados e transmitidos em velocidade razoável. Neste trabalho são apresentadas duas metodologias para a compressão de dados de processos químicos. Para tanto, são utilizadas técnicas para o cálculo da derivada de sinais ruidosos e curvas polinomiais (splines cúbicas) que preservam as características dos dados. Também são propostas sistemáticas para o ajuste automático dos parâmetros nas rotinas de compressão do sistema PI da OSIsoft®. A fim de avaliar essas propostas, foram utilizados alguns estudos de caso, compreendendo sinais reais de uma planta laboratorial e outros artificiais gerados por simulação computacional, abrangendo dinâmicas distintas e características peculiares. Os resultados mostram que os algoritmos são promissores para gravar dados de processos sem que se perca a essência da informação, a qual armazenada pode ser transformada em conhecimento sem prejuízo da qualidade em termos dinâmicos e estáticos. / The consolidation of the automation in the chemical industry has brought a challenge: translating the large volume of data in useful information. With the advent of digital systems, the expansion in the development of sensors and sampling methods allowed the acquisition of a large amount of data from the process field. Thus, nowadays, engineers and operators rarely suffer from lack of information arising from the several process variables. The algorithms for data compression appeared as an alternative to reducing the storage space demanded by these information. Data compressing means to record only a portion of the original information, preserving, however, the relevant features that they hold. Recently, is not only the disk space that must be prioritized when one talks about compression. It is necessary data to be reliable to the actual process information, and, moreover, must be retrived and transmitted at an aceptable speed. In this work, two methodologies for data compression of chemical processes are presented. Therefore, techniques to estimate derivatives of noisy signals and polynomial curves (cubic splines), which preserve the data features, are used. Also, systematic approaches to automate the tuning of the parameters in the OSIsoft® PI System® compression routines are proposed. In order to evaluate these proposals, some case studies are taken, composed by real signals, from a laboratorial plant, and artificial ones generated by computacional simulation, embracing diversified dynamics and peculiar features. The results show that the proposed algorithms are promising to store processes data without significant loss of information, which can be converted in knowledge without jeopardizing the quality in static and dynamic aspects.
55

Aplicação do CEKF na estimação de parâmetros em modelo dinâmico

Schweinberger, Cristiane Martins January 2009 (has links)
Dado a larga aplicação dos modelos matemáticos, a procura pelo aprimoramento dos métodos de identificação de modelos sempre é bem vinda. Foi em cima disto que se desenvolveu o presente trabalho. Considerando a problemática de que os distúrbios desconhecidos nas entradas comprometem a qualidade da estimação dos parâmetros, se estudou a estimação combinada com o estimador de estados CEKF (Constrained Extended Kalmam Filter). Isto porque se supôs que com o emprego do CEKF o efeito do distúrbio desconhecido seria reduzido. Para tanto, se tomou um caso de estudo de seis tanques esféricos interligados e formam simulados dados experimentais computacionalmente. Foi escolhido um ponto de operação para a estimação com base na estimabilidade dos parâmetros. Antes da estimação os dados experimentais foram filtrados. Para a estimação dos parâmetros foi elaborada uma metodologia iterativa, caracterizada pelos três procedimentos: (1) estimação dos parâmetros, (2) ajuste de função objetivo: possibilidade de incorporar as derivadas medidas, bem como os estados e derivadas estimados pelo CEKF e (3) melhoria dos dados com a passagem do CEFK. Em outras palavras, a metodologia desenvolvida consiste em estimações de parâmetros seqüenciais acompanhadas com a melhoria progressiva dos dados devido à aplicação do CEKF. Para o estudo de caso tomado foi perceptível a melhoria na estimação dos parâmetros, tornando interessante a continuidade do estudo que foi iniciado no presente trabalho. / Given the wide application of mathematical models, the demand for improvement of methods of identification of models is always welcome. It was upon this that has developed in this work. Considering the problem of the unknown disturbances in the inputs affect the quality of the estimation of parameters, we studied the estimation combined with the estimator states CEKF (Extended Constrained Filter Kalmar). This is because it was assumed that with the use of CEKF the effect of unknown disturbance would be reduced. As such, it took a case study of six spherical tanks interconnected to form simulated experimental data computationally. Was chosen an operating point for the estimation based on the estimated parameters. Before estimating the experimental data were filtered. For the estimation has been elaborated iterative methodology, characterized by three procedures: (1) parameter estimation, (2) adjustment of the objective function: the possibility of incorporating the derived measures, and states and derive the estimated CEKF and (3 ) improvement of data with the passage of CEFK. In other words, the methodology consists of sequential estimation of parameters together with the gradual improvement of data due to application of CEKF. For the case study was taken a noticeable improvement in the estimation of parameters, makes it interesting to continue the study that was initiated in this work.
56

Energia requerida para a separação como ferramenta de otimização operacional e controle de colunas de destilação

Müller, Gustavo Henrique January 2012 (has links)
Com o aumento da competitividade no mercado nos últimos anos, a busca por alternativas que permitam a redução dos custos de produção tem sido constante. Este fato, aliado aos custos crescentes da energia e a preocupação cada vez maior com o impacto ambiental dos processos, tornam indispensável o controle e o aumento da eficiência dos mesmos, assim como o maior aproveitamento possível da energia. No presente trabalho, uma nova metodologia para a otimização da eficiência energética em colunas de destilação é proposta. A partir de uma simulação estacionária de um processo de separação, desenvolvida em Aspen Plus®, e validada com dados do processo real, foram obtidos modelos empíricos de curvas de operação baseadas na energia requerida para atingir a especificação dos produtos. A metodologia proposta foi avaliada no estudo de caso de uma coluna de separação de benzeno, tolueno e xileno (BTX). Com o modelo de energia requerida identificado para o processo, duas condições operacionais distintas do processo real foram avaliadas com relação à sua eficiência. A partir da redução na vazão de vapor no refervedor, verificou-se um aumento na eficiência energética do processo de 75 para cerca de 100%, indicando a operação muito próxima do ponto ótimo. Para avaliar a utilização do modelo de energia requerida no controle de processos, duas estratégias alternativas foram propostas a partir de uma simulação dinâmica da unidade, desenvolvida em Aspen Dynamics®. A configuração de bloco de cálculo em conjunto com um controlador de composição apresentou o melhor desempenho entre as configurações avaliadas. A utilização do modelo permite que apenas a energia requerida seja efetivamente utilizada, enquanto que o controle de composição garante a especificação do produto de topo nestas situações. Com esta configuração, seria possível obter um incremento na vazão desta corrente da ordem de 92 t/ano a partir da incorporação de inertes. / With the competitive and global business environment, the search for opportunities to reduce the production costs has been constant. This fact associated with higher energy costs and the concern about the environmental impact of the processes, makes it essential to control and increase their efficiency. In this work, a new methodology for optimizing the energy efficiency in distillation columns is proposed. From a steady state simulation of a separation process, implemented in Aspen Plus® and validated against process data, models for the required energy were obtained. The methodology was evaluated for a case study of a benzene, toluene and xylene separation column (BTX). With the required energy model identified, two distinct operational conditions of the real process were evaluated regarding their efficiency. After a vapor flow reduction in the reboiler, there was an increase in process efficiency from 75% to about 100, indicating the operation condition very close to the optimum. To evaluate the use of the energy required model in process control, two strategies were proposed from a dynamic simulation of the process in Aspen Dynamics®. The configuration of a calculation block along with a composition controller showed the best performance among the alternatives tested. The use of the model allows only the required energy to be used, whereas the composition control ensures the top product specification in these situations. With this configuration, it would be possible to obtain an increase in the product flow of 92 t/year.
57

Controle de processos usando redes neurais artificiais : uma aplicação experimental

Rita, Dalva Janine January 1995 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico / Made available in DSpace on 2016-01-08T20:07:55Z (GMT). No. of bitstreams: 1 101278.pdf: 19505987 bytes, checksum: 1882ca90e3b430fd008c9b085a0ca83c (MD5) Previous issue date: 1995 / Utilizou-se uma rede do tipo Feedforward Multicamadas para controlar o nível de um tanque simples e dois tanques acoplados. Os testes experimentais foram realizados em uma unidade piloto controlada por microcomputador. Na estratégia de controle proposta, usou-se redes neurais para modelar o processo, juntamente com uma estratégia de controle preditivo baseado na minimização de um critério de custo quadrático. Os resultados mostraram que o esquema de controle implementado foi capaz de controlar com sucesso os sistemas, apresentando boa performance.
58

Avaliação de estratégias para reconciliação de dados e detecção de erros grosseiros

Farias, Andrea Cabral January 2009 (has links)
O sistema de reconciliação de dados trata de um problema advindo da evolução das técnicas de medição, aquisição e armazenamento de dados. Este tem o papel de garantir a consistência destes dados, utilizando a redundância das variáveis medidas e um modelo estatístico da medição para aumentar a precisão dos dados. O procedimento completo tem por objetivo que as equações de conservação sejam satisfeitas, tratando dos erros aleatórios inerentes ao processo de medição e que eventuais erros grosseiros sejam detectados e corrigidos. Estas duas últimas atribuições referem-se aos dois problemas tratados neste trabalho: avaliação de técnicas de reconciliação de dados e para a detecção de erros grosseiros. O objetivo deste trabalho é comparar diferentes técnicas por meio de um estudo completo de reconciliação de dados e detecção de erros grosseiros. Este foi baseado em simulações determinísticas e simulações Monte Carlo para verificar o desempenho das estratégias frente aos parâmetros que influenciam cada etapa do procedimento. Em reconciliação de dados foi avaliada a influência da topologia e do pré-tratamento de dados na qualidade final da estimação. Já para etapa de detecção de erros grosseiros foram avaliadas sete estratégias diferentes, realizando uma comparação entre as mesmas com base em um estudo combinatorial completo. Avaliou-se a influência da topologia e foram levantadas as curvas de poder de detecção. Com base nestes resultados escolheu-se um critério para que os algoritmos fossem sintonizados de maneira que a comparação entre eles fosse justa. Após a sintonia avaliou-se a utilização do pré-tratamento de dados. Além das estratégias de detecção tradicionais utilizaram-se também técnicas de reconciliação robusta. O desempenho destas foi comparado com os resultados obtidos nas etapas anteriores. Como conseqüência deste estudo completo, foi proposta uma nova estratégia de detecção de erros grosseiros, baseada em estatística robusta. O seu desenvolvimento foi demonstrado e a validação foi realizada por comparação com os resultados obtidos neste trabalho e com um caso reportado na literatura. / The data reconciliation system deal with a problem originated from the evolution of measurement techniques, data acquisition, and data storage. This system plays the role of guaranteeing the data consistency; it uses the measured variables redundancy and a statistical measurement model to improve accuracy. The main goal of the complete procedure is to satisfy the conservation equations, treating the random errors inherent of the measurement process and detecting eventual gross errors. The last two attributes are the issues of this work: the evaluation of data reconciliation techniques and the problem of gross error detection. The goal of this work is to compare different techniques by a complete data reconciliation and gross error detection study, based on deterministic and Monte Carlo simulations to verify the performances of the strategies as functions of the parameters that influence each step of the procedure. In data reconciliation, the influence of the topology and data pre-treatment in the quality of the estimates were investigated. Furthermore, dealing with the gross error detection step, seven different strategies were compared by means of a complete combinatorial study. The influence of topology was studied and the power curves were obtained. Based on these results, a criterion to tune the algorithms was chosen in the manner of guaranteeing a fair comparison between them. After the tuning step, the use of data pre-treatment was investigated. To complete the study, robust data reconciliation techniques were also used, and their performances were compared with the results attained in the precedent sections. As a product of this study, a new gross error detection strategy was proposed, based on robust statistics. The development steps were showed and the new method was validated based on comparison with the results obtained in this work and with a case study from the literature.
59

Aplicação do CEKF na estimação de parâmetros em modelo dinâmico

Schweinberger, Cristiane Martins January 2009 (has links)
Dado a larga aplicação dos modelos matemáticos, a procura pelo aprimoramento dos métodos de identificação de modelos sempre é bem vinda. Foi em cima disto que se desenvolveu o presente trabalho. Considerando a problemática de que os distúrbios desconhecidos nas entradas comprometem a qualidade da estimação dos parâmetros, se estudou a estimação combinada com o estimador de estados CEKF (Constrained Extended Kalmam Filter). Isto porque se supôs que com o emprego do CEKF o efeito do distúrbio desconhecido seria reduzido. Para tanto, se tomou um caso de estudo de seis tanques esféricos interligados e formam simulados dados experimentais computacionalmente. Foi escolhido um ponto de operação para a estimação com base na estimabilidade dos parâmetros. Antes da estimação os dados experimentais foram filtrados. Para a estimação dos parâmetros foi elaborada uma metodologia iterativa, caracterizada pelos três procedimentos: (1) estimação dos parâmetros, (2) ajuste de função objetivo: possibilidade de incorporar as derivadas medidas, bem como os estados e derivadas estimados pelo CEKF e (3) melhoria dos dados com a passagem do CEFK. Em outras palavras, a metodologia desenvolvida consiste em estimações de parâmetros seqüenciais acompanhadas com a melhoria progressiva dos dados devido à aplicação do CEKF. Para o estudo de caso tomado foi perceptível a melhoria na estimação dos parâmetros, tornando interessante a continuidade do estudo que foi iniciado no presente trabalho. / Given the wide application of mathematical models, the demand for improvement of methods of identification of models is always welcome. It was upon this that has developed in this work. Considering the problem of the unknown disturbances in the inputs affect the quality of the estimation of parameters, we studied the estimation combined with the estimator states CEKF (Extended Constrained Filter Kalmar). This is because it was assumed that with the use of CEKF the effect of unknown disturbance would be reduced. As such, it took a case study of six spherical tanks interconnected to form simulated experimental data computationally. Was chosen an operating point for the estimation based on the estimated parameters. Before estimating the experimental data were filtered. For the estimation has been elaborated iterative methodology, characterized by three procedures: (1) parameter estimation, (2) adjustment of the objective function: the possibility of incorporating the derived measures, and states and derive the estimated CEKF and (3 ) improvement of data with the passage of CEFK. In other words, the methodology consists of sequential estimation of parameters together with the gradual improvement of data due to application of CEKF. For the case study was taken a noticeable improvement in the estimation of parameters, makes it interesting to continue the study that was initiated in this work.
60

Desenvolvimento de analisadores virtuais aplicados a colunas de destilação industriais

Conz, Vanessa January 2005 (has links)
Nas indústrias de processo, algumas variáveis como as composições de topo de colunas de destilação são quantificadas através de análises laboratoriais e ou de analisadores em linha. Este tipo de controle apresenta algumas limitações tais como custos de manutenção e o tempo de amostragem (em geral análises laboratoriais ocorrem de 1 a 3 vezes ao dia). Para melhoria destes métodos, as variáveis podem ser continuamente estimadas a partir de sua relação com as variáveis medidas diretamente no processo. Através de um algoritmo matemático, um analisador virtual de propriedades pode ser construído, sendo necessário para o seu desenvolvimento um modelo simplificado do processo. Este trabalho teve como objetivo a construção de dois analisadores virtuais para estimação das composições de topo de duas colunas fracionadoras de tolueno presentes em uma indústria petroquímica. Para tal, estudou-se as metodologias existentes para construção de analisadores voltados para aplicações em colunas de destilação. O desenvolvimento de analisadores virtuais tem como base três etapas: seleção de variáveis secundárias, construção de modelos e correção/adaptação de modelos. Tais etapas, baseadas principalmente em métodos estatísticos, foram estudadas e as técnicas que melhor se adaptaram ao caso em questão foram empregadas com resultados satisfatórios. Realizaram-se também estudos comparativos entre modelos estacionários e dinâmicos e modelos construídos a partir de dados de simulação e de processo. As simulações foram conduzidas nos softwares Aspen PlusÒ e Aspen DynamicsÒ e o software usado para implementação dos analisadores na indústria foi o Aspen IQÒ.

Page generated in 0.1021 seconds