• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • Tagged with
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Reconciliação e retificação de dados e classificação de variaveis de processo

Mendes, Talita Furlanetto 20 July 2018 (has links)
Orientador: João Alexandre Ferreira da Rocha Pereira / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-07-20T15:07:50Z (GMT). No. of bitstreams: 1 Mendes_TalitaFurlanetto_D.pdf: 7184988 bytes, checksum: 29a8c803f819f1b3b3740e7f74f9a7cf (MD5) Previous issue date: 1995 / Resumo: Os dados de processo, obtidos em unidades industriais, são a base para decisões que vão influir na qualidade dos produtos que gera e de ações que podem, em certos casos, afetar a segurança industrial. Quando obtidos em equipamento em escala de laboratório, são o alicerce onde se fundamentam o projeto de novos processos. Em vista disto, quanto mais próximo os valores das quantidades medidas estiverem dos valores verdadeiros correspondentes, mais acertadas e confiáveis as ações fundamentadas na sua análise. Neste trabalho, foram desenvolvidos procedimentos computacionais para reconciliação e retificação de dados de processo, que buscam obter as melhores estimativas, de acordo com algum critério, para as quantidades medidas, seguidas da obtenção de estimativas para as quantidades não-medidas observáveis. Eles são aplicáveis a balanços de massa multicomponentes, sujeitos a restrições lineares, podendo ou não ocorrer reações químicas. Estes procedimentos utilizam projeção matricial para simplificação do problema de obtenção dos ajustes das quantidades medidas, o que é feito através do método dos mínimos quadrados ponderados e dos multiplicadores de Lagrange. Do conjunto de restrições, fazem parte, as equações de balanços de massa, podendo ser incluídas restrições adicionais, como a razão de partição conhecida de um divisor de fluxo... Observação: O resumo, na íntegra, poderá ser visualizado no texto completo da tese digital / Abstract: Process data from industrial unities are the basis to take decisions which affects the product quality and industrial security, in certain situations. When they are obtained in laboratory scale, they are the beginning of new process design. By these reasons, the actions based on their analysis will be more correct when they are nearest of their values. In this thesis, a computational procedure to reconciliate and rectify measured data and to obtain estimates of observable unmeasured quantities was developed. They are applied to multicomponent mass balances, subject to linear constrains, where can occur measured, the total flow rate is also measured. The reconciliation and rectification procedures make use of matrix projection to obtain the adjustments of measured quantities, which is done by the weighted least squares method and the Lagrange multipliers, so that the conservation laws are obeyed. Beyond the mass balance constraints, other restrictions can be included as a known split fraction of a flow splitter. In the data rectification procedure, three statistical tests are applied to the detection and/or identification of gross errors: the global test, that uses a chi-squared statistic constructed from the observed discrepancies in the constraints, and the measurement test and nodal imbalance test, whose statistics are tested against the standard normal distribution... Note: The complete abstract is available with the full electronic digital thesis or dissertations / Doutorado / Sistemas de Processos Quimicos e Informatica / Doutor em Engenharia Química
2

Metodologia para implementação do modelo Markoviano em analise confiabilistica de sistemas

Moras, Celso Fabricio 26 July 2002 (has links)
Orientador: Katia Lucchesi Cavalca / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-02T03:25:03Z (GMT). No. of bitstreams: 1 Moras_CelsoFabricio_M.pdf: 7915946 bytes, checksum: a615583c692ad5c449cb3ba26ce08763 (MD5) Previous issue date: 2002 / Resumo: Em uma economia globalizada e competitiva, com regras modernas de segurança, leis ambientais e de responsabilidade, o avanço da tecnologia permite o desenvolvimento de equipamentos e sistemas cada vez mais complexos, capazes de satisfazer as exigências impostas e competir com os concorrentes existentes no mercado, sendo um dos parâmetros de diferença, a confiabilidade do produto ou sistema. Assim, durante o desenvolvimento do mesmo, a quantificação da confiabilidade e de parâmetros associados faz-se necessária, visto que a mesma influi no aspecto da vida de um produto ou sistema. Contudo, na maioria das vezes, a obtenção do seu valor é aproximado, adotando-se critérios de independência de componentes, ou a não inclusão de dados relacionados com manutenção. Visando a obtenção de valores de confiabilidade, considerando os dados mencionados, foi desenvolvida uma metodologia que, utilizando como base a teoria de Processos Estocásticos Markovianos, utiliza diretamente os conceitos de taxa de falha e de reparo, permitindo a inclusão da Curva da Banheira, e das dependências e dos dados de manutenção do produto ou sistema. Assim, a partir dos mesmos, obtém-se um sistema de equações diferenciais que, pela sua resolução, fornece um valor mais realista da confiabilidade e dos parâmetros associados, a disponibilidade e o MTTF do produto ou sistema analisado / Abstract: In the globalized and competitive economy, with modern security rules, environment and responsability laws, the advance of technology allows the development of equipments and systems more and more complex. They have to be able to satisfy imposed requeriments and to compete with existing market competitor. One of the market differentials is the product or system reliability. In the course of the product development, the reliability evaluation and its associated measures is required, because of its influence on the product or system life. However, most of times, the reliability evaluation is approximated, using the role of independency of the components, or not considering the maintenance data. To allow the reliability evaluation considering the criterions mentioned, a methodology based on the theory of Markovian stochastic process was developed. It makes use of the concepts of failure and repair rates, including the bathtub curves, and the dependencies and the maintenance data of the components of the product or system. Considering the previous statements, a system of ordinary differential equations is obtained, and its solution provides a more realistic value of the reliability and associated measures, the availability and MTTF of the product or systems in analysis / Mestrado / Mecanica dos Sólidos e Projeto Mecanico / Mestre em Engenharia Mecânica
3

Detecção de linhas redundantes em problemas de programação linear de grande porte / Finding all linearly dependent rows in large-scale linear programming

Silva, Daniele Costa, 1984- 16 August 2018 (has links)
Orientador: Aurelio Ribeiro Leite de Oliveira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-08-16T01:36:50Z (GMT). No. of bitstreams: 1 Silva_DanieleCosta_M.pdf: 1303714 bytes, checksum: 5b7f038f6b0f53fca9601f7784ec02d1 (MD5) Previous issue date: 2010 / Resumo: A presença de linhas redundantes na matriz de restrições não é incomum em problemas reais de grande porte. A existência de tais linhas deve ser levada em consideração na solução destes problemas. Se o método de solução adotado for o método simplex, existem procedimentos eficientes e de fácil implementação que contornam este problema. O mesmo se aplica quando métodos de pontos interiores são adotados e os sistemas lineares resultantes são resolvidos por métodos diretos. No entanto, existem problemas de grande porte cuja única forma possível de solução é resolver os sistemas lineares por métodos iterativos. Nesta situação as linhas redundantes representam uma dificuldade considerável, pois geram uma matriz singular e os métodos iterativos não convergem. A única alternativa viável consiste em detectar tais linhas e eliminá-las antes da aplicação dos métodos de pontos interiores. Este trabalho propõe uma implementação eficiente de um procedimento de detecção de linhas redundantes, que incluímos em uma adaptação própria do PCx que resolve os sistemas lineares por métodos iterativos / Abstract: The presence of dependent rows in the constraint matrix is frequent in real large-scale problems. If the method of solution adopted is the simplex method, there are efficient procedures easy to implement that circumvent this problem. The same applies when interior point methods are adopted and the resulting linear systems are solved for directed methods. However, there are large-scale problems whose only possible solution is to solve linear systems by iterative methods. In this situation, the dependent rows create a singular matrix and the iterative method does not converge. The only viable alternative is to find and remove these rows before applying the method. This dissertation proposes an efficient implementation of a procedure for detection dependent rows, include in a PCx modification that solves linear systems by iterative methods / Mestrado / Programação Linear / Mestre em Matemática Aplicada
4

Desenvolvimento de um software para reconciliação de dados de processos quimicos e petroquimicos / Development of software for data reconciliation of chemical and petrochemical processes

Barbosa, Agremis Guinho 11 June 2003 (has links)
Orientador: Rubens Maciel Filho / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-10T21:51:34Z (GMT). No. of bitstreams: 1 Barbosa_AgremisGuinho_M.pdf: 1501070 bytes, checksum: c20fd373ba5e239e2b783608aebbc7f2 (MD5) Previous issue date: 2003 / Resumo: O objetivo deste trabalho é o desenvolvimento de rotinas computacionais para o condicionamento de dados provenientes de um processo químico, de modo que estes sejam consistentes para a representação do comportamento do processo. A descrição adequada do comportamento de um processo é a base fundamental de qualquer sistema de controle e/ou otimização, uma vez que será em resposta às medições deste processo (sua descrição) que os referidos sistemas atuarão. Desta forma o tratamento e correção dos erros de medição, especificamente, e a estimativa de parâmetros, de um modo mais geral, constituem uma etapa que não deve ser negligenciada no controle e otimização de processos. O condicionamento de dados estudado neste trabalho é a reconciliação de dados, que tem como característica principal o uso de um modelo de restrições para condicionar a informação. Geralmente os modelos de restrição são balanços de massa e energia e os somatórios das frações mássicas e molares, mas outros modelos também podem ser usados. Matematicamente, a reconciliação de dados é um problema de otimização sujeito a restrições. Neste trabalho, a formulação do problema de reconciliação é a dos mínimos quadrados ponderados sujeito a restrições e a abordagem para a sua solução é a fatoração QR. Objetiva-se também reunir as rotinas desenvolvidas em uma única ferramenta computacional para a descrição, resolução e análise dos resultados do problema de reconciliação de dados, constituindo-se em um software de fácil utilização e que tenha ainda um mecanismo de comunicação com banco de dados, conferindo-lhe interatividade em tempo real com sistemas de aquisição de dados de processo / Abstract: The purpose of this work is the development of computational routines for conditioning chemical process data in order to represent the process behavior as reliable as possible. Reliable process description is fundamental for any control or optimization system development, since they respond to the process measurements (its description). Thus, data conditioning and correction of process measurement errors, and parameter estimation are a step that should not be neglected in process control and optimization. The data conditioning considered in this work is data reconciliation which has as the main characteristic the use of a constraint model. In general constraint models are mass and energy balances and mass and molar fraction summation, but other models may be used. Under a mathematical point of view, data reconciliation is an optimization subject to constraints. In this work, it is used the formulation of weighed least squares subject to constraints and QR factorization approach to solve the problem. The additional objective of this work is to accommodate the developed routines in such a way to build up an integrated computational tool characterized by its easy to use structure, capability to solve and perform data reconciliation. Its structure takes into account the interaction with data bank, giving it real time interactiveness with process data acquisition systems / Mestrado / Desenvolvimento de Processos Químicos / Mestre em Engenharia Química
5

Uma infra-estrutura confiavel para arquiteturas baseadas em serviços Web aplicada a pesquisa de biodiversidade / A dependable infrastructure for service-oriented architectures applied at biodiversity research

Gonçalves, Eduardo Machado 15 August 2018 (has links)
Orientador: Cecilia Mary Fischer Rubira / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-08-15T11:38:59Z (GMT). No. of bitstreams: 1 Goncalves_EduardoMachado_M.pdf: 3443509 bytes, checksum: b9211dc7c7cdb58d86853bd60f992664 (MD5) Previous issue date: 2009 / Resumo: A Arquitetura Orientada a Serviços (SOA) é responsável por mapear os processos de negócios relevantes aos seus serviços correspondentes que, juntos, agregam o valor final ao usuário. Esta arquitetura deve atender aos principais requisitos de dependabilidade, entre eles, alta disponibilidade e alta confiabilidade da solução baseada em serviços. O objetivo deste trabalho é desenvolver uma infra-estrutura de software, chamada de Arquitetura Mediador, que atua na comunicação entre os clientes dos serviços e os próprios serviços Web, a fim de implementar técnicas de tolerância a falhas que façam uso efetivo das redundâncias de serviços disponíveis. A Arquitetura Mediador foi projetada para ser acessível remotamente via serviços Web, de forma que o impacto na sua adoção seja minimizado. A validação da solução proposta foi feita usando aplicações baseadas em serviços Web implementadas no projeto BioCORE. Tal projeto visa apoiar biólogos nas suas atividades de pesquisa de manutenção do acervo de informações sobre biodiversidade de espécies / Abstract: The Service-Oriented Architecture is responsible to map the business processes relevant to its services that, together, add value to the final user. This architecture must meet the main dependability requirements, among them, high availability and high reliability, part of the service-based solution. The objective of this work is to develop a software infrastructure, called Arquitetura Mediador, that operates in the communication between the web service's clients and the web services itself, in order to implement fault tolerance techniques that make eéctive use of available services redundancies. The Arquitetura Mediador infrastructure was designed to be remotely accessible via web services, so that the impact on its adoption should be minimized. The validation of the proposed solution was made using web services-based applications implemented on BioCORE project. This project aims to support biologists in his/her research activities and to maintain informations about collections of species and biodiversity / Mestrado / Engenharia de Software / Mestre em Ciência da Computação
6

Desenvolvimento de um software para detecção de erros grosseiros e reconciliação de dados estática e dinâmica de processos químicos e petroquímicos / Development of software for static and dynamic gross error detection and data reconciliation of chemical and petrochemical processes

Barbosa, Agremis Guinho 22 August 2018 (has links)
Orientador: Rubens Maciel Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Química / Made available in DSpace on 2018-08-22T08:44:14Z (GMT). No. of bitstreams: 1 Barbosa_AgremisGuinho_D.pdf: 4370227 bytes, checksum: 9fc9a5dfb766e6075fe58104c3c22087 (MD5) Previous issue date: 2008 / Resumo: O principal objetivo deste trabalho foi o desenvolvimento de um software para reconciliação de dados, detecção e identificação de erros grosseiros, estimativa de parâmetros e monitoramento da qualidade da informação em unidades industriais em estado estacionário e dinâmico. O desenvolvimento desse software focalizou atender aos critérios de modularidade, extensibilidade e facilidade de uso. A reconciliação de dados é um procedimento de tratamento de medidas em plantas de processos necessário devido ao fato da inexorável presença de erros aleatórios de pequena magnitude associados aos valores obtidos dos equipamentos de medição. Além dos erros aleatórios, por vezes os dados estão associados a erros de maior magnitude e que constituem uma tendência, ou viés. Erros desta natureza podem ser qualificados e quantificados por técnicas de detecção de erros grosseiros. É importante para aplicação de subrotinas de otimização que os dados sejam confiáveis e livres de erros tanto quanto possível. A tarefa da remoção destes erros através de modelos previamente conhecidos (reconciliação de dados) não é trivial, já sendo estudada no campo da engenharia química nos últimos 40 anos e apresenta uma crescente quantidade de trabalhos publicados. Contudo, uma parte destes trabalhos é voltada para aplicação da reconciliação sobre equipamentos isolados, como tanques, reatores e colunas de destilação, ou pequenos conjuntos destes equipamentos e não são muitos os trabalhos que utilizam dados reais de operação. Isto pode ser atribuído à dimensão do trabalho computacional associado ao grande número de variáveis. O que se propõe neste trabalho é tomar partido da crescente capacidade computacional e das modernas ferramentas de desenvolvimento, provendo uma aplicação na qual seja facilitada a tarefa de descrever sistemas de maior dimensão, para estimar dados de qualidade superior, em tempo hábil, para sistemas de controle e otimização. É importante frisar que a reconciliação de dados e a detecção de erros grosseiros são fundamentais para a confiabilidade de resultados de subrotinas de otimização e controle supervisório e também pode ser utilizada para a reconstrução de estados do processo / Abstract: The main goal of this work was the development of software for data reconciliation, gross errors detection and identification, data reconciliation, parameter estimation, and information quality monitoring in industrial units under steady state and dynamic operation. The development of this software was focused on meeting the criteria of modularity, extensibility, and user friendliness. Data reconciliation is a procedure for measurement data treatment in process plants, which is necessary due the fact of the inexorable presence of random, small magnitude errors associated to the values obtained from measurement devices. In addition to the random errors, sometimes data are associated to major magnitude errors that lead to a trend or bias. Errors of this nature can be qualified and quantified through gross errors detection techniques. It is important for optimization routines that data are reliable and error free as much as possible. The task of removal of these errors using previously known models (data reconciliation) is not trivial, and has been studied for the last 40 years in the field of chemical engineering, showing an increasing amount of published works. However, part of these works is devoted to applying data reconciliation over single equipment, such as tanks, reactors, distillation columns, or small sets of these equipments. Furthermore, not much of this published work relies on real operation data. This can be regarded to the dimension of computational work associated to the great number of variables. This work proposes to take advantage of increasing computational capacity and modern development tools to provide an application in which the task of higher dimension systems description is accomplished with ease in order to produce data estimates of superior quality, in a suitable time frame, to control and optimization systems. It is worthwhile mentioning that data reconciliation and gross error detection are fundamental for reliability of the results from supervisory control and optimization routines, and can be used also to process state reconstruction / Doutorado / Desenvolvimento de Processos Químicos / Doutor em Engenharia Química

Page generated in 0.0752 seconds