• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 667
  • 45
  • 44
  • 44
  • 44
  • 35
  • 15
  • 9
  • 7
  • 7
  • 7
  • 1
  • 1
  • Tagged with
  • 689
  • 689
  • 269
  • 181
  • 149
  • 138
  • 129
  • 119
  • 99
  • 98
  • 92
  • 91
  • 91
  • 83
  • 75
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Uma contribuição a otimização do processo de retificação cilindrica de mergulho do aço SAE 4340

Pereira, Wanderley Xavier 27 August 2004 (has links)
Orientador: Anselmo Eduardo Diniz / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica / Made available in DSpace on 2018-08-04T01:12:49Z (GMT). No. of bitstreams: 1 Pereira_WanderleyXavier_D.pdf: 6105948 bytes, checksum: 0f75a0abac96fc41f9e456df5c5cc8c6 (MD5) Previous issue date: 2004 / Resumo: Objetivou-se neste trabalho estudar a influência dos parâmetros de retificação, velocidade de avanço, sobremetal e tempo de ciclo, na qualidade superficial da peça (rugosidade e circularidade), como também o nível de deformação imposta ao conjunto máquina-peçaferramenta. Este estudo se deu tanto para o ciclo de retificação com 3 fases (ciclo com 3 velocidades de avanços diferentes, analisando cada uma das fases em particular), como para o ciclo convencional (com apenas uma velocidade de avanço). Com isso foi possível também estabelecer um quadro comparativo entre eles ao longo da vida do rebolo. Para este estudo diversos ensaios foram realizados retificando-se peças de aço ABNT 4340, com dureza de SS HRc e rebolo ART FE 38A80K, utilizando uma retificadora CNC, em operação cilíndrica de mergulho. A resposta rugosidade foi medida através do parâmetro Ra ajustado com "cut-off' de 0,8 mm. A circularidade foi medida por meio de um relógio comparador milesimal acoplado a própria retificadora que também contava com um sistema de aquisição de sinais de vibração que auxiliou nas análises dos resultados, e por fim a deformação foi medida através do valor do diâmetro da peça (antes e depois da operação de correção) por meio de um micrômetro. Nos ensaios de vida da ferramenta foram retificadas 66 peças para cada condição experimental, sem proceder a dressagem. Dos resultados obtidos neste trabalho as principais conclusões indicaram que: a) se pode reduzir o tempo de retificação em relação às condições indicados pelo fabricante e pela literatura sem prejuízos à qualidade da peça. Isto é possível tanto para o ciclo convencional quanto para (ciclo de 3 fases; b) O ciclo convencional gerou peças de melhor qualidade quando comparado ac ciclo com três fases com o mesmo tempo de operação, porém, em ensaio de vida observou-se que, embora o ciclo convencional gerasse menor rugosidade no início de vida do rebolo, ao fur da vida os dois ciclos apresentaram rugosidade similares; c) No que tange à circularidade, m valores foram bem baixos tanto no início da vida quanto no fim; d) Por fim, observou-se para c ciclo de 3 fases que o valor do avanço da primeira fase é o maior responsável pela deterioraçãc da ferramenta e, conseqüentemente, pelo atingimento do fim da vida do rebolo / Abstract: The goal of work goal is study the influence of grinding parameters, feed velocities, stock remova! and time of cycle, in the surface quality of the workpiece (surface roughness and roundness measurement), as well as the deformation leveI imposed to the system machineworkpiece-tool. This study was accomplished for both the grinding cycle with 3 phases (cycle with 3 feed velocities different, analyzing each one of the phases) and the conventional cycle (with just one feed velocity). With that it was also possible to establish a comparative scenery among them along the wheellife. Aiming this goal several experiments were carried out grinding workpieces of ABNT 4340 steel, with hardness of 55 HRc and wheel ART FE 38A80K, using a CNC grinding machine, in plunge cylindrical grinding operation. The surface roughness was measured through the parameter Ra adjusted with cut-off of 0,8 mm. The roundness measurement was measured tbrough a device installed on the machine tool that also had a vibration measurement system. The vibration signal aided the analyses of the results. Fina11y the deformation was measured tbrough the value of the diameter of the workpiece (before and afier the spark out operation) tbrough a micrometer. In the tool life experiments 66 workpieces were ground in each experimental condition, without proceeding the dressing operation. Based on the results obtained in this work, the main conclusions were: a) the time of the rinding cycle can be reduced in relation to the time obtained using the conditions indicated by the anufacturer and for the literature without damages to the quality of the piece in both cycles, the conventional and the three stages cyc1es; b) the conventional cycle generated workpieces oj better quality when compared to the cycle with three stages in the beginning of toollife but in the end of wheellife both cycles presented similar rougbness; c) regarding the workpiece roundness measurement, the values were very low in the beginning of the life as well as in the end; d) Finally, it was observed for the cycle of 3 phases that the value of the feed velocities of the firs1 phase is the largest responsible for the deterioration of the tool and, consequently, for reaching the end ofthe wheel end oflife / Doutorado / Materiais e Processos de Fabricação
432

Aplicação de metodos de otimização para o calculo do equilibrio termodinamico

Souza, Alexandre Teixeira de 20 August 2004 (has links)
Orientadores: Reginaldo Guirardello, Lucio Cardozo-Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-08-04T01:50:44Z (GMT). No. of bitstreams: 1 Souza_AlexandreTeixeirade_D.pdf: 470643 bytes, checksum: 17f91f60ab5a4b70fbfee2eab54ba2ad (MD5) Previous issue date: 2004 / Resumo: O conhecimento do equilíbrio de fases, com ou sem reações químicas simultâneas, é de grande importância no projeto e análise de uma grande variedade de operações de processos químicos, incluindo reatores e unidades de separação. Devido à natureza nãoconvexa e não-linear de modelos termodinâmicos, necessários para descrever o problema do equilíbrio químico e/ou de fases, há um grande interesse na aplicação de técnicas de otimização mais seguras e robustas para descrever o comportamento de equilíbrio. A análise intervalar, uma técnica computacional robusta, tem sido usada para resolver as dificuldades que surgem nos problemas não-lineares na modelagem de várias equações de estado para comportamento de fases. Tem-se mostrado que a análise intervalar pode garantir, com certeza matemática e computacional, encontrar o ótimo global de uma função não-linear ou encontrar todas as raízes de um sistema de equações não-lineares, desde que se permita o tempo suficiente. Como mostrado nas aplicações para análise de estabilidade de fase, um passo preliminar para o cálculo do equilíbrio de fase, a análise intervalar provê um método que pode garantir que o resultado encontrado está correto, além de eliminar qualquer problema computacional que pode potencialmente ser encontrado com as técnicas atualmente disponíveis. Este método computacional é independente da inicialização, direto para uso, e pode ser aplicado em conexão com qualquer modelo de equação de estado. Embora a técnica desenvolvida seja de propósito geral, as aplicações apresentaram foco nos modelos de Peng-Robinson (PR) e Soave-Redlich-Kwong (SRK). A aritmética intervalar foi aplicada para o cálculo da estabilidade de fases utilizando duas formulações diferentes: i) minimização da distância entre o plano tangente e a superfície da energia livre de Gibbs nas condições de pressão e temperatura constantes; minimização da distância entre o plano tangente e a superfície da energia livre de Helmholtz nas condições de temperatura e volume constantes. Dados de equilíbrio de fases para o sistema óleo de cravo + CO2 em altas pressões foram obtidos em uma célula de volume variável com visualização, os quais foram posteriormente modelados usando-se a equação de estado de Peng-Robinson com a regra de mistura quadrática de van der Waals (vdW2). Finalmente, foi estudada a aplicação de alguns métodos de programação matemática para o cálculo simultâneo do equilíbrio químico e de fases (EQF) através da minimização da energia livre de Gibbs, sujeita a restrições de balanço de moles por espécie atômica e restrições de não-negatividade. Adotou-se a estratégia de minimização global, em vez da estratégia de encontrar raízes de sistema não-lineares utilizada no cálculo da estabilidade de fases usando o método do intervalo de Newton. Vários modelos na forma de programação matemática foram estudados e o desempenho de cada um analisado. Como estudo de caso, o método foi aplicado a uma mistura de hidrocarbonetos, em que se assumiu o comportamento quase ideal da mistura, tanto na fase gasosa como na fase líquida. Os resultados indicaram que a técnica é robusta e de grande utilidade para a previsão da formação das fases e de sua composição / Abstract: The knowledge of phase equilibrium, with or without simultaneous chemical reactions, is clearly important in the design and analysis of a wide variety of chemical processing operations, including reactors and separation units. Due the nonconvex and nonlinear natures of the thermodynamic models, which are necessary in order to describe the chemical and phase equilibrium, there is a significant interest in the development of more reliable techniques for solving the equilibrium behavior. Interval analysis, a robust computational technique, is used for solving difficult nonlinear problems arising in the modeling of various equation of states for phase behavior. It has been showed that interval analysis can be used, with mathematical and computational guarantees of certainty, to find the global optimum of a nonlinear function or to enclose any and all roots of a system of nonlinear equations. As shown in the applications here to phase stability analysis, a preliminary step to perform phase equilibrium, interval analysis provides a method that can guarantee that the correct result is found, thus eliminating any computational problem that may potentially be encountered with the currently available techniques. This computational method is initialization independent, straightforward to use, and can be applied in connection with any equation of state model. Though the technique developed is general-purpose, the applications presented focus on the Peng-Robinson (PR) and Soave-Redlich-Kwong (SRK) models. Intervalar arithmetic was applied for the calculation of phase stability using two different formulations: (i) minimization of distance between tangent plane and the surface of the Gibbs free energy at constant conditions of temperature and pressure and (ii) minimization of distance between tangent plane and the surface of Helmholtz free energy density at constant conditions of temperature and volume. Phase equilibria data for the clove oil + CO2 system were measured in a highpressure variable-volume view cell. For the modeling of experimental data the Peng-Robinson equation of state with the van der Waals quadratic mixing rules was employed. Finally, global optimization methods were studied for calculation of simultaneous chemical and phase equilibria (EQF) through minimization of the Gibbs free energy. As case a study, the method was applied to a hydrocarbon mixture, where the mixture behavior was assumed ideal. Results indicated that this approach is both reliable and robust / Doutorado / Sistemas de Processos Quimicos e Informatica / Doutor em Engenharia Química
433

Uma aplicação de scheduling na indústria / The application of scheduling in the industry

Silva, Felipe Augusto Moreira da 18 August 2018 (has links)
Orientador: Antonio Carlos Moretti / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica / Made available in DSpace on 2018-08-18T12:57:42Z (GMT). No. of bitstreams: 1 Silva_FelipeAugustoMoreirada_M.pdf: 3501967 bytes, checksum: 3b5c547e66bcab6f708612be936759ba (MD5) Previous issue date: 2011 / Resumo: Este trabalho aborda o problema de sequenciamento de tarefas no ambiente prático na indústria, onde será considerado vários aspectos pertinentes, como produção em paralelo, tempo de setup, produção em lotes e data de entrega. Também será considerado alguns aspectos de transporte como a capacidade de transporte, tornando o problema atípico dos já estudados na literatura. O problema em questão é apresentado pela indústria panificadora, onde a alta produtividade cresce a cada ano e a necessidade de planejamentos otimizados tornam-se cada vez mais importante de uma forma a abordar todas as características apresentada pelo problema. Para resolução do problema será sugerido duas abordagens, uma usando algoritmo guloso e outra utilizando algoritmo genético, as quais serão comparadas para problemas com pequenas dimensões com o valor ótimo da solução, resolvendo-o como um problema de programação linear inteira, e para dimensões maiores será comparado com limitantes superiores. O trabalho também nos fornece uma formulação matemática do problema de sequenciamento de tarefas de forma ampla a considerar todos os aspectos presentes na indústria e também faz uma análise do tempo de execução dos algoritmos comparando-os através da análise de complexidade de cada algoritmo / Abstract: This paper addresses the problem of sequencing jobs in the practical environment in the industry, which is considered more relevant aspects such as production in parallel, setup time, batch production and delivery date. Will also be considered some aspects of transport as the transport capacity, making the problem of atypical already studied in literature. The problem in question is presented by the baking industry, where high productivity is growing every year and the need for optimized planning become increasingly important in a way to embroider all the features presented by the problem. To solve the problem is suggested two approaches, using a greedy algorithm and the other using genetic algorithm, which will be compared to small problems with the optimum solution, solving it as an integer linear programming problem, and to higher dimensions will be compared with upper bounds. The work also provides us with a mathematical formulation of the problem of sequencing jobs broadly consider all aspects in industry and also gives an analysis of the runtime of the algorithms by comparing them by analyzing the complexity of each algorithm / Mestrado / Matematica Aplicada / Mestre em Matemática Aplicada
434

Modelos de Volterra = identificação não paramétrica e robusta utilizando funções ortonormais de Kautz e generalizadas / Volterra models : nonparametric and robust identification using Kautz and generalized orthonormal functions

Braga, Márcio Feliciano, 1983- 18 August 2018 (has links)
Orientador: Wagner Caradori do Amaral, Ricardo José Gabrielli Barreto Campello / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação / Made available in DSpace on 2018-08-18T18:57:59Z (GMT). No. of bitstreams: 1 Braga_MarcioFeliciano_M.pdf: 1946648 bytes, checksum: 782ab3e1f3a89e6527c7b9c090b00ac0 (MD5) Previous issue date: 2011 / Resumo: Enfoca-se a modelagem de sistemas não-lineares usando modelos de Volterra com bases de funções ortonormais (Orthonormal Basis Functions - OBF) distintas para cada direção do kernel. Os modelos de Volterra constituem uma classe de modelos polinomiais não-recursivos, modelos sem realimentação da saída. Tais modelos são parametrizados por funções multidimensionais, chamadas kernels de Volterra, e representam uma generalização do bem conhecido modelo de resposta ao impulso (FIR) para a descrição de sistemas não-lineares. Como os modelos de Volterra não possuem realimentação do sinal de saída, um número elevado de parâmetros é necessário para representar os kernels de Volterra, especialmente quando o comportamento não-linear do sistema depende fortemente do sinal de saída. No entanto, é possível contornar esta desvantagem por descrever cada kernel por meio de uma expansão em bases de funções ortonormais (OBF). Resultando num modelo que, em geral, possui um número menor de termos para representar o sistema. O modelo resultante, conhecido como modelo OBF-Volterra, pode ser truncado em um número menor de termos se as funções da base forem projetadas adequadamente. O problema reside na questão de como selecionar os polos livres que completamente parametrizam estas funções de forma a reduzir o número de termos a serem utilizados em cada base. Uma abordagem já utilizada envolve a otimização numérica das bases de funções ortonormais usadas para a aproximação de sistemas dinâmicos. Esta estratégia é baseada no cálculo de expressões analíticas para os gradientes da saída dos filtros ortonormais com relação aos polos da base. Estes gradientes fornecem direções de busca exatas para otimizar uma dada base ortonormal. As direções de busca, por sua vez, podem ser usadas como parte de um procedimento de otimização para obter o mínimo de uma função de custo que leva em consideração o erro de estimação da saída do sistema. Esta abordagem considerou apenas os modelos lineares e não-lineares cujas direções dos kernels foram todas parametrizadas por um mesmo conjunto de polos. Neste trabalho, estes resultados foram estendidos de forma a permitir o uso de uma base independente para cada direção dos kernels. Isto permite reduzir ainda mais o erro de truncamento quando as dinâmicas dominantes do kernel ao longo das múltiplas direções são diferentes entre si. As expressões dos gradientes relativas à base de Kautz e à base GOBF são obtidas recursivamente o que permite uma redução no tempo de processamento. Esta metodologia utiliza somente dados de entrada-saída medidos do sistema a ser modelado, isto é, não exige nenhuma informação prévia sobre os kernels de Volterra. Exemplos de simulação ilustram a aplicação dessas abordagens para a modelagem de sistemas não-lineares. Por último, apresentam-se resultados referentes à identificação robusta de modelos não-lineares sob a hipótese de erro desconhecido mas limitado, cujo objetivo é definir os limites superior e inferior dos parâmetros de modelos (intervalos de pertinência paramétrica). É analisado o caso em que se tem informação somente sobre a incerteza na saída do sistema, fornecendo-se o cálculo dos limitantes das incertezas para modelos OBF-Volterra. Estuda-se também os processos que possuem incerteza estruturada, i.e., os parâmetros do modelo, ou os kernels de Volterra, são definidos por meio de intervalos de pertinência e a ordem do modelo é conhecida. Apresenta-se uma solução exata para este problema, eliminando restrições impostas por metodologias anteriores / Abstract: It focuses in the modeling of nonlinear systems using Volterra models with distinct orthonormal basis functions (OBF) to each kernel direction. The Volterra models are a class of nonrecursive polynomial models, models without output feedback. Such models are parameterized by multidimensional functions, called Volterra kernels, they represent a generalization of the well-known impulse response model and are used to describe nonlinear systems. As the Volterra models do not have output feedback, it is required a large number of parameters to represent the Volterra kernels, especially when the nonlinear behavior strongly depends of the output signal. However, such drawback can be overwhelmed by describing each kernel by un expansion in orthonormal basis functions (OBF). Resulting in a model that, in general, requires fewer parameters to represent the system. The resulting model, so-called OBF-Volterra, can be truncated into fewer terms if the basis functions are properly designed. The underlying problem is how to select de free-design poles that fully parameterize these functions in order to reduce the number of terms to be used in each bases. An approach, already used, involves the numeric optimization of orthonormal bases of function used for approximation of dynamic systems. This strategy is based on the computation of analytical expressions for the gradient of the orthonormal filters output with respect to the basis poles. Such gradient provides exact search directions for optimizing the poles of a given orthonormal basis. The search direction can, in turn, be used as part of an optimization procedure to locate the minimum of a cost-function that takes into consideration the estimation error of the system output. Although, that approach took in count only the linear models and nonlinear models which kernels directions were parameterized by a single set of poles. In this work, these results are extended in such a way to allows a use of an independent basis to each kernel direction. It can reduce even more the truncation error when dominant dynamics of the kernel are different along its directions. The gradient expressions to Kautz and GOBF bases are obtained in a recursive way which allows reducing the time processing. This methodology relies solely on input-output data measured from the system to be modeled, i.e., no previous information about the Volterra kernels is required. Simulation examples illustrate the application of this approach to the modeling of nonlinear systems. At last, it is presented some results about robust identification of nonlinear models under the hypothesis of unknown but bounded error, whose aim is to define the upper and lower bounds of the model parameters (parameter uncertainty interval). It is analyzed the case where the information available is about the uncertainty in the system output signal, providing the calculation for the uncertainty intervals to OBF-Volterra models. The process having structured uncertainty, i.e., the models parameters, or the Volterra kernels, are defined by intervals and the model order is known, is also studied. An exact solution to this problem is developed, eliminating restrictions imposed by previous approach / Mestrado / Automação / Mestre em Engenharia Elétrica
435

Sintese de redes de trocadores de calor atraves de tecnicas de decomposição

Novazzi, Luis Fernando 18 December 2001 (has links)
Orientador: Roger Josef Zem / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica / Made available in DSpace on 2018-07-31T16:26:23Z (GMT). No. of bitstreams: 1 Novazzi_LuisFernando_M.pdf: 3154679 bytes, checksum: 424d3875800c9fe8c8a32eacdaa1e5d1 (MD5) Previous issue date: 2001 / Resumo: A Tecnologia Pinch é uma ferramenta bastante utilizada na integração de processos químicos. Ela se baseia na determinação, somente em função de algumas propriedades físicas das correntes de um processo, de metas de consumo de energia, de área e de custos de uma rede de trocadores de calor. Também determina regras para a síntese de redes cujos custos, área e consumo energético se aproximam muito daqueles estipulados pelas metas. Entretanto, a aplicação irrestrita da Tecnologia Pinch, integrando todas as correntes de um processo num único conjunto, pode levar a redes de trocadores demasiadamente complexas. Foi sugeri da nesse trabalho uma metodologia de decomposição das correntes em que as mesmas são integradas em subgrupos independentes entre si, a fim de se obter redes de trocadores mais simples. Através do Simulated Annealing, um método de otimização aleatório e aplicável a funções discretas, buscaram-se as diferentes configurações de correntes nos subgrupos que levavam a um mínimo ou nas metas de custo, ou área ou consumo energético. Na síntese de uma rede de trocadores, é importante levar em conta aspectos operacionais tais como layout, questões de segurança, controlabilidade, etc. Esses aspectos foram incluídos na metodologia proposta através do conceito de matriz de restrições. Para exemplificar a técnica de decomposição em subgrupos, foram sintetizadas algumas redes de trocadores de calor, cujos custos totais desviaram-se em menos do que 2% em relação às metas estipuladas / Abstract: Pinch Technology is a very useful tool for integration in chemical processes. By only taking some of process streams physical properties into account, it sets energy targets, area targets and cost targets for a heat exchanger network. It also determines rules for the design of a heat exchanger network whose costs, area and energy consumption remain quite c1ose to the targets set. However, blind obedience to Pinch Technology rules, integrating all streams in just one group, can lead to very complex heat exchanger networks. It was suggested in this work a decomposition technique where the streams were integrated in independent subgroups, aiming for simpler networks. Through Simulated Annealing, a randomic optimization method applicable to discrete functions, different configurations of streams in the subgroups, which led to a minimum in energy targets, or in area targets or in cost targets, were sought. In heat exchanger network synthesis, it is important to consider aspects of plant operability, such as layout, security, controllability, etc. These aspects were inc1uded in the proposed methodology through the concept of a constraint matrix. To give some examples of the decomposition technique, some heat exchanger networks were synthesized, whose costs presented less than 2% of deviation in relation to the targets set / Mestrado / Sistemas de Processos Quimicos e Informatica / Mestre em Engenharia Química
436

Politicas de controle malha fechada e malha aberta no planejamento da operação energetica de sistemas hidrotermicos

Martinez, Luciana 31 July 2018 (has links)
Orientador : Secundino Soares Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-07-31T21:27:59Z (GMT). No. of bitstreams: 1 Martinez_Luciana_D.pdf: 1513051 bytes, checksum: 6538c666995e04822ac7486dc8bb2c21 (MD5) Previous issue date: 2001 / Doutorado
437

O metodo da lagrangeana aumentada aplicado ao fluxo de carga otimo

Santos Júnior, Anésio dos, 1952- 16 July 2018 (has links)
Orientadores : Sigmar S. Deckmann, Secundino Soares Filho / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia de Campinas / Made available in DSpace on 2018-07-16T23:58:24Z (GMT). No. of bitstreams: 1 SantosJunior_Anesiodos_D.pdf: 4659046 bytes, checksum: a91d359ef606e9cab35a169504e5a52b (MD5) Previous issue date: 1986 / Resumo: Neste trabalho o problema do fluxo de carga ótimo é resolvido pelo método da lagrangeana aumentada. Os métodos da lagrangeana aumentada, dual clássico e de penalidades são apresentados com uma abordagem unificada. São descritas as características de modelagem utilizadas em um programa computacional desenvolvido tendo em vista a aplicação no planejamento da operação de sistemas de energia elétrica. Os resultados apresentados indicam que o método utilizado é uma boa alternativa para o cálculo do fluxo de carga ótimo / Abstract: In this work the optimal power flow problem solved by an augmented lagrangian method. Augmented lagrangian, classical dual and penalty methods are presented with a unified approach. The modelling characteristics are described as used in a computer program for application on operation planning of electrical energy systems. The results indicate that the method used is a good alternative for optimal power flow solutions / Doutorado / Doutor em Engenharia Elétrica
438

Aplicação de métodos de otimização no cálculo de equilíbrio de misturas de biodiesel com utilização de metodologias rigorosas para estimativa de propriedades termodinâmicas / Application of optimization methods in equilibrium calculation of biodiesel blends with use of rigorous methodologies for estimation of thermodynamic properties

Borghi, Daniela de Freitas, 1983- 12 December 2014 (has links)
Orientadores: Reginaldo Guirardello, Charlles Rubber de Almeida Abreu / Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Química / Made available in DSpace on 2018-08-26T16:13:40Z (GMT). No. of bitstreams: 1 Borghi_DanieladeFreitas_D.pdf: 3030117 bytes, checksum: b4aac454256a7b9c27deaa4219de53e7 (MD5) Previous issue date: 2014 / Resumo: Atualmente, a produção de biodiesel tem sido objeto de estudo em diversos países devido à previsão de exaustão das fontes petrolíferas e também às suas características, já que este combustível possui vantagens ambientais em relação à emissão de gases poluentes. Trata-se de uma fonte de energia renovável e as matérias-primas para a sua produção são abundantes no Brasil. O biodiesel é produzido através da transesterificação de gordura animal ou óleo vegetal. Porém, os reagentes (óleo e etanol/metanol) e os produtos (éster metílico/etílico de ácidos graxos e glicerol) são parcialmente solúveis durante o processo. Assim, o conhecimento do equilíbrio de fases das misturas envolvidas em sua produção é um fator importante na otimização das condições da reação e da separação final dos produtos. Dentro deste contexto, o presente trabalho teve como objetivo realizar cálculos de equilíbrio de misturas de compostos envolvidos nos processos de produção de biodiesel, utilizando técnicas de otimização global. A modelagem matemática requer o conhecimento de propriedades termoquímicas de todas as espécies envolvidas e do equilíbrio de fases do sistema. Tais informações foram obtidas a partir do uso de uma metodologia utilizando o software Gaussian 03 e o método COSMO-SAC. E o equilíbrio de fases foi realizado através da minimização da energia de Gibbs do sistema. Foram obtidos perfis sigma a serem utilizados no método COSMO-SAC através do software MOPAC. Eles foram comparados com os perfis sigma de um banco de dados do grupo Virginia Tech (VT-2005) e percebeu-se que, apesar de apresentarem diferenças, qualitativamente eles possuem muitas semelhanças. Foi verificada a eficiência do modelo COSMO-SAC em predizer os coeficientes de atividade de uma mistura binária de metanol e glicerol e observou-se que os desvios médios absolutos entre os valores experimentais e os calculados estão acima de 27%, o que é um desvio muito alto. Além disso, utilizou-se a metodologia da minimização da energia de Gibbs para a realização do cálculo de equilíbrio de fases de misturas binárias contendo água, metanol e glicerol, com o auxílio da ferramenta computacional GAMS. Os desvios médios absolutos obtidos variaram de 1,55 a 7,96%, dependendo da mistura. Portanto, este modelo ainda precisa de refinamentos para se tornar uma ferramenta confiável / Abstract: Biodiesel production has been studied in several countries due to the forecast of petroleum sources depletion and to its characteristics, since this fuel has environmental advantages due to lower pollutant gas emissions. It is a renewable source of energy and raw materials for its production are abundant in Brazil. Biodiesel is produced by transesterification of vegetable oils or animal fat. However, reagents (oil and ethanol/methanol) and products (fatty acids ethyl/methyl ester and glycerol) are partially soluble in the process. Therefore, knowledge of the phase equilibrium mixtures involved in its production is an important factor in optimizing the reaction conditions and separation of the final products. In this context, this work aims to perform equilibrium calculations of mixtures of compounds involved in the biodiesel production process using global optimization techniques. Mathematical modeling requires the knowledge of thermochemical properties of all the species involved and the phase equilibrium of the system. Such information was obtained with a methodology using the Gaussian 03 software and COSMO-SAC method. The phase equilibrium was achieved by minimizing the Gibbs energy of the system. Sigma profiles to be used in COSMO-SAC method were obtained using the MOPAC software. It was compared with the sigma profiles from Virginia Tech group database (VT-2005) and it was realized that, despite having differences, qualitatively it is similar. The efficiency of COSMO-SAC model to predict the activity coefficients of a binary mixture of methanol and glycerol was verified and it was found that the average absolute deviation between experimental and calculated values are above 27%, a very high value. In addition, a methodology of Gibbs energy minimization we used to perform the calculation of the phase equilibrium of binary mixtures containing water, methanol and glycerol, with the GAMS software. The mean absolute deviations obtained ranged from 1.55 to 7.96% depending on the mixure. Therefore, this model still needs refinements to become a reliable tool / Doutorado / Engenharia Química / Doutora em Engenharia Quimica
439

Estratégia de decomposição aplicada ao problema de planejamento da expansão de sistemas de distribuição /

Baquero, John Fredy Franco. January 2012 (has links)
Orientador: Rubén Augusto Romero Lázaro / Coorientador: Marcos Julio Rider Flores / Banca: Jose Roberto Sanches Mantovani / Banca: Antonio Padilha Feltrin / Banca: Eduardo Nobuhiro Asada / Banca: Ariovaldo Verandio Garcia / Resumo: O problema do planejamento de sistemas de distribuição de energia elétrica consiste em determinar as mudanças que precisam ser feitas no sistema visando atender as condições de demanda futura, respeitando os critérios técnicos de operação e segurança, tudo isto sob um mínimo custo econômico (no caso da otimização monoobjetivo). A modelagem do problema de planejamento da expansão de sistemas de distribuição inclui a repotenciação de subestações existentes, a alocação e dimensionamento de novas subestações, o recondutoramento de alimentadores existentes, a construção e seleção do tipo de cabo para alimentadores novos e a seleção da topologia do sistema (reconfiguração). Além disso, o modelo considera que a expansão do sistema pode ser executada em vários estágios, propondo assim uma formulação dinâmica do problema de planejamento. É apresentada neste trabalho uma estratégia de decomposição para dividir o problema no subproblema da seleção das subestações e na solução de problemas de reconfiguração e recondutoramento dependentes. São desenvolvidos algoritmos heurísticos, que combinados com a metaheurística Busca Tabu, permitem uma exploração eficiente do espaço de busca. A estratégia de decomposição mencionada permite o uso da programação paralela, conseguindo diminuir o tempo de processamento. O método proposto é testado usando casos de grande porte da literatura, mostrando um excelente desempenho / Abstract: The distribution system expansion planning problem consists of to determine the investments that need to be made in the system to meet future demand conditions, satisfying technical criteria for operation and safety, all under a minimum economic cost (in the case of mono-objective optimization). The modeling of the planning problem includes the expansion of existing substations, the allocation and design of new substations, the reconductoring of existent feeders, the selection of the type of conductor for new feeders and the selection of the system topology (reconfiguration). Furthermore, the model assumes that the expansion of the system can be performed in several stages, thus it is proposed dynamic planning problem formulation. In this paper work, it is presented a decomposition strategy to separate the problem into the subproblems of selection of the substations, reconfiguration and selection of the conductor feeders. Heuristic algorithms are developed, which combined with the Tabu Search metaheuristic, allow an efficient exploration of the space of search. The decomposition strategy aforementioned allows the use of parallel programming, achieving reduced processing time. The proposed method is tested using large cases in the literature, showing excellent performance / Doutor
440

Carregamento ótimo de veículos elétricos considerando as restrições das redes de distribuição de média tensão /

Garcia Osorio, Victor Alberto. January 2013 (has links)
Orientador: Antonio Padilha Feltrin / Coorientador: Augusto César Rueda Medina / Banca: Fábio Bertequini Leão / Banca: Gelson Antonio Andrêa Brigatto / Resumo: O escopo deste trabalho é a otimização do carregamento dos Veículos elétricos (VEs) em um ambiente controlado, considerando-se uma infraestrutura de medição avançada. O método desenvolvido utiliza uma técnica de otimização linear, a qual determina a potência elétrica que será entregue a cada VE considerando como restrições os níveis de operação da rede elétrica de média tensão. Essa potência será chamada neste trabalho como taxa de carregamento ótimo. Para a aplicação da metodologia proposta neste trabalho, é necessário conhecer a distribuição espacial dos veículos elétricos híbridos plug-in (PHEVs) na cidade e a distância percorrida por cada um deles. Para isto, foi utilizado o modelo espaço-temporal que utiliza um sistema multiagente e um enfoque de percolação o qual permite estimar a localização de cada PHEV e o estado de carga inicial (SOC) para a conexão no sistema. Estes dados são considerados como dados de entrada para a metodologia apresentada neste trabalho. O método foi testado no sistema teste IEEE 34 considerando niveis de penetração de 15%, 30% e 50% e o algoritmo desenvolvido foi implementado em linguagem de programação MATLAB 7.9.0 (R2009a). Os resultados mostram que com uma porcentagem de penetração de 15%, é possível atender a demanda adicional, representada pela conexão dos PHEVs, sem violar as restrições de operação do sistema; com uma porcentagem de penetração de 30%, os resultados mostram que, preservando os limites de operação do sistema, uma porcentagem de 20,66% dos PHEVs consegue carregar totalmente suas baterias. Também, com uma porcentagem de penetração de 50% os resultados mostram que 8,56% dos PHEVs consegue ficar dentro de um nível de energia aceitável. Porém, gerando cenários de recarga onde os níveis de tensão do sistema são aumentados e... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The scope of this work is to optimize the charging of electric vehicles (EVs) in a controlled environment, considering an advanced metering infrastructure. The method uses a linear optimization technique, which determines the electrical power that will be delivered to each EV considering the levels of operating constraints in a medium-voltage distribution network. In this work, such power is called the optimal charging rate. For the application of the methodology proposed in this work, it is necessary to know the spatial distribution of the hybrid electric vehicles (PHEVs) and the distance traveled by each of them. For this, this work used the spatial-temporal model formed by a multi-agent system with a percolation approach to estimate the location of each PHEV, and the initial state of charge (SOC) in the beginning of recharge. These data are considered as inputs of the presented methodology in this work. The method was tested in the IEEE 34 test system considering penetration levels of 15%, 30% and 50% and the developed algorithm was implemented in the MATLAB programming language 7.9.0 (R2009a). The results show that with 15% of penetration, it is possible to meet the additional demand, represented by the connection of PHEVs without violating the operation system constraints; with a percentage of 30% penetration, the results show that while preserving the operating limits of the system, a percentage of 20.66% of PHEVs can fully charge their batteries. Also, with a percentage of 50% penetration results show that 8.56% of PHEVs can stay within an acceptable power level. However, creating scenarios where the system voltage levels are increased and, moreover, the charging time is extended, the batteries of all PHEVs, representing a rate of penetration of 30% are in the end of the clearance within an acceptable level and, for 50%, a... (Complete abstract click electronic access below) / Mestre

Page generated in 0.1142 seconds