• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 6
  • 2
  • Tagged with
  • 35
  • 35
  • 34
  • 32
  • 22
  • 22
  • 22
  • 14
  • 11
  • 9
  • 8
  • 7
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Uma eficiente metodologia para reconfiguração de redes de distribuição de energia elétrica usando otimização por

Prieto, Laura Paulina Velez January 2015 (has links)
Orientador: Prof. Dr. Edmarcio Antonio Belati / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia Elétrica, 2015. / Esta pesquisa apresenta uma metodologia para reconfiguração de sistemas elétricos de distribuição baseada na metaheurística "otimização por enxame de partículas" do inglês Particle Swarm Optimization, denominada por PSO. Na metodologia proposta, inicialmente são estabelecidos os subconjuntos de chaves candidatas, calculados com base no número de chaves abertas necessárias para manter a radialidade do sistema. Assim, o espaço de busca diminui consideravelmente. O algoritmo de solução foi desenvolvido para minimizar as perdas de potência nas linhas da rede de distribuição, sujeita às seguintes restrições: a) limite de tensão; b) ilhamento de carga; c) radialidade do sistema e d) balanço das potências ativa e reativa nos nós da rede. Alterações na formulação clássica do PSO foram realizadas de modo a tornar o processo de busca mais eficiente. O processo de busca que compõem a metodologia foi detalhado em um sistema de 5 barras e 7 linhas. A técnica foi validada em quatro sistemas: 16 barras e 21 chaves; 33 barras e 37 chaves; 70 barras e 74 chaves; e 136 barras e 156 chaves. Comparando os resultados para os quatro sistemas testados com os resultados existentes na literatura, em todos os casos foi encontrada a topologia com o menor número de perdas já encontrada na literatura consultada até o momento. / This research presents a method for network reconfiguration in distribution systems based on the metaheuristics "Particle Swarm Optimization". In this method, the candidate switch subsets are calculated based on the number of open switches necessary to maintain the radial configuration. Then, the search space reduces substantially. The algorithm was developed to minimize the power losses in the lines of the distribution system considering the following constrains: a) voltage limits; b) load connectivity; c) radial configuration and d) power balancing. The original version of PSO was modified to improve the search process. The search process that composes the methodology is detailed in a system of 5 nodes and 7 switches. The technique was validated in four systems: 16 nodes and 21 switches, 33 nodes and 37 switches and 70 nodes and 74 switches and 136 nodes and 156 switches. Comparing the results for the four systems tested with existing literature results in all cases showed the topology with fewer losses already found in the literature to date.
22

Reconstrução de imagens de tomografia por impedância elétrica usando evolução diferencial

RIBEIRO, Reiga Ramalho 23 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-09-20T13:03:02Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Versão_Digital_REIGA.pdf: 3705889 bytes, checksum: 551e1d47969ce5d1aa92cdb311f41304 (MD5) / Made available in DSpace on 2016-09-20T13:03:02Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Versão_Digital_REIGA.pdf: 3705889 bytes, checksum: 551e1d47969ce5d1aa92cdb311f41304 (MD5) Previous issue date: 2016-02-23 / CAPES / A Tomografia por Impedância Elétrica (TIE) é uma técnica que visa reconstruir imagens do interior de um corpo de forma não-invasiva e não-destrutiva. Com base na aplicação de corrente elétrica e na medição dos potenciais de borda do corpo, feita através de eletrodos, um algoritmo de reconstrução de imagens de TIE gera o mapa de condutividade elétrica do interior deste corpo. Diversos métodos são aplicados para gerar imagens de TIE, porém ainda são geradas imagens de contorno suave. Isto acontece devido à natureza matemática do problema de reconstrução da TIE como um problema mal-posto e mal-condicionado. Isto significa que não existe uma distribuição de condutividade interna exata para uma determinada distribuição de potenciais de borda. A TIE é governada matematicamente pela equação de Poisson e a geração da imagem envolve a resolução iterativa de um problema direto, que trata da obtenção dos potenciais de borda a partir de uma distribuição interna de condutividade. O problema direto, neste trabalho, foi aplicado através do Método dos Elementos Finitos. Desta forma, é possível aplicar técnicas de busca e otimização que objetivam minimizar o erro médio quadrático relativo (função objetivo) entre os potenciais de borda mensurados no corpo (imagem ouro) e os potencias gerados pela resolução do problema direto de um candidato à solução. Assim, o objetivo deste trabalho foi construir uma ferramenta computacional baseada em algoritmos de busca e otimização híbridos, com destaque para a Evolução Diferencial, a fim de reconstruir imagens de TIE. Para efeitos de comparação também foram utilizados para gerar imagens de TIE: Algoritmos Genéticos, Otimização por Enxame de Partículas e Recozimento Simulado. As simulações foram feitas no EIDORS, uma ferramenta usada em MatLab/ GNU Octave com código aberto voltada para a comunidade de TIE. Os experimentos foram feitos utilizando três diferentes configurações de imagens ouro (fantomas). As análises foram feitas de duas formas, sendo elas, qualitativa: na forma de o quão as imagens geradas pela técnica de otimização são parecidas com seu respectivo fantoma; quantitativa: tempo computacional, através da evolução do erro relativo calculado pela função objetivo do melhor candidato à solução ao longo do tempo de reconstrução das imagens de TIE; e custo computacional, através da avaliação da evolução do erro relativo ao longo da quantidade de cálculos da função objetivo pelo algoritmo. Foram gerados resultados para Algoritmos Genéticos, cinco versões clássicas de Evolução Diferencial, versão modificada de Evolução Diferencial, Otimização por Enxame de Partículas, Recozimento Simulado e três novas técnicas híbridas baseadas em Evolução Diferencial propostas neste trabalho. De acordo com os resultados obtidos, vemos que todas as técnicas híbridas foram eficientes para resolução do problema da TIE, obtendo bons resultados qualitativos e quantitativos desde 50 iterações destes algoritmos. Porém, merece destacar o rendimento do algoritmo obtido pela hibridização da Evolução Diferencial e Recozimento Simulado por ser a técnica aqui proposta mais promissora na reconstrução de imagens de TIE, onde mostrou ser mais rápida e menos custosa computacionalmente do que as outras técnicas propostas. Os resultados desta pesquisa geraram diversas contribuições na forma de artigos publicados em eventos nacionais e internacionais. / Electrical Impedance Tomography (EIT) is a technique that aim to reconstruct images of the interior of a body in a non-invasive and non-destructive form. Based on the application of the electrical current and on the measurement of the body’s edge electrical potential, made through of electrodes, an EIT image reconstruction algorithm generates the conductivity distribution map of this body’s interior. Several methods are applied to generate EIT images; however, they are still generated smooth contour images. This is due of the mathematical nature of EIT reconstruction problem as an ill-posed and ill-conditioned problem. Thus, there is not an exact internal conductivity distribution for one determinate edge potential distribution. The EIT is ruled mathematically by Poisson’s equations, and the image generation involves an iterative resolution of a direct problem, that treats the obtainment of the edge potentials through of an internal distribution of conductivity. The direct problem, in this dissertation, was applied through of Finite Elements Method. Thereby, is possible to apply search and optimization techniques that aim to minimize the mean square error relative (objective function) between the edge potentials measured in the body (gold image) and the potential generated by the resolution of the direct problem of a solution candidate. Thus, the goal of this work was to construct a computational tool based in hybrid search and optimization algorithms, highlighting the Differential Evolution, in order to reconstruct EIT images. For comparison, it was also used to generate EIT images: Genetic Algorithm, Particle Optimization Swarm and Simulated Annealing. The simulations were made in EIDORS, a tool used in MatLab/GNU Octave open source toward the TIE community. The experiments were performed using three different configurations of gold images (phantoms). The analyzes were done in two ways, as follows, qualitative: in the form of how the images generated by the optimization technique are similar to their respective phantom; quantitative: computational time, by the evolution of the relative error calculated for the objective function of the best candidate to the solution over time the EIT images reconstruction; and computational cost, by evaluating the evolution of the relative error over the amount of calculations of the objective functions by the algorithm. Results were generated for Genetic Algorithms, five classical versions of Differential Evolution, modified version of the Differential Evolution, Particle Optimization Swarm, Simulated Annealing and three new hybrid techniques based in Differential Evolution proposed in this work. According to the results obtained, we see that all hybrid techniques were efficient in solving the EIT problem, getting good qualitative and quantitative results from 50 iterations of these algorithms. Nevertheless, it deserves highlight the algorithm performance obtained by hybridization of Differential Evolution and Simulated Annealing to be the most promising technique here proposed to reconstruct EIT images, which proved to be faster and less expensive computationally than other proposed techniques. The results of this research generate several contributions in the form of published paper in national and international events.
23

Reconstrução de imagens de tomografia por impedância elétrica usando evolução diferencial

RIBEIRO, Reiga Ramalho 23 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-09-20T13:21:46Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Versão_Digital_REIGA.pdf: 3705889 bytes, checksum: 551e1d47969ce5d1aa92cdb311f41304 (MD5) / Made available in DSpace on 2016-09-20T13:21:46Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Versão_Digital_REIGA.pdf: 3705889 bytes, checksum: 551e1d47969ce5d1aa92cdb311f41304 (MD5) Previous issue date: 2016-02-23 / CAPES / A Tomografia por Impedância Elétrica (TIE) é uma técnica que visa reconstruir imagens do interior de um corpo de forma não-invasiva e não-destrutiva. Com base na aplicação de corrente elétrica e na medição dos potenciais de borda do corpo, feita através de eletrodos, um algoritmo de reconstrução de imagens de TIE gera o mapa de condutividade elétrica do interior deste corpo. Diversos métodos são aplicados para gerar imagens de TIE, porém ainda são geradas imagens de contorno suave. Isto acontece devido à natureza matemática do problema de reconstrução da TIE como um problema mal-posto e mal-condicionado. Isto significa que não existe uma distribuição de condutividade interna exata para uma determinada distribuição de potenciais de borda. A TIE é governada matematicamente pela equação de Poisson e a geração da imagem envolve a resolução iterativa de um problema direto, que trata da obtenção dos potenciais de borda a partir de uma distribuição interna de condutividade. O problema direto, neste trabalho, foi aplicado através do Método dos Elementos Finitos. Desta forma, é possível aplicar técnicas de busca e otimização que objetivam minimizar o erro médio quadrático relativo (função objetivo) entre os potenciais de borda mensurados no corpo (imagem ouro) e os potencias gerados pela resolução do problema direto de um candidato à solução. Assim, o objetivo deste trabalho foi construir uma ferramenta computacional baseada em algoritmos de busca e otimização híbridos, com destaque para a Evolução Diferencial, a fim de reconstruir imagens de TIE. Para efeitos de comparação também foram utilizados para gerar imagens de TIE: Algoritmos Genéticos, Otimização por Enxame de Partículas e Recozimento Simulado. As simulações foram feitas no EIDORS, uma ferramenta usada em MatLab/ GNU Octave com código aberto voltada para a comunidade de TIE. Os experimentos foram feitos utilizando três diferentes configurações de imagens ouro (fantomas). As análises foram feitas de duas formas, sendo elas, qualitativa: na forma de o quão as imagens geradas pela técnica de otimização são parecidas com seu respectivo fantoma; quantitativa: tempo computacional, através da evolução do erro relativo calculado pela função objetivo do melhor candidato à solução ao longo do tempo de reconstrução das imagens de TIE; e custo computacional, através da avaliação da evolução do erro relativo ao longo da quantidade de cálculos da função objetivo pelo algoritmo. Foram gerados resultados para Algoritmos Genéticos, cinco versões clássicas de Evolução Diferencial, versão modificada de Evolução Diferencial, Otimização por Enxame de Partículas, Recozimento Simulado e três novas técnicas híbridas baseadas em Evolução Diferencial propostas neste trabalho. De acordo com os resultados obtidos, vemos que todas as técnicas híbridas foram eficientes para resolução do problema da TIE, obtendo bons resultados qualitativos e quantitativos desde 50 iterações destes algoritmos. Porém, merece destacar o rendimento do algoritmo obtido pela hibridização da Evolução Diferencial e Recozimento Simulado por ser a técnica aqui proposta mais promissora na reconstrução de imagens de TIE, onde mostrou ser mais rápida e menos custosa computacionalmente do que as outras técnicas propostas. Os resultados desta pesquisa geraram diversas contribuições na forma de artigos publicados em eventos nacionais e internacionais. / Electrical Impedance Tomography (EIT) is a technique that aim to reconstruct images of the interior of a body in a non-invasive and non-destructive form. Based on the application of the electrical current and on the measurement of the body’s edge electrical potential, made through of electrodes, an EIT image reconstruction algorithm generates the conductivity distribution map of this body’s interior. Several methods are applied to generate EIT images; however, they are still generated smooth contour images. This is due of the mathematical nature of EIT reconstruction problem as an ill-posed and ill-conditioned problem. Thus, there is not an exact internal conductivity distribution for one determinate edge potential distribution. The EIT is ruled mathematically by Poisson’s equations, and the image generation involves an iterative resolution of a direct problem, that treats the obtainment of the edge potentials through of an internal distribution of conductivity. The direct problem, in this dissertation, was applied through of Finite Elements Method. Thereby, is possible to apply search and optimization techniques that aim to minimize the mean square error relative (objective function) between the edge potentials measured in the body (gold image) and the potential generated by the resolution of the direct problem of a solution candidate. Thus, the goal of this work was to construct a computational tool based in hybrid search and optimization algorithms, highlighting the Differential Evolution, in order to reconstruct EIT images. For comparison, it was also used to generate EIT images: Genetic Algorithm, Particle Optimization Swarm and Simulated Annealing. The simulations were made in EIDORS, a tool used in MatLab/GNU Octave open source toward the TIE community. The experiments were performed using three different configurations of gold images (phantoms). The analyzes were done in two ways, as follows, qualitative: in the form of how the images generated by the optimization technique are similar to their respective phantom; quantitative: computational time, by the evolution of the relative error calculated for the objective function of the best candidate to the solution over time the EIT images reconstruction; and computational cost, by evaluating the evolution of the relative error over the amount of calculations of the objective functions by the algorithm. Results were generated for Genetic Algorithms, five classical versions of Differential Evolution, modified version of the Differential Evolution, Particle Optimization Swarm, Simulated Annealing and three new hybrid techniques based in Differential Evolution proposed in this work. According to the results obtained, we see that all hybrid techniques were efficient in solving the EIT problem, getting good qualitative and quantitative results from 50 iterations of these algorithms. Nevertheless, it deserves highlight the algorithm performance obtained by hybridization of Differential Evolution and Simulated Annealing to be the most promising technique here proposed to reconstruct EIT images, which proved to be faster and less expensive computationally than other proposed techniques. The results of this research generate several contributions in the form of published paper in national and international events.
24

Estudo de Técnicas de Otimização de Sistemas Hidrotérmicos por Enxame de Partículas / Study of Optimization Techniques for Hydrothermal Systems by Particle Swarm

GOMIDES, Lauro Ramon 21 June 2012 (has links)
Made available in DSpace on 2014-07-29T15:08:18Z (GMT). No. of bitstreams: 1 Dissertacao Sistemas Hidrotermicos.pdf: 1921130 bytes, checksum: 988097a7877583ede959085e07eade65 (MD5) Previous issue date: 2012-06-21 / Particle Swarm Optimization has been widely used to solve real-world problems, including the operation planning of hydrothermal generation systems, where the main goal is to achieve rational strategies of operation. This can be accomplished by minimizing the high-cost thermoelectric generation, while maximizing the low-cost hydroelectric generation. The optimization process must consider a set of complex constrains. This work presents the application of some recently proposed Particle Swarm Optimizers for a group of hydroelectric power plants of the Brazilian interconnected system, using real data from existing plants. There were performed some tests by using the standard PSO, PSO-TVAC, Clan PSO, Clan PSO with migration, Center PSO, and one approach proposed in this work, called Center Clan PSO, over three different mid-term periods. All PSO approaches were compared to the results achieved by a Non-linear Programming algorithm (NLP). Furthermore, another approach was proposed, based on Center PSO, named Extended Center PSO. It was observed that the PSO approaches presented as promising solutions to the problem, even better than NLP in some cases. / A Otimização por Enxame de Partículas tem sido amplamente utilizada na solução de problemas do mundo real, inclusive para o problema do planejamento da operação de sistemas de geração hidrotérmicos, em que o principal objetivo é encontrar estratégias racionais de operação. A solução é obtida através da minimização da geração térmica, alto custo, enquanto maximiza-se a geração hidrelétrica, que é de baixo custo. O processo de otimização deve considerar um conjunto complexo de restrições. Este trabalho apresenta a aplicação de uma abordagem recente chamada de Otimização por Enxame de Partículas para o problema com um grupo de usinas hidrelétricas do sistema interligado brasileiro, utilizando dados reais das usinas existentes. Foram realizados testes usando o PSO original, PSO-TVAC, Clan PSO, Clan PSO com a migração, Center PSO, e uma abordagem proposta neste trabalho, denominada Center Clan PSO, ao longo de três diferentes períodos de médio prazo. Todas as abordagens PSO foram comparadas com os resultados obtidos por um algoritmo de programação não linear (NLP). Além disso, uma outra abordagem foi proposta, com base no algoritmo Center PSO, chamada Extended Center PSO. Observou-se que as abordagens PSO apresentaram resultados promissores na solução do problema, com resultados até mesmo melhores, em alguns casos, que os obtidos pelo NLP.
25

Algoritmos de inteligência computacional em instrumentação: uso de fusão de dados na avaliação de amostras biológicas e químicas / Computational intelligence algorithms for instrumentation: biological and chemical samples evaluation by using data fusion

Negri, Lucas Hermann 24 February 2012 (has links)
Made available in DSpace on 2016-12-12T20:27:37Z (GMT). No. of bitstreams: 1 LUCAS HERMANN NEGRI.pdf: 2286573 bytes, checksum: 5c0e3c77c1d910bd47dd444753c142c4 (MD5) Previous issue date: 2012-02-24 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / This work presents computational methods to process data from electrical impedance spectroscopy and fiber Bragg grating interrogation in order to characterize the evaluated samples. Estimation and classification systems were developed, by using the signals isolatedly or simultaneously. A new method to adjust the parameters of functions that describes the electrical impedance spectra by using particle swarm optimization is proposed. Such method were also extended to correct distorted spectra. A benchmark for peak detection algorithms in fiber Bragg grating interrogation was performed, including the currently used algorithms as obtained from literature, where the accuracy, precision, and computational performance were evaluated. This comparative study was performed with both simulated and experimental data. It was perceived that there is no optimal algorithm when all aspects are taken into account, but it is possible to choose a suitable algorithm when one has the application requirements. A novel peak detection algorithm based on an artificial neural network is proposed, being recommended when the analyzed spectra have distortions or is not symmetrical. Artificial neural networks and support vector machines were employed with the data processing algorithms to classify or estimate sample characteristics in experiments with bovine meat, milk, and automotive fuel. The results have shown that the proposed data processing methods are useful to extract the data main information and that the employed data fusion schemes were useful, in its initial classification and estimation objectives. / Neste trabalho são apresentados métodos computacionais para o processamento de dados produzidos em sistemas de espectroscopia de impedância elétrica e sensoriamento a redes de Bragg em fibra óptica com o objetivo de inferir características das amostras analisadas. Sistemas de estimação e classificação foram desenvolvidos, utilizando os sinais isoladamente ou de forma conjunta com o objetivo de melhorar as respostas dos sistemas. Propõe-se o ajuste dos parâmetros de funções que modelam espectros de impedância elétrica por meio de um novo algoritmo de otimização por enxame de partículas, incluindo a sua utilização na correção de espectros com determinadas distorções. Um estudo comparativo foi realizado entre os métodos correntes utilizados na detecção de pico de sinais resultantes de sensores em fibras ópticas, onde avaliou-se a exatidão, precisão e desempenho computacional. Esta comparação foi feita utilizando dados simulados e experimentais, onde percebeu-se que não há algoritmo simultaneamente superior em todos os aspectos avaliados, mas que é possível escolher o ideal quando se têm os requisitos da aplicação. Um método de detecção de pico por meio de uma rede neural artificial foi proposto, sendo recomendado em situações onde o espectro analisado possui distorções ou não é simétrico. Redes neurais artificiais e máquinas de vetor de suporte foram utilizadas em conjunto com os algoritmos de processamento com o objetivo de classificar ou estimar alguma característica de amostras em experimentos que envolveram carnes bovinas, leite bovino e misturas de combustível automotivo. Mostra-se neste trabalho que os métodos de processamento propostos são úteis para a extração das características importantes dos dados e que os esquemas utilizados para a fusão destes dados foram úteis dentro dos seus objetivos iniciais de classificação e estimação.
26

Optimization and comparison between polymer, surfactant-polymer and water flooding recoveries in a pre-salt carbonate reservoir considering uncertainties. / Otimização e comparação entre recuperação por injeção de polímero, surfactante-polímero e água em reservatório carbonático do pré-sal considerando incertezas.

Garcia Villa, Joan Sebastian 24 April 2019 (has links)
A successful Chemical Enhanced Oil Recovery (CEOR) program starts with a proper process selection for a given field, followed by a formulation of the batch components and a representative simulation step. Also, lab studies, field data, pilot testing, and economic analyses are required before project implementation. This work discusses the state of the art of the Surfactant-Polymer flood (SP) EOR technique, specifically for carbonate reservoirs, and states a methodology mixing laboratory, literature and reservoir simulation, to assess its applicability under economic and geological uncertainties. First, it is explained concepts related to the research, such as polymer, surfactant, microemulsion, functionalities of each chemical injected, advantages, and disadvantages. Second, a state of the art is developed about recent SP advances. Third, it is described the laboratory method being used to evaluate some properties of the chemicals injected for the Polymer flooding (PF) and SP flooding. Later, the simulation study step being conducted is explained, which will define the volume recovered and Net Present Value (NVP) obtained for the PF, SP injections and water flooding, in different economic and geological scenarios for two models resembling carbonate Brazilian reservoirs. Finally, it is discussed the results obtained, future researches that could be performed, and the respective bibliography. As part of this research, it was verified the Xanthan gum shows adequate results at different concentrations; that a surfactant specifically selected for a carbonate rock with low Interfacial tension and low adsorption is required; also that for the Lula based model although the polymer flooding and Surfactant-Polymer simulation brought some benefits, when compared with the waterflooding, on different economic scenarios and geological models, the high cost associated to the chemical handling facilities and volume spent do not make favorable its application in any scenario. On the contrary for the Cerena I field model, it was found the SP and Polymer flooding on all cases brought better results when compared with the water injection. Concluding that the performance and success of a CEOR program require finding the correct slug characteristics for the unique conditions of each reservoir. In this research the reservoir with higher production rates made possible the use of Chemical EOR presenting better results than a water injection however in the smaller model they were not economically viable due to the additional associated prices. / Um programa bem-sucedido de recuperação melhorada de petróleo por método químico (CEOR) começa com uma seleção precisa do processo para um determinado campo, seguido pela formulação dos componentes e uma etapa de formulação representativa. Adicionalmente, testes laboratoriais, dados de campos, testes pilotos e análises econômicas são necessárias antes da implementação de um projeto. Este trabalho discute o estado da arte da técnica de recuperação melhorada de petróleo (EOR) pela injeção de surfactante-polímero (SP), especificamente para reservatórios carbonáticos e, utilizada uma metodologia baseada em dados de laboratório, literatura e de simulação de reservatório para avaliar sua aplicabilidade sob incertezas econômicas e geológicas. Primeiramente, são explicados conceitos necessários a este trabalho relacionados com polímero, surfactante, microemulsão, funcionalidades de cada produto químico injetado, vantagens e desvantagens. Em segundo lugar, um estado da arte é desenvolvido sobre os avanços recentes do SP. Após, descreve-se os métodos laboratoriais utilizados para avaliar algumas propriedades dos produtos químicos usados nas injeções de Polímeros (PF) e SP. Posteriormente, é explicada a etapa do estudo de simulação, que definirá o volume recuperado e o valor presente líquido (NVP), obtidos para injeções PF, SP e água, em diferentes cenários econômicos e geológicos, para dois modelos semelhantes a reservatórios carbonáticos brasileiros. Por fim, são discutidos os resultados obtidos, sugestões de trabalhos futuros e apresentação da bibliografia. Como parte desta pesquisa, verificou-se que a goma xantana apresenta resultados consistentes em diferentes concentrações e que é necessário um surfactante especificamente selecionado para uma rocha carbonática, possuindo baixa tensão interfacial e baixa adsorção. Para o modelo baseado em Lula, embora a simulação de injeção de polímero e surfactante-polímero tenham trazido alguns benefícios, quando comparados com a injeção de água, em diferentes cenários econômicos e modelos geológicos, o alto custo associado às instalações de manipulação química e volume gasto não favorece sua aplicação em qualquer cenário. Por outro lado, no modelo de campo Cerena I, verificou-se que as injeções de SP e de polímero, em todos os casos, trouxeram melhores resultados quando comparadas com a injeção de água. Concluindo, o desempenho e o sucesso de um programa de CEOR exige encontrar as corretas características de slugs para condições únicas de cada reservatório. Neste trabalho, o reservatório com maiores taxas de produção infere que o método químico de EOR apresente melhores resultados quando comparado com a injeção de água.
27

Metodologia para coordenação otimizada entre relés de distância e direcionais de sobrecorrente em sistemas de transmissão de energia elétrica / Methodology for optimized coordination of distance and directional overcurrent relays in electrical transmission systems

Moro, Vinícius de Cillo 05 September 2014 (has links)
A proteção de sistemas de energia elétrica possui papel extremamente importante no aspecto de garantir o fornecimento de energia de maneira segura e confiável. Assim, a ação indevida ou a não atuação deste sistema de proteção pode causar danos materiais ou econômicos tanto para as concessionárias quanto para os consumidores de energia elétrica. Dessa forma, o sistema de proteção deve estar bem ajustado para que possa garantir suas funções, sendo sensível, seletivo, confiável e rápido. Para tanto, uma boa coordenação entre os relés de proteção deve ser estabelecida. No caso de um sistema de transmissão, o qual costuma ser um sistema malhado, a proteção é comumente realizada por relés de distância aliados a relés de sobrecorrente com unidade direcional, sendo que estes funcionam como elemento de retaguarda daqueles. O processo de ajuste desses relés é um trabalho muito difícil e demorado, que pode ainda estar sujeito a erros do engenheiro de proteção responsável pelo estudo. Neste contexto, este trabalho tem como objetivo desenvolver uma metodologia baseada na otimização por enxame de partículas que obtenha automaticamente os ajustes desses relés de forma a garantir a coordenação e seletividade entre eles, tornando assim o processo de ajuste mais rápido e preciso. Dessa forma, essa metodologia pode constituir uma ferramenta de auxílio muito favorável ao engenheiro de proteção. Além disso, como em todo problema de otimização, a função objetivo e as restrições foram definidas de maneira a retratar o problema de coordenação envolvendo tanto os relés de distância quanto os direcionais de sobrecorrente. A metodologia foi aplicada a dois sistemas, um fictício com 16 relés e um sistema de transmissão real com 44 relés, sendo que em ambos os casos ela apresentou resultados bastante satisfatórios proporcionando ajustes bem coordenados. / Electrical power systems protection has a very important role in the aspect of ensuring energy supply with safety and reliability. Thus, improper action or non-actuation of this protection system can cause materials and/or economics damages to electricity utilities as well as ordinary energy consumers. Therefore the protection system must be well adjusted so it can ensure its functions and thus being sensible, selective, reliable and fast. In order to achieve these characteristics, the protective relays must be well coordinated. In the case of meshed transmission systems, the protection is generally performed by distance relays as primary protection associated with directional overcurrent relays as backup protection. The process of adjusting these relays is very tough, slow and it can even be subject to the protection engineer mistakes. In this context, this work aims to develop a particle swarm optimization based methodology that can automatically obtain these relays adjusts so they can ensure relays coordination and selectivity, and then make this setting process faster and more precise. Thus, this methodology may provide a very favorable tool to aid the protection engineer. Moreover, as in any optimization problem, the objective function and the constraints were defined to represent the coordination problem involving both distance and directional overcurrent relays. The methodology was applied to two systems, a fictitious with 16 relays and a real transmission system with 44 relays, and in both cases it showed satisfactory results providing well-coordinated settings.
28

Metodologia para coordenação otimizada entre relés de distância e direcionais de sobrecorrente em sistemas de transmissão de energia elétrica / Methodology for optimized coordination of distance and directional overcurrent relays in electrical transmission systems

Vinícius de Cillo Moro 05 September 2014 (has links)
A proteção de sistemas de energia elétrica possui papel extremamente importante no aspecto de garantir o fornecimento de energia de maneira segura e confiável. Assim, a ação indevida ou a não atuação deste sistema de proteção pode causar danos materiais ou econômicos tanto para as concessionárias quanto para os consumidores de energia elétrica. Dessa forma, o sistema de proteção deve estar bem ajustado para que possa garantir suas funções, sendo sensível, seletivo, confiável e rápido. Para tanto, uma boa coordenação entre os relés de proteção deve ser estabelecida. No caso de um sistema de transmissão, o qual costuma ser um sistema malhado, a proteção é comumente realizada por relés de distância aliados a relés de sobrecorrente com unidade direcional, sendo que estes funcionam como elemento de retaguarda daqueles. O processo de ajuste desses relés é um trabalho muito difícil e demorado, que pode ainda estar sujeito a erros do engenheiro de proteção responsável pelo estudo. Neste contexto, este trabalho tem como objetivo desenvolver uma metodologia baseada na otimização por enxame de partículas que obtenha automaticamente os ajustes desses relés de forma a garantir a coordenação e seletividade entre eles, tornando assim o processo de ajuste mais rápido e preciso. Dessa forma, essa metodologia pode constituir uma ferramenta de auxílio muito favorável ao engenheiro de proteção. Além disso, como em todo problema de otimização, a função objetivo e as restrições foram definidas de maneira a retratar o problema de coordenação envolvendo tanto os relés de distância quanto os direcionais de sobrecorrente. A metodologia foi aplicada a dois sistemas, um fictício com 16 relés e um sistema de transmissão real com 44 relés, sendo que em ambos os casos ela apresentou resultados bastante satisfatórios proporcionando ajustes bem coordenados. / Electrical power systems protection has a very important role in the aspect of ensuring energy supply with safety and reliability. Thus, improper action or non-actuation of this protection system can cause materials and/or economics damages to electricity utilities as well as ordinary energy consumers. Therefore the protection system must be well adjusted so it can ensure its functions and thus being sensible, selective, reliable and fast. In order to achieve these characteristics, the protective relays must be well coordinated. In the case of meshed transmission systems, the protection is generally performed by distance relays as primary protection associated with directional overcurrent relays as backup protection. The process of adjusting these relays is very tough, slow and it can even be subject to the protection engineer mistakes. In this context, this work aims to develop a particle swarm optimization based methodology that can automatically obtain these relays adjusts so they can ensure relays coordination and selectivity, and then make this setting process faster and more precise. Thus, this methodology may provide a very favorable tool to aid the protection engineer. Moreover, as in any optimization problem, the objective function and the constraints were defined to represent the coordination problem involving both distance and directional overcurrent relays. The methodology was applied to two systems, a fictitious with 16 relays and a real transmission system with 44 relays, and in both cases it showed satisfactory results providing well-coordinated settings.
29

Localização colaborativa em robótica de enxame. / Collaborative localization in swarm robotics.

Alan Oliveira de Sá 26 May 2015 (has links)
Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro / Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto. / Many applications of Swarm Robotic Systems (SRSs) require that a robot is able to discover its position. The location information of the robots is required, for example, to allow them to be correctly positioned within a predefined swarm formation. Similarly, when the robots act as mobile sensors, the position information is needed to allow the identification of the location of the measured events. Due to the size, cost and energy source restrictions of these devices, or even limitations imposed by the operating environment, the straightforward solution, i.e. the use of a Global Positioning System (GPS), is often not feasible. The method proposed in this work allows the estimation of the absolute positions of a set of unknown nodes, based on the coordinates of a set of reference nodes and the distances measured between nodes. The solution is achieved by means of a distributed processing strategy, where each unknown node estimates its own position and helps its neighbors to compute their respective coordinates. The solution makes use of a new method called Multi-hop Collaborative Min-Max Localization (MCMM), herein proposed, aiming to improve the quality of the initial positions estimated by the unknown nodes in case of failure during the recognition of the reference nodes. The positions refinement is achieved based on the Backtracking Search Optimization Algorithm (BSA) and the Particle Swarm Optimization (PSO), whose performances are compared. To compose the objective function, a new method to compute the confidence factor of the network nodes is introduced, the Min-max Area Confidence Factor (MMA-CF), which is compared with the existing Hops to Anchor Confidence Factor (HTA-CF). Based on the proposed localization method, four algorithms were developed and further evaluated through a set of simulations in MATLABr and experiments in swarms of type Kilobot robots. The performance of the algorithms is evaluated on problems with different topologies, quantities of nodes and proportion of reference nodes. The performance of the algorithms is also compared with the performance of other localization algorithms, showing improvements between 40% to 51%. The simulations and experiments outcomes demonstrate the effectiveness of the proposed method.
30

Localização colaborativa em robótica de enxame. / Collaborative localization in swarm robotics.

Alan Oliveira de Sá 26 May 2015 (has links)
Fundação de Amparo à Pesquisa do Estado do Rio de Janeiro / Diversas das possíveis aplicações da robótica de enxame demandam que cada robô seja capaz de estimar a sua posição. A informação de localização dos robôs é necessária, por exemplo, para que cada elemento do enxame possa se posicionar dentro de uma formatura de robôs pré-definida. Da mesma forma, quando os robôs atuam como sensores móveis, a informação de posição é necessária para que seja possível identificar o local dos eventos medidos. Em virtude do tamanho, custo e energia dos dispositivos, bem como limitações impostas pelo ambiente de operação, a solução mais evidente, i.e. utilizar um Sistema de Posicionamento Global (GPS), torna-se muitas vezes inviável. O método proposto neste trabalho permite que as posições absolutas de um conjunto de nós desconhecidos sejam estimadas, com base nas coordenadas de um conjunto de nós de referência e nas medidas de distância tomadas entre os nós da rede. A solução é obtida por meio de uma estratégia de processamento distribuído, onde cada nó desconhecido estima sua própria posição e ajuda os seus vizinhos a calcular as suas respectivas coordenadas. A solução conta com um novo método denominado Multi-hop Collaborative Min-Max Localization (MCMM), ora proposto com o objetivo de melhorar a qualidade da posição inicial dos nós desconhecidos em caso de falhas durante o reconhecimento dos nós de referência. O refinamento das posições é feito com base nos algoritmos de busca por retrocesso (BSA) e de otimização por enxame de partículas (PSO), cujos desempenhos são comparados. Para compor a função objetivo, é introduzido um novo método para o cálculo do fator de confiança dos nós da rede, o Fator de Confiança pela Área Min-Max (MMA-CF), o qual é comparado com o Fator de Confiança por Saltos às Referências (HTA-CF), previamente existente. Com base no método de localização proposto, foram desenvolvidos quatro algoritmos, os quais são avaliados por meio de simulações realizadas no MATLABr e experimentos conduzidos em enxames de robôs do tipo Kilobot. O desempenho dos algoritmos é avaliado em problemas com diferentes topologias, quantidades de nós e proporção de nós de referência. O desempenho dos algoritmos é também comparado com o de outros algoritmos de localização, tendo apresentado resultados 40% a 51% melhores. Os resultados das simulações e dos experimentos demonstram a eficácia do método proposto. / Many applications of Swarm Robotic Systems (SRSs) require that a robot is able to discover its position. The location information of the robots is required, for example, to allow them to be correctly positioned within a predefined swarm formation. Similarly, when the robots act as mobile sensors, the position information is needed to allow the identification of the location of the measured events. Due to the size, cost and energy source restrictions of these devices, or even limitations imposed by the operating environment, the straightforward solution, i.e. the use of a Global Positioning System (GPS), is often not feasible. The method proposed in this work allows the estimation of the absolute positions of a set of unknown nodes, based on the coordinates of a set of reference nodes and the distances measured between nodes. The solution is achieved by means of a distributed processing strategy, where each unknown node estimates its own position and helps its neighbors to compute their respective coordinates. The solution makes use of a new method called Multi-hop Collaborative Min-Max Localization (MCMM), herein proposed, aiming to improve the quality of the initial positions estimated by the unknown nodes in case of failure during the recognition of the reference nodes. The positions refinement is achieved based on the Backtracking Search Optimization Algorithm (BSA) and the Particle Swarm Optimization (PSO), whose performances are compared. To compose the objective function, a new method to compute the confidence factor of the network nodes is introduced, the Min-max Area Confidence Factor (MMA-CF), which is compared with the existing Hops to Anchor Confidence Factor (HTA-CF). Based on the proposed localization method, four algorithms were developed and further evaluated through a set of simulations in MATLABr and experiments in swarms of type Kilobot robots. The performance of the algorithms is evaluated on problems with different topologies, quantities of nodes and proportion of reference nodes. The performance of the algorithms is also compared with the performance of other localization algorithms, showing improvements between 40% to 51%. The simulations and experiments outcomes demonstrate the effectiveness of the proposed method.

Page generated in 0.0759 seconds