Spelling suggestions: "subject:"particle swarm"" "subject:"particle awarm""
261 |
Otimização por enxame de partículas em arquiteturas paralelas de alto desempenho. / Particle swarm optimization in high-performance parallel architectures.Rogério de Moraes Calazan 21 February 2013 (has links)
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados. / Particle Swarm Optimization (PSO) is an optimization technique that is used to solve many problems in different applications. However, most implementations are sequential. The optimization process requires a large number of evaluations of the objective function, especially in complex problems, involving a large amount of particles and dimensions. As a result, the algorithm may become inefficient in terms of performance, execution time and even the quality of the expected result. To overcome these difficulties,high performance computing and parallel algorithms can be used, taking into account to the characteristics of the architecture. This should increase performance, minimize response time and may even improve the quality of the final result. In this dissertation, the PSO algorithm is parallelized using three different strategies that consider different granularities of the problem, and the division of the optimization work among several cooperative sub-swarms. One of the developed parallel algorithms, namely PPSO, is implemented directly in hardware, using an FPGA. All the proposed strategies, namely PPSO ( Parallel PSO), PDPSO (Parallel Dimension PSO) and CPPSO (Cooperative Parallel PSO), are implemented in a multiprocessor, multicomputer and GPU based parallel architectures. The different performed assessments show that the GPU achieved the best results for problems with high number of particles and dimensions when a strategy with finer granularity is used, namely PDPSO and CPPSO. In contrast with this, when using a strategy with a coarser granularity, namely PPSO, the multi-computer based implementation achieved the best results.
|
262 |
Uma eficiente metodologia para reconfiguração de redes de distribuição de energia elétrica usando otimização porPrieto, Laura Paulina Velez January 2015 (has links)
Orientador: Prof. Dr. Edmarcio Antonio Belati / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia Elétrica, 2015. / Esta pesquisa apresenta uma metodologia para reconfiguração de sistemas elétricos
de distribuição baseada na metaheurística "otimização por enxame de partículas" do
inglês Particle Swarm Optimization, denominada por PSO. Na metodologia proposta,
inicialmente são estabelecidos os subconjuntos de chaves candidatas, calculados com
base no número de chaves abertas necessárias para manter a radialidade do sistema.
Assim, o espaço de busca diminui consideravelmente. O algoritmo de solução foi
desenvolvido para minimizar as perdas de potência nas linhas da rede de
distribuição, sujeita às seguintes restrições: a) limite de tensão; b) ilhamento de
carga; c) radialidade do sistema e d) balanço das potências ativa e reativa nos nós
da rede. Alterações na formulação clássica do PSO foram realizadas de modo a
tornar o processo de busca mais eficiente. O processo de busca que compõem a
metodologia foi detalhado em um sistema de 5 barras e 7 linhas. A técnica foi
validada em quatro sistemas: 16 barras e 21 chaves; 33 barras e 37 chaves; 70
barras e 74 chaves; e 136 barras e 156 chaves. Comparando os resultados para os
quatro sistemas testados com os resultados existentes na literatura, em todos os casos
foi encontrada a topologia com o menor número de perdas já encontrada na
literatura consultada até o momento. / This research presents a method for network reconfiguration in distribution systems
based on the metaheuristics "Particle Swarm Optimization". In this method, the
candidate switch subsets are calculated based on the number of open switches
necessary to maintain the radial configuration. Then, the search space reduces
substantially. The algorithm was developed to minimize the power losses in the lines
of the distribution system considering the following constrains: a) voltage limits; b)
load connectivity; c) radial configuration and d) power balancing. The original
version of PSO was modified to improve the search process. The search process that
composes the methodology is detailed in a system of 5 nodes and 7 switches. The
technique was validated in four systems: 16 nodes and 21 switches, 33 nodes and 37
switches and 70 nodes and 74 switches and 136 nodes and 156 switches. Comparing
the results for the four systems tested with existing literature results in all cases
showed the topology with fewer losses already found in the literature to date.
|
263 |
Metodologia de estimação dos parâmetros de um módulo termoelétrico baseada na implementação do algoritmo PSOGiratá, Daniel Ricardo Ojeda January 2016 (has links)
Orientador: Prof. Dr. Luiz A. Luz de Almeida / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia Elétrica, 2016. / Modulos termoeletricos (TEM-Thermoelectric Modules) sao utilizados na geraçao de energia eletrica e na construcao de camaras termicas para caracterizacao de materiais como ligas de memoria de forma (SMA-Smart Memory Allow), dentre outros. Para ter uma correta representacao do TEM e necessaria a criaçao de um modelo matematico que consiga representar o seu funcionamento, tanto em corrente cont'ýnua como em demais frequ¿encias relevantes. No presente trabalho 'e proposto um modelo para a representa¸c¿ao
de uma c¿amera t'ermica constru'ýda a partir de dois TEM, considerando-se as n¿ao-linearidades destes. M'etodos cl'assicos de estima¸c¿ao para modelos lineares nos par¿ametros n¿ao se aplicam para o modelo proposto. Para obten¸c¿ao dos valores dos par¿ametros do TEM, este 'e excitado com um sinal aleat'orio de multi-n'ývel (PRBS-Pseudo Random Binary Sequence) e a resposta 'e utilizada para o m'etodo n¿ao determin'ýstico do algoritmo de otimiza¸c¿ao, baseada no enxame de part'ýculas (PSO-Particle Swarm Optimization) fazer a estima¸c¿ao. O modelo escolhido para a caracteriza¸c¿ao da c¿amara t'ermica 'e n¿ao-linear. Este cont'em os par¿ametros t'ermicos din¿amicos, tais como: a camada superior, a
placa superior, camada central, placa inferior e o dissipador de calor de cada
um dos TEM, sendo no total 21 par¿ametros calculados pelo algoritmo PSO. O
sinal de excita¸c¿ao consiste em um ru'ýdo branco que 'e antes filtrado, resultando
em um sinal dinamicamente persistente, de tal forma que o TEM seja bem caracterizado.
Resultados de simula¸c¿oes mostram a efetividade do algoritmo PSO
na estima¸c¿ao de par¿ametros do modelo. / Thermoelectric Modules (TEM) are used in the power generation and construction of thermal cameras for material characterization such as Smart Memory Allow (SMA), among other. In order to obtain a correct TEM representation, it is necessary a proper model identification procedure to represent the TEM operation, both in D.C. and other relevant frequencies. In this paper, a TEM model is proposed, for the representation of a thermal camera built from two TEM. TEM non linear characteristics were considered. Classical methods for linear parameters estimation are not apply to the proposed model. To obtain the TEM parameters, it power density of a white noise, and then is used the temperature response for the Particle Swarm Optimization algorithm (PSO) to make the estimation. The chosen model is nonlinear with 21 parameters, wich represent the TEM: the top layer, the hot side, the middle layer, cold side and the heatsink. For numerical stability, the white noise excitation is filtered before, geting a dynamically persistent signal, so TEM will be properly characterized. Simulation
results show the effectiveness of the PSO in TEM parameters estimation.
|
264 |
Proposição e análise de modelos híbridos para o problema de escalonamento de produção em oficina de máquinas / Presentation and analysis of hybridization models for the jobshop scheduling problemTatiana Balbi Fraga 26 March 2010 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nas últimas décadas, o problema de escalonamento da produção em oficina de
máquinas, na literatura referido como JSSP (do inglês Job Shop Scheduling Problem), tem
recebido grande destaque por parte de pesquisadores do mundo inteiro. Uma das razões que
justificam tamanho interesse está em sua alta complexidade. O JSSP é um problema de
análise combinatória classificado como NP-Difícil e, apesar de existir uma grande variedade
de métodos e heurísticas que são capazes de resolvê-lo, ainda não existe hoje nenhum método
ou heurística capaz de encontrar soluções ótimas para todos os problemas testes apresentados
na literatura. A outra razão basea-se no fato de que esse problema encontra-se presente no diaa-
dia das indústrias de transformação de vários segmento e, uma vez que a otimização do
escalonamento pode gerar uma redução significativa no tempo de produção e,
consequentemente, um melhor aproveitamento dos recursos de produção, ele pode gerar um
forte impacto no lucro dessas indústrias, principalmente nos casos em que o setor de produção
é responsável por grande parte dos seus custos totais. Entre as heurísticas que podem ser
aplicadas à solução deste problema, o Busca Tabu e o Multidão de Partículas apresentam uma
boa performance para a maioria dos problemas testes encontrados na literatura. Geralmente, a
heurística Busca Tabu apresenta uma boa e rápida convergência para pontos ótimos ou subótimos,
contudo esta convergência é frequentemente interrompida por processos cíclicos e a
performance do método depende fortemente da solução inicial e do ajuste de seus parâmetros.
A heurística Multidão de Partículas tende a convergir para pontos ótimos, ao custo de um
grande esforço computacional, sendo que sua performance também apresenta uma grande
sensibilidade ao ajuste de seus parâmetros. Como as diferentes heurísticas aplicadas ao
problema apresentam pontos positivos e negativos, atualmente alguns pesquisadores
começam a concentrar seus esforços na hibridização das heurísticas existentes no intuito de
gerar novas heurísticas híbridas que reúnam as qualidades de suas heurísticas de base,
buscando desta forma diminuir ou mesmo eliminar seus aspectos negativos. Neste trabalho,
em um primeiro momento, são apresentados três modelos de hibridização baseados no
esquema geral das Heurísticas de Busca Local, os quais são testados com as heurísticas Busca
Tabu e Multidão de Partículas. Posteriormente é apresentada uma adaptação do método
Colisão de Partículas, originalmente desenvolvido para problemas contínuos, onde o método
Busca Tabu é utilizado como operador de exploração local e operadores de mutação são
utilizados para perturbação da solução. Como resultado, este trabalho mostra que, no caso dos
modelos híbridos, a natureza complementar e diferente dos métodos Busca Tabu e Multidão
de Partículas, na forma como são aqui apresentados, da origem à algoritmos robustos capazes
de gerar solução ótimas ou muito boas e muito menos sensíveis ao ajuste dos parâmetros de
cada um dos métodos de origem. No caso do método Colisão de Partículas, o novo algorítimo
é capaz de atenuar a sensibilidade ao ajuste dos parâmetros e de evitar os processos cíclicos
do método Busca Tabu, produzindo assim melhores resultados. / In recent decades, the Job Shop Scheduling Ploblem (JSSP) has received great
attention of researchers worldwide. One of the reasons for such interest is its high complexity.
The JSSP is a combinatorial optimization problem classified as NP-Hard and, although there
is a variety of methods and heuristics that are able to solve it, even today no method or
heuristic is able to find optimal solutions for all benchmarcks presented in the literature. The
other reason builds on noted fact that this problem is present in day-to-day of industries of
various segments and, since the optimal scheduling may cause a significant reduction in
production time and thus a better utilization of manufacturing resources, it can generate a
strong impact on the gain of these industries, especially in cases where the production sector
is responsible for most of their total costs. Among the heuristics that can be applied to the
solution of this problem, the Tabu Search and the Particle Swarm Optimization show good
performance for most benchmarcks found in the literature. Usually, the Taboo Search heuristic
presents a good and fast convergence to the optimal or sub-optimal points, but this
convergence is frequently interrupted by cyclical processes, offset, the Particle Swarm
Optimization heuristic tends towards a convergence by means of a lot of computational time,
and the performance of both heuristics strongly depends on the adjusting of its parameters.
This thesis presents four different hybridization models to solve the classical Job Shop
Scheduling Problem, three of which based on the general schema of Local Search Heuristics
and the fourth based on the method Particle Collision. These models are analyzed with these
two heuristics, Taboo Search and Particle Swarm Optimization, and the elements of this
heuristics, showing what aspects must be considered in order to achieve a best solution of the
one obtained by the original heuristics in a considerable computational time. As results this
thesis demonstrates that the four models are able to improve the robustness of the original
heuristics and the results found by Taboo Search.
|
265 |
Algoritmo de enxame de partículas para resolução do problema da programação da produção Job-shop flexível multiobjetivoAranha, Gabriel Diego de Aguiar 19 August 2016 (has links)
Submitted by Aelson Maciera (aelsoncm@terra.com.br) on 2017-06-08T18:50:10Z
No. of bitstreams: 1
DissGDAA.pdf: 2724824 bytes, checksum: 6fd66731c51c75a18c506fe7ab991ec4 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-06-13T19:33:47Z (GMT) No. of bitstreams: 1
DissGDAA.pdf: 2724824 bytes, checksum: 6fd66731c51c75a18c506fe7ab991ec4 (MD5) / Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-06-13T19:33:53Z (GMT) No. of bitstreams: 1
DissGDAA.pdf: 2724824 bytes, checksum: 6fd66731c51c75a18c506fe7ab991ec4 (MD5) / Made available in DSpace on 2017-06-13T19:37:52Z (GMT). No. of bitstreams: 1
DissGDAA.pdf: 2724824 bytes, checksum: 6fd66731c51c75a18c506fe7ab991ec4 (MD5)
Previous issue date: 2016-08-19 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / The companies today are looking for ways to expand their competitive advantages, optimizing their production, and in this context, they found solutions in activities of production scheduling. The production scheduling of the type job-shop, results in one of the most complex problems of combination, the Job-shop Scheduling Problem (JSP), which deterministic resolution is not feasible in polynomial computational time. The Flexible Job-shop Scheduling Problem (FJSP) is a classic extension of the JSP and has been widely reported in the literature. Thus, optimization algorithms have been developed and evaluated in the last decades, in order to provide more efficient production planning, with emphasis to artificial intelligence algorithms of the swarm type, that the latest research presented favorable results. The FJSP allows an operation to be processed for any machine arising from a set of machines along different routes. This problem is commonly dismembered into two sub-problems, the assignment of machines for operations, which is called routing, and operation scheduling. In the FJSP context, this research presents the resolution of the FJSP multi-objective, using a hierarchical approach that divides the problem into two subproblems, being the Particle Swarm Optimization (PSO), responsible for resolving the routing sub-problem, and tasking three local search algorithms, Random Restart Hill Climbing (RRHC), Simulated Annealing (SA) and Tabu Search (TS), for the resolution of scheduling sub-problem. The implementation of the proposed algorithm has new strategies in the population initialization, displacement of particles, stochastic allocation of operations, and management of scenarios partially flexible. Experimental results using technical benchmarks problems are conducted, and proved the effectiveness of the hybridization, and the advantage of RRHC algorithm compared to others in the resolution of the scheduling subproblem. / As empresas atualmente buscam meios de ampliarem suas vantagens competitivas, otimizando sua produção, e neste contexto, encontraram soluções nas atividades de programação da produção. A programação da produção do tipo job-shop, resulta em um dos problemas mais complexos de combinação, o Job-shop Scheduling Problem (JSP), cuja resolução determinística é inviável em tempo computacional polinomial. O Flexible Job-shop Scheduling Problem (FJSP) é uma extensão do clássico JSP e tem sido amplamente relatado na literatura. Desta forma, algoritmos de otimização têm sido desenvolvidos e avaliados nas últimas décadas, com o intuito de fornecer planejamentos de produção mais eficientes, com destaque para os algoritmos de inteligência artificial do tipo enxame, que nas pesquisas mais recentes obtiveram resultados satisfatórios. O FJSP permite que uma operação seja processada por qualquer recurso produtivo advindo de um conjunto de recursos ao longo de diferentes roteiros. Este problema é comumente desmembrado em dois subproblemas, a atribuição de recursos para as operações, que é chamado de roteamento, e programação das operações. No contexto do FJSP, a proposta dessa pesquisa apresenta a resolução do FJSP em caráter multiobjetivo, utilizando a abordagem hierárquica, que divide o problema em dois subproblemas, sendo o Enxame de Partículas (PSO), responsável pela resolução do subproblema de roteamento e incumbindo três algoritmos de busca local, Reinício Aleatório de Subida de Colina (RRHC), Arrefecimento Simulado (SA) e Busca Tabu (TS), para a resolução do subproblema de programação. A implementação do algoritmo proposto, dispõe de novas estratégias na inicialização da população, deslocamento das partículas, alocação estocástica das operações e tratamento de cenários parcialmente flexíveis. Resultados experimentais obtidos em base de testes comumente usada, comprovam a eficácia da hibridização proposta, e a vantagem do algoritmo RRHC em relação aos outros na resolução do subproblema de programação.
|
266 |
Sintonia Ãtima de Regulador AutomÃtico de TensÃo e Estabilizador de Sistema de PotÃncia Utilizando Algoritmo de OtimizaÃÃo por Enxame de PartÃculas / Optimal Tuning of Automatic Voltage Regulator and Power System Stabilizer Using Particle Swarm OptimizationJosà Nilo Rodrigues da Silva JÃnior 27 November 2012 (has links)
nÃo hà / Este trabalho apresenta a aplicaÃÃo do algoritmo de OtimizaÃÃo por Enxame de PartÃculas (PSO â Particle Swarm Optimization) para sintonia Ãtima de controladores associados à regulaÃÃo de tensÃo e ao aumento do amortecimento de geradores sÃncronos utilizados em plantas termelÃtricas de ciclo combinado. Para representaÃÃo matemÃtica do gerador sÃncrono, utiliza-se o modelo linearizado de terceira ordem do sistema mÃquina conectada a uma barra infinita, vÃlido para estudos de estabilidade a pequenos sinais. Os parÃmetros do regulador automÃtico de tensÃo (AVR â Automatic Voltage Regulator) e do estabilizador de sistema de potÃncia (PSS â Power System Stabilizer) sÃo determinados de maneira Ãtima pela ferramenta computacional proposta. Os parÃmetros obtidos para o AVR e PSS sÃo comparados com valores calculados por tÃcnicas de sintonia convencionais, baseadas em aproximaÃÃes das equaÃÃes que descrevem o sistema. Os resultados de simulaÃÃes a variaÃÃes na tensÃo de referÃncia, considerando a anÃlise da resposta temporal do sistema controlado, demonstram que o PSO à uma tÃcnica eficiente na sintonia dos parÃmetros do AVR e PSS, destacando-se sua simplicidade, baixo esforÃo computacional e boa caracterÃsticas de convergÃncia. / This work presents the application of the Particle Swarm Optimization (PSO) algorithm for optimal tuning of controllers associated with voltage regulation and damping enhancement of synchronous generators used in combined cycle power station. For mathematic representation of the synchronous generator, the third order linearized model of a single machine connected to an infinite bus, valid for small signal stability studies, is used. The Automatic Voltage Regulator (AVR) and Power System Stabilizer (PSS) parameters are optimally determined by the proposed computational tool. The parameters obtained for AVR and PSS are compared with values calculated by conventional tuning techniques based on approximations of the equations that describe the system. The simulations results to reference voltage disturbances, considering the time response analysis of the controlled system, show that PSO is an efficient technique in the tuning of AVR and PSS parameters, with emphasis on its simplicity, low computational effort and good convergence characteristics.
|
267 |
Localização e identificação de consumidores com alta contribuição para a distorção harmônica de tensão em sistemas de distribuição / Location and identification of consumers with larger contribution to harmonic distortion of voltage in power distribution systemsRicardo Augusto Souza Fernandes 05 August 2011 (has links)
Esta tese consiste em apresentar um método para localização e identificação de consumidores com alta contribuição para a distorção harmônica de tensão medida em subestações de sistemas de distribuição de energia elétrica. Cabe comentar que a etapa de localização visa obter uma lista das possíveis posições onde possa estar alocado o consumidor que possua cargas não lineares com grande consumo de potências harmônicas. Partindo-se desta lista, realiza-se a etapa de identificação, em que são estimadas as amplitudes de cada harmônica na posição selecionada. Por fim, um algoritmo para ajuste/sintonia do método de localização é empregado com o intuito de se realizar uma possível correção com relação à posição do consumidor. Desta forma, por meio de estudos de caso (simulados), os resultados obtidos procuram validar a metodologia proposta. / This thesis provides a method for location and identification of consumers with larger contribution to harmonic distortion of voltage in power distribution substations. It is worth to mention that the stage of consumers location must furnish a list of possible positions where there may be consumers, who have nonlinear loads with high consumption of harmonic power. From this list, the identification stage is performed in order to estimate the amplitude of each harmonic from the location selected. Finally, a method for improve the location algorithm is employed in order to refine the consumer position. Therefore, by means of simulated case studies, the results obtained for these stages seek to validate the methodology proposed.
|
268 |
Reconstrução de imagens de tomografia por impedância elétrica usando evolução diferencialRIBEIRO, Reiga Ramalho 23 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-09-20T13:03:02Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação_Versão_Digital_REIGA.pdf: 3705889 bytes, checksum: 551e1d47969ce5d1aa92cdb311f41304 (MD5) / Made available in DSpace on 2016-09-20T13:03:02Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação_Versão_Digital_REIGA.pdf: 3705889 bytes, checksum: 551e1d47969ce5d1aa92cdb311f41304 (MD5)
Previous issue date: 2016-02-23 / CAPES / A Tomografia por Impedância Elétrica (TIE) é uma técnica que visa reconstruir imagens do interior de um corpo de forma não-invasiva e não-destrutiva. Com base na aplicação de corrente elétrica e na medição dos potenciais de borda do corpo, feita através de eletrodos, um algoritmo de reconstrução de imagens de TIE gera o mapa de condutividade elétrica do interior deste corpo. Diversos métodos são aplicados para gerar imagens de TIE, porém ainda são geradas imagens de contorno suave. Isto acontece devido à natureza matemática do problema de reconstrução da TIE como um problema mal-posto e mal-condicionado. Isto significa que não existe uma distribuição de condutividade interna exata para uma determinada distribuição de potenciais de borda. A TIE é governada matematicamente pela equação de Poisson e a geração da imagem envolve a resolução iterativa de um problema direto, que trata da obtenção dos potenciais de borda a partir de uma distribuição interna de condutividade. O problema direto, neste trabalho, foi aplicado através do Método dos Elementos Finitos. Desta forma, é possível aplicar técnicas de busca e otimização que objetivam minimizar o erro médio quadrático relativo (função objetivo) entre os potenciais de borda mensurados no corpo (imagem ouro) e os potencias gerados pela resolução do problema direto de um candidato à solução. Assim, o objetivo deste trabalho foi construir uma ferramenta computacional baseada em algoritmos de busca e otimização híbridos, com destaque para a Evolução Diferencial, a fim de reconstruir imagens de TIE. Para efeitos de comparação também foram utilizados para gerar imagens de TIE: Algoritmos Genéticos, Otimização por Enxame de Partículas e Recozimento Simulado. As simulações foram feitas no EIDORS, uma ferramenta usada em MatLab/ GNU Octave com código aberto voltada para a comunidade de TIE. Os experimentos foram feitos utilizando três diferentes configurações de imagens ouro (fantomas). As análises foram feitas de duas formas, sendo elas, qualitativa: na forma de o quão as imagens geradas pela técnica de otimização são parecidas com seu respectivo fantoma; quantitativa: tempo computacional, através da evolução do erro relativo calculado pela função objetivo do melhor candidato à solução ao longo do tempo de reconstrução das imagens de TIE; e custo computacional, através da avaliação da evolução do erro relativo ao longo da quantidade de cálculos da função objetivo pelo algoritmo. Foram gerados resultados para Algoritmos Genéticos, cinco versões clássicas de Evolução Diferencial, versão modificada de Evolução Diferencial, Otimização por Enxame de Partículas, Recozimento Simulado e três novas técnicas híbridas baseadas em Evolução Diferencial propostas neste trabalho. De acordo com os resultados obtidos, vemos que todas as técnicas híbridas foram eficientes para resolução do problema da TIE, obtendo bons resultados qualitativos e quantitativos desde 50 iterações destes algoritmos. Porém, merece destacar o rendimento do algoritmo obtido pela hibridização da Evolução Diferencial e Recozimento Simulado por ser a técnica aqui proposta mais promissora na reconstrução de imagens de TIE, onde mostrou ser mais rápida e menos custosa computacionalmente do que as outras técnicas propostas. Os resultados desta pesquisa geraram diversas contribuições na forma de artigos publicados em eventos nacionais e internacionais. / Electrical Impedance Tomography (EIT) is a technique that aim to reconstruct images of the interior of a body in a non-invasive and non-destructive form. Based on the application of the electrical current and on the measurement of the body’s edge electrical potential, made through of electrodes, an EIT image reconstruction algorithm generates the conductivity distribution map of this body’s interior. Several methods are applied to generate EIT images; however, they are still generated smooth contour images. This is due of the mathematical nature of EIT reconstruction problem as an ill-posed and ill-conditioned problem. Thus, there is not an exact internal conductivity distribution for one determinate edge potential distribution. The EIT is ruled mathematically by Poisson’s equations, and the image generation involves an iterative resolution of a direct problem, that treats the obtainment of the edge potentials through of an internal distribution of conductivity. The direct problem, in this dissertation, was applied through of Finite Elements Method. Thereby, is possible to apply search and optimization techniques that aim to minimize the mean square error relative (objective function) between the edge potentials measured in the body (gold image) and the potential generated by the resolution of the direct problem of a solution candidate. Thus, the goal of this work was to construct a computational tool based in hybrid search and optimization algorithms, highlighting the Differential Evolution, in order to reconstruct EIT images. For comparison, it was also used to generate EIT images: Genetic Algorithm, Particle Optimization Swarm and Simulated Annealing. The simulations were made in EIDORS, a tool used in MatLab/GNU Octave open source toward the TIE community. The experiments were performed using three different configurations of gold images (phantoms). The analyzes were done in two ways, as follows, qualitative: in the form of how the images generated by the optimization technique are similar to their respective phantom; quantitative: computational time, by the evolution of the relative error calculated for the objective function of the best candidate to the solution over time the EIT images reconstruction; and computational cost, by evaluating the evolution of the relative error over the amount of calculations of the objective functions by the algorithm. Results were generated for Genetic Algorithms, five classical versions of Differential Evolution, modified version of the Differential Evolution, Particle Optimization Swarm, Simulated Annealing and three new hybrid techniques based in Differential Evolution proposed in this work. According to the results obtained, we see that all hybrid techniques were efficient in solving the EIT problem, getting good qualitative and quantitative results from 50 iterations of these algorithms. Nevertheless, it deserves highlight the algorithm performance obtained by hybridization of Differential Evolution and Simulated Annealing to be the most promising technique here proposed to reconstruct EIT images, which proved to be faster and less expensive computationally than other proposed techniques. The results of this research generate several contributions in the form of published paper in national and international events.
|
269 |
Reconstrução de imagens de tomografia por impedância elétrica usando evolução diferencialRIBEIRO, Reiga Ramalho 23 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-09-20T13:21:46Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação_Versão_Digital_REIGA.pdf: 3705889 bytes, checksum: 551e1d47969ce5d1aa92cdb311f41304 (MD5) / Made available in DSpace on 2016-09-20T13:21:46Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação_Versão_Digital_REIGA.pdf: 3705889 bytes, checksum: 551e1d47969ce5d1aa92cdb311f41304 (MD5)
Previous issue date: 2016-02-23 / CAPES / A Tomografia por Impedância Elétrica (TIE) é uma técnica que visa reconstruir imagens do interior de um corpo de forma não-invasiva e não-destrutiva. Com base na aplicação de corrente elétrica e na medição dos potenciais de borda do corpo, feita através de eletrodos, um algoritmo de reconstrução de imagens de TIE gera o mapa de condutividade elétrica do interior deste corpo. Diversos métodos são aplicados para gerar imagens de TIE, porém ainda são geradas imagens de contorno suave. Isto acontece devido à natureza matemática do problema de reconstrução da TIE como um problema mal-posto e mal-condicionado. Isto significa que não existe uma distribuição de condutividade interna exata para uma determinada distribuição de potenciais de borda. A TIE é governada matematicamente pela equação de Poisson e a geração da imagem envolve a resolução iterativa de um problema direto, que trata da obtenção dos potenciais de borda a partir de uma distribuição interna de condutividade. O problema direto, neste trabalho, foi aplicado através do Método dos Elementos Finitos. Desta forma, é possível aplicar técnicas de busca e otimização que objetivam minimizar o erro médio quadrático relativo (função objetivo) entre os potenciais de borda mensurados no corpo (imagem ouro) e os potencias gerados pela resolução do problema direto de um candidato à solução. Assim, o objetivo deste trabalho foi construir uma ferramenta computacional baseada em algoritmos de busca e otimização híbridos, com destaque para a Evolução Diferencial, a fim de reconstruir imagens de TIE. Para efeitos de comparação também foram utilizados para gerar imagens de TIE: Algoritmos Genéticos, Otimização por Enxame de Partículas e Recozimento Simulado. As simulações foram feitas no EIDORS, uma ferramenta usada em MatLab/ GNU Octave com código aberto voltada para a comunidade de TIE. Os experimentos foram feitos utilizando três diferentes configurações de imagens ouro (fantomas). As análises foram feitas de duas formas, sendo elas, qualitativa: na forma de o quão as imagens geradas pela técnica de otimização são parecidas com seu respectivo fantoma; quantitativa: tempo computacional, através da evolução do erro relativo calculado pela função objetivo do melhor candidato à solução ao longo do tempo de reconstrução das imagens de TIE; e custo computacional, através da avaliação da evolução do erro relativo ao longo da quantidade de cálculos da função objetivo pelo algoritmo. Foram gerados resultados para Algoritmos Genéticos, cinco versões clássicas de Evolução Diferencial, versão modificada de Evolução Diferencial, Otimização por Enxame de Partículas, Recozimento Simulado e três novas técnicas híbridas baseadas em Evolução Diferencial propostas neste trabalho. De acordo com os resultados obtidos, vemos que todas as técnicas híbridas foram eficientes para resolução do problema da TIE, obtendo bons resultados qualitativos e quantitativos desde 50 iterações destes algoritmos. Porém, merece destacar o rendimento do algoritmo obtido pela hibridização da Evolução Diferencial e Recozimento Simulado por ser a técnica aqui proposta mais promissora na reconstrução de imagens de TIE, onde mostrou ser mais rápida e menos custosa computacionalmente do que as outras técnicas propostas. Os resultados desta pesquisa geraram diversas contribuições na forma de artigos publicados em eventos nacionais e internacionais. / Electrical Impedance Tomography (EIT) is a technique that aim to reconstruct images of the interior of a body in a non-invasive and non-destructive form. Based on the application of the electrical current and on the measurement of the body’s edge electrical potential, made through of electrodes, an EIT image reconstruction algorithm generates the conductivity distribution map of this body’s interior. Several methods are applied to generate EIT images; however, they are still generated smooth contour images. This is due of the mathematical nature of EIT reconstruction problem as an ill-posed and ill-conditioned problem. Thus, there is not an exact internal conductivity distribution for one determinate edge potential distribution. The EIT is ruled mathematically by Poisson’s equations, and the image generation involves an iterative resolution of a direct problem, that treats the obtainment of the edge potentials through of an internal distribution of conductivity. The direct problem, in this dissertation, was applied through of Finite Elements Method. Thereby, is possible to apply search and optimization techniques that aim to minimize the mean square error relative (objective function) between the edge potentials measured in the body (gold image) and the potential generated by the resolution of the direct problem of a solution candidate. Thus, the goal of this work was to construct a computational tool based in hybrid search and optimization algorithms, highlighting the Differential Evolution, in order to reconstruct EIT images. For comparison, it was also used to generate EIT images: Genetic Algorithm, Particle Optimization Swarm and Simulated Annealing. The simulations were made in EIDORS, a tool used in MatLab/GNU Octave open source toward the TIE community. The experiments were performed using three different configurations of gold images (phantoms). The analyzes were done in two ways, as follows, qualitative: in the form of how the images generated by the optimization technique are similar to their respective phantom; quantitative: computational time, by the evolution of the relative error calculated for the objective function of the best candidate to the solution over time the EIT images reconstruction; and computational cost, by evaluating the evolution of the relative error over the amount of calculations of the objective functions by the algorithm. Results were generated for Genetic Algorithms, five classical versions of Differential Evolution, modified version of the Differential Evolution, Particle Optimization Swarm, Simulated Annealing and three new hybrid techniques based in Differential Evolution proposed in this work. According to the results obtained, we see that all hybrid techniques were efficient in solving the EIT problem, getting good qualitative and quantitative results from 50 iterations of these algorithms. Nevertheless, it deserves highlight the algorithm performance obtained by hybridization of Differential Evolution and Simulated Annealing to be the most promising technique here proposed to reconstruct EIT images, which proved to be faster and less expensive computationally than other proposed techniques. The results of this research generate several contributions in the form of published paper in national and international events.
|
270 |
Aplicativo web para projeto de sensores ópticos baseados em ressonância de plasmons de superífice em interfaces planaresCAVALCANTI, Leonardo Machado 16 August 2016 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2017-01-30T18:17:26Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
DISSERTACAO_LEO_DEFESA - FINAL - CATALOGADA PDF.pdf: 4585329 bytes, checksum: 4b70c80127866cd2da97a6217bb6a34f (MD5) / Made available in DSpace on 2017-01-30T18:17:27Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
DISSERTACAO_LEO_DEFESA - FINAL - CATALOGADA PDF.pdf: 4585329 bytes, checksum: 4b70c80127866cd2da97a6217bb6a34f (MD5)
Previous issue date: 2016-08-16 / CNPQ / Um dos principais desafios no projeto de sensores baseados em Ressonância de Plasmons de Superfície — RPS — é maximizar sua sensibilidade. Neste trabalho é proposto o uso de dois algoritmos heurísticos, Monte Carlo e Enxame de Partículas, para otimização de sensores baseados em RPS em interfaces planares, i.e, nas configurações de Kretschmann e de Otto, sem o auxílio da aproximação lorentziana para a curva de ressonância. Devido à natureza probabilística dos algoritmos, consegue-se obter um método simples e robusto para atingir essa otimização. É feita uma comparação quanto à eficiência computacional dos algoritmos em relação ao método tradicional de otimização, ficando demonstrado que o método de Enxame de Partículas é o mais eficiente em relação às outras técnicas. Com o emprego desse método, a dependência espectral dos parâmetros ótimos é obtida para sensores utilizando vários metais nas configurações de Kretschmann e de Otto, tanto para aplicações em meios gasosos quanto em meios aquosos. Um aplicativo foi desenvolvido e sua funcionalidade demonstrada, que pode ser executado diretamente via web, com base na metodologia proposta, para otimização de sensores RPS em interfaces planares. / One of the main challenges in the design of surface plasmon resonance – SPR – sensor systems is to maximize their sensitivity. In this work one proposes the use of two heuristic algorithms, Monte Carlo and Particle Swarm, for optimization of SPR sensors in planar interfaces, i.e, in the Kretschmann and Otto configurations, without use of the Lorentzian approximation to the resonance curve. Because of the probabilistic nature of the algorithms, one manages to obtain a simple and robust method to achieve optimization. A comparison is made on the computational efficiency of the algorithm relative to the traditional method of optimization, showing that the particle swarm optimization method is more efficient compared to other techniques. By employing this method, the spectral dependence of optimum parameters is obtained for sensors using a wide range of metal films in the Kretschmann and Otto configurations, both for applications in gaseous an in aqueous media. An app was developed and its functionality can be demonstrated, by direct execution via web, based on the proposed methodology for optimization of SPR sensors on planar interfaces.
|
Page generated in 0.068 seconds