• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 6
  • 1
  • Tagged with
  • 32
  • 32
  • 32
  • 32
  • 20
  • 20
  • 20
  • 13
  • 11
  • 9
  • 7
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Sistema automático para negociação de ações usando técnica de mineração de dados com detecção de mudança de conceito

SOUZA, Victor Lorena de Farias 19 October 2015 (has links)
Submitted by Haroudo Xavier Filho (haroudo.xavierfo@ufpe.br) on 2016-01-22T14:22:26Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Mestrado_Victor_Lorena.pdf: 1644188 bytes, checksum: 4a53bf1f4dc89599b68bd29f20b7fd59 (MD5) / Made available in DSpace on 2016-01-22T14:22:26Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Mestrado_Victor_Lorena.pdf: 1644188 bytes, checksum: 4a53bf1f4dc89599b68bd29f20b7fd59 (MD5) Previous issue date: 2015-10-19 / FACEPE / Uma série temporal financeira representa as cotações dos preços das ações e apresenta comportamento similar a um fluxo de dados. Para a descoberta de padrões presentes em seus dados alguns trabalhos utilizam técnicas de mineração de dados que são fundamentadas na ideia de que os dados históricos guardam a memória essencial para prever a direção futura dos preços. Métodos tradicionais propostos na literatura consideram que o ambiente é estático, ou seja, que o mecanismo gerador da série financeira é o mesmo durante todo o intervalo de tempo de interesse. Porém, no caso de séries temporais financeiras, isso pode não ocorrer. Para resolver este problema, esta dissertação propõe a abordagem PAA-IDPSO-CD (Aproximação por Valor Agregado de Segmento - Otimização por Enxame de Partículas Auto Adaptativa com detecção de mudança de conceito) para descoberta de padrões em séries temporais financeiras. A abordagem proposta objetiva lidar explicitamente com mudanças de conceito na série e descobrir os melhores padrões representativos dos dados das séries temporais que serão utilizados junto a uma estratégia de investimento formulada para automatizar as operações a serem feitas no mercado de ações. Isso possibilitará a redução das incertezas e dos riscos envolvidos nas compras e vendas de ações e auxiliará os investidores a maximizar o lucro nas suas operações feitas no mercado de ações. A fim de alcançar melhores resultados são propostas diferentes estruturas de partículas, utilizadas pelo IDPSO, junto a diferentes regras de decisão. Primeiramente, é utilizada uma estrutura básica para a partícula, em que se opera apenas na posição comprado no mercado financeiro. É proposto também uma segunda estrutura que é capaz de operar tanto na posição comprado quanto na posição vendido. Os experimentos do presente estudo comparam os resultados das versões do método proposto entre si e com os resultados obtidos pelas abordagens Buy and Hold (B&H) e SAX-GA (Aproximação por Valor Agregado Simbólico - Algoritmos Genéticos). Para isso, foram realizados Teste t Pareado com nível de confiança de 95% em vinte ações. O presente estudo conclui que o PAA-IDPSO-CD apresentou resultados estatisticamente melhores que o B&H e o SAX-GA para todas as vinte ações em que os testes foram executados (pvalor <0;05). Além disso, a estratégia que opera nas posições comprado e vendido é melhor quando comparada àquela que opera apenas na posição comprado. No estudo comparativo em onze ações não houve diferença estatística e em outras sete a estratégia comprado e vendido obteve melhores resultados (pvalor < 0; 05). / Financial time series represents the prices of stock over time and presents similar behavior to a data stream. Mining techniques, which are based on the idea that the historical data retain the essential memory to predict the future direction, are used to make the patterns discovery in the time series data. In this context, this study proposes the PAA-IDPSO-CD (Piecewise Aggregate Approximation - Improved self-adaptive particle swarm optimization with Concept Drift) approach aiming to find patterns in financial time series. The purpose of this study is the discovery of the best representative patterns of the time series data to be used by a designed investment strategy to automate the operations to be made in the stock market. Thus, reducing the uncertainties and risks involved in buying and selling operations of stocks and help investors maximize the profit in their operations made in the stock market. In order to achieve best results, different particle structures, used by IDPSO, along with different decision rules are proposed. First, a basic structure to the particle is employed, it operates only in the Long position in the financial market. Subsequently, this structure develops to be able to operate both in Long and Short position. The experiments of this study comparing the results of the various versions of the proposed approach with each other and with those obtained by the Buy and Hold (B&H) and SAX-GA techniques, for that, were performed Paired t test with a confidence level of 95% in twenty stocks. The achieved results show that the PAA-IDPSO-CD outperforms B&H and SAX-GA for all twenty stocks in which the tests were performed (pvalue < 0:05). Furthermore, the long-short operating strategy is better than that operating only in the long position. In the comparative study in eleven actions there was no statistical difference and in other seven long-short strategy outperforms (pvalue < 0:05).
12

Reconstrução de imagens de tomografia por impedância elétrica utilizando o método dialético de otimização

FEITOSA, Allan Rivalles Souza 27 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-03-29T18:39:03Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Allan.pdf: 9306708 bytes, checksum: ff20e727c0e268faed60dc2c7e9f5a7c (MD5) / Made available in DSpace on 2016-03-29T18:39:03Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Allan.pdf: 9306708 bytes, checksum: ff20e727c0e268faed60dc2c7e9f5a7c (MD5) Previous issue date: 2015-02-27 / FACEPE / A Tomografia por Impedância Elétrica (TIE) é uma técnica que visa reconstruir imagens do interior de um corpo de forma não invasiva. Esta reconstrução é feita com base nas propriedades elétricas de condutividade do interior deste corpo. Com base na aplicação e medida dos potenciais da borda do corpo, feita através de eletrodos, um algoritmo de reconstrução de imagens gera a imagem do interior deste corpo. Diversos métodos são aplicados para gerar imagens de TIE, porém ainda são geradas imagens de contorno suave. Isto acontece por causa da natureza matemática do problema de reconstrução da TIE como um problema mal posto e mal condicionado. Isto significa que não existe uma distribuição de condutividade interna exata para uma determinada distribuição de potenciais de borda. A TIE é governada matematicamente pela equação de Poisson e a geração da imagem envolve a resolução de um problema direto, que trata da obtenção dos potenciais de borda a partir de uma distribuição interna de condutividade. O problema direto, neste trabalho, foi aplicado através do método dos elementos finitos. Desta forma é possível aplicar técnicas de busca e otimização que objetivam minimizar a distância euclidiana entre os potenciais de borda mensurados no corpo e os potencias gerados pela resolução do problema direto de um candidato à solução. Devido ao fato deste trabalho ser baseado em simulações, os potenciais de borda buscados foram gerados através da simulação de objetos localizados no centro, borda e entre o centro e a borda e seus respectivos potenciais de borda. Desta forma o objetivo deste trabalho foi construir uma ferramenta computacional baseada em algoritmos de busca e otimização, desde os bioinspirados até os evolucionários, com destaque para o método dialético de otimização, para fazer reconstrução de imagens de Tomografia por impedância elétrica. Para efeitos de comparação também foram utilizados para gerar imagens: Algoritmos Genéticos, Evolução Diferencial e Otimização por Enxame de Partículas. As simulações foram feitas no EIDORS, uma ferramenta MatLab e GNUOctave de código aberto voltada para a comunidade de TIE. Os experimentos foram feitos utilizando três diferentes configurações de objetos de estudo (fantomas). As análises foram feitas de três formas, sendo elas, qualitativa: na forma de o quão as imagens geradas são parecidas com seu respectivo fantoma; quantitativa: com base na evolução do erro relativo calculado pela função objetivo do melhor candidato à solução ao longo das interações; e, ainda, de custo computacional, através da avaliação da evolução do erro relativo ao longo da quantidade de cálculos da função objetivo pelo algoritmo. Foram gerados resultados para Algoritmos Genéticos com busca guiada, cinco versões de Evolução diferencial e duas versões de Otimização por enxame de Partículas. De acordo com os resultados obtidos Método Dialético Objetivo mostrou ter a capacidade de encontrar um valor de erro menor em menos iterações do que as outras técnicas propostas além de ser mais rápido devido ao fato de a quantidade de polos ir diminuindo de acordo com as fases históricas, exigindo menos esforço computacional por iteração. Os resultados desta pesquisa geraram diversas contribuições na forma de artigos publicados em eventos nacionais e internacionais. / The Electrical Impedance Tomography is a technique that aims to reconstruct images of the inside of a body non-invasively. This reconstruction is based on the electrical properties inside the conductivity of this domain. Based on measurements of the potential edge made through electrodes, an image reconstruction algorithm generates the domain inside the image. Several methods are applied to generate TIE images, but are still generated smooth contour images. This happens because of the mathematical nature of TIE reconstruction problem as an ill-posed and ill-conditioned problem. This means that there is no exact solution to a certain internal conductivity distribution. The TIE is mathematically governed by the Poisson equation and the image generation involves solving a direct problem, which deals with obtaining the edge of potential from an internal distribution of known conductivity. This achievement was made in this study through the finite element method. This way you can apply search and optimization techniques that aim to minimize the Euclidean distance between the edge of potential measured in the body and the potential generated by the resolution of the direct problem of a solution to the candidate. Because this work is based on simulations, the potential of border searches were made by simulating objects located in the center, edge and between the center and the edge and their potential edge respective. Therefore, the objective of this work was to build a computational tool based on search and optimization algorithms, since the bioinspired to the evolutionary, especially the dialectical method optimization, to make reconstruction tomography images by electrical impedance. For comparison, were also used to generate these images: Genetic Algorithms, Differential Evolution and optimization by particle swarm. The simulations were made in EIDORS a MatLab and GNUOctave tool open source toward the TIE community. The experiments were performed using three different configurations of objects of study (phantoms). The analyzes were done in a qualitative way: in the form of how the generated images are similar to their respective phantom; quantitative: based on the evolution of the relative error calculated by the objective function of the best candidate to the solution over the interactions; and also computational cost, by assessing the evolution of the relative error over the amount of computation of the objective function by the algorithm. Results were generated for Genetic Algorithms with guided search, five versions of differential evolution and two versions of Particle Swarm Optimization. According to the results obtained dialectic method showed order to be able to find a smallest error value in fewer iterations than other proposed techniques besides being faster due to the fact that the number of poles tendency to decrease in accordance with the historical phases , requiring less computational effort per iteration. The results of this research have generated several contributions in the form of articles published in national and international events.
13

Frankenstein PSO na definição das arquiteturas e ajustes dos pesos e uso de PSO heterogêneo no treinamento de redes neurais feed-forward

LIMA, Natália Flora De 29 August 2011 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2016-08-24T17:35:05Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao-Natalia_Flora_de_Lima.pdf: 2000980 bytes, checksum: 107f0691d21b9d94e253d08f06a4fbdd (MD5) / Made available in DSpace on 2016-08-24T17:35:05Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertacao-Natalia_Flora_de_Lima.pdf: 2000980 bytes, checksum: 107f0691d21b9d94e253d08f06a4fbdd (MD5) Previous issue date: 2011-08-29 / Facepe / Este trabalho apresenta dois novos algoritmos, PSO-FPSO e FPSO-FPSO, para a otimização global de redes neurais MLP (do inglês Multi Layer Perceptron) do tipo feed-forward. O propósito destes algoritmos é otimizar de forma simultânea as arquiteturas e pesos sinápticos, objetivando melhorar a capacidade de generalização da rede neural artificial (RNA). O processo de otimização automática das arquiteturas e pesos de uma rede neural vem recebendo grande atenção na área de aprendizado supervisionado, principalmente em problemas de classificação de padrões. Além dos Algoritmos Genéticos, Busca Tabu, Evolução Diferencial, Recozimento simulado que comumente são empregados no treinamento de redes neurais podemos citar abordagens populacionais como a otimização por colônia de formigas, otimização por colônia de abelhas e otimização por enxame de partículas que vêm sendo largamente utilizadas nesta tarefa. A metodologia utilizada neste trabalho trata da aplicação de dois algoritmos do tipo PSO, sendo empregados na otimização das arquiteturas e na calibração dos pesos das conexões. Nesta abordagem os algoritmos são executados de forma alternada e por um número definido de vezes. Ainda no processo de ajuste dos pesos de uma rede neural MLP foram realizados experimentos com enxame de partículas heterogêneos, que nada mais é que a junção de dois ou mais PSOs de tipos diferentes. Para validar os experimentos com os enxames homogêneos foram utilizadas sete bases de dados para problemas de classificação de padrões, são elas: câncer, diabetes, coração, vidros, cavalos, soja e tireóide. Para os experimentos com enxames heterogêneos foram utilizadas três bases, a saber: câncer, diabetes e coração. O desempenho dos algoritmos foi medido pela média do erro percentual de classificação. Algoritmos da literatura são também considerados. Os resultados mostraram que os algoritmos investigados neste trabalho obtiveram melhor acurácia de classificação quando comparados com os algoritmos da literatura mencionados neste trabalho. / This research presents two new algorithms, PSO-FPSO e FPSO-FPSO, that can be used in feed-forward MLP (Multi Layer Perceptron) neural networks for global optimization. The purpose of these algorithms is to optimize architectures and synaptic weight, at same time, to improve the capacity of generalization from Artificial Neural Network (ANN). The automatic optimization process of neural network’s architectures and weights has received much attention in supervised learning, mainly in pattern classification problems. Besides the Genetic Algorithms, Tabu Search, Differential Evolution, Simulated Annealing that are commonly used in the training of neural networks we can mentioned population approaches such Ant Colony Optimization, Bee Colony Optimization and Particle Swarm Optimization that have been widely used this task. The methodology applied in this research reports the use of two PSO algorithms, used in architecture optimization and connection weight adjust. In this approach the algorithms are performed alternately and by predefined number of times. Still in the process of adjusting the weights of a MLP neural network experiments were performed with swarm of heterogeneous particles, which is nothing more than the joining of two or more different PSOs. To validate the experiments with homogeneous clusters were used seven databases for pattern classification problems, they are: cancer, diabetes, heart, glasses, horses, soy and thyroid. For the experiments with heterogeneous clusters were used three bases, namely cancer, diabetes and heart. The performance of the algorithms was measured by the average percentage of misclassification, literature algorithms are also considered. The results showed that the algorithms investigated in this research had better accuracy rating compared with some published algorithms.
14

Uma hiper-heurística híbrida para a otimização de algorítmos

MIRANDA, Pericles Barbosa Cunha de 22 August 2016 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2017-05-04T18:13:43Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Teste - Péricles Miranda.pdf: 1959669 bytes, checksum: 8b0b1e3f94dd3295bce6153865564a12 (MD5) / Made available in DSpace on 2017-05-04T18:13:43Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Teste - Péricles Miranda.pdf: 1959669 bytes, checksum: 8b0b1e3f94dd3295bce6153865564a12 (MD5) Previous issue date: 2016-08-22 / A escolha de algoritmos ou heurísticas para a resolução de um dado problema é uma tarefa desafiadora devido à variedade de possíveis escolhas de variações/configurações de algoritmos e a falta de auxílio em como escolhê-las ou combiná-las. Por exemplo, o desempenho de algoritmo de otimização depende da escolha dos seus operadores de busca e do ajuste adequado de seus hiper-parâmetros, cada um deles com muitas possibilidades de opções a serem escolhidas. Por este motivo, existe um interesse de pesquisa crescente na automatização da otimização de algoritmos de modo a tornar esta tarefa mais independente da interação humana. Diferentes abordagens têm lidado com a tarefa de ajuste de algoritmos como sendo outro problema de (meta)otimização. Estas abordagens são comumente chamadas de hiper-heurísticas, onde cada solução do espaço de busca, neste caso, é um possível algoritmo avaliado em um dado problema. Inicialmente, hiper-heurísticas foram aplicadas na seleção de valores de hiper-parâmetros em um espaço de busca pré-definido e limitado. No entanto, recentemente, hiper-heurísticas têm sido desenvolvidas para gerar algoritmos a partir de componentes e funções especificados. Hiperheurísticas de geração são consideradas mais flexíveis que as de seleção devido à sua capacidade de criar algoritmos novos e personalizados para um dado problema. As hiper-heurísticas têm sido largamente utilizadas na otimização de meta-heurísticas. No entanto, o processo de busca torna-se bastante custoso, pois a avaliação das soluções trata-se da execução do algoritmo no problema de entrada. Neste trabalho, uma nova hiper-heurística foi desenvolvida para a otimização de algoritmos considerando um dado problema. Esta solução visa prover algoritmos otimizados que sejam adequados para o problema dado e reduzir o custo computacional do processo de geração significativamente quando comparado ao de outras hiper-heurísticas. A hiper-heurística proposta combina uma abordagem de seleção de algoritmos com uma hiper-heurística de geração. A hiperheurística de geração é responsável por criar uma base de conhecimento, que contém algoritmos que foram gerados para um conjunto de problemas. Uma vez que esta base de conhecimento esteja disponível, ela é usada como fonte de algoritmos a serem recomendados pela abordagem de seleção de algoritmos. A ideia é reusar algoritmos previamente construídos pela hiper-heurística de geração em problemas similares. Vale salientar que a criação de hiper-heurísticas visando reduzir o custo de geração de algoritmos sem comprometer a qualidade destes algoritmos não foi estudada na literatura. Além disso, hiper-heurísticas híbridas que combinam de abordagens de seleção de algoritmos e hiper-heurísticas de geração para a otimização de algoritmos, proposta nesta tese, é novidade. Para avaliar o algoritmo proposto, foi considerada como estudo de caso a otimização do algoritmo baseado em enxames (PSO). Nos experimentos realizados, foram considerados 32 problemas de otimização. O algoritmo proposto foi avaliado quanto à sua capacidade de recomendar bons algoritmos para problemas de entrada, se estes algoritmos atingem resultados competitivos frente à literatura. Além disso, o sistema foi avaliado quanto à sua precisão na recomendação, ou seja, se o algoritmo recomendado seria, de fato, o melhor a ser selecionado. Os resultados mostraram que a hiper-heurística proposta é capaz de recomendar algoritmos úteis para os problemas de entrada e de forma eficiente. Adicionalmente, os algoritmos recomendados atingiram resultados competitivos quando comparados com algoritmos estado da arte e a recomendação dos algoritmos atingiu um alto percentual de precisão. / Designing an algorithm or heuristic to solve a given problem is a challenging task due to the variety of possible design choices and the lack of clear guidelines on how to choose and/or combine them. For instance, the performance of an optimization algorithm depends on the designofitssearchoperatorsaswellasanadequatesettingofspecifichyper-parameters,eachof them with many possible options to choose from. Because of that, there is a growing research interest in automating the design of algorithms by exploring mainly optimization and machine learningapproaches,aimingtomakethealgorithmdesignprocessmoreindependentfromhuman interaction. Different approaches have dealt with the task of optimizing algorithms as another (meta)optimization problem. These approaches are commonly called hyper-heuristics, where each solution of the search space is a possible algorithm. Initially, hyper-heuristics were applied for the selection of parameters in a predefined and limited search space. Nonetheless, recently, generation hyper-heuristics have been developed to generate algorithms from a set of specified components and functions. Generation hyper-heuristics are considered more flexible than the selection ones due to its capacity to create new and customized algorithms for a given problem. Hyper-heuristics have been widely used for the optimization of meta-heuristics. However, the search process becomes expensive because the evaluation of each solution depends on the execution of an algorithm in a problem. In this work, a novel hyper-heuristic was developed to optimize algorithms considering a given problem. The proposed approach aims to provide optimizedalgorithmsfortheinputproblemandreducethecomputationalcostoftheoptimization process significantly when compared to other hyper-heuristics. The proposed hyper-heuristics combines an automated algorithm selection method with a generation hyper-heuristic. The generation hyper-heuristic is responsible for the creation of the knowledge base, which contains previously built algorithms for a set of problems. Once the knowledge base is available, it is used as a source of algorithms to be recommended by the automated algorithm selection method. The idea is to reuse the algorithms already built by the generation hyper-heuristic on similar problems. It is worth mentioning that the creation of hyper-heuristics aiming to reduce the cost of the algorithm generation without harming the quality of these algorithms were not studied yet. Besides, hybrid hyper-heuristics which combine an algorithm selection approach with a generation hyper-heuristic for the algorithm optimization, proposed in this thesis, are a novelty. To evaluate the proposed algorithm, it was considered as case study the optimization of the Particle Swarm Optimization algorithm (PSO). In our experiments, we considered 32 optimizationproblems.Theproposedsystemwasevaluatedregardingitscapacitytorecommend adequate algorithms for an input problem, the quality of the recommended algorithms, and, finally, regarding its accuracy to recommend algorithms. The results showed that the proposed system recommends useful algorithms for the input problem. Besides, the algorithms achieved competitive results when compared to state-of-the-art algorithms, and also, the system presented a high percentage of accuracy in the recommendation.
15

Solução de problemas de otimização com restrições usando estratégias de penalização adaptativa e um algoritmo do tipo PSO

Carvalho, Érica da Costa Reis 13 February 2014 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-02T11:42:31Z No. of bitstreams: 1 ericadacostareiscarvalho.pdf: 5557018 bytes, checksum: f6ffd53d6329e89b519786974a1b85e0 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-06T19:32:37Z (GMT) No. of bitstreams: 1 ericadacostareiscarvalho.pdf: 5557018 bytes, checksum: f6ffd53d6329e89b519786974a1b85e0 (MD5) / Made available in DSpace on 2017-03-06T19:32:37Z (GMT). No. of bitstreams: 1 ericadacostareiscarvalho.pdf: 5557018 bytes, checksum: f6ffd53d6329e89b519786974a1b85e0 (MD5) Previous issue date: 2014-02-13 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nos últimos anos, várias meta-heurísticas têm sido adotadas para a solução de problemas de otimização com restrições. Uma dessas meta-heurísticas que se torna cada vez mais popular é a Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO). O PSO é baseado na metáfora de como algumas espécies compartilham informações e, em seguida, usam essas informações para mover-se até os locais onde os alimentos estão localizados. A população é formada por um conjunto de indivíduos denominado partículas que representa possíveis soluções dentro de um espaço de busca multidimensinal. Neste trabalho, são analisados problemas clássicos de otimização com restrições onde um algoritmo PSO os trata como sendo sem restrições através da introdução de um método de penalização adaptativa (Adaptive Penalty Method - APM). O APM adapta o valor dos coeficientes de penalização de cada restrição fazendo uso de informações coletadas da população, tais como a média da função objetivo e o nível de violação de cada restrição. Diversos experimentos computacionais são realizados visando avaliar o desempenho do algoritmo considerando vários problemas testes encontrados na literatura. / In recent years, several meta-heuristics have been adopted for the solution of constrained optimization problems. One of these meta-heuristic that is becoming increasingly popular is the Particle Swarm Optimization - PSO. PSO is based on the metaphor of how some species share information and then use this information to move to the places where food is located. The population is formed by a group of individuals called particles representing possible solutions within a space multidimensional search. In this thesis, classical problems of constrained optimization where a PSO algorithm treats them as being unconstrained by introducing a method of adaptive penalty (Adaptive Penalty Method - APM) are analyzed. The APM adjusts the value of the penalty coeffcients of each constraint using the information collected from the population, such as the average of the objective function as well as the level of violation of each constraint. Several computational experiments are conducted to assess the performance the algorithm tests considering various problems found in the literature.
16

Análise e otimização de coberturas de invisibilidade esféricas estratificadas em camadas homogêneas e isotrópicas

MARTINS, Tiago Carvalho 29 June 2012 (has links)
Submitted by Hellen Luz (hellencrisluz@gmail.com) on 2017-10-05T14:39:32Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_AnaliseOtimizacaoCoberturas.pdf: 10509844 bytes, checksum: 2d526d31d9108312b31b17e91dfff2d8 (MD5) / Rejected by Edisangela Bastos (edisangela@ufpa.br), reason: on 2017-10-10T17:05:13Z (GMT) / Submitted by Hellen Luz (hellencrisluz@gmail.com) on 2017-10-16T15:36:31Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_AnaliseOtimizacaoCoberturas.pdf: 10509844 bytes, checksum: 2d526d31d9108312b31b17e91dfff2d8 (MD5) / Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-11-14T14:24:11Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_AnaliseOtimizacaoCoberturas.pdf: 10509844 bytes, checksum: 2d526d31d9108312b31b17e91dfff2d8 (MD5) / Made available in DSpace on 2017-11-14T14:24:11Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Tese_AnaliseOtimizacaoCoberturas.pdf: 10509844 bytes, checksum: 2d526d31d9108312b31b17e91dfff2d8 (MD5) Previous issue date: 2012-06-29 / CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico / Neste trabalho, foram analisadas e otimizadas coberturas de invisibilidade estratificadas em camadas esféricas concêntricas constituídas por materiais dielétricos homogêneos e isotrópicos, em que tanto a seção reta de espalhamento total quanto o número de camadas foram minimizados. Também foram realizadas otimizações para aumentar a faixa de frequências na qual h´a invisibilidade, para isso, efeitos dispersivos foram levados em conta. Foram obtidas coberturas discretizadas (obtidas a partir de coberturas anisotrópicas) com reduções significativas (maiores do que 20 dB) da seção reta radar com relação ao espalhador sem cobertura em todas as direções de espalhamento, quando apenas 20 camadas foram utilizadas. Valores de redução equivalentes foram obtidos na literatura com no mínimo 80 camadas. Esses resultados foram obtidos em microondas. Nós obtivemos uma redução, com relação a esfera sem cobertura, de 32 dB na seção reta de espalhamento total para uma cobertura estratificada (não obtida a partir de camadas anisotrópicas) em apenas 13 camadas. Esses resultados foram obtidos em microondas. Nós otimizamos coberturas de invisibilidade dispersivas que apresentaram uma faixa de largura 5,4 vezes maior do que a que seria obtida sem considerar os efeitos dispersivos, na faixa de microondas. Foram projetadas coberturas de invisibilidade que funcionam em frequências ópticas, para uma faixa de frequências. / In this work, we analyze and optimize invisibility cloaks stratified in concentric spherical homogeneous and isotropic layers, in which both the total scattering cross section and the number of layers have been minimized. In order to increase the range of frequencies in which there is invisibility, dispersive effects are taken into account. In microwaves, We obtained discretized invisibility cloaks (obtained from anisotropic cloaks) with significant reductions (greater than 20 dB) of the total scattering cross section, for only 20 layers (which is achieved in the literature with at least 80 layers). We obtained a reduction of 32 dB in the total scattering cross section for a cloak stratified in only 13 layers. This result was obtained in microwaves. In microwaves, we optimized dispersive invisibility cloaks which present a bandwidth 5.4 times larger than would be obtained by a optimized cloak without dispersive effects. Cloaks are designed to operate in optical frequencies, for a wide range of frequencies.
17

Otimização por enxame de partículas em arquiteturas paralelas de alto desempenho. / Particle swarm optimization in high-performance parallel architectures.

Rogério de Moraes Calazan 21 February 2013 (has links)
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados. / Particle Swarm Optimization (PSO) is an optimization technique that is used to solve many problems in different applications. However, most implementations are sequential. The optimization process requires a large number of evaluations of the objective function, especially in complex problems, involving a large amount of particles and dimensions. As a result, the algorithm may become inefficient in terms of performance, execution time and even the quality of the expected result. To overcome these difficulties,high performance computing and parallel algorithms can be used, taking into account to the characteristics of the architecture. This should increase performance, minimize response time and may even improve the quality of the final result. In this dissertation, the PSO algorithm is parallelized using three different strategies that consider different granularities of the problem, and the division of the optimization work among several cooperative sub-swarms. One of the developed parallel algorithms, namely PPSO, is implemented directly in hardware, using an FPGA. All the proposed strategies, namely PPSO ( Parallel PSO), PDPSO (Parallel Dimension PSO) and CPPSO (Cooperative Parallel PSO), are implemented in a multiprocessor, multicomputer and GPU based parallel architectures. The different performed assessments show that the GPU achieved the best results for problems with high number of particles and dimensions when a strategy with finer granularity is used, namely PDPSO and CPPSO. In contrast with this, when using a strategy with a coarser granularity, namely PPSO, the multi-computer based implementation achieved the best results.
18

Otimização por enxame de partículas em arquiteturas paralelas de alto desempenho. / Particle swarm optimization in high-performance parallel architectures.

Rogério de Moraes Calazan 21 February 2013 (has links)
A Otimização por Enxame de Partículas (PSO, Particle Swarm Optimization) é uma técnica de otimização que vem sendo utilizada na solução de diversos problemas, em diferentes áreas do conhecimento. Porém, a maioria das implementações é realizada de modo sequencial. O processo de otimização necessita de um grande número de avaliações da função objetivo, principalmente em problemas complexos que envolvam uma grande quantidade de partículas e dimensões. Consequentemente, o algoritmo pode se tornar ineficiente em termos do desempenho obtido, tempo de resposta e até na qualidade do resultado esperado. Para superar tais dificuldades, pode-se utilizar a computação de alto desempenho e paralelizar o algoritmo, de acordo com as características da arquitetura, visando o aumento de desempenho, a minimização do tempo de resposta e melhoria da qualidade do resultado final. Nesta dissertação, o algoritmo PSO é paralelizado utilizando três estratégias que abordarão diferentes granularidades do problema, assim como dividir o trabalho de otimização entre vários subenxames cooperativos. Um dos algoritmos paralelos desenvolvidos, chamado PPSO, é implementado diretamente em hardware, utilizando uma FPGA. Todas as estratégias propostas, PPSO (Parallel PSO), PDPSO (Parallel Dimension PSO) e CPPSO (Cooperative Parallel PSO), são implementadas visando às arquiteturas paralelas baseadas em multiprocessadores, multicomputadores e GPU. Os diferentes testes realizados mostram que, nos problemas com um maior número de partículas e dimensões e utilizando uma estratégia com granularidade mais fina (PDPSO e CPPSO), a GPU obteve os melhores resultados. Enquanto, utilizando uma estratégia com uma granularidade mais grossa (PPSO), a implementação em multicomputador obteve os melhores resultados. / Particle Swarm Optimization (PSO) is an optimization technique that is used to solve many problems in different applications. However, most implementations are sequential. The optimization process requires a large number of evaluations of the objective function, especially in complex problems, involving a large amount of particles and dimensions. As a result, the algorithm may become inefficient in terms of performance, execution time and even the quality of the expected result. To overcome these difficulties,high performance computing and parallel algorithms can be used, taking into account to the characteristics of the architecture. This should increase performance, minimize response time and may even improve the quality of the final result. In this dissertation, the PSO algorithm is parallelized using three different strategies that consider different granularities of the problem, and the division of the optimization work among several cooperative sub-swarms. One of the developed parallel algorithms, namely PPSO, is implemented directly in hardware, using an FPGA. All the proposed strategies, namely PPSO ( Parallel PSO), PDPSO (Parallel Dimension PSO) and CPPSO (Cooperative Parallel PSO), are implemented in a multiprocessor, multicomputer and GPU based parallel architectures. The different performed assessments show that the GPU achieved the best results for problems with high number of particles and dimensions when a strategy with finer granularity is used, namely PDPSO and CPPSO. In contrast with this, when using a strategy with a coarser granularity, namely PPSO, the multi-computer based implementation achieved the best results.
19

Uma eficiente metodologia para reconfiguração de redes de distribuição de energia elétrica usando otimização por

Prieto, Laura Paulina Velez January 2015 (has links)
Orientador: Prof. Dr. Edmarcio Antonio Belati / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Engenharia Elétrica, 2015. / Esta pesquisa apresenta uma metodologia para reconfiguração de sistemas elétricos de distribuição baseada na metaheurística "otimização por enxame de partículas" do inglês Particle Swarm Optimization, denominada por PSO. Na metodologia proposta, inicialmente são estabelecidos os subconjuntos de chaves candidatas, calculados com base no número de chaves abertas necessárias para manter a radialidade do sistema. Assim, o espaço de busca diminui consideravelmente. O algoritmo de solução foi desenvolvido para minimizar as perdas de potência nas linhas da rede de distribuição, sujeita às seguintes restrições: a) limite de tensão; b) ilhamento de carga; c) radialidade do sistema e d) balanço das potências ativa e reativa nos nós da rede. Alterações na formulação clássica do PSO foram realizadas de modo a tornar o processo de busca mais eficiente. O processo de busca que compõem a metodologia foi detalhado em um sistema de 5 barras e 7 linhas. A técnica foi validada em quatro sistemas: 16 barras e 21 chaves; 33 barras e 37 chaves; 70 barras e 74 chaves; e 136 barras e 156 chaves. Comparando os resultados para os quatro sistemas testados com os resultados existentes na literatura, em todos os casos foi encontrada a topologia com o menor número de perdas já encontrada na literatura consultada até o momento. / This research presents a method for network reconfiguration in distribution systems based on the metaheuristics "Particle Swarm Optimization". In this method, the candidate switch subsets are calculated based on the number of open switches necessary to maintain the radial configuration. Then, the search space reduces substantially. The algorithm was developed to minimize the power losses in the lines of the distribution system considering the following constrains: a) voltage limits; b) load connectivity; c) radial configuration and d) power balancing. The original version of PSO was modified to improve the search process. The search process that composes the methodology is detailed in a system of 5 nodes and 7 switches. The technique was validated in four systems: 16 nodes and 21 switches, 33 nodes and 37 switches and 70 nodes and 74 switches and 136 nodes and 156 switches. Comparing the results for the four systems tested with existing literature results in all cases showed the topology with fewer losses already found in the literature to date.
20

Reconstrução de imagens de tomografia por impedância elétrica usando evolução diferencial

RIBEIRO, Reiga Ramalho 23 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-09-20T13:03:02Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Versão_Digital_REIGA.pdf: 3705889 bytes, checksum: 551e1d47969ce5d1aa92cdb311f41304 (MD5) / Made available in DSpace on 2016-09-20T13:03:02Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Versão_Digital_REIGA.pdf: 3705889 bytes, checksum: 551e1d47969ce5d1aa92cdb311f41304 (MD5) Previous issue date: 2016-02-23 / CAPES / A Tomografia por Impedância Elétrica (TIE) é uma técnica que visa reconstruir imagens do interior de um corpo de forma não-invasiva e não-destrutiva. Com base na aplicação de corrente elétrica e na medição dos potenciais de borda do corpo, feita através de eletrodos, um algoritmo de reconstrução de imagens de TIE gera o mapa de condutividade elétrica do interior deste corpo. Diversos métodos são aplicados para gerar imagens de TIE, porém ainda são geradas imagens de contorno suave. Isto acontece devido à natureza matemática do problema de reconstrução da TIE como um problema mal-posto e mal-condicionado. Isto significa que não existe uma distribuição de condutividade interna exata para uma determinada distribuição de potenciais de borda. A TIE é governada matematicamente pela equação de Poisson e a geração da imagem envolve a resolução iterativa de um problema direto, que trata da obtenção dos potenciais de borda a partir de uma distribuição interna de condutividade. O problema direto, neste trabalho, foi aplicado através do Método dos Elementos Finitos. Desta forma, é possível aplicar técnicas de busca e otimização que objetivam minimizar o erro médio quadrático relativo (função objetivo) entre os potenciais de borda mensurados no corpo (imagem ouro) e os potencias gerados pela resolução do problema direto de um candidato à solução. Assim, o objetivo deste trabalho foi construir uma ferramenta computacional baseada em algoritmos de busca e otimização híbridos, com destaque para a Evolução Diferencial, a fim de reconstruir imagens de TIE. Para efeitos de comparação também foram utilizados para gerar imagens de TIE: Algoritmos Genéticos, Otimização por Enxame de Partículas e Recozimento Simulado. As simulações foram feitas no EIDORS, uma ferramenta usada em MatLab/ GNU Octave com código aberto voltada para a comunidade de TIE. Os experimentos foram feitos utilizando três diferentes configurações de imagens ouro (fantomas). As análises foram feitas de duas formas, sendo elas, qualitativa: na forma de o quão as imagens geradas pela técnica de otimização são parecidas com seu respectivo fantoma; quantitativa: tempo computacional, através da evolução do erro relativo calculado pela função objetivo do melhor candidato à solução ao longo do tempo de reconstrução das imagens de TIE; e custo computacional, através da avaliação da evolução do erro relativo ao longo da quantidade de cálculos da função objetivo pelo algoritmo. Foram gerados resultados para Algoritmos Genéticos, cinco versões clássicas de Evolução Diferencial, versão modificada de Evolução Diferencial, Otimização por Enxame de Partículas, Recozimento Simulado e três novas técnicas híbridas baseadas em Evolução Diferencial propostas neste trabalho. De acordo com os resultados obtidos, vemos que todas as técnicas híbridas foram eficientes para resolução do problema da TIE, obtendo bons resultados qualitativos e quantitativos desde 50 iterações destes algoritmos. Porém, merece destacar o rendimento do algoritmo obtido pela hibridização da Evolução Diferencial e Recozimento Simulado por ser a técnica aqui proposta mais promissora na reconstrução de imagens de TIE, onde mostrou ser mais rápida e menos custosa computacionalmente do que as outras técnicas propostas. Os resultados desta pesquisa geraram diversas contribuições na forma de artigos publicados em eventos nacionais e internacionais. / Electrical Impedance Tomography (EIT) is a technique that aim to reconstruct images of the interior of a body in a non-invasive and non-destructive form. Based on the application of the electrical current and on the measurement of the body’s edge electrical potential, made through of electrodes, an EIT image reconstruction algorithm generates the conductivity distribution map of this body’s interior. Several methods are applied to generate EIT images; however, they are still generated smooth contour images. This is due of the mathematical nature of EIT reconstruction problem as an ill-posed and ill-conditioned problem. Thus, there is not an exact internal conductivity distribution for one determinate edge potential distribution. The EIT is ruled mathematically by Poisson’s equations, and the image generation involves an iterative resolution of a direct problem, that treats the obtainment of the edge potentials through of an internal distribution of conductivity. The direct problem, in this dissertation, was applied through of Finite Elements Method. Thereby, is possible to apply search and optimization techniques that aim to minimize the mean square error relative (objective function) between the edge potentials measured in the body (gold image) and the potential generated by the resolution of the direct problem of a solution candidate. Thus, the goal of this work was to construct a computational tool based in hybrid search and optimization algorithms, highlighting the Differential Evolution, in order to reconstruct EIT images. For comparison, it was also used to generate EIT images: Genetic Algorithm, Particle Optimization Swarm and Simulated Annealing. The simulations were made in EIDORS, a tool used in MatLab/GNU Octave open source toward the TIE community. The experiments were performed using three different configurations of gold images (phantoms). The analyzes were done in two ways, as follows, qualitative: in the form of how the images generated by the optimization technique are similar to their respective phantom; quantitative: computational time, by the evolution of the relative error calculated for the objective function of the best candidate to the solution over time the EIT images reconstruction; and computational cost, by evaluating the evolution of the relative error over the amount of calculations of the objective functions by the algorithm. Results were generated for Genetic Algorithms, five classical versions of Differential Evolution, modified version of the Differential Evolution, Particle Optimization Swarm, Simulated Annealing and three new hybrid techniques based in Differential Evolution proposed in this work. According to the results obtained, we see that all hybrid techniques were efficient in solving the EIT problem, getting good qualitative and quantitative results from 50 iterations of these algorithms. Nevertheless, it deserves highlight the algorithm performance obtained by hybridization of Differential Evolution and Simulated Annealing to be the most promising technique here proposed to reconstruct EIT images, which proved to be faster and less expensive computationally than other proposed techniques. The results of this research generate several contributions in the form of published paper in national and international events.

Page generated in 0.2606 seconds