51 |
Petrologia dos diabásios da região de Angra dos Reis, RJ / Petrology of dolerites from the region of Angra dos Reis, RJNatália Famelli Pereira 23 March 2010 (has links)
Conselho Nacional de Desenvolvimento Científico e Tecnológico / O tema abordado nesta dissertação de mestrado é a petrogênese dos diabásios do Eocretáceo que integram o Enxame de Diques da Serra do Mar na região de Angra dos Reis (RJ). Estes diques intrudem rochas do Terreno Ocidental e do Arco Magmático Rio Negro, inserindo-se no contexto geodinâmico de fragmentação do Gondwana no Cretáceo Inferior. Essas intrusões são subverticais e orientam-se preferencialmente a N039E. Intrusões retilíneas são as mais observadas em campo. Os diabásios são compostos, essencialmente, por plagioclásio e clinopiroxênios (augita e pigeonita). Quartzo, minerais opacos, apatita e olivina ocorrem como minerais acessórios. A composição mineral secundária é marcada pela presença de biotita, uralita e saussurita. Os diabásios estudados compreendem uma série transicional com afinidade toleítica. Os estudos petrológicos revelam a existência de cinco suítes de alto-TiO2, tendo sido as mesmas discriminadas com base nas razões La/Yb de amostras com o mesmo teor de MgO. Destas, apenas a suíte 2 têm quantidade mínima de amostras para avaliação de processos evolutivos. O resultado da modelagem petrogenética aponta que o processo evolutivo mais provável para a geração dos diabásios da suíte 2 é cristalização fracionada sem mudança na assembleia fracionante. As amostras representativas dos líquidos parentais das cinco suítes apresentam razões La/Nb e La/Yb maiores que a unidade, típicas de derivação de fonte enriquecida, que, em várias províncias basálticas continentais, tem sido associada à fusão exclusiva do manto litosférico subcontinental ou a sua participação em processos de mistura de fontes. A discriminação de fontes mantélicas foi feita exclusivamente com base nos teores de elementos traços de amostras representativas de líquidos parentais das cinco suítes discriminadas na área de estudo. Os modelos indicam que todas as cinco suítes estudadas estão relacionadas a fontes harzburgíticas com granada residual. A suíte 5 da área de estudo não pode ser associada à mesma fonte mantélica geradora das suítes 1, 2, 3 e 4 que, por sua vez, se originaram por diferentes quantidades de fusão parcial (respectivamente, 44%, 35%, 31% e 25%) de uma mesma fonte. Cabe ressaltar que a ocorrência de duas suítes, com razões La/Yb muito distintas, porém geograficamente muito próximas, sugere que processos de heterogeneidade mantélica, tipicamente laterais, devem também ocorrer verticalmente. / The petrogenesis of Early Cretaceous dolerites within the Serra do Mar Dyke Swarm in the region of Angra dos Reis (RJ) is presented in this dissertation. The dykes are associated with the Gondwana breakup and intrude rocks of the so-called Occidental Terrane and the Rio Negro Magmatic Arc within the Late Proterozoic-Ordovician Ribeira Orogen. Tipically, the intrusions are subvertical bearing a N039E preferential trend with sharp, linear contacts with their country rocks. The dolerites are essentially composed of plagioclase and clinopyroxene (augite and pigeonita). Quartz, opaque minerals, apatite and olivine occur as accessory minerals. The secondary phases are biotite, eterog and eterogene. The dolerites constitute a transitional series with tholeiitic affinity. Whole-rock geochemical data reveal the existence of five high-TiO2 suites which were discriminated on the basis of La/Yb ratios for samples with similar MgO contents. Petrogenesis analysis were done for suite 2 only due to scarcity of samples in the other four suites. As such, petrogenetic interpretation and modeling points to fractional crystallization as the likely evolutionary process associated with suite 2 dolerites. Samples representing parental liquids of five the high-TiO2 suites show values of La/Nb and La/Yb ratios greater than unity which points to at least a contribution of the subcontinental lithospheric mantle (SCLM) for their genesis. Nevertheless, source mixing processes may have operated since the marked composition of the SCLM (as the Nb depletion, for instance) tends to obliterate most of the geochemical characteristics of other mantle sources. Petrogenetic eteroge indicates that the all five studied suites are related to harzbugitic sources with residual garnet pointing to a thick SCLM by the time of the Gondwana breakup. Suite 5 cannot be associated with the same mantle source that generated suites 1, 2, 3, and 4 which in turn can be related to different amounts of partial melting from a common mantle source (respectively, 44%, 35%, 31% and 25%). As all five suites are close related in space, processes involving vertical chemical eterogeneities within the SCLM as opposed to lateral ones should be considered when putting constraints on geodynamic models for the Gondwana breakup.
|
52 |
Sistema automático para negociação de ações usando técnica de mineração de dados com detecção de mudança de conceitoSOUZA, Victor Lorena de Farias 19 October 2015 (has links)
Submitted by Haroudo Xavier Filho (haroudo.xavierfo@ufpe.br) on 2016-01-22T14:22:26Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação_Mestrado_Victor_Lorena.pdf: 1644188 bytes, checksum: 4a53bf1f4dc89599b68bd29f20b7fd59 (MD5) / Made available in DSpace on 2016-01-22T14:22:26Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação_Mestrado_Victor_Lorena.pdf: 1644188 bytes, checksum: 4a53bf1f4dc89599b68bd29f20b7fd59 (MD5)
Previous issue date: 2015-10-19 / FACEPE / Uma série temporal financeira representa as cotações dos preços das ações e apresenta
comportamento similar a um fluxo de dados. Para a descoberta de padrões presentes em seus
dados alguns trabalhos utilizam técnicas de mineração de dados que são fundamentadas na
ideia de que os dados históricos guardam a memória essencial para prever a direção futura
dos preços. Métodos tradicionais propostos na literatura consideram que o ambiente é estático,
ou seja, que o mecanismo gerador da série financeira é o mesmo durante todo o intervalo de
tempo de interesse. Porém, no caso de séries temporais financeiras, isso pode não ocorrer. Para
resolver este problema, esta dissertação propõe a abordagem PAA-IDPSO-CD (Aproximação
por Valor Agregado de Segmento - Otimização por Enxame de Partículas Auto Adaptativa com
detecção de mudança de conceito) para descoberta de padrões em séries temporais financeiras. A
abordagem proposta objetiva lidar explicitamente com mudanças de conceito na série e descobrir
os melhores padrões representativos dos dados das séries temporais que serão utilizados junto
a uma estratégia de investimento formulada para automatizar as operações a serem feitas no
mercado de ações. Isso possibilitará a redução das incertezas e dos riscos envolvidos nas compras
e vendas de ações e auxiliará os investidores a maximizar o lucro nas suas operações feitas no
mercado de ações. A fim de alcançar melhores resultados são propostas diferentes estruturas
de partículas, utilizadas pelo IDPSO, junto a diferentes regras de decisão. Primeiramente, é
utilizada uma estrutura básica para a partícula, em que se opera apenas na posição comprado no
mercado financeiro. É proposto também uma segunda estrutura que é capaz de operar tanto na
posição comprado quanto na posição vendido. Os experimentos do presente estudo comparam os
resultados das versões do método proposto entre si e com os resultados obtidos pelas abordagens
Buy and Hold (B&H) e SAX-GA (Aproximação por Valor Agregado Simbólico - Algoritmos
Genéticos). Para isso, foram realizados Teste t Pareado com nível de confiança de 95% em vinte
ações. O presente estudo conclui que o PAA-IDPSO-CD apresentou resultados estatisticamente
melhores que o B&H e o SAX-GA para todas as vinte ações em que os testes foram executados
(pvalor <0;05). Além disso, a estratégia que opera nas posições comprado e vendido é melhor
quando comparada àquela que opera apenas na posição comprado. No estudo comparativo em
onze ações não houve diferença estatística e em outras sete a estratégia comprado e vendido
obteve melhores resultados (pvalor < 0; 05). / Financial time series represents the prices of stock over time and presents similar behavior
to a data stream. Mining techniques, which are based on the idea that the historical data retain
the essential memory to predict the future direction, are used to make the patterns discovery
in the time series data. In this context, this study proposes the PAA-IDPSO-CD (Piecewise
Aggregate Approximation - Improved self-adaptive particle swarm optimization with Concept
Drift) approach aiming to find patterns in financial time series. The purpose of this study is the
discovery of the best representative patterns of the time series data to be used by a designed
investment strategy to automate the operations to be made in the stock market. Thus, reducing
the uncertainties and risks involved in buying and selling operations of stocks and help investors
maximize the profit in their operations made in the stock market. In order to achieve best
results, different particle structures, used by IDPSO, along with different decision rules are
proposed. First, a basic structure to the particle is employed, it operates only in the Long position
in the financial market. Subsequently, this structure develops to be able to operate both in
Long and Short position. The experiments of this study comparing the results of the various
versions of the proposed approach with each other and with those obtained by the Buy and
Hold (B&H) and SAX-GA techniques, for that, were performed Paired t test with a confidence
level of 95% in twenty stocks. The achieved results show that the PAA-IDPSO-CD outperforms
B&H and SAX-GA for all twenty stocks in which the tests were performed (pvalue < 0:05).
Furthermore, the long-short operating strategy is better than that operating only in the long
position. In the comparative study in eleven actions there was no statistical difference and in
other seven long-short strategy outperforms (pvalue < 0:05).
|
53 |
Reconstrução de imagens de tomografia por impedância elétrica utilizando o método dialético de otimizaçãoFEITOSA, Allan Rivalles Souza 27 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-03-29T18:39:03Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação_Allan.pdf: 9306708 bytes, checksum: ff20e727c0e268faed60dc2c7e9f5a7c (MD5) / Made available in DSpace on 2016-03-29T18:39:03Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertação_Allan.pdf: 9306708 bytes, checksum: ff20e727c0e268faed60dc2c7e9f5a7c (MD5)
Previous issue date: 2015-02-27 / FACEPE / A Tomografia por Impedância Elétrica (TIE) é uma técnica que visa reconstruir imagens do
interior de um corpo de forma não invasiva. Esta reconstrução é feita com base nas propriedades
elétricas de condutividade do interior deste corpo. Com base na aplicação e medida dos
potenciais da borda do corpo, feita através de eletrodos, um algoritmo de reconstrução de
imagens gera a imagem do interior deste corpo. Diversos métodos são aplicados para gerar
imagens de TIE, porém ainda são geradas imagens de contorno suave. Isto acontece por causa
da natureza matemática do problema de reconstrução da TIE como um problema mal posto e
mal condicionado. Isto significa que não existe uma distribuição de condutividade interna exata
para uma determinada distribuição de potenciais de borda. A TIE é governada matematicamente
pela equação de Poisson e a geração da imagem envolve a resolução de um problema direto,
que trata da obtenção dos potenciais de borda a partir de uma distribuição interna de
condutividade. O problema direto, neste trabalho, foi aplicado através do método dos elementos
finitos. Desta forma é possível aplicar técnicas de busca e otimização que objetivam minimizar
a distância euclidiana entre os potenciais de borda mensurados no corpo e os potencias gerados
pela resolução do problema direto de um candidato à solução. Devido ao fato deste trabalho ser
baseado em simulações, os potenciais de borda buscados foram gerados através da simulação
de objetos localizados no centro, borda e entre o centro e a borda e seus respectivos potenciais
de borda. Desta forma o objetivo deste trabalho foi construir uma ferramenta computacional
baseada em algoritmos de busca e otimização, desde os bioinspirados até os evolucionários,
com destaque para o método dialético de otimização, para fazer reconstrução de imagens de
Tomografia por impedância elétrica. Para efeitos de comparação também foram utilizados para
gerar imagens: Algoritmos Genéticos, Evolução Diferencial e Otimização por Enxame de
Partículas. As simulações foram feitas no EIDORS, uma ferramenta MatLab e GNUOctave de
código aberto voltada para a comunidade de TIE. Os experimentos foram feitos utilizando três
diferentes configurações de objetos de estudo (fantomas). As análises foram feitas de três
formas, sendo elas, qualitativa: na forma de o quão as imagens geradas são parecidas com seu
respectivo fantoma; quantitativa: com base na evolução do erro relativo calculado pela função
objetivo do melhor candidato à solução ao longo das interações; e, ainda, de custo
computacional, através da avaliação da evolução do erro relativo ao longo da quantidade de
cálculos da função objetivo pelo algoritmo. Foram gerados resultados para Algoritmos
Genéticos com busca guiada, cinco versões de Evolução diferencial e duas versões de
Otimização por enxame de Partículas. De acordo com os resultados obtidos Método Dialético
Objetivo mostrou ter a capacidade de encontrar um valor de erro menor em menos iterações do
que as outras técnicas propostas além de ser mais rápido devido ao fato de a quantidade de
polos ir diminuindo de acordo com as fases históricas, exigindo menos esforço computacional
por iteração. Os resultados desta pesquisa geraram diversas contribuições na forma de artigos
publicados em eventos nacionais e internacionais. / The Electrical Impedance Tomography is a technique that aims to reconstruct images of the
inside of a body non-invasively. This reconstruction is based on the electrical properties inside
the conductivity of this domain. Based on measurements of the potential edge made through
electrodes, an image reconstruction algorithm generates the domain inside the image. Several
methods are applied to generate TIE images, but are still generated smooth contour images.
This happens because of the mathematical nature of TIE reconstruction problem as an ill-posed
and ill-conditioned problem. This means that there is no exact solution to a certain internal
conductivity distribution. The TIE is mathematically governed by the Poisson equation and the
image generation involves solving a direct problem, which deals with obtaining the edge of
potential from an internal distribution of known conductivity. This achievement was made in
this study through the finite element method. This way you can apply search and optimization
techniques that aim to minimize the Euclidean distance between the edge of potential measured
in the body and the potential generated by the resolution of the direct problem of a solution to
the candidate. Because this work is based on simulations, the potential of border searches were
made by simulating objects located in the center, edge and between the center and the edge and
their potential edge respective. Therefore, the objective of this work was to build a
computational tool based on search and optimization algorithms, since the bioinspired to the
evolutionary, especially the dialectical method optimization, to make reconstruction
tomography images by electrical impedance. For comparison, were also used to generate these
images: Genetic Algorithms, Differential Evolution and optimization by particle swarm. The
simulations were made in EIDORS a MatLab and GNUOctave tool open source toward the TIE
community. The experiments were performed using three different configurations of objects of
study (phantoms). The analyzes were done in a qualitative way: in the form of how the
generated images are similar to their respective phantom; quantitative: based on the evolution
of the relative error calculated by the objective function of the best candidate to the solution
over the interactions; and also computational cost, by assessing the evolution of the relative
error over the amount of computation of the objective function by the algorithm. Results were
generated for Genetic Algorithms with guided search, five versions of differential evolution
and two versions of Particle Swarm Optimization. According to the results obtained dialectic
method showed order to be able to find a smallest error value in fewer iterations than other
proposed techniques besides being faster due to the fact that the number of poles tendency to
decrease in accordance with the historical phases , requiring less computational effort per
iteration. The results of this research have generated several contributions in the form of articles
published in national and international events.
|
54 |
Frankenstein PSO na definição das arquiteturas e ajustes dos pesos e uso de PSO heterogêneo no treinamento de redes neurais feed-forwardLIMA, Natália Flora De 29 August 2011 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2016-08-24T17:35:05Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertacao-Natalia_Flora_de_Lima.pdf: 2000980 bytes, checksum: 107f0691d21b9d94e253d08f06a4fbdd (MD5) / Made available in DSpace on 2016-08-24T17:35:05Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Dissertacao-Natalia_Flora_de_Lima.pdf: 2000980 bytes, checksum: 107f0691d21b9d94e253d08f06a4fbdd (MD5)
Previous issue date: 2011-08-29 / Facepe / Este trabalho apresenta dois novos algoritmos, PSO-FPSO e FPSO-FPSO, para
a otimização global de redes neurais MLP (do inglês Multi Layer Perceptron) do
tipo feed-forward. O propósito destes algoritmos é otimizar de forma simultânea
as arquiteturas e pesos sinápticos, objetivando melhorar a capacidade de
generalização da rede neural artificial (RNA). O processo de otimização
automática das arquiteturas e pesos de uma rede neural vem recebendo grande
atenção na área de aprendizado supervisionado, principalmente em problemas
de classificação de padrões. Além dos Algoritmos Genéticos, Busca Tabu,
Evolução Diferencial, Recozimento simulado que comumente são empregados
no treinamento de redes neurais podemos citar abordagens populacionais como
a otimização por colônia de formigas, otimização por colônia de abelhas e
otimização por enxame de partículas que vêm sendo largamente utilizadas nesta
tarefa. A metodologia utilizada neste trabalho trata da aplicação de dois
algoritmos do tipo PSO, sendo empregados na otimização das arquiteturas e na
calibração dos pesos das conexões. Nesta abordagem os algoritmos são
executados de forma alternada e por um número definido de vezes. Ainda no
processo de ajuste dos pesos de uma rede neural MLP foram realizados
experimentos com enxame de partículas heterogêneos, que nada mais é que a
junção de dois ou mais PSOs de tipos diferentes. Para validar os experimentos
com os enxames homogêneos foram utilizadas sete bases de dados para
problemas de classificação de padrões, são elas: câncer, diabetes, coração,
vidros, cavalos, soja e tireóide. Para os experimentos com enxames
heterogêneos foram utilizadas três bases, a saber: câncer, diabetes e coração.
O desempenho dos algoritmos foi medido pela média do erro percentual de
classificação. Algoritmos da literatura são também considerados. Os resultados
mostraram que os algoritmos investigados neste trabalho obtiveram melhor
acurácia de classificação quando comparados com os algoritmos da literatura
mencionados neste trabalho. / This research presents two new algorithms, PSO-FPSO e FPSO-FPSO, that can
be used in feed-forward MLP (Multi Layer Perceptron) neural networks for global
optimization. The purpose of these algorithms is to optimize architectures and
synaptic weight, at same time, to improve the capacity of generalization from
Artificial Neural Network (ANN). The automatic optimization process of neural
network’s architectures and weights has received much attention in supervised
learning, mainly in pattern classification problems. Besides the Genetic
Algorithms, Tabu Search, Differential Evolution, Simulated Annealing that are
commonly used in the training of neural networks we can mentioned population
approaches such Ant Colony Optimization, Bee Colony Optimization and Particle
Swarm Optimization that have been widely used this task. The methodology
applied in this research reports the use of two PSO algorithms, used in
architecture optimization and connection weight adjust. In this approach the
algorithms are performed alternately and by predefined number of times. Still in
the process of adjusting the weights of a MLP neural network experiments were
performed with swarm of heterogeneous particles, which is nothing more than the
joining of two or more different PSOs. To validate the experiments with
homogeneous clusters were used seven databases for pattern classification
problems, they are: cancer, diabetes, heart, glasses, horses, soy and thyroid. For
the experiments with heterogeneous clusters were used three bases, namely
cancer, diabetes and heart. The performance of the algorithms was measured by
the average percentage of misclassification, literature algorithms are also
considered. The results showed that the algorithms investigated in this research
had better accuracy rating compared with some published algorithms.
|
55 |
Uma hiper-heurística híbrida para a otimização de algorítmosMIRANDA, Pericles Barbosa Cunha de 22 August 2016 (has links)
Submitted by Rafael Santana (rafael.silvasantana@ufpe.br) on 2017-05-04T18:13:43Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Teste - Péricles Miranda.pdf: 1959669 bytes, checksum: 8b0b1e3f94dd3295bce6153865564a12 (MD5) / Made available in DSpace on 2017-05-04T18:13:43Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Teste - Péricles Miranda.pdf: 1959669 bytes, checksum: 8b0b1e3f94dd3295bce6153865564a12 (MD5)
Previous issue date: 2016-08-22 / A escolha de algoritmos ou heurísticas para a resolução de um dado problema é uma tarefa
desafiadora devido à variedade de possíveis escolhas de variações/configurações de algoritmos e
a falta de auxílio em como escolhê-las ou combiná-las. Por exemplo, o desempenho de algoritmo
de otimização depende da escolha dos seus operadores de busca e do ajuste adequado de seus
hiper-parâmetros, cada um deles com muitas possibilidades de opções a serem escolhidas. Por
este motivo, existe um interesse de pesquisa crescente na automatização da otimização de
algoritmos de modo a tornar esta tarefa mais independente da interação humana. Diferentes
abordagens têm lidado com a tarefa de ajuste de algoritmos como sendo outro problema de
(meta)otimização. Estas abordagens são comumente chamadas de hiper-heurísticas, onde cada
solução do espaço de busca, neste caso, é um possível algoritmo avaliado em um dado problema.
Inicialmente, hiper-heurísticas foram aplicadas na seleção de valores de hiper-parâmetros em
um espaço de busca pré-definido e limitado. No entanto, recentemente, hiper-heurísticas têm
sido desenvolvidas para gerar algoritmos a partir de componentes e funções especificados. Hiperheurísticas
de geração são consideradas mais flexíveis que as de seleção devido à sua capacidade
de criar algoritmos novos e personalizados para um dado problema. As hiper-heurísticas têm sido
largamente utilizadas na otimização de meta-heurísticas. No entanto, o processo de busca torna-se
bastante custoso, pois a avaliação das soluções trata-se da execução do algoritmo no problema
de entrada. Neste trabalho, uma nova hiper-heurística foi desenvolvida para a otimização de
algoritmos considerando um dado problema. Esta solução visa prover algoritmos otimizados que
sejam adequados para o problema dado e reduzir o custo computacional do processo de geração
significativamente quando comparado ao de outras hiper-heurísticas. A hiper-heurística proposta
combina uma abordagem de seleção de algoritmos com uma hiper-heurística de geração. A hiperheurística
de geração é responsável por criar uma base de conhecimento, que contém algoritmos
que foram gerados para um conjunto de problemas. Uma vez que esta base de conhecimento
esteja disponível, ela é usada como fonte de algoritmos a serem recomendados pela abordagem de
seleção de algoritmos. A ideia é reusar algoritmos previamente construídos pela hiper-heurística
de geração em problemas similares. Vale salientar que a criação de hiper-heurísticas visando
reduzir o custo de geração de algoritmos sem comprometer a qualidade destes algoritmos não foi
estudada na literatura. Além disso, hiper-heurísticas híbridas que combinam de abordagens de
seleção de algoritmos e hiper-heurísticas de geração para a otimização de algoritmos, proposta
nesta tese, é novidade. Para avaliar o algoritmo proposto, foi considerada como estudo de caso
a otimização do algoritmo baseado em enxames (PSO). Nos experimentos realizados, foram
considerados 32 problemas de otimização. O algoritmo proposto foi avaliado quanto à sua
capacidade de recomendar bons algoritmos para problemas de entrada, se estes algoritmos
atingem resultados competitivos frente à literatura. Além disso, o sistema foi avaliado quanto à
sua precisão na recomendação, ou seja, se o algoritmo recomendado seria, de fato, o melhor a
ser selecionado. Os resultados mostraram que a hiper-heurística proposta é capaz de recomendar
algoritmos úteis para os problemas de entrada e de forma eficiente. Adicionalmente, os algoritmos
recomendados atingiram resultados competitivos quando comparados com algoritmos estado da
arte e a recomendação dos algoritmos atingiu um alto percentual de precisão. / Designing an algorithm or heuristic to solve a given problem is a challenging task due to the
variety of possible design choices and the lack of clear guidelines on how to choose and/or
combine them. For instance, the performance of an optimization algorithm depends on the
designofitssearchoperatorsaswellasanadequatesettingofspecifichyper-parameters,eachof
them with many possible options to choose from. Because of that, there is a growing research
interest in automating the design of algorithms by exploring mainly optimization and machine
learningapproaches,aimingtomakethealgorithmdesignprocessmoreindependentfromhuman
interaction. Different approaches have dealt with the task of optimizing algorithms as another
(meta)optimization problem. These approaches are commonly called hyper-heuristics, where
each solution of the search space is a possible algorithm. Initially, hyper-heuristics were applied
for the selection of parameters in a predefined and limited search space. Nonetheless, recently,
generation hyper-heuristics have been developed to generate algorithms from a set of specified
components and functions. Generation hyper-heuristics are considered more flexible than the
selection ones due to its capacity to create new and customized algorithms for a given problem.
Hyper-heuristics have been widely used for the optimization of meta-heuristics. However, the
search process becomes expensive because the evaluation of each solution depends on the
execution of an algorithm in a problem. In this work, a novel hyper-heuristic was developed
to optimize algorithms considering a given problem. The proposed approach aims to provide
optimizedalgorithmsfortheinputproblemandreducethecomputationalcostoftheoptimization
process significantly when compared to other hyper-heuristics. The proposed hyper-heuristics
combines an automated algorithm selection method with a generation hyper-heuristic. The
generation hyper-heuristic is responsible for the creation of the knowledge base, which contains
previously built algorithms for a set of problems. Once the knowledge base is available, it
is used as a source of algorithms to be recommended by the automated algorithm selection
method. The idea is to reuse the algorithms already built by the generation hyper-heuristic on
similar problems. It is worth mentioning that the creation of hyper-heuristics aiming to reduce
the cost of the algorithm generation without harming the quality of these algorithms were not
studied yet. Besides, hybrid hyper-heuristics which combine an algorithm selection approach
with a generation hyper-heuristic for the algorithm optimization, proposed in this thesis, are a
novelty. To evaluate the proposed algorithm, it was considered as case study the optimization
of the Particle Swarm Optimization algorithm (PSO). In our experiments, we considered 32
optimizationproblems.Theproposedsystemwasevaluatedregardingitscapacitytorecommend
adequate algorithms for an input problem, the quality of the recommended algorithms, and,
finally, regarding its accuracy to recommend algorithms. The results showed that the proposed
system recommends useful algorithms for the input problem. Besides, the algorithms achieved
competitive results when compared to state-of-the-art algorithms, and also, the system presented
a high percentage of accuracy in the recommendation.
|
56 |
Investigação experimental usando algoritmos populacionais em ambientes ruidososNascimento, Eduardo Mendel do 01 July 2011 (has links)
Made available in DSpace on 2016-12-23T14:33:45Z (GMT). No. of bitstreams: 1
DissertacaoEduardoMendel.pdf: 3360430 bytes, checksum: 4b59bc4936fee015191ac31e1e6924b4 (MD5)
Previous issue date: 2011-07-01 / O objetivo principal deste trabalho é a realização de um estudo investigativo experimental de algoritmos populacionais em ambientes ruidosos. Quatro versões do algoritmo Particle Swarm (PSO) foram adotadas nos experimentos. São elas: PSO canônico (topologia global), PSO padrão (topologia local), Bare Bones (BBPSO) e Fully Informed Particle Swarm (FIPS). Através de cooperação, as abordagens de otimização baseadas em população frequentemente encontram soluções satisfatórias com eficácia e eficiência. Entretanto, a maioria das versões desenvolvidas nos últimos anos apresenta dificuldades na otimização de funções com muitos mínimos locais em espaços de alta dimensão. Foi analisado o comportamento de uma estratégia denominada de estratégia de jump em ambientes incertos com a finalidade de estudar melhorias no desempenho dos métodos investigados, tanto no contexto estático quanto ruidoso. Inicialmente, os algoritmos populacionais foram investigados com a estratégia de jump com objetivo de escapar de mínimos locais. O jump é utilizado quando não são observadas melhorias durante o processo de otimização. Essa abordagem foi apresentada primeiramente com base nas distribuições de probabilidade Gaussiana e de Cauchy. Testes experimentais foram conduzidos em um conjunto bem conhecido de problemas multimodais, com muitos mínimos locais. Os resultados obtidos sugerem que as versões híbridas dos algoritmos populacionais são capazes de superar o desempenho de suas respectivas versões originais. Conclui-se que a estratégia de jump é bastante eficaz no combate à convergência prematura. A melhoria no desempenho é consequência de um pequeno, mas importante, número de saltos bem sucedidos. Em virtude dos resultados promissores obtidos com os algoritmos populacionais combinados com a estratégia de jump, essa abordagem foi expandida e, ao invés, de gerar números randômicos segundo distribuições de probabilidade, optou-se por utilizar sequências caóticas. As quatro versões do PSO foram novamente investigadas com objetivo de analisar a habilidade da estratégia modificada em permitir que indivíduos em regime de estagnação escapem de atratores sub-ótimos. Resultados de simulação demonstram que a adição de saltos caóticos impulsiona o desempenho dos algoritmos em comparação com as abordagens utilizando distribuição de probabilidade. Além disso, a estratégia populacional com caos possui custo computacional inferior. Na sequência do trabalho, o foco é a investigação da introdução de jump com caos nos algoritmos populacionais aplicados, entretanto, a problemas de otimização ruidosos, com adição de incerteza às funções de teste. O método híbrido é analisado experimentalmente em diversas funções benchmarks. Resultados de simulação indicam que a adição da estratégia de jump é benéfica em termos de robustez. Em ambientes ruidosos, um algoritmo para ser considerado robusto precisa alcançar sistematicamente uma solução satisfatória. Não é suficiente obter bons resultados sob baixos níveis de ruídos e degradar a solução à proporção que o nível de ruído aumenta. Conclui-se que embora o desempenho dos algoritmos populacionais deteriore com o aumento no nível de ruído, as soluções encontradas pelas versões modificadas são superiores às soluções obtidas pelas versões originais. A estratégia de saltos, adicionada aos algoritmos populacionais, aplicada tanto em funções estáticas quanto em funções ruidosas demonstrou ser bastante eficiente e eficaz, pois aumenta a chance do algoritmo escapar de mínimos locais. A abordagem analisada é simples e de fácil implementação, sem nenhum acréscimo de esforço computacional. O uso de sequências caóticas em substituição às distribuições de probabilidade contribui para a eficiência da abordagem
|
57 |
Aplica??o da Transformada Wavelet em An?lise de Texturas de Gr?ficos de Recorr?ncia para Detec??o de Patologias Lar?ngeasSouza, Taciana Ara?jo de 06 December 2016 (has links)
Submitted by Alex Sandro R?go (alex@ifpb.edu.br) on 2016-12-06T12:35:11Z
No. of bitstreams: 1
11- Taciana Araujo de Souza - Aplica??o da Transformada Wavelet em An?lise de Texturas de Gr?ficos de Recorr?ncia.pdf: 3681994 bytes, checksum: ca089bc3877db3b99c310c8d3304967d (MD5) / Approved for entry into archive by Alex Sandro R?go (alex@ifpb.edu.br) on 2016-12-06T12:36:21Z (GMT) No. of bitstreams: 1
11- Taciana Araujo de Souza - Aplica??o da Transformada Wavelet em An?lise de Texturas de Gr?ficos de Recorr?ncia.pdf: 3681994 bytes, checksum: ca089bc3877db3b99c310c8d3304967d (MD5) / Made available in DSpace on 2016-12-06T12:36:21Z (GMT). No. of bitstreams: 1
11- Taciana Araujo de Souza - Aplica??o da Transformada Wavelet em An?lise de Texturas de Gr?ficos de Recorr?ncia.pdf: 3681994 bytes, checksum: ca089bc3877db3b99c310c8d3304967d (MD5)
Previous issue date: 2016-12-06 / A an?lise ac?stica do sinal de voz, devido ? sua natureza n?o invasiva e ao baixo custo, tem se mostrado uma eficiente ferramenta para aux?lio ao diagn?stico das desordens vocais provocadas por patologias na laringe. Os gr?ficos apresentam padr?es de larga e pequena escala, cujas varia??es em sua textura representam o comportamento do sinal de voz, proporcionando informa??es acerca do estado de normalidade ou de altera??o na qualidade vocal. Os padr?es de pequena escala podem ser vistos como caracter?sticas de textura e servem como base para uma an?lise quantitativa dos gr?ficos de recorr?ncia. T?cnicas de Processamento Digital de Imagens s?o empregadas para a an?lise da textura contida nos gr?ficos de recorr?ncia, baseada na transformada wavelet bidimensional. A fim de discriminar sinais saud?veis de sinais patol?gicos, s?o extra?dos diversos descritores de texturas dos coeficientes de cada sub-banda obtida pela decomposi??o wavelet bidimensional. Nesta pesquisa, duas abordagens foram aplicadas, as quais se diferenciam pela forma de extra??o dos padr?es representativos dos sinais: extra??o dos descritores de textura diretamente das sub-bandas da transformada wavelet; e extra??o dos descritores de Haralick, a partir da matriz de co-ocorr?ncia. Os sinais de voz foram classificados como saud?veis ou patol?gicos, como tamb?m foi realizada a discrimina??o entre patologias. Paralisia, edema de Reinke e n?dulos nas pregas vocais foram as patologias lar?ngeas consideradas na pesquisa. Os melhores resultados foram obtidos com os descritores de Haralick, empregando redes neurais MLP (Multilayer Perceptron) na classifica??o, em conjunto com o algoritmo de otimiza??o por enxame de part?culas PSO (Particle Swarm Optimization) empregado na sele??o das caracter?sticas mais representativas. O sistema proposto melhorou significativamente a acur?cia na discrimina??o entre patologias, com resultados superiores aos encontrados na literatura, que empregam a an?lise de recorr?ncia.
|
58 |
Planejamento estático da expansão de sistemas de transmissão de energia elétrica utilizando otimização por enxame de partículasMendonça, Isabela Miranda de 02 August 2012 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2016-06-09T11:41:20Z
No. of bitstreams: 1
isabelamirandademendonca.pdf: 1432328 bytes, checksum: 68aebf134272c7d3ee8daad48baf21cd (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2016-07-13T13:30:43Z (GMT) No. of bitstreams: 1
isabelamirandademendonca.pdf: 1432328 bytes, checksum: 68aebf134272c7d3ee8daad48baf21cd (MD5) / Made available in DSpace on 2016-07-13T13:30:43Z (GMT). No. of bitstreams: 1
isabelamirandademendonca.pdf: 1432328 bytes, checksum: 68aebf134272c7d3ee8daad48baf21cd (MD5)
Previous issue date: 2012-08-02 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Esta dissertação tem por objetivo a realização do planejamento estático da expansão de sistemas de transmissão de energia elétrica via otimização por Enxame de Partículas (EP). A metodologia proposta faz uso de um Algoritmo Heurístico Construtivo (AHC) que tem a finalidade de pré-selecionar as linhas candidatas à expansão mais relevantes, de modo a reduzir o espaço de busca e consequentemente, aumentar a eficiência do processo de otimização bioinspirado. Desta forma, a metodologia proposta pode ser dividida em duas etapas: (i) Obtenção do conjunto reduzido de rotas através do AHC, com o objetivo de identificar os caminhos relevantes à expansão e, assim, diminuir o espaço de busca; (ii) Utilização da otimização por enxame de partículas e das informações heurísticas advindas da primeira etapa, com o objetivo de encontrar o custo mínimo de expansão através de um número reduzidos de partículas. Em ambas as etapas a rede de transmissão é representada pelo modelo linearizado de fluxo de carga, onde as decisões de expansão são incorporadas ao problema através das equações originais do modelo CC. O critério de seleção da expansão é realizado através de heurística, de modo a evitar a explosão combinatória referente às alternativas de investimento. A metodologia proposta é aplicada ao sistema Garver e a dois sistemas reais equivalentes a região Sul e Sudeste do Brasil. / This dissertation aims at the realization of the static transmission network expansion planning (STNEP) of electric power systems using the Particle Swarm Optimization (PSO) method. The proposed methodology uses a Constructive Heuristic Algorithm (CHA) in order to pre-select the most relevant candidates lines for expansion, so as to reduce the search space and thereby increasing efficiency of the bioinspired optimization process. Thus, the proposed methodology can be divided into two steps: (i) Obtaining the reduced set of routes through the CHA, in order to identify relevant routes for expansion and thus reduce the search space; (ii) Using the Particle Swarm Optimization and heuristic information provided by the first stage, in order to find the minimum expansion cost using a reduced number of particles. In both stages the transmission network is represented by a linearized load flow model, where the expansion decisions are incorporated into the optimization problem using the original equations of the model DC. The selection of expansion criterion is done through heuristic in order to avoid combinatorial explosion associated with expansion alternatives. The proposed methodology is applied to the Garver system and two real equivalent South and Southeastern Brazilian systems.
|
59 |
Solução de problemas de otimização com restrições usando estratégias de penalização adaptativa e um algoritmo do tipo PSOCarvalho, Érica da Costa Reis 13 February 2014 (has links)
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-03-02T11:42:31Z
No. of bitstreams: 1
ericadacostareiscarvalho.pdf: 5557018 bytes, checksum: f6ffd53d6329e89b519786974a1b85e0 (MD5) / Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-03-06T19:32:37Z (GMT) No. of bitstreams: 1
ericadacostareiscarvalho.pdf: 5557018 bytes, checksum: f6ffd53d6329e89b519786974a1b85e0 (MD5) / Made available in DSpace on 2017-03-06T19:32:37Z (GMT). No. of bitstreams: 1
ericadacostareiscarvalho.pdf: 5557018 bytes, checksum: f6ffd53d6329e89b519786974a1b85e0 (MD5)
Previous issue date: 2014-02-13 / CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nos últimos anos, várias meta-heurísticas têm sido adotadas para a solução de problemas
de otimização com restrições. Uma dessas meta-heurísticas que se torna cada vez mais
popular é a Otimização por Enxame de Partículas (Particle Swarm Optimization - PSO).
O PSO é baseado na metáfora de como algumas espécies compartilham informações e,
em seguida, usam essas informações para mover-se até os locais onde os alimentos estão
localizados. A população é formada por um conjunto de indivíduos denominado partículas
que representa possíveis soluções dentro de um espaço de busca multidimensinal. Neste
trabalho, são analisados problemas clássicos de otimização com restrições onde um
algoritmo PSO os trata como sendo sem restrições através da introdução de um método
de penalização adaptativa (Adaptive Penalty Method - APM). O APM adapta o valor
dos coeficientes de penalização de cada restrição fazendo uso de informações coletadas da
população, tais como a média da função objetivo e o nível de violação de cada restrição.
Diversos experimentos computacionais são realizados visando avaliar o desempenho do
algoritmo considerando vários problemas testes encontrados na literatura. / In recent years, several meta-heuristics have been adopted for the solution of constrained
optimization problems. One of these meta-heuristic that is becoming increasingly popular
is the Particle Swarm Optimization - PSO. PSO is based on the metaphor of how some
species share information and then use this information to move to the places where food
is located. The population is formed by a group of individuals called particles representing
possible solutions within a space multidimensional search. In this thesis, classical problems
of constrained optimization where a PSO algorithm treats them as being unconstrained
by introducing a method of adaptive penalty (Adaptive Penalty Method - APM) are
analyzed. The APM adjusts the value of the penalty coeffcients of each constraint using
the information collected from the population, such as the average of the objective function
as well as the level of violation of each constraint. Several computational experiments are
conducted to assess the performance the algorithm tests considering various problems
found in the literature.
|
60 |
[en] PSO+: A LINEAR AND NONLINEAR CONSTRAINTS-HANDLING PARTICLE SWARM OPTIMIZATION / [pt] PSO+: ALGORITMO COM BASE EM ENXAME DE PARTÍCULAS PARA PROBLEMAS COM RESTRIÇÕES LINEARES E NÃO LINEARESMANOELA RABELLO KOHLER 15 August 2019 (has links)
[pt] O algoritmo de otimização por enxame de partículas (PSO, do inglês Particle Swarm Optimization) é uma meta-heurística baseada em populações de indivíduos na qual os candidatos à solução evoluem através da simulação de um modelo simplificado de adaptação social. Juntando robustez, eficiência e simplicidade, o PSO tem adquirido grande popularidade. São reportadas muitas aplicações bem-sucedidas do PSO nas quais este algoritmo demonstrou ter vantagens sobre outras meta-heurísticas bem estabelecidas baseadas em populações de indivíduos. Algoritmos modificados de PSO já foram propostos para resolver problemas de otimização com restrições de domínio, lineares e não lineares. A grande maioria desses algoritmos utilizam métodos de penalização, que possuem, em geral, inúmeras limitações, como por exemplo: (i) cuidado adicional ao se determinar a penalidade apropriada para cada problema, pois deve-se manter o equilíbrio entre a obtenção de soluções válidas e a busca pelo ótimo; (ii) supõem que todas as soluções devem ser avaliadas. Outros algoritmos que utilizam otimização multi-objetivo para tratar problemas restritos enfrentam o problema de não haver garantia de se encontrar soluções válidas. Os algoritmos PSO propostos até hoje que lidam com restrições, de forma a garantir soluções válidas utilizando operadores de viabilidade de soluções e de forma a não necessitar de avaliação de soluções inválidas, ou somente tratam restrições de domínio controlando a velocidade de deslocamento de partículas no enxame, ou o fazem de forma ineficiente, reinicializando aleatoriamente cada partícula inválida do enxame, o que pode tornar inviável a otimização de determinados problemas. Este trabalho apresenta um novo algoritmo de otimização por enxame de partículas, denominado PSO+, capaz de resolver problemas com restrições lineares e não lineares de forma a solucionar essas deficiências. A modelagem do algoritmo agrega seis diferentes capacidades para resolver problemas de otimização com restrições: (i) redirecionamento aritmético de validade de partículas; (ii) dois enxames de partículas, onde cada enxame tem um papel específico na otimização do problema; (iii) um novo método de atualização de partículas para inserir diversidade no enxame e melhorar a cobertura do espaço de busca, permitindo que a borda do espaço de busca válido seja devidamente explorada – o que é especialmente conveniente quando o problema a ser otimizado envolve restrições ativas no ótimo ou próximas do ótimo; (iv) duas heurísticas de criação da população inicial do enxame com o objetivo de acelerar a inicialização das partículas, facilitar a geração da população inicial válida e garantir diversidade no ponto de partida do processo de otimização; (v) topologia de vizinhança, denominada vizinhança de agrupamento aleatório coordenado para minimizar o problema de convergência prematura da otimização; (vi) módulo de transformação de restrições de igualdade em restrições de desigualdade. O algoritmo foi testado em vinte e quatro funções benchmarks – criadas e propostas em uma competição de algoritmos de otimização –, assim como em um problema real de otimização de alocação de poços em um reservatório de petróleo. Os resultados experimentais mostram que o novo algoritmo é competitivo, uma vez que aumenta a eficiência do PSO e a velocidade de convergência. / [en] The Particle Swarm Optimization (PSO) algorithm is a metaheuristic based on populations of individuals in which solution candidates evolve through simulation of a simplified model of social adaptation. By aggregating robustness, efficiency and simplicity, PSO has gained great popularity. Many successful applications of PSO are reported in which this algorithm has demonstrated advantages over other well-established metaheuristics based on populations of individuals. Modified PSO algorithms have been proposed to solve optimization problems with domain, linear and nonlinear constraints; The great majority of these algorithms make use of penalty methods, which have, in general, numerous limitations, such as: (i) additional care in defining the appropriate penalty for each problem, since a balance must be maintained between obtaining valid solutions and the searching for an optimal solution; (ii) they assume all solutions must be evaluated. Other algorithms that use multi-objective optimization to deal with constrained problems face the problem of not being able to guarantee finding feasible solutions. The proposed PSO algorithms up to this date that deal with constraints, in order to guarantee valid solutions using feasibility operators and not requiring the evaluation of infeasible solutions, only treat domain constraints by controlling the velocity of particle displacement in the swarm, or do so inefficiently by randomly resetting each infeasible particle, which may make it infeasible to optimize certain problems. This work presents a new particle swarm optimization algorithm, called PSO+, capable of solving problems with linear and nonlinear constraints in order to solve these deficiencies. The modeling of the algorithm has added six different capabilities to solve constrained optimization problems: (i) arithmetic redirection to ensure particle feasibility; (ii) two particle swarms, where each swarm has a specific role in the optimization the problem; (iii) a new particle updating method to insert diversity into the swarm and improve the coverage of the
search space, allowing its edges to be properly exploited – which is especially convenient when the problem to be optimized involves active constraints at the optimum solution; (iv) two heuristics to initialize the swarm in order to accelerate and facilitate the initialization of the feasible initial population and guarantee diversity at the starting point of the optimization process; (v) neighborhood topology, called coordinated random clusters neighborhood to minimize optimization premature convergence problem; (vi) transformation of equality constraints into inequality constraints. The algorithm was tested for twenty-four benchmark functions – created and proposed for an optimization competition – as well as in a real optimization problem of well allocation in an oil reservoir. The experimental results show that the new algorithm is competitive, since it increases the efficiency of the PSO and the speed of convergence.
|
Page generated in 0.0398 seconds