Spelling suggestions: "subject:"algoritmo genética""
171 |
Variable selection in multivariate calibration considering non-decomposability assumption and building blocks hypothesis / Seleção de variáveis em calibração multivariada considerando a presunção de não-decomponibilidade e a hipótese de blocos construtoresPaula, Lauro Cássio Martins de 06 December 2018 (has links)
Submitted by Liliane Ferreira (ljuvencia30@gmail.com) on 2018-12-12T10:14:40Z
No. of bitstreams: 2
Tese - Lauro Cássio Martins de Paula - 2018.pdf: 7484273 bytes, checksum: a3c47ef9c05d03a8dce4dce89a2df34b (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-12-12T10:36:08Z (GMT) No. of bitstreams: 2
Tese - Lauro Cássio Martins de Paula - 2018.pdf: 7484273 bytes, checksum: a3c47ef9c05d03a8dce4dce89a2df34b (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-12-12T10:36:08Z (GMT). No. of bitstreams: 2
Tese - Lauro Cássio Martins de Paula - 2018.pdf: 7484273 bytes, checksum: a3c47ef9c05d03a8dce4dce89a2df34b (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2018-12-06 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / The procedure used to select a subset of suitable features in a given data set consists in variable selection, which is important when the dataset contains large number of variables and many of them are redundant. Multivariate calibration combines variable selection with statistical techniques to build mathematical models which relate the data to a given property of interest in order to predict this property by selecting informative variables. In this context, variable selection techniques have been widely applied to the solution of several optimization problems. For instance, Genetic Algorithms (GAs) are easy to implement and consist in a population-based model that uses selection and recombination operators to generate new solutions. However, usually in multivariate calibration the dataset present a considerable correlation degree among variables and this provides an evidence about the problem not being properly decomposed. Moreover, some studies in literature have claimed genetic operators used by GAs can cause the building blocks (BBs) disruption of viable solutions. Therefore, this work aims to claim that selecting variables in multivariate calibration is a non-completely decomposable problem (hypothesis 1) as well as that recombination operators affects the non-decomposability assumption (hypothesis 2). Additionally, we are proposing two heuristics, one local search-based operator and two versions of an Epistasis-based Feature Selection Algorithm (EbFSA) to improve model prediction performance and avoid BBs disruption. Based on the performed inquiry and experimental results, we are able to endorse the viability of our hypotheses and demonstrate EbFSA can overcome some traditional algorithms. / Seleção de variáveis é um procedimento para selecionar um subconjunto de características viáveis em um conjunto de dados, o qual se torna importante quando esse conjunto contém muitas variáveis redundantes. A calibração multivariada combina seleção de variáveis com técnicas estatísticas para construir modelos matemáticos com o intuito de predizer uma propriedade de interesse. Nesse contexto, técnicas de seleção têm sido aplicadas na solução de diversos problemas. Por exemplo, Algoritmos Genéticos (AGs) são fáceis de implementar e consistem em um modelo baseado em população, o qual utiliza operadores de seleção e recombinação para gerar novos indivíduos. No entanto, geralmente em calibração multivariada, o conjunto de dados apresenta um grau de correlação considerável entre as variáveis e isso nos fornece uma evidência de que tal problema não pode ser decomposto adequadamente. Além disso, alguns estudos da literatura têm afirmado que os operadores genéticos utilizados pelos AGs podem causar o rompimento dos Blocos Construtores (Building Blocks - BBs) das soluções viáveis. Portanto, este trabalho objetiva demonstrar que a seleção de variáveis em calibração multivariada é um problema não-completamente decomponível (hipótese 1), assim como que operadores de recombinação afetam a presunção de não-decomponibilidade (hipótese 2). Adicionalmente, este trabalho propõe duas heurísticas, um operador de busca local e duas versões de um Algoritmo para Seleção de Variáveis baseado em Epistasia (EbFSA) para aprimorar a capacidade de predição do modelo e evitar o rompimento de BBs. Baseando-se na pesquisa realizada e nos resultados obtidos, torna-se possível confirmar a viabilidade de nossas hipóteses e demonstrar que o EbFSA consegue superar alguns algoritmos tradicionais.
|
172 |
Tomografia de escoamentos multifásicos por sensoriamento elétrico - desenvolvimento de algoritmos genéticos paralelos para a solução do problema inverso / Multiphase flow tomography by electrical sensing - development of parallel genetic algorithms for the solution of the inverse problemGrazieli Luiza Costa Carosio 15 December 2008 (has links)
A tomografia por sensoriamento elétrico representa uma técnica de grande potencial para a otimização de processos normalmente associados às indústrias do petróleo e química. Entretanto, o emprego de técnicas tomográficas em processos industriais envolvendo fluidos multifásicos ainda carece de métodos robustos e computacionalmente eficientes. Nesse contexto, o principal objetivo deste trabalho é contribuir para o desenvolvimento de métodos para a solução do problema tomográfico com base em algoritmos genéticos específicos para a fenomenologia do problema abordado (interação do campo elétrico com o campo hidrodinâmico), bem como a adaptação do algoritmo para processamento em paralelo. A idéia básica consiste em partir de imagens qualitativas, fornecidas por uma sonda de visualização direta, para formar um modelo da distribuição interna do contraste elétrico e refiná-lo iterativamente até que variáveis de controle resultantes do modelo numérico se igualem às suas homólogas, determinadas experimentalmente. Isso pode ser feito usando um funcional de erro, que quantifique a diferença entre as medidas externas não intrusivas (fluxo de corrente elétrica real) e as medidas calculadas no modelo numérico (fluxo de corrente elétrica aproximado). De acordo com a abordagem funcional adotada, pode-se modelar a reconstrução numérica do contraste elétrico como um problema de minimização global, cuja função objetivo corresponde ao funcional de erro convenientemente definido e o mínimo global representa a imagem procurada. A grande dificuldade está no fato do problema ser não linear e mal-posto, o que reflete na topologia da superfície de minimização, demandando um método especializado de otimização para escapar de mínimos locais, pontos de sela, mínimos de fronteira e regiões praticamente planas. Métodos de otimização poderosos, como os algoritmos genéticos, embora apresentem elevado esforço computacional na obtenção da imagem procurada, são melhor adaptáveis ao problema em questão. Desse modo, optou-se pelo uso de algoritmos genéticos paralelos nas arquiteturas mestre-escravo, ilha, celular e híbrida (combinando ilha e celular). O desempenho computacional dos algoritmos desenvolvidos foi testado em um problema de reconstrução da imagem tomográfica de um escoamento vertical a bolhas. De acordo com os resultados, a arquitetura híbrida é capaz de obter a imagem desejada com um desempenho computacional melhor, quando comparado ao desempenho das arquiteturas mestre-escravo, ilha e celular. Além disso, estratégias para melhorar a eficiência do algoritmo foram propostas, como a introdução de informações a priori, derivadas de conhecimento físico do problema tomográfico (fração de vazio e coeficiente de simetria do escoamento), a inserção de uma tabela hash para evitar o cálculo de soluções já encontradas, o uso de operadores de predação e de busca local. De acordo com os resultados, pode-se concluir que a arquitetura híbrida é um método apropriado para solução do problema de tomografia por impedância elétrica de escoamentos multifásicos. / Tomography by electrical sensing represents a technique of great potential for the optimization of processes usually associated with petroleum and chemical industries. However, the employment of tomographic techniques in industrial processes involving multiphase flows still lacks robust and computationally efficient methods. In this context, the main objective of this thesis is to contribute to the development of solution methods based on specific genetic algorithms for the phenomenology of the tomographic problem (interaction between electric and hydrodynamic fields), as well as the adaptation of the algorithm to parallel processing. From qualitative images provided by a direct imaging probe, the basic idea is to generate a model of electric contrast internal distribution and refine it repeatedly until control variables resulting from the numerical model equalize their counterparts, determined experimentally. It can be performed by using an error functional to quantify the difference between non-intrusive external measurements (actual electric current flow) and measurements calculated in a numerical model (approximate electric current flow). According to the functional approach, the numerical reconstruction of the electrical contrast can be treated as a global minimization problem in which the fitness function is an error functional conveniently defined and the global minimum corresponds to the sought image. The major difficulty lies in the nonlinear and ill-posed nature of the problem, which reflects on the topology of the minimization surface, demanding a specialized optimization method to escape from local minima, saddle points, boundary minima and almost plane regions. Although powerful optimization methods, such as genetic algorithms, require high computational effort to obtain the sought image, they are best adapted to the problem in question, therefore parallel genetic algorithms were employed in master-slave, island, cellular and hybrid models (combining island and cellular). The computational performance of the developed algorithms was tested in a tomographic image reconstruction problem of vertical bubble flow. According to the results, the hybrid model can obtain the sought image with a better computational performance, when compared with the other models. Besides, strategies to improve the algorithm efficiency, such as the introduction of a priori information derived from the physical knowledge of the tomographic problem (void fraction and symmetry coefficient of the flow), the insertion of a hash table to avoid the calculation of solutions already found, the use of predation and local search operators were proposed. According to the results, it is possible to conclude that the hybrid model is an appropriate method for solving the electrical impedance tomography problem of multiphase flows.
|
173 |
Programação genética: operadores de crossover, blocos construtivos e emergência semântica / Genetic programming: crossover operators, building blocks and semantic emergenceRafael Inhasz 19 March 2010 (has links)
Os algoritmos evolutivos são métodos heurísticos utilizados para a solução de problemas de otimização e que possuem mecanismos de busca inspirados nos conceitos da Teoria de Evolução das Espécies. Entre os algoritmos evolutivos mais populares, estão os Algoritmos Genéticos (GA) e a Programação Genética (GP). Essas duas técnicas possuem como ponto em comum o uso pesado do operador de recombinação, ou \"crossover\" - mecanismo pelo qual novas soluções são geradas a partir da combinação entre soluções existentes. O que as diferencia é a flexibilidade - enquanto que nos algoritmos genéticos as soluções são representadas por códigos binários, na programação genética essa representação é feita por algoritmos que podem assumir qualquer forma ou extensão. A preferência pelo operador de crossover não é simplesmente uma característica em comum das duas técnicas supracitadas, mas um poderoso diferencial. Na medida em que os indivíduos (as soluções) são selecionados de acordo com a respectiva qualidade, o uso do operador crossover tende a aumentar mais rapidamente a qualidade média da população se as partes boas de cada solução combinada (os \"building blocks\") forem preservadas. Holland [1975] prova matematicamente que sob determinadas condições esse efeito ocorrerá em algoritmos genéticos, em um resultado que ficou conhecido como \"Schema Theorem of GAs\". Entretanto, a implementação prática de GA (e, em especial, de GP) geralmente não ocorre segundo as condições supostas neste teorema. Diversos estudos têm mostrado que a extensão variável das estruturas utilizadas em GP dão um caráter de mutação ao operador de crossover, na medida em que a seleção aleatória dos pontos de combinação pode levar à destruição dos building blocks. Este trabalho propõe um novo operador de crossover, baseado em uma técnica de meta-controle que orienta a seleção dos pontos para a recombinação das soluções, respeitando o histórico de recombinação de cada ponto e a compatibilidade semântica entre as \"partes\" de cada solução que são \"trocadas\" neste processo. O método proposto é comparado ao crossover tradicional em um estudo empírico ligado à área Financeira, no qual o problema apresentado consiste em replicar a carteira de um fundo de investimentos setorial. Os resultados mostram que o método proposto possui performance claramente superior ao crossover tradicional, além de proporcionar a emergência de semântica entre as soluções ótimas. / Evolutionary algorithms are heuristic methods used to find solutions to optimization problems. These methods use stochastic search mechanisms inspired by Natural Selection Theory. Genetic Algorithms and Genetic Programming are two of the most popular evolutionary algorithms. These techniques make intensive use of crossover operators, a mechanism responsible for generating new individuals recombining parts of existing solutions. The choice of crossover operator to be used is very important for the algorithms´ performance. If individuals are selected according to the fitness, the use of crossover operator helps to quickly increase the average quality of the population. In GA we also observe the emergence of \"building blocks\", that is, encapsulated parts of good solutions that are often preserved during the recombination process. Holland [1975] proves that, under some conditions, this phenomenon will occur in GAs. This result is known as Schema Theorem of GAs. However, practical implementations of these algorithms may be far away from the conditions stated in Holland´s theorem. In these non-ideal conditions, several factor may contribute to higher rates of destructive crossover (building blocks destruction). This work proposes a new crossover operator, based on a meta-control technique that drives selection of crossover points according to recombination history and semantic compatibility between the code blocks to be switched. The proposed method is compared to common crossover in a case study concerning the replication of an investment fund. Our results show that the proposed method has better performance than the common crossover. Meta-control techniques also facilitate the emergence of building blocks that, in turn, give raise to emergent semantics that can be used to give meaning or interpretations to an optimal solution and its components.
|
174 |
Uma metodologia para síntese de circuitos digitais em FPGAs baseada em otimização multiobjetivoSOUZA, Viviane Lucy Santos de 20 August 2015 (has links)
Submitted by Irene Nascimento (irene.kessia@ufpe.br) on 2016-07-12T18:32:53Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Tese_Final_bib.pdf: 4325542 bytes, checksum: 5cafa644d256b743ce0f06490e4d5920 (MD5) / Made available in DSpace on 2016-07-12T18:32:53Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
Tese_Final_bib.pdf: 4325542 bytes, checksum: 5cafa644d256b743ce0f06490e4d5920 (MD5)
Previous issue date: 2015-08-20 / Atualmente, a evolução na arquitetura dos FPGAs (Field programable gate
arrays) permite que os mesmos sejam empregados em aplicações que vão desde a
prototipação rápida de circuitos digitais simples a coprocessadores para computação de
alto desempenho. Entretanto, a utilização eficiente dessas arquiteturas é fortemente
dependente, entre outros fatores, da ferramenta de síntese empregada.
O desafio das ferramentas de síntese está em converter a lógica do projetista em
circuitos que utilizem de maneira efetiva a área do chip, não degradem a frequência de
operação e que, sobretudo, sejam eficientes em reduzir o consumo de energia. Nesse
sentido, pesquisadores e grandes fabricantes de FPGA estão, frequentemente,
desenvolvendo novas ferramentas com vistas a esses objetivos, que se caracterizam por
serem conflitantes. O fluxo de síntese de projetos baseados em FPGAs engloba as
etapas de otimização lógica, mapeamento, agrupamento, posicionamento e roteamento.
Essas fases são dependentes, de forma que, otimizações nas etapas iniciais produzem
impactos positivos nas etapas posteriores. No âmbito deste trabalho de doutorado,
estamos propondo uma metodologia para otimização do fluxo de síntese,
especificamente, nas etapas de mapeamento e agrupamento.
Classicamente, a etapa de mapeamento é realizada mediante heurísticas que
determinam uma solução para o problema, mas que, não permitem a busca por soluções
ótimas, ou que beneficiam um objetivo em detrimento de outros. Desta forma, estamos
propondo a utilização de uma abordagem multiobjetivo baseada em algoritmo genético
e de uma abordagem multiobjetivo baseada em colônia artificial de abelhas que,
associadas a heurísticas específicas do problema, permitem que sejam obtidas soluções
de melhor qualidade e que resultam em circuitos finais com área reduzida, ganhos na
frequência de operação e com menor consumo de potência dinâmica.
Além disso, propomos uma nova abordagem de agrupamento multiobjetivo que
se diferencia do estado da arte, por utilizar uma técnica de predição e por considerar
características dinâmicas do problema, produzindo circuitos mais eficientes e que
facilitam a tarefa das etapas de posicionamento e roteamento.
Toda a metodologia proposta foi integrada ao fluxo acadêmico do VTR (Verilog
to routing), um projeto código aberto e colaborativo que conta com múltiplos grupos de
pesquisa, conduzindo trabalhos nas áreas de desenvolvimento de arquitetura de FPGAs
e de novas ferramentas de síntese. Além disso, utilizamos como benchmark, um
conjunto dos 20 maiores circuitos do MCNC (Microelectronics Center of North
Carolina) que são frequentemente utilizados em pesquisas da área.
O resultado do emprego integrado das ferramentas frutos da metodologia
proposta permite a redução de importantes aspectos pós-roteamento avaliados. Em
comparação ao estado da arte, são obtidas, em média, redução na área dos circuitos de
até 19%, além da redução do caminho crítico em até 10%, associada à diminuição na
potência dinâmica total estimada de até 18%.
Os experimentos também mostram que as metodologias de mapeamento
propostas são computacionalmente mais custosas em comparação aos métodos
presentes no estado da arte, podendo ser até 4,7x mais lento. Já a metodologia de
agrupamento apresentou pouco ou nenhum overhead em comparação ao metodo
presente no VTR. Apesar do overhead presente no mapeamento, os métodos propostos,
quando integrados ao fluxo completo, podem reduzir o tempo de execução da síntese
em cerca de 40%, isto é o resultado da produção de circuitos mais simples e que,
consequentemente, favorecem as etapas de posicionamento e roteamento. / Nowadays, the evolution of FPGAs (Field Programmable Gate Arrays) allows
them to be employed in applications from rapid prototyping of digital circuits to
coprocessor of high performance computing. However, the efficient use of these
architectures is heavily dependent, among other factors, on the employed synthesis tool.
The synthesis tools challenge is in converting the designer logic into circuits
using effectively the chip area, while, do not degrade the operating frequency and,
especially, are efficient in reducing power consumption. In this sense, researchers and
major FPGA manufacturers are often developing new tools to achieve those goals,
which are characterized by being conflicting. The synthesis flow of projects based on
FPGAs comprises the steps of logic optimization, mapping, packing, placement and
routing. These steps are dependent, such that, optimizations in the early stages bring
positive results in later steps. As part of this doctoral work, we propose a methodology
for optimizing the synthesis flow, specifically, on the steps of mapping and grouping.
Classically, the mapping step is performed by heuristics which determine a
solution to the problem, but do not allow the search for optimal solutions, or that benefit
a goal at the expense of others. Thus, we propose the use of a multi-objective approach
based on genetic algorithm and a multi-objective approach based on artificial bee
colony that, combined with problem specific heuristics, allows a better quality of
solutions are obtained, yielding circuits with reduced area, operating frequency gains
and lower dynamic power consumption.
In addition, we propose a new multi-objective clustering approach that differs
from the state-of-the-art, by using a prediction technique and by considering dynamic
characteristics of the problem, producing more efficient circuits and that facilitate the
tasks of placement and routing steps .
The proposal methodology was integrated into the VTR (Verilog to routing)
academic flow, an open source and collaborative project that has multiple research
groups, conducting work in the areas of FPGA architecture development and new
synthesis tools. Furthermore, we used a set of the 20 largest MCNC (Microelectronics
Center of North Carolina) benchmark circuits that are often used in research area.
The results of the integrated use of tools based on the proposed methodology
allow the reduction of important post-routing aspects evaluated. Compared to the stateof-
the-art, are achieved, on average, 19% reduction in circuit area, besides 10%
reduction in critical path, associated with 18% decrease in the total dynamic estimated
power.
The experiments also reveal that proposed mapping methods are
computationally more expensive in comparison to methods in the state-of-the-art, and
may even be 4.7x slower. However, the packing methodology presented little or no
overhead compared to the method in VTR. Although the present overhead mapping, the
proposed methods, when integrated into the complete flow, can reduce the running time
of the synthesis by approximately 40%, which is the result of more simple circuits and
which, consequently, favor the steps of placement and routing.
|
175 |
Aplicação do mapeamento conforme no cálculo do fator de CarterCALIXTO, Wesley Pacheco 06 June 2008 (has links)
Made available in DSpace on 2014-07-29T15:08:21Z (GMT). No. of bitstreams: 1
dissertacao wesley.pdf: 2546407 bytes, checksum: 1c1c0ce0780c785a8633268a8ba0eae0 (MD5)
Previous issue date: 2008-06-06 / The present work proposes a numeric formulation for the determination of Carter's
factor as a function of the geometry of the slot of electric machines. This task is made by the
use of the Schwarz-Christoffel transformation. In order to reach the objective, there is the
need to calculate the Schwarz-Christoffel inverse transformation. This represents a non-linear
optimization problem. Therefore, it is proposed a methodology to calculate the parameters of
the Schwarz-Christoffel inverse transformation using genetic algorithms. The assessment of
Carter s factor is achieved considering polygonal domains with many vertices. The
transformation leads to a rectangular domain approach. Moreover, some case studies are
proposed and the methodology results are compared to traditional formulation results for the
Carter s factor, yielding some disparities. / O presente trabalho propõe obter uma formulação numérica para a determinação do
fator de Carter em função da geometria da ranhura de máquinas elétricas, utilizando o cálculo
numérico da transformação de Schwarz-Christoffel. Com este objetivo, verifica-se a
necessidade do cálculo da transformação inversa de Schwarz-Christoffel. Este problema
representa um problema de otimização não linear. Desta forma, propõe-se uma metodologia
que implementa um algoritmo genético para resolver o problema de cálculo dos parâmetros da
Transformação inversa de Schwarz-Christoffel, considerando domínios poligonais com
muitos vértices. Em seguida, obtém-se um domínio retangular para o qual o problema do
cálculo do fator de Carter é resolvido. Desta forma, apresentam-se vários casos de estudos
onde a metodologia proposta é comparada com as formulações tradicionalmente utilizadas
para o cálculo do fator de Carter. Os resultados obtidos pelas diferentes metodologias são
confrontados, mostrando certas disparidades.
|
176 |
Otimização multiobjetivo para seleção simultânea de variáveis e objetos em cromossomo duplo de representação inteira para calibração multivariada / Multiobjective optimization for feature and samples selection in double chromosome of integer representation and variable size for multivariate calibrationBastos, Hélios Kárum de Oliveira 24 August 2017 (has links)
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2018-01-10T09:42:22Z
No. of bitstreams: 2
Dissertação - Hélios Kárum de Oliveira Bastos - 2017.pdf: 2219804 bytes, checksum: ba853c18f7e7e2c65eb0a342d4a34640 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-01-10T09:42:46Z (GMT) No. of bitstreams: 2
Dissertação - Hélios Kárum de Oliveira Bastos - 2017.pdf: 2219804 bytes, checksum: ba853c18f7e7e2c65eb0a342d4a34640 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-01-10T09:42:46Z (GMT). No. of bitstreams: 2
Dissertação - Hélios Kárum de Oliveira Bastos - 2017.pdf: 2219804 bytes, checksum: ba853c18f7e7e2c65eb0a342d4a34640 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-08-24 / Multiobjective Optimization for feature and samples selection in double chromosome of integer
representation and variable size for multivariate calibration}
In several problems of regression, classification, prediction, approximation
Optimization, the original data contain a large number of variables to obtain a better representation of the
problem under consideration. However, a significant part of the variables may be irrelevant and redundant
from the point of view of machine learning. Indeed, one of the challenges to be overcome is a selection of a
subset of variables that has the best perform. One of the breakthroughs in this type of problem is the use of a
multiobjective formulation that avoids the overlap of the model to the training data set. Another important
point is the process of choosing the objects to be used in the learning stage. Generally, a selection of
variables and treatment objects are treated separately and without dependence. This project proposes a
multiobjective modeling to select variables and objects simultaneously using a genetic integer representation
algorithm with variable size chromosomes. It is expected that a simultaneous selection of objects and
variables on a multiobjective context produce better results in a traditional approach. As a case study this
work utilized an analysis of near infrared (NIR) material on oil samples for the purpose of estimating the
concentration of an interest properties such set was used in the competition conducted at the International
Diffuse Reflectance Conference (IDRC) in the year 2014. / Em diversos problemas de regressão, classificação, previsão, aproximação e
otimização, os dados originais contêm um grande número de variáveis introduzidas para se
obter uma melhor representação do problema considerado. Entretanto, uma parte significativa
destas variáveis podem ser irrelevantes e/ou redundantes do ponto de vista do aprendizado de
máquina acerca do problema. Com efeito, um dos desafios a ser superados é a seleção de um
subconjunto de variáveis que apresentem um melhor desempenho. Um dos avanços recentes
neste tipo de problema está no uso de uma formulação multiobjetivo que evita o superajuste
do modelo ao conjunto de dados de treinamento. Outro ponto importante refere-se ao
processo de escolha adequada dos objetos a serem utilizados na etapa de aprendizado.
Geralmente, a seleção de variáveis e de objetos de treinamento são tratados de forma
separada e sem dependência. Este projeto propõe uma modelagem multiobjetivo para seleção
de variáveis e objetos de forma simultânea utilizando-se de algoritmo genético de
representação inteira com cromossomos de tamanho variáveis. Espera-se que a seleção
simultânea de objetos e variáveis no contexto multiobjetivo produza melhores resultados em
relação a abordagem tradicional. Como estudo de caso este trabalho utiliza dados obtidos por
uma análise de material com ondas de infravermelho próximo (NIR) sobre amostras de
petróleo com o propósito de estimar a concentração de uma propriedade de interesse, tal
conjunto foi utilizado na competição realizada no International Diffuse Reflectance Conference
(IDRC)
(\url{http://cnirs.clubexpress.com/content.aspx?page_id=22&club_id=409746&module_id=19
0211}), no ano de 2015.
|
177 |
Análise comparativa de técnicas de controle Fuzzy e matriz dinâmica aplicadas à máquina de corrente contínua / Comparative analysis of Fuzzy and dynamic matrix control applied to direct current machineDias, Rafael Nunes Hidalgo Monteiro 27 November 2017 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2018-01-10T15:49:59Z
No. of bitstreams: 2
Dissertação - Rafael Nunes Hidalgo Monteiro Dias - 2017.pdf: 14690145 bytes, checksum: d12e70a2cd0ee1087a184468c55f0b08 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-01-11T11:02:36Z (GMT) No. of bitstreams: 2
Dissertação - Rafael Nunes Hidalgo Monteiro Dias - 2017.pdf: 14690145 bytes, checksum: d12e70a2cd0ee1087a184468c55f0b08 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2018-01-11T11:02:36Z (GMT). No. of bitstreams: 2
Dissertação - Rafael Nunes Hidalgo Monteiro Dias - 2017.pdf: 14690145 bytes, checksum: d12e70a2cd0ee1087a184468c55f0b08 (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-11-27 / This work presents a comparison between Fuzzy and dynamic matrix controllers. These controllers are applied to the direct current (DC) motor speed control, triggered by fully controlled three-phase rectifier. The construction of the real system and the development and validation of the computational model are described. The controllers’ parameters are obtained through an optimization process. Both control techniques are compared and results indicate better performance of the optimized controllers, which suggest their promise in nonlinear systems’ control, in which seeks out control without error, that fulfills well its duty and its able to resist the fatigues. / Este trabalho apresenta o comparativo entre os controladores Fuzzy e matriz dinâmica. Estes controladores são aplicados ao controle de velocidade do motor de corrente contínua, acionado por retificador trifásico totalmente controlado. A metodologia parte da construção do sistema real e do desenvolvimento e validação do modelo computacional. A obtenção dos parâmetros dos controladores é realizada através do processo de otimização. Realiza-se análise comparativa entre as técnicas de controle e os resultados apontam para a proeminência de controladores sintonizados via processo de otimização como técnica promissora a ser empregada em controle de sistemas não lineares, nos quais buscam-se controle em que não há erro, que cumpra bem o seu dever e apto para resistir às fadigas.
|
178 |
CGPlan: a scalable constructive path planning for mobile agents based on the compact genetic algorithm / CGPlan: um planejamento de rotas construtivo e escalável para agentes móveis baseado no algoritimo genético compactoAssis, Lucas da Silva 16 February 2017 (has links)
Submitted by Erika Demachki (erikademachki@gmail.com) on 2017-03-24T21:09:18Z
No. of bitstreams: 2
Dissertação - Lucas da Silva Assis - 2017.pdf: 4403122 bytes, checksum: b6716ca532c65ba98f07fab680e6569d (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-03-28T11:39:32Z (GMT) No. of bitstreams: 2
Dissertação - Lucas da Silva Assis - 2017.pdf: 4403122 bytes, checksum: b6716ca532c65ba98f07fab680e6569d (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-03-28T11:39:32Z (GMT). No. of bitstreams: 2
Dissertação - Lucas da Silva Assis - 2017.pdf: 4403122 bytes, checksum: b6716ca532c65ba98f07fab680e6569d (MD5)
license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Previous issue date: 2017-02-16 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES / between desired points. These optimal paths can be understood as trajectories that best achieves an
objective, e.g. minimizing the distance travelled or the time spent. Most of usual path planning techniques
assumes a complete and accurate environment model to generate optimal paths. But many of the real world
problems are in the scope of Local Path Planning, i.e. working with partially known or unknown
environments. Therefore, these applications are usually restricted to sub-optimal approaches which plan an
initial path based on known information and then modifying the path locally or re-planning the entire path
as the agent discovers new obstacles or environment features. Even though traditional path planning
strategies have been widely used in partially known environments, their sub-optimal solutions becomes
even worse when the size or resolution of the environment's representation scale up.
Thus, in this work we present the CGPlan (Constructive Genetic Planning), a new evolutionary approach
based on the Compact Genetic Algorithm (cGA) that pursue efficient path planning in known and unknown
environments. The CGPlan was evaluated in simulated environments with increasing complexity and
compared with common techniques used for path planning, such as the A*, the BUG2 algorithm, the RRT
(Rapidly-Exploring Random Tree) and the evolutionary path planning based on classic Genetic Algorithm.
The results shown a great efficient of the proposal and thus indicate a new reliable approach for path
planning of mobile agents with limited computational power and real-time constraints on on-board
hardware. / O planejamento de rotas é um recurso importante para agentes móveis, permitindo-lhes
encontrar caminhos ideais entre os pontos desejados. Neste contexto, caminhos ideais podem
ser entendidos como trajetórias que melhor atingem um objetivo, minimizando a distância
percorrida ou o tempo gasto, por exemplo. As técnicas tradicionais tendem a considerar um
modelo global do ambiente, no entanto, os problemas reais de planejamento de rotas
usualmente estão no âmbito de ambientes desconhecidos ou parcialmente desconhecidos.
Portanto, aplicações como essas geralmente são restritas a abordagens subótimas que
planejam um caminho inicial baseado em informações conhecidas e, em seguida, modificam o
caminho localmente ou até planejando novamente todo o caminho à medida que o agente
descobre novos obstáculos ou características do ambiente. Sendo assim, mesmo as estratégias tradicionais de planejamento de caminhos sendo amplamente utilizadas em
ambientes parcialmente conhecidos, suas soluções subótimas se tornam ainda piores quando
o tamanho ou a resolução da representação do ambiente aumentam.
Por isso, neste trabalho apresentamos o CGPlan (Constructive Genetic Planning), uma nova
abordagem evolutiva baseada no Algoritmo Genético Compacto (cGA) que almeja um
planejamento eficiente de caminho em ambientes conhecidos e desconhecidos. O CGPlan foi
avaliado em ambientes simulados com crescente complexidade e comparado a técnicas
comuns utilizadas para o planejamento do caminho, como o A*, o algoritmo BUG2, o RRT
(Rapidly-Exploring Random Tree) e o planejamento evolutivo do caminho usando clássico
Algoritmo Genético. Os resultados mostraram uma grande eficiência da proposta e indicam
uma nova abordagem confiável para o planejamento de rotas de agentes móveis com poder
computacional limitado e restrições em tempo real no hardware.
|
179 |
Investigação de modelos comportamentais de ratos por meio de algoritmos genéticos / Investigation of rat\'s behavioral models by genetic algorithmsAriadne de Andrade Costa 12 November 2015 (has links)
O labirinto em cruz elevado é um dos aparatos experimentais mais utilizados em avaliações neurobiológicas de ansiedade e defesa de ratos e camundongos. Estudamos aqui o uso de redes neurais artificiais otimizadas por algoritmos genéticos para investigar o comportamento de ratos nesse labirinto. Ao contrário dos demais modelos já propostos, a construção da trajetória do agente virtual independe de dados experimentais conhecidos a priori. Mostramos que, ao utilizar um agente desenvolvido a partir da otimização de uma função de avaliação inspirada no conflito de medo e ansiedade, o modelo pode simular inclusive o efeito causado pela introdução de drogas ansiolíticas e ansiogênicas em ratos (clordiazepóxido 5 mg/kg e semicarbazida 20, 40 e 80 mg/kg). Os resultados das simulações do agente virtual estão de acordo com dados experimentais, revelando que a exploração de braços abertos é reduzida em relação a dos braços fechados, especialmente sob inserção de drogas ansiogênicas, que intensificam o medo do animal. Drogas ansiolíticas, ao contrário, estimulam a exploração. Para finalizar, foi realizada uma investigação aprofundada das trajetórias e redes neurais artificiais dos melhores ratos controle virtuais (que simulam ratos sem efeito de drogas). Conforme sugerem os resultados, a função de avaliação proposta pode conter as características mais relevantes envolvidas no comportamento do rato no labirinto em cruz elevado. / The elevated plus-maze is one of the most used experimental apparatus for neurobiological evaluations of anxiety and defense of rats and mice. We investigate here the use of artificial neural networks otimized by genetic algorithms to nvestigate the behavior of rats in this maze. Unlike other proposed models, the development of the virtual agent\'s trajectory is independent of prior known experimental data. We show that, when using a agent developed from the optimization of a function inspired by the anxiety and fear conflict, the model can even simulate the effect caused by the introduction of anxiolytic and axiogenic drugs in rats (chlordiazepoxide 5 mg/kg and semicarbazide 20, 40 and 80 mg/kg). The results of simulations of the virtual agent agree with experimental data, in which the exploration of open arms is reduced compared to the exploration of enclosed arms, especially under effects of anxiogenic drugs, which enhance the animal fear. Anxiolytic drugs, on the other hand, stimulate exploration. Finally, a detailed investigation of trajectories and artificial neural networks of the best virtual control rats (that simulate rats without drugs) was performed. As the results suggest, the proposed fitness function may contain the most relevant features involved in the behavior of rats in the elevated plus-maze.
|
180 |
Optimization of vortex generators positions and angles in fin-tube compact heat exchanger at low Reynolds number. / Otimização das posições e ângulos dos geradores de vórtices em trocadores de calor compactos para baixo número de Reynolds.Leandro Oliveira Salviano 25 April 2014 (has links)
In the last few decades, augmentation of heat transfer has emerged as an important research topic. Although many promising heat transfer enhancement techniques have been proposed, such as the use of longitudinal vortex generators, few researches deal with thermal optimization. In the present work, it was conducted an optimization of delta winglet vortex generators position and angles in a fin-tube compact heat exchanger with two rows of tubes in staggered tube arrangement. Two approaches were evaluated: Response Surface Methodology (Neural Networking) and Direct Optimization. Finite-Volume based commercial software (Fluent) was used to analyze heat transfer, flow structure and pressure loss in the presence of longitudinal vortex generators (LVG). The delta winglet aspect ratio was 2 and the Reynolds numbers, based on fin pitch, were 250 and 1400. Four vortex generator parameters which impact heat exchanger performance were analyzed: LVG position in direction x-y, attack angle (θ) and roll angle (ᵩ). The present work is the first to study the influence of LVG roll angle on heat transfer enhancement. In total, eight independent LVG parameters were considered: (x₁y₁θ₁ᵩ₁) for the first tube and (x₂y₂θ₂ᵩ₂) for the second tube. Factor Analysis method (software ModeFrontier) was used to study of the influence of these LVG parameters in heat exchanger performance. The effect of each LVG parameter on heat transfer and pressure loss, expressed in terms of Colburn factor (j) and Friction factor (f), respectively, were evaluated. The optimized LVG configurations led to heat transfer enhancement rates that are much higher than reported in the literature. Direct Optimization reported better results than Response Surface Methodology for all objective functions. Important interactions were found between VG1 and VG2, which influenced the results of Colburn (j) and Friction (f) factors for each Reynolds number. Particularly, it was found that the asymmetry of the LVG, in which the VG2 parameters strongly depend on the VG1 parameters, plays a key role to enhance heat transfer. Moreover, for each Reynolds number and each objective function, there is an optimal LVG arrangement. If the objective is to mitigate pressure drop, VG1 may be suppressed because its main goal is increasing the heat transfer downstream. On the other hand, VG2 was relevant for both increase the heat transfer and decrease the pressure drop. Roll angle had a strong influence on Friction factor (f), especially for VG1 and low Reynolds number. / Por muitos anos, a intensificação da transferência de calor tem despontado como um importante tópico de pesquisa. Embora existam muitas técnicas eficazes de intensificação da transferência de calor, como o uso de geradores de vórtices, poucos trabalhos de pesquisa lidam com a otimização. Neste trabalho, foi realizada a otimização das posições e ângulos dos geradores de vórtice longitudinal (LVG) tipo meia asa delta, considerando um trocador de calor tubo-aleta compacto com duas linhas de tubos desalinhados. Duas abordagens foram empregadas: Método da Superfície de Resposta (Neural Networking) e Otimização Direta. Um software comercial (Fluent), baseado na metodologia de volumes finitos, foi empregado na análise numérica da transferência de calor, estruturas vorticais e perda de pressão no escoamento, na presença de LVG. A razão de aspecto dos geradores de vórtice foi 2 e o número de Reynolds, baseado na distância entre as aletas, foram de 250 e 1400. Foram analisados quatro parâmetros dos LVG, os quais impactam na performance do trocador de calor: a posição do LVG na direção x-y, o ângulo de ataque (θ) e o ângulo de rolamento (ᵩ). O ângulo de rolamento foi primeiramente estudado neste trabalho. No total, oito parâmetros independentes do LVG foram considerados: (x₁y₁θ₁ᵩ₁) para o primeiro tubo e (x₂y₂θ₂ᵩ₂) para o segundo tubo. O método da Análise Fatorial (software ModeFrontier) foi aplicado no estudo da influência destes parâmetros dos LVG na performance do trocador de calor. Também foi avaliado o efeito de cada um destes parâmetros na transferência de calor e perda de pressão do escoamento, expressos em termos do fator de Colburn (j) e do fator de Atrito (f), respectivamente. As configurações otimizadas dos LVG, conduziram à taxas de transferência de calor maiores do que aquelas reportadas pela literatura. A Otimização Direta mostrou resultados melhores do que através da metodologia de Superfície de Resposta para todas as funções objetivas avaliadas neste trabalho. Importantes interações foram identificadas entre VG1 e VG2, os quais influenciaram nos resultados dos fatores de Colburn (j) e Atrito (f) para cada número de Reynolds. Particularmente, foi identificado que a assimetria dos LVG desempenha um papel fundamental na intensificação da transferência de calor, onde os parâmetros de VG2 dependem fortemente dos parâmetros de VG1. Além disso, para cada número de Reynolds e para cada função objetivo, existe uma configuração ótima dos parâmetros do LVG. Se o objetivo é a redução da perda de pressão global, VG1 poderia ser suprimido da modelagem, pois a sua principal função é aumentar a transferência de calor ao longo da aleta. Por outro lado, VG2 foi relevante tanto para aumentar a transferência de calor quanto para diminuir a perda de pressão. O ângulo de rolamento teve grande influência sobre o resultado do fator de Atrito (f), especialmente para VG1 e para baixo número de Reynolds.
|
Page generated in 0.076 seconds