61 |
[en] EXPLORATION AND VISUAL MAPPING ALGORITHMS DEVELOPMENT FOR LOW COST MOBILE ROBOTS / [pt] DESENVOLVIMENTO DE ALGORITMOS DE EXPLORAÇÃO E MAPEAMENTO VISUAL PARA ROBÔS MÓVEIS DE BAIXO CUSTOFELIPE AUGUSTO WEILEMANN BELO 16 October 2006 (has links)
[pt] Ao mesmo tempo em que a autonomia de robôs pessoais e
domésticos
aumenta, cresce a necessidade de interação dos mesmos com
o ambiente. A
interação mais básica de um robô com o ambiente é feita
pela percepção deste e
sua navegação. Para uma série de aplicações não é prático
prover modelos
geométricos válidos do ambiente a um robô antes de seu
uso. O robô necessita,
então, criar estes modelos enquanto se movimenta e percebe
o meio em que está
inserido através de sensores. Ao mesmo tempo é necessário
minimizar a
complexidade requerida quanto a hardware e sensores
utilizados. No presente
trabalho, um algoritmo iterativo baseado em entropia é
proposto para planejar
uma estratégia de exploração visual, permitindo a
construção eficaz de um modelo
em grafo do ambiente. O algoritmo se baseia na
determinação da informação
presente em sub-regiões de uma imagem panorâmica 2-D da
localização atual do
robô obtida com uma câmera fixa sobre o mesmo. Utilizando
a métrica de
entropia baseada na Teoria da Informação de Shannon, o
algoritmo determina nós
potenciais para os quais deve se prosseguir a exploração.
Através de procedimento
de Visual Tracking, em conjunto com a técnica SIFT (Scale
Invariant Feature
Transform), o algoritmo auxilia a navegação do robô para
cada nó novo, onde o
processo é repetido. Um procedimento baseado em
transformações invariáveis a
determinadas variações espaciais (desenvolvidas a partir
de Fourier e Mellin) é
utilizado para auxiliar o processo de guiar o robô para
nós já conhecidos. Também
é proposto um método baseado na técnica SIFT. Os processos
relativos à obtenção
de imagens, avaliação, criação do grafo, e prosseguimento
dos passos citados
continua até que o robô tenha mapeado o ambiente com nível
pré-especificado de
detalhes. O conjunto de nós e imagens obtidos são
combinados de modo a se criar
um modelo em grafo do ambiente. Seguindo os caminhos, nó a
nó, um robô pode
navegar pelo ambiente já explorado. O método é
particularmente adequado para
ambientes planos. As componentes do algoritmo proposto
foram desenvolvidas e
testadas no presente trabalho. Resultados experimentais
mostrando a eficácia dos
métodos propostos são apresentados. / [en] As the autonomy of personal service robotic systems
increases so has their
need to interact with their environment. The most basic
interaction a robotic agent
may have with its environment is to sense and navigate
through it. For many
applications it is not usually practical to provide robots
in advance with valid
geometric models of their environment. The robot will need
to create these models
by moving around and sensing the environment, while
minimizing the complexity
of the required sensing hardware. This work proposes an
entropy-based iterative
algorithm to plan the robot´s visual exploration strategy,
enabling it to most
efficiently build a graph model of its environment. The
algorithm is based on
determining the information present in sub-regions of a 2-
D panoramic image of
the environment from the robot´s current location using a
single camera fixed on
the mobile robot. Using a metric based on Shannon s
information theory, the
algorithm determines potential locations of nodes from
which to further image the
environment. Using a Visual Tracking process based on SIFT
(Scale Invariant
Feature Transform), the algorithm helps navigate the robot
to each new node,
where the imaging process is repeated. An invariant
transform (based on Fourier
and Mellin) and tracking process is used to guide the
robot back to a previous
node. Also, an SIFT based method is proposed to accomplish
such task. This
imaging, evaluation, branching and retracing its steps
continues until the robot has
mapped the environment to a pre-specified level of detail.
The set of nodes and
the images taken at each node are combined into a graph to
model the
environment. By tracing its path from node to node, a
service robot can navigate
around its environment. This method is particularly well
suited for flat-floored
environments. The components of the proposed algorithm
were developed and
tested. Experimental results show the effectiveness of the
proposed methods.
|
62 |
[en] PATCH LOAD RESISTANCE USING COMPUTATIONAL INTELLIGENCE TECHNIQUES / [pt] COMPORTAMENTO DE VIGAS DE AÇO SUJEITAS A CARGAS CONCENTRADAS ATRAVÉS DE TÉCNICAS DE INTELIGÊNCIA COMPUTACIONALELAINE TOSCANO FONSECA FALCAO DA SILVA 15 January 2004 (has links)
[pt] As cargas concentradas em vigas de aço são freqüentemente
encontradas na prática. Nas situações onde o local de
aplicação da carga é fixo, enrijecedores transversais de
alma podem ser usados para aumentar a sua resistência, mas
devem ser evitados por razões econômicas. Para cargas
móveis, é fundamental conhecer a resistência última das
almas não enrijecidas. Diversas teorias foram
desenvolvidas para este problema, mas ainda assim, o erro
das fórmulas de previsão é superior a 40%. Duas são as
causas desta dificuldade de se encontrar uma equação mais
precisa: o grande número de parâmetros que influenciam o
comportamento de uma viga sujeita a cargas concentradas, e
o número insuficiente de dados experimentais presentes na
literatura. Por outro lado, o colapso da estrutura pode
ocorrer por: plastificação, flambagem global da alma,
enrugamento (crippling) ou uma combinação destes estados
limites. Apesar disto, nenhum estudo foi desenvolvido para
avaliar a participação total ou parcial de cada
comportamento no colapso. As redes neurais são modelos
computacionais inspirados na estrutura do cérebro, que
apresentam características humanas como o aprendizado por
experiência e a generalização do conhecimento a partir dos
exemplos apresentados. Estas características permitiram,
em estudos preliminares, a utilização das redes neurais na
previsão da carga última de vigas de aço sujeitas a
cargas concentradas. A Lógica Nebulosa tem como objetivo
modelar o modo aproximado de raciocínio, tentando imitar a
habilidade humana de tomar decisões racionais em um
ambiente de incerteza e imprecisão. Deste modo, a Lógica
Nebulosa é uma técnica inteligente que fornece um
mecanismo para manipular informações imprecisas, como
conceitos de esbeltez, compacidade, flexibilidade e
rigidez, além de estabelecer limites mais graduais entre
os fenômenos físicos do problema. Os Algoritmos Genéticos
foram inspirados no princípio Darwiniano da evolução das
espécies (sobrevivência dos mais aptos e mutações) e na
genética. São algoritmos probabilísticos, que fornecem um
mecanismo de busca paralela e adaptativa, e têm sido
empregados em diversos problemas de otimização. Este
trabalho é a continuação do estudo desenvolvido na
dissertação de mestrado (Fonseca, 1999) e tem o objetivo
de propor um sistema de avaliação do comportamento
estrutural de cargas concentradas, através de uma
identificação da influência dos diversos parâmetros na
carga e nos tipos de comportamento resultantes
(plastificação, enrugamento e flambagem global),
estabelecendo limites mais flexíveis entre cada um destes.
Esta análise será executada empregando um sistema neuro-
fuzzy (híbrido de redes neurais e de lógica nebulosa).
Para viabilizar esta análise, torna-se necessária a
apresentação de dados de treinamento onde o comportamento
estrutural é conhecido. Este trabalho também apresenta um
estudo de otimização das fórmulas de projeto existentes
empregando algoritmos genéticos. Os resultados obtidos
neste trabalho contribuem para, no futuro, o
desenvolvimento de uma fórmula de projeto mais precisa. De
posse desta nova fórmula, uma sugestão para sua
incorporação em normas de projeto de estruturas de aço
poderá ser feita, garantindo, desta forma, um
dimensionamento mais seguro e econômico. / [en] Concentrated loads on steel beams are frequently found in
engineering practice. In situations where the load
application point is fixed, transversal web stiffeners can
be used to provide an adequate resistance, but for
economic reasons should be avoided whenever possible. For
moving loads, the knowledge of the unstiffened web
resistance becomes imperative. Many theories were
developed for a better understanding of the problem,
however, a 40% error is still present in the current
design formulas. A more accurate design formula for this
structural problem is very difficult to be obtained, due
to the influence of several interdependent parameters and
to the insufficient number of experiments found in
literature. On the other hand, the structural collapse can
be associated to: web yielding, web buckling, web
crippling or by their combined influence. Despite this
fact, no investigations were found in literature to access
their partial of global influence on the beam patch load
resistance Neural networks were inspired in the brain
structure in order to present human characteristics such
as: learning from experience; and generalization of new
data from a current set of standards. Preliminary studies
used the neural networks potential to forecast the
ultimate load of steel beams subjected to concentrated
loads. The main aim of Fuzzy Logic is to model the complex
approximated way of inference, trying to represent the
human ability of making sensible decisions when facing
uncertainties. Thus, fuzzy logic is an artificial
intelligence technique capable of generating a mechanism
for treating inaccurate and incomplete information such
as: slenderness, flexibility and stiffness, still being
capable of establishing gradual boundaries among the
physical phenomena involved. Genetic algorithms are
inspired on the Darwins principle of the species
evolution and genetics. They are probabilistic algorithms
that generate a mechanism of parallel and adaptive best
fit survival principle and their reproduction and have
been long used in several optimisation problems. This work
extends the research developed in a previous MSc. program
(Fonseca, 1999) and intends to evaluate and investigate
the structural behaviour of steel beams subjected to
concentrated loads, identifying the influence of several
related parameters. This will be achieved by the use of a
neuro-fuzzy system, able to model the intrinsic
relationships between the related parameters. The proposed
system aim is to relate the physical and geometrical
variables that govern the ultimate load with its
associated physical behaviour (web yielding, web crippling
and web buckling), being capable of establishing gradual
boundaries among the physical phenomena involved. This
investigation was focused on the development of a neuro
fuzzy system. The proposed neuro fuzzy system was trained
with data where the collapse mechanism were properly
identified validating its results. This investigation also
presents a study of patch load design formulae optimization
based on genetic algorithm principles. The obtained
results may help the future development of a more accurate
design formula, that could be incorporated in steel
structures design codes, allowing a safer and economical
design.
|
63 |
[en] METHODS BASED ON COMPUTATIONAL INTELLIGENCE TECHNIQUES FOR LOCALIZATION OF FIREARMS PROJECTILES INSERTED INTO THE HUMAN BODY, BY HIGH SENSITIVITY MAGNETIC MEASUREMENTS / [pt] MÉTODOS BASEADOS EM TÉCNICAS DE INTELIGÊNCIA COMPUTACIONAL PARA LOCALIZAÇÃO DE PROJÉTEIS DE ARMAS DE FOGO INSERIDOS NO CORPO HUMANO, POR MEIO DE MEDIÇÕES MAGNÉTICAS DE ALTA SENSIBILIDADEJUAN DARIO TIMARAN JIMENEZ 16 November 2017 (has links)
[pt] Um dos casos clínicos mais frequentes na sociedade moderna envolve a localização e extração de projéteis de armas de fogo, que normalmente são feitos de chumbo, um material não ferromagnético. O desenvolvimento de uma técnica que possibilite a localização precisa destes auxiliará o procedimento de remoção cirúrgica, tendo vasta relevância e impactando diretamente no aumento da taxa de sobrevivência de pessoas feridas. Dessa forma, esta dissertação apresenta e discute duas novas abordagens baseadas em técnicas de inteligência computacional, objetivando a localização de projéteis de armas de fogo inseridos no corpo humano, a partir do processamento da informação contida em mapas de campo magnético. Em ambas as abordagens analisadas modela-se o projétil como uma esfera de raio a, localizado em um espaço de busca contido em um plano xy, o qual está situado a uma distância h do sensor no eixo z. As técnicas de localização requerem a geração de um campo magnético primário alternado por meio de um solenoide, o qual incide sobre o espaço de busca. Caso exista um projétil de arma de fogo nesta região, serão induzidas correntes parasitas no projétil, as quais, por sua vez, produzirão um campo magnético secundário, que pode ser medido por um sensor de alta sensibilidade localizado na extremidade do solenoide. Na primeira abordagem analisada, as posições x e y do projétil são determinadas por um algoritmo de janelamento que considera valores máximos e médios pertencentes aos mapas de campo magnético secundário. A determinação da distância h entre a esfera e o sensor foi obtida por meio de uma rede neural, e o raio da esfera a é estimado por um algoritmo genético. Na segunda abordagem, as quatro variáveis de interesse (x, y, h e a) são inferidas diretamente por um algoritmo genético. Os resultados obtidos são avaliados e comparados. / [en] In modern society, one of the most frequent clinical cases involves location and extraction of firearms projectiles, usually made of lead, a non-ferromagnetic material. The development of a technique that allows the precise location of these projectiles will aid their surgical removal, which has a great relevance because it contributes directly to the increase of the survival rate of wounded patients. Thus, this dissertation presents and discusses two new approaches based on computational intelligence techniques, aiming at locating firearm projectiles inserted into the human body, by processing the information contained in magnetic field maps. On both approaches, the projectile is modeled by a sphere with radius a, located on a search space contained in a xy plane that is situated at a distance h from the sensor, along the z axis. The proposed location techniques require the generation of a primary alternating magnetic field by means of a solenoid, which aims at inducing eddy currents in a firearm projectile contained in the search space. In turn, these currents will produce a secondary magnetic field, which can be measured by a high-sensitivity sensor located at the bottom of the solenoid. In the first developed technique, the x and y positions of the projectile were estimated by a windowing algorithm that takes into account maximum and mean values contained on the secondary magnetic field maps. In turn, the distance h between the sphere and the sensor is inferred by a neural network, and the radius of the sphere a is estimated by a genetic algorithm. In the second technique, the four variables of interest (x, y, h and a) are inferred directly by a genetic algorithm. The results obtained are evaluated and compared.
|
64 |
[en] REFINERY SCHEDULING OPTIMIZATION USING GENETIC ALGORITHMS AND COOPERATIVE COEVOLUTION / [pt] OTIMIZAÇÃO DA PROGRAMAÇÃO DA PRODUÇÃO EM REFINARIAS DE PETRÓLEO UTILIZANDO ALGORITMOS GENÉTICOS E CO-EVOLUÇÃO COOPERATIVALEONARDO MENDES SIMAO 28 February 2005 (has links)
[pt] Esta dissertação investiga a aplicação de Algoritmos
Genéticos e de Co-Evolução Cooperativa na otimização da
programação da produção em refinarias de petróleo.
Refinarias de petróleo constituem um dos mais importantes
exemplos de plantas contínuas multiproduto, isto é, um
sistema de processamento contínuo gerador de múltiplos
produtos simultâneos. Uma refinaria, em geral, processa
um
ou mais tipos de petróleo, produzindo uma série de
produtos derivados, como o GLP (gás liquefeito de
petróleo), a nafta, o querosene e o óleo diesel. Trata-
se
de um problema complexo de otimização, devido ao número
e
diversidade de atividades existentes e diferentes
objetivos. Além disso, neste problema, algumas
atividades
dependem de que outras atividades já tenham sido
planejadas para que possam então ser planejadas. Um caso
típico é o das retiradas de produtos de uma unidade de
processo, que dependem de que a carga já tenha sido
planejada, assim como em qual campanha a unidade estará
naquele instante. Por isso, o uso de modelos
revolucionários convencionais, como os baseados em
ordem,
pode gerar muitas soluções inválidas, que deverão ser
posteriormente corrigidas ou descartadas, comprometendo
o
desempenho e a viabilidade do algoritmo. O objetivo do
trabalho foi, então, desenvolver um modelo evolucionário
para otimizar a programação da produção (scheduling),
segundo objetivos bem definidos, capaz de lidar com as
restrições do problema, gerando apenas soluções viáveis.
O trabalho consistiu em três etapas principais: um
estudo
sobre o refino de petróleo e a programação da produção
em
refinarias; a definição de um modelo usando algoritmos
genéticos e co-evolução cooperativa para otimização da
programação da produção e a implementação de uma
ferramenta para estudo de caso. O estudo sobre o refino
e
a programação da produção envolveu o levantamento das
várias etapas do processamento do petróleo em uma
refinaria, desde o seu recebimento, destilação e
transformação em diversos produtos acabados, que são
então
enviados a seus respectivos destinos. Neste estudo,
também
foi levantada a estrutura de tomada de decisão em uma
refinaria e seus vários níveis, diferenciando os
objetivos
destes níveis e explicitando o papel da programação da
produção nesta estrutura. A partir daí, foram estudadas
em
detalhes todas as atividades que normalmente ocorrem na
refinaria e que são definidas na programação, e seus
papéis na produção da refinaria. A decisão de quando e
com
que recursos executar estas atividades é o resultado
final
da programação e, portanto, a saída principal do
algoritmo.
A modelagem do algoritmo genético consistiu inicialmente
em um estudo de representações utilizadas para problemas
de scheduling. O modelo coevolucionário adotado
considera
a decomposição do problema em duas partes e,portanto,
emprega duas populações com responsabilidades
diferentes:
uma é responsável por indicar quando uma atividade deve
ser planejada e a outra é responsável por indicar com
quais recursos essa mesma atividade deve ser realizada.
A
primeira população teve sua representação baseada em um
modelo usado para problemas do tipo Dial-A-Ride (Moon et
al, 2002), que utiliza um grafo para indicar à função de
avaliação a ordem na qual o planejamento deve ser
construído. Esta representação foi elaborada desta forma
para que fosse levada em conta a existência de
restrições
de precedência (atividades que devem ser planejadas
antes
de outras), e assim não fossem geradas soluções
inválidas
pelo algoritmo. A segunda população, que se
responsabiliza
pela alocação dos recursos para a execução das
atividades,
conta com uma representação onde os operadores genéticos
podem atuar na ordem de escolha dos recursos que podem
realizar cada uma das atividades. Finalmente, des / [en] This work investigates the use of Genetic Algorithms and
Cooperative Coevolution in refinery scheduling
optimization. Oil refineries are one of the most important
examples of multiproduct continuous plants, that is, a
continuous processing system that generates a number of
products simultaneously. A refinery processes various
crude oil types and produces a wide range of products,
including LPG (liquefied petroleum gas), gasoline,
kerosene and diesel. It is a complex optimization problem,
mainly due to the number of different tasks involved and
different objective criteria. In addition, some of the
tasks have precedence constraints that require other tasks
to be scheduled first. For example, in order to schedule a
task that transfers one of the yields of a certain crude
distillation unit, both the task that feeds the crude oil
into the unit and the task that sets the unit`s current
operation mode must already be scheduled. Therefore,
applying traditional evolutionary models, like the order-
based ones, can create many infeasible solutions that will
have to be corrected or rejected later on, thereby
jeopardizing the algorithm performance and feasibility.
The main goal was the development an evolutionary model
satisfying well-defined objectives, which would optimize
production scheduling and address the various constraints
entailed in the problem, thus generating only feasible
solutions. This work consisted on three main steps: a
survey on crude oil refining and refinery scheduling; the
development of a cooperative coevolutionary model to
optimize the refinery scheduling and the development of a
software tool for case studies. The study about refining
and scheduling involved gathering information about the
existent processes in a refinery, starting from the
arrival of crude oil, its distillation and transformation
into several products and, finally, the delivery of these
products to their respective destination. The levels of
decision making in a refinery were surveyed too, in order
to identify the main goals for each one, and how the
scheduling level fits into the structure as whole. Then,
all the routine scheduling tasks and their roles in a
refinery were carefully studied. The decision of when and
how to assign those tasks is the final output of the
scheduling task, so it must be the main output of the
algorithm too. The development of the evolutionary model
consisted of a survey on some of the most common
evolutionary approaches to scheduling. The adopted
coevolutionary model breaks the problem down into two
parts, thus using two species with different
responsibilities: One is responsible for deciding when a
task should be scheduled, while the other is responsible
for assigning a resource for this task. The first species
representation was based on a model used for the Dial-a-
Ride (Moon et al, 2002) kind of problems, and uses a graph
to help the fitness evaluation function find the right
order in which to schedule the tasks. This representation
was devised in such a way that the precedence constraints
were satisfied and no infeasible solutions were generated.
The representation of the second species, which assigns
resources for the tasks, let genetic operators change the
selection order when picking a resource for a task.
Finally, a software tool was developed to be used for
implement this model and for performing a case study. This
case study should comprise all the needed characteristics,
in order to test the quality of the representation as well
as evaluate the results. A simple refinery was designed,
containing all equipment types, tasks and constraints
found in a real-world refinery. The constraints mentioned
are the precedence constraints, handled by the graph used
by the first species, plus other operational constraints
found in refinery scheduling. It was possible, then, to
see the decoding of chromosomes into feasible solutions,
always satisfying all the constraints. Several tests
|
65 |
[en] MULTI-CRITERIA DECISION MAKING METHODS AND MACHINE LEARNING MODELS IN INVENTORY MANAGEMENT: A CASE STUDY ON A FREIGHT TRANSPORT RAILWAY / [pt] MÉTODOS DE APOIO MULTICRITÉRIO À DECISÃO E MODELOS DE MACHINE LEARNING NA GESTÃO DE ESTOQUES: UM ESTUDO DE CASO EM UMA FERROVIA DE TRANSPORTE DE CARGASGUILHERME HENRIQUE DE PAULA VIDAL 06 July 2021 (has links)
[pt] O mundo vive hoje uma era de transformação digital resultante da chamada indústria 4.0 ou quarta revolução industrial. Nesta fase, a tecnologia tem exercido um papel cada vez mais estratégico no desempenho das organizações. Estes avanços tecnológicos têm revolucionado o processo de tomada de decisão na gestão e operação de cadeias de suprimentos. Neste contexto, esta dissertação apresenta uma metodologia de apoio à decisão na gestão de estoques, que combina multi-criteria decision making (MCDM) e machine learning (ML). A princípio, é realizada uma revisão sistemática da literatura para analisar como estas duas abordagens são aplicadas na gestão de estoques. Os resultados são complementados com um scoping review abrangendo a previsão de demanda. Inicia-se então um estudo de caso, aplicado em uma ferrovia de transporte de cargas. É aplicado, inicialmente, o método MCDM combinado Fuzzy AHP Vikor para ranquear os stock keeping units (SKUs) em ordem de criticidade. O passo seguinte é a aplicação do método de ML combinado GA-ANN, artificial neural network com genetic algorithm, com o objetivo de realizar a previsão de demanda em um piloto com alguns dos itens mais críticos. A etapa final consiste em estruturar um dashboard gerencial, integrando os resultados das etapas anteriores. Dentre os resultados alcançados, a partir do modelo proposto, observa-se considerável melhora na performance da previsão de demanda dos SKUs selecionados. Além disso, a integração entre as abordagens e implementação em um dashboard gerencial permitiu o desenvolvimento de um modelo semiautomático de tomada de decisão na gestão de estoques. / [en] The world is experiencing an era of digital transformation resulting from the industry 4.0 or fourth industrial revolution. In this period, technology has played an increasingly strategic role in the performance of organizations. These technological advances have revolutionized the decision-making process in the management and operation of supply chains. In this context, this dissertation presents a methodology to support decision-making in inventory management, which combines multi-criteria decision-making (MCDM) and machine learning (ML). At first, there is a systematic literature review in order to analyze how these two approaches are applied in inventory management. The results are complemented with a scoping review that includes the demand forecasting. A case study is then applied to a freight transport railway. Initially, the MCDM combined Fuzzy AHP Vikor method is applied to rank stock keeping units (SKUs) in degrees of criticality. The next step is the application of the ML combined GA-ANN method, artificial neural network with genetic algorithm, for the purpose of demand forecasting in a pilot with some of the most critical items. The final step is to structure a management dashboard, integrating the results of the previous steps. Among the results achieved from the proposed model, there is a considerable improvement in the performance of the demand forecasting for the selected SKUs. In addition, the integration between approaches and implementation in a management dashboard allowed the development of a semiautomatic model for decision-making in inventory management.
|
66 |
[pt] PLANEJAMENTO DA EXPANSÃO DA TRANSMISSÃO COM CRITÉRIOS DE SEGURANÇA VIA ALGORITMO GENÉTICO ESPECIALIZADO / [en] TRANSMISSION EXPANSION PLANNING WITH SECURITY CRITERIA VIA SPECIALIZED GENETIC ALGORITHMIAMBERG SOUZA DA SILVA 12 January 2021 (has links)
[pt] A solução do problema de planejamento da expansão da transmissão (PET)
tem por objetivo geral identificar reforços a serem construídos na rede de forma a
garantir a adequada interligação entre carga e geração, previstos para um determinado
horizonte de estudo. No processo de solução desse problema, busca-se manter
o equilíbrio ótimo entre os custos envolvidos (investimento e operação) e os
níveis de qualidade e desempenho na operação do sistema reforçado. Nesse sentido,
é proposta nesta dissertação de mestrado uma ferramenta de otimização especializada
para solução do problema PET, a qual é baseada na técnica metaheurística
Algoritmo Genético. A ferramenta proposta, denominada Algoritmo Genético
Especializado (AGE-PET), faz uso de informações heurísticas fundamentadas em
análises atualizadas de fluxo de potência da rede realizadas durante o processo
evolutivo de solução do problema. Essas informações heurísticas são traduzidas
por meio de índices de sensibilidade, os quais são integrados aos operadores genéticos
inerentes à ferramenta, conduzindo a solução do problema na direção de planos
de expansão de boa qualidade. Para análise e validação da metodologia proposta,
é solucionado o problema PET estático de longo prazo, considerando o modelo
linearizado DC com perdas ôhmicas e atendimento do critério de segurança
N-1 para a rede de transmissão. Sistemas elétricos de transmissão com diferentes
características e dimensões, incluindo um subsistema atual da rede interligada
brasileira, são empregados nos estudos realizados. / [en] The main goal in the solution of the transmission expansion planning (TEP)
is to identify reinforcements to be built in the network in order to guarantee the
adequate interconnection between load and electric power generation, both foreseen
for a given future planning horizon. In the process of solving this problem,
the aim is to maintain the optimal balance between the costs involved (investment
and operation) and the levels of quality and performance in the operation of the
reinforced system. Thus, it is proposed in this dissertation a specialized optimization
tool for solving the TEP problem, which is based on the metaheuristic Genetic
Algorithm technique. The proposed tool, called Specialized Genetic Algorithm
(SGA-TEP), makes use of heuristic information based on updated network power
flow analyses carried out during the evolutionary process of solving the problem.
This heuristic information is translated by means of sensitivity indices, which are
integrated with the genetic operators inherent to the tool, leading to the solution of
the problem in the direction of good quality expansion plans. For analysis and
validation of the proposed methodology, the long-term static TEP problem is
solved, considering the linearized DC model with ohmic losses and the compliance
of the N-1 security criterion for the transmission network. Electric transmission
systems with different characteristics and dimensions, including a recent
subsystem of the Brazilian interconnected grid, are used in the case studies.
|
67 |
[pt] REFORÇOS DAS CONDIÇÕES DE ESTABILIDADE DE TENSÃO VIA ALGORITMOS GENÉTICOS / [en] REINFORCEMENT OF VOLTAGE STABILITY CONDITIONS BY GENETIC ALGORITHMSARTHUR MASSARI FILHO 04 October 2021 (has links)
[pt] Nos sistemas de potência ao redor do mundo, inclusive o brasileiro, são feitas as medições dos níveis de tensão nos barramentos e a corrente nos ramos de transmissão durante algum tipo de contingência em tempo real. A lista de contingências inclui: a perda de qualquer ramo de transmissão, a perda de alguns pares de ramos e, de menor importância, a perda de geração. Nesse momento, também são avaliadas as condições de estabilidade de tensão. A inclusão na lista de contingências de perda de controle de tensão
devido ao esgotamento da fonte controladora (gerador, compensador, tap de LTC) em todas as barras de tensão controlada e também a perda de capacidade de aumentar/diminuir a geração de potência ativa em todos os geradores da rede permite identificar o grau de sensibilidade de cada grandeza contingenciada sobre a margem de estabilidade de tensão. Depois de feita a análise dos esgotamentos, é determinado em ordem decrescente as tensões e as gerações que mais influenciam a margem de estabilidade de tensão de uma determinada barra. Esse resultado indica as direções do movimento das grandezas. Portanto, para melhorar a margem da barra crítica, devem-se calcular ações de controle, ou seja, variar a tensão e/ou a
potência ativa dos geradores, encontrando assim um novo ponto de operação. Esse novo ponto de operação deve ser buscado através de algoritmos genéticos. O desvio mínimo quadrático em relação ao ponto de operação do caso base deve ser observado, ou seja, busca-se um novo ponto de operação
que não seja muito distante ao caso base. No algoritmo genético, a tensão dos geradores é a variável; a sua variação é discreta em degraus de 0,01 pu (em módulo). Também há casos em que potência ativa dos geradores será variável do GA e tendo suas variações em degraus de 5 porcento em módulo em relação ao caso base. São realizados diversos testes para encontrar o novo ponto de operação, buscando encontrar os menores desvios possíveis enquanto melhora-se a margem de potência. No primeiro sistema utilizado
(CEPEL-34) duas configurações dentre os testes feitos para o GA se sobressaem das demais e por isso são usadas para outro sistema (Nórdico). Em ambos os sistemas o objetivo inicial é cumprido. / [en] Power systems around the world, including the Brazilian one, measure the voltage levels on the buses and the current in the transmission branches during some type of contingency in real time. The list of contingencies includes: the loss of any branch of transmission, the loss of some pairs of branches and, of less importance, the loss of generation. At that time, the voltage stability conditions are also evaluated. The inclusion in the list of contingencies of loss of voltage control due to the exhaustion of
the controlling source (generator, compensator, LTC tap) in all controlled voltage bars and also the loss of capacity to increase / decrease the generation of active power in all generators in the network make it possible to identify the degree of sensitivity of each contingent quantity on the voltage stability margin. After the analysis of the exhausts, the tensions and generations that most influence the voltage stability margin of a given bar are determined in decreasing order. This result indicates the directions of movement of the quantities. Therefore, to improve the margin of the critical bar, control actions must be calculated, that is, vary the voltage and / or the active power of the generators, thus finding a new point of
operation. This new point of operation must be sought through genetic algorithms. The minimum quadratic deviation in relation to the operating point of the base case must be observed, that is, a new operating point that is not far from the base case is sought. In the genetic algorithm, the voltage of the generators is the variable; its variation will be discrete in steps of 0.01 pu (in module). There will also be cases in which the active power of the generators will be variable in the GA and having their variations in steps of
5 percent in module in relation to the base case. Several tests are carried out to find the new operating point, seeking to find the smallest possible deviations while improving the power margin. In the first system used (CEPEL-34) two configurations among the tests made for GA stand out from the others and
therefore replicated to another system (Nordic). In both systems the initial objective is fulfilled.
|
68 |
[en] OPTIMIZATION OF TRANSFORMER AND MOBILE SUBSTATION STOCKS IN POWER SYSTEMS VIA MONTE CARLO SIMULATION AND GENETIC ALGORITHM / [pt] OTIMIZAÇÃO DE ESTOQUES DE TRANSFORMADORES E SUBESTAÇÕES MÓVEIS EM SISTEMAS DE POTÊNCIA VIA SIMULAÇÃO MONTE CARLO E ALGORITMO GENÉTICOVENUS LIRIA SILVA MENDES 12 September 2024 (has links)
[pt] Em geral, as subestações são projetadas com transformadores em paralelo, operando a meia carga, para assegurar continuidade no fornecimento de energia mesmo
que um transformador do grupo falhe. Contudo, essa prática implica em custos elevados, especialmente no que diz respeito ao arranjo de subestações. Uma solução alternativa é a utilização de estoques compartilhados de transformadores reservas e unidades de subestações móveis, que devem atender a um grupo de subestações com as
mesmas características elétricas. Neste contexto, esta tese propõe a utilização temporária de unidades de subestações móveis, que devem atuar para atender à demanda de
energia enquanto o transformador reserva é instalado. Essa estratégia aumenta a confiabilidade do sistema e reduz os custos operacionais e de investimento para as concessionárias de energia. No entanto, o sucesso dessa abordagem está intrinsecamente
ligado ao dimensionamento e localização adequada dos estoques. Para que bons resultados sejam alcançados, é preciso dimensionar os estoques de forma que não haja
investimento desnecessário ou um número insuficiente de equipamentos, e considerar
pontos estratégicos de armazenamento, de forma que o tempo de deslocamento dos
equipamentos sobressalentes até o ponto de falha garanta a minimização dos custos
associados. Posto isso, esta tese apresenta duas metodologias de otimização baseadas
em simulação Monte Carlo e Algoritmo Genético: uma para dimensionar o número de
transformadores reservas e unidades de subestações móveis por ano; e outra para posicionar de forma adequada tais equipamentos em subestações com capacidade de
armazenamento. Ambos os métodos foram aplicados a um grupo de transformadores
de duas concessionárias reais, visando demonstrar a capacidade da metodologia de
encontrar um conjunto de soluções factíveis do ponto de vista técnico e econômico. / [en] In general, substations are designed with transformers in parallel, operating
at half load, to ensure continuity of power supply even if a transformer in the
group fails. However, this practice involves high costs, especially with regard to
the arrangement of substations. An alternative solution is the use of shared stocks
of reserve transformers and mobile substation units, which must serve a group of
substations with the same electrical characteristics. In this context, this thesis proposes the temporary use of mobile substation units, which must act to meet the
energy demand while the reserve transformer is installed. This strategy increases
system reliability and reduces operational and investment costs for electric utilities. However, the success of this approach is intrinsically linked to the proper
sizing and location of stocks. For good results to be achieved, it is necessary to
size stocks so that there is no unnecessary investment or an insufficient number of
equipment, and consider strategic storage points, so that the time taken to move
the spare equipment to the point of failure minimizes the associated costs. Thus,
this thesis presents two optimization methodologies based on Monte Carlo simulation and Genetic Algorithm: one to size the number of spare transformers and
mobile substation units per year; and another to properly locate such equipment in
substations with storage capacity. Both methods were applied to a group of transformers from two real utilities, aiming at proving the method s ability to find a set
of feasible solutions from a technical and economic point of view.
|
69 |
[en] FORECASTING GEOPHYSICAL MEASUREMENTS: PSEUDO-WELLS / [pt] PREVISÃO DE MEDIÇÕES GEOFÍSICAS: PSEUDO-POÇOSSAMUEL GUSTAVO HUAMAN BUSTAMANTE 11 April 2014 (has links)
[pt] No presente trabalho de tese é apresentado, analisado e avaliado um método inédito para prever perfis de poço (para um pseudo-poço), a partir de informações dos poços verticais vizinhos e dados de sísmica 3D. Este método é formado por quatro partes principais. Na primeira parte são processados os perfis de raio gama dos poços para produzir um conjunto de sinais estratificados. Estes resultados são utilizados na segunda parte para realizar a correlação lateral de poços, com um método baseado em Algoritmos Genéticos, cujos resultados são intervalos de estratos semelhantes que indicariam a existência de estruturas rochosas contínuas na subsuperfície. Na terceira parte são estimados os deslocamentos, em profundidade, entre alguns estratos do pseudo-poço e dos poços reais. Isto é realizado com um método, baseado em Algoritmos Genéticos, para correlacionar eventos entre traços sísmicos 3D nas posições próximas aos poços reais e ao pseudo-poço. Na quarta parte são utilizados os resultados das outras três partes para interpolar vários tipos de perfis do pseudo-poço, primeiramente, dos estratos semelhantes e, em seguida, dos estratos não semelhantes, ajustados em profundidade. Os resultados desta parte constituem as medições previstas. Os pesos para a interpolação, pelo método de Shepard, são calculados através de uma função que depende da distância entre o pseudo-poço e cada um dos poços utilizados. Um estudo de sete casos é apresentado para avaliar a eficácia do método de previsão. Esses casos utilizam arranjos de dois e três poços do Campo de Namorado na Bacia de Campos (RJ) e, adicionalmente, um poço próximo a cada arranjo serve de padrão para avaliar as medições previstas através do coeficiente de correlação e da média dos erros percentuais absolutos. Em termos globais os resultados das previsões apresentam correlação linear forte e os erros percentuais absolutos estão entre 5 por cento e 30 por centoem relação aos padrões. / [en] In this thesis is presented, analyzed and evaluated a new method to forecast well logs (for a pseudo-well), based on information of the neighboring vertical wells and the 3D seismic data. This method consists of four main parts. In the first part, the gamma ray logs from wellbores are processed to produce a stratified set of signals. In the second part, the stratified signals are used to perform a method of lateral correlation of wells with Genetic Algorithms; whose results are similar intervals strata that would indicate the existence of continuous rock structures in the subsurface. In the third part, a method, based on Genetic Algorithms, are used to estimate displacements in depth between some strata of the pseudo-well and real wells. That method correlates events between 3D seismic traces at positions near the real wells and the pseudo-well. In the fourth part, results from the other three parts are used to interpolate several types of logs of the pseudo-well, first of the similar strata and then of the not similar strata, adjusted in depth. The results of this part are the forecasted measurements. The weights for interpolation, by the method of Shepard, are calculated using a function that depends on the distance between the pseudo-well and each real well. A study of seven cases is presented to evaluate the effectiveness of the forecasting method. These cases use arrangements of two and three wells of the Namorado Field in the Campos Basin (RJ) and additionally a real well near each array serves as a standard for evaluating the forecasted measurements by the correlation coefficient and the mean absolute percentage error. Overall the results showed a strong linear correlation and the mean absolute percentage errors are between 5 per cent and 30 per cent in relation of standard data.
|
70 |
[pt] ESNPREDICTOR: FERRAMENTA DE PREVISÃO DE SÉRIES TEMPORAIS BASEADA EM ECHO STATE NETWORKS OTIMIZADAS POR ALGORITMOS GENÉTICOS E PARTICLE SWARM OPTIMIZATION / [en] ESNPREDICTOR: TIME SERIES FORECASTING APPLICATION BASED ON ECHO STATE NETWORKS OPTIMIZED BY GENETICS ALGORITHMS AND PARTICLE SWARM OPTIMIZATIONCAMILO VELASCO RUEDA 18 June 2015 (has links)
[pt] A previsão de séries temporais é fundamental na tomada de decisões de curto, médio e longo prazo, em diversas áreas como o setor elétrico, a bolsa de valores, a meteorologia, entre outros. Tem-se na atualidade uma diversidade de técnicas e modelos para realizar essas previsões, mas as ferramentas estatísticas são as mais utilizadas principalmente por apresentarem um maior grau de interpretabilidade. No entanto, as técnicas de inteligência computacional têm sido cada vez mais aplicadas em previsão de séries temporais, destacando-se as Redes Neurais Artificiais (RNA) e os Sistemas de Inferência Fuzzy (SIF). Recentemente foi criado um novo tipo de RNA, denominada Echo State Networks (ESN), as quais diferem das RNA clássicas por apresentarem uma camada escondida com conexões aleatórias, denominada de Reservoir (Reservatório). Este Reservoir é ativado pelas entradas da rede e pelos seus estados anteriores, gerando o efeito de Echo State (Eco), fornecendo assim um dinamismo e um desempenho melhor para tarefas de natureza temporal. Uma dificuldade dessas redes ESN é a presença de diversos parâmetros, tais como Raio Espectral, Tamanho do Reservoir e a Percentual de Conexão, que precisam ser calibrados para que a ESN forneça bons resultados. Portanto, este trabalho tem como principal objetivo o desenvolvimento de uma ferramenta computacional capaz de realizar previsões de séries temporais, baseada nas ESN, com ajuste automático de seus parâmetros por Particle Swarm Optimization (PSO) e Algoritmos Genéticos (GA), facilitando a sua utilização pelo usuário. A ferramenta computacional desenvolvida oferece uma interface gráfica intuitiva e amigável, tanto em termos da modelagem da ESN, quanto em termos de realização de eventuais pré-processamentos na série a ser prevista. / [en] The time series forecasting is critical to decision making in the short, medium and long term in several areas such as electrical, stock market, weather and industry. Today exist different techniques to model this forecast, but statistics are more used, because they have a bigger interpretability, due by the mathematic models created. However, intelligent techniques are being more applied in time series forecasting, where the principal models are the Artificial Neural Networks (ANN) and Fuzzy Inference Systems (FIS). A new type of ANN called Echo State Networks (ESN) was created recently, which differs from the classic ANN in a randomly connected hidden layer called Reservoir. This Reservoir is activated by the network inputs, and the historic of the reservoir activations generating so, the Echo State and giving to the network more dynamism and a better performance in temporal nature tasks. One problem with these networks is the presence of some parameters as, Spectral Radius, Reservoir Size and Connection Percent, which require calibration to make the network provide positive results. Therefore the aim of this work is to develop a computational application capable to do time series forecasting, based on ESN, with automatic parameters adjustment by Particle Swarm Optimization (PSO) and Genetic Algorithms (GA), facilitating its use by the user. The developed computational tool offers an intuitive and friendly interface, both in terms of modeling the ESN, and in terms of achievement of possible pre-process on the series to be forecasted.
|
Page generated in 0.0566 seconds