41 |
[en] INVERSION OF PARAMETERS IN SEISMIC DATA BY GENETIC ALGORITHMS / [pt] INVERSÃO DE PARÂMETROS EM DADOS SÍSMICOS POR ALGORITMOS GENÉTICOSSHELLY CRISTIANE DAVILA MEDEIROS 05 July 2006 (has links)
[pt] Esta dissertação investiga o uso de Algoritmos Genéticos
aplicados em
dados sísmicos com o objetivo de obter parâmetros físicos
e atributos sísmicos
que auxiliem na caracterização das rochas de um subsolo
terrestre. Os dados
sísmicos têm sido extensamente empregados no setor de
exploração de
petróleo. As aplicações envolvendo sísmica não se
restringem na busca por
novas reservas de petróleo, mas também são usadas para
projetar novos poços
e melhorar a produção dos reservatórios de petróleo. O
levantamento de dados
sísmicos permite analisar extensas áreas da subsuperfície
com custo praticável
em relação a outras técnicas. Entretanto, a interpretação
desses dados com o
objetivo de obter informações relevantes e acuradas não é
uma tarefa simples.
Para isto, várias técnicas de inversão sísmica vêm sendo
desenvolvidas. Este
trabalho consistiu em avaliar uma alternativa que emprega
Algoritmos Genéticos
para inverter parâmetros a partir de dados sísmicos.
Existem 3 etapas principais
neste trabalho. Primeiramente, foram estudados o tema da
exploração sísmica e
a técnica de Algoritmos Genéticos. Na segunda etapa foi
definido um modelo,
usando Algoritmos Genéticos, que busca, neste caso,
minimizar uma medida de
erro, para obtenção dos parâmetros objetivos. Finalmente,
foi implementado um
sistema a partir do modelo proposto e realizados os
estudos de casos com
dados sísmicos sintéticos para avaliar o seu desempenho. O
modelo baseado
em Algoritmos Genéticos foi avaliado submetendo-se seus
resultados a um
especialista e comparando-os com os da busca aleatória. Os
resultados obtidos
se mostraram consistentemente satisfatórios e sempre
superiores aos da busca
exaustiva. / [en] This dissertation investigates the use of Genetic
Algorithms applied to
seismic data with the objective of obtaining physical
parameters and seismic
attributes that would facilitate the characterization of
rocks in terrestrial subsoil.
The seismic data has been extensively utilized in the
field of petroleum
exploration. The applications involving seismic are not
restrained to the search
for new petroleum reserves, but are also used to project
new wells and to
improve the production of existing petroleum reservoirs.
The survey of seismic
data allows the analysis of extended areas of the
subsurface at an affordable
price relative to other techniques. However, the
interpretation of the data with the
objective of obtaining relevant and accurate information
is not an easy task. For
that, several seismic inversion techniques are being
developed. This work
consists in evaluating an alternative that uses Genetic
Algorithms to invert
parameters from seismic data. There are 3 main stages in
this work. Initially, the
theme of seismic exploration and the technique of Genetic
Algorithms have been
studied. On the second stage a model has been defined,
using Genetic
Algorithms, which aims, in this case, to minimize an error
measurement,
obtaining objective parameters. Finally, a system from the
proposed model has
been implanted and the study of cases with synthetic
seismic data has been
executed to evaluate its performance. The process of
optimizing has been
compared to the process of random search and the results
obtained by the model
have always been superior.
|
42 |
[en] A FUZZY MODEL FOR MULTITEMPORAL IMAGE CLASSIFICATION / [pt] UM MODELO NEBULOSO PARA CLASSIFICAÇÃO MULTITEMPORAL DE IMAGENSMARIA CLARA DE OLIVEIRA COSTA 04 September 2006 (has links)
[pt] O presente trabalho apresenta a modelagem de conhecimento
multitemporal
para a classificação automática de cobertura do solo para
imagens de satélite. O
procedimento de classificação agrega os conhecimentos
espectral e multitemporal
utilizando conjuntos nebulosos e suas pertinências de
classe como informação
prévia. O método se baseia no conceito de Redes de Markov
Nebulosas, um
sistema com um conjunto de estados que a cada instante de
tempo troca o estado
corrente de acordo com possibilidades associadas a cada
um. No caso deste
trabalho cada estado representa uma classe, e as
possibilidades são estimadas
automaticamente a partir de dados históricos de uma mesma
região geográfica,
empregando algoritmos genéticos. A avaliação experimental
utilizou um conjunto
de imagens Landsat-5 da cidade do Rio de Janeiro, obtidas
em cinco datas
separadas por aproximadamente quatro anos. Os resultados
indicaram que o uso
do conhecimento multitemporal, conforme modelado pelo
método proposto traz
um significante aumento da eficiência de classificação em
comparação à
classificação puramente espectral, além de flexibilizar o
procedimento de
classificação no que diz respeito aos dados necessários
para o treinamento do
modelo. / [en] This work presents a multitemporal knowledge model for
automatic
classification of remotely sensed images. The model
combines multitemporal and
spectral knowledge within a fuzzy framework. This method
is based on Fuzzy
Markov Chains, a system having a set of states that, at
each time, change the
current state according to the fuzzy possibilities
associated to each one. In this
work each state represents one class, and the
possibilities are automatically
estimated based on historical data by using genetic
algorithms. The experimental
evaluation was carried through for a set of Landsat-5 TM
images of the Rio de
Janeiro State, Brazil, acquired at five dates separated by
approximately four years.
Results indicate that the use of multitemporal knowledge
as modeled by the
proposed method brings an expressive improvement in
efficiency to the
classification, when compared to the pure spectral
classifier. Besides it, adds
flexibility to the classification procedure, concerning to
necessary data used for
model training.
|
43 |
[en] DETERMINATION OF BRAZILIAN ELECTRICITY MARKET PRICE AND VALUE OF ENERGY DERIVATIVES WITH MONTE CARLO SIMULATION APPROACH FOR GENETIC ALGORITHM / [pt] DETERMINAÇÃO DO PREÇO NO MERCADO DE ENERGIA ELÉTRICA BRASILEIRO E VALORAÇÃO DE UM DERIVATIVO DE ENERGIA POR SIMULAÇÃO MONTE CARLO COM APROXIMAÇÃO POR ALGORITMO GENÉTICOMARCELA JACOB ALVES RIBEIRO 22 December 2011 (has links)
[pt] No Brasil, o comportamento dos preços da energia elétrica no mercado de curto prazo é especialmente incerto, pois não segue um padrão definido e é obtido a partir de um modelo computacional e não pelo equilíbrio de mercado entre oferta e demanda. Diante disto o mercado de opções e derivativos ao mesmo tempo em que promissor, tendo em vista as experiências de outros países, é insipiente, pois os agentes não conseguem utilizar metodologias tradicionais para a precificação destes produtos e acabam formatando os valores por experiências empíricas e segundo aceitação do mercado. Muitos trabalhos já foram desenvolvidos propondo novas soluções para a previsão de preços modificando profundamente a estrutura atual, por outro lado o objetivo deste trabalho em sua primeira parte não busca modificar o modelo atual de previsão de preços que serve de alicerce para os contratos atuais, e por isso não pode ser desprezada. Este trabalho em sua primeira parte visa desenvolver um modelo para representar o comportamento dos preços no mercado de energia brasileiro e melhorar a previsão de preços que atualmente é fornecido pelo Newave, mas sem deslocar-se dos resultados gerados por ele. Em um segundo momento busca uma metodologia computacionalmente viável para determinar o valor de opções que podem ser oferecidas em contratos de opção de longo prazo. Para desenvolver a solução, foi proposto um processo estocástico que pudesse modelar a previsão dos preços no mercado de curto prazo reduzindo a volatilidade, mas sem se distanciar do atual modelo de previsão. Num segundo momento para permitir a precificação destes contratos este estudo aprofundou-se na teoria das opções que permite considerar as flexibilidades gerenciais, tendo por objetivo maximizar o retorno de uma determinada opção contratual. Assim, com o emprego de ferramentas como o Algoritmo Genético e Simulação Monte Carlo para aproximar a curva de exercício ótimo e o novo processo estocástico de formação de preço, foi possível determinar o valor das opções estudadas. A principal contribuição deste trabalho é criar uma metodologia coerente de precificação de opções contratuais, atualmente inexistente no mercado e que possa ser testada e avaliada pelos operadores, contribuindo para o aumento e desenvolvimento do mercado de derivativos no setor elétrico brasileiro. / [en] In Brazil, the behavior of electricity prices in the short term market is especially uncertain, because it follows a pattern set and is obtained from a computer model rather than the market equilibrium between supply and demand. In view of this the market for options and derivatives at the same time as promising, given the experiences of other countries, know not, because the agents can not use traditional methods for the pricing of these products end up formatting the values and experiences and the second empirical market acceptance. Many works have been developed proposing new solutions for forecasting prices profoundly modifying the current structure, otherwise the objective of this work in the first part does not seek to modify the current model of forecasting prices that serves as the foundation for current contracts, and so it can not be neglected. This work in its first part aims to develop a model to represent the behavior of prices in the Brazilian energy market and improve the forecasting of prices that is currently provided by Newave, but without moving the results generated by it. In a second step a search computationally feasible method to determine the value of options that can be offered on contracts for the long term. To develop the solution, we proposed a stochastic model that could forecast the market price of reducing short-term volatility, but not away from the current forecasting model. In a second time to allow the pricing of these contracts this study deepened the theory of options that allows to consider the managerial flexibility, aiming to maximize the return on a particular option contract. Thus, with the use of tools such as Genetic Algorithms and Monte Carlo simulation to approximate the optimal exercise curve and the new stochastic process of price formation, it was possible to determine the value of the options studied. The main contribution of this work is to create a consistent methodology for pricing options contract, currently non-existent in the market and that can be tested and evaluated by the operators, contributing to the growth and development of the derivatives market in the Brazilian electric sector.
|
44 |
[en] DETERMINATION OF THE VALUE OF REAL OPTIONS FOR MONTE CARLO SIMULATION WHIT APPROACH FOR FUZZY NUMBERS AND GENETIC ALGORITHMS / [pt] DETERMINAÇÃO DO VALOR DE OPÇÕES REAIS POR SIMULAÇÃO MONTE CARLO COM APROXIMAÇÃO POR NÚMEROS FUZZY E ALGORITMOS GENÉTICOSJUAN GUILLERMO LAZO LAZO 25 October 2004 (has links)
[pt] As decisões econômicas de investimento, assim como as
avaliações
econômicas de projetos, são afetadas por incertezas
econômicas, incertezas
técnicas e por flexibilidades gerenciais embutidas em
projetos. Flexibilidades
gerenciais dão liberdade ao gerente para tomar decisões,
tais como investir,
expandir, parar temporariamente ou abandonar um determinado
projeto. Tais
flexibilidades possuem valor e só a teoria de opções reais
consegue avaliá-las.
As opções reais permitem considerar, além das incertezas, a
flexibilidade
gerencial, tendo por objetivo maximizar o valor da
oportunidade de investimento.
Para se determinar o valor de uma opção real, normalmente
são utilizados
modelos de árvores binomiais, diferenças finitas ou
técnicas de simulação Monte
Carlo. Entretanto, os métodos tradicionais de árvores
binomiais e diferenças
finitas são impraticáveis na avaliação de opções com mais
de três fatores de
incerteza, enquanto que a simulação Monte Carlo tem um
custo computacional
muito elevado devido ao processo iterativo da simulação
estocástica na
amostragem de cada variável.
O objetivo deste trabalho é pesquisar uma metodologia
computacionalmente
viável para determinar o valor de opções reais sob diversas
incertezas técnicas e
de mercado. Neste contexto, é feita uma investigação
multidisciplinar (lógica
fuzzy, computação evolucionária, processos estocásticos e
opções reais) em busca
de métodos alternativos que possam reduzir o tempo
computacional e assim
facilitar as tomadas de decisão conseqüentes da simulação.
Para isto, é proposta a
união de várias técnicas: Números Fuzzy para representar
determinados tipos de
incertezas das quais se desconhece o processo estocástico
que as modela,
processos estocásticos para representar as demais
incertezas e a simulação Monte
Carlo para obter uma boa aproximação do valor da opção
real. Além disso, aplicase
um algoritmo genético em conjunto com a simulação Monte
Carlo para
aproximar uma regra de decisão ótima e determinar o valor
da opção real no caso
de se ter várias opções de investimento em um projeto. A
regra ajuda na decisão entre o investimento imediato em uma
das opções ou a espera por melhores
condições, as quais dependem do estado das incertezas
consideradas.
O modelo proposto foi avaliado em problemas de opção de
expansão e de
opção de investimento em informação, aplicados na área de
exploração e
produção de petróleo, obtendo os mesmos resultados que as
técnicas
convencionais com uma redução expressiva do custo
computacional.
A principal contribuição deste trabalho é a concepção de
uma nova
metodologia para a determinação do valor de opções reais na
presença de
incertezas técnicas e de mercado, que oferece vantagens em
relação aos métodos
convencionais. Os resultados obtidos comprovam que o uso de
números fuzzy para
representar incertezas das quais se desconhece o processo
estocástico que as
modela, reduz significativamente o tempo computacional.
Além disso, a
metodologia demonstra que a técnica de algoritmos genéticos
é adequada para
obter uma regra de decisão ótima, com uma boa aproximação
do valor da opção
real, quando são consideradas várias opções de investimento. / [en] The economic decision on investment and evaluation of
projects are affected
by economic and technical uncertainties and by management
flexibilities inserted
on projects. These management flexibilities give the
manager freedom to take
decisions, such as to invest, to expand, to temporarily
stop or to abandon a
Project. These flexibilities have value and only can be
evaluated thhrogh real
option theory.
The use of real options considers uncertainties and
management flexibilities
with the objective of maximizing the value of the
investment opportunity.
To determine the value of the real option, models of
binomials tree, finite
differences or Monte Carlo simulation techniques are
normally used. However,
the traditional methods of binomials tree and finite
differences are impracticable
in the evaluation of options with more than three
uncertainties, while the Monte
Carlo simulation presents a high computational cost due to
the iterative process of
the stochastic simulation in sampling each variable.
The objective of this work is to investigate a
computational methodology
that can be used to determine the value of real option
under diverse uncertainties,
both of technical and market types. Therefore, this work
investigates methods that
can reduce computational time and thus create means for
taking decisions. For this
purpose, the union of several techniques is proposed: fuzzy
numbers to represent
some types of uncertainties of which an adequate stochastic
process is unknown,
stochastic process to represent other uncertainties and the
Monte Carlo simulation
to obtain a good approximation of the value of real
options. Moreover, a genetic
algorithm, together with Monte Carlo simulation, is used to
approximate an
optimum decision rule and to determine the value the real
option when several
investment options are available in a project. The rule
helps decide whether to
make an immediate investment in an option or to wait for
better conditions; this is
dependent on the state of the uncertainties considerated.
The proposed model was evaluated in problems of options of
expansion and of investment in information, applied in the
area of oil exploration and production.
Results obtained were similar to those achieved by
conventional techniques, with
a substantial reduction in computational time.
The main contribution of this work is the conception of a
new methodology
for the determination of the value of real options with
technical and market
uncertainties. This methodology has shown to be advantages
in relation to
conventional methods.
Results show that the use of fuzzy numbers to represent
uncertainties of
which the stochastic process that shapes them is unknown
reduces the
computational time significantly. Moreover, the methodology
demonstrates that
the genetic algorithm is an adequate technique for
approximating a decision rule
when many investment options are considered.
|
45 |
[pt] O PROBLEMA DE ALOCAÇÃO DO RSI: MÉTODOS EXATOS E HEURÍSTICOS / [en] THE RSI ALLOCATION PROBLEM: EXACT AND HEURISTIC METHODSMARIANA ALVES LONDE 06 July 2021 (has links)
[pt] Desde sua introdução, a comunicação móvel sem fio cresceu e se modificou
severamente. Seu crescimento acentuado significa que a alocação de diferentes
parâmetros para rádios ou estações-base ganhou diversos graus de complexidade.
Um parâmetro é o Root Sequence Index (RSI), relacionado com os
preâmbulos do Random Access Channel (PRACH), usado para alocar canais
de upload entre o equipamento do usuário e a estação rádio-base. A alocação
de RSIs próximos a radios ou antenas vizinhas pode causar colisões, que
são responsáveis por falhas no estabelecimento do serviço de comunicação e,
portanto, degradação no desempenho da rede. Em geral, tais problemas de
alocação são modelados como um Problema de Coloração de Grafos, incluindo
diversas restrições. Contudo, não há estudos que foquem na alocação de RSI e
colisões. O objetivo deste estudo é explorar e comparar modelos exatos e heurísticos
para esse problema. Para isso, diversos modelos matemáticos foram
elaborados, além de um algoritmo genético de chaves aleatórias viciadas. Os
resultados apontam que a utilização de uma estratégia baseada nas relações
de vizinhança é eficaz para a obtenção de boas soluções. / [en] Since its introduction, mobile wireless communication has grown and
changed substantially. This massive growth leads to different levels of complexity,
mainly concerned with the assignment of different parameters to radio
or base stations. One parameter is the Root Sequence Index (RSI), related
to the Physical Random Access Channel (PRACH) preambles, used to allocate
uplink channels between the user equipment and the base station. The
assignment of RSIs close-in-range to neighbor antennas may cause collisions,
which are responsible for failures on service establishment, and therefore, performance
degradation. Such allocation problems can be modeled as Graph Coloring
Problems, including several additional constraints. However, few studies
focus on RSI allocation and collisions from the optimization perspective. The
objective of this study is to develop methods for allocating the RSI, trying
to lessen the risk of collision, and obeying other constraints. In this study,
both exact and heuristics methods are explored and compared. For this, several
mathematical models were made, alongside a biased random key genetic
algorithm. The results show that the utilization of an allocation strategy based
on neighbor relations is efficient for finding good solutions.
|
46 |
[pt] ESTRATÉGIAS PARA O CONTROLE DE PARÂMETROS NO ALGORITMO GENÉTICO COM CHAVES ALEATÓRIAS ENVIESADAS / [en] STRATEGIES FOR PARAMETER CONTROL IN THE BIASED RANDOM-KEY GENETIC ALGORITHMLUISA ZAMBELLI ARTMANN R VILELA 08 November 2022 (has links)
[pt] O Algoritmo Genético de Chaves Aleatórias Enviesadas (BRKGA) é
uma metaheurística populacional utilizada na obtenção de soluções ótimas ou
quase ótimas para problemas de otimização combinatória. A parametrização
do algoritmo é crucial para garantir seu bom desempenho. Os valores dos
parâmetros têm uma grande influência em determinar se uma boa solução
será encontrada pelo algoritmo e se o processo de busca será eficiente. Uma
maneira de resolver esse problema de configuração de parâmetros é por
meio da abordagem de parametrização online (ou controle de parâmetros).
A parametrização online permite que o algoritmo adapte os valores dos
parâmetros de acordo com os diferentes estágios do processo de busca e
acumule informações sobre o espaço de soluções nesse processo para usar as
informações obtidas em estágios posteriores. Ele também libera o usuário da
tarefa de definir as configurações dos parâmetros, resolvendo implicitamente
o problema de configuração. Neste trabalho, avaliamos duas estratégias para
implementar o controle de parâmetros no BRKGA. Nossa primeira abordagem
foi adotar valores de parâmetros aleatórios para cada geração do BRKGA.
A segunda abordagem foi incorporar os princípios adotados pelo irace, um
método de parametrização do estado da arte, ao BRKGA. Ambas as estratégias
foram avaliadas em três problemas clássicos de otimização (Problema de
Permutação Flowshop, Problema de Cobertura de Conjuntos e Problema do
Caixeiro Viajante) e levaram a resultados competitivos quando comparados ao
algoritmo tunado. / [en] The Biased Random-Key Genetic Algorithm (BRKGA) is a populationbased metaheuristic applied to obtain optimal or near-optimal solutions to
combinatorial problems. To ensure the good performance of this algorithm
(and other metaheuristics in general), defining parameter settings is a crucial
step. Parameter values have a great influence on determining whether a good
solution will be found by the algorithm and whether the search process will
be efficient. One way of tackling the parameter setting problem is through
the parameter control (or online tuning) approach. Parameter control allows
the algorithm to adapt parameter values according to different stages of the
search process and to accumulate information on the fitness landscape during
the search to use this information in later stages. It also releases the user
from the task of defining parameter settings, implicitly solving the tuning
problem. In this work, we evaluate two strategies to implement parameter
control in BRKGA. Our first approach was adopting random parameter values
for each of BRKGA s generations. The second approach was to introduce
the principles adopted by Iterated Race, a state-of-the-art tuning method,
to BRKGA. Both strategies were evaluated in three classical optimization
problems (Flowshop Permutation Problem, Set Covering Problem, and the
Traveling Salesman Problem) and led to competitive results when compared
to the tuned algorithm.
|
47 |
[pt] MODELAGEM USANDO INTELIGÊNCIA ARTIFICIAL PARA ESTUDAR O PRÉ-TRATAMENTO DE BIOMASSA LIGNOCELULÓSICA / [en] MODELLING USING ARTIFICIAL INTELLIGENCE TO STUDY THE PRETREATMENT OF LIGNOCELLULOSIC BIOMASSJULIANA LIMA GUERHARD FIDALGO 09 June 2020 (has links)
[pt] Os polissacarídeos constituintes da biomassa lignocelulósica podem ser beneficiados através de processos industriais. Entretanto, para manipulá-los é necessário que a biomassa seja submetida ao processo de pré-tratamento. Esta é uma das etapas mais caras e relevantes para a disposição e aplicação das frações lignocelulósicas. O presente estudo consiste em uma investigação detalhada do processo de pré-tratamento da biomassa lignocelulósica com H2O2, a qual foi realizada através de tecnologias inteligentes que viabilizaram a otimização deste processo. Ferramentas de inteligência artificial revelam-se vantajosas na solução dos gargalos associados aos avanços tecnológicos. Possibilitam a modelagem matemática de um processo com máxima eficiência, otimizando sua produtividade, transformando dados experimentais em
informações úteis e demonstrando as infinitas possibilidades das relações das variáveis envolvidas. As variáveis independentes estudadas foram a temperatura (25 – 45 graus Celsius) e a concentração de peróxido de hidrogênio (1.5 – 7.5 porcento m/v). Técnicas analíticas qualitativas (Raman e FTIR) e quantitativa (Método de Klason) foram aplicadas para produzir um banco de dados referente a extração da lignina com H2O2, o qual foi utilizado no desenvolvimento de modelos neurais aplicando Redes Neurais Artificiais (ANN, do inglês Artificial Neural Networks) e Sistema de Inferência Adaptativa Neuro-Difusa (ANFIS, do inglês Adaptive neuro fuzzy inference system). E modelos polinomiais, os quais tiveram seus parâmetros estimados por Algoritmos Genéticos (GA, do inglês Genetic Algorithms). Os modelos desenvolvidos conseguiram predizer: o Teor de Lignina Extraída (porcento) por Espectroscopia Raman, o Teor de Lignina Oxidada (porcento) por FTIR, o Teor de Lignina Residual (porcento) pelo Método de Klason, e por último, dois modelos para a comparação da resposta analítica qualitativa com a resposta analítica quantitativa. Os modelos polinomiais, que tiveram seus parâmetros estimados por GA foram avaliados estatisticamente através da ANOVA e pelo coeficiente de correlação (R2). E os modelos neurais desenvolvidos foram avaliados pelo coeficiente de correlação (R2), número de parâmetros e índices de erro (SSE, MSE e RMSE). Para cada modelo polinomial e neural proposto, quando coerente, superfícies de
resposta e curvas de contorno foram plotadas permitindo a identificação da região operacional mais indicada para a realização do pré-tratamento com H2O2. Dentre as estratégias inteligentes propostas, os modelos desenvolvidos com ANN mostraram-se mais eficientes para as predições relacionadas à extração da lignina. / [en] Industrial processes benefit the polysaccharides constituting the lignocellulosic biomass. However to manipulate them it is necessary that the biomass is submitted to the pre-treatment process. This is one of the most expensive and relevant steps for the arrangement and application of lignocellulosic fractions. The present study consists of a detailed investigation of the pretreatment process of lignocellulosic biomass with H2O2, applying intelligent technologies that enabled the optimization of this process. Artificial intelligence tools prove to be advantageous in solving the bottlenecks associated with technological advances. They enable the mathematical modeling of a process with maximum efficiency, optimizing its productivity, transforming experimental data into useful information and demonstrating the infinite possibilities of the relationships of the variables involved. The independent variables studied were the temperature (25-45 Celsius degrees) and the concentration of hydrogen peroxide (1.5 - 7.5 percent m / v). Qualitative analytical techniques (Raman and FTIR) and quantitative (Klason method) were applied to
produce a database for the extraction of lignin with H2O2, which was used in the development of neural models applying Artificial Neural Networks (ANN) and Adaptive Neuro-Fuzzy Inference System (ANFIS). And polynomial models, which had their parameters estimated by Genetic Algorithms (GA). The models
developed were able to predict: the Extracted Lignin Content (percent) by Raman Spectroscopy, the Oxidized Lignin Content (percent) by FTIR, the Residual Lignin Content (percent) by the Klason Method, and lastly, two models for the comparison of the qualitative analytical response with the quantitative analytical response. The polynomial models, which had their parameters estimated by GA, were statistically
evaluated using ANOVA and correlation coefficient (R2) evaluated the polynomial models developed by GA statistically. And the neural models developed were evaluated by the coefficient of correlation (R2), number of parameters and error indexes (SSE, MSE and RMSE). For each proposed polynomial and neural model,
when coherent, response surfaces and contour curves were plotted allowing the identification of the most suitable operational region for the pretreatment with H2O2. Among the proposed intelligent strategies, the models developed with ANN proved to be more efficient for the predictions related to lignin extraction.
|
48 |
[en] EXPLORATION AND VISUAL MAPPING ALGORITHMS DEVELOPMENT FOR LOW COST MOBILE ROBOTS / [pt] DESENVOLVIMENTO DE ALGORITMOS DE EXPLORAÇÃO E MAPEAMENTO VISUAL PARA ROBÔS MÓVEIS DE BAIXO CUSTOFELIPE AUGUSTO WEILEMANN BELO 16 October 2006 (has links)
[pt] Ao mesmo tempo em que a autonomia de robôs pessoais e
domésticos
aumenta, cresce a necessidade de interação dos mesmos com
o ambiente. A
interação mais básica de um robô com o ambiente é feita
pela percepção deste e
sua navegação. Para uma série de aplicações não é prático
prover modelos
geométricos válidos do ambiente a um robô antes de seu
uso. O robô necessita,
então, criar estes modelos enquanto se movimenta e percebe
o meio em que está
inserido através de sensores. Ao mesmo tempo é necessário
minimizar a
complexidade requerida quanto a hardware e sensores
utilizados. No presente
trabalho, um algoritmo iterativo baseado em entropia é
proposto para planejar
uma estratégia de exploração visual, permitindo a
construção eficaz de um modelo
em grafo do ambiente. O algoritmo se baseia na
determinação da informação
presente em sub-regiões de uma imagem panorâmica 2-D da
localização atual do
robô obtida com uma câmera fixa sobre o mesmo. Utilizando
a métrica de
entropia baseada na Teoria da Informação de Shannon, o
algoritmo determina nós
potenciais para os quais deve se prosseguir a exploração.
Através de procedimento
de Visual Tracking, em conjunto com a técnica SIFT (Scale
Invariant Feature
Transform), o algoritmo auxilia a navegação do robô para
cada nó novo, onde o
processo é repetido. Um procedimento baseado em
transformações invariáveis a
determinadas variações espaciais (desenvolvidas a partir
de Fourier e Mellin) é
utilizado para auxiliar o processo de guiar o robô para
nós já conhecidos. Também
é proposto um método baseado na técnica SIFT. Os processos
relativos à obtenção
de imagens, avaliação, criação do grafo, e prosseguimento
dos passos citados
continua até que o robô tenha mapeado o ambiente com nível
pré-especificado de
detalhes. O conjunto de nós e imagens obtidos são
combinados de modo a se criar
um modelo em grafo do ambiente. Seguindo os caminhos, nó a
nó, um robô pode
navegar pelo ambiente já explorado. O método é
particularmente adequado para
ambientes planos. As componentes do algoritmo proposto
foram desenvolvidas e
testadas no presente trabalho. Resultados experimentais
mostrando a eficácia dos
métodos propostos são apresentados. / [en] As the autonomy of personal service robotic systems
increases so has their
need to interact with their environment. The most basic
interaction a robotic agent
may have with its environment is to sense and navigate
through it. For many
applications it is not usually practical to provide robots
in advance with valid
geometric models of their environment. The robot will need
to create these models
by moving around and sensing the environment, while
minimizing the complexity
of the required sensing hardware. This work proposes an
entropy-based iterative
algorithm to plan the robot´s visual exploration strategy,
enabling it to most
efficiently build a graph model of its environment. The
algorithm is based on
determining the information present in sub-regions of a 2-
D panoramic image of
the environment from the robot´s current location using a
single camera fixed on
the mobile robot. Using a metric based on Shannon s
information theory, the
algorithm determines potential locations of nodes from
which to further image the
environment. Using a Visual Tracking process based on SIFT
(Scale Invariant
Feature Transform), the algorithm helps navigate the robot
to each new node,
where the imaging process is repeated. An invariant
transform (based on Fourier
and Mellin) and tracking process is used to guide the
robot back to a previous
node. Also, an SIFT based method is proposed to accomplish
such task. This
imaging, evaluation, branching and retracing its steps
continues until the robot has
mapped the environment to a pre-specified level of detail.
The set of nodes and
the images taken at each node are combined into a graph to
model the
environment. By tracing its path from node to node, a
service robot can navigate
around its environment. This method is particularly well
suited for flat-floored
environments. The components of the proposed algorithm
were developed and
tested. Experimental results show the effectiveness of the
proposed methods.
|
49 |
[en] PATCH LOAD RESISTANCE USING COMPUTATIONAL INTELLIGENCE TECHNIQUES / [pt] COMPORTAMENTO DE VIGAS DE AÇO SUJEITAS A CARGAS CONCENTRADAS ATRAVÉS DE TÉCNICAS DE INTELIGÊNCIA COMPUTACIONALELAINE TOSCANO FONSECA FALCAO DA SILVA 15 January 2004 (has links)
[pt] As cargas concentradas em vigas de aço são freqüentemente
encontradas na prática. Nas situações onde o local de
aplicação da carga é fixo, enrijecedores transversais de
alma podem ser usados para aumentar a sua resistência, mas
devem ser evitados por razões econômicas. Para cargas
móveis, é fundamental conhecer a resistência última das
almas não enrijecidas. Diversas teorias foram
desenvolvidas para este problema, mas ainda assim, o erro
das fórmulas de previsão é superior a 40%. Duas são as
causas desta dificuldade de se encontrar uma equação mais
precisa: o grande número de parâmetros que influenciam o
comportamento de uma viga sujeita a cargas concentradas, e
o número insuficiente de dados experimentais presentes na
literatura. Por outro lado, o colapso da estrutura pode
ocorrer por: plastificação, flambagem global da alma,
enrugamento (crippling) ou uma combinação destes estados
limites. Apesar disto, nenhum estudo foi desenvolvido para
avaliar a participação total ou parcial de cada
comportamento no colapso. As redes neurais são modelos
computacionais inspirados na estrutura do cérebro, que
apresentam características humanas como o aprendizado por
experiência e a generalização do conhecimento a partir dos
exemplos apresentados. Estas características permitiram,
em estudos preliminares, a utilização das redes neurais na
previsão da carga última de vigas de aço sujeitas a
cargas concentradas. A Lógica Nebulosa tem como objetivo
modelar o modo aproximado de raciocínio, tentando imitar a
habilidade humana de tomar decisões racionais em um
ambiente de incerteza e imprecisão. Deste modo, a Lógica
Nebulosa é uma técnica inteligente que fornece um
mecanismo para manipular informações imprecisas, como
conceitos de esbeltez, compacidade, flexibilidade e
rigidez, além de estabelecer limites mais graduais entre
os fenômenos físicos do problema. Os Algoritmos Genéticos
foram inspirados no princípio Darwiniano da evolução das
espécies (sobrevivência dos mais aptos e mutações) e na
genética. São algoritmos probabilísticos, que fornecem um
mecanismo de busca paralela e adaptativa, e têm sido
empregados em diversos problemas de otimização. Este
trabalho é a continuação do estudo desenvolvido na
dissertação de mestrado (Fonseca, 1999) e tem o objetivo
de propor um sistema de avaliação do comportamento
estrutural de cargas concentradas, através de uma
identificação da influência dos diversos parâmetros na
carga e nos tipos de comportamento resultantes
(plastificação, enrugamento e flambagem global),
estabelecendo limites mais flexíveis entre cada um destes.
Esta análise será executada empregando um sistema neuro-
fuzzy (híbrido de redes neurais e de lógica nebulosa).
Para viabilizar esta análise, torna-se necessária a
apresentação de dados de treinamento onde o comportamento
estrutural é conhecido. Este trabalho também apresenta um
estudo de otimização das fórmulas de projeto existentes
empregando algoritmos genéticos. Os resultados obtidos
neste trabalho contribuem para, no futuro, o
desenvolvimento de uma fórmula de projeto mais precisa. De
posse desta nova fórmula, uma sugestão para sua
incorporação em normas de projeto de estruturas de aço
poderá ser feita, garantindo, desta forma, um
dimensionamento mais seguro e econômico. / [en] Concentrated loads on steel beams are frequently found in
engineering practice. In situations where the load
application point is fixed, transversal web stiffeners can
be used to provide an adequate resistance, but for
economic reasons should be avoided whenever possible. For
moving loads, the knowledge of the unstiffened web
resistance becomes imperative. Many theories were
developed for a better understanding of the problem,
however, a 40% error is still present in the current
design formulas. A more accurate design formula for this
structural problem is very difficult to be obtained, due
to the influence of several interdependent parameters and
to the insufficient number of experiments found in
literature. On the other hand, the structural collapse can
be associated to: web yielding, web buckling, web
crippling or by their combined influence. Despite this
fact, no investigations were found in literature to access
their partial of global influence on the beam patch load
resistance Neural networks were inspired in the brain
structure in order to present human characteristics such
as: learning from experience; and generalization of new
data from a current set of standards. Preliminary studies
used the neural networks potential to forecast the
ultimate load of steel beams subjected to concentrated
loads. The main aim of Fuzzy Logic is to model the complex
approximated way of inference, trying to represent the
human ability of making sensible decisions when facing
uncertainties. Thus, fuzzy logic is an artificial
intelligence technique capable of generating a mechanism
for treating inaccurate and incomplete information such
as: slenderness, flexibility and stiffness, still being
capable of establishing gradual boundaries among the
physical phenomena involved. Genetic algorithms are
inspired on the Darwins principle of the species
evolution and genetics. They are probabilistic algorithms
that generate a mechanism of parallel and adaptive best
fit survival principle and their reproduction and have
been long used in several optimisation problems. This work
extends the research developed in a previous MSc. program
(Fonseca, 1999) and intends to evaluate and investigate
the structural behaviour of steel beams subjected to
concentrated loads, identifying the influence of several
related parameters. This will be achieved by the use of a
neuro-fuzzy system, able to model the intrinsic
relationships between the related parameters. The proposed
system aim is to relate the physical and geometrical
variables that govern the ultimate load with its
associated physical behaviour (web yielding, web crippling
and web buckling), being capable of establishing gradual
boundaries among the physical phenomena involved. This
investigation was focused on the development of a neuro
fuzzy system. The proposed neuro fuzzy system was trained
with data where the collapse mechanism were properly
identified validating its results. This investigation also
presents a study of patch load design formulae optimization
based on genetic algorithm principles. The obtained
results may help the future development of a more accurate
design formula, that could be incorporated in steel
structures design codes, allowing a safer and economical
design.
|
50 |
[en] METHODS BASED ON COMPUTATIONAL INTELLIGENCE TECHNIQUES FOR LOCALIZATION OF FIREARMS PROJECTILES INSERTED INTO THE HUMAN BODY, BY HIGH SENSITIVITY MAGNETIC MEASUREMENTS / [pt] MÉTODOS BASEADOS EM TÉCNICAS DE INTELIGÊNCIA COMPUTACIONAL PARA LOCALIZAÇÃO DE PROJÉTEIS DE ARMAS DE FOGO INSERIDOS NO CORPO HUMANO, POR MEIO DE MEDIÇÕES MAGNÉTICAS DE ALTA SENSIBILIDADEJUAN DARIO TIMARAN JIMENEZ 16 November 2017 (has links)
[pt] Um dos casos clínicos mais frequentes na sociedade moderna envolve a localização e extração de projéteis de armas de fogo, que normalmente são feitos de chumbo, um material não ferromagnético. O desenvolvimento de uma técnica que possibilite a localização precisa destes auxiliará o procedimento de remoção cirúrgica, tendo vasta relevância e impactando diretamente no aumento da taxa de sobrevivência de pessoas feridas. Dessa forma, esta dissertação apresenta e discute duas novas abordagens baseadas em técnicas de inteligência computacional, objetivando a localização de projéteis de armas de fogo inseridos no corpo humano, a partir do processamento da informação contida em mapas de campo magnético. Em ambas as abordagens analisadas modela-se o projétil como uma esfera de raio a, localizado em um espaço de busca contido em um plano xy, o qual está situado a uma distância h do sensor no eixo z. As técnicas de localização requerem a geração de um campo magnético primário alternado por meio de um solenoide, o qual incide sobre o espaço de busca. Caso exista um projétil de arma de fogo nesta região, serão induzidas correntes parasitas no projétil, as quais, por sua vez, produzirão um campo magnético secundário, que pode ser medido por um sensor de alta sensibilidade localizado na extremidade do solenoide. Na primeira abordagem analisada, as posições x e y do projétil são determinadas por um algoritmo de janelamento que considera valores máximos e médios pertencentes aos mapas de campo magnético secundário. A determinação da distância h entre a esfera e o sensor foi obtida por meio de uma rede neural, e o raio da esfera a é estimado por um algoritmo genético. Na segunda abordagem, as quatro variáveis de interesse (x, y, h e a) são inferidas diretamente por um algoritmo genético. Os resultados obtidos são avaliados e comparados. / [en] In modern society, one of the most frequent clinical cases involves location and extraction of firearms projectiles, usually made of lead, a non-ferromagnetic material. The development of a technique that allows the precise location of these projectiles will aid their surgical removal, which has a great relevance because it contributes directly to the increase of the survival rate of wounded patients. Thus, this dissertation presents and discusses two new approaches based on computational intelligence techniques, aiming at locating firearm projectiles inserted into the human body, by processing the information contained in magnetic field maps. On both approaches, the projectile is modeled by a sphere with radius a, located on a search space contained in a xy plane that is situated at a distance h from the sensor, along the z axis. The proposed location techniques require the generation of a primary alternating magnetic field by means of a solenoid, which aims at inducing eddy currents in a firearm projectile contained in the search space. In turn, these currents will produce a secondary magnetic field, which can be measured by a high-sensitivity sensor located at the bottom of the solenoid. In the first developed technique, the x and y positions of the projectile were estimated by a windowing algorithm that takes into account maximum and mean values contained on the secondary magnetic field maps. In turn, the distance h between the sphere and the sensor is inferred by a neural network, and the radius of the sphere a is estimated by a genetic algorithm. In the second technique, the four variables of interest (x, y, h and a) are inferred directly by a genetic algorithm. The results obtained are evaluated and compared.
|
Page generated in 0.0314 seconds