1 |
[en] QUANTUM-INSPIRED LINEAR GENETIC PROGRAMMING / [pt] PROGRAMAÇÃO GENÉTICA LINEAR COM INSPIRAÇÃO QUÂNTICADOUGLAS MOTA DIAS 26 May 2011 (has links)
[pt] A superioridade de desempenho dos algoritmos quânticos, em alguns problemas
específicos, reside no uso direto de fenômenos da mecânica quântica para
realizar operações com dados em computadores quânticos. Esta característica fez
surgir uma nova abordagem, denominada Computação com Inspiração Quântica,
cujo objetivo é criar algoritmos clássicos (executados em computadores clássicos)
que tirem proveito de princípios da mecânica quântica para melhorar seu desempenho.
Neste sentido, alguns algoritmos evolutivos com inspiração quântica tem
sido propostos e aplicados com sucesso em problemas de otimização combinatória
e numérica, apresentando desempenho superior àquele dos algoritmos evolutivos
convencionais, quanto à melhoria da qualidade das soluções e à redução do número
de avaliações necessárias para alcançá-las. Até o presente momento, no entanto,
este novo paradigma de inspiração quântica ainda não havia sido aplicado à Programação
Genética (PG), uma classe de algoritmos evolutivos que visa à síntese automática
de programas de computador. Esta tese propõe, desenvolve e testa um novo
modelo de algoritmo evolutivo com inspiração quântica, denominado Programação
Genética Linear com Inspiração Quântica (PGLIQ), para a evolução de programas
em código de máquina. A Programação Genética Linear é assim denominada
porque cada um dos seus indivíduos é representado por uma lista de instruções (estruturas
lineares), as quais são executadas sequencialmente. As contribuições deste
trabalho são o estudo e a formulação inédita do uso do paradigma da inspiração
quântica na síntese evolutiva de programas de computador. Uma das motivações
para a opção pela evolução de programas em código de máquina é que esta é a
abordagem de PG que, por oferecer a maior velocidade de execução, viabiliza experimentos
em larga escala. O modelo proposto é inspirado em sistemas quânticos
multiníveis e utiliza o qudit como unidade básica de informação quântica, o qual
representa a superposição dos estados de um sistema deste tipo. O funcionamento
do modelo se baseia em indivíduos quânticos, que representam a superposição de
todos os programas do espaço de busca, cuja observação gera indivíduos clássicos
e os programas (soluções). Nos testes são utilizados problemas de regressão simbólica
e de classificação binária para se avaliar o desempenho da PGLIQ e compará-lo
com o do modelo AIMGP (Automatic Induction of Machine Code by Genetic Programming),
considerado atualmente o modelo de PG mais eficiente na evolução de
código de máquina, conforme citado em inúmeras referências bibliográficas na área.
Os resultados mostram que a Programação Genética Linear com Inspiração Quântica
(PGLIQ) apresenta desempenho geral superior nestas classes de problemas, ao
encontrar melhores soluções (menores erros) a partir de um número menor de avaliações,
com a vantagem adicional de utilizar um número menor de parâmetros e
operadores que o modelo de referência. Nos testes comparativos, o modelo mostra
desempenho médio superior ao do modelo de referência para todos os estudos
de caso, obtendo erros de 3 a 31% menores nos problemas de regressão simbólica,
e de 36 a 39% nos problemas de classificação binária. Esta pesquisa conclui que
o paradigma da inspiração quântica pode ser uma abordagem competitiva para se
evoluir programas eficientemente, encorajando o aprimoramento e a extensão do
modelo aqui apresentado, assim como a criação de outros modelos de programação
genética com inspiração quântica. / [en] The superior performance of quantum algorithms in some specific problems
lies in the direct use of quantum mechanics phenomena to perform operations with
data on quantum computers. This feature has originated a new approach, named
Quantum-Inspired Computing, whose goal is to create classic algorithms (running
on classical computers) that take advantage of quantum mechanics principles to
improve their performance. In this sense, some quantum-inspired evolutionary algorithms
have been proposed and successfully applied in combinatorial and numerical
optimization problems, presenting a superior performance to that of conventional
evolutionary algorithms, by improving the quality of solutions and reducing
the number of evaluations needed to achieve them. To date, however, this
new paradigm of quantum inspiration had not yet been applied to Genetic Programming
(GP), a class of evolutionary algorithms that aims the automatic synthesis
of computer programs. This thesis proposes, develops and tests a novel model of
quantum-inspired evolutionary algorithm named Quantum-Inspired Linear Genetic
Programming (QILGP) for the evolution of machine code programs. Linear Genetic
Programming is so named because each of its individuals is represented by a list of
instructions (linear structures), which are sequentially executed. The contributions
of this work are the study and formulation of the novel use of quantum inspiration
paradigm on evolutionary synthesis of computer programs. One of the motivations
for choosing by the evolution of machine code programs is because this is the GP
approach that, by offering the highest speed of execution, makes feasible large-scale
experiments. The proposed model is inspired on multi-level quantum systems and
uses the qudit as the basic unit of quantum information, which represents the superposition
of states of such a system. The model’s operation is based on quantum individuals,
which represent a superposition of all programs of the search space, whose
observation leads to classical individuals and programs (solutions). The tests use
symbolic regression and binary classification problems to evaluate the performance
of QILGP and compare it with the AIMGP model (Automatic Induction of Machine
Code by Genetic Programming), which is currently considered the most efficient GP
model to evolve machine code, as cited in numerous references in this field. The results
show that Quantum-Inspired Linear Genetic Programming (QILGP) presents
superior overall performance in these classes of problems, by achieving better solutions
(smallest error) from a smaller number of evaluations, with the additional
advantage of using a smaller number of parameters and operators that the reference model. In comparative tests, the model shows average performance higher than that
of the reference model for all case studies, achieving errors 3-31% lower in the
problems of symbolic regression, and 36-39% in the binary classification problems.
This research concludes that the quantum inspiration paradigm can be a competitive
approach to efficiently evolve programs, encouraging the improvement and
extension of the model presented here, as well as the creation of other models of
quantum-inspired genetic programming.
|
2 |
[en] SIMULATION AND DESIGN OF GAAS/ALGAAS QUANTUM WELL SOLAR CELLS AIDED BY GENETIC ALGORITHM / [pt] SIMULAÇÃO E PROJETO DE CÉLULAS SOLARES COM POÇOS QUÂNTICOS DE GAAS/ALGAAS AUXILIADO POR ALGORITMOS GENÉTICOSANDERSON PIRES SINGULANI 03 March 2010 (has links)
[pt] A energia é assunto estratégico para a grande maioria dos países e
indústrias no mundo. O consumo atual energético é de 138,32 TWh por ano
e é previsto um aumento de 44% até o ano de 2030 o que demonstra um
mercado em expansão. Porém, a sociedade atual exige soluções energéticas
que causem o menor impacto ambiental possível, colocando em dúvida o
uso das fontes de energia utilizadas atualmente. O uso da energia solar
é uma alternativa para auxiliar no atendimento da futura demanda de
energia. O seu principal entrave é o custo de produção de energia ser
superior as fontes de energia atuais, principalmente o petróleo. Contudo nos
últimos 10 anos foi verificado um crescimento exponencial na quantidade
de módulos fotovoltaicos instalados em todo mundo. Nesse trabalho é
realizado um estudo sobre célula solares com poços quânticos. O uso de
poços quânticos já foi apontado como ferramenta para aumentar a eficiência
de células fotovoltaicas. O objetivo é descrever uma metodologia baseada
em algoritmos genéticos para projeto e análise desse tipo de dispositivo e
estabelecer diretivas para se construir uma célula otimizada utilizando esta
tecnologia. Os resultados obtidos estão de acordo com dados experimentais,
demonstram a capacidade dos poços quânticos em aumentar a eficiência de
uma célula e fornecem uma ferramenta tecnológica que espera-se contribuir
para o desenvolvimento do país no setor energético. / [en] The energy is a strategical issue for the great majority of the countries
and industries in the world. The current world energy consumption is of
138,32 TWh per year and is foreseen an increase of 44% until the year
of 2030 which demonstrates a market in expansion. However, the society
demands energy solutions that cause as least ambient impact as possible,
putting in doubt the use of the current technologies of power plants. The
utilization of solar energy is an alternative to assist in the attendance of
the future demand of energy. Its main impediment is the superior cost of
energy production in comparison with the current power plants, mainly
the oil based ones. However in last the 10 years an exponential growth in
the amount of installed photovoltaics modules worldwide was verified. In
this work a study on solar cell with quantum wells is carried through. The
use of quantum wells already was pointed as tool to increase the efficiency
of photovoltaics cells. The objective is to describe a methodology based
on genetic algorithms for project and analysis of this type of device and
to establish directive to construct an optimized cell using this technology.
The results are in accordance with experimental data, that demonstrates
the capacity of the quantum wells in increasing the efficiency of a cell and
supply a technological tool that expects to contribute for the development
of the country in the energy sector.
|
3 |
[en] GARCH MODELS IDENTIFICATION USING COMPUTATIONAL INTELLIGENCE / [pt] IDENTIFICAÇÃO DE MODELOS GARCH USANDO INTELIGÊNCIA COMPUTACIONALANDRE MACHADO CALDEIRA 08 January 2010 (has links)
[pt] Os modelos ARCH e GARCH vêm sendo bastante explorados tanto
tecnicamente quanto em estudos empíricos desde suas respectivas criações em
1982 e 1986. Contudo, o enfoque sempre foi na reprodução dos fatos estilizados
das séries financeiras e na previsão de volatilidade, onde o GARCH(1,1) é o mais
utilizado. Estudos sobre identificação dos modelos GARCH são muito raros.
Diante desse contexto, este trabalho propõe um sistema inteligente para melhorar
a identificação da correta especificação dos modelos GARCH, evitando assim o
uso indiscriminado dos modelos GARCH(1,1). Para validar a eficácia do sistema
proposto, séries simuladas foram utilizadas. Os resultados derivados desse sistema
são comparados com os modelos escolhidos pelos critérios de informação AIC e
BIC. O desempenho das previsões dos modelos identificados por esses métodos
são comparados utilizando-se séries reais. / [en] ARCH and GARCH models have been largely explored technically and
empirically since their creation in 1982 and 1986, respectively. However, the
focus has always been on stylized facts of financial time series or volatility
forecasts, where GARCH(1,1) has commonly been used. Studies on identification
of GARCH models have been rare. In this context, this work aims to develop an
intelligent system for improving the specification of GARCH models, thus
avoiding the indiscriminate use of the GARCH(1,1) model. In order to validate
the efficacy of the proposed system, simulated time series are used. Results are
compared to chosen models through AIC and BIC criteria. Their performances are
then compared by using real data.
|
4 |
[en] NONDESTRUCTIVE EVALUATION STEEL STRUCTURES USING A SQUID MAGNETOMETER AND COMPUTATIONAL INTELLIGENCE TECHNIQUES / [pt] ENSAIOS NÃO-DESTRUTIVOS EM ESTRUTURAS METÁLICAS UTILIZANDO O MAGNETÔMETRO SUPERCONDUTOR SQUID E TÉCNICAS DE INTELIGÊNCIA COMPUTACIONALCARLOS ROBERTO HALL BARBOSA 07 April 2006 (has links)
[pt] Esta tese associa duas técnicas de fronteira na área de
Ensaios Não-Destrutivos magnéticos, que são a utilização
do magnetômetro supercondutor SQUID como instrumento de
medida e de Redes Neurais como ferramentas de análise dos
sinais detectados. Medidas pioneiras com o SQUID foram
realizadas em amostras de aço e de alumínio contendo
defeitos diversos, e foram idealizados e implementados
dois Sistemas Neurais, os quais utilizaram combinações de
vários tipos de redes neurais para, a partir do campo
magnético medido, obter informações a respeito da
geometria dos defeitos, possibilitando assim estimar sua
gravidade. / [en] This thesis combines two state-of-the-art techniques in
the area if magnetic Nondestructive Evaluation, that is,
the application of the superconducting magnetometer SQUID
as the magnetic sensor, and the use of Neural Networks as
analysis tools for the detected magnetic signals.
Pioneering measurements using the SQUID have been made in
steel and aluminum samples with various types of flaws,
and two Neural Systems have been implemented, based on the
combination of several neural networks algorithms. Such
systems aim to, based on the measured magnetic field,
obtain information about defect geometry, thus allowing
the assessment of defect severity.
|
5 |
[en] WORD SENSE DESAMBIGUATION IN TEXT MINING / [pt] DESAMBIGUAÇÃO DE SENTIDO DE PALAVRAS DIRIGIDA POR TÉCNICAS DE AGRUPAMENTO SOB O ENFOQUE DA MINERAÇÃO DE TEXTOSROBERTO MIRANDA GOMES 10 September 2009 (has links)
[pt] Esta dissertação investigou a aplicação de processos de mineração de textos a
partir de técnicas de inteligência computacional e aprendizado de máquina no problema
de ambigüidade de sentido de palavras. O trabalho na área de métodos de apoio à decisão
teve como objetivo o desenvolvimento de técnicas capazes de automatizar os processos
de desambiguação bem como a construção de um protótipo baseado na implementação de
algumas dessas técnicas. Desambiguação de sentido de palavra é o processo de atribuição
de um significado a uma palavra obtido por meio de informações colhidas no contexto em
que ela ocorre, e um de seus objetivos é mitigar os enganos introduzidos por construções
textuais ambíguas, auxiliando assim o processo de tomada de decisão. Buscou-se ainda na
utilização de conceitos, ferramentas e formas de documentação considerados em
trabalhos anteriores de maneira a dar continuidade ao desenvolvimento científico e deixar
um legado mais facilmente reutilizável em trabalhos futuros. Atenção especial foi dada ao
processo de detecção de ambigüidades e, por esse motivo, uma abordagem diferenciada
foi empregada. Diferente da forma mais comum de desambiguação, onde uma máquina é
treinada para desambiguar determinado termo, buscou-se no presente trabalho a nãodependência
de se conhecer o termo a ser tratado e assim tornar o sistema mais robusto e
genérico. Para isso, foram desenvolvidas heurísticas específicas baseadas em técnicas de
inteligência computacional. Os critérios semânticos para identificação de termos
ambíguos foram extraídos das técnicas de agrupamento empregadas em léxicos
construídos após algum processo de normalização de termos. O protótipo, SID - Sistema
Inteligente de Desambiguação - foi desenvolvido em .NET, que permite uma grande
diversidade de linguagens no desenvolvimento, o que facilita o reuso do código para a
continuidade da pesquisa ou a utilização das técnicas implementadas em alguma
aplicação de mineração de textos. A linguagem escolhida foi o C#, pela sua robustez,
facilidade e semelhança sintática com JAVA e C++, linguagens amplamente conhecidas e
utilizadas pela maioria dos desenvolvedores. / [en] This dissertation investigated the application of text mining process from
techniques of computing intelligence and machine learning in the problem of
word sense ambiguity. The work in the methods of decision support area aimed to
develop techniques capable of doing a word meaning disambiguation
automatically and also to construct a prototype based on the application of such
techniques. Special attention was given to the process of ambiguity detection and,
for this reason, a differentiated approach was used. Unlikely the most common
type of disambiguation, in which the machine is trained to do it in determined
terms, the present work aimed to address the ambiguity problem without the need
of knowing the meaning of the term used, and thus, to make the system more
robust and generic. In order to achieve that, specific heurists were developed
based on computing intelligence techniques. The semantic criteria used to identify
the ambiguous terms were extracted from grouping techniques employed in lexis
built after some term normalization process.
|
6 |
[en] REGISTRATION OF 3D SEISMIC TO WELL DATA / [pt] REGISTRO DE SÍSMICA 3D A DADOS DE POÇOSRODRIGO COSTA FERNANDES 08 March 2010 (has links)
[pt] A confiabilidade dos dados coletados diretamente ao longo do caminho de
poços de petróleo é maior que a confiabilidade de dados sísmicos e, por
isto, os primeiros podem ser utilizados para ajustar o volume de aquisição
sísmica. Este trabalho propõe um ajuste dos volumes de amplitudes sísmicas
através de uma algoritmo de três passos. O primeiro passo é a identificação
de feições comuns através de um algoritmo de reconhecimento de padrões. O
segundo passo consiste em gerar e otimizar uma malha alinhada às feições
de interesse do dado sísmico voluméletrico através de um novo algoritmo
baseado em processamento de imagens e inteligência computacional. E o
terceiro e último passo é a realização de uma deformação volumétrica pontoa-
ponto usando interpolação por funções de base radial para registrar o
volume sísmico aos poços. A dissertação apresenta ainda resultados de
implementações 2D e 3D dos algoritmos propostos de forma a permitir
algumas conclusões e sugestões para trabalhos futuros. / [en] Data acquired directly from borehole are more reliable than seismic data,
and then, the first can be used to adjust the second. This work proposes
the correction of a volume of seismic amplitudes through a three step
algorithm. The first step is the identification of common features in both
sets using a pattern recognition algorithm. The second step consists of the
generation and the optimization of a mesh aligned with the features in
the volumetric data using a new algorithm based on image processing and
computational intelligence. The last step is the seismic-to-well registration
using a point-to-point volumetric deformation achieved by a radial basis
function interpolation. The dissertation also presents some results from 2D
and 3D implementations allowing conclusions and suggestions for future
work.
|
7 |
[en] SYNTHESIS OF FUZZY SYSTEMS THROUGH EVOLUTIONARY COMPUTATION / [pt] SÍNTESE DE SISTEMAS FUZZY POR COMPUTAÇÃO EVOLUCIONÁRIAJOSE FRANCO MACHADO DO AMARAL 30 May 2003 (has links)
[pt] Síntese de Sistemas Fuzzy por Computação Evolucionária
propõe uma metodologia de projeto para o desenvolvimento
de
sistemas fuzzy fundamentada em técnicas de computação
evolucionária. Esta metodologia contempla as etapas
de concepção do sistema fuzzy e a implementação em
hardware
do circuito eletrônico que o representa. A concepção do
sistema é realizada num ambiente de projeto no qual sua
base de conhecimento - composta da base de regras e demais
parâmetros característicos - é evoluída, por intermédio
de
simulação, através do emprego de um novo algoritmo de
três
estágios que utiliza Algoritmos Genéticos. Esta
estratégia
enfatiza a interpretabilidade e torna a criação do
sistema
fuzzy mais simples e eficiente para o projetista,
especialmente quando comparada com o tradicional ajuste
por
tentativa e erro. A implementação em hardware do circuito
é realizada em plataforma de desenvolvimento baseada em
Eletrônica Evolucionária. Um conjunto de circuitos,
denominados de blocos funcionais, foi desenvolvido e
evoluído com sucesso para viabilizar a construção da
estrutura final do sistema fuzzy. / [en] Synthesis of Fuzzy Systems through Evolutionary Computation
proposes a methodology for the design of fuzzy systems
based on evolutionary computation techniques. A three-stage
evolutionary algorithm that uses Genetic Algorithms
(GAs) evolves the knowledge base of a fuzzy system - rule
base and parameters. The evolutionary aspect makes the
design simpler and more efficient, especially when compared
with traditional trial and error methods. The method
emphasizes interpretability so that the resulting strategy
is clearly stated. An Evolvable Hardware (EHW) platform for
the synthesis of analog electronic circuits is proposed.
This platform, which can be used for the implementation of
the designed fuzzy system, is based on a Field Programmable
Analog Array (FPAA). A set of evolved circuits called
functional blocks allows the implementation of the
fuzzy system.
|
8 |
[en] USE OF ARTIFICIAL NEURAL NETWORKS IN THE RECOGNITION OF BI-DIMENSION IMAGES / [pt] REDES NEURAIS APLICADAS AO RECONHECIMENTO DE IMAGENS BI-DIMENSIONAISGUY PERELMUTER 05 July 2006 (has links)
[pt] Esta dissertação investiga a aplicação de Redes Neurais
Artificiais no reconhecimento de imagens bi-dimensionais. O
trabalho de tese foi dividido em quatro partes principais:
um estudo sobre a importância da Visão Computacional e
sobre os benefícios da aplicação das técnicas da
Inteligência Computacional na área; um estudo da estrutura
dos sistemas de reconhecimento de imagens encontrados na
literatura; o desenvolvimento de dois sistemas de
reconhecimento de imagens baseados em redes neurais; e o
estudo de caso e a análise de desempenho dos sistemas
desenvolvidos. A Visão Computacional tem se beneficiado das
principais técnicas de Inteligência Computacional (redes
neurais, algoritmos genéticos e lógica nebulosa) na
implementação de sistemas de reconhecimento de imagens.
Neste trabalho estudou-se a aplicação de diversos tipos de
redes neurais na classificação de imagens Back-Propagation,
Competitivas, RBF e Hierárquicas. Além disso, foi realizado
um estudo das áreas de aplicação da Visão Computacional. A
estrutura básica utilizada por diversos sistemas de Visão
Computacional encontrada na literatura foi analisada. Esta
estrutura é tipicamente composta por três módulos
principais: um pré-processador, um extrator de
características e um classificador. Dois sistemas de
reconhecimento de imagens, denominados de XVision e
SimpleNet, foram desenvolvidos neste trabalho. O sistema
XVision segue a estrutura descrita acima, enquanto que o
sistema SimpleNet utiliza a informação da imagem bruta para
realizar a classificação. O módulo de pré-processamento do
sistema XVision executa uma série de transformações na
imagem, extraindo suas características intrínsecas para que
seja obtida uma representação da imagem invariante a
aspectos como rotação, translação e escalonamento. Este Pré-
Processador é baseado em um trabalho previamente realizado
no campo de Processamento de Sinais. A etapa de extração de
características visa detectar as informações mais
relevantes contidas na representação da imagem intrínseca
obtida na etapa anterior. Foram investigados extratores
baseados em técnicas estatísticas (utilizando o
discriminante de Fisher) e em técnicas inteligentes
(utilizando algoritmos genéticos). Para o módulo de
classificação das imagens foram utilizados diversos tipos
de redes neurais artificiais: Back-Propagation,
Competitivas, RBFs e Hierárquicas. No sistema SimpleNet, o
pré-processamento limita-se à redução das dimensões da
imagem a ser classificada. Como os próprios pixels da
imagem são utilizados para a classificação, não foi
implementado um módulo de extração de características. Na
etapa de classificação foram empregadas redes neurais Back-
Propagation e Competitivas. O sistema XVision apresentou
resultados promissores para dois conjuntos distintos de
objetos bi-dimensionais: o primeiro composto por peças
mecânicas e o segundo por objetos triviais. As amostras
utilizadas nos testes apresentavam características
diferentes daquelas com as quais as redes neurais foram
treinadas - não apenas com rotações, translações e
escalonamentos, mas com diferenças estruturais. O
classificador conseguiu taxas de acerto superiores a 83% em
ambos os conjuntos de objetos. O sistema SimpleNet também
mostrou-se eficiente na diferenciação de imagens
semelhantes (cartões telefônicos e radiografias de
pulmões), obtendo taxas de acerto superiores a 80%. O
desenvolvimento destes sistemas demonstrou a viabilidade da
aplicação de redes neurais na classificação de objetos bi-
dimensionais. Devido ao grande interesse na utilização de
sistemas de Visão em aplicações de tempo real, mediu-se o
tempo gasto nos processos de reconhecimento. Desta forma
foram detectados os garagalos dos sistemas, facilitando
assim sua otimização. / [en] This work investigates the use of Artificial Neural
Networks in the recognition of bi-dimensional images. The
work was divided in four main parts: a survey on the
importance of Computational Vision and on the benefits of
the application of intelligent techniques in the fiels; a
survey on the structure of image recognition systems found
in the literature; the development of two image recognition
systems based on neural networks; and an analysis of the
performance of the developed systems.
Computational Vision has benefited from the main
Computational Intelligence techniques (neural networks,
genetic algoritms and fuzzy logic) to implement image
recognition systems. In this work, the usage of different
Kinds of neural networks in image classification was
studied: Back-Propagation, Competitive, RBF and
Hierarchical. Besiades that, a survey on the fields of
application of Computational Vision was made.
The basic structure is typically composed of three modules:
a pre-processor, a characteristics extractor and a
classifier.
In this work, two image recognition systems, called Xvision
and SimpleNet, were developed. The XVision system follows
the structure described above, while the SimpleNet system
performs the classification using the information present
in the raw picture.
The pre-processing module of the Xvision system executes a
series of transforms over the image, extracting its
essential characteristics so that an invariant
representation of the image can be obtained. This pre-
processor is based on a previous work in the fiels of
Signal Processing.
The characteristcs extractor aims to detect the most
relevant information present in the image representation
obtained after the previous step. Two kinds of extractors
were investigated: one based on statistical tecniques
(applyng the Fisher`s discriminant) and another based on
intelligent techniques (applyng genetic algorithms).
The classification module was implementede through several
Kinds of neural networks: Back-Propagation, Competitive,
RBF and Hierarchical.
The pre-processing of the SimpleNet system simply reduces
the image`s dimensions. Since the image`s pixels are used
for the classification process, no characteristics
extractor module was implemented. In the classification
module, Back-Propagation and Competitive neural networks
were employed.
The Xvision system yielded promising results for two sets
of objects: the first one composed of mechanical parts and
the second one composed of trivial objects. The samples
used during the tests presented different characteristics
from those samples used during the training process - not
only rotated, translated and scaled, but also with
structural differences. The classifier obtained a hit ratio
above 83% with both sets. The SimpleNet system also showed
a good performance in the differentiation of similar
objects (telephone cards and X-rays of lungs), achieving
hit ratios of more than 80%.
The development of both systems demonstrated the viability
of the use of neural networks in the classification of bi-
dimensional objects. Due to the interest of applying Vision
systems in real-time, the time spent in the recognition
process was measured. This allowed the detection of the
systems` bottlenecks, making their optimization easier.
|
9 |
[en] DESIGN, OPTIMIZATION, SIMULATION AND PREDICTION OF NANOSTRUCTURES PROPERTIES BY COMPUTATIONAL INTELLIGENCE TECHNIQUES: INTELLIGENT COMPUTATIONAL NANOTECHNOLOGY / [pt] PROJETO, OTIMIZAÇÃO, SIMULAÇÃO E PREDIÇÃO DE PROPRIEDADES DE NANOESTRUTURAS ATRAVÉS DE TÉCNICAS DA INTELIGÊNCIA COMPUTACIONAL: NANOTECNOLOGIA COMPUTACIONAL INTELIGENTEOMAR PARANAIBA VILELA NETO 12 February 2010 (has links)
[pt] Esta tese investiga a Nanotecnologia Computacional Inteligente, isto é, o apoio
de técnicas de Inteligência Computacional (IC) nos desafios enfrentados pela
Nanociência e Nanotecnologia. Por exemplo, utilizam-se as Redes Neurais para
construir sistemas de inferência capazes de relacionar um conjunto de parâmetros
de entrada com as características finais das nanoestruturas, permitindo aos
pesquisadores prever o comportamento de outras nanoestruturas ainda não realizadas
experimentalmente. A partir dos sistemas de inferência, Algoritmos Genéticos
são então empregados com o intuito de encontrar o conjunto ótimo de parâmetros
de entrada para a síntese (projeto) de uma nanoestrutura desejada. Numa outra
linha de investigação, os Algoritmos Genéticos são usados para a otimização de
parâmetros de funções de base para cálculos ab initio. Neste caso, são otimizados
os expoentes das funções gaussianas que compõem as funções de base. Em
outra abordagem, os Algoritmos Genéticos são aplicados na otimização de agregados
atômicos e moleculares, permitindo aos pesquisadores estudar teoricamente os
agregados formados experimentalmente. Por fim, o uso destes algoritmos, aliado ao
uso de simuladores, é aplicado na síntese automática de OLEDs e circuitos de Autômatos
Celulares com Pontos Quânticos (QCA). Esta pesquisa revelou o potencial
da IC em aplicações inovadoras. Os sistemas híbridos de otimização e inferência,
por exemplo, concebidos para prever a altura, a densidade e o desvio padrão de
pontos quânticos auto-organizáveis, apresentam altos níveis de correlação com os
resultados experimentais e baixos erros percentuais (inferior a 10%). O módulo de
elasticidade de nanocompósitos também é previsto por um sistema semelhante e
apresenta erros percentuais ainda menores, entorno de 4%. Os Algoritmos Genéticos,
juntamente com o software de modelagem molecular Gaussian03, otimizam os
parâmetros de funções que geram expoentes de primitivas gaussianas de funções
de base para cálculos hartree-fock, obtendo energias menores do que aquelas apresentadas
nas referencias. Em outra aplicação, os Algoritmos Genéticos também
se mostram eficientes na busca pelas geometrias de baixa energia dos agregados
atômicos de (LiF)nLi+, (LiF)n e (LiF)nF-, obtendo uma série de novos isômeros
ainda não propostos na literatura. Uma metodologia semelhante é aplicada em um
sistema inédito para entender a formação de agregados moleculares de H2O iônicos,
partindo-se de agregados neutros. Os resultados mostram como os agregados
podem ser obtidos a partir de diferentes perspectivas, formando estruturas ainda não investigadas na área científica. Este trabalho também apresenta a síntese automática
de circuitos de QCA robustos. Os circuitos obtidos apresentam grau de polarização
semelhante àqueles propostos pelos especialistas, mas com uma importante redução
na quantidade de células. Por fim, um sistema envolvendo Algoritmos Genéticos e
um modelo analítico de OLEDs multicamadas otimizam as concentrações de materiais
orgânicos em cada camada com o intuito de obter dispositivos mais eficientes.
Os resultados revelam um dispositivo 9,7% melhor que a solução encontrada na
literatura, sendo estes resultados comprovados experimentalmente. Em resumo, os
resultados da pesquisa permitem constatar que a inédita integração das técnicas de
Inteligência Computacional com Nanotecnologia Computacional, aqui denominada
Nanotecnologia Computacional Inteligente, desponta como uma promissora alternativa
para acelerar as pesquisas em Nanociência e o desenvolvimento de aplicações
nanotecnológicas. / [en] This thesis investigates the Intelligent Computational Nanotechnology, that is, the
support of Computational Intelligence (CI) techniques in the challenges faced by
the Nanoscience and Nanotechnology. For example, Neural Networks are used for
build Inference systems able to relate a set of input parameters with the final characteristics
of the nanostructures, allowing the researchers foresees the behavior of
other nanostructures not yet realized experimentally. From the inference systems,
Genetic Algorithms are then employees with the intention of find the best set of
input parameters for the synthesis (project) of a desired nanostructure. In another
line of inquiry, the Genetic Algorithms are used for the base functions optimization
used in ab initio calculations. In that case, the exponents of the Gaussian functions
that compose the base functions are optimized. In another approach, the Genetic Algorithms
are applied in the optimization of molecular and atomic clusters, allowing
the researchers to theoretically study the experimentally formed clusters. Finally,
the use of these algorithms, use together with simulators, is applied in the automatic
synthesis of OLEDs and circuits of Quantum Dots Cellular Automata (QCA). This
research revealed the potential of the CI in innovative applications. The hybrid systems
of optimization and inference, for example, conceived to foresee the height, the
density and the height deviation of self-assembled quantum dots, present high levels
of correlation with the experimental results and low percentage errors (lower to
10%). The Young’s module of nanocomposites is also predicted by a similar system
and presents percentage errors even smaller, around 4%. The Genetic Algorithms,
jointly with the package of molecular modeling Gaussian03, optimize the parameters
of functions that generate exponents of primitive Gaussian functions of base
sets for hartree-fock calculations, obtaining smaller energies than those presented
in the literature. In another application, the Genetic Algorithms are also efficient in
the search by the low energy geometries of the atomic clusters of (LiF) nLi +, (LiF)
n and (LiF) nF-, obtaining a set of new isomers yet not propose in the literature. A
similar methodology is applied in an unpublished system for understand the formation
of molecular cluster of ionic H2O from neutral clusters. The results show how
the clusters can be obtained from different perspectives, forming structures not yet
investigate in the scientific area. This work also presents the automatic synthesis of
robust QCA circuits. The circuits obtained present high polarization, similar to those
proposed by the specialists, but with an important reduction in the quantity of cells. Finally, a system involving Genetic Algorithms and an analytic model of multilayer
OLEDs optimize the concentrations of organic material in each layer in order to obtain
more efficient devices. The results reveal a device 9.7% better that the solution
found in the literature, being these results verified experimentally. In summary, the
results of the proposed research allow observe that the unpublished integration of
the techniques of Computational Intelligence with Computational Nanotechnology,
here named Intelligent Computational Nanotechnology, emerges as a promising
alternative for accelerate the researches in Nanoscince and the development of application
in Nanotechnology.
|
10 |
[en] MODELING YOUNGS MODULUS OF NANOCOMPOSITES THROUGH COMPUTATIONAL INTELLIGENCE / [pt] MODELAGEM DO MÓDULO DE YOUNG EM NANOCOMPÓSITOS ATRAVÉS DE INTELIGÊNCIA COMPUTACIONALLEANDRO FONTOURA CUPERTINO 17 March 2010 (has links)
[pt] Materiais compósitos são a base de muitos produtos, devido à sua
capacidade de aperfeiçoar certas propriedades. Recentemente, a utilização
de nanocargas na fabricação de compósitos vem sendo amplamente estudada,
pois a partir de concentrações baixas de nanocargas, as propriedades
começam a melhorar, possibilitando a criação de materiais leves e com uma
grande gama de propriedades. Uma das propriedades mecânicas mais estudadas
é o módulo de Young, que mensura a rigidez de um material. Alguns
dos modelos existentes para essa propriedade em nanocompósitos pecam na
precisão ou são limitados em função da fração máxima de nanopartículas
admissível no modelo. Outros se adequam apenas a uma determinada combina
ção de matriz/carga preestabelecida. O objetivo deste trabalho é utilizar
Redes Neurais Artificiais como um aproximador capaz de modelar tal
propriedade para diversas matrizes/cargas, levando em consideração suas
características, sem perder a precisão. A validação do aproximador é realizada
comparando o resultado com outros modelos propostos na literatura.
Uma vez validada, utiliza-se Algoritmos Genéticos em conjunto com tal rede
para definir qual seria a configuração ideal para três casos de estudo: um
que maximize o valor do módulo de Young, outro que maximize o módulo
relativo e um terceiro que maximize o módulo relativo e minimize a quantidade
de carga utilizada, diminuindo os custos de projeto. As técnicas de
Inteligência Computacional empregadas na modelagem e síntese de materiais
nanoestruturados se mostraram boas ferramentas, uma vez que geraram
uma boa aproximação dos dados utilizados com erros inferiores a 5%, além
de possibilitarem a determinação dos parâmetros de síntese de um material
com o módulo de Young desejado. / [en] Composite materials became very popular due to its improvements on
certain properties achieved from the mixture of two different components.
Recently, the use of nanofillers in the manufacture of composites has been
widely studied due to the improvement of properties at low concentrations
of nanofillers, enabling the creation of lightweight materials. Some of the
existing models for the Young modulus of the nanocomposites have low
accuracy or are limited in terms of the maximum filler fraction possible.
Others are appropriate only for a given combination of matrix and filler.
The objective of this work is to use Artificial Neural Networks as a function
approximation method capable of modeling such property for various
matrix/nanofillers, taking into account their characteristics, without losing
accuracy. The validation of this approximator is performed comparing its
results with other models proposed in the literature. Once validated, a Genetic
Algorithm is used with the Neural Network to define which would be
the ideal setting for three case studies: one that maximizes the value of composite’s
Young’s modulus, other that maximizes the relative modulus and a
third one that maximizes the relative modulus and minimizes the amount
of load used, reducing the cost of project. Computational Intelligence techniques
employed on the modeling and synthesis of nanostructured materials
proved to be adequate tools, since it generated a good approximation of the
data with errors lower than 5%, and determined the material’s parameters
for synthesis with the desired Young’s modulus.
|
Page generated in 0.0556 seconds