Spelling suggestions: "subject:"inteligência computacional"" "subject:"inteligentes computacional""
21 |
[en] USE OF ARTIFICIAL NEURAL NETWORKS IN THE RECOGNITION OF BI-DIMENSION IMAGES / [pt] REDES NEURAIS APLICADAS AO RECONHECIMENTO DE IMAGENS BI-DIMENSIONAISGUY PERELMUTER 05 July 2006 (has links)
[pt] Esta dissertação investiga a aplicação de Redes Neurais
Artificiais no reconhecimento de imagens bi-dimensionais. O
trabalho de tese foi dividido em quatro partes principais:
um estudo sobre a importância da Visão Computacional e
sobre os benefícios da aplicação das técnicas da
Inteligência Computacional na área; um estudo da estrutura
dos sistemas de reconhecimento de imagens encontrados na
literatura; o desenvolvimento de dois sistemas de
reconhecimento de imagens baseados em redes neurais; e o
estudo de caso e a análise de desempenho dos sistemas
desenvolvidos. A Visão Computacional tem se beneficiado das
principais técnicas de Inteligência Computacional (redes
neurais, algoritmos genéticos e lógica nebulosa) na
implementação de sistemas de reconhecimento de imagens.
Neste trabalho estudou-se a aplicação de diversos tipos de
redes neurais na classificação de imagens Back-Propagation,
Competitivas, RBF e Hierárquicas. Além disso, foi realizado
um estudo das áreas de aplicação da Visão Computacional. A
estrutura básica utilizada por diversos sistemas de Visão
Computacional encontrada na literatura foi analisada. Esta
estrutura é tipicamente composta por três módulos
principais: um pré-processador, um extrator de
características e um classificador. Dois sistemas de
reconhecimento de imagens, denominados de XVision e
SimpleNet, foram desenvolvidos neste trabalho. O sistema
XVision segue a estrutura descrita acima, enquanto que o
sistema SimpleNet utiliza a informação da imagem bruta para
realizar a classificação. O módulo de pré-processamento do
sistema XVision executa uma série de transformações na
imagem, extraindo suas características intrínsecas para que
seja obtida uma representação da imagem invariante a
aspectos como rotação, translação e escalonamento. Este Pré-
Processador é baseado em um trabalho previamente realizado
no campo de Processamento de Sinais. A etapa de extração de
características visa detectar as informações mais
relevantes contidas na representação da imagem intrínseca
obtida na etapa anterior. Foram investigados extratores
baseados em técnicas estatísticas (utilizando o
discriminante de Fisher) e em técnicas inteligentes
(utilizando algoritmos genéticos). Para o módulo de
classificação das imagens foram utilizados diversos tipos
de redes neurais artificiais: Back-Propagation,
Competitivas, RBFs e Hierárquicas. No sistema SimpleNet, o
pré-processamento limita-se à redução das dimensões da
imagem a ser classificada. Como os próprios pixels da
imagem são utilizados para a classificação, não foi
implementado um módulo de extração de características. Na
etapa de classificação foram empregadas redes neurais Back-
Propagation e Competitivas. O sistema XVision apresentou
resultados promissores para dois conjuntos distintos de
objetos bi-dimensionais: o primeiro composto por peças
mecânicas e o segundo por objetos triviais. As amostras
utilizadas nos testes apresentavam características
diferentes daquelas com as quais as redes neurais foram
treinadas - não apenas com rotações, translações e
escalonamentos, mas com diferenças estruturais. O
classificador conseguiu taxas de acerto superiores a 83% em
ambos os conjuntos de objetos. O sistema SimpleNet também
mostrou-se eficiente na diferenciação de imagens
semelhantes (cartões telefônicos e radiografias de
pulmões), obtendo taxas de acerto superiores a 80%. O
desenvolvimento destes sistemas demonstrou a viabilidade da
aplicação de redes neurais na classificação de objetos bi-
dimensionais. Devido ao grande interesse na utilização de
sistemas de Visão em aplicações de tempo real, mediu-se o
tempo gasto nos processos de reconhecimento. Desta forma
foram detectados os garagalos dos sistemas, facilitando
assim sua otimização. / [en] This work investigates the use of Artificial Neural
Networks in the recognition of bi-dimensional images. The
work was divided in four main parts: a survey on the
importance of Computational Vision and on the benefits of
the application of intelligent techniques in the fiels; a
survey on the structure of image recognition systems found
in the literature; the development of two image recognition
systems based on neural networks; and an analysis of the
performance of the developed systems.
Computational Vision has benefited from the main
Computational Intelligence techniques (neural networks,
genetic algoritms and fuzzy logic) to implement image
recognition systems. In this work, the usage of different
Kinds of neural networks in image classification was
studied: Back-Propagation, Competitive, RBF and
Hierarchical. Besiades that, a survey on the fields of
application of Computational Vision was made.
The basic structure is typically composed of three modules:
a pre-processor, a characteristics extractor and a
classifier.
In this work, two image recognition systems, called Xvision
and SimpleNet, were developed. The XVision system follows
the structure described above, while the SimpleNet system
performs the classification using the information present
in the raw picture.
The pre-processing module of the Xvision system executes a
series of transforms over the image, extracting its
essential characteristics so that an invariant
representation of the image can be obtained. This pre-
processor is based on a previous work in the fiels of
Signal Processing.
The characteristcs extractor aims to detect the most
relevant information present in the image representation
obtained after the previous step. Two kinds of extractors
were investigated: one based on statistical tecniques
(applyng the Fisher`s discriminant) and another based on
intelligent techniques (applyng genetic algorithms).
The classification module was implementede through several
Kinds of neural networks: Back-Propagation, Competitive,
RBF and Hierarchical.
The pre-processing of the SimpleNet system simply reduces
the image`s dimensions. Since the image`s pixels are used
for the classification process, no characteristics
extractor module was implemented. In the classification
module, Back-Propagation and Competitive neural networks
were employed.
The Xvision system yielded promising results for two sets
of objects: the first one composed of mechanical parts and
the second one composed of trivial objects. The samples
used during the tests presented different characteristics
from those samples used during the training process - not
only rotated, translated and scaled, but also with
structural differences. The classifier obtained a hit ratio
above 83% with both sets. The SimpleNet system also showed
a good performance in the differentiation of similar
objects (telephone cards and X-rays of lungs), achieving
hit ratios of more than 80%.
The development of both systems demonstrated the viability
of the use of neural networks in the classification of bi-
dimensional objects. Due to the interest of applying Vision
systems in real-time, the time spent in the recognition
process was measured. This allowed the detection of the
systems` bottlenecks, making their optimization easier.
|
22 |
[en] DESIGN, OPTIMIZATION, SIMULATION AND PREDICTION OF NANOSTRUCTURES PROPERTIES BY COMPUTATIONAL INTELLIGENCE TECHNIQUES: INTELLIGENT COMPUTATIONAL NANOTECHNOLOGY / [pt] PROJETO, OTIMIZAÇÃO, SIMULAÇÃO E PREDIÇÃO DE PROPRIEDADES DE NANOESTRUTURAS ATRAVÉS DE TÉCNICAS DA INTELIGÊNCIA COMPUTACIONAL: NANOTECNOLOGIA COMPUTACIONAL INTELIGENTEOMAR PARANAIBA VILELA NETO 12 February 2010 (has links)
[pt] Esta tese investiga a Nanotecnologia Computacional Inteligente, isto é, o apoio
de técnicas de Inteligência Computacional (IC) nos desafios enfrentados pela
Nanociência e Nanotecnologia. Por exemplo, utilizam-se as Redes Neurais para
construir sistemas de inferência capazes de relacionar um conjunto de parâmetros
de entrada com as características finais das nanoestruturas, permitindo aos
pesquisadores prever o comportamento de outras nanoestruturas ainda não realizadas
experimentalmente. A partir dos sistemas de inferência, Algoritmos Genéticos
são então empregados com o intuito de encontrar o conjunto ótimo de parâmetros
de entrada para a síntese (projeto) de uma nanoestrutura desejada. Numa outra
linha de investigação, os Algoritmos Genéticos são usados para a otimização de
parâmetros de funções de base para cálculos ab initio. Neste caso, são otimizados
os expoentes das funções gaussianas que compõem as funções de base. Em
outra abordagem, os Algoritmos Genéticos são aplicados na otimização de agregados
atômicos e moleculares, permitindo aos pesquisadores estudar teoricamente os
agregados formados experimentalmente. Por fim, o uso destes algoritmos, aliado ao
uso de simuladores, é aplicado na síntese automática de OLEDs e circuitos de Autômatos
Celulares com Pontos Quânticos (QCA). Esta pesquisa revelou o potencial
da IC em aplicações inovadoras. Os sistemas híbridos de otimização e inferência,
por exemplo, concebidos para prever a altura, a densidade e o desvio padrão de
pontos quânticos auto-organizáveis, apresentam altos níveis de correlação com os
resultados experimentais e baixos erros percentuais (inferior a 10%). O módulo de
elasticidade de nanocompósitos também é previsto por um sistema semelhante e
apresenta erros percentuais ainda menores, entorno de 4%. Os Algoritmos Genéticos,
juntamente com o software de modelagem molecular Gaussian03, otimizam os
parâmetros de funções que geram expoentes de primitivas gaussianas de funções
de base para cálculos hartree-fock, obtendo energias menores do que aquelas apresentadas
nas referencias. Em outra aplicação, os Algoritmos Genéticos também
se mostram eficientes na busca pelas geometrias de baixa energia dos agregados
atômicos de (LiF)nLi+, (LiF)n e (LiF)nF-, obtendo uma série de novos isômeros
ainda não propostos na literatura. Uma metodologia semelhante é aplicada em um
sistema inédito para entender a formação de agregados moleculares de H2O iônicos,
partindo-se de agregados neutros. Os resultados mostram como os agregados
podem ser obtidos a partir de diferentes perspectivas, formando estruturas ainda não investigadas na área científica. Este trabalho também apresenta a síntese automática
de circuitos de QCA robustos. Os circuitos obtidos apresentam grau de polarização
semelhante àqueles propostos pelos especialistas, mas com uma importante redução
na quantidade de células. Por fim, um sistema envolvendo Algoritmos Genéticos e
um modelo analítico de OLEDs multicamadas otimizam as concentrações de materiais
orgânicos em cada camada com o intuito de obter dispositivos mais eficientes.
Os resultados revelam um dispositivo 9,7% melhor que a solução encontrada na
literatura, sendo estes resultados comprovados experimentalmente. Em resumo, os
resultados da pesquisa permitem constatar que a inédita integração das técnicas de
Inteligência Computacional com Nanotecnologia Computacional, aqui denominada
Nanotecnologia Computacional Inteligente, desponta como uma promissora alternativa
para acelerar as pesquisas em Nanociência e o desenvolvimento de aplicações
nanotecnológicas. / [en] This thesis investigates the Intelligent Computational Nanotechnology, that is, the
support of Computational Intelligence (CI) techniques in the challenges faced by
the Nanoscience and Nanotechnology. For example, Neural Networks are used for
build Inference systems able to relate a set of input parameters with the final characteristics
of the nanostructures, allowing the researchers foresees the behavior of
other nanostructures not yet realized experimentally. From the inference systems,
Genetic Algorithms are then employees with the intention of find the best set of
input parameters for the synthesis (project) of a desired nanostructure. In another
line of inquiry, the Genetic Algorithms are used for the base functions optimization
used in ab initio calculations. In that case, the exponents of the Gaussian functions
that compose the base functions are optimized. In another approach, the Genetic Algorithms
are applied in the optimization of molecular and atomic clusters, allowing
the researchers to theoretically study the experimentally formed clusters. Finally,
the use of these algorithms, use together with simulators, is applied in the automatic
synthesis of OLEDs and circuits of Quantum Dots Cellular Automata (QCA). This
research revealed the potential of the CI in innovative applications. The hybrid systems
of optimization and inference, for example, conceived to foresee the height, the
density and the height deviation of self-assembled quantum dots, present high levels
of correlation with the experimental results and low percentage errors (lower to
10%). The Young’s module of nanocomposites is also predicted by a similar system
and presents percentage errors even smaller, around 4%. The Genetic Algorithms,
jointly with the package of molecular modeling Gaussian03, optimize the parameters
of functions that generate exponents of primitive Gaussian functions of base
sets for hartree-fock calculations, obtaining smaller energies than those presented
in the literature. In another application, the Genetic Algorithms are also efficient in
the search by the low energy geometries of the atomic clusters of (LiF) nLi +, (LiF)
n and (LiF) nF-, obtaining a set of new isomers yet not propose in the literature. A
similar methodology is applied in an unpublished system for understand the formation
of molecular cluster of ionic H2O from neutral clusters. The results show how
the clusters can be obtained from different perspectives, forming structures not yet
investigate in the scientific area. This work also presents the automatic synthesis of
robust QCA circuits. The circuits obtained present high polarization, similar to those
proposed by the specialists, but with an important reduction in the quantity of cells. Finally, a system involving Genetic Algorithms and an analytic model of multilayer
OLEDs optimize the concentrations of organic material in each layer in order to obtain
more efficient devices. The results reveal a device 9.7% better that the solution
found in the literature, being these results verified experimentally. In summary, the
results of the proposed research allow observe that the unpublished integration of
the techniques of Computational Intelligence with Computational Nanotechnology,
here named Intelligent Computational Nanotechnology, emerges as a promising
alternative for accelerate the researches in Nanoscince and the development of application
in Nanotechnology.
|
23 |
[en] MODELING YOUNGS MODULUS OF NANOCOMPOSITES THROUGH COMPUTATIONAL INTELLIGENCE / [pt] MODELAGEM DO MÓDULO DE YOUNG EM NANOCOMPÓSITOS ATRAVÉS DE INTELIGÊNCIA COMPUTACIONALLEANDRO FONTOURA CUPERTINO 17 March 2010 (has links)
[pt] Materiais compósitos são a base de muitos produtos, devido à sua
capacidade de aperfeiçoar certas propriedades. Recentemente, a utilização
de nanocargas na fabricação de compósitos vem sendo amplamente estudada,
pois a partir de concentrações baixas de nanocargas, as propriedades
começam a melhorar, possibilitando a criação de materiais leves e com uma
grande gama de propriedades. Uma das propriedades mecânicas mais estudadas
é o módulo de Young, que mensura a rigidez de um material. Alguns
dos modelos existentes para essa propriedade em nanocompósitos pecam na
precisão ou são limitados em função da fração máxima de nanopartículas
admissível no modelo. Outros se adequam apenas a uma determinada combina
ção de matriz/carga preestabelecida. O objetivo deste trabalho é utilizar
Redes Neurais Artificiais como um aproximador capaz de modelar tal
propriedade para diversas matrizes/cargas, levando em consideração suas
características, sem perder a precisão. A validação do aproximador é realizada
comparando o resultado com outros modelos propostos na literatura.
Uma vez validada, utiliza-se Algoritmos Genéticos em conjunto com tal rede
para definir qual seria a configuração ideal para três casos de estudo: um
que maximize o valor do módulo de Young, outro que maximize o módulo
relativo e um terceiro que maximize o módulo relativo e minimize a quantidade
de carga utilizada, diminuindo os custos de projeto. As técnicas de
Inteligência Computacional empregadas na modelagem e síntese de materiais
nanoestruturados se mostraram boas ferramentas, uma vez que geraram
uma boa aproximação dos dados utilizados com erros inferiores a 5%, além
de possibilitarem a determinação dos parâmetros de síntese de um material
com o módulo de Young desejado. / [en] Composite materials became very popular due to its improvements on
certain properties achieved from the mixture of two different components.
Recently, the use of nanofillers in the manufacture of composites has been
widely studied due to the improvement of properties at low concentrations
of nanofillers, enabling the creation of lightweight materials. Some of the
existing models for the Young modulus of the nanocomposites have low
accuracy or are limited in terms of the maximum filler fraction possible.
Others are appropriate only for a given combination of matrix and filler.
The objective of this work is to use Artificial Neural Networks as a function
approximation method capable of modeling such property for various
matrix/nanofillers, taking into account their characteristics, without losing
accuracy. The validation of this approximator is performed comparing its
results with other models proposed in the literature. Once validated, a Genetic
Algorithm is used with the Neural Network to define which would be
the ideal setting for three case studies: one that maximizes the value of composite’s
Young’s modulus, other that maximizes the relative modulus and a
third one that maximizes the relative modulus and minimizes the amount
of load used, reducing the cost of project. Computational Intelligence techniques
employed on the modeling and synthesis of nanostructured materials
proved to be adequate tools, since it generated a good approximation of the
data with errors lower than 5%, and determined the material’s parameters
for synthesis with the desired Young’s modulus.
|
24 |
[en] ARTIFICIAL IMMUNE SYSTEMS APPLIED TO FAULT DETECTION / [pt] SISTEMAS IMUNOLÓGICOS ARTIFICIAIS APLICADOS À DETECÇÃO DE FALHASJORGE LUIS M DO AMARAL 03 May 2006 (has links)
[pt] Este trabalho investiga métodos de detecção de falhas
baseados em sistemas
imunológicos artificiais, especificamente aqueles baseados
no algoritmo de
seleção negativa (NSA) e em outras técnicas de
reconhecimento próprio/nãopróprio.
Inicialmente, foi proposto um esquema de representação
baseado em
hiperesferas com centros e raios variáveis e três modelos
capazes de gerar
detectores, com esta representação, de forma eficiente. O
primeiro modelo utiliza
algoritmos genéticos onde cada gene do cromossomo contém
um índice para um
ponto de uma distribuição quasi-aleatória que servirá como
centro do detector e
uma função decodificadora responsável por determinar os
raios apropriados. A
aptidão do cromossomo é dada por uma estimativa do volume
coberto através
uma integral de Monte Carlo. O segundo modelo utiliza o
particionamento
Quadtree para gerar o posicionamento dos detectores e o
valor dos raios. Este
modelo pode realizar o particionamento a partir de uma
função de detecção ou
através de divisões recursivas de um detector inicial que
ocupa todo o espaço. O
terceiro modelo é inspirado nas redes imunológicas. Neste
modelo, as células B
representam os detectores e a rede formada por eles dá a
posição e o raio de cada
detector. Experimentos com dados sintéticos e reais
demonstram a capacidade dos
algoritmos propostos e que eles apresentam melhorias nos
aspectos de
escalabilidade e desempenho na detecção de falhas. / [en] This work investigates fault detection methods based on
Artificial Immune
Systems, specifically the negative selection algorithm
(NSA) and other self/nonself
recognition techniques. First, there was proposed a
representation scheme
based on hyperspheres with variable center and radius, and
three models, which
are very capable to generate detectors, based on that
representation scheme, in an
effective way. The first model employs Genetic Algorithms
where each
chromosome gene represents an index to a point in a quasi-
random distribution,
that will serve as a detector center, a decoder function
will be responsible to
determine the appropriate radius. The chromosome fitness
is given by a valuation
of the covered volume, which is calculated through a Monte
Carlo integral. The
second model uses the Quadtree space partition technique
to generate the
detectors positions and their radius. The space partition
could be done by using a
detection function or by recursive divisions of an initial
detector that occupies the
whole space. In third model, inspired on immune networks,
the B cells represent
the detectors and the network that is established by them
gives the location and
radius of each detector. Experiments with syntetic and
real data show that the
proposed algorithms improve scalability and perform better
in fault detection.
|
25 |
[en] ARTIFICIAL NEURAL NETWORKS APPLIED TO INTRUSION DETECTION ON TCP/IP NETWORKS / [pt] REDES NEURAIS ARTIFICIAIS APLICADAS À DETECÇÃO DE INTRUSÃO EM REDES TCP/IPRENATO MAIA SILVA 25 October 2005 (has links)
[pt] Ataques e intrusões são uma ameaça constante para empresas
e
organizações interconectadas através de redes de pacotes e
da Internet.
Ferramentas tradicionais de detecção de ataques e
intrusões dependem de
conhecimento prévio sobre as técnicas de ataque não sendo
capazes de detectar
novas técnicas de ataques. Este trabalho investiga a
aplicação de redes neurais
artificiais no auxílio à detecção de intrusão em redes de
pacotes TCP/IP.
Utilizando a capacidade de generalização das redes
neurais, espera-se que o
sistema detecte novos ataques mantendo uma alta taxa de
acertos. É empregado
também técnica de comitê de redes neurais especialistas
para obtenção de maior
precisão e menor taxa alarmes falsos. / [en] Computer attacks and intrusions poses significant threats
to companies and
organizations interconnected through packet networks and
the Internet. Most
current approaches to intrusion detection rely on previous
knowledge of attack
patterns and are not capable of detecting new intrusion
techniques. This work
presents the application of artificial neural networks as
a component of an
intrusion detection system. Exploring neural networks
generalization capabilities
the system should be able to detect new attack patterns
and sustain a high
detection rate. Neural networks ensembles are also used in
order to achieve higher
accuracy and lower false-positive rates.
|
26 |
[en] INFERENCE OF THE QUALITY OF DESTILLATION PRODUCTS USING ARTIFICIAL NEURAL NETS AND FILTER OF EXTENDED KALMAN / [pt] INFERÊNCIA DA QUALIDADE DE PRODUTOS DE DESTILAÇÃO UTILIZANDO REDES NEURAIS ARTIFICIAIS E FILTRO DE KALMAN ESTENDIDOLEONARDO GUILHERME CAETANO CORREA 19 December 2005 (has links)
[pt] Atualmente cresce o interesse científico e industrial na elaboração de
métodos de controle não lineares. Porém, estes modelos costumam ter difícil
implementação e um custo elevado até que se obtenha uma ferramenta de
controle confiável. Desta forma, estudos na área de métodos de apoio à decisão
procuram desenvolver aplicações inteligentes com custos reduzidos, capazes de
executar controles industriais avançados com excelentes resultados, como no
caso da indústria petroquímica. Na destilação de derivados de petróleo, por
exemplo, é comum fazer uso de análises laboratoriais de amostras para
identificar se uma substância está com suas características físico-químicas
dentro das normas internacionais de produção. Além disso, o laudo pericial desta
análise permite regular os instrumentos da planta de produção para que se
consiga um controle mais acurado do processo e, conseqüentemente, um
produto final com maior qualidade. Entretanto, apesar da análise laboratorial ter
maior acurácia nos resultados que avaliam a qualidade do produto final, exige,
às vezes, muitas horas de análise, o que retarda o ajuste dos equipamentos de
produção, reduzindo a eficiência do processo e aumentando o tempo de
produção de certos produtos, que precisam ter sua composição, posteriormente,
corrigida com outros reagentes. Outra desvantagem está relacionada aos custos
de manutenção e calibração dos instrumentos localizados na área de produção,
pois, como estes equipamentos estão instalados em ambientes hostis,
normalmente sofrem uma degradação acelerada, o que pode gerar leituras de
campo erradas, dificultando a ação dos operadores. Em contrapartida, dentre os
métodos inteligentes mais aplicados em processos industriais químicos,
destacam-se as redes neurais artificiais. Esta estrutura se inspira nos neurônios
biológicos e no processamento paralelo do cérebro humano, tendo assim a
capacidade de armazenar e utilizar o conhecimento experimental que for a ela
apresentado. Apesar do bom resultado que a estrutura de redes neurais gera,
existe uma desvantagem relacionada à necessidade de re-treinamento da rede
quando o processo muda seu ponto de operação, ou seja, quando a matériaprima
sofre algum tipo de mudança em suas características físico-químicas.
Como solução para este problema, foi elaborado um método híbrido que busca
reunir as vantagens de uma estrutura de redes neurais com a habilidade de um
filtro estocástico, conhecido por filtro de Kalman estendido. Em termos práticos,
o filtro atua em cima dos pesos sinápticos da rede neural, atualizando os
mesmos em tempo real e permitindo assim que o sistema se adapte
constantemente às variações de mudança de processo. O sistema também faz
uso de pré-processamentos específicos para eliminar ruídos dos instrumentos de
leitura, erros de escalas e incompatibilidade entre os sinais de entrada e saída
do sistema, que foram armazenados em freqüências distintas; o primeiro em
minutos e o segundo em horas. Além disso, foram aplicadas técnicas de seleção
de variáveis para melhorar o desempenho da rede neural no que diz respeito ao
erro de inferência e ao tempo de processamento. O desempenho do método foi
avaliado em cada etapa elaborada através de diferentes grupos de testes
utilizados para verificar o que cada uma delas agregou ao resultado final. O teste
mais importante, executado para avaliar a resposta da metodologia proposta em
relação a uma rede neural simples, foi o de mudança de processo. Para isso, a
rede foi submetida a um grupo de teste com amostras dos sinais de saída
somados a um sinal tipo rampa. Os experimentos mostraram que o sistema,
utilizando redes neurais simples, apresentou um resultado com erros MAPE em
torno de 1,66%. Por outro lado, ao utilizar redes neurais associadas ao filtro de
Kalman estendido, o erro cai à metade, ficando em torno de 0,8%. Isto comprova
que, além do filtro de Kalman não destruir a qualidade da rede neural original,
ele consegue adaptá-la a mudanças de processo, permitindo, assim, que a
variável de saída seja inferida adequadamente sem a necessidade de retreinamento
da rede. / [en] Nowadays, scientific and industrial interest on the
development of nonlinear
control systems increases day after day. However, before
these models
become reliable, they must pass through a hard and
expensive implementation
process. In this way, studies involving decision support
methods try to develop
low cost intelligent applications to build up advanced
industrial control systems
with excellent results, as in the petrochemical industry.
In the distillation of oil
derivatives, for example, it is very common the use of
laboratorial sample
analysis to identify if a substance has its physical-
chemistry characteristics in
accordance to international production rules. Besides, the
analyses results allow
the adjustment of production plant instruments, so that
the process reaches a
thorough control, and, consequently, a final product with
higher quality. However,
although laboratory analyses are more accurate to evaluate
final product quality,
sometimes it demands many hours of analysis, delaying the
adjustments in the
production equipment. In this manner, the process
efficiency is reduced and
some products have its production period increased because
they should have its
composition corrected with other reagents. Another
disadvantage is the
equipments´ maintenance costs and calibration, since these
instruments are
installed in hostile environments that may cause
unaccurate field measurements,
affecting also operator´s action. On the other hand, among
the most applied
intelligent systems in chemical industry process are the
artificial neural networks.
Their structure is based on biological neurons and in the
parallel processing of
the human brain. Thus, they are capable of storing and
employing experimental
knowledge presented to it earlier. Despite good results
presented by neural
network structures, there is a disadvantage related to the
need for retraining
whenever the process changes its operational point, for
example, when the raw
material suffers any change on its physical-chemistry
characteristics. The
proposed solution for this problem is a hybrid method that
joins the advantages of
a neural network structure with the ability of a
stochastic filter, known as
extended Kalman filter. This filter acts in the synaptic
weights, updating them online and allowing the system to
constantly adapt itself to process changes. It also
uses specific pre-processing methods to eliminate scale
mistakes, noises in
instruments readings and incompatibilities between system
input and output,
which are measured with different acquisition frequencies;
the first one in minutes
and the second one in hours. Besides, variable selection
techniques were used
to enhance neural network performance in terms of
inference error and
processing time. The method´s performance was evaluated in
each process step
through different test groups used to verify what each
step contributes to the final
result. The most important test, executed to analyse the
system answer in
relation to a simple neural network, was the one which
simulated process
changes. For that end, the network was submitted to a test
group with output
samples added to a ramp signal. Experiments demonstrated
that a system using
simple neural networks presented results with MAPE error
of about 1,66%. On
the other hand, when using neural networks associated to
an extended Kalman
filter, the error decreases to 0,8%. In this way, it´s
confirmed that Kalman filter
does not destroy the original neural network quality and
also adapts it to process
changes, allowing the output inference without the
necessity of network
retraining.
|
27 |
[en] DESIGN OF ORGANIC LIGHT-EMITTING DIODES SUPPORTED BY COMPUTACIONAL INTELLIGENCE TECHNIQUES / [pt] PROJETO DE DIODOS ORGÂNICOS EMISSORES DE LUZ COM O AUXÍLIO DE TÉCNICAS DA INTELIGÊNCIA COMPUTACIONALCARLOS AUGUSTO FEDERICO DE FARIA ROCHA COSTA 10 September 2018 (has links)
[pt] Esta dissertação trata da investigação, simulação e otimização da estrutura de Diodos Orgânicos Emissores de Luz Multicamadas (ML-OLEDs) através da utilização de técnicas da Inteligência Computacional. Além disso, um desses métodos, chamado Otimização por Colônia de Formigas (ACO), foi implementado com base em um modelo proposto na literatura e aplicado pela primeira vez na otimização de diodos orgânicos. OLEDs são dispositivos optoeletrônicos nanométricos fabricados a partir de materiais semicondutores
orgânicos. Ao contrário das tecnologias tradicionais, eles conjugam elevada luminescência e baixo consumo energético. Na fabricação de um OLED, o número configurações possíveis é quase ilimitado, em função da quantidade de parâmetros que se pode variar. Isso faz com que determinação da arquitetura ótima torne-se uma tarefa não trivial. Para simular os OLEDs foram empregados dois modelos distintos de simulação. Assim, as Redes Neurais Artificiais (RNA) foram empregadas com o objetivo de emular um dos simuladores e acelerar o cálculo da densidade de corrente. Os Algoritmos Genéticos (AG) foram aplicados na determinação dos valores ótimos de espessura das camadas, mobilidades dos portadores de carga e concentração dos materiais orgânicos em OLEDs com duas camadas, enquanto o ACO foi aplicado para encontrar os valores de concentração em OLEDs com duas e cinco camadas, constituindo assim três estudos de caso. Os resultados encontrados foram promissores, sobretudo no caso das espessuras,
onde houve uma confirmação experimental do dispositivo com duas camadas. / [en] This dissertation deals with the research, simulation and optimization of the structure of Multilayer Organic Light Emitting Diodes (ML-OLEDs) by using Computational Intelligence techniques. In addition, one of these methods, called Ant Colony Optimization (ACO), was implemented based on a model proposed in the literature and applied for the first time in the optimization of organic diodes. OLEDs are nanometric optoelectronic devices fabricated from organic semiconducting materials. Unlike traditional technologies, they combine high luminance and low power consumption. In the manufacturing of an OLED, the number of possible configurations is almost unlimited due to the number of parameters that can modified. Because of this the determination of the optimal architecture becomes a non-trivial task. Two different simulation models were used to simulate the OLEDs. Thus, the Artificial Neural Networks (ANN) were employed in order to work as the proxy of the commercial simulator and to accelerate the calculation of the current density. The Genetic Algorithms (GA) were applied to determine the optimal values of thickness of the layers, the charge carrier mobility and the concentration of the organic materials in OLEDs with two layers, while the ACO was applied to find the values of concentration in OLEDs with two and five layers, thus establishing three case studies. The employed strategy has proved to be promising, since it has show good results for two case studies, especially for the optimization of the thickness, where there was an
experimental confirmation of the bilayer device.
|
28 |
[en] PATCH LOAD RESISTANCE USING COMPUTATIONAL INTELLIGENCE TECHNIQUES / [pt] COMPORTAMENTO DE VIGAS DE AÇO SUJEITAS A CARGAS CONCENTRADAS ATRAVÉS DE TÉCNICAS DE INTELIGÊNCIA COMPUTACIONALELAINE TOSCANO FONSECA FALCAO DA SILVA 15 January 2004 (has links)
[pt] As cargas concentradas em vigas de aço são freqüentemente
encontradas na prática. Nas situações onde o local de
aplicação da carga é fixo, enrijecedores transversais de
alma podem ser usados para aumentar a sua resistência, mas
devem ser evitados por razões econômicas. Para cargas
móveis, é fundamental conhecer a resistência última das
almas não enrijecidas. Diversas teorias foram
desenvolvidas para este problema, mas ainda assim, o erro
das fórmulas de previsão é superior a 40%. Duas são as
causas desta dificuldade de se encontrar uma equação mais
precisa: o grande número de parâmetros que influenciam o
comportamento de uma viga sujeita a cargas concentradas, e
o número insuficiente de dados experimentais presentes na
literatura. Por outro lado, o colapso da estrutura pode
ocorrer por: plastificação, flambagem global da alma,
enrugamento (crippling) ou uma combinação destes estados
limites. Apesar disto, nenhum estudo foi desenvolvido para
avaliar a participação total ou parcial de cada
comportamento no colapso. As redes neurais são modelos
computacionais inspirados na estrutura do cérebro, que
apresentam características humanas como o aprendizado por
experiência e a generalização do conhecimento a partir dos
exemplos apresentados. Estas características permitiram,
em estudos preliminares, a utilização das redes neurais na
previsão da carga última de vigas de aço sujeitas a
cargas concentradas. A Lógica Nebulosa tem como objetivo
modelar o modo aproximado de raciocínio, tentando imitar a
habilidade humana de tomar decisões racionais em um
ambiente de incerteza e imprecisão. Deste modo, a Lógica
Nebulosa é uma técnica inteligente que fornece um
mecanismo para manipular informações imprecisas, como
conceitos de esbeltez, compacidade, flexibilidade e
rigidez, além de estabelecer limites mais graduais entre
os fenômenos físicos do problema. Os Algoritmos Genéticos
foram inspirados no princípio Darwiniano da evolução das
espécies (sobrevivência dos mais aptos e mutações) e na
genética. São algoritmos probabilísticos, que fornecem um
mecanismo de busca paralela e adaptativa, e têm sido
empregados em diversos problemas de otimização. Este
trabalho é a continuação do estudo desenvolvido na
dissertação de mestrado (Fonseca, 1999) e tem o objetivo
de propor um sistema de avaliação do comportamento
estrutural de cargas concentradas, através de uma
identificação da influência dos diversos parâmetros na
carga e nos tipos de comportamento resultantes
(plastificação, enrugamento e flambagem global),
estabelecendo limites mais flexíveis entre cada um destes.
Esta análise será executada empregando um sistema neuro-
fuzzy (híbrido de redes neurais e de lógica nebulosa).
Para viabilizar esta análise, torna-se necessária a
apresentação de dados de treinamento onde o comportamento
estrutural é conhecido. Este trabalho também apresenta um
estudo de otimização das fórmulas de projeto existentes
empregando algoritmos genéticos. Os resultados obtidos
neste trabalho contribuem para, no futuro, o
desenvolvimento de uma fórmula de projeto mais precisa. De
posse desta nova fórmula, uma sugestão para sua
incorporação em normas de projeto de estruturas de aço
poderá ser feita, garantindo, desta forma, um
dimensionamento mais seguro e econômico. / [en] Concentrated loads on steel beams are frequently found in
engineering practice. In situations where the load
application point is fixed, transversal web stiffeners can
be used to provide an adequate resistance, but for
economic reasons should be avoided whenever possible. For
moving loads, the knowledge of the unstiffened web
resistance becomes imperative. Many theories were
developed for a better understanding of the problem,
however, a 40% error is still present in the current
design formulas. A more accurate design formula for this
structural problem is very difficult to be obtained, due
to the influence of several interdependent parameters and
to the insufficient number of experiments found in
literature. On the other hand, the structural collapse can
be associated to: web yielding, web buckling, web
crippling or by their combined influence. Despite this
fact, no investigations were found in literature to access
their partial of global influence on the beam patch load
resistance Neural networks were inspired in the brain
structure in order to present human characteristics such
as: learning from experience; and generalization of new
data from a current set of standards. Preliminary studies
used the neural networks potential to forecast the
ultimate load of steel beams subjected to concentrated
loads. The main aim of Fuzzy Logic is to model the complex
approximated way of inference, trying to represent the
human ability of making sensible decisions when facing
uncertainties. Thus, fuzzy logic is an artificial
intelligence technique capable of generating a mechanism
for treating inaccurate and incomplete information such
as: slenderness, flexibility and stiffness, still being
capable of establishing gradual boundaries among the
physical phenomena involved. Genetic algorithms are
inspired on the Darwins principle of the species
evolution and genetics. They are probabilistic algorithms
that generate a mechanism of parallel and adaptive best
fit survival principle and their reproduction and have
been long used in several optimisation problems. This work
extends the research developed in a previous MSc. program
(Fonseca, 1999) and intends to evaluate and investigate
the structural behaviour of steel beams subjected to
concentrated loads, identifying the influence of several
related parameters. This will be achieved by the use of a
neuro-fuzzy system, able to model the intrinsic
relationships between the related parameters. The proposed
system aim is to relate the physical and geometrical
variables that govern the ultimate load with its
associated physical behaviour (web yielding, web crippling
and web buckling), being capable of establishing gradual
boundaries among the physical phenomena involved. This
investigation was focused on the development of a neuro
fuzzy system. The proposed neuro fuzzy system was trained
with data where the collapse mechanism were properly
identified validating its results. This investigation also
presents a study of patch load design formulae optimization
based on genetic algorithm principles. The obtained
results may help the future development of a more accurate
design formula, that could be incorporated in steel
structures design codes, allowing a safer and economical
design.
|
29 |
Implementación en hardware de sistemas de alta fiabilidad basados en metodologías estocásticasCanals Guinand, Vicente José 27 July 2012 (has links)
La sociedad actual demanda cada vez más aplicaciones computacionalmente exigentes y
que se implementen de forma energéticamente eficiente. Esto obliga a la industria del
semiconductor a mantener una continua progresión de la tecnología CMOS. No obstante,
los expertos vaticinan que el fin de la era de la progresión de la tecnología CMOS se
acerca, puesto que se prevé que alrededor del 2020 la tecnología CMOS llegue a su límite.
Cuando ésta llegue al punto conocido como “Red Brick Wall”, las limitaciones físicas,
tecnológicas y económicas no harán viable el proseguir por esta senda. Todo ello ha
motivado que a lo largo de la última década tanto instituciones públicas como privadas
apostasen por el desarrollo de soluciones tecnológicas alternativas como es el caso de la
nanotecnología (nanotubos, nanohilos, tecnologías basadas en el grafeno, etc.). En esta tesis
planteamos una solución alternativa para poder afrontar algunos de los problemas
computacionalmente exigentes. Esta solución hace uso de la tecnología CMOS actual
sustituyendo la forma de computación clásica desarrollada por Von Neumann por formas
de computación no convencionales. Éste es el caso de las computaciones basadas en lógicas
pulsantes y en especial la conocida como computación estocástica, la cual proporciona un
aumento de la fiabilidad y del paralelismo en los sistemas digitales.
En esta tesis se presenta el desarrollo y evaluación de todo un conjunto de bloques
computacionales estocásticos implementados mediante elementos digitales clásicos. A
partir de estos bloques se proponen diversas metodologías computacionalmente eficientes
que mediante su uso permiten afrontar algunos problemas de computación masiva de forma
mucho más eficiente. En especial se ha centrado el estudio en los problemas relacionados
con el campo del reconocimiento de patrones. / Today's society demands the use of applications with a high computational complexity that
must be executed in an energy-efficient way. Therefore the semiconductor industry is
forced to maintain the CMOS technology progression. However, experts predict that the
end of the age of CMOS technology progression is approaching. It is expected that at 2020
CMOS technology would reach the point known as "Red Brick Wall" at which the
physical, technological and economic limitations of CMOS technology will be unavoidable.
All of this has caused that over the last decade public and private institutions has bet by the
development of alternative technological solutions as is the case of nanotechnology
(nanotubes, nanowires, graphene, etc.). In this thesis we propose an alternative solution to
address some of the computationally exigent problems by using the current CMOS
technology but replacing the classical computing way developed by Von Neumann by other
forms of unconventional computing. This is the case of computing based on pulsed logic
and especially the stochastic computing that provide a significant increase of the
parallelism and the reliability of the systems. This thesis presents the development and
evaluation of different stochastic computing methodologies implemented by digital gates.
The different methods proposed are able to face some massive computing problems more
efficiently than classical digital electronics. This is the case of those fields related to pattern
recognition, which is the field we have focused the main part of the research work
developed in this thesis.
|
30 |
[en] HIERARCHICAL FUZZY INFERENCE SYSTEMS APPLIED TO HUMAN RELIABILITY ASSESSMENT / [pt] SISTEMAS DE INFERÊNCIA FUZZY HIERÁRQUICOS APLICADOS À CARACTERIZAÇÃO DA CONFIABILIDADE HUMANANICHOLAS PINHO RIBEIRO 09 June 2015 (has links)
[pt] A maioria dos estudos existentes em controle de qualidade de processos focam no desempenho de máquinas e ferramentas. Assim, estes já contam com bons métodos para serem controlados. Contudo, erros humanos em potencial estão presentes em todos os processos industriais que contenham a relação homem-máquina, fazendo com que a necessidade de se avaliar a qualidade do desempenho humano seja de igual importância. A abordagem para se avaliar quão suscetível à falha humana estão tais processos baseiam-se em probabilidades de erro, supondo que o desempenho humano funciona da mesma maneira que o desempenho de máquinas, ou em PSFs (Performance Shaping Factors), variáveis representativas de características de desempenho humano. Embora esta última abordagem seja mais eficiente, ainda existem críticas a sua falta de contextualização: tais características são avaliadas separadamente uma das outras, e independentemente da tarefa que o operador esteja realizando. Sistemas de Inferência Fuzzy (SIFs) permitem que variáveis lingüísticas sejam avaliadas em conjunto, isto é, passa a ser possível criar um modelo que assimile as nuances da variação do comportamento de um PSF concomitantemente com a alteração de outro PSF. Dessa forma, a caracterização da confiabilidade humana, considerando que diversos PSFs afetam no desempenho dos demais, pode ser satisfeita ao se fazer uso de SIFs interligados seqüencialmente - SIFs hierárquicos. Para se contextualizar a caracterização da confiabilidade humana por tarefa realizada, necessita-se que os PSFs pertinentes a cada determinada tarefa sejam medidos novamente e realimentados ao sistema (desenvolvido nesta dissertação). O SIF geral (composto por nove camadas de SIFs hierárquicos) foi testado com dados hipotéticos e dados reais de operadores e tarefas de uma empresa do setor elétrico brasileiro. Os resultados encontrados foram satisfatórios e evidenciaram que a Lógica Fuzzy, na forma de SIFs hierárquicos, pode ser utilizada para caracterizar a confiabilidade humana, com a vantagem de fazê-lo enquanto seu contexto é considerado. / [en] Most of existing studies in quality control focus on machinery performance. There are effective and advanced control methods to deal with that. However, potential human errors are present in every industrial process operated by humans. Therefore, evaluating the quality of human performance becomes as important as evaluate machinery s. The approach to evaluate how much processes are susceptible to human error are based on error probabilities, by assuming that human performance is similar to machinery performance, or on PSFs (Performance Shaping Factors) – variables representing human features. Although this based approach is more efficient, there are still criticisms about its lack of context awareness: those features are evaluated separately from one another, and regardless of which task the employee is performing. Fuzzy Inference Systems (FISs) allow linguistic variables to be evaluated simultaneously, thus making it possible to develop a method that gathers the nuances of behavioral changes of a PSF whilst another PSF varies. With this method, and considering that different PSFs affect the performance of others, human reliability can be assessed through the use of sequentially interconnected FISs – Hierarchical Fuzzy Inference Systems. In order to contextualize this assessment by tasks, each of the PSFs that affects each task will have to be measured and fed into the system (as developed within this dissertation) once per task and per employee. The main FIS (which contains nine layers of hierarchical FISs) was tested by using both hypothetical and real data from operators and tasks of a Brazilian electricity company. Results were satisfactory and attested that Fuzzy Logic, in the form of hierarchical FISs, can be used to assess human reliability, with the advantage of also taking the context into account.
|
Page generated in 0.1797 seconds