Spelling suggestions: "subject:"[een] ONLINE TRAINIG"" "subject:"[enn] ONLINE TRAINIG""
1 |
[en] ONLINE TRAINING OF NEURAL METWORKS: METHODOLOGY FOR TIME VARYING ENVIRONMENTS / [pt] TREINAMENTO CONTÍNUO EM REDES NEURAIS: UM TRATAMENTO PARA AMBIENTES VARIANTES NO TEMPONITZI MESQUITA ROEHL 26 June 2006 (has links)
[pt] Lidar com processos não estacionários requer adaptação
rápida e, simultaneamente, evitar esquecimento
catastrófico de um comportamento passado. Duas técnicas de
treinamento em redes neurais que satisfazem este
requerimento são propostas, uma no âmbito de aprendizado
com supervisão e outra relacionada à classe de redes não
supervisionadas.
Um novo algoritmo de treinamento supervisionada em redes
multi camadas para modelagem de sistemas num contexto não
estacionário é proposto. O ajuste de pesos na rede é
determinado pela solução de problema de compromisso entre
manter a performance para os dados antigos de treinamento
e se ajustar para um novo comportamento representado nos
dados mais recentes. Esta abordagem tem por base a
formalização do problema como a minimização do erro de
saída da rede sobre os padrões entrada-saída passados,
sujeita a restrição de codificação do novo padrão dentro
da tolerância estabelecida. Técnicas de programação não
linear são utilizadas para resolver o problema de
otimização gerado e calcular o novo conjunto de pesos.
Alguns experimentos numéricos que comparam a performance
do algoritmo proposto a de uma rede backpropagation são
oferecidos.
Um modelo de redes Fuzzy ART modulares para formação de
categorias com hierarquia é também proposto, de tal forma
que cada módulo agrupa os protótipos das categorias
desenvolvidas na camada anterior. Dessa forma, os níveis
hierárquicos sucessivamente mais altos captam uma
visualização mais geral dos padrões de entrada enquanto os
níveis inferiores aprendem categorias mais especificas.
Propriedades interessantes da rede Fuzzy são herdadas pelo
modelo proposto. Resultados teóricos relacionados às
propriedades desta nova abordagem são apresentados, bem
como experimentos numéricos que comprovam e ilustram as
mesmas. / [en] The main issue when dealing with non-stationary processes
is related to the requirement of fast adaptation while
simultaneously preventing catastrophic damage to
previously learned behavior. In this thesis, two on-line
learning techniques, one for supervised and the other for
unsupervised artificial neural networks, are proposed.
A new supervised procedure to continuously adjust weights
in a multi layered perceptrons neural networks is
proposed. This methodology is tailored to be used in time
varying (or non-stationary) models, eliminating the
necessity of retraining. The main objective is to keep the
error related to the latest income data within a pre
established tolerance, while maximizing the information
incorporated up to that point. By choosing a balance
parameter, the designer is able to decide on the relevance
that should be attributed to the new data. Non-linear
programming techniques are used in order to properly solve
this trade off optimization problem and on-line calculate
the new weight set. Numerical results for real and non-
real data are presented, illustrating the potentiality and
properties of the proposed approach.
A modular Fuzzy ART model for hierarchical categorization
of data is proposed in such a manner that each module
groups the prototypes of the categories developed in the
previous module or layer. In this way, the hierarchical
levels of successively higher layers learn a more general
pattern from the input data while the lower layers learn
more specific categories. Interesting properties of the
component Fuzzy ART network also apply to this new
hierarchical network model like, fast and stable learning
of arbitrary sequences of analogical or binary input
patterns and the dynamic creation of categories for new
input patterns presentation. Some theoretical results
related to properties of this new approach for clustering
applications are presented, as well as some illustrative
numerical results.
|
Page generated in 0.038 seconds