Return to search

[en] HIERARCHICAL NEURO-FUZZY MODELS / [pt] MODELOS NEURO-FUZZY HIERÁRQUICOS

[pt] Esta dissertação apresenta uma nova proposta de sistemas
(modelos) neuro-fuzzy que possuem, além do tradicional
aprendizado dos parâmetros, comuns às redes neurais e aos
sistemas nero-fuzzy, as seguintes características:
aprendizado de estrutura, a partir do uso de
particionamentos recursisvos; número maior de entradas que
o comumente encontrado nos sistemas neuro-fuzzy; e regras
com hierarquia. A definição da estrutura é uma necessidade
que surge quando da implementação de um determinado
modelo. Pode-se citar o caso das redes neurais, em que se
deve determinar (ou arbitrar) a priori sua estrutura
(número de camadas e quantidade de neurônios por camadas)
antes de qualquer teste. Um método automático de
aprendizado da estrutura é, portanto, uma característica
importante em qualquer modelo. Um sistema que também
permita o uso de um número maior de entradas é
interessante para se abranger um maior número de
aplicações. As regras com hierarquia são um subproduto do
método de aprendizado de estrutura desenvolvido nestes
novos modelos.
O trabalho envolveu três partes principais: um
levantamento sobre os sistemas neuro-fuzzy existentes e
sobre os métodos mais comuns de ajuste de parâmetros; a
definição e implementação de dois modelos neuro-fuzzy
hierárquicos; e o estudo de casos.
No estudo sobre os sistemas neuro-fuzzy(SNF) fez-se um
levantamento na bibliografia da área sobre as
características principais desses sistemas, incluindo suas
virtudes e deficiências. Este estudo gerou a proposta de
uma taxonomia para os SNF, em função das características
fuzzy neurais. Em virtude deste estudo constataram-se
limitações quanto à capacidade de criação de sua própria
estrutura e quanto ao número reduzido de entradas
possíveis.
No que se refere aos métodos de ajuste dos parâmetros
abordou-se os métodos mais comuns utilizados nos SNF, a
saber: o método dos mínimos quadrados com sua solução
através de métodos numéricos iterativos; e o método
gradient descent e seus derivados como o BackPropagation e
o RProp(Resilient BackPropagation).
A definição dos dois novos modelos neuro-fuzzy foi feita a
partir do estudo das características desejáveis e das
limitações dos SNF até então desenvolvidos. Observou-se
que a base de regras dos SNF juntamente com os seus
formatos de particionamento dos espaços de entrada e saída
têm grande influência sobre o desempenho e as limitações
destes modelos. Assim sendo, decidiu-se utilizar uma nova
forma de particionamento que eliminasse ou reduzisse as
limitações existentes- os particionamentos recursivos.
Optou-se pelo uso dos particionamentos Quadtree e BSP,
gerando os dois modelos NFHQ (Neuro-Fuzzy Hierárquico
Quadree) e NFHB (Neiro-Fuzzy Hierárquico BSP). Com o uso
de particionamentos obteve-se um nova classe de SNF que
permitiu além do aprendizado dos parâmetros, também o
aprendizado dos parâmetros. Isto representa um grande
diferencial em relação aos SNF tradicionais, além do fato
de se conseguir extender o limite do número de entradas
possíveis para estes sistemas.
No estudo de casos, os dois modelos neurofuzzy
hierárquicos foram testados 16 casos diferentes, entre as
aplicações benchmarks mais tradicionais da área e
problemas com maior número de entradas. Entre os casos
estudados estão: o conjunto de dados IRIS; o problema das
duas espirais; a previsão da série caótica de Mackey-
Glass; alguns sistemas de diagnóstico e classificação
gerados a partir de conjuntos de dados comumente
utilizados em artigos de machine learning e uma aplicação
de previsão de carga elétrica. A implementação dos dois
novos modelos neuro-fuzzy foi efetuada em linguagem pascal
e com o uso de um compilador de 32 bits para micros da
linha PC (Pentium) com sistema operacional DOS 32 bits,
Windows, ou Linux.
Os testes efetuados demostraram que: esses novos modelos
se ajustam bem a qualquer conjunto de dados; geram sua
própria estrutura; ajustam seus parâmetros com boa
generalização e extraem / [en] This dissertation presents a new proposal of neurofuzzy
systems (models), which present, in addition to the
learning capacity (which are common to the neural networks
and neurofuzzy systems) the following features: learning
of the structure; the use of recursive partitioning; a
greater number of inputs than usually allowed in
neurofuzzy systems; and hierarchical rules. The
structure´s definition is needed when implementing a
certain model. In the neural network case, for example,
one must, first of all, estabilish its structure (number
of layers and number of neurons per layers) before any
test is performed. So, an important feature for any model
is the existence of an automatic learning method for
creating its structure. A system that allows a larger
number of inputs is also important, in order to extend the
range of possible applications. The hierarchical rules
feature results from the structure learning method
developed for these two models.
The work has involved three main parts: study of the
existing neurofuzzy systems and of the most commom methods
to adjust its parameters; definition and implementation of
two hierarchical neurofuzzy models; and case studies.
The study of neurofuzzy systems (NFS) was accomplished by
creating a survey on this area, including advantages,
drawbacks and the main features of NFS. A taxonomy about
NFS was then proposed, taking into account the neural and
fuzzy features of the existing systems. This study pointed
out the limitations of neurofuzzy systems, mainly their
poor capability of creating its own structure and the
reduced number of allowed inputs.
The study of the methods for parameter adjustment has
focused on the following algorithms: Least Square
estimator (LSE) and its solutions by numerical iterative
methods; and the basic gradient descent method and its
offsprings such as Backpropagation and Rprop (Resilient
Backpropagation).
The definition of two new neurofuzzy models was
accomplished by considering desirable features and
limitations of the existing NFS. It was observed that the
partitioning formats and rule basis of the NFS have great
influence on its performance and limitations. Thus, the
decision to use a new partitioning method to remove or
reduce the existing limitations - the recursive
partitioning. The Quadtree and BSP partitioning were then
adopted, generating the so called Quadree Hierarchical
Neurofuzzy model (NFHQ) and the BSP hierarchical
Neurofuzzy model (NFHB). By using these kind os
partitioning a new class of NFS was obtained allowing the
learning of the structure in addition to parameter
learning. This Feature represents a great differential in
relation to the traditional NFS, besides overcoming the
limitation in the number of allowed inputs.
In the case studies, the two neurofuzzy models were tested
in 16 differents cases, such as traditional benchmarks and
problems with a greater number of inputs. Among the cases
studied are: the IRIS DATA set; the two spirals problem;
the forecasting of Mackey-Glass chaotic time series; some
diagnosis and classifications problems, found in papers
about machine learning; and a real application involving
load forecasting. The implementation of the two new
neurofuzzy models was carried out using a 32 bit Pascal
compiler for PC microcomputers using DOS or Linux
operating system.
The tests have shown that: these new models are able to
adjust well any data sets; they create its own struture;
they adjust its parameters, presenting a good
generalization performance; and automatically extract the
fuzzy rules. Beyond that, applications with a greater
number of inputs for these neurofuzzy models. In short two
neurofuzzy models were developed with the capability of
structure learning, in addition to parameter learning.
Moreover, these new models have good interpretability
through hierarchical fuzzy rules. They are not black coxes
as the neural networks.

Identiferoai:union.ndltd.org:puc-rio.br/oai:MAXWELL.puc-rio.br:7576
Date13 December 2005
CreatorsFLAVIO JOAQUIM DE SOUZA
ContributorsMARLEY MARIA BERNARDES REBUZZI VELLASCO, MARCO AURELIO CAVALCANTI PACHECO, MARCO AURELIO CAVALCANTI PACHECO
PublisherMAXWELL
Source SetsPUC Rio
LanguagePortuguese
Detected LanguageEnglish
TypeTEXTO

Page generated in 0.0064 seconds