• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • Tagged with
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] HIERARCHICAL NEURO-FUZZY MODELS / [pt] MODELOS NEURO-FUZZY HIERÁRQUICOS

FLAVIO JOAQUIM DE SOUZA 13 December 2005 (has links)
[pt] Esta dissertação apresenta uma nova proposta de sistemas (modelos) neuro-fuzzy que possuem, além do tradicional aprendizado dos parâmetros, comuns às redes neurais e aos sistemas nero-fuzzy, as seguintes características: aprendizado de estrutura, a partir do uso de particionamentos recursisvos; número maior de entradas que o comumente encontrado nos sistemas neuro-fuzzy; e regras com hierarquia. A definição da estrutura é uma necessidade que surge quando da implementação de um determinado modelo. Pode-se citar o caso das redes neurais, em que se deve determinar (ou arbitrar) a priori sua estrutura (número de camadas e quantidade de neurônios por camadas) antes de qualquer teste. Um método automático de aprendizado da estrutura é, portanto, uma característica importante em qualquer modelo. Um sistema que também permita o uso de um número maior de entradas é interessante para se abranger um maior número de aplicações. As regras com hierarquia são um subproduto do método de aprendizado de estrutura desenvolvido nestes novos modelos. O trabalho envolveu três partes principais: um levantamento sobre os sistemas neuro-fuzzy existentes e sobre os métodos mais comuns de ajuste de parâmetros; a definição e implementação de dois modelos neuro-fuzzy hierárquicos; e o estudo de casos. No estudo sobre os sistemas neuro-fuzzy(SNF) fez-se um levantamento na bibliografia da área sobre as características principais desses sistemas, incluindo suas virtudes e deficiências. Este estudo gerou a proposta de uma taxonomia para os SNF, em função das características fuzzy neurais. Em virtude deste estudo constataram-se limitações quanto à capacidade de criação de sua própria estrutura e quanto ao número reduzido de entradas possíveis. No que se refere aos métodos de ajuste dos parâmetros abordou-se os métodos mais comuns utilizados nos SNF, a saber: o método dos mínimos quadrados com sua solução através de métodos numéricos iterativos; e o método gradient descent e seus derivados como o BackPropagation e o RProp(Resilient BackPropagation). A definição dos dois novos modelos neuro-fuzzy foi feita a partir do estudo das características desejáveis e das limitações dos SNF até então desenvolvidos. Observou-se que a base de regras dos SNF juntamente com os seus formatos de particionamento dos espaços de entrada e saída têm grande influência sobre o desempenho e as limitações destes modelos. Assim sendo, decidiu-se utilizar uma nova forma de particionamento que eliminasse ou reduzisse as limitações existentes- os particionamentos recursivos. Optou-se pelo uso dos particionamentos Quadtree e BSP, gerando os dois modelos NFHQ (Neuro-Fuzzy Hierárquico Quadree) e NFHB (Neiro-Fuzzy Hierárquico BSP). Com o uso de particionamentos obteve-se um nova classe de SNF que permitiu além do aprendizado dos parâmetros, também o aprendizado dos parâmetros. Isto representa um grande diferencial em relação aos SNF tradicionais, além do fato de se conseguir extender o limite do número de entradas possíveis para estes sistemas. No estudo de casos, os dois modelos neurofuzzy hierárquicos foram testados 16 casos diferentes, entre as aplicações benchmarks mais tradicionais da área e problemas com maior número de entradas. Entre os casos estudados estão: o conjunto de dados IRIS; o problema das duas espirais; a previsão da série caótica de Mackey- Glass; alguns sistemas de diagnóstico e classificação gerados a partir de conjuntos de dados comumente utilizados em artigos de machine learning e uma aplicação de previsão de carga elétrica. A implementação dos dois novos modelos neuro-fuzzy foi efetuada em linguagem pascal e com o uso de um compilador de 32 bits para micros da linha PC (Pentium) com sistema operacional DOS 32 bits, Windows, ou Linux. Os testes efetuados demostraram que: esses novos modelos se ajustam bem a qualquer conjunto de dados; geram sua própria estrutura; ajustam seus parâmetros com boa generalização e extraem / [en] This dissertation presents a new proposal of neurofuzzy systems (models), which present, in addition to the learning capacity (which are common to the neural networks and neurofuzzy systems) the following features: learning of the structure; the use of recursive partitioning; a greater number of inputs than usually allowed in neurofuzzy systems; and hierarchical rules. The structure´s definition is needed when implementing a certain model. In the neural network case, for example, one must, first of all, estabilish its structure (number of layers and number of neurons per layers) before any test is performed. So, an important feature for any model is the existence of an automatic learning method for creating its structure. A system that allows a larger number of inputs is also important, in order to extend the range of possible applications. The hierarchical rules feature results from the structure learning method developed for these two models. The work has involved three main parts: study of the existing neurofuzzy systems and of the most commom methods to adjust its parameters; definition and implementation of two hierarchical neurofuzzy models; and case studies. The study of neurofuzzy systems (NFS) was accomplished by creating a survey on this area, including advantages, drawbacks and the main features of NFS. A taxonomy about NFS was then proposed, taking into account the neural and fuzzy features of the existing systems. This study pointed out the limitations of neurofuzzy systems, mainly their poor capability of creating its own structure and the reduced number of allowed inputs. The study of the methods for parameter adjustment has focused on the following algorithms: Least Square estimator (LSE) and its solutions by numerical iterative methods; and the basic gradient descent method and its offsprings such as Backpropagation and Rprop (Resilient Backpropagation). The definition of two new neurofuzzy models was accomplished by considering desirable features and limitations of the existing NFS. It was observed that the partitioning formats and rule basis of the NFS have great influence on its performance and limitations. Thus, the decision to use a new partitioning method to remove or reduce the existing limitations - the recursive partitioning. The Quadtree and BSP partitioning were then adopted, generating the so called Quadree Hierarchical Neurofuzzy model (NFHQ) and the BSP hierarchical Neurofuzzy model (NFHB). By using these kind os partitioning a new class of NFS was obtained allowing the learning of the structure in addition to parameter learning. This Feature represents a great differential in relation to the traditional NFS, besides overcoming the limitation in the number of allowed inputs. In the case studies, the two neurofuzzy models were tested in 16 differents cases, such as traditional benchmarks and problems with a greater number of inputs. Among the cases studied are: the IRIS DATA set; the two spirals problem; the forecasting of Mackey-Glass chaotic time series; some diagnosis and classifications problems, found in papers about machine learning; and a real application involving load forecasting. The implementation of the two new neurofuzzy models was carried out using a 32 bit Pascal compiler for PC microcomputers using DOS or Linux operating system. The tests have shown that: these new models are able to adjust well any data sets; they create its own struture; they adjust its parameters, presenting a good generalization performance; and automatically extract the fuzzy rules. Beyond that, applications with a greater number of inputs for these neurofuzzy models. In short two neurofuzzy models were developed with the capability of structure learning, in addition to parameter learning. Moreover, these new models have good interpretability through hierarchical fuzzy rules. They are not black coxes as the neural networks.

Page generated in 0.0338 seconds