Spelling suggestions: "subject:"computational intelligence"" "subject:"eomputational intelligence""
171 |
Particle swarm optimisation in dynamically changing environments - an empirical studyDuhain, Julien Georges Omer Louis 26 June 2012 (has links)
Real-world optimisation problems often are of a dynamic nature. Recently, much research has been done to apply particle swarm optimisation (PSO) to dynamic environments (DE). However, these research efforts generally focused on optimising one variation of the PSO algorithm for one type of DE. The aim of this work is to develop a more comprehensive view of PSO for DEs. This thesis studies different schemes of characterising and taxonomising DEs, performance measures used to quantify the performance of optimisation algorithms applied to DEs, various adaptations of PSO to apply PSO to DEs, and the effectiveness of these approaches on different DE types. The standard PSO algorithm has shown limitations when applied to DEs. To overcome these limitations, the standard PSO can be modi ed using personal best reevaluation, change detection and response, diversity maintenance, or swarm sub-division and parallel tracking of optima. To investigate the strengths and weaknesses of these approaches, a representative sample of algorithms, namely, the standard PSO, re-evaluating PSO, reinitialising PSO, atomic PSO (APSO), quantum swarm optimisation (QSO), multi-swarm, and self-adapting multi-swarm (SAMS), are empirically analysed. These algorithms are analysed on a range of DE test cases, and their ability to detect and track optima are evaluated using performance measures designed for DEs. The experiments show that QSO, multi-swarm and reinitialising PSO provide the best results. However, the most effective approach to use depends on the dimensionality, modality and type of the DEs, as well as on the objective of the algorithm. A number of observations are also made regarding the behaviour of the swarms, and the influence of certain control parameters of the algorithms evaluated. Copyright / Dissertation (MSc)--University of Pretoria, 2012. / Computer Science / unrestricted
|
172 |
Regularised feed forward neural networks for streamed data classification problemsEllis, Mathys January 2020 (has links)
Streamed data classification problems (SDCPs) require classifiers with the ability to learn and to adjust to the underlying relationships in data streams, in real-time. This requirement poses a challenge to classifiers, because the learning task is no longer just to find the optimal decision boundaries, but also to track changes in the decision boundaries as new training data is received. The challenge is due to concept drift, i.e. the changing of decision boundaries over time. Changes include disappearing, appearing, or shifting decision boundaries. This thesis proposes an online learning approach for feed forward neural networks (FFNNs) that meets the requirements of SDCPs. The approach uses regularisation to optimise the architecture via the weights, and quantum particle swarm optimisation (QPSO) to dynamically adjust the weights. The learning approach is applied to a FFNN, which uses rectified linear activation functions, to form a novel SDCP classifier. The classifier is empirically investigated on several SDCPs. Both weight decay (WD) and weight elimination (WE) are investigated as regularisers. Empirical results show that using QPSO with no regularisation, causes the classifier to completely saturate. However, using QPSO with regularisation enables the classifier to dynamically adapt both its implicit architecture and weights as decision boundaries change. Furthermore, the results favour WE over WD as a regulariser for QPSO. / Dissertation (MSc)--University of Pretoria, 2020. / National Research Foundation (NRF) / Computer Science / MSc / Unrestricted
|
173 |
A generic neural network framework using design patternsVan der Stockt, Stefan Aloysius Gert 28 August 2008 (has links)
Designing object-oriented software is hard, and designing reusable object-oriented software is even harder. This task is even more daunting for a developer of computational intelligence applications, as optimising one design objective tends to make others inefficient or even impossible. Classic examples in computer science include ‘storage vs. time’ and ‘simplicity vs. flexibility.’ Neural network requirements are by their very nature very tightly coupled – a required design change in one area of an existing application tends to have severe effects in other areas, making the change impossible or inefficient. Often this situation leads to a major redesign of the system and in many cases a completely rewritten application. Many commercial and open-source packages do exist, but these cannot always be extended to support input from other fields of computational intelligence due to proprietary reasons or failing to fully take all design requirements into consideration. Design patterns make a science out of writing software that is modular, extensible and efficient as well as easy to read and understand. The essence of a design pattern is to avoid repeatedly solving the same design problem from scratch by reusing a solution that solves the core problem. This pattern or template for the solution has well understood prerequisites, structure, properties, behaviour and consequences. CILib is a framework that allows developers to develop new computational intelligence applications quickly and efficiently. Flexibility, reusability and clear separation between components are maximised through the use of design patterns. Reliability is also ensured as the framework is open source and thus has many people that collaborate to ensure that the framework is well designed and error free. This dissertation discusses the design and implementation of a generic neural network framework that allows users to design, implement and use any possible neural network models and algorithms in such a way that they can reuse and be reused by any other computational intelligence algorithm in the rest of the framework, or any external applications. This is achieved by using object-oriented design patterns in the design of the framework. / Dissertation (MSc)--University of Pretoria, 2007. / Computer Science / unrestricted
|
174 |
[en] INFERENCE OF THE QUALITY OF DESTILLATION PRODUCTS USING ARTIFICIAL NEURAL NETS AND FILTER OF EXTENDED KALMAN / [pt] INFERÊNCIA DA QUALIDADE DE PRODUTOS DE DESTILAÇÃO UTILIZANDO REDES NEURAIS ARTIFICIAIS E FILTRO DE KALMAN ESTENDIDOLEONARDO GUILHERME CAETANO CORREA 19 December 2005 (has links)
[pt] Atualmente cresce o interesse científico e industrial na elaboração de
métodos de controle não lineares. Porém, estes modelos costumam ter difícil
implementação e um custo elevado até que se obtenha uma ferramenta de
controle confiável. Desta forma, estudos na área de métodos de apoio à decisão
procuram desenvolver aplicações inteligentes com custos reduzidos, capazes de
executar controles industriais avançados com excelentes resultados, como no
caso da indústria petroquímica. Na destilação de derivados de petróleo, por
exemplo, é comum fazer uso de análises laboratoriais de amostras para
identificar se uma substância está com suas características físico-químicas
dentro das normas internacionais de produção. Além disso, o laudo pericial desta
análise permite regular os instrumentos da planta de produção para que se
consiga um controle mais acurado do processo e, conseqüentemente, um
produto final com maior qualidade. Entretanto, apesar da análise laboratorial ter
maior acurácia nos resultados que avaliam a qualidade do produto final, exige,
às vezes, muitas horas de análise, o que retarda o ajuste dos equipamentos de
produção, reduzindo a eficiência do processo e aumentando o tempo de
produção de certos produtos, que precisam ter sua composição, posteriormente,
corrigida com outros reagentes. Outra desvantagem está relacionada aos custos
de manutenção e calibração dos instrumentos localizados na área de produção,
pois, como estes equipamentos estão instalados em ambientes hostis,
normalmente sofrem uma degradação acelerada, o que pode gerar leituras de
campo erradas, dificultando a ação dos operadores. Em contrapartida, dentre os
métodos inteligentes mais aplicados em processos industriais químicos,
destacam-se as redes neurais artificiais. Esta estrutura se inspira nos neurônios
biológicos e no processamento paralelo do cérebro humano, tendo assim a
capacidade de armazenar e utilizar o conhecimento experimental que for a ela
apresentado. Apesar do bom resultado que a estrutura de redes neurais gera,
existe uma desvantagem relacionada à necessidade de re-treinamento da rede
quando o processo muda seu ponto de operação, ou seja, quando a matériaprima
sofre algum tipo de mudança em suas características físico-químicas.
Como solução para este problema, foi elaborado um método híbrido que busca
reunir as vantagens de uma estrutura de redes neurais com a habilidade de um
filtro estocástico, conhecido por filtro de Kalman estendido. Em termos práticos,
o filtro atua em cima dos pesos sinápticos da rede neural, atualizando os
mesmos em tempo real e permitindo assim que o sistema se adapte
constantemente às variações de mudança de processo. O sistema também faz
uso de pré-processamentos específicos para eliminar ruídos dos instrumentos de
leitura, erros de escalas e incompatibilidade entre os sinais de entrada e saída
do sistema, que foram armazenados em freqüências distintas; o primeiro em
minutos e o segundo em horas. Além disso, foram aplicadas técnicas de seleção
de variáveis para melhorar o desempenho da rede neural no que diz respeito ao
erro de inferência e ao tempo de processamento. O desempenho do método foi
avaliado em cada etapa elaborada através de diferentes grupos de testes
utilizados para verificar o que cada uma delas agregou ao resultado final. O teste
mais importante, executado para avaliar a resposta da metodologia proposta em
relação a uma rede neural simples, foi o de mudança de processo. Para isso, a
rede foi submetida a um grupo de teste com amostras dos sinais de saída
somados a um sinal tipo rampa. Os experimentos mostraram que o sistema,
utilizando redes neurais simples, apresentou um resultado com erros MAPE em
torno de 1,66%. Por outro lado, ao utilizar redes neurais associadas ao filtro de
Kalman estendido, o erro cai à metade, ficando em torno de 0,8%. Isto comprova
que, além do filtro de Kalman não destruir a qualidade da rede neural original,
ele consegue adaptá-la a mudanças de processo, permitindo, assim, que a
variável de saída seja inferida adequadamente sem a necessidade de retreinamento
da rede. / [en] Nowadays, scientific and industrial interest on the
development of nonlinear
control systems increases day after day. However, before
these models
become reliable, they must pass through a hard and
expensive implementation
process. In this way, studies involving decision support
methods try to develop
low cost intelligent applications to build up advanced
industrial control systems
with excellent results, as in the petrochemical industry.
In the distillation of oil
derivatives, for example, it is very common the use of
laboratorial sample
analysis to identify if a substance has its physical-
chemistry characteristics in
accordance to international production rules. Besides, the
analyses results allow
the adjustment of production plant instruments, so that
the process reaches a
thorough control, and, consequently, a final product with
higher quality. However,
although laboratory analyses are more accurate to evaluate
final product quality,
sometimes it demands many hours of analysis, delaying the
adjustments in the
production equipment. In this manner, the process
efficiency is reduced and
some products have its production period increased because
they should have its
composition corrected with other reagents. Another
disadvantage is the
equipments´ maintenance costs and calibration, since these
instruments are
installed in hostile environments that may cause
unaccurate field measurements,
affecting also operator´s action. On the other hand, among
the most applied
intelligent systems in chemical industry process are the
artificial neural networks.
Their structure is based on biological neurons and in the
parallel processing of
the human brain. Thus, they are capable of storing and
employing experimental
knowledge presented to it earlier. Despite good results
presented by neural
network structures, there is a disadvantage related to the
need for retraining
whenever the process changes its operational point, for
example, when the raw
material suffers any change on its physical-chemistry
characteristics. The
proposed solution for this problem is a hybrid method that
joins the advantages of
a neural network structure with the ability of a
stochastic filter, known as
extended Kalman filter. This filter acts in the synaptic
weights, updating them online and allowing the system to
constantly adapt itself to process changes. It also
uses specific pre-processing methods to eliminate scale
mistakes, noises in
instruments readings and incompatibilities between system
input and output,
which are measured with different acquisition frequencies;
the first one in minutes
and the second one in hours. Besides, variable selection
techniques were used
to enhance neural network performance in terms of
inference error and
processing time. The method´s performance was evaluated in
each process step
through different test groups used to verify what each
step contributes to the final
result. The most important test, executed to analyse the
system answer in
relation to a simple neural network, was the one which
simulated process
changes. For that end, the network was submitted to a test
group with output
samples added to a ramp signal. Experiments demonstrated
that a system using
simple neural networks presented results with MAPE error
of about 1,66%. On
the other hand, when using neural networks associated to
an extended Kalman
filter, the error decreases to 0,8%. In this way, it´s
confirmed that Kalman filter
does not destroy the original neural network quality and
also adapts it to process
changes, allowing the output inference without the
necessity of network
retraining.
|
175 |
AI Based Modelling and Optimization of Turning ProcessKulkarni, Ruturaj Jayant 08 1900 (has links)
Indiana University-Purdue University Indianapolis (IUPUI) / In this thesis, Artificial Neural Network (ANN) technique is used to model and simulate the Turning Process. Significant machining parameters (i.e. spindle speed, feed rate, and, depths of cut) and process parameters (surface roughness and cutting forces) are considered. It is shown that Multi-Layer Back Propagation Neural Network is capable to perform this particular task. Design of Experiments approach is used for efficient selection of values of parameters used during experiments to reduce cost and time for experiments. The Particle Swarm Optimization methodology is used for constrained optimization of machining parameters to minimize surface roughness as well as cutting forces. ANN and Particle Swarm Optimization, two computational intelligence techniques when combined together, provide efficient computational strategy for finding optimum solutions. The proposed method is capable of handling multiple parameter optimization problems for processes that have non-linear relationship between input and output parameters e.g. milling, drilling etc. In addition, this methodology provides reliable, fast and efficient tool that can provide suitable solution to many problems faced by manufacturing industry today.
|
176 |
Intelligent methods for complex systems control engineeringAbdullah, Rudwan Ali Abolgasim January 2007 (has links)
This thesis proposes an intelligent multiple-controller framework for complex systems that incorporates a fuzzy logic based switching and tuning supervisor along with a neural network based generalized learning model (GLM). The framework is designed for adaptive control of both Single-Input Single-Output (SISO) and Multi-Input Multi-Output (MIMO) complex systems. The proposed methodology provides the designer with an automated choice of using either: a conventional Proportional-Integral-Derivative (PID) controller, or a PID structure based (simultaneous) Pole and Zero Placement controller. The switching decisions between the two nonlinear fixed structure controllers is made on the basis of the required performance measure using the fuzzy logic based supervisor operating at the highest level of the system. The fuzzy supervisor is also employed to tune the parameters of the multiple-controller online in order to achieve the desired system performance. The GLM for modelling complex systems assumes that the plant is represented by an equivalent model consisting of a linear time-varying sub-model plus a learning nonlinear sub-model based on Radial Basis Function (RBF) neural network. The proposed control design brings together the dominant advantages of PID controllers (such as simplicity in structure and implementation) and the desirable attributes of Pole and Zero Placement controllers (such as stable set-point tracking and ease of parameters’ tuning). Simulation experiments using real-world nonlinear SISO and MIMO plant models, including realistic nonlinear vehicle models, demonstrate the effectiveness of the intelligent multiple-controller with respect to tracking set-point changes, achieve desired speed of response, prevent system output overshooting and maintain minimum variance input and output signals, whilst penalising excessive control actions.
|
177 |
Desenvolvimento artificial autônomo de um grafo sensório-motor auto-organizável. / Artificial autonomous development of a self-organized sensorimotor graph.Muñoz, Mauro Enrique de Souza 02 February 2016 (has links)
A teoria de Jean Piaget sobre o desenvolvimento da inteligência tem sido utilizada na área de inteligência computacional como inspiração para a proposição de modelos de agentes cognitivos. Embora os modelos propostos implementem aspectos básicos importantes da teoria de Piaget, como a estrutura do esquema cognitivo, não consideram o problema da fundamentação simbólica e, portanto, não se preocupam com os aspectos da teoria que levam à aquisição autônoma da semântica básica para a organização cognitiva do mundo externo, como é o caso da aquisição da noção de objeto. Neste trabalho apresentamos um modelo computacional de esquema cognitivo inspirado na teoria de Piaget sobre a inteligência sensório-motora que se desenvolve autonomamente construindo mecanismos por meio de princípios computacionais pautados pelo problema da fundamentação simbólica. O modelo de esquema proposto tem como base a classificação de situações sensório-motoras utilizadas para a percepção, captação e armazenamento das relações causais determiníscas de menor granularidade. Estas causalidades são então expandidas espaço-temporalmente por estruturas mais complexas que se utilizam das anteriores e que também são projetadas de forma a possibilitar que outras estruturas computacionais autônomas mais complexas se utilizem delas. O modelo proposto é implementado por uma rede neural artificial feed-forward cujos elementos da camada de saída se auto-organizam para gerar um grafo sensóriomotor objetivado. Alguns mecanismos computacionais já existentes na área de inteligência computacional foram modificados para se enquadrarem aos paradigmas de semântica nula e do desenvolvimento mental autônomo, tomados como base para lidar com o problema da fundamentação simbólica. O grafo sensório-motor auto-organizável que implementa um modelo de esquema inspirado na teoria de Piaget proposto neste trabalho, conjuntamente com os princípios computacionais utilizados para sua concepção caminha na direção da busca pelo desenvolvimento cognitivo artificial autônomo da noção de objeto. / In artificial intelligence some cognitive agent models based on Jean Piaget\'s intelligence development theory have been proposed. Although the proposed models implement some fundamental aspects of this theory, like the cognitive schema struture, they do not consider the symbol grounding problem. Therefore, they are not concerned about the theoretical aspects that lead to the autonomous aquisition of the basic semantics needed by the cognitive organization of the agent\'s external world, as for the object concept aquisition. A computational cognitive scheme model inspired on Piaget\'s theory of the sensorimotor intelligence is presented. The scheme is autonomously built by computational mechanisms using principles considering the symbol grounding problem. The proposed scheme model uses sensory-motor situations to perceive, capture and store the finest grain deterministic causal relations. These causal relations are then expanded in time and space by more complex computational structures using the first ones. Those complex structures itselves are also designed in a way they can be used by more complex structures, expanding even further the causal relations in time and space. The proposed scheme model is implemented by an artificial neural network using feedforward architecture. The neural network output layer units progressively organized to compose a sensory-motor graph. Some known computational mechanisms from artificial inteligence were modified to fit to the zero semantic and the autonomous mental development paradigms, conceived in this work as the premises to handle the symbol grounding problem. The scheme model inspired by Piaget\'s theory implemented by the proposed self organizing sensorimotor graph in conjunction with the computational principles used, goes toward to the artificial autonomous cognitive development of the object concept.
|
178 |
[en] PATCH LOAD RESISTANCE USING COMPUTATIONAL INTELLIGENCE TECHNIQUES / [pt] COMPORTAMENTO DE VIGAS DE AÇO SUJEITAS A CARGAS CONCENTRADAS ATRAVÉS DE TÉCNICAS DE INTELIGÊNCIA COMPUTACIONALELAINE TOSCANO FONSECA FALCAO DA SILVA 15 January 2004 (has links)
[pt] As cargas concentradas em vigas de aço são freqüentemente
encontradas na prática. Nas situações onde o local de
aplicação da carga é fixo, enrijecedores transversais de
alma podem ser usados para aumentar a sua resistência, mas
devem ser evitados por razões econômicas. Para cargas
móveis, é fundamental conhecer a resistência última das
almas não enrijecidas. Diversas teorias foram
desenvolvidas para este problema, mas ainda assim, o erro
das fórmulas de previsão é superior a 40%. Duas são as
causas desta dificuldade de se encontrar uma equação mais
precisa: o grande número de parâmetros que influenciam o
comportamento de uma viga sujeita a cargas concentradas, e
o número insuficiente de dados experimentais presentes na
literatura. Por outro lado, o colapso da estrutura pode
ocorrer por: plastificação, flambagem global da alma,
enrugamento (crippling) ou uma combinação destes estados
limites. Apesar disto, nenhum estudo foi desenvolvido para
avaliar a participação total ou parcial de cada
comportamento no colapso. As redes neurais são modelos
computacionais inspirados na estrutura do cérebro, que
apresentam características humanas como o aprendizado por
experiência e a generalização do conhecimento a partir dos
exemplos apresentados. Estas características permitiram,
em estudos preliminares, a utilização das redes neurais na
previsão da carga última de vigas de aço sujeitas a
cargas concentradas. A Lógica Nebulosa tem como objetivo
modelar o modo aproximado de raciocínio, tentando imitar a
habilidade humana de tomar decisões racionais em um
ambiente de incerteza e imprecisão. Deste modo, a Lógica
Nebulosa é uma técnica inteligente que fornece um
mecanismo para manipular informações imprecisas, como
conceitos de esbeltez, compacidade, flexibilidade e
rigidez, além de estabelecer limites mais graduais entre
os fenômenos físicos do problema. Os Algoritmos Genéticos
foram inspirados no princípio Darwiniano da evolução das
espécies (sobrevivência dos mais aptos e mutações) e na
genética. São algoritmos probabilísticos, que fornecem um
mecanismo de busca paralela e adaptativa, e têm sido
empregados em diversos problemas de otimização. Este
trabalho é a continuação do estudo desenvolvido na
dissertação de mestrado (Fonseca, 1999) e tem o objetivo
de propor um sistema de avaliação do comportamento
estrutural de cargas concentradas, através de uma
identificação da influência dos diversos parâmetros na
carga e nos tipos de comportamento resultantes
(plastificação, enrugamento e flambagem global),
estabelecendo limites mais flexíveis entre cada um destes.
Esta análise será executada empregando um sistema neuro-
fuzzy (híbrido de redes neurais e de lógica nebulosa).
Para viabilizar esta análise, torna-se necessária a
apresentação de dados de treinamento onde o comportamento
estrutural é conhecido. Este trabalho também apresenta um
estudo de otimização das fórmulas de projeto existentes
empregando algoritmos genéticos. Os resultados obtidos
neste trabalho contribuem para, no futuro, o
desenvolvimento de uma fórmula de projeto mais precisa. De
posse desta nova fórmula, uma sugestão para sua
incorporação em normas de projeto de estruturas de aço
poderá ser feita, garantindo, desta forma, um
dimensionamento mais seguro e econômico. / [en] Concentrated loads on steel beams are frequently found in
engineering practice. In situations where the load
application point is fixed, transversal web stiffeners can
be used to provide an adequate resistance, but for
economic reasons should be avoided whenever possible. For
moving loads, the knowledge of the unstiffened web
resistance becomes imperative. Many theories were
developed for a better understanding of the problem,
however, a 40% error is still present in the current
design formulas. A more accurate design formula for this
structural problem is very difficult to be obtained, due
to the influence of several interdependent parameters and
to the insufficient number of experiments found in
literature. On the other hand, the structural collapse can
be associated to: web yielding, web buckling, web
crippling or by their combined influence. Despite this
fact, no investigations were found in literature to access
their partial of global influence on the beam patch load
resistance Neural networks were inspired in the brain
structure in order to present human characteristics such
as: learning from experience; and generalization of new
data from a current set of standards. Preliminary studies
used the neural networks potential to forecast the
ultimate load of steel beams subjected to concentrated
loads. The main aim of Fuzzy Logic is to model the complex
approximated way of inference, trying to represent the
human ability of making sensible decisions when facing
uncertainties. Thus, fuzzy logic is an artificial
intelligence technique capable of generating a mechanism
for treating inaccurate and incomplete information such
as: slenderness, flexibility and stiffness, still being
capable of establishing gradual boundaries among the
physical phenomena involved. Genetic algorithms are
inspired on the Darwins principle of the species
evolution and genetics. They are probabilistic algorithms
that generate a mechanism of parallel and adaptive best
fit survival principle and their reproduction and have
been long used in several optimisation problems. This work
extends the research developed in a previous MSc. program
(Fonseca, 1999) and intends to evaluate and investigate
the structural behaviour of steel beams subjected to
concentrated loads, identifying the influence of several
related parameters. This will be achieved by the use of a
neuro-fuzzy system, able to model the intrinsic
relationships between the related parameters. The proposed
system aim is to relate the physical and geometrical
variables that govern the ultimate load with its
associated physical behaviour (web yielding, web crippling
and web buckling), being capable of establishing gradual
boundaries among the physical phenomena involved. This
investigation was focused on the development of a neuro
fuzzy system. The proposed neuro fuzzy system was trained
with data where the collapse mechanism were properly
identified validating its results. This investigation also
presents a study of patch load design formulae optimization
based on genetic algorithm principles. The obtained
results may help the future development of a more accurate
design formula, that could be incorporated in steel
structures design codes, allowing a safer and economical
design.
|
179 |
Modelos de agrupamento e classificação para os bairros da cidade do Rio de Janeiro sob a ótica da Inteligência Computacional: Lógica Fuzzy, Máquinas de Vetores Suporte e Algoritmos Genéticos / Clustering and classification models for the neighborhoods of the city of Rio de Janeiro from the perspective of Computational Intelligence: Fuzzy Logic, Support Vector Machine and Genetic AlgorithmsNatalie Henriques Martins 19 June 2015 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial
quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
|
180 |
Algoritmos de inteligência computacional utilizados na detecção de fraudes nas redes de distribuição de energia elétrica / Fraud detection in distribution networks using computacional intelligence algorithmsQueiroz, Altamira de Souza 19 February 2016 (has links)
Made available in DSpace on 2017-07-10T16:41:32Z (GMT). No. of bitstreams: 1
Dissertacao Altamira Queiroz2.pdf: 2299194 bytes, checksum: 07ecb127ebc11ad21a0cb551e23c2f1b (MD5)
Previous issue date: 2016-02-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / One of the main problems currently faced by electric utilities is the occurrence of energy losses
in the distribution network caused by fraud and electricity theft. Because of the financial
losses and risks to public safety, the development of solutions to detect and combat fraud in the
distribution networks is of the utmost importance. This work presents an analysis of computational
intelligence algorithms to extract knowledge in databases with information from monthly
energy consumption to identify consumption patterns with anomalies which could represent
fraud. The algorithms Artificial Neural Networks and Support Vector Machines were tested
to see which one perform better on the identification consumption patterns with abnormalities.
Tests have shown that the algorithms used are able to detect patterns in electricity consumption
curves, including special situations of fraud that manual techniques did not detect. / Um dos principais problemas que enfrentam atualmente as empresas concessionárias de energia
elétrica é a ocorrência de perdas de energia na rede de distribuição, causadas por fraudes e furtos
de energia elétrica. Sendo que tais problemas provocam prejuízos financeiros e também colocam
em risco a segurança pública, é de grande interesse das concessionárias encontrar soluções
para detectar e combater fraudes nas redes de distribuição de energia elétrica. Neste conceito,
o presente trabalho apresenta uma análise dos algoritmos de Inteligência Computacional para
extrair conhecimento de bases de dados de informações de consumo mensal de energia elétricas
de usuários de uma determinada concessionária, a fim de identificar padrões de consumo com
anomalias que representem possíveis fraudes nas redes de distribuição de energia elétrica. Para
detectar padrões nas curvas de consumo, foram utilizados algoritmos de Redes Neurais Artificiais
e Máquinas de Vetores de Suporte. Após a criação dos modelos, estes foram testados para
verificar qual seria o melhor algoritmo para a detecção de padrões de consumo com anomalias,
e os resultados obtidos, foram então, comparados com uma base de dados fornecida pela concessionária
com a verificação manual dos usuários. Os testes demonstraram que os algoritmos
utilizados são capazes de detectar padrões nas curvas de consumo de energia elétrica, inclusive
detectando situações especiais de fraudes que técnicas manuais não detectaram.
|
Page generated in 0.123 seconds