• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 69
  • 16
  • 9
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 211
  • 211
  • 64
  • 52
  • 50
  • 50
  • 48
  • 48
  • 46
  • 33
  • 32
  • 32
  • 31
  • 28
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Particle swarm optimisation in dynamically changing environments - an empirical study

Duhain, Julien Georges Omer Louis 26 June 2012 (has links)
Real-world optimisation problems often are of a dynamic nature. Recently, much research has been done to apply particle swarm optimisation (PSO) to dynamic environments (DE). However, these research efforts generally focused on optimising one variation of the PSO algorithm for one type of DE. The aim of this work is to develop a more comprehensive view of PSO for DEs. This thesis studies different schemes of characterising and taxonomising DEs, performance measures used to quantify the performance of optimisation algorithms applied to DEs, various adaptations of PSO to apply PSO to DEs, and the effectiveness of these approaches on different DE types. The standard PSO algorithm has shown limitations when applied to DEs. To overcome these limitations, the standard PSO can be modi ed using personal best reevaluation, change detection and response, diversity maintenance, or swarm sub-division and parallel tracking of optima. To investigate the strengths and weaknesses of these approaches, a representative sample of algorithms, namely, the standard PSO, re-evaluating PSO, reinitialising PSO, atomic PSO (APSO), quantum swarm optimisation (QSO), multi-swarm, and self-adapting multi-swarm (SAMS), are empirically analysed. These algorithms are analysed on a range of DE test cases, and their ability to detect and track optima are evaluated using performance measures designed for DEs. The experiments show that QSO, multi-swarm and reinitialising PSO provide the best results. However, the most effective approach to use depends on the dimensionality, modality and type of the DEs, as well as on the objective of the algorithm. A number of observations are also made regarding the behaviour of the swarms, and the influence of certain control parameters of the algorithms evaluated. Copyright / Dissertation (MSc)--University of Pretoria, 2012. / Computer Science / unrestricted
172

Regularised feed forward neural networks for streamed data classification problems

Ellis, Mathys January 2020 (has links)
Streamed data classification problems (SDCPs) require classifiers with the ability to learn and to adjust to the underlying relationships in data streams, in real-time. This requirement poses a challenge to classifiers, because the learning task is no longer just to find the optimal decision boundaries, but also to track changes in the decision boundaries as new training data is received. The challenge is due to concept drift, i.e. the changing of decision boundaries over time. Changes include disappearing, appearing, or shifting decision boundaries. This thesis proposes an online learning approach for feed forward neural networks (FFNNs) that meets the requirements of SDCPs. The approach uses regularisation to optimise the architecture via the weights, and quantum particle swarm optimisation (QPSO) to dynamically adjust the weights. The learning approach is applied to a FFNN, which uses rectified linear activation functions, to form a novel SDCP classifier. The classifier is empirically investigated on several SDCPs. Both weight decay (WD) and weight elimination (WE) are investigated as regularisers. Empirical results show that using QPSO with no regularisation, causes the classifier to completely saturate. However, using QPSO with regularisation enables the classifier to dynamically adapt both its implicit architecture and weights as decision boundaries change. Furthermore, the results favour WE over WD as a regulariser for QPSO. / Dissertation (MSc)--University of Pretoria, 2020. / National Research Foundation (NRF) / Computer Science / MSc / Unrestricted
173

A generic neural network framework using design patterns

Van der Stockt, Stefan Aloysius Gert 28 August 2008 (has links)
Designing object-oriented software is hard, and designing reusable object-oriented software is even harder. This task is even more daunting for a developer of computational intelligence applications, as optimising one design objective tends to make others inefficient or even impossible. Classic examples in computer science include ‘storage vs. time’ and ‘simplicity vs. flexibility.’ Neural network requirements are by their very nature very tightly coupled – a required design change in one area of an existing application tends to have severe effects in other areas, making the change impossible or inefficient. Often this situation leads to a major redesign of the system and in many cases a completely rewritten application. Many commercial and open-source packages do exist, but these cannot always be extended to support input from other fields of computational intelligence due to proprietary reasons or failing to fully take all design requirements into consideration. Design patterns make a science out of writing software that is modular, extensible and efficient as well as easy to read and understand. The essence of a design pattern is to avoid repeatedly solving the same design problem from scratch by reusing a solution that solves the core problem. This pattern or template for the solution has well understood prerequisites, structure, properties, behaviour and consequences. CILib is a framework that allows developers to develop new computational intelligence applications quickly and efficiently. Flexibility, reusability and clear separation between components are maximised through the use of design patterns. Reliability is also ensured as the framework is open source and thus has many people that collaborate to ensure that the framework is well designed and error free. This dissertation discusses the design and implementation of a generic neural network framework that allows users to design, implement and use any possible neural network models and algorithms in such a way that they can reuse and be reused by any other computational intelligence algorithm in the rest of the framework, or any external applications. This is achieved by using object-oriented design patterns in the design of the framework. / Dissertation (MSc)--University of Pretoria, 2007. / Computer Science / unrestricted
174

[en] INFERENCE OF THE QUALITY OF DESTILLATION PRODUCTS USING ARTIFICIAL NEURAL NETS AND FILTER OF EXTENDED KALMAN / [pt] INFERÊNCIA DA QUALIDADE DE PRODUTOS DE DESTILAÇÃO UTILIZANDO REDES NEURAIS ARTIFICIAIS E FILTRO DE KALMAN ESTENDIDO

LEONARDO GUILHERME CAETANO CORREA 19 December 2005 (has links)
[pt] Atualmente cresce o interesse científico e industrial na elaboração de métodos de controle não lineares. Porém, estes modelos costumam ter difícil implementação e um custo elevado até que se obtenha uma ferramenta de controle confiável. Desta forma, estudos na área de métodos de apoio à decisão procuram desenvolver aplicações inteligentes com custos reduzidos, capazes de executar controles industriais avançados com excelentes resultados, como no caso da indústria petroquímica. Na destilação de derivados de petróleo, por exemplo, é comum fazer uso de análises laboratoriais de amostras para identificar se uma substância está com suas características físico-químicas dentro das normas internacionais de produção. Além disso, o laudo pericial desta análise permite regular os instrumentos da planta de produção para que se consiga um controle mais acurado do processo e, conseqüentemente, um produto final com maior qualidade. Entretanto, apesar da análise laboratorial ter maior acurácia nos resultados que avaliam a qualidade do produto final, exige, às vezes, muitas horas de análise, o que retarda o ajuste dos equipamentos de produção, reduzindo a eficiência do processo e aumentando o tempo de produção de certos produtos, que precisam ter sua composição, posteriormente, corrigida com outros reagentes. Outra desvantagem está relacionada aos custos de manutenção e calibração dos instrumentos localizados na área de produção, pois, como estes equipamentos estão instalados em ambientes hostis, normalmente sofrem uma degradação acelerada, o que pode gerar leituras de campo erradas, dificultando a ação dos operadores. Em contrapartida, dentre os métodos inteligentes mais aplicados em processos industriais químicos, destacam-se as redes neurais artificiais. Esta estrutura se inspira nos neurônios biológicos e no processamento paralelo do cérebro humano, tendo assim a capacidade de armazenar e utilizar o conhecimento experimental que for a ela apresentado. Apesar do bom resultado que a estrutura de redes neurais gera, existe uma desvantagem relacionada à necessidade de re-treinamento da rede quando o processo muda seu ponto de operação, ou seja, quando a matériaprima sofre algum tipo de mudança em suas características físico-químicas. Como solução para este problema, foi elaborado um método híbrido que busca reunir as vantagens de uma estrutura de redes neurais com a habilidade de um filtro estocástico, conhecido por filtro de Kalman estendido. Em termos práticos, o filtro atua em cima dos pesos sinápticos da rede neural, atualizando os mesmos em tempo real e permitindo assim que o sistema se adapte constantemente às variações de mudança de processo. O sistema também faz uso de pré-processamentos específicos para eliminar ruídos dos instrumentos de leitura, erros de escalas e incompatibilidade entre os sinais de entrada e saída do sistema, que foram armazenados em freqüências distintas; o primeiro em minutos e o segundo em horas. Além disso, foram aplicadas técnicas de seleção de variáveis para melhorar o desempenho da rede neural no que diz respeito ao erro de inferência e ao tempo de processamento. O desempenho do método foi avaliado em cada etapa elaborada através de diferentes grupos de testes utilizados para verificar o que cada uma delas agregou ao resultado final. O teste mais importante, executado para avaliar a resposta da metodologia proposta em relação a uma rede neural simples, foi o de mudança de processo. Para isso, a rede foi submetida a um grupo de teste com amostras dos sinais de saída somados a um sinal tipo rampa. Os experimentos mostraram que o sistema, utilizando redes neurais simples, apresentou um resultado com erros MAPE em torno de 1,66%. Por outro lado, ao utilizar redes neurais associadas ao filtro de Kalman estendido, o erro cai à metade, ficando em torno de 0,8%. Isto comprova que, além do filtro de Kalman não destruir a qualidade da rede neural original, ele consegue adaptá-la a mudanças de processo, permitindo, assim, que a variável de saída seja inferida adequadamente sem a necessidade de retreinamento da rede. / [en] Nowadays, scientific and industrial interest on the development of nonlinear control systems increases day after day. However, before these models become reliable, they must pass through a hard and expensive implementation process. In this way, studies involving decision support methods try to develop low cost intelligent applications to build up advanced industrial control systems with excellent results, as in the petrochemical industry. In the distillation of oil derivatives, for example, it is very common the use of laboratorial sample analysis to identify if a substance has its physical- chemistry characteristics in accordance to international production rules. Besides, the analyses results allow the adjustment of production plant instruments, so that the process reaches a thorough control, and, consequently, a final product with higher quality. However, although laboratory analyses are more accurate to evaluate final product quality, sometimes it demands many hours of analysis, delaying the adjustments in the production equipment. In this manner, the process efficiency is reduced and some products have its production period increased because they should have its composition corrected with other reagents. Another disadvantage is the equipments´ maintenance costs and calibration, since these instruments are installed in hostile environments that may cause unaccurate field measurements, affecting also operator´s action. On the other hand, among the most applied intelligent systems in chemical industry process are the artificial neural networks. Their structure is based on biological neurons and in the parallel processing of the human brain. Thus, they are capable of storing and employing experimental knowledge presented to it earlier. Despite good results presented by neural network structures, there is a disadvantage related to the need for retraining whenever the process changes its operational point, for example, when the raw material suffers any change on its physical-chemistry characteristics. The proposed solution for this problem is a hybrid method that joins the advantages of a neural network structure with the ability of a stochastic filter, known as extended Kalman filter. This filter acts in the synaptic weights, updating them online and allowing the system to constantly adapt itself to process changes. It also uses specific pre-processing methods to eliminate scale mistakes, noises in instruments readings and incompatibilities between system input and output, which are measured with different acquisition frequencies; the first one in minutes and the second one in hours. Besides, variable selection techniques were used to enhance neural network performance in terms of inference error and processing time. The method´s performance was evaluated in each process step through different test groups used to verify what each step contributes to the final result. The most important test, executed to analyse the system answer in relation to a simple neural network, was the one which simulated process changes. For that end, the network was submitted to a test group with output samples added to a ramp signal. Experiments demonstrated that a system using simple neural networks presented results with MAPE error of about 1,66%. On the other hand, when using neural networks associated to an extended Kalman filter, the error decreases to 0,8%. In this way, it´s confirmed that Kalman filter does not destroy the original neural network quality and also adapts it to process changes, allowing the output inference without the necessity of network retraining.
175

AI Based Modelling and Optimization of Turning Process

Kulkarni, Ruturaj Jayant 08 1900 (has links)
Indiana University-Purdue University Indianapolis (IUPUI) / In this thesis, Artificial Neural Network (ANN) technique is used to model and simulate the Turning Process. Significant machining parameters (i.e. spindle speed, feed rate, and, depths of cut) and process parameters (surface roughness and cutting forces) are considered. It is shown that Multi-Layer Back Propagation Neural Network is capable to perform this particular task. Design of Experiments approach is used for efficient selection of values of parameters used during experiments to reduce cost and time for experiments. The Particle Swarm Optimization methodology is used for constrained optimization of machining parameters to minimize surface roughness as well as cutting forces. ANN and Particle Swarm Optimization, two computational intelligence techniques when combined together, provide efficient computational strategy for finding optimum solutions. The proposed method is capable of handling multiple parameter optimization problems for processes that have non-linear relationship between input and output parameters e.g. milling, drilling etc. In addition, this methodology provides reliable, fast and efficient tool that can provide suitable solution to many problems faced by manufacturing industry today.
176

Intelligent methods for complex systems control engineering

Abdullah, Rudwan Ali Abolgasim January 2007 (has links)
This thesis proposes an intelligent multiple-controller framework for complex systems that incorporates a fuzzy logic based switching and tuning supervisor along with a neural network based generalized learning model (GLM). The framework is designed for adaptive control of both Single-Input Single-Output (SISO) and Multi-Input Multi-Output (MIMO) complex systems. The proposed methodology provides the designer with an automated choice of using either: a conventional Proportional-Integral-Derivative (PID) controller, or a PID structure based (simultaneous) Pole and Zero Placement controller. The switching decisions between the two nonlinear fixed structure controllers is made on the basis of the required performance measure using the fuzzy logic based supervisor operating at the highest level of the system. The fuzzy supervisor is also employed to tune the parameters of the multiple-controller online in order to achieve the desired system performance. The GLM for modelling complex systems assumes that the plant is represented by an equivalent model consisting of a linear time-varying sub-model plus a learning nonlinear sub-model based on Radial Basis Function (RBF) neural network. The proposed control design brings together the dominant advantages of PID controllers (such as simplicity in structure and implementation) and the desirable attributes of Pole and Zero Placement controllers (such as stable set-point tracking and ease of parameters’ tuning). Simulation experiments using real-world nonlinear SISO and MIMO plant models, including realistic nonlinear vehicle models, demonstrate the effectiveness of the intelligent multiple-controller with respect to tracking set-point changes, achieve desired speed of response, prevent system output overshooting and maintain minimum variance input and output signals, whilst penalising excessive control actions.
177

Desenvolvimento artificial autônomo de um grafo sensório-motor auto-organizável. / Artificial autonomous development of a self-organized sensorimotor graph.

Muñoz, Mauro Enrique de Souza 02 February 2016 (has links)
A teoria de Jean Piaget sobre o desenvolvimento da inteligência tem sido utilizada na área de inteligência computacional como inspiração para a proposição de modelos de agentes cognitivos. Embora os modelos propostos implementem aspectos básicos importantes da teoria de Piaget, como a estrutura do esquema cognitivo, não consideram o problema da fundamentação simbólica e, portanto, não se preocupam com os aspectos da teoria que levam à aquisição autônoma da semântica básica para a organização cognitiva do mundo externo, como é o caso da aquisição da noção de objeto. Neste trabalho apresentamos um modelo computacional de esquema cognitivo inspirado na teoria de Piaget sobre a inteligência sensório-motora que se desenvolve autonomamente construindo mecanismos por meio de princípios computacionais pautados pelo problema da fundamentação simbólica. O modelo de esquema proposto tem como base a classificação de situações sensório-motoras utilizadas para a percepção, captação e armazenamento das relações causais determiníscas de menor granularidade. Estas causalidades são então expandidas espaço-temporalmente por estruturas mais complexas que se utilizam das anteriores e que também são projetadas de forma a possibilitar que outras estruturas computacionais autônomas mais complexas se utilizem delas. O modelo proposto é implementado por uma rede neural artificial feed-forward cujos elementos da camada de saída se auto-organizam para gerar um grafo sensóriomotor objetivado. Alguns mecanismos computacionais já existentes na área de inteligência computacional foram modificados para se enquadrarem aos paradigmas de semântica nula e do desenvolvimento mental autônomo, tomados como base para lidar com o problema da fundamentação simbólica. O grafo sensório-motor auto-organizável que implementa um modelo de esquema inspirado na teoria de Piaget proposto neste trabalho, conjuntamente com os princípios computacionais utilizados para sua concepção caminha na direção da busca pelo desenvolvimento cognitivo artificial autônomo da noção de objeto. / In artificial intelligence some cognitive agent models based on Jean Piaget\'s intelligence development theory have been proposed. Although the proposed models implement some fundamental aspects of this theory, like the cognitive schema struture, they do not consider the symbol grounding problem. Therefore, they are not concerned about the theoretical aspects that lead to the autonomous aquisition of the basic semantics needed by the cognitive organization of the agent\'s external world, as for the object concept aquisition. A computational cognitive scheme model inspired on Piaget\'s theory of the sensorimotor intelligence is presented. The scheme is autonomously built by computational mechanisms using principles considering the symbol grounding problem. The proposed scheme model uses sensory-motor situations to perceive, capture and store the finest grain deterministic causal relations. These causal relations are then expanded in time and space by more complex computational structures using the first ones. Those complex structures itselves are also designed in a way they can be used by more complex structures, expanding even further the causal relations in time and space. The proposed scheme model is implemented by an artificial neural network using feedforward architecture. The neural network output layer units progressively organized to compose a sensory-motor graph. Some known computational mechanisms from artificial inteligence were modified to fit to the zero semantic and the autonomous mental development paradigms, conceived in this work as the premises to handle the symbol grounding problem. The scheme model inspired by Piaget\'s theory implemented by the proposed self organizing sensorimotor graph in conjunction with the computational principles used, goes toward to the artificial autonomous cognitive development of the object concept.
178

[en] PATCH LOAD RESISTANCE USING COMPUTATIONAL INTELLIGENCE TECHNIQUES / [pt] COMPORTAMENTO DE VIGAS DE AÇO SUJEITAS A CARGAS CONCENTRADAS ATRAVÉS DE TÉCNICAS DE INTELIGÊNCIA COMPUTACIONAL

ELAINE TOSCANO FONSECA FALCAO DA SILVA 15 January 2004 (has links)
[pt] As cargas concentradas em vigas de aço são freqüentemente encontradas na prática. Nas situações onde o local de aplicação da carga é fixo, enrijecedores transversais de alma podem ser usados para aumentar a sua resistência, mas devem ser evitados por razões econômicas. Para cargas móveis, é fundamental conhecer a resistência última das almas não enrijecidas. Diversas teorias foram desenvolvidas para este problema, mas ainda assim, o erro das fórmulas de previsão é superior a 40%. Duas são as causas desta dificuldade de se encontrar uma equação mais precisa: o grande número de parâmetros que influenciam o comportamento de uma viga sujeita a cargas concentradas, e o número insuficiente de dados experimentais presentes na literatura. Por outro lado, o colapso da estrutura pode ocorrer por: plastificação, flambagem global da alma, enrugamento (crippling) ou uma combinação destes estados limites. Apesar disto, nenhum estudo foi desenvolvido para avaliar a participação total ou parcial de cada comportamento no colapso. As redes neurais são modelos computacionais inspirados na estrutura do cérebro, que apresentam características humanas como o aprendizado por experiência e a generalização do conhecimento a partir dos exemplos apresentados. Estas características permitiram, em estudos preliminares, a utilização das redes neurais na previsão da carga última de vigas de aço sujeitas a cargas concentradas. A Lógica Nebulosa tem como objetivo modelar o modo aproximado de raciocínio, tentando imitar a habilidade humana de tomar decisões racionais em um ambiente de incerteza e imprecisão. Deste modo, a Lógica Nebulosa é uma técnica inteligente que fornece um mecanismo para manipular informações imprecisas, como conceitos de esbeltez, compacidade, flexibilidade e rigidez, além de estabelecer limites mais graduais entre os fenômenos físicos do problema. Os Algoritmos Genéticos foram inspirados no princípio Darwiniano da evolução das espécies (sobrevivência dos mais aptos e mutações) e na genética. São algoritmos probabilísticos, que fornecem um mecanismo de busca paralela e adaptativa, e têm sido empregados em diversos problemas de otimização. Este trabalho é a continuação do estudo desenvolvido na dissertação de mestrado (Fonseca, 1999) e tem o objetivo de propor um sistema de avaliação do comportamento estrutural de cargas concentradas, através de uma identificação da influência dos diversos parâmetros na carga e nos tipos de comportamento resultantes (plastificação, enrugamento e flambagem global), estabelecendo limites mais flexíveis entre cada um destes. Esta análise será executada empregando um sistema neuro- fuzzy (híbrido de redes neurais e de lógica nebulosa). Para viabilizar esta análise, torna-se necessária a apresentação de dados de treinamento onde o comportamento estrutural é conhecido. Este trabalho também apresenta um estudo de otimização das fórmulas de projeto existentes empregando algoritmos genéticos. Os resultados obtidos neste trabalho contribuem para, no futuro, o desenvolvimento de uma fórmula de projeto mais precisa. De posse desta nova fórmula, uma sugestão para sua incorporação em normas de projeto de estruturas de aço poderá ser feita, garantindo, desta forma, um dimensionamento mais seguro e econômico. / [en] Concentrated loads on steel beams are frequently found in engineering practice. In situations where the load application point is fixed, transversal web stiffeners can be used to provide an adequate resistance, but for economic reasons should be avoided whenever possible. For moving loads, the knowledge of the unstiffened web resistance becomes imperative. Many theories were developed for a better understanding of the problem, however, a 40% error is still present in the current design formulas. A more accurate design formula for this structural problem is very difficult to be obtained, due to the influence of several interdependent parameters and to the insufficient number of experiments found in literature. On the other hand, the structural collapse can be associated to: web yielding, web buckling, web crippling or by their combined influence. Despite this fact, no investigations were found in literature to access their partial of global influence on the beam patch load resistance Neural networks were inspired in the brain structure in order to present human characteristics such as: learning from experience; and generalization of new data from a current set of standards. Preliminary studies used the neural networks potential to forecast the ultimate load of steel beams subjected to concentrated loads. The main aim of Fuzzy Logic is to model the complex approximated way of inference, trying to represent the human ability of making sensible decisions when facing uncertainties. Thus, fuzzy logic is an artificial intelligence technique capable of generating a mechanism for treating inaccurate and incomplete information such as: slenderness, flexibility and stiffness, still being capable of establishing gradual boundaries among the physical phenomena involved. Genetic algorithms are inspired on the Darwins principle of the species evolution and genetics. They are probabilistic algorithms that generate a mechanism of parallel and adaptive best fit survival principle and their reproduction and have been long used in several optimisation problems. This work extends the research developed in a previous MSc. program (Fonseca, 1999) and intends to evaluate and investigate the structural behaviour of steel beams subjected to concentrated loads, identifying the influence of several related parameters. This will be achieved by the use of a neuro-fuzzy system, able to model the intrinsic relationships between the related parameters. The proposed system aim is to relate the physical and geometrical variables that govern the ultimate load with its associated physical behaviour (web yielding, web crippling and web buckling), being capable of establishing gradual boundaries among the physical phenomena involved. This investigation was focused on the development of a neuro fuzzy system. The proposed neuro fuzzy system was trained with data where the collapse mechanism were properly identified validating its results. This investigation also presents a study of patch load design formulae optimization based on genetic algorithm principles. The obtained results may help the future development of a more accurate design formula, that could be incorporated in steel structures design codes, allowing a safer and economical design.
179

Modelos de agrupamento e classificação para os bairros da cidade do Rio de Janeiro sob a ótica da Inteligência Computacional: Lógica Fuzzy, Máquinas de Vetores Suporte e Algoritmos Genéticos / Clustering and classification models for the neighborhoods of the city of Rio de Janeiro from the perspective of Computational Intelligence: Fuzzy Logic, Support Vector Machine and Genetic Algorithms

Natalie Henriques Martins 19 June 2015 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / A partir de 2011, ocorreram e ainda ocorrerão eventos de grande repercussão para a cidade do Rio de Janeiro, como a conferência Rio+20 das Nações Unidas e eventos esportivos de grande importância mundial (Copa do Mundo de Futebol, Olimpíadas e Paraolimpíadas). Estes acontecimentos possibilitam a atração de recursos financeiros para a cidade, assim como a geração de empregos, melhorias de infraestrutura e valorização imobiliária, tanto territorial quanto predial. Ao optar por um imóvel residencial em determinado bairro, não se avalia apenas o imóvel, mas também as facilidades urbanas disponíveis na localidade. Neste contexto, foi possível definir uma interpretação qualitativa linguística inerente aos bairros da cidade do Rio de Janeiro, integrando-se três técnicas de Inteligência Computacional para a avaliação de benefícios: Lógica Fuzzy, Máquina de Vetores Suporte e Algoritmos Genéticos. A base de dados foi construída com informações da web e institutos governamentais, evidenciando o custo de imóveis residenciais, benefícios e fragilidades dos bairros da cidade. Implementou-se inicialmente a Lógica Fuzzy como um modelo não supervisionado de agrupamento através das Regras Elipsoidais pelo Princípio de Extensão com o uso da Distância de Mahalanobis, configurando-se de forma inferencial os grupos de designação linguística (Bom, Regular e Ruim) de acordo com doze características urbanas. A partir desta discriminação, foi tangível o uso da Máquina de Vetores Suporte integrado aos Algoritmos Genéticos como um método supervisionado, com o fim de buscar/selecionar o menor subconjunto das variáveis presentes no agrupamento que melhor classifique os bairros (Princípio da Parcimônia). A análise das taxas de erro possibilitou a escolha do melhor modelo de classificação com redução do espaço de variáveis, resultando em um subconjunto que contém informações sobre: IDH, quantidade de linhas de ônibus, instituições de ensino, valor m médio, espaços ao ar livre, locais de entretenimento e crimes. A modelagem que combinou as três técnicas de Inteligência Computacional hierarquizou os bairros do Rio de Janeiro com taxas de erros aceitáveis, colaborando na tomada de decisão para a compra e venda de imóveis residenciais. Quando se trata de transporte público na cidade em questão, foi possível perceber que a malha rodoviária ainda é a prioritária
180

Algoritmos de inteligência computacional utilizados na detecção de fraudes nas redes de distribuição de energia elétrica / Fraud detection in distribution networks using computacional intelligence algorithms

Queiroz, Altamira de Souza 19 February 2016 (has links)
Made available in DSpace on 2017-07-10T16:41:32Z (GMT). No. of bitstreams: 1 Dissertacao Altamira Queiroz2.pdf: 2299194 bytes, checksum: 07ecb127ebc11ad21a0cb551e23c2f1b (MD5) Previous issue date: 2016-02-19 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / One of the main problems currently faced by electric utilities is the occurrence of energy losses in the distribution network caused by fraud and electricity theft. Because of the financial losses and risks to public safety, the development of solutions to detect and combat fraud in the distribution networks is of the utmost importance. This work presents an analysis of computational intelligence algorithms to extract knowledge in databases with information from monthly energy consumption to identify consumption patterns with anomalies which could represent fraud. The algorithms Artificial Neural Networks and Support Vector Machines were tested to see which one perform better on the identification consumption patterns with abnormalities. Tests have shown that the algorithms used are able to detect patterns in electricity consumption curves, including special situations of fraud that manual techniques did not detect. / Um dos principais problemas que enfrentam atualmente as empresas concessionárias de energia elétrica é a ocorrência de perdas de energia na rede de distribuição, causadas por fraudes e furtos de energia elétrica. Sendo que tais problemas provocam prejuízos financeiros e também colocam em risco a segurança pública, é de grande interesse das concessionárias encontrar soluções para detectar e combater fraudes nas redes de distribuição de energia elétrica. Neste conceito, o presente trabalho apresenta uma análise dos algoritmos de Inteligência Computacional para extrair conhecimento de bases de dados de informações de consumo mensal de energia elétricas de usuários de uma determinada concessionária, a fim de identificar padrões de consumo com anomalias que representem possíveis fraudes nas redes de distribuição de energia elétrica. Para detectar padrões nas curvas de consumo, foram utilizados algoritmos de Redes Neurais Artificiais e Máquinas de Vetores de Suporte. Após a criação dos modelos, estes foram testados para verificar qual seria o melhor algoritmo para a detecção de padrões de consumo com anomalias, e os resultados obtidos, foram então, comparados com uma base de dados fornecida pela concessionária com a verificação manual dos usuários. Os testes demonstraram que os algoritmos utilizados são capazes de detectar padrões nas curvas de consumo de energia elétrica, inclusive detectando situações especiais de fraudes que técnicas manuais não detectaram.

Page generated in 0.123 seconds