• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • Tagged with
  • 11
  • 7
  • 7
  • 5
  • 5
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Desenvolvimento de tecnologia de hardware e software para o monitoramento de animais / Development of hardware and software technology for animal monitoring

Camargo, João Fernando Calcagno 22 March 2019 (has links)
Internet das Coisas é um conceito novo que define a forma que os dispositivos se comunicam entre si sem a necessidade de interferência humana, possibilitando tomadas de decisão mais inteligentes, baseadas em dados coletados de sensores, tags e outros dispositivos. O objetivo do trabalho é a criação e validação de um sistema usando elementos de Internet das Coisas com mineração de dados para detectar padrões de comportamentos de animais, possibilitando o proprietário tomar decisões para segurança e saúde dos animais. Para tanto, foi feito um estudo da arte das soluções atuais de monitoramento animal e das tecnologias disponíveis para aplicação no sistema. Dois hardwares foram desenvolvidos para coleta dos dados, e foram integrados a uma ferramenta de mineração chamada Damicore. Apesar de algumas dificuldades envolvendo cobertura com a internet, foram realizados dois experimentos com êxito e seus dados foram processados pela ferramenta de mineração, produzindo clusters hierárquicos que possibilitam destacar determinados comportamentos animais através dos clusters encontrados. Finalmente, foram sugeridos alguns pontos de melhoria do sistema, para aumentar ainda mais a abrangência da solução. / Internet of Things is a new concept that defines the way devices communicate with each other without the need for human interference, enabling smarter decision-making based on data collected from sensors, tags and other devices. The goal of this project is to create and validate a system using Internet of Things features with data mining to detect patterns of animal behavior, enabling the owner to make decisions for animal safety and health. For this purpose, current animal monitoring solutions and technologies were reviewed. Based on that, two hardware devices were developed for data collection and integrated with a data mining tool, called Damicore. Despite some difficulties involving internet coverage, two experiments were successfully carried out and their data were processed by the data mining tool, producing hierarchical clusterings that enable to highlight certain animal behaviors by means of the found clusters. Finally, some factors that can benefit the evolution of the system were suggested to further increase the scope of the solution.
2

Detecção de ilhamento de geradores síncronos distribuídos por correlações da mineração complexa de dados / Islanding detection of distributed synchronous generators by complex data-mining correlations

Gomes, Eduardo Augusto Pereira 31 August 2016 (has links)
Um dos principais problemas que podem ocorrer em sistemas de distribuição ou de subtransmissão de energia elétrica com geração distribuída (GD) é o ilhamento. O ilhamento ocorre quando um ou mais geradores distribuídos alimentam uma porção do sistema que se encontra eletricamente isolada do restante do sistema elétrico. Logo, geradores distribuídos têm de ser equipados com esquema de proteção anti-ilhamento, pois a operação ilhada pode colocar em risco a segurança das pessoas e equipamentos e pode deteriorar a qualidade da energia elétrica suprida aos consumidores locais. Este trabalho está inserido no contexto de proteção de sistemas elétricos de distribuição com GD e propõe uma nova técnica passiva-inteligente de proteção anti-ilhamento para geradores síncronos distribuídos. O método proposto utiliza a mineração de dados do Data Mining of Code Repositories (DAMICORE), o qual possui grandes potencialidades para descobrir correlações em dados complexos. Para realizar essa tarefa, três algoritmos são executados em sequência. São eles: o Normalized Compression Distance (NCD) para calcular a matriz de distância do conjunto de dados; o Neighbor-Joining (NJ) para construir as árvores filogenéticas; e por fim o Fast Newman (FN) para buscar grupos na árvore filogenética nos quais os dados apresentam alto grau de independência. O método de detecção de ilhamento nesta dissertação utiliza 10 características importantes dos sinais de tensão e corrente trifásicas no ponto de acoplamento comum (PAC). Essas 10 características são utilizadas como entrada ao DAMICORE para formular um algoritmo baseado em mineração de dados capaz de detectar ilhamento e de diferenciá-los de outros tipos de distúrbios. Os resultados mostram que o método identifica o ilhamento corretamente, detectando-o rapidamente, especialmente nos casos em que a detecção do ilhamento por relés baseados em medidas de frequência falha ou é lenta. / One of the main issues that can occur into distribution power systems with distributed generation is islanding. Islanding occurs when one or more distributed generators feed a portion of the distribution system that becomes electrically isolated from the rest of the power system. Thus, distributed generators have to be equipped with anti-islanding protection schemes, because the islanded operation may put at risk the safety of people and the equipment. It can also deteriorate the power quality supplied to local consumers. This work is in the context of the protection schemes for distribution power systems with distributed generation and it proposes a new intelligent passive anti-islanding protection scheme for distributed synchronous generators. The scheme is based on the Data Mining of Code Repositories (DAMICORE), which finds the similarity within complex data sets. This task is performed by computing the following algorithms, in sequence: the Normalized Compression Distance (NCD) to calculate a distance matrix among the data sets; the Neighbor-Joining (NJ) to build the phylogenetic trees; and the Fast Newman (FN) to find clusters with high degree of independence by using the phylogenetic trees. The proposed method comprises the extraction of 10 important features of the three-phase voltages and currents measured at the point of common coupling of the distributed generator. These 10 features are then used as input to the DAMICORE in order to formulate a data mining-based algorithm capable of detecting islanding and of distinguishing it from other disturbances. The results show that the method identifies the islanding correctly, detecting it quickly, especially where the detection of islanding by frequency-based relays are slow.
3

Classificador de kernels para mapeamento em plataforma de computação híbrida composta por FPGA e GPP / Classifier of kernels for hybrid computing platform mapping composed by FPGA and GPP

Sumoyama, Alexandre Shigueru 17 May 2016 (has links)
O aumento constante da demanda por sistemas computacionais cada vez mais eficientes tem motivado a busca por sistemas híbridos customizados compostos por GPP (General Purpose Processor), FPGAs (Field-Programmable Gate Array) e GPUs (Graphics Processing Units). Quando utilizados em conjunto possibilitam otimizar a relação entre desempenho e consumo de energia. Tais sistemas dependem de técnicas que façam o mapeamento mais adequado considerando o perfil do código fonte. Nesse sentido, este projeto propõe uma técnica para realizar o mapeamento entre GPP e FPGA. Para isso, utilizou-se como base uma abordagem de mineração de dados que avalia a similaridade entre código fonte. A técnica aqui desenvolvida obteve taxas de acertos de 65,67% para códigos sintetizados para FPGA com a ferramenta LegUP e 59,19% para Impulse C, considerando que para GPP o código foi compilado com o GCC (GNU Compiler Collection) utilizando o suporte a OpenMP. Os resultados demonstraram que esta abordagem pode ser empregada como um ponto de decisão inicial no processo de mapeamento em sistemas híbridos, somente analisando o perfil do código fonte sem que haja a necessidade de execução do mesmo para a tomada de decisão. / The steady increasing on demand for efficient computer systems has been motivated the search for customized hybrid systems composed by GPP (general purpose processors), FPGAs (Field- Programmable Gate Array) and GPUs (Graphics Processing Units). When they are used together allow to exploit their computing resources to optimize performance and power consumption. Such systems rely on techniques make the most appropriate mapping considering the profile of source code. Thus, this project proposes a technique to perform the mapping between GPP and FPGA. For this, it is applied a technique based on a data mining approach that evaluates the similarity between source code. The proposed method obtained hit rate 65.67% for codes synthesized in FPGA using LegUP tool and 59.19% for Impulse C tool, whereas for GPP, the source code was compiled on GCC (GNU Compiler Collection) using OpenMP. The results demonstrated that this approach can be used as an initial decision point on the mapping process in hybrid systems, only analyzing the profile of the source code without the need for implementing it for decision-making.
4

Estudo e extensão da metodologia DAMICORE para tarefas de classificação / Research and extension of the DAMICORE methodology for classification tasks

Cesar, Bruno Kim Medeiros 04 April 2016 (has links)
A área de aprendizado de máquina adquiriu grande importância na última década graças à sua capacidade de analisar conjuntos de dados complexos em larga escala. Em diversas áreas do conhecimento existe a demanda pela análise de dados por especialistas, seja para obter agrupamentos latentes ou classificar instâncias em classes conhecidas. As ferramentas acessíveis a especialistas leigos em programação são limitadas a problemas específicos e demandam um custo de desenvolvimento às vezes proibitivo, sendo interessante buscar por ferramentas genéricas e aplicáveis a qualquer área do conhecimento. Este trabalho busca estender e implementar uma metodologia genérica de aprendizado de máquina capaz de analisar quaisquer conjuntos de arquivos de forma praticamente livre de configuração. Foram obtidos resultados satisfatórios de sua aplicação em um conjunto amplo de problemas para agrupamento e classificação de executáveis, spam e detecção de línguas. / Machine learning has rised in importance in the last decade thanks to its power to analyse complex datasets in large scale. At several areas of knowledge there is a demand for data analysis by domain experts, be it for discovering latent clusters or classifying instances into known groups. The tools available for experts that do not master computer programming are limited to specific tasks and demand a high development cost, which sometimes is prohibitive. It is interesting, then, to develop generic tools useful to any area of knowledge. This masters thesis seeks to extend and implement a generic machine learning methodology capable of analysing any set of files mostly free of configuration. Its application produced satisfactory results in a wide set of clustering and classification problems over binary executables, spam classification, and language identification.
5

Caracterização do perfil de utilização de recursos de programas a partir de arquivos executáveis utilizando mineração de dados / Characterization of resource utilization profile of executable programs through data mining

Pinto, Renê de Souza 14 September 2017 (has links)
Este trabalho apresenta uma metodologia para caracterização do perfil de consumo de recursos demandados por um programa de computador a partir da análise do código binário do arquivo executável. A categorização de processos de acordo com seus perfis de consumo de recursos durante a execuçãotais como uso de CPU e memóriaé uma informação muito desejada para objetivos de projeto e gerenciamento de sistemas. Técnicas convencionais para este propósito são baseadas em testes de caixa branca (que avaliam o código fonte da aplicação), que tendem a ser de difícil aplicação dado a complexidade das arquiteturas de software além da necessidade de acesso ao código fonte; ou detecção de perfis baseada em dados de execução, que depende da disponibilidade de dados de execução confiáveis e da seleção de características que de fato vão correlacionar o perfil de consumo. A abordagem baseada em mineração de dados proposta neste trabalho evita estas dificuldades uma vez que manipula somente os arquivos binários executáveis. O método combina técnicas provindas da teoria da informação, redes complexas e filogenia para produzir um agrupamento hierárquico de um conjunto de arquivos de programas executáveis que pode ser utilizado para prever potenciais similaridades em termos de consumo de recursos em tempo de execução. As questões de pesquisa deste trabalho investigam se a transformação feita pelo compilador preserva similaridades entre código fonte e binário que podem ser detectadas através de algoritmos de compressão; em caso positivo, verificar se as similaridades encontradas no código binário estão relacionadas com o perfil de execução das aplicações, permitindo inferir o comportamento dos programas a partir da análise do código binário. Este trabalho apresenta a sistematização do método assim como os resultados da aplicação para caracterizar aplicações em termos de consumo de CPU e Entrada/Saída em uma plataforma PC padrão. Diversos experimentos foram executados em um repositório de 80 programas de várias fontes obtendo-se resultados significativos que evidenciam que a similaridade dos perfis de execução obtidas com esta abordagem é consistente com as obtidas experimentalmente por aferição. A aplicação do método também é exemplificado através de casos de estudo que caracterizam o perfil de execução de programas executáveis. / This work introduces a methodology for characterizing the runtime resource demands of a computer program from the analysis of its binary executable file. Categorization of processes according to the kind of resources required during execution such as CPU and memory usage is a sought-after piece of knowledge for the aims of computer system design and management. Conventional techniques available for this purpose include white-box static source code analysis and profile matching based on historical execution data. The former tends to be challenging in face of complex software architectures and requires access to the source code; the latter is dependent on the availability of reliable past data and on the selection of features yielding effective correlations with resource usage. The alternative data mining approach proposed in this paper avoids those difficulties by manipulating binary executable files. The method combines techniques from information theory, complex networks and phylogenetics to produce a hierarchical clustering of a set of executable files, which can be used to predict potential similarities in terms of runtime resource usage. The works research questions investigate if the transformation performed by the compiler preserves similarity information across the source and binary code representation such that it can be detected by standard compression algorithms; and if the so identified similarities in the symbolic object encoding are correlated to runtime resource usage to an extent which allows for inferring the programs behavior from the analysis of the binary file. The paper introduces the methods rationales and presents results of its application to characterize CPU and IO usages of benchmark applications executed on a standard PC platform. Essays carried out over a set of 80 executable programs from varying sources yielded numerically significant evidences that the prediction of resource usage similarity obtained by the approach is consistent with experimentally measured runtime profile. The application of the method is also exemplified in a few case studies aimed at characterizing executable programs runtime profile.
6

Detecção de ilhamento de geradores síncronos distribuídos por correlações da mineração complexa de dados / Islanding detection of distributed synchronous generators by complex data-mining correlations

Eduardo Augusto Pereira Gomes 31 August 2016 (has links)
Um dos principais problemas que podem ocorrer em sistemas de distribuição ou de subtransmissão de energia elétrica com geração distribuída (GD) é o ilhamento. O ilhamento ocorre quando um ou mais geradores distribuídos alimentam uma porção do sistema que se encontra eletricamente isolada do restante do sistema elétrico. Logo, geradores distribuídos têm de ser equipados com esquema de proteção anti-ilhamento, pois a operação ilhada pode colocar em risco a segurança das pessoas e equipamentos e pode deteriorar a qualidade da energia elétrica suprida aos consumidores locais. Este trabalho está inserido no contexto de proteção de sistemas elétricos de distribuição com GD e propõe uma nova técnica passiva-inteligente de proteção anti-ilhamento para geradores síncronos distribuídos. O método proposto utiliza a mineração de dados do Data Mining of Code Repositories (DAMICORE), o qual possui grandes potencialidades para descobrir correlações em dados complexos. Para realizar essa tarefa, três algoritmos são executados em sequência. São eles: o Normalized Compression Distance (NCD) para calcular a matriz de distância do conjunto de dados; o Neighbor-Joining (NJ) para construir as árvores filogenéticas; e por fim o Fast Newman (FN) para buscar grupos na árvore filogenética nos quais os dados apresentam alto grau de independência. O método de detecção de ilhamento nesta dissertação utiliza 10 características importantes dos sinais de tensão e corrente trifásicas no ponto de acoplamento comum (PAC). Essas 10 características são utilizadas como entrada ao DAMICORE para formular um algoritmo baseado em mineração de dados capaz de detectar ilhamento e de diferenciá-los de outros tipos de distúrbios. Os resultados mostram que o método identifica o ilhamento corretamente, detectando-o rapidamente, especialmente nos casos em que a detecção do ilhamento por relés baseados em medidas de frequência falha ou é lenta. / One of the main issues that can occur into distribution power systems with distributed generation is islanding. Islanding occurs when one or more distributed generators feed a portion of the distribution system that becomes electrically isolated from the rest of the power system. Thus, distributed generators have to be equipped with anti-islanding protection schemes, because the islanded operation may put at risk the safety of people and the equipment. It can also deteriorate the power quality supplied to local consumers. This work is in the context of the protection schemes for distribution power systems with distributed generation and it proposes a new intelligent passive anti-islanding protection scheme for distributed synchronous generators. The scheme is based on the Data Mining of Code Repositories (DAMICORE), which finds the similarity within complex data sets. This task is performed by computing the following algorithms, in sequence: the Normalized Compression Distance (NCD) to calculate a distance matrix among the data sets; the Neighbor-Joining (NJ) to build the phylogenetic trees; and the Fast Newman (FN) to find clusters with high degree of independence by using the phylogenetic trees. The proposed method comprises the extraction of 10 important features of the three-phase voltages and currents measured at the point of common coupling of the distributed generator. These 10 features are then used as input to the DAMICORE in order to formulate a data mining-based algorithm capable of detecting islanding and of distinguishing it from other disturbances. The results show that the method identifies the islanding correctly, detecting it quickly, especially where the detection of islanding by frequency-based relays are slow.
7

Caracterização do perfil de utilização de recursos de programas a partir de arquivos executáveis utilizando mineração de dados / Characterization of resource utilization profile of executable programs through data mining

Renê de Souza Pinto 14 September 2017 (has links)
Este trabalho apresenta uma metodologia para caracterização do perfil de consumo de recursos demandados por um programa de computador a partir da análise do código binário do arquivo executável. A categorização de processos de acordo com seus perfis de consumo de recursos durante a execuçãotais como uso de CPU e memóriaé uma informação muito desejada para objetivos de projeto e gerenciamento de sistemas. Técnicas convencionais para este propósito são baseadas em testes de caixa branca (que avaliam o código fonte da aplicação), que tendem a ser de difícil aplicação dado a complexidade das arquiteturas de software além da necessidade de acesso ao código fonte; ou detecção de perfis baseada em dados de execução, que depende da disponibilidade de dados de execução confiáveis e da seleção de características que de fato vão correlacionar o perfil de consumo. A abordagem baseada em mineração de dados proposta neste trabalho evita estas dificuldades uma vez que manipula somente os arquivos binários executáveis. O método combina técnicas provindas da teoria da informação, redes complexas e filogenia para produzir um agrupamento hierárquico de um conjunto de arquivos de programas executáveis que pode ser utilizado para prever potenciais similaridades em termos de consumo de recursos em tempo de execução. As questões de pesquisa deste trabalho investigam se a transformação feita pelo compilador preserva similaridades entre código fonte e binário que podem ser detectadas através de algoritmos de compressão; em caso positivo, verificar se as similaridades encontradas no código binário estão relacionadas com o perfil de execução das aplicações, permitindo inferir o comportamento dos programas a partir da análise do código binário. Este trabalho apresenta a sistematização do método assim como os resultados da aplicação para caracterizar aplicações em termos de consumo de CPU e Entrada/Saída em uma plataforma PC padrão. Diversos experimentos foram executados em um repositório de 80 programas de várias fontes obtendo-se resultados significativos que evidenciam que a similaridade dos perfis de execução obtidas com esta abordagem é consistente com as obtidas experimentalmente por aferição. A aplicação do método também é exemplificado através de casos de estudo que caracterizam o perfil de execução de programas executáveis. / This work introduces a methodology for characterizing the runtime resource demands of a computer program from the analysis of its binary executable file. Categorization of processes according to the kind of resources required during execution such as CPU and memory usage is a sought-after piece of knowledge for the aims of computer system design and management. Conventional techniques available for this purpose include white-box static source code analysis and profile matching based on historical execution data. The former tends to be challenging in face of complex software architectures and requires access to the source code; the latter is dependent on the availability of reliable past data and on the selection of features yielding effective correlations with resource usage. The alternative data mining approach proposed in this paper avoids those difficulties by manipulating binary executable files. The method combines techniques from information theory, complex networks and phylogenetics to produce a hierarchical clustering of a set of executable files, which can be used to predict potential similarities in terms of runtime resource usage. The works research questions investigate if the transformation performed by the compiler preserves similarity information across the source and binary code representation such that it can be detected by standard compression algorithms; and if the so identified similarities in the symbolic object encoding are correlated to runtime resource usage to an extent which allows for inferring the programs behavior from the analysis of the binary file. The paper introduces the methods rationales and presents results of its application to characterize CPU and IO usages of benchmark applications executed on a standard PC platform. Essays carried out over a set of 80 executable programs from varying sources yielded numerically significant evidences that the prediction of resource usage similarity obtained by the approach is consistent with experimentally measured runtime profile. The application of the method is also exemplified in a few case studies aimed at characterizing executable programs runtime profile.
8

Classificador de kernels para mapeamento em plataforma de computação híbrida composta por FPGA e GPP / Classifier of kernels for hybrid computing platform mapping composed by FPGA and GPP

Alexandre Shigueru Sumoyama 17 May 2016 (has links)
O aumento constante da demanda por sistemas computacionais cada vez mais eficientes tem motivado a busca por sistemas híbridos customizados compostos por GPP (General Purpose Processor), FPGAs (Field-Programmable Gate Array) e GPUs (Graphics Processing Units). Quando utilizados em conjunto possibilitam otimizar a relação entre desempenho e consumo de energia. Tais sistemas dependem de técnicas que façam o mapeamento mais adequado considerando o perfil do código fonte. Nesse sentido, este projeto propõe uma técnica para realizar o mapeamento entre GPP e FPGA. Para isso, utilizou-se como base uma abordagem de mineração de dados que avalia a similaridade entre código fonte. A técnica aqui desenvolvida obteve taxas de acertos de 65,67% para códigos sintetizados para FPGA com a ferramenta LegUP e 59,19% para Impulse C, considerando que para GPP o código foi compilado com o GCC (GNU Compiler Collection) utilizando o suporte a OpenMP. Os resultados demonstraram que esta abordagem pode ser empregada como um ponto de decisão inicial no processo de mapeamento em sistemas híbridos, somente analisando o perfil do código fonte sem que haja a necessidade de execução do mesmo para a tomada de decisão. / The steady increasing on demand for efficient computer systems has been motivated the search for customized hybrid systems composed by GPP (general purpose processors), FPGAs (Field- Programmable Gate Array) and GPUs (Graphics Processing Units). When they are used together allow to exploit their computing resources to optimize performance and power consumption. Such systems rely on techniques make the most appropriate mapping considering the profile of source code. Thus, this project proposes a technique to perform the mapping between GPP and FPGA. For this, it is applied a technique based on a data mining approach that evaluates the similarity between source code. The proposed method obtained hit rate 65.67% for codes synthesized in FPGA using LegUP tool and 59.19% for Impulse C tool, whereas for GPP, the source code was compiled on GCC (GNU Compiler Collection) using OpenMP. The results demonstrated that this approach can be used as an initial decision point on the mapping process in hybrid systems, only analyzing the profile of the source code without the need for implementing it for decision-making.
9

Estudo e extensão da metodologia DAMICORE para tarefas de classificação / Research and extension of the DAMICORE methodology for classification tasks

Bruno Kim Medeiros Cesar 04 April 2016 (has links)
A área de aprendizado de máquina adquiriu grande importância na última década graças à sua capacidade de analisar conjuntos de dados complexos em larga escala. Em diversas áreas do conhecimento existe a demanda pela análise de dados por especialistas, seja para obter agrupamentos latentes ou classificar instâncias em classes conhecidas. As ferramentas acessíveis a especialistas leigos em programação são limitadas a problemas específicos e demandam um custo de desenvolvimento às vezes proibitivo, sendo interessante buscar por ferramentas genéricas e aplicáveis a qualquer área do conhecimento. Este trabalho busca estender e implementar uma metodologia genérica de aprendizado de máquina capaz de analisar quaisquer conjuntos de arquivos de forma praticamente livre de configuração. Foram obtidos resultados satisfatórios de sua aplicação em um conjunto amplo de problemas para agrupamento e classificação de executáveis, spam e detecção de línguas. / Machine learning has rised in importance in the last decade thanks to its power to analyse complex datasets in large scale. At several areas of knowledge there is a demand for data analysis by domain experts, be it for discovering latent clusters or classifying instances into known groups. The tools available for experts that do not master computer programming are limited to specific tasks and demand a high development cost, which sometimes is prohibitive. It is interesting, then, to develop generic tools useful to any area of knowledge. This masters thesis seeks to extend and implement a generic machine learning methodology capable of analysing any set of files mostly free of configuration. Its application produced satisfactory results in a wide set of clustering and classification problems over binary executables, spam classification, and language identification.
10

Metodologia baseada em mineração de dados para redução de múltipla estimação na localização de faltas em alimentadores de distribuição radiais / Data mining-based method to reduce multiple estimation for fault location in radial distribution feeders

Reche, Evandro Agostinho 27 June 2018 (has links)
A complexidade dos sistemas de distribuição é uma característica intrínseca dos mesmos, isso dificulta a aplicação de ferramentas convencionais para localização de faltas, cuja eficiência é determinante para melhoria dos índices de qualidade de energia e serviços prestados por concessionárias de energia. Este trabalho tem o objetivo de apresentar uma abordagem alternativa para a localização de faltas em alimentadores de distribuição aéreos com topologia radial. A proposta consiste no desenvolvimento de um algoritmo de auxílio à decisão para técnicas convencionais de localização de faltas, capaz de reduzir o problema da múltipla estimação. Esta proposta se dá num contexto onde é vislumbrado uma infraestrutura de Smart Grids consolidada. A ferramenta consiste em um pré-processamento de sinais analógicos e extração de parâmetros para posterior uso da técnica DAMICORE (do inglês Data Mining of Code Repositories) a fim de encontrar relações entre os eventos, agrupando aqueles que forem similares, de modo a auxiliar na localização de faltas. O sistema utilizado para a simulação de curtos-circuitos foi o alimentador-teste IEEE 34 barras em que os testes preliminares do algoritmo para este sistema resultaram em uma redução considerável para a múltipla estimação. / The complexity of distribution systems is an intrinsic characteristic from them, making it difficult to apply conventional fault locating methods, whose efficiency is decisive for the improvement of power quality and service indexes provided by the utilities. This work aims to present an alternative approach for fault location in aerial distribution feeders with radial topology. The tool consists of the development of a decision aid algorithm for conventional fault location techniques capable of reducing the multiple estimation problem. This proposal takes place in a context where a Smart Grids-based infrastructure is envisaged. This tool consists of a pre-processing of analog signals and feature extraction for later use of the DAMICORE (Data Mining of Code Repositories) technique to find connections between events, forming groups of similar events, and helping the Fault Location. The system used to simulate short circuits was the IEEE 34 Node Test Feeder and, for this system, the algorithm responded with a significant reduction of multiple estimations.

Page generated in 0.4145 seconds