• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1857
  • 54
  • 20
  • 14
  • 14
  • 14
  • 10
  • 8
  • 6
  • 2
  • 2
  • 2
  • Tagged with
  • 1936
  • 1936
  • 555
  • 538
  • 459
  • 429
  • 402
  • 334
  • 256
  • 210
  • 188
  • 188
  • 176
  • 172
  • 170
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Estudo de um motor linear tubular de relutância chaveado de fluxo transversal

Rinaldi, Vagner January 2004 (has links)
Resumo não disponível.
22

Algoritmo de autorrecuperação com corte seletivo de carga para redes elétricas inteligentes

Ferreira, Lucas Roberto January 2015 (has links)
Orientador : Prof. Dr. Alexandre Rasi Aoki / Co-orientadora : Profª Drª Thelma S. Piazza Fernandes / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Engenharia Elétrica. Defesa: Curitiba, 26/02/2015 / Inclui referências / Área de concentração: Sistema de energia / Resumo: Os avanços tecnológicos na área de sistemas de potência possibilitaram a inclusão de um novo conceito no setor elétrico com o qual mudaria da visão tradicional, adotada durante anos, para um novo sistema elétrico. Nesta nova visão, o setor elétrico passa a ser automático, robusto e ativo. Tal conceito é conhecido como redes elétricas inteligentes. Dentro desse conceito se encontram diversas linhas de pesquisas como automação da rede, autorrecuperação, gerenciamento pelo lado da demanda, microrredes, entre outros. Devido ao tema deste trabalho, coloca-se em foco somente as redes elétricas inteligentes para redes de distribuição, as quais em diversos países já são bem difundidas e aplicadas. Entretanto, no Brasil, nota-se que o cenário de redes elétricas inteligentes ainda está no começo, sendo enfocada na automação para em um próximo passo, se desenvolver técnicas de autorrecuperação para tornar o sistema de distribuição mais resiliente a falhas de fornecimento. Sendo assim, este trabalho compreende a elaboração de uma nova metodologia para resolver o problema de autorrecuperação em sistemas de distribuição, considerando o limite regulatório de tempo estabelecido de três minutos e sem extrapolar os limites de fluxo de potência e de perfil de tensão do alimentador. Logo, para se alcançar tais objetivos, decidiu-se realizar inicialmente estudos de técnicas de busca em grafos e de otimização. Em razão disso elaborou-se dois métodos de autorrecuperação com a finalidade de encontrar o melhor chaveamento para recompor o sistema: o primeiro uma adaptação do algoritmo de Dijkstra, e o segundo método, uma nova formulação da função objetivo para ser usada com a otimização por enxame de partículas com representação binária, visando atingir três objetivos: à maximização das cargas; a minimização das perdas sistêmicas; e a minimização do número de chaveamentos. De forma a dar subsídios a esses dois métodos elaborou-se um processador topológico para pré-processar os dados elétricos e o desenvolvimento de um método para isolar o local da falta, retirando os trechos defeituosos do espaço de busca. Além disso, para que a autorrecuperação consiga restabelecer o sistema sem prejudicar os consumidores, considerou-se o método de fluxo de potência ótimo para a aplicação do corte de carga, para que o sistema fique dentro das normas estabelecidas. Assumiu-se como cenário de teste dos métodos, um sistema de distribuição real urbano, com alta concentração de carga, composto por duas subestações e cinco alimentadores. A validação dessas duas técnicas criadas se deu através da avaliação de quatro casos testes, sendo os três primeiros casos, a aplicação de faltas simultâneas e o último caso, a aplicação de três faltas sequenciais. Os dois métodos resolveram o problema de maneira coerente e dentro dos limites estabelecidos, sendo que o método por enxame de partículas binário apresentou melhores resultados nos casos de faltas simultâneas enquanto o método pelo algoritmo de Dijkstra adaptado foi melhor em faltas sequenciais. Outrossim, o corte de carga por meio do fluxo de potência ótimo se mostrou uma ferramenta de auxilio ideal para se trabalhar em conjunto com sistemas de autorrecuperação, por conseguir manter o sistema seguro após o restabelecimento do sistema. Palavras-chave: Redes Elétricas Inteligentes. Autorrecuperação. Algoritmo de Dijkstra. Otimização por Enxame de Partículas Binário. Fluxo de Potência Ótimo. Corte de Carga. / Abstract: The technological progress in power systems allowed the inclusion of a new concept, changing the traditional view. In this new vision, the power systems would be smart, automatic, robust and active. Therefore, this concept was known as smart grid. Within this concept, there are several researches areas, such as, grid automation, self-healing, demand side management, microgrid, and other. Smart Grids for distribution systems in many countries are already well spread and applied. However in Brazil, it is noted that the scenario is still at an early stage, where the first technology progress is apply automation to control and measure the distribution system and as a next step, the development of self-healing techniques to make the system become more resilient and prevent damages against the final consumers. Therefore, several researches were started in order to resolve the self-healing problem, so, the matter of this work comprehend the formulation of a new methodology to resolve this problem in distribution systems, maintaining it under the limit of three minutes and without exceeding the power flow and voltage constraints of the feeder, avoiding a bad energy supply for the consumers. So, to achieve these objectives, it was decided to conduct an initial study about techniques of search in graph and optimization. By this reason, two self-healing methods were developed to find the best switching to recover the system: the first one is an adaptive Dijkstra algorithm, and the second one is a new objective function to be used with a binary particle swarm optimization. This objective function has three objectives: load maximization; system loss minimization; and switching number minimization. In order to make allowances for these two methods are elaborated a topological processor for pre-processing the electric data and the development of a method to isolate the fault location, removing defective sections of the search space. So, to restore the system with this methodology without damaging the consumers, it was used an optimal power flow to apply the load shedding and maintain the system within the standardized limits. As a test scenario for the methods it has been chosen an urban distribution system with high load density, five feeders and two substations, The methodology validation has been made by the analysis of four case studies. The first three was applied simultaneous faults and the last one was applied three sequential faults. Both methods proposed consistent solutions, regarding the operation limits. Wherein, the binary particle swarm optimization had better results for simultaneous faults, while the adaptive Dijkstra algorithm was better in sequential faults. Furthermore, the load shedding through optimal power flow proved to be a good tool to complement the self-healing, by keeping the system stable after the restoration. Key words: Smart Grid. Self-Healing. Dijkstra Algorithm. Binary Particle Swarm Optimization. Optimal Power Flow. Load Shedding.
23

Amplificador de potência CMOS de baixo consumo com controle de ganho

Santos, Edson Leonardo dos January 2015 (has links)
Orientador : Prof. André A. Mariano, Ph.D. / Co-orientador : Prof. Bernardo Leite, Ph.D. / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Engenharia Elétrica. Defesa: Curitiba, 27/03/2015 / Inclui referências / Área de concentração: Sistemas Eletrônicos / Resumo: Devido ao baixo custo e alto grau de integração das tecnologias CMOS, os sistemas de comunicações móveis podem ser encontrados em toda parte. Em sua grande maioria, os dispositivos móveis são alimentados por baterias, sendo indispensável recarregá-las ou substituí-las. Nesta situação, deve-se tomar cuidados para que os dispositivos sejam energeticamente eficientes. Em um transmissor de radiofrequência, o amplificador de potência é o bloco responsável por amplificar o sinal que será transmitido pela antena. Por sua vez, o amplificador de potência é um dos responsáveis pelo maior consumo de energia do sistema. Como estes amplificadores são tradicionalmente dimensionados para apresentar alto rendimento para níveis elevados de potência de saída, em níveis mais baixos de potência de saída a energia consumida é excessiva. Portanto, controlar o ganho e a potência de saída em amplificadores de potência de radiofrequência é essencial para maximizar a duração da vida útil da bateria. Neste trabalho, um amplificador de potência com controle de ganho é apresentado para aplicações em 2,4 GHz. O ganho de potência pode ser controlado digitalmente em seis modos através da combinação de três bits. Esta técnica foi utilizada para alcançar uma melhora na eficiência em potências de recuo. O projeto foi implementado usando uma tecnologia CMOS 0,13 ?m e é capaz de fornecer um ganho de potência variável entre 22,4 dB e 31 dB e uma eficiência máxima de 19 %, com uma fonte de alimentação de 1,8 V. A potência consumida pelo amplificador é reduzida de 196,2 mW no modo de maior ganho para 171 mW no modo de menor ganho, permitindo uma eficiência melhor quando o ganho máximo não é necessário para a transmissão. Palavras-chave: amplificador de potência; ganho variável; controle discreto de potência; CMOS; radiofrequência / Abstract: Due to the low cost and high degree of integration of CMOS technologies, mobile communication systems can be found everywhere. Most of these mobile devices are powered by batteries, which must be recharged or replaced. In this situation, care must be taken for the devices to be energetically efficient. In a radiofrequency transmitter, the power amplifier is responsible for amplifying the signal to be transmitted by the antenna and accounts for a large part of the system power consumption. Since these amplifiers are traditionally sized to present their highest efficiency for high output power levels, when the required output power is lower, energy consumption is excessive. Therefore, controlling the gain and output power in radiofrequency power amplifiers is essential to maximize the duration of battery life. In this work, a power amplifier with gain control is presented for 2.4 GHz applications. The power gain can be digitally controlled in six steps by the combination of three bits. This technique was used to achieve an improvement in efficiency at power backoff. The design was implemented using a 0.13 ?m CMOS technology and is able to deliver a variable power gain between 22.4 dB and 31 dB and a peak power-added efficiency of 19 % with a 1.8 V power supply. The power consumption of the power amplifier is reduced from 196.2 mW in the highest-gain mode to 171 mW for the lowest-gain, allowing an enhanced efficiency when maximum gain is not required for transmission. Keywords: power amplifier; variable gain; discrete power control; CMOS; radiofrequency
24

Simulador de medidas e estimador de estado trifásicos utilizando técnicas de desacoplamento

Coelho, Cinthia Schimith Silva January 2017 (has links)
Orientadora : Profª. Drª. Elizete Maria Lourenço / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Engenharia Elétrica. Defesa: Curitiba, 09/06/2017 / Inclui referências : f. 103-105 / Resumo: Este trabalho propõe o desenvolvimento de um simulador de medidas trifásico que possa ser aplicado a redes de transmissão e distribuição além da utilização de técnicas de desacoplamento aplicadas a um estimador de estado trifásico. Para tanto o trabalho apresenta inicialmente a formulação do fluxo de carga trifásico convencional monofásico, como também a técnica desacoplado rápido monofásico e por fim a modelagem trifásica de fluxo de carga desacoplado rápido. Este estudo justifica-se posteriormente em sua aplicação na elaboração do simulador de medidas. Em seguida é apresentada a modelagem convencional do estimador de estado, como também sua resolução através de diferentes métodos desacoplados. O simulador de medidas é uma ferramenta realizada em duas etapas: primeiro um fluxo de potência trifásico desacoplado rápido que processa os dados de entrada de um sistema, dando como resultados valores que serão utilizados como medidas perfeitas. A segunda etapa consiste na adição de erros a estas medidas, que conforme estudado no trabalho, podem ter diferentes classificações, porém o simulador propõe que sejam apenas ruídos convencionais. O fluxo de potência trifásico utilizado no simulador de medidas utiliza a normalização complexa, que permite o processamento de sistemas de distribuição e transmissão. O estimador de estados trifásicos utilizará de métodos de desacoplamento para processar estas medidas geradas pelo simulador, e desconsiderando as mútuas do sistema, é modelado como a junção de três sistemas independentes para cada fase. Para análise do desempenho do simulador e do estimador de estados, ambos são testados em sistemas de distribuição e transmissão. O simulador de medidas apresentou um resultado satisfatório para os dois tipos de sistema, e o estimador tem uma resposta melhor ao sistema de transmissão. Palavras chave: Simulador de Medidas. Estimador de Estados Trifásico. Método Desacoplado. / Abstract:This work proposes the development of a three-phase measures simulator that can be applied in transmission and distribution systems, and also the use of decoupling techniques applied for a three-phase state estimator. This work presents initially the formulation of a conventional single-phase load flow and of a single-phase fast decoupled, and the modeling of the three-phase fast decoupled load flow. This study is justified lately in the elaboration of the measures simulator. Later on, the conventional modeling of the state estimator is exposed, as also its resolution through different decoupled methods. The measures simulator is a two-steps tool: first a three-phase decoupled load flow that process the systems input data, being its result the values that will be used as perfect measures. The second step is the addition of errors in those measures, which can have different classifications, although the simulator does not use bad data, only regular errors. The three-phase load flow in the measures simulator uses complex normalization, allowing the process of distribution and transmission systems. The three-phase state estimator uses decoupled methods to process the measures generated by the system, disregarding mutual coupling, therefore analyzing each of the three phases independently. The measures simulator and state estimator performance analysis are made by distribution and transmission test-systems. The measures simulator presented a satisfactory result for both types of system, and the state estimator had a batter response to the transmission one. Key Words: Measures Simulator. Three-Phase State Estimator. Decoupled Method.
25

Métodos para medição de fase e magnitude de sinais visando implementações em FPGA

Oliveira, Allan Conselvan de January 2015 (has links)
Orientador : Prof. PhD. André Mariano / Co-orientador : Prof. Dr. João Dias / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Engenharia Elétrica. Defesa: Curitiba, 18/03/2015 / Inclui referências : fls. 161-165 / Área de concentração: Sistemas eletrônicos / Resumo: Procurando-se uma solução para determinação de impedância complexa em aplicações de medição de bioimpedância SFBIA (Single Frequency Bioelectrical Analysis) em 50 kHz, foram identificadas sete técnicas genéricas para a medição de fase e magnitude de sinais. As técnicas identificadas foram: ajuste de elipse, ajuste de senóide, transformada discreta de Fourier, demodulação de quadratura, modulação de largura de pulso, variação da técnica da figura de Lissajous e medição digital direta por contagem de pulsos. Todas as técnicas foram implementadas em modelo Simulink para verificação da resolução angular possível de ser medida e de possíveis limitações no domínio de utilização. Os resultados iniciais mostraram que apenas a técnica de modulação de largura de pulso não apresentou capacidade de representar a resolução angular estabelecida de 0,1° e que a técnica do ajuste de elipse não consegue prever de forma correta fases próximas de 0° e de 180°. As sete técnicas foram parametrizadas de acordo com o uso de recursos lógicos tais como latches, memória RAM, memória ROM, frequências de clock envolvidas e número total de operações matemáticas necessárias. As operações matemáticas consideradas foram: adição, subtração, multiplicação, divisão, radiciação, seno e arco-seno. A partir dos dados de utilização de pulsos de clock por tipo de operação matemática, de um ip core de aritmética de ponto flutuante FPU100 versão 19, foi determinada a demanda computacional em número de pulsos de clock, para cada uma das técnicas identificadas, considerando-se a utilização de um único ip core e sem o uso de pipelining. Verificou-se através da comparação de utilização de recursos e da demanda computacional que a demodulação de quadratura é o método com melhor custo benefício dentre os métodos com imunidade a ruído, e que o método da contagem de pulsos é o método com melhor custo benefício dentre os métodos sem imunidade a ruído. Esses dois métodos foram implementados em VHDL e simulados através da toolbox System Generator para Simulink, em um modelo comportamental Simulink, que integra o código VHDL e os blocos nativos do Simulink. Os resultados da simulação via emulação em software realizaram a verificação do código VHDL frente ao modelo teórico implementado inicialmente. A cosimulação de hardware, na qual a simulação do código VHDL ocorre pela execução do código VHDL sintetizado dentro do próprio FPGA, permitiu a validação da técnica da contagem de pulsos. Porém, para a técnica da demodulação de quadratura, verificou-se que o processo de gerenciamento da troca de dados entre o Simulink e o FPGA pelo System Generator, introduziu erros na utilização do passo de tempo máximo do solver do Simulink, permitindo a validação da técnica apenas no intervalo de defasagem [10°,160°]. Palavras-chave: bioimpedância, medição de fase, SFBIA, DFT, VHDL, cosimulação de hardware, Simulink, system-generator, FPGA, contagem de pulsos, demodulação de quadratura, Radix-4, ajuste de elipse, ajuste de senóide, figura de Lissajous, PWM, modulação de largura de pulso; / Abstract: In the research for a complex impedance determination solution for SFBIA (Single Frequency Bioelectrical Analysis) 50 kHz bioimpedance measurement applications, seven phase and magnitude signal usual measurement techniques had been identified. These techniques are: ellipse fit, sinusoidal fit, discrete Fourier transform, quadrature demodulation, pulse width modulation, direct digital measurement by pulse counting and a Lissajous figure variety. All these seven techniques had been implemented via Simulink mathematical models for phase angular resolution verification and mathematical limitations identification. The initial results showed that only the pulse width modulation technique was not able to represent the stablished 0.1° angular resolution, also, the ellipse fit technique could not predict correctly phase values around 0° and 180°. The seven techniques were parameterized according their use of logical resources such as latches, RAM, ROM, clock frequencies and the total number of required mathematical operations. The mathematical operations that were considered are: addition, subtraction, multiplication, division, root extraction, sine and arcsine. Based on the data of clock pulses usage by type of mathematical operation from an ip core of floating-point arithmetic, FPU100 version 19, the computational demand in number of clock cycles for each of the previously identified techniques were estimated. It was considered the use of a single FPU100 ip core and no pipelining. The comparison based on the logical resources utilization and the computational demands have shown that regarding the hardware cost, the quadrature demodulation method is the best one among all the others noise immunity methods tested, and that, the method of pulse counting is the best one regarding hardware usage between the methods with no noise immunity tested. These two methods were implemented via VHDL and simulated through the system-generator toolbox for Simulink, using a behavioral model which integrated the VHDL code with the Simulink native blocks. The results obtained via the software emulation of VHDL code verified the same results obtained with the initial Simulink mathematical models. The hardware cosimulation, in which the synthetized VHDL code is executed inside the FPGA itself, validated the pulse counting method. However, it was found that during the quadrature demodulation cosimulation, in the data exchange management process between the Simulink and the FPGA, the system-generator introduced errors in the maximum step size value of the Simulink solver allowing the validation of phase values only in the phase range of [10°,160°]. Keywords: bioimpedance, phase difference measurement, FPGA, DDM, discrete Fourier transform, quadrature demodulation, pulse width modulation, Lissajous figure, SFBIA, Simulink, FPGA, system-generator, hardware cosimulation;
26

Sistema de caracterização de susceptibilidade magnética por refletometria no domínio do tempo

Dieguez, Célia Marli Tokarski January 2017 (has links)
Orientador : Prof. Dr. César Augusto Dartora / Coorientador : Prof. Dr. Márlio josé do Couto / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Engenharia Elétrica. Defesa: Curitiba, 10/05/2017 / Inclui referências : f. 67-71 / Área de concentração: Sistemas eletrônicos / Resumo: Materiais com propriedades magnéticas pronunciadas t.m importantes aplicações em uma variada gama de itens que utilizamos diariamente, indo desde maquinas elétricas e transformadores, passando pelas etiquetas magnéticas e indo ate as nanoestruturas utilizadas em sensores de magnetorresistência gigante. O presente trabalho investiga um aparato experimental de refletometria no domínio do tempo (TDR) para a caracteriza..o de susceptibilidade magnética de amostras de materiais magnéticos em diversas temperaturas, variando de 9 K ate temperatura de 300 K. A técnica de TDR utiliza-se da reflexa.o que ocorre quando um pulso propagante em uma linha de transmissão encontra uma terminação na qual a impedância da carga conectada . linha e distinta da impedancia característica da linha. O pulso resultante e devidamente tratado com auxílio das ferramentas numéricas, permitindo calcular a susceptibilidade magnética e determinar a curva de histerese do material analisado. Caracterizou-se uma fita magnética composta de níquel e ferro, principalmente, que e empregada em etiquetas de segurança, e também um material do tipo Heusler, cuja com posto estequiométrica e Ni2MnGa. Palavras Chave: Magnetismo, Refletometria no Domínio do Tempo, Susceptibilidade Magnética, Curva de Histerese, Criogenia. / Abstract: Materials possessing pronounced magnetic properties have relevant uses in a vast range of technological applications, such as electrical machines, transformers, inductors and nanostructures used in giant magnetoresistance sensors. The present work investigates an experimental apparatus using the time domain refletometry (TDR) technique, for magnetic susceptibility characterization at temperatures ranging from 9K to room temperature. The TDR considers the reflection effect that occurs when a propagating pulse on a transmission line encounters a load impedance connected to its termination, which differs from the transmission line characteristic impedance. After numerical analysis of the reflected pulse it is possible to obtain magnetic susceptibility and hysteresis loop of the material under study. A material composed mainly by Ni and Fe, commonly used as a magnetic tag, and a Heusler compound with stechiometry Ni2MnGa were characterized. Keywords: Time Domain Reflectometry, Magnetic Susceptibility, Hysteresis Loop, Cryogenics.
27

Estudo de meta-heurísticas para alocação de controladores FACT

Reis, Silvio da Costa January 2017 (has links)
Orientador : Prof. Dr. Odilon Luís Tortelli / Coorientador : Prof. Dr. Leandro dos Santos Coelho / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Engenharia Elétrica. Defesa: Curitiba, 03/08/2017 / Inclui referências : p. 109-113 / Resumo: As empresas do setor elétrico estão sujeitas a constantes desafios para proporcionar energia elétrica de forma eficiente e segura para os consumidores, tendo em vista que a insegurança ou ineficiência no fornecimento é fonte de prejuízos diversos tanto para os consumidores residenciais, como, principalmente, para os comerciais e industriais. Assim, portanto, é de suma importância a superação contínua destes desafios por parte dos agentes do setor. Países como o Brasil, com grande extensão territorial e distribuição populacional pouco homogênea, estão mais sujeitos aos desafios de expandir e operar uma rede elétrica interligada de maior porte que conecta os centros de geração aos centros de consumo. Nesse contexto os Controladores FACTS (do inglês, Flexible Alternate Current Transmission System) tem papel extremamente relevante. Dessa forma, a correta localização destes dispositivos na rede elétrica pode propiciar grandes vantagens operacionais, aumentando a controlabilidade do sistema, com reflexos na melhoria da sua eficiência e segurança. Tendo isto em vista esta dissertação visa o estudo, implementação e comparação de seis metodologias de alocação de dispositivos FACTS baseadas em meta-heurísticas. Foram considerados para tanto os controladores denominados da segunda geração: Static Synchronous Compensator (STATCOM), Static Synchronous Series Compensator (SSSC) e Unified Power Flow Controller (UPFC). A alocação destes dispositivos é considerada tanto de forma individual como simultânea, por meio do cálculo de fluxo de potência, sendo este baseado no método de Newton-Raphson, que incorpora a representação funcional de cada um dos controladores. A técnica de Algoritmos Genéticos (AG) é utilizada como base para a implementação das demais meta-heurísticas de otimização, tanto como aferição dos resultados quanto como base de comparação, visto que ela já foi largamente utilizada para o propósito de alocação de dispositivos em redes elétricas. Para a comparação e validação destes métodos foram utilizados principalmente dois sistemas teste, um de pequeno porte e um de porte médio, sendo que no sistema de pequeno porte foram considerados diferentes níveis de carga. Os resultados obtidos apontaram que, embora as diferentes técnicas tenham demostrado potencialidade para lidar com problemas complexos e proporcionar soluções adequadas para alocação de controladores FACTS, a técnica GWO (Grey Wolf Optimizer) apresentou um desempenho particularmente mais destacado, que aliado a maior simplicidade na definição dos parâmetros de atuação a qualificam como alternativa relevante à consagrada técnica de AG para estudos dessa natureza. A avaliação do desempenho das técnicas meta-heurísticas de desenvolvimento recente tratadas neste trabalho impactam diretamente a pesquisa de alocação de sistemas reais, permitindo o aperfeiçoamento de metodologias e a redução do custo computacional. Palavra chave: Planejamento de Operação, Dispositivos FACTS , Alocação de controladores, Meta-heurísticas de otimização. / Abstract: Companies in the electricity sector are faced with constant challenges to provide electricity in an efficient and safe way for consumers, since insecurity or inefficiency in supply is a source of diverse damages for both residential consumers and especially, Commercial and industrial consumers. Therefore, it is extremely important to continuously overcome these challenges on the part of the agents of the sector. Countries such as Brazil, with a large territorial extension and poor homogeneous population distribution, are more subject to the challenges of expanding and operating a larger interconnected power grid that connects generation centers to consumption centers. In this context, the FACTS (Flexible Alternate Current Transmission System) Controllers play extremely relevant roles. In this way, the correct location of these devices in the electrical network can provide great operational advantages, increasing the controllability of the system, with reflexes in the improvement of its efficiency and safety. With this in mind, this dissertation aims to study, implement and compare six methodologies based on metaheuristics to allocate FACTS devices. Static Synchronous Compensator (STATCOM), Static Synchronous Series Compensator (SSSC) and Unified Power Flow Controller (UPFC) were considered for this purpose. The allocation of these devices is considered both individually and simultaneously, by means of the power flow calculation, which is based on the Newton-Raphson method, which incorporates the functional representation of each of the controllers. The Genetic Algorithm (GA) technique is used as the basis for the implementation of other optimization meta-heuristics, since it has already been widely used for the purpose of device allocation in power networks. For the comparison and validation of these methods, two test systems were used, one of small size and one of medium size. Different load levels were considered with the small test system simulations. The performance evaluation of the recent development metaheuristic techniques, treated in this work, directly impact the research of allocation of real systems, allowing the improvement of methodologies and the reduction of computational cost. The results showed that, although the different techniques have demonstrated potential to deal with complex problems and provide adequate solutions for FACTS controller allocation, the GWO (Grey Wolf Optimizer) technique presented a particularly outstanding performance, which, together with the simplicity of parameters definition qualify it as a relevant alternative to the established AG technique for studies of this nature. The evaluation of the performance of the meta-heuristic techniques of recent development treated in this work directly impact the research of allocation of real systems, allowing the improvement of methodologies and the reduction of computational cost. Keyword: Transmission Systems Planning, FACTS devices, Controllers allocation, Metaheuristics.
28

Machine learning techniques applied in human recognition using RGB-D videos

Boaretto, Marco Antonio Reichert January 2017 (has links)
Orientador : Prof. Dr. Leandro dos Santos Coelho / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Engenharia Elétrica. Defesa: Curitiba, 22/11/2017 / Inclui referências : f. 84-95 / Resumo: De acordo com certas particularidades e dificuldades em lidar com imagens 2D, como por exemplo iluminação e obstrução de objetos, uma melhor opção para o problema em questão é utilizar imagens três dimensões (3D) ou Red, Green and Blue - Depth (RGB-D) como comumente são chamadas. Imagens RGB-D são invariantes a luz pelo fato da maioria dos seus dispositivos de aquisição utilizarem infravermelho ou sensores de laser time-of-flight. O Kinect da Microsoft® que foi desenvolvido em parceria com a PrimeSense é uma ferramenta incrível para aquisição de imagens RGB-D de baixa resolução, suas aplicações variam de jogos a imagens médicas. Como o Kinect possui um custo acessível, vem sendo muito utilizado em pesquisas de diversas áreas que fazem uso de visão computacional e classificação de imagens. Diversas base de dados para classificação de imagens RGB-D já foram desenvolvidas com o Kinect, como por exemplo a base de dados multimodal de atividade humana (MHAD) desenvolvido pelo laboratório de tele imersão da Universidade de Califórnia em parceria com o Centro de Ciências de Imagem da Universidade John Hopkins, na qual contem imagens de 10 pessoas desenvolvendo 11 atividades: pulando no lugar (pular), polichinelo (polichinelo), curvando o corpo para frente até o chão (curvar), socando (socar), acenando com as duas mãos (acenando2), acenando com a mão direita (acenando), batendo palmas (palmas), arremessando uma bola (arremessar), sentar e ficar de pé (sentar+levantar), sentando (sentar), ficando de pé (levantar). O principal objetivo da dissertação consiste em comparar duas abordagens de aprendizado de máquina, (i) usando um proposto comitê de máquina com Support Vector Machines (SVM), K-Nearest Neighbors (KNN), Extreme Gradient Boosting (XGBoost) e Artificial Neural Networks (ANN) combinado com três diferentes técnicas de redução de dimensionalidade Principal Component Analysis (PCA), Factor Analysis (FA) e Nonnegative Matrix Factorization (NMF) e (ii) de uma abordagem de aprendizado profundo usando uma proposta arquitetura de Convolutional Neural Network (CNN) chamada de BOANet, usando o MHAD como base de dados. A contribuição do projeto consiste em um sistema de reconhecimento de atividade humana que usa o Kinect para reconhecimento de imagens RGB-D e algoritmos de aprendizado de máquina para construir um modelo classificador. As abordagens propostas tiveram sua performance comparada com valores de referência de recentes trabalhos com o MHAD da literatura. Ambas abordagens tiveram ótima performance obtendo resultados melhores do que a maioria dos valores referência da literatura, a abordagem (i) conseguiu atingir um valor de 99.93% de precisão de classificação e a (ii) 99.05%. Palavras-chave: RGB-D, Kinect, Aprendizado de máquina, Aprendizado profundo, Reconhecimento de Atividade Humana. / Abstract: Given the particularities and issues on dealing with two Dimensions (2D) images, as illumination and object occlusion, one better option to counteract this matter is to work with three Dimensions (3D) images or Red, Green and Blue - Depth (RGBD) as they are usually called. RGB-D images are invariant of illumination since mostly of its acquisition devices use infra-red or time-of-flight laser sensors. The Microsoft® Kinect developed in partnership with PrimeSense is an amazing tool for RGB-D low resolution image acquisition, which its applications vary from gaming to medical imagery. Since Kinect has an accessible cost, it has been widely used in researches on many areas that use computer vision and image classification. Several datasets have already been developed with the Kinect for RGB-D image classification, as for example the Berkeley's Multimodal Human Activity Database (MHAD) from the Tele immersion Laboratory of University of California and the Center for Imaging Science of Johns Hopkins University, which contain images of 10 subjects performing 11 activities: jumping in place (jump), jumping jacks (jack), bending-hands up all the way down (bend), punching (punch), waving two hands (wave2), waving right hand (wave1), clapping hands (clap), throwing a ball (throw), sit down and stand up (sit +stand), sit down (sit), stand up (stand). The main goal of this dissertation is to compare different machine learning approaches, (i) using a proposed ensemble learning technique with Support Vector Machines (SVM), K-Nearest Neighbors (kNN), Extreme Gradient Boosting (XGBoost) and Artificial Neural Networks (ANN) combined with three different dimensionality reduction techniques Principal Component Analysis (PCA), Factor Analysis (FA) and Nonnegative Matrix Factorization (NMF) and (ii) from the Deep Learning (DL) approach using a proposed convolutional neural network (CNN) architecture known as BOANet, using the MHAD as Dataset. The contribution of the project consists on a human activity recognition system (HAR) that uses Kinect for RGB-D image recognition and machine learning algorithm to build the model classifier. The proposed approaches have its performance compared with reference values from recent works with the MHAD of the literature. Both approaches got remarkable performance having better results than most of the reference values from the literature, the (i) approach achieved 99.93% of classification accuracy and (ii) achieved 99.05% of classification accuracy. Key-words: RGB-D, Kinect, Machine Learning, Deep Learning, Human Activity Recognition.
29

Obtenção de nanolamelas de nitreto de boro para nanoaditivação de óleo vegetal isolante utilizado em transformadores de potência

Munaro, Mayara Regina, 1991- January 2017 (has links)
Orientador : Prof. Dr.Edemir Luiz Kowalski / Coorientadora : Profª. Drª. Heloisa Nunes da Motta / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Engenharia Elétrica. Defesa: Curitiba, 21/02/2017 / Inclui referências / Resumo: Os transformadores de potência são elementos fundamentais, de alto custo e estão presentes desde a geração até a distribuição de energia elétrica. A confiabilidade e a vida útil desses equipamentos dependem da preservação do seu sistema de isolamento elétrico interno, constituído por um fluido e uma isolação sólida, que apresenta degradação ao longo do tempo devido ao calor interno gerado. O óleo isolante possui a dupla função de isolar e refrigerar esse sistema, mas a sua baixa condutividade térmica implica em transformadores maiores para a dissipação do calor com o meio. A presente pesquisa teve como objetivo obter um fluido nanoaditivado com elevada condutividade térmica sem comprometer as propriedades de isolação elétrica para aplicação em transformadores de potência. Nanolamelas bidimensionais (2D) de nitreto de boro hexagonal (h-BN) foram obtidas por diferentes parâmetros da técnica de esfoliação líquida em solvente e dispersas em óleo vegetal. Nanotubos de nitreto de boro e nanopartículas de dióxido de titânio (TiO2) também foram usados como aditivos no óleo em diferentes concentrações, visando a comparação do desempenho de diferentes nanopartículas para a melhoria das propriedades do fluido base. O uso de ácido oleico como surfactante foi avaliado nas propriedades térmicas e na estabilidade dos nanofluidos obtidos. A eficiência das rotas da técnica de esfoliação líquida foi avaliada por difração de raios X, espectroscopia Raman e UV-Vis, microscopias eletrônicas de Varredura e Transmissão (MEV e MET). Foi proposto um processo de esfoliação otimizado com a dispersão de h-BN em uma mistura de solventes (20% IPA em água) durante 3 h no ultrassom, seguido de centrifugação à 1500 ou 3000 rpm. As formulações de nanofluidos foram caracterizadas por ensaios de condutividade e difusividade térmica, calorimetria exploratória de varredura (DSC), imagens de MET das dispersões em óleo e espectroscopia dielétrica por impedância no domínio da frequência. A nanoaditivação não apresentou mudança significativa na morfologia e nas propriedades térmicas dos fluidos. Em relação às propriedades dielétricas, foi observado aumento no fator de dissipação, principalmente nos nanofluidos aditivados com nanotubos de nitreto de boro. Supõe-se que garantir a suspensão e a estabilidade das nanopartículas no óleo seja crucial para a melhora e manutenção das propriedades térmicas e dielétricas dos nanofluidos. Palavras-chave: Óleo vegetal. Nanofluido. h-BN. Condutividade térmica. Nanopartículas 2D. Transformadores de potência. / Abstract: Power transformers are key elements of high cost and are present from generation to distribution of electricity. The reliability and useful life of these equipment depends on the preservation of its internal electrical insulation system, consisting of a fluid and a solid insulation, which presents degradation over time due to internal heat generated. The insulating oil has the dual function of isolating and cooling this system, but its low thermal conductivity implies larger transformers for heat dissipation to the environment. The present research had as objective to obtain a nanofilled fluid with high thermal conductivity without compromising the properties of electrical insulation for application in power transformers. Two-dimensional (2D) nanosheets of hexagonal boron nitride (h-BN) were obtained by different parameters of the liquid exfoliation technique in solvent and dispersed in vegetable oil. Boron nitride nanotubes and titanium dioxide nanoparticles (TiO2) were also used as fillers in the oil at different concentrations, aiming at comparing the performance of different nanoparticles for the improvement of base fluid properties.The use of oleic acid as surfactant was evaluated in thermal properties and stability of the obtained nanofluids. The efficiency of the routes of the liquid exfoliation technique was evaluated by X-ray diffraction, Raman and UV-Vis spectroscopy, Scanning and Transmission electron microscopy (SEM and TEM). An optimized exfoliation process with the dispersion of h-BN in a solvent mixture (20% IPA in water) was proposed for 3 h on ultrasound, followed by centrifugation at 1500 or 3000 rpm. The nanofluid formulations were characterized by conductivity and thermal diffusivity tests, scanning calorimetry (DSC), TEM images of oil dispersions and impedance dielectric spectroscopy in the frequency domain. The nanofillers did not present significant change in the morphology and thermal properties of the fluids. In relation to the dielectric properties, an increase in the dissipation factor was observed, especially in the nanofluids filled with boron nitride nanotubes. It is assumed that ensuring the suspension and stability of the nanoparticles in the oil is crucial for the improvement and maintenance of the thermal and dielectric properties of the nanofluids. Key-words: Vegetable oil. Nanofluid. h-BN. Thermal Conductivity. Nanoparticles 2D. Power transformers.
30

Modelagem de malha hidráulica e controle de velocidade de turbinas hidráulicas em uma usina hidrelétrica

Osinski, Cristiano January 2017 (has links)
Orientador : Prof. Gideon Villar Leandro / Coorientador : Prof. Dr. Gustavo H. da C. Oliveira / Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Engenharia Elétrica. Defesa: Curitiba, 13/03/2017 / Inclui referências : f. 100-104 / Área de concentração: Sistemas eletrônicos / Resumo: O sistema elétrico de potência precisa operar em bons níveis de qualidade e confiabilidade. Dentre os requisitos relacionados com qualidade e confiabilidade está a estabilidade de frequência, que está associada com a capacidade de manter ou restaurar a frequência para sua condição nominal na ocorrência de desbalanços entre geração e demanda. Esta é a responsabilidade do controlador de carga e frequência. Considerando as não linearidades presentes no sistema de controle de uma usina hidrelétrica, o controle de carga e frequência é um assunto ainda em aberto exigindo amplo estudo. Neste trabalho, propõe-se aplicar ao problema de controle de carga e frequência em usinas hidrelétricas uma técnica de controle PID com parâmetros variáveis que utiliza um supervisor fuzzy para sintonizar os seus ganhos. Para análise e comparação do desempenho do controlador proposto, será utilizado neste trabalho um modelo matemático de uma usina hidrelétrica construído baseado em informações construtivas de uma usina do Sistema Interligado Nacional. Esse controlador é comparado com um controlador otimizado por algoritmos genéticos e também é comparado com o controlador PID da referida usina. Foram analisadas três condições de operação e o controlador PID fuzzy se mostrou mais eficiente em todas elas. Como uma segunda contribuição para este trabalho, tem-se a proposta de um novo modelo matemático de um conjunto conduto/turbina hidrelétrica. Este novo modelo é comparado com os principais modelos matemáticos de conjunto conduto/turbina presentes na literatura e validado com dados de medição em campo. Foram analisadas três condições de operação, e o modelo do conjunto conduto/turbina proposto nesta dissertação apresentou uma boa aproximação com os dados de medição. Palavras-chave: Estabilidade. Lógica fuzzy. Turbinas hidráulicas. Modelagem e controle. / Abstract: The power system needs to operate at good levels of quality and reliability. Among the requirements related to reliability quality is the frequency stability, which means the ability to maintain or restore the frequency to its nominal condition in the occurrence of unbalances between generation and demand. This is the responsibility of the charge and frequency controller. Considering the nonlinearities present in the control system of a hydroelectric power plant, load and frequency control is a still open subject requiring extensive study. In this work, it is proposed to apply to the problem of load and frequency control in hydroelectric plants a PID control technique with variable parameters that uses a fuzzy supervisor to tune their gains. For the analysis and comparison of the performance of the proposed controller, a mathematical model of a hydroelectric plant constructed based on constructive information of a plant of the National Interconnected System will be used in this work. This controller is compared to an optimal controller tuned by genetic algorithms and is also compared with a tuning suggestion for the PID controller of said power plant. Three operating conditions were analyzed and the fuzzy PID controller proved to be more efficient in all of them. As a second contribution to this work, we propose a new mathematical model of a hydroelectric conduit/turbine set. This new model is compared with the main mathematical models of conduit/turbine set in the literature and validated with field measurement data. Three operating conditions were analyzed, and the model of the conduit/turbine set proposed in this dissertation presented a good approximation with the measurement data. Keywords: Stability. Fuzzy logic. Hydraulic turbines. Modeling and control.

Page generated in 0.0378 seconds