• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 119
  • 66
  • 13
  • 1
  • Tagged with
  • 200
  • 69
  • 60
  • 53
  • 50
  • 44
  • 37
  • 35
  • 30
  • 30
  • 25
  • 23
  • 21
  • 21
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Agente-M

Guimaraes, Alaine Margarete 08 February 2011 (has links)
Resumo: Um dos grandes desafíos da inteligência artificial (IA) é a simulação do comportamento humano através da implementação de agentes deliberativos. Esses agentes se apresentam como entidades computacionais dotadas de certo grau de autonomia e que raciocinam em função da representação dos estados mentais. O Grupo de Pesquisas da UFPR (Universidade Federal do Paraná) voltado para a área de Agentes desenvolveu um Sistema de Matrícula Inteligente - SISMAT [MATOO], onde os agentes foram definidos de acordo com os estados mentais de crença, capacidade e compromisso. Observamos que alguns processos importantes, como o de planejamento, não foram implementados e que não existe um raciocínio claro sobre a interação do agente com seu meio. Foi então projetado um agente deliberativo que simule esses estados, incluindo o planejamento e tenha seu conhecimento representado de forma explícita, dividido em componentes específicos através dos quais possa haver controle sobre ele próprio, e sobre sua interação com o mundo e com outros agentes. O agente desenvolvido, denominado AGENTE-M, simula o comportamento de um matriculador humano realizando o processo de matrícula de aluno em uma universidade. Suas tarefas estão distribuídas em componentes específicos, através dos quais mantém um raciocínio e controle sobre seu próprio processo, sobre o agente usuário com o qual interage e sobre o mundo. O agente usuário representa o aluno que deseja se matricular, e o mundo corresponde à base de dados referente ao curso, disciplinas e histórico escolar. O projeto do AGENTE-M foi baseado na arquitetura BDI (Beliefs, Desires and Intentions) proposta pelo framework DESIRE (DEsign and Specification of Interactive REasoning components), e seu protótipo foi desenvolvido na linguagem de representação de conhecimento LOOM. Os resultados obtidos mostraram que a arquitetura BDI torna o agente mais poderoso em termos de raciocínio, que seu projeto em componentes específicos facilita sua compreensão e manutenção, e que a linguagem LOOM permitiu implementar o agente de acordo como foi projetado, com algumas restrições.
2

Agendamento de reuniões atraves de sistemas multiagentes

Ferreira Junior, Paulo Roberto 27 July 2018 (has links)
Orientador: Jacques Wainer / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-27T15:47:44Z (GMT). No. of bitstreams: 1 FerreiraJunior_PauloRoberto_M.pdf: 2324642 bytes, checksum: 7e12fc519274a4e55f5f2f343450205b (MD5) Previous issue date: 2000 / Resumo: Esta dissertação apresenta um abordagem para a solução do problema do agendamento automático de reuniões, baseada em um conjunto de protocolos de negociação para um sistema multiagentes. Este conjunto de protocolos têm o objetivo de garantir a máxima satisfação do grupo de participantes da reunião, considerando as preferências individuais e as restrições de privacidade destes participantes. E também discutida a análise destes protocolos realizada segundo uma métrica de avaliação proposta e um simulador que também é apresentado. Por fim, é demonstrado a aplicação prática desta abordagem no desenvolvimento de um protótipo de um sistema automático de agendamento de reuniões. / Abstract: Not informed. / Mestrado / Mestre em Ciência da Computação
3

Uma arquitetura para agentes inteligentes baseada na sociedade da mente

Brenner, Mauren Fernanda Meira 12 December 1996 (has links)
Orientador: Heloisa Vieira da Rocha / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação / Made available in DSpace on 2018-07-22T21:22:10Z (GMT). No. of bitstreams: 1 Brenner_MaurenFernandaMeira_M.pdf: 3007263 bytes, checksum: c27f5a627a42ec00450c675feab2f59b (MD5) Previous issue date: 1996 / Resumo: A Sociedade da Mente é o nome dado a um conjunto de propostas de estruturas e mecanismos subjacentes à mente e à inteligência. Estas propostas foram desenvolvidas por Marvin Minsky e apresentadas principalmente durante a década de 80. Entre elas está a noção de que a mente é constituída por unidades desprovidas de inteligência chamadas agentes, unidades estas que podem ser identificadas em diversos níveis de abstração, sendo o mais "baixo" deles o nível equivalente ao neural. A noção de agente é usada para definir os conceitos e mecanismos relativos ao funcionamento integrado da mente como um todo, ou seja, relativos à coordenação dos agentes. O conceito central é o de estado mental parcial, que corresponde ao estado de um subconjunto dos agentes da mente. Estados mentais parciais constituem o meio de comunicação entre grupos de agentes, que na Sociedade da Mente são chamados agências, e são controlados através de agentes especiais que implementam determinados mecanismos de coordenação. Neste trabalho, a Sociedade da Mente é usada como fundamento para uma arquitetura para agentes inteligentes. Uma vez que na Sociedade da Mente a mente é composta por agentes, segue-se que o próprio agente também deve ser constituído de agentes menores, coordenados mediante os mecanismos propostos na Sociedade da Mente. Assim, projetamos uma arquitetura para agentes inteligentes baseada na Sociedade da Mente como uma arquitetura de um sistema multi-agente (um sistema de Inteligência Artificial Distribuída), onde a comunicação e coordenação entre os agentes são feita de uma forma inspirada no conceito de estados mentais parciais e nos mecanismos de coordenação da Sociedade da Mente. Descrevemos o processo de desenvolvimento no qual a arquitetura foi transformada desde um mapeamento direto entre agentes e agências da Sociedade da Mente e agentes da arquitetura multi-agentes, até a sua versão final baseada no modelo de blackboard, o qual constitui um paradigma bem conhecido em Inteligência Artificial Distribuída. Na arquitetura resultante, os mecanismos de coordenação da Sociedade da Mente servem como modelo para objetos organizados nas diferentes seções do blackboard. Esses objetos são "ativos", no sentido de que não constituem apenas informações a serem manipuladas, mas possuem também funcionalidades específicas, segundo as quais atuam como os mecanismos de coordenação da Sociedade da Mente. Mencionamos algumas possibilidades de aplicações usando a arquitetura desenvolvida e descrevemos em detalhe a implementação de uma dessas aplicações, que consiste em um agente que conta uma história. Esta implementação constituiu em uma experiência com o intuito de testar não somente a viabilidade da arquitetura proposta, mas também a própria metodologia deste trabalho, que foi a de tomar o modelo teórico da Sociedade da Mente como ponto de partida em lugar de projetar uma arquitetura para realizar alguma tarefa específica. / Abstract: The Society of Mind is a collection of proposals concerning structures and mechanisms underlying mind and intelligence. These proposals were developed by Marvin Minsky and presented mostly during the 80s. Among them, there is the notion that the mind is made up of mindless units called agents. Such units can be identified at many levels, the lowest of them being the equivalent to the neural level. The Society of Mind relies upon the notion of agent to define the concepts and mechanisms concerning the working of the mind as a whole, i.e. concerning the coordination of agents. The central concept is the partial mental state, which corresponds to the description of the states of some agents of the mind. Groups of agents, which are called agencies in the Society of Mind, communicate through partial mental states, which are controlled by special agents that implement certain coordination mechanisms. In this work, the Society of Mind is taken as a foundation for an intelligent agent architecture. Since in the Society of Mind the mind itself comprises many agents, it follows that the intelligent agent should be made up from smaller agents, coordinated through the mechanisms of the Society of Mind. Thus, we have designed an intelligent agent architecture based on the Society of Mind as an architecture of a multi-agent system (a Distributed Artificial Intelligence system), where the communication and coordination between agents is done in a way which is inspired on the concept of partial mental states and on the coordination mechanisms of the Society of Mind. We have described the design process through which the architecture was transformed from a direct mapping between agents and agencies of the Society of Mind to its final version based on the blackboard model, which is a well-known Distributed Artificial intelligence paradigm. The coordination mechanisms of the Society of Mind work as models for objects placed in the different sections of the blackboard. These objects are "active" in the sense that they do not only contain information to be operated upon, but also have specific functionalities according to which they act like the coordination mechanisms of the Society of Mind. We have mentioned some possibilities of applications using the architecture we developed, and described in some detail the implementation of one of those applications: a story-telling agent. This implementation. Was an experience whose objective was to test the feasibility of the proposed architecture as well as the methodology of this work itself which consisted of taking the theoretical model of the Society of Mind as a starting point instead of designing an architecture to perform some particular task. / Mestrado / Mestre em Ciência da Computação
4

Simulação paralela de eventos discretos com uso de memória compartilhada distribuída

Rebonatto, Marcelo Trindade January 2000 (has links)
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
5

Decentralized control techniques applied to electric power distributed generation in microgrids

Vásquez Quintero, Juan Carlos 04 December 2009 (has links)
Distributed generation of electric energy has become part of the current electric power system. In this context a new scenario is arising in which small energy sources make up a new supply system: The microgrid.The most recent research projects show the technical difficulty of controlling the operation of microgrids, because they are complex systems in which several subsystems interact: energy sources, power electronic converters, energy storage systems, local, linear and non-linear loads and of course, the main grid. In next years, the electric grid will evolve from the current very centralized model toward a more distributed one. At the present time the generation, consumption and storage points are very far away one from each other. Under these circumstances, relatively frequent failures of the electric supply and important losses take place in the transport and distribution of energy, so that it can be stated that the efficiency of the supply system is low.In another context, electric companies are aiming at an electric grid, formed in a certain proportion by distributed generators, where the consumption points are near the generation points, avoiding high losses in the transmission lines and reducing the rate of shortcomings. Summing up, it is pursued the generation of small quantities of electric power by the users (this concept is called microgeneration in the origin), considering them not only as electric power consumers but also as responsible for the generation, becoming this way an integral part of the grid.In this context it is necessary to develop a new concept of flexible grid, i.e., with reconfiguration capability for operation with or without connection to the mains. The future microgrids should incorporate supervision and control systems that allow the efficient management of various kinds of energy generators, such as photovoltaic panels, energy storage systems, and local loads. Hence, we are dealing with intelligent flexible Microgrids capable of import and export power from/to the grid reconfiguring its operation modes and making decisions in real time.The researching lineas that have been introduced in this thesis are focused on the innovation in this kind of systems, the integration of several renewable energy sources, the quality of the power supply, security issues, and the system behavior during faults.In order to carry out some solutions related within these characteristics, the main goal of this thesis is the application on new control stretegies and a power management analysis of a microgrid. Thus, thanks to the emerging of renewable energy, is possible to give an alternative to the decoupling of generation units connected to the utility grid.Likewise, a work methodology has been analyzed and developed based on the modeling, control parameters design, and power management control starting from a single voltage source inverter to a number of interconnected DG units forming flexible Microgrids. In addition, all the mencioned topics have been studied giving new system performances, viability and safe functioning, thanks to the small-signal analysis and introducing control loop design algorithms, improving the import/export of electric power and operating both grid connected mode and an island.This thesis has presented an analysis, simulation and experimental results focusing on modeling, control, and analysis of DG units, giving contributions according to the following steps:- Control-oriented modeling based on active and reactive power analysis- Control synthesis based on enhanced droop control technique.- Small-signal stability study to give guidelines for properly adjusting the control system parameters according to the desired dynamic responseThis methodology has been extended to microgrids by using hierarchical control applied to droop-controlled line interactive UPSs showing that:- Droop-controlled inverters can be used in islanded microgrids.- By using multilevel control systems the microgrid can operate in both grid-connected and islanded mode, in a concept called flexible microgrid.The proposed hierarchical control required for flexible Microgrids consisted of different control levels, as following:- Primary control is based on the droop method allowing the connection of different AC sources without any intercommunication.- Secondary control avoids the voltage and frequency deviation produced by the primary control. Only low bandwidth communications are needed to perform this control level. A synchronization loop can be added in this level to transfer from islanding to grid connected modes.- Tertiary control allows the import/export of active and reactive power to the grid.
6

Geração de modelos de co-simulação distribuída para a arquitetura DCB

Sperb, Josué Klafke January 2003 (has links)
O aumento na complexidade dos sistemas embarcados, compostos por partes de hardware e software, aliado às pressões do mercado que exige novos produtos em prazos cada vez menores, tem levado projetistas a considerar a possibilidade de construir sistemas a partir da integração de componentes já existentes e previamente validados. Esses componentes podem ter sido desenvolvidos por diferentes equipes ou por terceiros e muitas vezes são projetados utilizando diferentes metodologias, linguagens e/ou níveis de abstração. Essa heterogeneidade torna complexo o processo de integração e validação de componentes, que normalmente é realizado através de simulação. O presente trabalho especifica mecanismos genéricos e extensíveis que oferecem suporte à cooperação entre componentes heterogêneos em um ambiente de simulação distribuída, sem impor padrões proprietários para formatos de dados e para a descrição do comportamento e interface dos componentes. Esses mecanismos são baseados na arquitetura DCB (Distributed Co-Simulation Backbone), voltada para co-simulação distribuída e heterogênea e inspirada nos conceitos de federado (componente de simulação) e federação (conjunto de componentes) que são definidos pelo HLA (High Level Architecture), um padrão de interoperabilidade para simulações distribuídas. Para dar suporte à co-simulação distribuída e heterogênea, esse trabalho descreve mecanismos que são responsáveis pelas tarefas de cooperação e distribuição, chamados de embaixadores, assim como o mecanismo gateway, que é responsável pela interoperabilidade entre linguagens e conversão de tipos de dados. Também é apresentada uma ferramenta de suporte à geração das interfaces de co-simulação, que são constituídas de dois embaixadores configuráveis e um gateway para cada federado, gerado a partir de templates pré-definidos.
7

Co-simulação distribuída de sistemas heterogêneos

Mello, Braulio Adriano de January 2005 (has links)
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.
8

Análise da distribuição de um simulador multinível

Figueiro, Joice Pavek January 1994 (has links)
A validação de projetos de sistemas eletrônicos pode ser feita de diversas maneiras, como tem sido mostrado pelas pesquisas em síntese automática e verificação formal. Porém, a simulação ainda é o método mais utilizado. O projeto de um sistema digital típico pode ser desenvolvido em diversos níveis de abstração, como os níveis algorítmico, lógico ou analógico. Assim, a simulação também deve ser executada em todos esses níveis. A simulação apresenta, contudo, o inconveniente de não conseguir conciliar uma alta acuracidade de resultados com um baixo tempo de simulação. Quanto mais detalhada é a descrição do circuito, maior é o tempo necessário para simulá-lo. O inverso também é verdadeiro, ou seja, quanto menor for a acuracidade exigida, menor será o tempo dispendido. A simulação multinível tenta conciliar eficiêencia e acuracidade na simulação de circuitos digitais, propondo que partes do circuito sejam descritas em diferentes níveis de abstração. Com isso, somente as partes mais críticas do sistema são descritas em detalhes e a velocidade da simulação aumenta. Contudo, essa abordagem não é suficiente para oferecer um grande aumento na velocidade de simulação de grandes circuitos. Assim, surge como alternativa a aplicação de técnicas de processamento distribuído à simulação multinível. Os aspectos que envolvem a combinação dessas duas técnicas são abordados nesse trabalho. Como plataforma para os estudos realizados, optou-se por usar duas ferramentas desenvolvidas nessa Universidade: os simuladores do Sistema AMPLO e o Sistema Operacional HetNOS. São estudadas técnicas de sincronização em sistemas distribuídos, fundamentais para o desenvolvimento dos simuladores e, finalmente, são propostas alternativas para a distribuição dos simuladores. É realizada, ainda, uma análise comparativa entre as versões propostas.
9

Simulação paralela de eventos discretos com uso de memória compartilhada distribuída

Rebonatto, Marcelo Trindade January 2000 (has links)
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
10

UMA METODOLOGIA PARA RECONFIGURAÇÃO DE REDES INTELIGENTES

BENTO, F. R. O. 14 June 2013 (has links)
Made available in DSpace on 2016-08-29T15:38:59Z (GMT). No. of bitstreams: 1 tese_6546_Uma Metodologia para Reconfiguração de Redes Inteligentes.pdf: 8452695 bytes, checksum: 18c06fbd13ed0f599c9c6f6799e6fc6c (MD5) Previous issue date: 2013-06-14 / Neste trabalho é investigada a reconfiguração de redes inteligentes de energia elétrica, a qual consiste em uma ação de controle realizada em situações de contingência, contribuindo para a continuidade de atendimento às cargas prioritárias. A operação de reconfiguração muda a topologia, eventualmente rejeita cargas de menor prioridade (desconectando-as da rede) e busca manter um balanço entre demanda e oferta de potência. São abordados alguns aspectos conceituais sobre microrredes e redes inteligentes. Com relação às microrredes, são apresentados um breve histórico e suas principais características. Em seguida, as redes inteligentes são caracterizadas e a definição de inteligência em sistemas de energia é abordada conforme definição da NEMA (National Electrical Manufacturers Association). Também é apresentada uma comparação entre redes inteligentes e redes elétricas convencionais. Finalmente são destacadas as oportunidades que as redes inteligentes proporcionam para a resolução do problema da reconfiguração de microrredes. Como principais contribuições desta dissertação de mestrado, citam-se: a formalização de indicadores de desempenho da reconfiguração; a proposta de um conjunto de estados da topologia que compõem uma metodologia de reconfiguração; estudos da reconfiguração de uma rede inteligente contendo duas microredes integradas com o SEP (Sistema Elétrico de Potência) através de PCC (Ponto Comum de Acoplamento). Foram implementadas e analisadas reconfigurações das microrredes dos casos SPS (Ship Power System - SPS) de oito barras e de uma microrrede do CERTS (Consortium for Electric Reliability Technology Solutions) com modificações. Adicionalmente, foi estudada a reconfiguração de uma rede inteligente, formada a partir da integração de duas microrredes semelhantes ao caso SPS e CERTS, ambas com conexão ao SEP através de PCCs. A partir de uma análise dos resultados alcançados, é possível observar que a metodologia aplicada funciona de forma satisfatória para os casos estudados. Finalmente, são identificados alguns trabalhos a serem ainda realizados, a fim de complementar esta dissertação, a saber: ajuste automático de parâmetros da metodologia de rejeição de carga e análise transitória de operação.

Page generated in 0.0524 seconds