• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 80
  • 27
  • 13
  • 8
  • 5
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 166
  • 166
  • 70
  • 59
  • 53
  • 36
  • 31
  • 26
  • 26
  • 24
  • 24
  • 23
  • 23
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Uma analise da logistica colaborativa na industria farmaceutica / An analysis of the collaborative logistics for the pharmaceutical industry

Silva, Luiz Fernando Moreira da 02 August 2010 (has links)
Orientador: Douglas Tacla / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Civil, Arquitetura e Urbanismo / Made available in DSpace on 2018-08-15T15:02:49Z (GMT). No. of bitstreams: 1 Silva_LuizFernandoMoreirada_M.pdf: 1451507 bytes, checksum: 58e3a59b22897945f6af446c8a495907 (MD5) Previous issue date: 2010 / Resumo: Esta dissertação objetiva discutir a situação atual da logística farmacêutica na Grande São Paulo e analisar uma alternativa para a distribuição de medicamentos destinados às farmácias, sob os aspectos estratégico, tático e operacional. Esta alternativa deverá permitir a redução de custos e melhorar a eficiência desta distribuição urbana com entrega feita por meio de transporte rodoviário. Uma vez aplicada esta alternativa, espera-se uma redução nas taxas de poluição e de tráfego de veículos de entregas, com vantagens em comparação ao método atualmente utilizado pelo mercado farmacêutico. O uso da logística colaborativa no desenho da malha desta estratégia de distribuição fina é facilitado pela grande interação já existente entre as empresas do setor farmacêutico. Esta interação será ainda maior devido à publicação da Lei 11.903/09 e, mais recentemente, à regulamentação da ANVISA RDC 059/09, que torna obrigatória a coleta e troca de informação entre produtores, distribuidores e varejistas. De modo a tornar esta estratégia viável, sua composição de custos deve permitir a inserção de um parceiro de distribuição na malha atual. Este parceiro deverá estar apto a planejar e executar as entregas destinadas à região metropolitana, reduzindo o número de veículos usados na operação em comparação ao método de distribuição regular. Por se tratar de um método de distribuição em grandes centros urbanos por intermédio de um único parceiro, o ganho de escala proporcionado pode tornar viável o uso de uma frota de veículos movida a combustível limpo ou ecológico, como etanol ou eletricidade, permitindo maior redução da poluição gerada pela distribuição urbana. A forma utilizada para desenvolver este trabalho se deu pela análise de uma operação real de distribuição de medicamentos na Grande São Paulo, sua comparação com uma abordagem colaborativa para a distribuição de medicamentos na mesma região e a conclusão com base nos resultados gerados pela simulação e comparação das variáveis que influenciam o tráfego, a emissão de poluentes e os custos envolvidos com a distribuição de medicamentos em áreas urbanas. Após o desenvolvimento destes dois métodos de distribuição, eles foram aplicados às variáveis atribuídas a cada um, a partir de dados e premissas baseadas em operações reais colhidas junto a um operador logístico de distribuição de medicamentos, gerando valores comparáveis e que embasaram uma conclusão e recomendação, a partir deste estudo. Uma das premissas mais importantes deste estudo é que, adicionalmente às variáveis consideradas, esta nova configuração deve provar sua eficiência também no que se refere ao nível de serviço, isto é, a frequência e a pontualidade nas entregas urbanas, mantendo-o, no mínimo, no mesmo nível encontrado atualmente. A conclusão deste trabalho será a comparação de três variáveis entre a configuração atual - em que vários e diferentes transportadores precisam atingir lojas de varejo diariamente, entregando diversos tipos de produtos, e configuração proposta - em que apenas um transportador fará as entregas nas áreas urbanas / Abstract: This dissertation aims to discuss the current situation of pharmaceutical logistics in the São Paulo metro area and analyze an alternative for the distribution of pharmaceutical products for the drugstores and pharmacies located in the metro regions under the aspects strategic, tactic and operational. The alternative for the distribution method presented in this study shall allow a cost reduction and improve the efficiency of the urban distribution using the ground transportation. Once this alternative is applied, it will be expected a reduction in pollution and transit rates generated by this urban deliveries, bringing advantages when in comparison with the current method utilized by the pharmaceutical market. The use of collaborative logistics to design this distribution network strategy is facilitated by the great interaction already existing among the pharmaceutical industry. This interaction will be even bigger due to the issue of a new law n. 11.903/09 and a new rule from the Federal Sanitary Agency (ANVISA), n. 059/09, which states the obligation of exchanging information among industry, logistics providers, wholesalers and retailers. To make the strategy presented in this study feasible, the costs involved in its operation must to allow insert a new partner in current supply chain. This partner must be apt to plan and execute the deliveries in the metro area, reducing the number of vehicles used in this operation in comparison with the current or regular distribution method. Considering this is an urban distribution method for a big city using an unique provider, the scalability can allow the use of a clean fuel fleet, as ethanol or electricity, allowing an even bigger reduction in the pollution generated by this urban distribution piece. The methodology used was the analysis of a real operation for pharmaceutical distribution in the Sao Paulo metro area, its comparison with a collaborative approach and then the conclusion based on the results obtained through the simulation of the two scenarios using the arguments that affect the traffic, pollution and the costs involved in this distribution. The data to simulate the two scenarios were taken from a real operation of pharmaceutical distribution located in the Sao Paulo metro area. One of the most important assumptions is that this model must to prove its efficiency in the service level, assuring at least the same level provided currently. The conclusion will be the comparison between the current methods, where many different carriers need to carry goods to retail stores daily, with the proposed method, where only one carrier will provide the deliveries in the metro area / Mestrado / Transportes / Mestre em Engenharia Civil
122

Metodologias para analise do risco de ocorrencia de ilhamentos não intencionais de geradores sincronos distribuidos / Methodologies for evaluating the risk of occurrence of non intentional islanding of distributed synchronous generators

Salles Corrêa, Diogo 25 June 2008 (has links)
Orientadores: Walmir de Freitas Filho, Jose Carlos de Melo Vieira Junior / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-11T06:20:40Z (GMT). No. of bitstreams: 1 SallesCorrea_Diogo_M.pdf: 1373306 bytes, checksum: a6a2357bf0c337089786c03c519bbd7d (MD5) Previous issue date: 2008 / Resumo: Geradores síncronos conectados em redes de distribuição de energia elétrica estão sujeitos a operarem de forma ilhada após contingências como, por exemplo, curtos-circuitos. Ilhamento ocorre quando uma parte da rede de distribuição opera eletricamente isolada da subestação da concessionária, mas continua a ser energizada por geradores distribuídos. Devido a um conjunto de implicações técnicas e de segurança, a prática atualmente utilizada pelas concessionárias e recomendada pelos principais guias técnicos é desconectar todos os geradores da rede isolada tão logo ocorra um ilhamento. Existem diversas técnicas de proteção desenvolvidas para detectar ilhamentos e a maioria delas possui limitações técnicas e são propensas a falharem em determinadas situações. Neste contexto, torna-se importante conhecer a probabilidade ou risco da proteção falhar na detecção de ilhamentos em sistemas de distribuição de energia elétrica com geradores distribuídos e, por conseguinte, decidir se o sistema de proteção utilizado é adequado ou não. A falha da detecção de uma situação de ilhamento é tecnicamente denominada ilhamento não intencional. Esta dissertação de mestrado apresenta uma série de metodologias desenvolvidas para analisar o risco da ocorrência de ilhamentos não intencionais devido à falha do sistema de proteção de geradores síncronos. O sistema de proteção antiilhamento considerado neste trabalho é composto por relés baseados em medidas de freqüência e/ou tensão visto que atualmente estes são considerados os dispositivos mais eficientes para realizar tal tarefa. Como os desempenhos desses relés estão fortemente relacionados aos desbalanços de potência ativa e reativa na rede ilhada, respectivamente, as metodologias desenvolvidas baseiam-se nas curvas de carga do sistema de distribuição, nos patamares de geração de potência ativa e reativa e no cálculo de um índice numérico que indica o risco de falha da proteção antiilhamento. Diversos métodos eficientes foram desenvolvidos para calcular diretamente este índice de risco sem a necessidade de executar numerosas simulações de transitórios eletromagnéticos. Ressalta-se que os principais fatores que afetam o desempenho do sistema de proteção antiilhamento podem ser prontamente determinados com a aplicação das metodologias desenvolvidas. Os resultados obtidos mostraram-se precisos quando comparados aos obtidos por meio de repetidas simulações do tipo de transitórios eletromagnéticos / Abstract: Distributed synchronous generators connected to distribution power systems are prone to operate islanded after contingencies such as short circuits. Islanding occurs when a portion of the distribution network operates electrically isolated from the utility grid substation, yet continues to be energized by local distributed generators connected to the isolated system. Due to a number of technical and safety concerns, the procedure currently adopted by utilities and recommended by the main technical guides is to disconnect all the generators immediately after an islanding event. There are several anti-islanding techniques and the majority of them present technical limitations so that they are likely to fail in certain situations. In this context, it becomes important to know the probability or the risk of the protection scheme to fail in the detection of islanding events in distribution power systems containing distributed generators and, ultimately, determine whether the protection scheme under study is adequate or not. The failure of islanding detection is technically denominated non intentional islanding. This work presents a number of methodologies developed to evaluate the risk of occurrence of non intentional islanding due to the failure of synchronous generators protection systems. The anti-islanding protection system considered in this work is composed of relays based on measures of frequency and/or voltage, since these are considered to be the most efficient methods to perform this task. As the performance of these relays is strongly dependent on the active and reactive power imbalances in the islanded system, respectively, the methodologies are based on the distribution network feeder load curves, the active and reactive power generation levels and on the calculation of numerical index to quantify the risk level of protection system failure. Efficient methods were developed to directly calculate these risk indexes without performing several electromagnetic transient simulations. Through these methods, the main factors impacting on the performance of the antiislanding protection schemes can be determined. The results obtained by the usage of the proposed methodologies presented a very good match with those obtained by electromagnetic transient simulations / Mestrado / Energia Eletrica / Mestre em Engenharia Elétrica
123

Gerenciamento de conteúdo multimídia em redes cdn-p2p.

Libório Filho, João da Mata 22 March 2012 (has links)
Made available in DSpace on 2015-04-11T14:03:13Z (GMT). No. of bitstreams: 1 DISSERTACAO JOAO DA MATA.pdf: 5833486 bytes, checksum: fd81987d9b1e9ac8f9bb648058db273b (MD5) Previous issue date: 2012-03-22 / Fundação de Amparo à Pesquisa do Estado do Amazonas / Scalability and high demand for resources are the main challenges that content providers face to deploy Video-on-Demand applications. The most popular site for sharing videos, YouTube, has over 4 billion videos viewed a day and 60 hours of video are uploaded every minute. Hybrid systems (CDN-P2P) have been proposed as a scalable and cost effective solution for VoD distribution. In these systems, peers share their resources decreasing demand on the content distribution network infrastructure (CDN). On the other hand, the CDN s servers guarantee the availability of content when peers contributions are limited by churn. However, in these systems, the content distributed must be managed so that the CDN servers workload is minimized. An issue to be investigated is the impact of churn, i.e the effect of cycle of peers join and leave, on management policies. Carried studies showed that the performance of policies improves as the storage capacity of peers increases. However, this increasement does not impact proportionately the performance of policies. Later on, we proposed, implemented and evaluated four object management policies derived from data in YouTube video collections. These policies use information left by users or generated by the video distribution system to measure the value of objects. We found that the proposed policies were able to improve the availability of content in more than 70%, compared to the LFU policy, and more than 50% compared to GDSP policy. / A escalabilidade e a alta demanda por recursos s ao os principais desafios que os provedores de conte´udo enfrentam na viabiliza¸c ao de aplica¸c oes de v´ıdeos sob demanda (VoD). O site mais popular de compartilhamento de v´ıdeos, o YouTube, tem mais de 4 bilh oes de visualiza¸c oes por dia e 60 horas de v´ıdeo s ao armazenadas a cada minuto em seus servidores. Sistemas h´ıbridos (CDN-P2P) t em sido apresentado como uma solu¸c ao escal´avel para distribui¸c ao de VoD. Nesses sistemas, pares compartilham seus recursos diminuindo a demanda sobre a infraestrutura da rede de distribui¸c ao de conte´udo (CDN). Por outro lado, os servidores da CDN garantem a disponibilidade de conte´udo quando as contribui¸c oes dos pares s ao limitadas pelo churn, ou quando o conte´udo for in´edito aos pares da rede par a par (P2P). No entanto, o conte´udo distribu´ıdo nesses sistemas precisa ser gerenciado, de forma que a carga de trabalho submetida aos servidores da CDN seja minimizada. Uma quest ao a ser investigada nesse sistema ´e o impacto do churn, isto ´e, o efeito criado pelo ciclo de entrada e sa´ıda dos pares sobre os mecanismos de ger encia do conte´udo distribu´ıdo pelo sistema. Nesta disserta¸c ao avalia-se o impacto do churn no desempenho de pol´ıticas de gerenciamento de objetos em sistemas CDN-P2P; verificou-se que o impacto no desempenho das pol´ıticas diminui com o aumento da capacidade de armazenamento dos pares, no entanto, esse aumento n ao impacta proporcionalmente a performance das pol´ıticas. Em seguida, s ao propostas, implementadas e avaliadas quatro pol´ıticas de gerenciamento de objetos derivadas a partir de dados reais obtidos de cole¸c oes de v´ıdeos do YouTube. Essas pol´ıticas exploram informa¸c oes deixadas pelos usu´arios ou geradas pelo sistema de distribui¸c ao dos v´ıdeos para mensurar o valor de um objeto. A suposi¸c ao acerca da efetividade dessas informa¸c oes na valora¸c ao dos objetos ´e devido `a influ encia do sistema de recomenda¸c ao do YouTube no acesso a seu conte´udo, pois esse sistema utiliza-se dessas informa¸c oes para indicar v´ıdeos aos usu´arios. As pol´ıticas propostas foram capazes de melhorar a disponibilidade do conte´udo em mais de 70%, comparada `a disponibilidade proporcionada pela pol´ıtica LFU e mais de 50%, comparada `a pol´ıtica GDSP.
124

Método computacional para elaboração de projetos eletromecânicos de redes de distribuição de energia elétrica com condutores de alumínio Nu

Carvalho, Denner Monteiro de 28 September 2017 (has links)
Submitted by Marlene Santos (marlene.bc.ufg@gmail.com) on 2017-11-17T16:18:59Z No. of bitstreams: 2 Dissertação - Denner Monteiro de Carvalho - 2017.pdf: 49512193 bytes, checksum: dce0c13146977219335b29250e4960d7 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-11-20T10:11:34Z (GMT) No. of bitstreams: 2 Dissertação - Denner Monteiro de Carvalho - 2017.pdf: 49512193 bytes, checksum: dce0c13146977219335b29250e4960d7 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) / Made available in DSpace on 2017-11-20T10:11:34Z (GMT). No. of bitstreams: 2 Dissertação - Denner Monteiro de Carvalho - 2017.pdf: 49512193 bytes, checksum: dce0c13146977219335b29250e4960d7 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017-09-28 / The present work presents the development of a computational tool for the optimization of processes in the elaboration of electromechanical projects of conventional electricity distribution networks. The current process of elaboration of distribution network projects that has significant topographical interferences is slow and depends on software with a technological lag that requires post processing of the data to generate the final project, besides demanding specific technical knowledge and too much elaboration time. This elaboration time, as well as the errors occurred in the post-processing stage, hinder the approval process of the projects in the electric power concessionaires, and delay the connection of final consumers. For modeling the process, the typologies of the terrain where the network path is to be determined through surveys of the topographic data are verified first. Afterwards, mechanical forces and stresses are observed in each type of electromechanical structure, defining the minimum mounting distances in compliance with related technical norms, as well as incident variables such as wind speed and mechanical variations of the conductors during the operation. The modeling of the decision variables is applied a recursive heuristic method with the application of the Hill Climbing optimization method, which sweeps the entire line defined by topography, performing the mechanical evaluations and calculations with the optimization of technical budget criteria, generating uniform solutions and Automated. The tool obtained is developed in Web platform with friendly interface and updated, and can be used through any browser. The software, besides providing the elaboration of the project with embedded normative criteria, can be easily used for project analysis, providing integrated visualization of the planialtimetric profiles through Google Maps, optimizing the process of visual evaluation. / O presente trabalho apresenta o desenvolvimento de um método computacional destinado à otimização de processos na elaboração de projetos eletromecânicos de redes de distribuição convencional de energia elétrica. O processo atual de elaboração de projetos de redes de distribuição que possui interferências topográficas é lento e depende de softwares com defasagem tecnológica que necessitam de pós processamento dos dados para gerar o projeto final, além de demandar conhecimento técnico específico e demasiado tempo de elaboração. Esse tempo de elaboração, bem como os erros ocorridos na etapa de pós processamento, dificultam o processo de aprovação dos projetos nas concessionárias de energia elétrica, e atrasam a ligação dos consumidores finais. Para modelagem do processo, são verificados primeiramente as tipologias do terreno onde se deseja definir o caminhamento da rede através de levantamentos dos dados topográficos. Após, são observados os esforços e solicitações mecânicas pontualmente em cada tipo de estrutura eletromecânica, definindo as distâncias mínimas de montagem em observância às normas técnicas relacionadas, e também, variáveis incidentes como a velocidade do vento e variações mecânicas dos condutores durante a operação. Realizada a modelagem das variáveis de decisão é aplicado um método heurístico recursivo com a aplicação do método de otimização Hill Climbing, que varre toda a linha definida pela topografia, realizando as avaliações e cálculos mecânicos com a otimização de critérios técnicos orçamentários, gerando soluções uniformizadas e automatizadas. O método computacional é desenvolvido em plataforma Web com interface amigável e atualizada, podendo ser utilizada através de um navegador qualquer. O software além de proporcionar a elaboração do projeto com critérios normativos embutidos, pode ser facilmente utilizada para análise de projetos, proporcionando visualização integrada dos perfis planialtimétricos através Google Maps, otimizando o processo de avaliação visual.
125

CALIBRAÇÃO DE DADOS PARA ESTUDOS DE CONFIABILIDADE EM REDES DE DISTRIBUIÇÃO: MODELAGEM DA CONDIÇÃO DOS EQUIPAMENTOS E DOS ÍNDICES DE CONTINUIDADE NODAIS / CALIBRATION DATA FOR STUDIES IN NETWORK RELIABILITY: MODELING THE STATUS OF EQUIPMENT AND INDICES CONTINUITY NODAL

Ferreira, Márcio André Nazareno 06 August 2010 (has links)
Made available in DSpace on 2016-08-17T14:53:12Z (GMT). No. of bitstreams: 1 Marcio Andre Nazareno Ferreira.pdf: 1733085 bytes, checksum: 163ab439fd1be9f3bb9050a8433d34e2 (MD5) Previous issue date: 2010-08-06 / After the restructuring of the electric sector, the distribution utilities must maximize the reliability to avoid violation in the reliability targets at the minimal cost. This agreement between cost and reliability can be satisfied with the application of Predictive Reliability Analysis (PRA) in the planning of distribution networks. The PRA estimates the future performance of distribution networks, with regarding to energy supply interruptions, based on the failure data of the components and network topology. The PRA can delivery estimates for the following statistical reliability indices used in the distribution utilities: System Average Interruption Frequency Index (SAIFI), System Average Interruption Duration Indices (SAIDI), Connection Point Interruption Frequency Index (CPIFI), and Connection Point Interruption Duration Index (CPIDI). However, the PRA is rarely used by engineers during the planning of the distribution utilities. This fact is due to the existence of discrepancies between the indices estimated by the PRA and those measured by distribution utilities. These discrepancies are due to the lack of historical data to estimate the reliability parameters of the components: failure rates and repair times. In spite of the distribution utilities do not have a large amount of historical data associated with failures in their equipment, these utilities store historical data on system reliability indices (SAIDI, SAIFI, CPIFI and CPIDI). This information can be used to adjust the failure data of the components (failure rates and repair times) such that the reliability indices evaluated by the ACP models have nearly the same values as those measured by distribution utilities. This adjustment process of the reliability data in ACP models is named Data Calibration. Usually, the reliability data calibration is carried out through optimization techniques. However, the most of the existing methodologies ignores the nodal reliability indices (CPIFI and CPIDI) in the calibration of failure rates and repair times. Only the CPIFI index has been considered in the data calibration. Furthermore, it is not possible to assure that the SAIFI has the same value as its measured value when the calibration considers the CPIFI index. Nevertheless, the Brazilian Electricity Regulatory Agency (ANEEL) has established penalties for violations in the indices CPIFI and CPIDI. Due to this, the PRA models must accurately estimate the nodal reliability indices CPIFI and CPIDI. The main objective of this dissertation is to develop a calibration methodology of reliability data oriented to nodal reliability indices CPIFI and CPIDI. The proposed methodology uses nonlinear and quadratic programming models to calibrate the failure rates and repair times, respectively, in a decoupled structure. This decoupled structure allows the calibration of failure rates and repair times be carried out separately. Additionally, the utilization of equality constraints in the calibration models assures that the evaluated values of SAIFI and SAIDI indices are identical to their measured values. Furthermore, the proposed calibration model for the failure rates considers the equipment condition information obtained from inspection activities. The calibration models proposed in this dissertation were tested in a feeder of the power distribution utility of Maranhão (CEMAR). The tests results demonstrate that the proposed calibration models can significantly reduce the errors between the measured and evaluated values of the CPIFI and CPIDI indices / Após a reestruturação do setor elétrico, as empresas de distribuição devem maximizar a confiabilidade do fornecimento para evitar violações nas metas de confiabilidade com o menor custo possível. Este compromisso entre custo e confiabilidade pode ser atendido com a aplicação da Análise de Confiabilidade Preditiva (ACP) no processo de planejamento de redes de distribuição. A ACP estima o desempenho futuro da rede de distribuição, com relação a interrupções no fornecimento de energia, com base nos dados de falha dos componentes e na sua topologia. A ACP pode fornecer estimativas para os seguintes indicadores de continuidade estatísticos usados pelas empresas de distribuição: Freqüência Equivalente de Interrupção por Unidade Consumidora (FEC), Duração Equivalente de Interrupção por Unidade Consumidora (DEC), Freqüência de Interrupção individual por Unidade Consumidora ou por Ponto de Conexão (FIC), Duração de Interrupção Individual por Unidade Consumidora ou por Ponto de Conexão (DIC) e Duração Máxima de Interrupção Contínua por Unidade Consumidora ou por Ponto de Conexão (DMIC). Entretanto, a ACP é raramente usada pelos engenheiros de planejamento das empresas de distribuição. Este fato é devido à existência de discrepâncias entre os índices estimados pela ACP e aqueles apurados pelas empresas de distribuição. Estas discrepâncias são causadas pela falta de dados históricos para estimar os parâmetros de confiabilidade dos componentes, isto é: taxas de falha, tempos de reparo e chaveamento. Apesar das empresas de distribuição não possuírem uma grande quantidade de dados históricos associados com as falhas dos seus equipamentos, estas empresas armazenam dados históricos sobre índices de continuidade do sistema (FEC, DEC, DIC e FIC). Esta informação pode ser utilizada para ajustar os dados de falha dos componentes (taxas de falha e os tempos de reparo) tal que os índices calculados pelo modelo de ACP sejam próximos dos índices medidos pelas empresas de distribuição. Este processo de ajuste dos dados de falha dos modelos de ACP é denominado de Calibração de Dados. Geralmente, a calibração de dados de confiabilidade é realizada através de técnicas de otimização. Contudo, a maioria das metodologias existentes desconsidera os índices de confiabilidade nodais (FIC e DIC) na calibração das taxas de falha e tempos de reparo. Apenas o índice nodal FIC tem sido considerado na calibração de dados. Além disso, não é possível garantir que o índice FEC seja igual ao seu valor apurado quando a calibração considera o índice FIC. Contudo, a ANEEL (Agência Nacional de Energia Elétrica) estabeleceu penalidades para violações nos índices FIC e DIC. Devido a isto, os modelos de ACP devem estimar precisamente os índices de confiabilidade nodais FIC e DIC. O principal objetivo desta dissertação é desenvolver uma metodologia de calibração de dados de confiabilidade orientada para os índices nodais FIC e DIC. A metodologia proposta utiliza modelos de programação não-linear e quadrática para calibrar as taxas de falha e os tempos de reparo, respectivamente, em uma estrutura desacoplada. Isto é, a calibração das taxas de falha e dos tempos de reparo é realizada separadamente. Adicionalmente, a utilização de restrições de igualdade nos modelos de calibração assegura que os valores calculados dos índices FEC e DEC sejam idênticos aos seus valores medidos. Além disso, o modelo de calibração proposto para as taxas de falha considera a informação de condição dos equipamentos obtida a partir de atividades de inspeção. Os modelos de calibração propostos nesta dissertação foram testados em um alimentador da Companhia Energética do Maranhão (CEMAR). Os resultados dos testes demonstraram que os modelos de calibração propostos podem reduzir significativamente os erros entre os valores medidos e calculados dos índices FIC e DIC.
126

Otimização energética em tempo real da operação de sistemas de abastecimento de água / Real-time optimization of water supply system operation

Alice Araújo Rodrigues da Cunha 12 May 2009 (has links)
Este trabalho apresenta um modelo computacional para otimização energética de sistemas de abastecimento em tempo real. Tal modelo é composto por três módulos principais: (1) um módulo de simulação hidráulica que descreve o comportamento do sistema - EPANET; (2) um módulo de previsão de demandas que realiza a previsão das demandas futuras aplicável à utilização no tempo real (curto prazo), desenvolvido por Odan (2008); e, por fim, (3) um módulo otimizador estruturado em linguagem C++ que implementa a biblioteca de algoritmos genéticos do MIT - Massachusetts Institute of Technology and Matthew Wall, a GAlib, que permite determinar as rotinas operacionais (acionamento de válvulas e bombas) de forma à minimizar o custo de energia elétrica no sistema. O processo de otimização é divido em duas rotinas, nível estratégico e tempo real. Na otimização em nível estratégico, a partir das curvas típicas de demanda para cada nó de demanda do macro-sistema considerado, determina-se o conjunto de controles que minimizam os custos de energia elétrica, respeitando as restrições hidráulicas do sistema. Para cada conjunto de controles otimizados têm-se os níveis que os reservatórios irão atingir ao final de cada hora durante o horizonte de planejamento considerado, denominados níveis metas. Tais níveis servem de guia para a segunda etapa de otimização. A operação em tempo real se inicia com o recebimento dos dados sobre as condições atuais do sistema: níveis dos reservatórios e demandas da última hora. A partir das demandas informadas, o módulo de previsão de demandas gera todas as demandas para o horizonte de planejamento. Alimenta-se então o otimizador em tempo real com os níveis atuais dos reservatórios, os níveis metas e a previsão de demandas, obtêm-se o conjunto de regras operacionais ótimas para o horizonte de planejamento, sendo que são implementadas apenas as regras para a hora atual. E repete-se todo o processo a cada hora. Este modelo foi aplicado a um sistema de abastecimento de água. Os resultados obtidos demonstraram a eficiência do modelo em achar soluções factíveis de serem implementadas e com redução dos custos com energia elétrica. / This work presents a computational model for real-time optimization of water-distribution networks operation. An integrated software tool has been developed which is composed of three main modules: (i) a hydraulic simulator that performs the extended period simulation of the system (EPANET); (ii) a short-term demand-forecasting model, based on the moving Fourier series; and (iii) an optimization module, using genetic algorithm, to minimize pumping costs. The optimization process is divided in two routines, the off-line optimization and the on-line optimization. The aim of the first routine is to find the ideal operation levels for the reservoirs which are used as guidance for the on-line optimization. The schedules to be implemented in the network are determined, however, by an on-line optimization which runs a new optimization processes at each SCADA (Supervisory Control and Data Acquisition) update. In the off-line optimization, near-optimal pump and valve settings for a selected operating horizon are found on the basis of the typical 24-hour water demand cycle in which each reservoir must also start and end with the same water level. The levels of the reservoirs at the end of each hour in this optimization process, called ideal levels, are considered in the on-line optimization as a constraint that represents a penalty added to the objective function whenever a reservoir level is below the ideal level at the end of each hourly operation. The on-line optimization starts updating the state of the network transmitted from the SCADA system and the demand forecast for the next 24-hour period. Near-optimal pump and valve settings for a selected operating horizon are then determined but only the control settings for the next hourly time step are used to implement the operation. At the next SCADA update (next-time step), the whole process is repeated on a continuous basis and a new operating strategy is computed. In this way, the control process moves forward in time, correcting any discrepancies as it progresses. This integrated software tool has been applied to a small example network. The results obtained from this application have shown that the proposed model offers a practical tool for finding feasible operation strategies for a water pipeline system, obtaining reductions in pumping energy costs.
127

Gestion prévisionnelle des réseaux actifs de distribution - relaxation convexe sous incertitude / Operational Planning of Active Distribution Networks - Convex Relaxation under Uncertainty

Swaminathan, Bhargav Prasanna 22 September 2017 (has links)
Les réseaux électriques subissent deux changements majeurs : le taux croissant de générateurs d’énergie distribuée (GED) intermittents et la dérégulation du système électrique. Les réseaux de distribution et leurs gestionnaires (GRD) sont plus particulièrement touchés. La planification, construction et exploitation des réseaux de la plupart des GRD doivent évoluer face à ces change- ments. Les réseaux actifs de distribution et la gestion intelligente de associée est une solution potentielle. Les GRD pourront ainsi adopter de nouveaux rôles, interagir avec de nouveaux acteurs et proposer de nouveaux services. Ils pourront aussi utiliser la flexibilité de manière optimale au travers, entre autres, d’outils intelligents pour la gestion prévisionnelle de leurs réseaux de moyenne tension (HTA). Développer ces outils est un défi, car les réseaux de distribution ont des spécificités techniques. Ces spécificités sont la présence d’éléments discrets comme les régleurs en charge et la reconfiguration, les flexibilités exogènes, la non-linéarité des calculs de répartition de charge, et l’incertitude liée aux prévisions des GED intermittents. Dans cette thèse, une analyse économique des flexibilités permet d’établir une référence commune pour une utilisation rentable et sans biais dans la gestion prévisionnelle. Des modèles linéaires des flexibilités sont développés en utilisant des reformulations mathématiques exactes. Le calcul de répartition de charge est “convexifié” à travers des reformulations. L’optimalité globale des solutions obtenues, avec ce modèle d’optimisation exact et convexe de gestion prévisionnelle, sont ainsi garanties. Les tests sur deux réseaux permettent d’en valider la performance. L’incertitude des prévisions de GED peut pourtant remettre en cause les solutions obtenues. Afin de résoudre ce problème, trois formulations différentes pour traiter cette incertitude sont développées. Leurs performances sont testées et comparées à travers des simulations. Une analyse permet d’identifier les formulations les plus adaptées pour la gestion prévisionnelle sous incertitude. / Power systems are faced by the rising shares of distributed renewable energy sources (DRES) and the deregulation of the electricity system. Distribution networks and their operators (DSO) are particularly at the front-line. The passive operational practives of many DSOs today have to evolve to overcome these challenges. Active Distribution Networks (ADN), and Active Network Management (ANM) have been touted as a potential solution. In this context, DSOs will streamline investment and operational decisions, creating a cost-effective framework of operations. They will evolve and take up new roles and optimally use flexibility to perform, for example, short-term op- erational planning of their networks. However, the development of such methods poses particular challenges. They are related to the presence of discrete elements (OLTCs and reconfiguration), the use of exogenous (external) flexibilities in these networks, the non-linear nature of optimal power flow (OPF) calculations, and uncertainties present in forecasts. The work leading to this thesis deals with and overcomes these challenges. First, a short-term economic analysis is done to ascertain the utilisation costs of flexibilities. This provides a common reference for different flexibilities. Then, exact linear flexibility models are developed using mathematical reformulation techniques. The OPF equations in operational planning are then convexified using reformulation techniques as well. The mixed-integer convex optimisation model thus developed, called the novel OP formulation, is exact and can guarantee globally optimal solutions. Simulations on two test networks allow us to evaluate the performance of this formulation. The uncertainty in DRES forecasts is then handled via three different formulations developed in this thesis. The best performing formulations under uncertainty are determined via comparison framework developed to test their performance.
128

Novos métodos para reconfiguração das redes de distribuição a partir de algoritmos de tomadas de decisão multicriteriais / New methods for distribution networks reconfiguration starting from multiple criteria decision-making algorithms

Bernardon, Daniel Pinheiro 14 December 2007 (has links)
The electric networks reconfiguration has as purpose: to reduce the energy losses, to improve the voltage profile for the customers, to increase the reliability levels or to re-establish the energy supply in contingency situations. In spite of the complexity of this combinatorial problem of large dimensions, there is an effort of the researchers in the direction of efficient optimization methods, once the classic methods present difficulties for its resolution. The disadvantage of these methods is that a major part of researchers ignores the totality of formal information that is available in the power utilities. The efficient solution should also consider the knowledge and experience of power utilities professionals that can be accomplished starting from the development of Specialist Systems. For these reason, it becomes more recommended to consider algorithms that make possible the use of formal and informal analysis methods. This context motivated this thesis whose proposal is the development of new methods and software for distribution networks reconfiguration starting from multiple criteria decision-making methods, aiming at a more adequate processing of all available information in power utilities. To solve the approached problem, this paper uses the Bellman-Zadeh s method that was shown efficient in the solution of several problems of multiple criteria decision, besides allowing the analysis, at the same time, of quantitative and qualitative criteria. In general, the reconfiguration can not be solved in an efficient way without the analysis of the following problems: the appropriate modeling of the equipments and electrical loads; the creation of algorithm for representation of the electrical topology that allows fast changes in the electric configuration; calculations of the load flow; the definition of composition and presentation forms for the target functions and restrictions; the development of optimization methods and software to define the best electric configuration in normal operation state and in contingency situations. The proposed methodologies were customized according to the power utilities needs, helping the operators in the decision-making process. Besides that the algorithms meet the demand for fast processing of the efficient solutions, which is fundamental mainly in the re-establishment of energy supply during contingencies. Among the several advantages of the developed software in relation to the conventional softwares, the most important are: the representation of the electric topology considers only the information of the connections that really exist, dispensing the use of matrixes; integration with the electric load modeling systems for maximum demand as for load typical curves; the use of the initial data reliability to coordinate the tranformers load; application of multiple criteria optimization algorithms for distribution networks reconfiguration, in normal operational state and in contingency situations; composition of the target functions and restrictions considering quantitative and qualitative characteristics; evaluation of the impact of the reconfiguration in the power systems energy losses. As results, case studies are presented with real data from the power utilities, in order to prove the efficiency of the proposed methods. / A reconfiguração das redes elétricas tem como finalidade: reduzir as perdas de energia, melhorar o perfil de tensão para os consumidores, aumentar os níveis de confiabilidade ou restabelecer o fornecimento de energia em situações de contingência. Apesar da complexidade desse problema combinatorial de grandes dimensões, há todo um esforço, por parte dos pesquisadores, no sentido de buscar métodos eficazes de otimização, uma vez que os métodos clássicos apresentam dificuldades para sua resolução. A desvantagem destes trabalhos é que a maioria deles praticamente ignora a totalidade da informação formal, que está disponível nas concessionárias. No entanto, para uma solução eficiente, também deve-se considerar o conhecimento e a experiência dos profissionais das concessionárias, que pode ser realizado a partir do desenvolvimento de Sistemas Especialistas. Por essas razões, torna-se mais indicado desenvolver algoritmos que possibilitem reunir métodos de análise formais e informais. Essas constatações motivaram a realização deste trabalho. Nele, propõese o desenvolvimento de novos métodos e de uma ferramenta computacional para reconfiguração das redes de distribuição a partir de métodos de tomada de decisão multicriteriais, visando ao processamento adequado das fontes de informação disponíveis nas concessionárias. Para resolver o problema abordado, este trabalho utiliza o método de Bellman-Zadeh, que se mostrou eficiente para a solução de questões envolvendo múltiplos critérios, permitindo não apenas a análise de critérios quantitativos, mas também qualitativos. Em geral, a questão de reconfiguração não pode ser solucionada de forma otimizada, sem a análise dos seguintes problemas: modelagem adequada dos elementos pertencentes às redes de distribuição e das cargas elétricas; criação de algoritmo para representação da topologia das redes, que permita realizar rápidas alterações na configuração; cálculos do fluxo de potência; definição da composição e formas de apresentação para as funções objetivo e restrições; desenvolvimento de métodos de otimização e software para definir a configuração elétrica ideal, em regime normal de operação e em situações de contingência. As metodologias propostas foram customizadas de acordo com as necessidades das concessionárias, ajudando os operadores no processo de tomada de decisão. Além disso, os algoritmos atendem à exigência de processamento rápido na definição da solução eficiente, que é fundamental principalmente quando se tratar de restauração de energia em situações de contingência. Dentre as vantagens desse sistema em relação aos softwares convencionais, destacam-se as seguintes: representação da topologia elétrica das redes de distribuição, considerando somente a informação das ligações que existem de fato, dispensando o uso de matrizes; integração com os sistemas de modelagem da carga elétrica tanto por demanda máxima quanto por curvas típicas de carga; uso da confiabilidade dos dados iniciais para coordenação da carga dos transformadores de distribuição; aplicação de algoritmos de otimização e de análise multicriteriais para reconfiguração das redes, em regime normal de operação e em situações de contingência; composição das funções objetivo e restrições, considerando características quantitativas e qualitativas; avaliação do impacto das reconfigurações nas perdas elétricas dos sistemas de potência. Como resultados, são apresentados estudos de casos com dados reais das concessionárias de energia elétrica, com o objetivo de comprovar a eficiência dos métodos propostos.
129

Otimização de níveis de tensão nas redes de distribuição considerando a alocação de bancos de capacitores e reguladores de tensão. / Voltage level optimization in distribution network by allocation of capacitor banks and voltage regulators.

Madruga, Ederson Pereira 11 April 2011 (has links)
The reactive power and voltage level control in distribution networks are routine in a power. The customer s voltage levels legislation, allows to the customers with voltage levels out of the limits stipulated by Brazilian Electricity Regulatory Agency receive financial compensation by inadequate service. The coordinated adjust of the equipment, capacitor banks and voltage regulators allocation along the feeders are usual actions to ensure proper voltage levels to the customers. In Brazil, distribution networks are usually large with numerous and long low-voltage circuits. Based on the networks geo-referenced registers, the proposed algorithm uses computational intelligence techniques to optimize voltage levels and reactive power, considering the primary and secondary network distribution. This work provides a tool that will allow the specialist obtain the most cost-effective to simultaneous capacitor banks and voltage regulators allocation, optimizing the primary and secondary voltage levels in distributions networks, minimizing operating costs and losses. / O controle do perfil de tensão nas redes de distribuição é uma tarefa rotineira em distribuidoras de energia. Com uma legislação rígida sobre os níveis de tensão, as unidades consumidoras que estão com o fornecimento fora dos padrões estipulados pela ANEEL (Agência Nacional de Energia Elétrica) recebem compensação financeira pelo serviço inadequado. O ajuste coordenado dos equipamentos e a alocação de banco de capacitores e reguladores de tensão ao longo dos alimentadores são ações práticas para garantir níveis de tensão adequados aos consumidores. No Brasil, as redes de distribuição são longas com inúmeros circuitos de baixa tensão igualmente extensos. Tendo como base o cadastro georeferenciado das redes, o algoritmo proposto neste trabalho utiliza técnicas de inteligência computacional para otimizar os níveis de tensão e reativos no sistema de distribuição, considerando as redes primárias e secundárias de distribuição. Este trabalho traz uma ferramenta que permitirá ao especialista obter a melhor relação custo-benefício na alocação simultânea de bancos de capacitores e reguladores de tensão, otimizando os níveis de tensão nas redes primárias e secundárias, minimizando custos operacionais e perdas.
130

Specijalizovani algoritmi za detekciju, identifikaciju i estimaciju loših podataka u elektrodistributivnim mrežama / Specialized algorithms for detection, identification and estimation of bad data inpower distribution networks

Krsman Vladan 30 June 2017 (has links)
<p>Doktorskom disertacijom je dokazano da postojeće metode detekcije i identifikacije loših podataka nisu primenjive na distributivne mreže usled njihovih specifičnosti u stepenu redundanse merenja i broja pseudo merenja. Dodatno, razvijeni su algoritmi detekcije loših oblasti primenom dekuplovanog Hi-kvadrat testa, identifikacije loših merenja primenom novo definisanih izbeljenih reziduala, estimacije fazne konektivnosti primenom uslovnih ograničenja u estimatoru stanja, i korekcije pseudo merenja primenom informacija sa pametnih brojila. Navedeni algoritmi su specijalizovani za distributivne mreže i verifikovani primenom na dva test sistema.</p> / <p>The doctoral dissertation has demonstrated that conventional bad data detection and<br />identification methods cannot be efficiently applied in distribution networks, due to<br />their characteristics such as low measurement redundancy, number of pseudo<br />measurements and level of measurements correlation. In addition, the doctoral<br />dissertation described newly developed algorithms for bad area detection based on<br />decoupled Chi-squares test, bad data identification using newly defined whitened<br />residuals, estimation of phase connectivity by extension of state estimation with<br />conditional constraints and correction of pseudo measurements using AMI data. The<br />mentioned algorithms are specialized for distribution networks and verified through<br />simulation on two test systems.</p>

Page generated in 0.0588 seconds