• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 16
  • 7
  • Tagged with
  • 391
  • 197
  • 154
  • 70
  • 66
  • 59
  • 50
  • 48
  • 48
  • 45
  • 45
  • 41
  • 41
  • 39
  • 38
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Modelos black-litterman e GARCH ortogonal para uma carteira de títulos do tesouro nacional / Black-Litterman and ortogonal GARCH models for a portfolio of bonds issued by the National Treasury

Lobarinhas, Roberto Beier 02 March 2012 (has links)
Uma grande dificuldade da gestão financeira é conseguir associar métodos quantitativos às formas tradicionais de gestão, em um único arranjo. O estilo tradicional de gestão tende a não crer, na devida medida, que métodos quantitativos sejam capazes de captar toda sua visão e experiência, ao passo que analistas quantitativos tendem a subestimar a importância do enfoque tradicional, gerando flagrante desarmonia e ineficiência na análise de risco. Um modelo que se propõe a diminuir a distância entre essas visões é o modelo Black-Litterman. Mais especificamente, propõe-se a diminuir os problemas enfrentados na aplicação da teoria moderna de carteiras e, em particular, os decorrentes da aplicação do modelo de Markowitz. O modelo de Markowitz constitui a base da teoria de carteiras há mais de meio século, desde a publicação do artigo Portfolio Selection [Mar52], entretanto, apesar do papel de destaque da abordagem média-variância para o meio acadêmico, várias dificuldades aparecem quando se tenta utilizá-lo na prática, e talvez, por esta razão, seu impacto no mundo dos investimentos tem sido bastante limitado. Apesar das desvantagens na utilização do modelo de média-variância de Markowitz, a idéia de maximizar o retorno, para um dado nível de risco é tão atraente para investidores, que a busca por modelos com melhor comportamento continuou e é neste contexto que o modelo Black-Litterman surgiu. Em 1992, Fischer Black e Robert Litterman publicam o artigo Portfolio Optimization [Bla92], fazendo considerações sobre o papel de pouco destaque da alocação quantitativa de ativos, e lançam o modelo conhecido por Black-Litterman. Uma grande diferença entre o modelo Black-Litterman e um modelo média-variância tradicional é que, enquanto o segundo gera pesos em uma carteira a partir de um processo de otimização, o modelo Black-Litterman parte de uma carteira de mercado em equilíbrio de longo prazo (CAPM). Outro ponto de destaque do modelo é ser capaz de fornecer uma maneira clara para que investidores possam expressar suas visões de curto prazo e, mais importante, fornece uma estrutura para combinar de forma consistente a informação do equilíbrio de longo prazo (priori) com a visão do investidor (curto prazo), gerando um conjunto de retornos esperados, a partir do qual os pesos em cada ativo são fornecidos. Para a escolha do método de estimação dos parâmetros, levou-se em consideração o fato de que matrizes de grande dimensão têm um papel importante na avaliação de investimentos, uma vez que o risco de uma carteira é fundamentalmente determinado pela matriz de covariância de seus ativos. Levou-se também em consideração que seria desejável utilizar um modelo flexível ao aumento do número de ativos. Um modelo capaz de cumprir este papel é o GARCH ortogonal, pois este pode gerar matrizes de covariâncias do modelo original a partir de algumas poucas volatilidades univariadas, sendo, portanto, um método computacionalmente bastante simples. De fato, as variâncias e correlações são transformações de duas ou três variâncias de fatores ortogonais obtidas pela estimação GARCH. Os fatores ortogonais são obtidos por componentes principais. A decomposição da variância do sistema em fatores de risco permite quantificar a variabilidade que cada fator de risco traz, o que é de grande relevância, pois o gestor de risco poderá direcionar mais facilmente sua atenção para os fatores mais relevantes. Ressalta-se também que a ideia central da ortogonalização é utilizar um espaço reduzido de componentes. Neste modelo de dimensão reduzida, suficientes fatores de risco serão considerados, assim, os demais movimentos, ou seja, aqueles não capturados por estes fatores, serão considerados ruídos insignificantes para este sistema. Não obstante, a precisão, ao desconsiderar algumas componentes, irá depender de o número de componentes principais ser suficiente para explicar grande parte da variação do sistema. Logo, o método funcionará melhor quando a análise de componentes principais funcionar melhor, ou seja, em estruturas a termo e outros sistemas altamente correlacionados. Cabe mencionar que o GARCH ortogonal continua igualmente útil e viável quando pretende-se gerar matriz de covariâncias de fatores de risco distintos, isto é, tanto dos altamente correlacionados, quanto daqueles pouco correlacionados. Neste caso, basta realizar a análise de componentes principais em grupos correlacionados. Feito isto, obtêm-se as matrizes de covariâncias utilizando a estimação GARCH. Em seguida faz-se a combinação de todas as matrizes de covariâncias, gerando a matriz de covariâncias do sistema original. A estimação GARCH foi escolhida pois esta é capaz de captar os principais fatos estilizados que caracterizam séries temporais financeiras. Entende-se por fatos estilizados padrões estatísticos observados empiricamente, que, acredita-se serem comuns a um grande número de séries temporais. Séries financeiras com suficiente alta frequência (observações intraday e diárias) costumam apresentar tais características. Este modelo foi utilizado para a estimação dos retornos e, com isso, obtivemos todas as estimativas para que, com o modelo B-L, pudéssemos gerar uma carteira ótima em um instante de tempo inicial. Em seguida, faremos previsões, obtendo carteiras para as semanas seguintes. Por fim, mostraremos que a associação do modelo B-L e da estimação GARCH ortogonal pode gerar resultados bastante satisfatórios e, ao mesmo tempo, manter o modelo simples e gerar resultados coerentes com a intuição. Este estudo se dará sobre retornos de títulos de renda fixa, mais especificamente, títulos emitidos pelo Tesouro Nacional no mercado brasileiro. Tanto a escolha do modelo B-L, quanto a escolha por utilizar uma carteira de títulos emitidos pelo Tesouro Nacional tiveram como motivação o objetivo de aproximar ferramentas estatísticas de aplicações em finanças, em particular, títulos públicos federais emitidos em mercado, que têm se tornado cada vez mais familiares aos investidores pessoas físicas, sobretudo através do programa Tesouro Direto. Ao fazê-lo, espera-se que este estudo traga informações úteis tanto para investidores, quanto para gestores de dívida, uma vez que o modelo média-variância presta-se tanto àqueles que adquirem títulos, buscando, portanto, maximizar retorno para um dado nível de risco, quanto para aqueles que emitem títulos, e que, portanto, buscam reduzir seus custos de emissão a níveis prudenciais de risco. / One major challenge to financial management resides in associating traditional management with quantitative methods. Traditional managers tend to be skeptical about the quantitative methods contributions, whereas quantitative analysts tend to disregard the importance of the traditional view, creating clear disharmony and inefficiency in the risk management process. A model that seeks to diminish the distance between these two views is the Black-Litterman model (BLM). More specifically, it comes as a solution to difficulties faced when using modern portfolio in practice, particularly those derived from the usage of the Markowitz model. Although the Markowitz model has constituted the basis of portfolio theory for over half century, since the publication of the article Portfolio Selection [Mar52], its impact on the investment world has been quite limited. The Markowitz model addresses the most central objectives of an investment: maximizing the expected return, for a given level of risk. Even though it has had a standout role in the mean-average approach to academics, several difficulties arise when one attempts to make use of it in practice. Despite the disadvantages of its practical usage, the idea of maximizing the return for a given level of risk is so appealing to investors, that the search for models with better behavior continued, and is in this context that the Black-Litterman model came out. In 1992, Fischer Black and Robert Litterman wrote an article on the Black-Litterman model. One intrinsic difference between the BLM and a traditional mean-average one is that, while the second provides the weights of the assets in a portfolio out of a optimization routine, the BLM has its starting point at the long-run equilibrium market portfolio(CAPM). Another highlighting point of the BLM is the ability to provide one clear structucture that is able to combine the long term equilibrium information with the investors views, providing a set of expected returns, which, together, will be the input to generate the weights on the assets. As far as the estimation process is concerned, and for the purpose of choosing the most appropriate model, it was taken into consideration the fact that the risk of a portfolio is determined by the covariation matrix of its assets and, being so, matrices with large dimensions play an important role in the analysis of investments. Whereas, provided the application under study, it is desirable to have a model that is able to carry out the analysis for a considerable number of assets. For these reasons, the Orthogonal GARCH was selected, once it can generate the matrix of covariation of the original system from just a few univariate volatilities, and for this reason, it is a computationally simple method. The orthogonal factors are obtained with principal components analysis. Decomposing the variance of the system into risk factors is highly important, once it allows the risk manager to focus separately on each relevant source of risk. The main idea behind the orthogonalization consists in working with a reduced dimension of components. In this kind of model, sufficient risk factors are considered, thus, the variability not perceived by the model will be considered insigficant noise to the system. Nevertheless, the precision, when not using all the components, will depend on the number of components be sufficient to explain the major part of the variability. Moreover, the model will provide reasonable results depending on principal component analysis performing properly as well, what will be more likely to happen, in highly correlated systems. It is worthy of note that the Orthogonal GARCH is equally useful and feasible when one intends to analyse a portfolio consisting of assets across various types of risk, it means, a system which is not highly correlated. It is common to have such a portfolio, with, for instance, currency rates, stocks, fixed income and commodities. In order to make it to perform properly, it is necessary to separate groups with the same kind of risk and then carry out the principal component analysis by group and then merge the covariance matrices, producing the covariance matrix of the original system. To work together with the orthogonalization method, the GARCH model was chosen because it is able to draw the main stylized facts which characterize financial time series. Stylized facts are statistical patterns empirically observed, which are believed to be present in a number of time series. Financial time series which sufficient high frequency (intraday, daily and even weekly) usually present such behavior. For estimating returns purposes, it was used a ARMA model, and together with the covariance matrix estimation, we have all the parameters needed to perform the BLM study, coming out, in the end, with the optimal portfolio in a given initial time. In addition, we will make forecasts with the GARCH model, obtaining optimal portfolio for the following weeks. We will show that the association of the BLM with the Orthogonal GARCH model can generate satisfactory and coherent with intuition results and, at the same time, keeping the model simple. Our application is on fixed income returns, more specifically, returns of bonds issued in the domestic market by the Brazilian National Treasury. The motivation of this work was to put together statistical tolls and finance uses and applications, more specifically those related to the bonds issued by the National Treasuy, which have become more and more popular due to the \"Tesouro Direto\" program. In conclusion, this work aims to bring useful information either for investors or to debt managers, once the mean-variance model can be useful for those who want to maximize return at a given level or risk as for those who issue bonds, and, thus, seek to reduce their issuance costs at prudential levels of risk.
312

Análise da robustez e da sensibilidade de sistemas de distribuição para a alocação otimizada de medidores frente às variações de tensão de curta duração / Analysis of the robustness and sensitivity of distribution systems for optimal allocation of monitors in face of Short Duration Voltage Variations

Kempner, Thais Reggina 19 May 2016 (has links)
Como as Variações de Tensão de Curta Duração (VTCDs) estão entre as perturbações mais difíceis de serem monitoradas, uma vez que são ocasionadas por fatores aleatórios e imprevisíveis, a monitoração do Sistema de Distribuição (SD) representa uma providência essencial para a obtenção de informações representativas para a regulamentação de novos indicadores relativos a esses distúrbios. Neste cenário, este trabalho busca garantir a completa observabilidade das VTCDs em SD, quando da incidência de qualquer tipo de curto-circuito, através da alocação ótima de medidores. Para a determinação da magnitude da tensão em cada nó do SD é utilizado o método das posições de falta, denotando assim, a influência e a propagação das VTCDs sobre a rede como um todo. Na sequência, é determinada uma matriz binária resultante que observa os afundamentos de tensão de forma simultânea para todos os tipos de faltas. Posteriormente, é proposta a redução desta matriz para diminuir o esforço computacional em SDs de grande porte. Ainda, é analisada a vulnerabilidade de cada nó do SD para estabelecer a sua posterior ponderação no processo de otimização. Os resultados revelam que a metodologia de alocação apresentada torna o processo de obtenção da solução ótima ágil e direto, pois menos execuções computacionais são necessárias para obter diferentes soluções ótimas e garantir a monitoração dos afundamentos de tensão para todos os tipos de curtos-circuitos. Além disso, pela metodologia, tem-se também a prioridade de instalação dos medidores conforme a maior observabilidade dos afundamentos de tensão, possibilitando a escolha do melhor arranjo de medidores que atenda aos limites orçamentários das distribuidoras de energia. / Short Duration Voltage Variations (SDVVs) are among the most difficult disturbances to be monitored, since they are caused by random and unpredictable factors. Hence, the Distribution System (DS) monitoring is an essential step for obtaining representative information for the regulation of new power quality indices for these disturbances. In this scenario, this work aims to ensure the entire observability of SDVVs, considering any short circuit occurrence in the DS, based on algorithm to achieve the monitors\' optimal allocation. In order to determine the voltage magnitude at each node, the fault positions method is used, showing the influence and propagation of SDVVs on the DS. Subsequently, a resulting binary matrix is determined. This matrix observes the voltage sags, simultaneously, for all fault types. Then, the downsizing of this matrix is proposed in order to reduce the computational effort in large DSs. Furthermore, the vulnerability of each DS node is analyzed to establish the relative weighting in the optimization process. The results show a faster and more direct allocation methodology to obtain the optimal solution, because fewer computational executions are needed for different optimal solutions and to ensure the voltage sags monitoring for all short circuits types. Moreover, the power quality monitor installation priority is performed according to the higher observability of the voltage sags, making it possible to choose the best arrangement of monitors that meets the budget constraints of the power utilities.
313

Alocação de unidades de geração termoelétrica em sistemas elétricos de potência / Thermoelectrical generation allocation in electric power systems

Canola, Saulo Ricardo 16 January 2006 (has links)
Este trabalho tem como objetivo realizar um estudo de alocação de unidades termoelétricas em sistemas elétricos de potência (SEP). O fluxo de potencia ótimo (FPO) foi utilizado para se obter o ponto ótimo de operação para o sistema e os multiplicadores de Lagrange associados às restrições. Os multiplicadores de Lagrange indicam a sensibilidade entre a função objetivo e a restrição a ele associada. Esta sensibilidade indica, quais as barras do sistema, são candidatas à alocação de novas usinas termoelétricas. Testes nos sistemas de 5 barras, IEEE 14 barras, IEEE 30 barras, equivalente CESP 440 kV de 53 barras e IEEE 118 barras comprovam a eficiência da abordagem, a qual poderá ser utilizada em estudos de planejamento da expansão do sistema. / The aim of this paper is to present a study of thermoelectrical generation allocation in electric power systems. The optimal power flow (OPF) was used to evaluate the optimal operation point for the power system and also Lagrange multipliers associated with the constraints. The Lagrange multipliers are the sensitivity between the objective function and its constraints. This sensitivity is used to verify in a power system where is the best place to incentive the allocation of new thermoelectrical power plants. Tests on the systems: 5 buses, IEEE 14 buses, IEEE 30 buses, equivalent CESP 440kV 53 buses and IEEE 118 buses showed the efficiency of the presented approach. This method of analyzing the system can be used in study of expansion planning system.
314

Algoritmo de alocação dinâmica de largura de faixa para redes de comunicação móvel celular / Dynamic bandwidth allocation algorithm for mobile communication networks

Queiroz, Eduardo Martinelli Galvão de 28 March 2008 (has links)
O crescente aumento da demanda de tráfego nas redes celulares vem aumentando a necessidade de uma melhor utilização dos recursos do sistema, já que sua expansão é custosa. Nas estações rádio base (ERB), a disponibilidade de largura de faixa de freqüências é limitada e desta maneira, em uma rede de comunicação móvel celular, o controle de admissão de chamadas exerce grande influência no desempenho do sistema, pois determina a utilização de banda das ERBs e se uma determinada quantidade de recursos (banda) será alocado ou não para uma determinada chamada. O desempenho da rede pode ser atrelado a determinados parâmetros, como a probabilidade de bloqueio de novas chamadas, probabilidade de bloqueio de chamadas handoff e a utilização de banda da rede. Este trabalho propõe um controle de admissão de chamadas que, no atendimento de uma chamada, faz o empréstimo de banda de chamadas em andamento na célula no caso de banda insuficiente. O sistema adota um mecanismo heurístico que determina a banda disponível para novas chamadas conforme os valores de certos parâmetros do sistema. O empréstimo de banda é realizado em chamadas em andamento nas células até níveis mínimos estabelecidos para cada tipo de chamada, que se diferenciam pelas necessidades de banda de cada uma. O algoritmo foi aplicado às bandas e características de uma rede de terceira geração (3G), que possui chamadas de voz, videoconferência, interação multimídia, e-mail, downloads e transferência de arquivos e a uma rede GSM/GPRS (global system for mobile communications/ general packet radio service), que possui chamadas de voz e de dados. Os resultados mostram melhorias na probabilidade de bloqueio de novas chamadas, probabilidade de bloqueio de handoff e na utilização de banda do sistema. / The recent growth in traffic loads in cellular networks has seen the need for a better use of system resources as its expansion is expensive. In the base transceiver station (BTS), the bandwidth availability is limited. Thus, in cellular networks the call admission control greatly influences the system performance because it determines the bandwidth use of the BTSs and if an amount of resources will or will not be allocated to a call. The network performance can be evaluated by parameters such as blocking probability of new calls, dropping probability of handoff calls and bandwidth use. This work proposes a call admission control that carries out the bandwidth borrowing when a call arrives and there is not enough bandwidth. The system makes use of a heuristic mechanism that determines the available bandwidth for the new calls according to some parameter values of the system. The bandwidth borrowing is applied to the cell ongoing calls until the minimum levels for each type are met. The algorithm was applied to the bandwidths and characteristics of a third generation cellular network, which supports voice calls, videoconference, multimedia interaction, e-mails, downloads and file transfers. It was also applied to a GSM/GPRS (global system for mobile communications/ general packet radio service), which supports voice and data calls. The results show improvements in the blocking probability of new calls, dropping probability of handoff calls and in the bandwidth use of the system.
315

Algoritmo evolutivo multiobjetivo em tabelas e matriz HΔ para projeto de sistemas de medição para estimação de estado / Multi-objective evolutionary algorithm in tables and HΔ matrix for metering system planning for state estimation

Vigliassi, Marcos Paulo 22 March 2017 (has links)
O problema de projeto de sistemas de medição, para efeito de Estimação de Estado em Sistemas Elétricos de Potência, é um problema de otimização multiobjetivo, combinatório, que exige a investigação de um grande número de possíveis soluções. Dessa forma, metaheurísticas vêm sendo empregadas para sua solução. Entretanto, a maioria delas trata o problema de forma mono-objetivo e as poucas que consideram uma formulação multiobjetivo, não contemplam todos os requisitos de desempenho que devem ser atendidos para obtenção de um Sistema de Medição Confiável (SMC) (observabilidade e ausência de Medidas Críticas, Conjuntos Críticos de Medidas, Unidades Terminais Remotas Críticas e Unidades de Medição Fasoriais Críticas). Propõe-se, nesta tese, uma formulação multiobjetivo para o problema de projeto de sistemas de medição de uma forma mais ampla, considerando todas requisitos de desempenho que devem ser atendidos para obtenção de um SMC. Propõe-se, ainda, o desenvolvimento e implantação, em computador, de um método para tratamento desse problema, considerando o trade-off entre os requisitos de desempenho e o custo, fazendo uso do conceito de Fronteira de Pareto. O método possibilita, em uma única execução, a obtenção de quatro tipos de sistemas de medição, a partir da análise de soluções não dominadas. O método permite o projeto de sistemas de medição novos e o aprimoramento de sistemas de medição já existentes, considerando a existência apenas de medidas convencionais SCADA, apenas de Medidas Fasoriais Sincronizadas ou a existência dos dois tipos de medidas. O método proposto faz uso de um Algoritmo Evolutivo Multiobjetivo e do procedimento de obtenção e análise da matriz HΔ. Esse procedimento permite a realização de uma Busca Local, minimizando o custo para atendimento de cada um dos requisitos de desempenho mencionados acima. Simulações são realizadas utilizando dados dos sistemas de 6, 14, 30, 118 e 300 barras do IEEE, bem como do sistema de 61 barras da Eletropaulo, de forma a ilustrar, testar e validar o método proposto. Alguns dos resultados dessas simulações são comparados com resultados obtidos por outros métodos encontrados na literatura. / Metering system planning for power system state estimation is a multi-objective, combinatorial optimization problem that may require the investigation of many possible solutions. As a consequence, meta-heuristics have been employed to solve the problem. However in the majority of them the multi-objective problem is converted in a mono-objective problem and those few considering a multi-objective formulation do not consider all the performance requirements that must be attended in order to obtain a Reliable Metering System (RMS) (system observability and absence of Critical Measurements, Critical Sets, Critical Remote Terminal Units and Critical Phasor Measurement Units). This thesis proposes a multi-objective formulation for the metering system planning problem in a wide way, that is, considering all the performance requirements that must be attended to obtain a RMS. This thesis also proposes the development and implementation, in computer, of a method to solve the metering system planning problem, considering the trade-off between the two conflicting objectives of the problem (minimizing cost while maximizing the performance requirements) making use of the concept of Pareto Frontier. The method allows, in only one execution, the project of four types of metering systems, from the analysis of non-dominated solutions. The method enable the design of new metering systems as well as the improvement of existing ones, considering the existence of only conventional SCADA measurements, or only synchronized phasor measurements or the existence of both types of measurements. The proposed method combines a multi-objective evolutionary algorithm based on subpopulation tables with the properties of the so-called HΔ matrix. The subpopulations tables adequately model several metering system performance requirements enabling a better exploration of the solution space. On the other hand, the properties of the HΔ matrix enable a local search that improves the evolutionary process and minimizes the computational effort. Simulations results with IEEE 6, 14, 30, 118 and 300-bus test systems and with a 61-bus system of Eletropaulo illustrate the efficiency of the proposed method. Some of the results of these simulations will be compared with those published in literature.
316

Estimador de variações de tensão de curta duração em sistemas elétricos de potência utilizando estratégias evolutivas. / Estimate short duration voltage variation using evolutionary strategies.

Guerra Zvietcovich, Wilingthon 19 September 2011 (has links)
Neste trabalho, é proposta uma metodologia para estimar o estado de um sistema elétrico de potência (SEPs) durante variações de tensão de curta duração (VTCDs) causadas por faltas elétricas nas linhas que compõem a rede elétrica avaliada. Para cumprir esta meta, são utilizados os valores registrados nos equipamentos de medição instalados nas redes elétricas. Na realidade, existem poucos equipamentos nas redes elétricas devido aos custos elevados dos medidores de qualidade de energia elétrica (QEE). Embora estes custos tenham diminuído nos últimos anos, ainda é inviável a utilização de um número suficiente de medidores para garantir a monitoração de toda a rede, por tornar-se muito oneroso. Esta realidade constitui um desafio para se desenvolver técnicas que permitam, a partir de um pequeno número de pontos de monitoração, determinar os locais de faltas e estimar os valores das VTCDs em todas as barras que compõem um sistema elétrico. Como contribuição à solução destes problemas, esta tese propõe a utilização do algoritmo denominado Estratégias Evolutivas (EEs), que integra a família dos Algoritmos Evolutivos. Tal algoritmo mostrou ser viável por sua facilidade de implementação e rapidez de resposta na busca de uma solução dentro de um vasto espaço de soluções. As EEs, nesta tese, são utilizadas para se determinar: o local de falta, tipo de falta e impedância de falta, que caracterizam um indivíduo, de forma que as tensões resultantes nas barras monitoradas sejam as mais próximas possíveis das medições realizadas. Para alcançar esse objetivo, inicialmente se constrói uma população inicial de indivíduos que representam alternativas de solução do problema. Em seguida, uma parte destes indivíduos será submetida a mutação e recombinação para então serem selecionados os indivíduos que sobreviverão na geração futura. Este processo iterativo é realizado até que se encontre uma solução o mais próximo da procurada. Cada indivíduo é avaliado através de função objetivo, que representa o erro quadrático entre os valores medidos e os valores calculados. Para este cálculo, é necessário simular um curto-circuito com as características do indivíduo avaliado com base em informações da rede bem como dos valores das tensões provenientes dos medidores. A partir da determinação das características da falta, é feita a estimação dos valores das tensões em toda a rede levando à avaliação das VTCDs. Uma vez atingido este objetivo, é possível, por exemplo, determinar indicadores de qualidade associados às VTCDs, como o SARFI (System Average RMS Frequency Index), determinar as áreas mais propensas a causar as VTCDs e elaborar planos de manutenção preventiva. Foram implementados dois algoritmos que calculam o número mínimo de medidores e os locais onde estes devem ser instalados. O primeiro algoritmo tem a finalidade de garantir o monitoramento de toda a rede em relação às VTCDs enquanto o segundo garante o menor erro de estimação de VTCDs nas barras onde não se têm medidores instalados. A referida metodologia pode ser aplicada em redes radiais ou em malha, sendo inicialmente aplicada em sistemas de pequeno porte (redes de 14 e 30 barras do IEEE) com intuito de verificar a capacidade do algoritmo. Foram então simuladas redes de maior complexidade, por meio de testes em redes de 57 barras e 118 barras do IEEE. Para avaliar a eficiência da metodologia desenvolvida foi feita uma comparação com outra metodologia de otimização baseada em Algoritmos Genéticos (AGs). / A methodology is herein proposed to estimate Short Duration Voltage Variation (SDVV) in electric power systems, caused by electrical faults. To attain this target, values recorded by measurement equipment in specific sites are used. In fact, there are few power quality meters installed in power networks, due to the high cost of such meters. Although these costs have decreased in recent years, the installation of a sufficient number of meters to ensure monitoring the entire network is still unfeasible. This reality poses a challenge to developing techniques that, with a small number of monitoring points, allow the determination of fault locations and estimation of SDVV values in specified buses. As contribution this thesis proposes an algorithm called Evolutionary Strategies (ESE), which integrates the group of evolutionary algorithms. This algorithm can be easily implemented and finds a solution within a wide solution space. The ESE determines the fault location, fault type and fault impedance, that characterize an individual, so that the resulting voltages on monitored buses are as close as possible to the measured ones. An initial population is generated as alternative solutions to the problem. Some of the individuals in the population will be submitted to mutation and recombination operators. Individuals are then selected to the future generation. An iterative process is carried out to determine a solution as close as possible to the desired one. Each individual is evaluated by the objective function, which represents the quadratic error between the measured and calculated values. This calculation is based on short circuit calculation related to the evaluated individual and from information of voltage values gathered from power quality meters. Voltage values in specific network buses can then be determined to monitor their corresponding SDVV values. This allows, for example, determining quality indicators associated to the SDVV, such as the System Average RMS Frequency Index (SARFI), to evaluate sensitive areas, i.e. which are prone to cause SDVVs and to develop plans for preventive maintenance. Two algorithms that calculate the minimum number of meters and their locations have been implemented. The first algorithm aims to ensure monitoring the entire network regarding SDVVs, while the second algorithm ensures the smallest error of SDVV estimation in buses where no meters are installed. This methodology can be applied to meshed or radial networks. It was initially implemented in small networks (IEEE 14 and 30 buses) with the purpose of verifying the ability of algorithm. In sequence the methodology was applied to more complex networks (IEEE 57 and 118 buses). To assess the efficiency of the methodology a comparison with other optimization methodology based on Genetic Algorithms (GA) was carried out.
317

Projeto e avaliação de um broker como agente de intermediação e QoS em uma nuvem computacional híbrida / Design and evaluation of a broker as QoS and intermediation agent in hybrid cloud computing

Pardo, Mario Henrique de Souza 16 June 2016 (has links)
A presente tese de doutorado propõe uma arquitetura de cloud broker para ambientes de computação em nuvem híbrida. Um cloud broker tem o objetivo de executar a mediação entre clientes e provedores, recebendo requisições dos clientes e encaminhando-as ao serviço do provedor que melhor se adaptar aos requisitos de qualidade de serviço (QoS) solicitados. A arquitetura de broker de serviços com QoS proposta denomina-se QBroker, características de implementação de seu modo de operação bem como sua interação com os recursos virtuais de um ambiente de nuvem são apresentadas. O modelo de nuvem considerado foi o de nuvem híbrida com uma caracterização de arquitetura orientada a serviços (SOA) na qual serviços remotos são disponibilizados aos clientes. A política de escalonamento de tarefas desenvolvida para o QBroker foi a de intermediação de serviços, considerando tratativas de QoS, diferenciação das instâncias de serviços (SOA) e alocação dinâmica de serviços. Além disso, toda a caracterização do modo de operação do QBroker foi baseada no conceito de intermediação do modelo de referência de nuvem do NIST. O componente QBroker foi introduzido numa arquitetura de computação em nuvem BEQoS (Bursty Energy and Quality of Service), desenvolvida no Laboratório de Sistemas Distribuídos e Programação Concorrente do ICMC-USP de São Carlos. Avaliações de desempenho para a implementação da arquitetura QBroker foram conduzidas por meio de programas de simulação com uso da API do simulador CloudSim e da arquitetura CloudSim-BEQoS. Três cenários experimentais foram avaliados e, segundo a análise de resultados efetuada, foi possível validar que as características arquiteturais implementadas no QBroker resultaram em significativo impacto nas variáveis de resposta consideradas. Assim, foi possível comprovar que o uso do QBroker como mecanismo de mediação em ambientes de nuvem híbrida com SOA promoveu ganhos em desempenho para o sistema de nuvem e permitiu melhoria na qualidade dos serviços oferecidos. / This doctoral thesis proposes a cloud broker architecture for hybrid cloud computing environments. A cloud broker aims to perform mediation between clients and providers, receiving customer requests and forwarding them to the service provider that best suits the requested QoS requirements. The broker architecture services with QoS proposal is called QBroker. Implementation features of its mode of operation as well as its interaction with the virtual resources from a cloud environment are presented. The cloud deployment model was considered a hybrid cloud with a characterization of service-oriented architecture (SOA) in which remote services are available to customers. The task scheduling policy developed for QBroker was the intermediation of services, considering negotiations of QoS, differentiation of services instances and dynamic allocation of services. Moreover, the entire characterization of QBroker operation mode is based on the intermediation concept of the NIST cloud reference model. The QBroker component was introduced into a cloud computing architecture BEQoS (Bursty, Energy and Quality of Service), developed in the Laboratory of Distributed Systems and Concurrent Programming at ICMC-USP. Performance evaluations analysis the of results of QBroker architecture were conducted through simulation programs using the CloudSim simulator API and CloudSim-BEQoS architecture. Three experimental scenarios were evaluated and, according to analysis of the results, it was possible to validate that the architectural features implemented in QBroker resulted in significant impact on response variables considered. Thus, it was possible to prove that the use of QBroker as mediation mechanism in hybrid cloud environments with SOA promoted performance gains for the cloud system and allowed improvement in the quality of services offered.
318

A localização de faltas em um sistema de distribuição radial baseada na aplicação de árvores de decisão e redes neurais artificiais / Fault location in a radial distribution system based on the application of decision trees and artificial neural networks

Pessoa, André Luís da Silva 02 August 2017 (has links)
Os Sistemas de Distribuição (SDs), devido as suas topologias e configurações, dentre outros fatores, apresentam um desafio para a localização física das situações de faltas passíveis de ocorrência. Como fato, tem-se que uma localização de faltas, rápida e precisa, possibilita atenuar os transtornos que os usuários finais dos SDs viriam a ter em relação à qualidade do serviço prestado pelas distribuidoras. No contexto das redes elétricas inteligentes, e considerando medidores de qualidade da energia elétrica previamente alocados de forma otimizada, esta pesquisa propõe uma metodologia baseada em árvores de decisão e redes neurais artificiais para a localização de faltas em SDs radiais e aéreos. Foram realizados testes da metodologia proposta considerando variações no tipo, na impedância e no ângulo de incidência da falta aplicadas sobre o SD de 34 barras do IEEE (Institute of Electrical and Electronics Engineers). Para os testes de sensibilidade da metodologia desenvolvida, foram consideradas variações no carregamento do sistema, os erros inerentes ao sistema de medição, a variação no número de medidores disponível, o impacto de uma alocação não otimizada dos medidores e uma redução na taxa amostral. Os resultados encontrados foram promissores e indicam que a metodologia como desenvolvida poderá ser aplicada para SDs diferentes do caso teste utilizado. / Due to the distribution systems (DS) topologies, configurations and among other factors, it is a challenge to physically locate situations of faults. As a matter of fact, a fast and accurate fault location will make it possible to mitigate the inconvenience that the end users of DS would have due to the quality of the service provided by the distributors. In the context of intelligent electric grids, and considering the electric power quality meters optimally alocated, this research proposes a methodology based in decision trees and artificial neural networks for a fault location in radial and aerial DS. The proposed methodology was tested considering variations on the type, impedance and angle of incidence of the fault applied on the DS of 34 bars of the IEEE (Institute of Electrical and Electronic Engineers). For a sensitivity test of the developed methodology, it were considered the variations in system loading, the errors inherent to the measurement system, a variation in number of meters available, the impact of the non-optimized allocation of the meters and a redution on the sampling rate. The results were promising and indicated that the methodology developed can be applied to different DS from the test case used.
319

Controle fuzzy via alocação de pólos com funções de Lyapunov por partes / Fuzzy pole placement based on piecewise Lyapunov functions

Tognetti, Eduardo Stockler 31 March 2006 (has links)
O presente trabalho apresenta um método de projeto de controlador com alocação de pólos em sistemas fuzzy utilizando funções de Lyapunov por partes e contínuas no espaço de estado. A idéia principal é utilizar controladores chaveados no espaço de estado para obter uma resposta transitória satisfatória do sistema, obtida pela localização dos pólos. A modelagem fuzzy Takagi-Sugeno é utilizada para representar um sistema não-linear em diversos pontos de linearização através de uma aproximação por vários modelos locais lineares invariantes no tempo. A análise de estabilidade e o projeto de sistemas de controle podem se formulados em termos de desigualdades matriciais lineares (em inglês, linear matrix inequalities (LMIs)), as quais são resolvidas por técnicas de programação convexa. Na análise de estabilidade ou na síntese de um controlador em sistemas fuzzy é necessário resolver um número determinado de LMIs de acordo com o número de modelos locais. Encontrar uma função de Lyapunov comum a todos os modelos locais pode ser inviável, especialmente quando se impõem critérios de desempenho, que aparecem como restrições no contexto de LMIs. A proposta de uma função de Lyapunov por partes objetiva diminuir o conservadorismo na busca de um controlador que leve os pólos de malha fechada à uma região desejada. Resultados de análise e síntese da teoria de sistemas lineares por partes contribuíram para a construção do resultado apresentado. Exemplos com simulação ilustram o método proposto. / This work presents a controller design method for fuzzy dynamic systems based on piecewise Lyapunov functions with constraints on the closed-loop pole location. The main idea is to use switched controllers to locate the poles of the system to obtain a satisfactory transient response. The pole placement strategy allows to specify the performance in terms of the desired time response of the feedback system. The Takagi-Sugeno fuzzy model can approximate the nonlinear system in several linearization points using linear time invariant systems. Thus, a global fuzzy model can be obtained from a fuzzy combination of these linear systems. Stability analysis and design of fuzzy control systems can be efficiently carried out in the context of linear matrix inequalities (LMIs). If the fuzzy system is described by many local models, the resulting set of LMIs may be infeasible. The search for a Lyapunov function in the fuzzy pole placement problem may be easier to be satisfied in a piecewise framework. Some results from piecewise linear systems theory have contributed to the development of the presented technique. Some examples are given to illustrate the proposed method.
320

Avaliação de um instrumento de auxílio à tomada de decisão para a priorização de vagas em unidades de terapia intensiva / Evaluation of a decision-aid tool for prioritization of admissions to the intensive care unit

Ramos, João Gabriel Rosa 02 May 2018 (has links)
Introdução: Triagem para admissão em unidades de terapia intensiva (UTIs) é realizada rotineiramente e é comumente baseada somente no julgamento clínico, o que pode mascarar vieses e preconceitos. Neste estudo, foram avaliadas a reprodutibilidade e validade de um algoritmo de apoio a decisões de triagem em UTI. Também foi avaliado o efeito da implementação de um instrumento de auxílio à tomada de decisão para a priorização de vagas de UTI nas decisões de admissão em UTI. Foi avaliada, ainda, a acurácia da predição prognóstica dos médicos na população de pacientes em deterioração clínica aguda. Métodos: Para o primeiro objetivo do estudo, um algoritmo computadorizado para auxiliar as decisões de priorização de vagas em UTI foi desenvolvido para classificar pacientes nas categorias do sistema de priorização da \"Society of Critical Care Medicine (SCCM)\". Nove médicos experientes (experts) avaliaram quarenta vinhetas clínicas baseadas em pacientes reais. A referência foi definida como as prioridades classificadas por dois investigadores com acesso ao prontuário completo dos pacientes. As concordâncias entre as prioridades do algoritmo com as prioridades da referência e com as prioridades dos experts foram avaliadas. As correlações entre a prioridade do algoritmo e o julgamento clínico de adequação da admissão na UTI em contexto com e sem escassez de vagas também foram avaliadas. A validade foi ainda avaliada através da aplicação do algoritmo, retrospectivamente em uma coorte de 603 pacientes com solicitação de vagas de UTI, para correlação com desfechos clínicos. Para o segundo objetivo do estudo, um estudo prospectivo, quaseexperimental foi conduzido, antes (maio/2014 a novembro/2014, fase 1) e após (novembro/2014 a maio/2015, fase 2) a implementação de um instrumento de auxílio à tomada de decisão, que foi baseado no algoritmo descrito acima. Foi avaliado o impacto da implementação do instrumento de auxílio à tomada de decisão na ocorrência de admissões potencialmente inapropriadas na UTI em uma coorte de pacientes com solicitações urgentes de vaga de UTI. O desfecho primário foi a proporção de solicitações de vaga potencialmente inapropriadas que foram admitidas na UTI em até 48 horas após a solicitação. Solicitações de vaga potencialmente inapropriadas foram definidas como pacientes prioridade 4B, conforme diretrizes da SCCM de 1999, ou prioridade 5, conforme diretrizes da SCCM de 2016. Foram realizadas análises multivariadas com teste de interação entre fase e prioridades para avaliação dos efeitos diferenciados em cada estrato de prioridade. Para o terceiro objetivo do estudo, a predição prognóstica realizada pelo médico solicitante foi registrada no momento da solicitação de vaga de UTI. Resultados: No primeiro objetivo do estudo, a concordância entre as prioridades do algoritmo e as prioridades da referência foi substancial, com uma mediana de kappa de 0,72 (IQR 0,52-0,77). As prioridades do algoritmo evidenciaram uma maior reprodutibilidade entre os pares [kappa = 0,61 (IC95% 0,57-0,65) e mediana de percentagem de concordância = 0,64 (IQR 0,59-0,70)], quando comparada à reprodutibilidade entre os pares das prioridades dos experts [kappa = 0,51 (IC95% 0,47-0,55) e mediana de percentagem de concordância = 0,49 (IQR 0,44-0,56)], p=0,001. As prioridades do algoritmo também foram associadas ao julgamento clínico de adequação da admissão na UTI (vinhetas com prioridades 1, 2, 3 e 4 seriam admitidas no último leito de UTI em 83,7%, 61,2%, 45,2% e 16,8% dos cenários, respectivamente, p < 0,001) e com desfechos clínicos reais na coorte retrospectiva, como admissão na UTI, consultas com equipe de cuidados paliativos e mortalidade hospitalar. No segundo objetivo do estudo, 2374 solicitações urgentes de vaga de UTI foram avaliadas, das quais 1184 (53,8%) pacientes foram admitidos na UTI. A implementação do instrumento de auxílio à tomada de decisão foi associada com uma redução de admissões potencialmente inapropriadas na UTI, tanto utilizando a classificação de 1999 [adjOR (IC95%) = 0,36 (0,13-0,97), p = 0,043], quanto utilizando a classificação de 2016 [adjOR (IC95%) = 0,35 (0,13-0,96, p = 0,041)]. Não houve diferença em mortalidade entre as fases 1 e 2 do estudo. No terceiro objetivo do estudo, a predição prognóstica do médico solicitante foi associada com mortalidade. Ocorreram 593 (34,4%), 215 (66,4%) e 51 (94,4%) óbitos nos grupos com prognóstico de sobrevivência sem sequelas graves, sobrevivência com sequelas graves e nãosobrevivência, respectivamente (p < 0,001). Sensibilidade foi 31%, especificidade foi 91% e a área sob a curva ROC foi de 0,61 para predição de mortalidade hospitalar. Após análise multivariada, a gravidade da doença aguda, funcionalidade prévia e admissão na UTI foram associadas com uma maior chance de erro prognóstico, enquanto que uma predição de pior prognóstico foi associada a uma menor chance de erro prognóstico. O grau de expertise do médico solicitante não teve efeito na predição prognóstica. Discussão/Conclusão: Neste estudo, um algoritmo de apoio a decisões de triagem em UTI demonstrou boa reprodutibilidade e validade. Além disso, a implementação de um instrumento de auxílio à tomada de decisões para priorização de vagas de UTI foi associada a uma redução de admissões potencialmente inapropriadas na UTI. Também foi encontrado que a predição prognóstica dos médicos solicitantes foi associada a mortalidade hospitalar, porém a acurácia foi pobre, principalmente devido a uma baixa sensibilidade para detectar risco de morte / Introduction: Intensive care unit (ICU) admission triage is performed routinely and is often based solely on clinical judgment, which could mask biases. In this study, we sought to evaluate the reliability and validity of an algorithm to aid ICU triage decisions. We also aimed to evaluate the effect of implementing a decision-aid tool for ICU triage on ICU admission decisions. We also evaluated the accuracy of physician\'s prediction of hospital mortality in in acutely deteriorating patients. Methods: For the first objective of the study, a computerized algorithm to aid ICU triage decisions was developed to classify patients into the Society of Critical Care Medicine\'s prioritization system. Nine senior physicians evaluated forty clinical vignettes based on real patients. Reference standard was defined as the priorities ascribed by two investigators with full access to patient\'s records. Agreement of algorithm-based priorities with the reference standard and with intuitive priorities provided by the physicians were evaluated. Correlations between algorithm prioritization and physician\'s judgment of appropriateness of ICU admission in scarcity and non-scarcity settings were also evaluated. Validity was further assessed by retrospectively applying this algorithm to 603 patients with requests for ICU admission for association with clinical outcomes. For the second objective of the study, a prospective, quasi-experimental study was conducted, before (May 2014 to November 2014, phase 1) and after (November 2014 to May 2015, phase 2) the implementation of a decision-aid tool for ICU admission triage, which was based on the aforementioned algorithm. We assessed the impact of the implementation of the decision-aid tool in potentially inappropriate ICU admissions in a cohort of patients referred for urgent ICU admission. Primary outcome was the proportion of potentially inappropriate ICU referrals that were admitted to the ICU in 48 hours following referral. Potentially inappropriate ICU referrals were defined as priority 4B patients, as described by the 1999 Society of Critical Care Medicine (SCCM) guidelines and as priority 5 patients, as described by the 2016 SCCM guidelines. We conducted multivariate analyses and evaluated the interaction between phase and triage priorities to assess for differential effects in each priority strata. For the third objective of the study, physicians\' prognosis and other variables were recorded at the moment of ICU referral. Results: On the first objective of the study, agreement between algorithm-based priorities and the reference standard was substantial, with a median kappa of 0.72 (IQR 0.52-0.77). Algorithm-based priorities demonstrated higher interrater reliability [overall kappa of 0.61 (95%CI 0.57-0.65) and median percent agreement of 0.64 (IQR 0.59-0.70)] than physician\'s intuitive prioritization [overall kappa of 0.51 (95%CI 0.47-0.55) and median percent agreement of 0.49 (IQR 0.44-0.56)], p=0.001. Algorithm-based priorities were also associated with physicians\' judgment of appropriateness of ICU admission (priorities 1, 2, 3 and 4 vignettes would be admitted to the last ICU bed in 83.7%, 61.2%, 45.2% and 16.8% of the scenarios, respectively, p < 0.001) and with actual ICU admission, palliative care consultation and hospital mortality in the retrospective cohort. On the second objective of the study, of 2374 urgent ICU referrals, 1184 (53.8%) patients were admitted to the ICU. Implementation of the decision-aid tool was associated with a reduction of potentially inappropriate ICU admissions using the 1999 [adjOR (95% CI) = 0.36 (0.13-0.97), p = 0.043] or 2016 [adjOR (95%CI) = 0.35 (0.13-0.96, p = 0.041)] definitions. There was no difference on mortality between phases 1 and 2. On the third objective of the study, physician\'s prognosis was associated to hospital mortality. There were 593 (34.4%), 215 (66.4%) and 51 (94.4%) deaths in the groups ascribed a prognosis of survival without disabilities, survival with severe disabilities or no survival, respectively (p < 0.001). Sensitivity was 31%, specificity was 91% and the area under the ROC curve was 0.61 for prediction of mortality. After multivariable analysis, severity of illness, performance status and ICU admission were associated to an increased likelihood of incorrect classification, while worse predicted prognosis was associated to a lower chance of incorrect classification. Physician\'s level of expertise had no effect on predictive ability. Discussion/Conclusion: In this study, a ICU admission triage algorithm demonstrated good reliability and validity. Moreover, the implementation of a decision-aid tool for ICU triage was associated with a reduction of potentially inappropriate ICU admissions. It was also found that physician\'s prediction was associated to hospital mortality, but overall accuracy was poor, mainly due to low sensitivity to detect mortality risk

Page generated in 0.064 seconds