11 |
Análise de estabilidade de um talude da mina de Águas Claras MBR: uma visão probabilística / Stability of a slope in the Águas Claras - MBR mining: a probabilistic viewSoares, Ecidinéia Pinto 29 March 1996 (has links)
Submitted by Reginaldo Soares de Freitas (reginaldo.freitas@ufv.br) on 2017-03-07T19:02:09Z
No. of bitstreams: 1
texto completo.pdf: 16647940 bytes, checksum: 0e29a39eb3ed8c7d1853f75d5180d624 (MD5) / Made available in DSpace on 2017-03-07T19:02:09Z (GMT). No. of bitstreams: 1
texto completo.pdf: 16647940 bytes, checksum: 0e29a39eb3ed8c7d1853f75d5180d624 (MD5)
Previous issue date: 1996-03-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / Nos últimos anos, muito se tem discutido a respeito do desenvolvimento de novas técnicas da Engenharia Civil, em especial no que concerne as analises probabilísticas. Considerando-se a exigência do mercado, que cada vez mais impõe soluções de engenharia que garantam a segurança e diminuam os custos das obras civis, novos métodos e novas técnicas são continuamente pesquisados. Esta questão é clara quando se trata de projetos de estabilidade de taludes que, tradicionalmente, empregam métodos determinísticos em suas analises. As ferramentas e técnicas habitualmente usadas no dimensionamento de taludes, quer sejam analíticas, quer sejam gráficas e a duas ou trés dimensões, gera!mente não levam em conta a variabilidade e a dispersão dos parâmetros em questão. E possível estabelecer modelos estatísticos para todos os parâmetros geológico-geotécnicos envolvidos em uma analise de estabilidade e, por meio de métodos específicos, definir probabilidades de ruptura. Em um enfoque probabilístico, o profissional de Geotecnia pode incorporar a sua analise o grau de confiabilidade que ele possui a respeito dos dados de cada estudo em particular. E com base nessas premissas que este trabalho foi desenvolvido, tomando-se como caso de estudo o deslizamento ocorrido na Mina de Águas Claras, pertencente a Minerações Brasileiras Reunidas SIA, em 29 de abril de 1992. Para 0 estudo determinístico realizado, chegou-se a um fator de segurança de 1,12, valor atualmente aceito dentro de determinados limites de risco para a mineração. Para 0 mesmo caso, foi acrescentada uma análise probabilística que forneceu resultado igual a 42,9% como probabilidade de ruptura, valor esse inaceitável dentro dos limites estabelecidos como referência. Mediante a análise dos resultados alcançados, foi demonstrada a clara vantagem em se procederem as análises conjuntas dos métodos determinístico e probabilístico, obtendo-se informações adicionais importantes acerca das decisões a serem tomadas para a resolução do problema em questão. / Developments in research mettodology applied to Civil Engineering, particulary probability analysis, have been discussed. Methods and techniques are continuously analysed for engineering solutions increasing safety and decreasing costs of civil works. This question becomes clear as one deals with slope stability projects. Traditionally, these projects apply deterministic procedures. Most common tools and techniques used in slope measurement usually do not take into account parameter variability. However, it is possible to fit statistical models for all geologic-geotechnic parameters involved in a stability analysis. Using specific procedures is thus feasible to define fracture probabilistics. Under a probabilistic framework, geotechnics professionals may include confidence limits concerning the data of each specific study. The present research was based on those arguments. The slinding ocurred in April 29, 1992 at the Aguas Claras Mine was used as a case study. Results obtained show the advantages of employing both deterministic and probabilistic procedures. Further import information is additionally provided on the specufic problem.
|
12 |
Techniques to facilitate probabilistic software analysis in real-world programsBORGES, Mateus Araújo 24 April 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-01-19T17:42:17Z
No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
dissertation.pdf: 864300 bytes, checksum: 624346f890c947cf26d691a5fc74d707 (MD5) / Made available in DSpace on 2016-01-19T17:42:17Z (GMT). No. of bitstreams: 2
license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)
dissertation.pdf: 864300 bytes, checksum: 624346f890c947cf26d691a5fc74d707 (MD5)
Previous issue date: 2015-04-24 / FACEPE / Probabilistic software analysis aims at quantifying how likely a target event is to occur,
given a probabilistic characterization of the behavior of a program or of its execution environment.
Examples of target events may include an uncaught exception, the invocation of a certain method,
or the access to confidential information. The technique collects constraints on the inputs that
lead to the target events and analyzes them to quantify how likely it is for an input to satisfy the
constraints. Current techniques either handle only linear constraints or only support continuous
distributions using a “discretization” of the input domain, leading to imprecise and costly results.
This work proposes an iterative distribution-aware sampling approach to support probabilistic
symbolic execution for arbitrarily complex mathematical constraints and continuous
input distributions. We follow a compositional approach, where the symbolic constraints are
decomposed into sub-problems whose solution can be solved independently. At each iteration
the convergence rate of the computation is increased by automatically refocusing the analysis
on estimating the sub-problems that mostly affect the accuracy of the results, as guided by
three different ranking strategies. Experiments on publicly available benchmarks show that the
proposed technique improves on previous approaches in terms of scalability and accuracy of the
results. / Análise Probabilística de Software (PSA) visa a quantificar a probabilidade de que um
evento de interesse seja alcançado durante a execução de um programa, dada uma caracterização
probabilística do comportamento do programa ou do seu ambiente de execução. O evento
de interesse pode ser, por exemplo, uma exceção não capturada, a invocação de um método
específico, ou o acesso à informação confidencial. A técnica coleta restrições sobre as entradas
que levam para os eventos de interesse e as analisa para quantificar o quão provável que uma
entrada satisfaça essas restrições. Técnicas atuais ou suportam apenas restrições lineares, ou
suportam distribuições contínuas utilizando uma "discretização" do domínio de entrada, levando
a resultados imprecisos e caros.
Este trabalho apresenta uma abordagem iterativa, composicional e sensível às distribuições
para suportar o uso de PSA em restrições com operações matemáticas arbitrariamente
complexas e distribuições contínuas de entrada. Nossa abordagem composicional permite que as
restrições sejam decompostas em subproblemas que podem ser resolvidos independentemente.
Em cada iteração a análise é reorientada automaticamente para a estimação dos subproblemas que
mais afetam a precisão dos resultados, assim aumentando a taxa de convergência da computação.
Esta reorientação é guiada por três diferentes estratégias de ranqueamento. Experimentos em
programas publicamente disponíveis mostram que a técnica proposta é melhor do que abordagens
existentes em termos de escalabilidade e precisão.
|
13 |
Satisfazibilidade probabilística / Probabilistic satisfiabilityDe Bona, Glauber 20 May 2011 (has links)
Este trabalho estuda o problema da Satisfazibilidade Probabilística (PSAT), revendo a sua solução via programação linear, além de propor novos algoritmos para resolvê-lo através da redução ao SAT. Construímos uma redução polinomial do PSAT para o SAT, chamada de Redução Canônica, codificando operações da aritmética racional em bits, como variáveis lógicas. Analisamos a complexidade computacional dessa redução e propomos uma Redução Canônica de Precisão Limitada para contornar tal complexidade. Apresentamos uma Redução de Turing do PSAT ao SAT, baseada no algoritmo Simplex e na Forma Normal Atômica que introduzimos. Sugerimos modificações em tal redução em busca de eficiência computacional. Por fim, implementamos essas reduções a m de investigar o perl de complexidade do PSAT, observamos o fenômeno de transição de fase e discutimos as condições para sua detecção. / This work studies the Probabilistic Satisfiability problem (PSAT), reviewing its solution through linear programming, and proposing new algorithms to solve it. We construct a polynomial many-to-one reduction from PSAT to SAT, called Canonical Reduction, codifying rational arithmetic operations into bits, as logical variables. We analyze the computational complexity of this reduction and we propose a Limited Precision Canonical Reduction to reduce such complexity. We present a Turing Reduction from PSAT to SAT, based on the Simplex algorithm and the Atomic Normal Form we introduced. We suggest modifications in such reduction looking for computational eficiency. Finally, we implement these reductions in order to investigate the complexity profile of PSAT, the phase transition phenomenom is observed and the conditions for its detection are discussed.
|
14 |
Satisfazibilidade probabilística / Probabilistic satisfiabilityGlauber De Bona 20 May 2011 (has links)
Este trabalho estuda o problema da Satisfazibilidade Probabilística (PSAT), revendo a sua solução via programação linear, além de propor novos algoritmos para resolvê-lo através da redução ao SAT. Construímos uma redução polinomial do PSAT para o SAT, chamada de Redução Canônica, codificando operações da aritmética racional em bits, como variáveis lógicas. Analisamos a complexidade computacional dessa redução e propomos uma Redução Canônica de Precisão Limitada para contornar tal complexidade. Apresentamos uma Redução de Turing do PSAT ao SAT, baseada no algoritmo Simplex e na Forma Normal Atômica que introduzimos. Sugerimos modificações em tal redução em busca de eficiência computacional. Por fim, implementamos essas reduções a m de investigar o perl de complexidade do PSAT, observamos o fenômeno de transição de fase e discutimos as condições para sua detecção. / This work studies the Probabilistic Satisfiability problem (PSAT), reviewing its solution through linear programming, and proposing new algorithms to solve it. We construct a polynomial many-to-one reduction from PSAT to SAT, called Canonical Reduction, codifying rational arithmetic operations into bits, as logical variables. We analyze the computational complexity of this reduction and we propose a Limited Precision Canonical Reduction to reduce such complexity. We present a Turing Reduction from PSAT to SAT, based on the Simplex algorithm and the Atomic Normal Form we introduced. We suggest modifications in such reduction looking for computational eficiency. Finally, we implement these reductions in order to investigate the complexity profile of PSAT, the phase transition phenomenom is observed and the conditions for its detection are discussed.
|
15 |
Dimensionamento e análise do ciclo de vida de pavimentos rodoviários: uma abordagem probabilística. / Pavement design and life cycle analysis: a probabilistic approach.Santos, Caio Rubens Gonçalves 31 May 2011 (has links)
Frequentemente é utilizada a abordagem determinística tanto em dimensionamentos quanto em análises do ciclo de vida de pavimentos rodoviários. A variabilidade inerente aos parâmetros pertinentes à implantação e ao desempenho de um pavimento é comumente desprezada, porém sua consideração pode ser contemplada com a utilização de uma abordagem probabilística, onde cada variável é caracterizada através de uma distribuição de probabilidade adequada. Uma análise econômica de um pavimento, seja asfáltico ou rígido, deve sempre abordar todos os custos pertinentes, desde a implantação. Os custos e benefícios tanto dos usuários quanto da administração rodoviária devem ser considerados. Um dos principais objetivos da avaliação econômica de pavimentos é o de apoiar a decisão quanto à seleção de alternativas de construção ou manutenção mais viáveis, quanto ao custo, e face de determinadas condições técnicas e econômicas. Este trabalho foca a utilização da abordagem probabilística no dimensionamento e em uma análise econômica de pavimentos rodoviários, tanto asfálticos quanto rígidos. São propostos procedimentos para a determinação da confiabilidade de uma estrutura de pavimento, asfáltico ou rígido, baseados nos métodos do DNIT e da AASHTO. Para análise do ciclo de vida são propostos modelos computacionais para a execução destas análises utilizando-se a equação de desempenho da AASHTO. Os custos dos usuários não foram contemplados nos modelos. O método Monte Carlo foi utilizado em todos os modelos. O risco de falha é determinado para o dimensionamento do pavimento. Os resultados contam ainda com uma distribuição dos custos totais ao longo de um período de projeto, possibilitando uma análise de risco. Os dados de saída (resultados) revelam- se como importantes balizadores para a tomada de decisão quanto à alocação de investimentos em alternativas de pavimentação, considerando os riscos inerentes às variabilidades das parcelas do processo consideradas neste trabalho. / A deterministic approach is often used for pavement design and life cycle cost analysis, which does not consider the inherent variability of some relevant parameters. The inherent variability of relevant parameters to the construction and performance of a pavement is often overlooked, but their consideration can be addressed with the use of a probabilistic approach, where each variable is characterized by a suitable probability distribution. An economic analysis of a pavement, either asphaltic or rigid, should always include an approach that considers all relevant construction costs, since its construction. The benefit-cost for both agency and road users should be considered. Improving the decision making process to choose among all construction and maintenance alternatives is one of the main pavement economic analysis goals. This thesis focuses on the use of probabilistic approach in the pavement design and in the Life Cycle Cost Analysis of road pavements, either asphalt or rigid. Procedures are proposed for determining the reliability of a structure of pavement, based on the methods of DNIT and AASHTO. For life cycle cost analysis, models are proposed for the implementation of these computational analyses using the performance equation of AASHTO. The user costs were not included in the models. The Monte Carlo method was used in all models. The reliability (and the risk of failure) is determined for pavements design. The results also come with a distribution of total costs over an analysis period, allowing a risk analysis. The output data (results) are revealed as important indicators for decision making process regarding the allocation of investments in alternative pavements solution, considering the inherent variability of the parcels of the process considered in this work.
|
16 |
Análise biespectral aplicada ao cálculo da resposta extrema de linhas flexíveis. / Digital bispectral analysis appllied to the extreme response of flexible lines.Petreche, Joao Roberto Diego 17 July 1996 (has links)
As linhas flexíveis utilizadas em sistemas flutuantes para produção de petróleo são solicitadas por esforços ambientais de natureza aleatória durante toda sua vida útil. Sua resposta dinâmica de longo prazo as solicitações do ambiente, embora não estacionaria pode ser vista como sendo uma sucessão de processos aleatórios estacionários, associados a probabilidades de ocorrência de condições ambientais de curto prazo. Através de simulações da resposta não linear as solicitações de curto prazo, uma descrição probabilística de segunda ordem da resposta das linhas flexíveis pode ser obtida por analise biespectral. A resposta estacionaria não gaussiana fica então sendo caracterizada no domínio da frequência pela identificação de suas energias linear e não linear. A energia linear define um processo gaussiano, e a energia não linear corresponde à parcela não gaussiana da resposta. Uma regressão quadrática da resposta no domínio da frequência permite obter sua função característica, que e a transformada de Fourier da função de densidade de probabilidade. Desta forma, a resposta estacionaria e representada pela soma de parcelas lineares e quadráticas de variáveis aleatórias gaussianas independentes, e a obtenção da função característica faz-se através da solução de um problema de autovalores e autovetores de uma matriz real e simétrica. / Sem resumo em inglês.
|
17 |
Measuring inconsistency in probabilistic knowledge bases / Medindo inconsistência em bases de conhecimento probabilísticoDe Bona, Glauber 22 January 2016 (has links)
In terms of standard probabilistic reasoning, in order to perform inference from a knowledge base, it is normally necessary to guarantee the consistency of such base. When we come across an inconsistent set of probabilistic assessments, it interests us to know where the inconsistency is, how severe it is, and how to correct it. Inconsistency measures have recently been put forward as a tool to address these issues in the Artificial Intelligence community. This work investigates the problem of measuring inconsistency in probabilistic knowledge bases. Basic rationality postulates have driven the formulation of inconsistency measures within classical propositional logic. In the probabilistic case, the quantitative character of probabilities yielded an extra desirable property: that inconsistency measures should be continuous. To attend this requirement, inconsistency in probabilistic knowledge bases have been measured via distance minimisation. In this thesis, we prove that the continuity postulate is incompatible with basic desirable properties inherited from classical logic. Since minimal inconsistent sets are the basis for some desiderata, we look for more suitable ways of localising the inconsistency in probabilistic logic, while we analyse the underlying consolidation processes. The AGM theory of belief revision is extended to encompass consolidation via probabilities adjustment. The new forms of characterising the inconsistency we propose are employed to weaken some postulates, restoring the compatibility of the whole set of desirable properties. Investigations in Bayesian statistics and formal epistemology have been interested in measuring an agent\'s degree of incoherence. In these fields, probabilities are usually construed as an agent\'s degrees of belief, determining her gambling behaviour. Incoherent agents hold inconsistent degrees of beliefs, which expose them to disadvantageous bet transactions - also known as Dutch books. Statisticians and philosophers suggest measuring an agent\'s incoherence through the guaranteed loss she is vulnerable to. We prove that these incoherence measures via Dutch book are equivalent to inconsistency measures via distance minimisation from the AI community. / Em termos de raciocínio probabilístico clássico, para se realizar inferências de uma base de conhecimento, normalmente é necessário garantir a consistência de tal base. Quando nos deparamos com um conjunto de probabilidades que são inconsistentes entre si, interessa-nos saber onde está a inconsistência, quão grave esta é, e como corrigi-la. Medidas de inconsistência têm sido recentemente propostas como uma ferramenta para endereçar essas questões na comunidade de Inteligência Artificial. Este trabalho investiga o problema da medição de inconsistência em bases de conhecimento probabilístico. Postulados básicos de racionalidade têm guiado a formulação de medidas de inconsistência na lógica clássica proposicional. No caso probabilístico, o carácter quantitativo da probabilidade levou a uma propriedade desejável adicional: medidas de inconsistência devem ser contínuas. Para atender a essa exigência, a inconsistência em bases de conhecimento probabilístico tem sido medida através da minimização de distâncias. Nesta tese, demonstramos que o postulado da continuidade é incompatível com propriedades desejáveis herdadas da lógica clássica. Como algumas dessas propriedades são baseadas em conjuntos inconsistentes minimais, nós procuramos por maneiras mais adequadas de localizar a inconsistência em lógica probabilística, analisando os processos de consolidação subjacentes. A teoria AGM de revisão de crenças é estendida para englobar a consolidação pelo ajuste de probabilidades. As novas formas de caracterizar a inconsistência que propomos são empregadas para enfraquecer alguns postulados, restaurando a compatibilidade de todo o conjunto de propriedades desejáveis. Investigações em estatística Bayesiana e em epistemologia formal têm se interessado pela medição do grau de incoerência de um agente. Nesses campos, probabilidades são geralmente interpretadas como graus de crença de um agente, determinando seu comportamento em apostas. Agentes incoerentes possuem graus de crença inconsistentes, que o expõem a transações de apostas desvantajosas - conhecidas como Dutch books. Estatísticos e filósofos sugerem medir a incoerência de um agente através do prejuízo garantido a qual ele está vulnerável. Nós provamos que estas medidas de incoerência via Dutch books são equivalentes a medidas de inconsistência via minimização de distâncias da comunidade de IA.
|
18 |
Análise probabilística do comportamento dinâmico de linhas de amarração. / Probabilistic analysis of the dynamics behaviour of mooring lines.Petreche, João Roberto Diego 27 February 1991 (has links)
Os aspectos estatísticos inerente à excitação provocada pelas condições ambientais sobre embarcações amarradas são estudados de forma a estabelecer parâmetros aceitáveis para avaliação da qualidade da resposta dinâmica não-linear de longo prazo das linhas de amarração, em termos de vida em fadiga e do risco de ruptura estática. A abordagem proposta subdivide a resposta de longo prazo numa sequência de eventos de curto prazo, nos quais o processo aleatório é considerado estacionário, embora não necessariamente de banda estreita. Nesses termos, o comportamento dinâmico não-linear das linhas de amarração pode ser tomado na sua essência fundamental, sem a necessidade de simplificações de grande vulto. Como parte do procedimento de cálculo, propõe-se que as tensões de curto prazo sejam obtidas por integração direta, no domínio do tempo, do equilíbrio dinâmico de cada linha isolada de amarração, nos moldes já hoje consubstanciados em programas de computador comercialmente disponíveis. Finaliza-se com a apresentação de um exemplo de aplicação do método, para o caso da plataforma semi-submersível GVA 4500 da Petrobrás, que vai operar na Bacia de Campos numa lâmina d\'água ao redor de 1000 m . Atende-se com este trabalho, portanto, alguns dos anseios estabelecidos no \"Programa de Capacitação Tecnológica em Sistemas de Exploração para Águas Profundas (PROCAP)\" da citada empresa, buscando cumprir o objetivo de colocar o conhecimento tecnológico nacional adaptado à realidade do país, tornando-o menos dependente da importação de tecnologias estrangeiras, nem sempre, ou quase nunca, voltadas às nossas reais necessidades. / The inherent statistic aspects due to environmental loads acting on moored vessels are investigates in order to obtain reliable parameters to evaluate the long-term non-linear dynamics response of the mooring lines, as for the fatigue life and the risk of static failure. The proposed approach divides the long-term response into a sequence of short-term events, in which the random process is regarded as stationary, but not narrow band. Thus the non-linear dynamic behavior of the mooring lines can be treated on its fundamental essence, without large simplifications. As part of the calculation procedure, the short-term tensions are obtained by integrating directly the equations of motion for each single mooring line, as performed by the available commercial computer programs. Finally an example of application is presented, for the Petrobrás semisubmersible platform GVA 4500, that will be operating at Bacia de Campos in a water depth of 1000 m. This work goes toward the aims of the \"Programa de Capacitação Tecnológica em Sistemas de Exploração para Águas Profundas (PROCAP)\", in order to take the national technological knowledge adapted to the country actuality, and avoid the importation of foreign technologies, that are, almost never, turned to our actual needs.
|
19 |
Proteção de sobrecorrente em sistemas de distribuição de energia elétrica através de abordagem probabilística. / Overcurrent protection in electrical distribution systems through probabilistic approach.Romildo de Campos Paradelo Junior 14 June 2006 (has links)
Este trabalho apresenta um estudo de proteção de sobrecorrente de redes primárias aéreas de distribuição de energia elétrica através de uma abordagem probabilística. Abordagens convencionais para o problema de proteção de sobrecorrente não levam em conta a natureza probabilística das principais variáveis envolvidas: tipo da falta, localização da falta e impedância de defeito para faltas envolvendo a terra. Neste caso, por exemplo, torna-se muito difícil avaliar as conseqüências de situações nas quais a coordenação total entre os dispositivos não pode ser alcançada por alguma razão. A abordagem probabilística permite, por outro lado, quantificar o risco de não haver coordenação entre dois dispositivos de proteção adjacentes. Esta informação é extremamente valiosa para os engenheiros de proteção na fase de projeto da rede elétrica. No trabalho, a metodologia probabilística é apresentada em detalhe e sua aplicação é ilustrada através de alguns estudos de aplicação, nos quais procurou-se avaliar a influência dos principais parâmetros do modelo na coordenação dos dispositivos de proteção. / This work describes the study of distribution system overcurrent protection through a probabilistic approach. Conventional approaches for overcurrent protection do not consider the probabilistic nature of the main variables involved, such as fault location, fault type and fault impedance for faults involving the ground. In this case, for instance, it is very difficult to assess the impact of situations where full coordination cannot be attained for some reason. The probabilistic approach, on the other hand, allows quantifying the risk of two adjacent protective devices operating in a non-coordinated way. This information is extremely valuable for electrical engineers at design level. In this work, the proposed methodology is illustrated through a few detailed application studies, including various sensitivity analyzes for assessing the influence of model parameters on the coordination of protective devices.
|
20 |
Proteção de sobrecorrente em sistemas de distribuição de energia elétrica através de abordagem probabilística. / Overcurrent protection in electrical distribution systems through probabilistic approach.Paradelo Junior, Romildo de Campos 14 June 2006 (has links)
Este trabalho apresenta um estudo de proteção de sobrecorrente de redes primárias aéreas de distribuição de energia elétrica através de uma abordagem probabilística. Abordagens convencionais para o problema de proteção de sobrecorrente não levam em conta a natureza probabilística das principais variáveis envolvidas: tipo da falta, localização da falta e impedância de defeito para faltas envolvendo a terra. Neste caso, por exemplo, torna-se muito difícil avaliar as conseqüências de situações nas quais a coordenação total entre os dispositivos não pode ser alcançada por alguma razão. A abordagem probabilística permite, por outro lado, quantificar o risco de não haver coordenação entre dois dispositivos de proteção adjacentes. Esta informação é extremamente valiosa para os engenheiros de proteção na fase de projeto da rede elétrica. No trabalho, a metodologia probabilística é apresentada em detalhe e sua aplicação é ilustrada através de alguns estudos de aplicação, nos quais procurou-se avaliar a influência dos principais parâmetros do modelo na coordenação dos dispositivos de proteção. / This work describes the study of distribution system overcurrent protection through a probabilistic approach. Conventional approaches for overcurrent protection do not consider the probabilistic nature of the main variables involved, such as fault location, fault type and fault impedance for faults involving the ground. In this case, for instance, it is very difficult to assess the impact of situations where full coordination cannot be attained for some reason. The probabilistic approach, on the other hand, allows quantifying the risk of two adjacent protective devices operating in a non-coordinated way. This information is extremely valuable for electrical engineers at design level. In this work, the proposed methodology is illustrated through a few detailed application studies, including various sensitivity analyzes for assessing the influence of model parameters on the coordination of protective devices.
|
Page generated in 0.0658 seconds