651 |
Identificação de falhas elétricas em motores de indução trifásicos por injeção de sinal de referência / Identification of electrical faults in three-phase induction motors by reference signal InjectionGongora, Wylliam Salviano 06 May 2019 (has links)
As máquinas elétricas rotativas são hoje a principal forma de transformação da energia elétrica em mecânica motriz e os motores de indução trifásicos têm grande relevância dentro do setor produtivo. A garantia de um correto funcionamento torna-se vital para eficácia e competitividade da empresa dentro do setor fabril. Assim sendo, um correto diagnóstico e classificação de falhas de funcionamento dos motores em operação pode fornecer maior segurança no processo de tomada de decisão sobre a manutenção, aumentar a produtividade e eliminar os riscos e os danos aos processos como um todo. A proposição deste trabalho baseia-se na análise das correntes de estator no domínio da frequência com sinais injetados na máquina juntamente com a modulação de alimentação para o diagnóstico do motor sem defeitos, com falhas de curtocircuito nos enrolamentos do estator e com falhas de rotor. A proposta é validada numa ampla faixa de frequências de operação bem como de regimes de conjugado de carga. São analisados os desempenhos individuais de cinco técnicas de classificadores de padrões, sendo proposta a utilização de: i) Perceptron Multicamadas, ii) Máquina de Vetores de Suporte, iii) k-Vizinhos Próximos, iv) Árvore de Decisão C 4.5 e v) Naive Bayes. Complementarmente, é desenvolvido um comparativo dos métodos de classificação de padrões para avaliar a precisão de classificação frente aos diversos níveis de severidade das falhas. Resultados experimentais com motor de 1 cv são apresentados para validar a proposta. / Rotating electric machines are today the main form of transformation of electrical energy in motor mechanics and three-phase induction motors have great relevance within the productive sector. Thus a correct diagnosis and classification of failures of the engines in operation can provide security in the decision making process on maintenance, increase productivity and eliminate risks and damages to processes as a whole. The purpose of this paper is based on the analysis of the stator currents in the frequency domain with signals injected into the machine together with the power modulation for the diagnosis of motor faultless, stator winding short-circuit faults and rotor faults. Considering also, for validation of the proposal is validated on a broad range frequency of operation as well as load torque. We analyze the individual performances of five standard classifier techniques, proposing the use of: i) Multilayers Perceptron, ii) Support Vector Machine, iii) k-Nearest Neighbor, iv) C 4.5 Decision Tree and v) Naive Bayes. Complementarily, a comparison of the methods of classification of standards is developed to evaluate the accuracy of classification against the different levels of severity of the failures. Experimental results with 735.5 w and 1.471 w engines are presented to validate the proposal.
|
652 |
Uma abordagem neural no diagnóstico de falhas em rolamentos de motores de indução trifásicosGongora, Wylliam Salviano 25 February 2013 (has links)
Fundação Araucária, CNPq / O motor de indução trifásico ocupa uma posição de destaque na produção de força eletromotriz e isso o torna vastamente utilizado em aplicações industriais. Consequentemente, também fica submetido às condições de funcionamento e manutenção das máquinas como um todo, bem como das falhas que os mesmos estão sujeitos. Assim, este trabalho propõe um método alternativo aos tradicionais para detecção de falhas em rolamentos de motores de indução trifásicos ligados diretamente a rede elétrica. Os objetivos consistem na utilização de uma abordagem neural capaz de classificar a existência de falha de rolamento com um alto percentual de acerto. Analisando para isto, no domínio do tempo, um semiciclo das tensões de alimentação e das correntes de estator dos motor em estudo. A proposta é validada através de ensaios experimentais num computador e de forma on-line embarcada num DSP. Como conseqüência do trabalho tem-se a criação de um banco de dados de falhas, com mais de mil ensaios envolvendo as principais falhas encontradas em motores de indução trifásicos. Estes ensaios são realizados contemplando as condições de desbalanço de tensão de alimentação e com várias situações de carga mecânica no eixo da máquina. / The three phase induction motor occupies a prominent position in the production of electromotive force and this makes it widely used in industrial applications. Consequently, it is also subjected to the conditions of operation and maintenance of the machines as a whole, as well as faults which they are subject. Thus, this paper proposes an alternative method to traditional in fault detection in bearing of induction motors connected directly to the power grid. The objectives consist in using a neural approach able to classify the existence of bearing fault with a high percentage of correct. Analyzing for this, in the time domain, one half cycle of the voltages and currents of stator the motor in study. The proposal is validated through experimental tests on a computer and monitoring on-line embedded in a DSP. As a result, the work has the creation of a database of failure, with more than a thousand trials involving the main flaws found in three phase induction motors. These tests are performed considering the conditions of voltage supply unbalanced and with several situations of mechanical load on the machine shaft.
|
653 |
Estudo da atividade s?smica em Irau?uba-CE entre setembro de 2015 a mar?o de 2016Menezes, Eduardo Alexandre Santos de 18 August 2017 (has links)
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-12-02T00:39:01Z
No. of bitstreams: 1
EduardoAlexandreSantosDeMenezes_DISSERT.pdf: 3118703 bytes, checksum: f207d47849b604d3418533d85348bd7e (MD5) / Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-12-06T20:37:45Z (GMT) No. of bitstreams: 1
EduardoAlexandreSantosDeMenezes_DISSERT.pdf: 3118703 bytes, checksum: f207d47849b604d3418533d85348bd7e (MD5) / Made available in DSpace on 2017-12-06T20:37:45Z (GMT). No. of bitstreams: 1
EduardoAlexandreSantosDeMenezes_DISSERT.pdf: 3118703 bytes, checksum: f207d47849b604d3418533d85348bd7e (MD5)
Previous issue date: 2017-08-18 / A regi?o s?smica estudada se localiza no munic?pio de Irau?uba, Cear? (CE), localizado na Prov?ncia Borborema, sendo uma das regi?es mais sismicamente ativas do Brasil. A atividade s?smica do Nordeste do Brasil ? bastante observada devido a muitos eventos que ocorreram na regi?o por v?rios anos, com repeti??es em algumas ?reas, que s?o conhecidas como ?reas ativas. Muitos destes eventos s?o percebidos pelas popula??es das ?reas onde ocorrem, pois apesar deles n?o atingirem grandes magnitudes, chegam a assustar a popula??o. Em alguns casos at? acarretam pequenos danos em casas, tais como pequenas trincas nas paredes e deslocamento de telhas. Um desses exemplos desta atividade s?smica ? a que ocorre na cidade de Irau?uba, localizada na por??o Noroeste do estado do Cear?, a 175 km de sua capital, Fortaleza. A atividade s?smica em Irau?uba ? conhecida e estudada desde 1991, onde ocorreram v?rios tremores ao sul, na localidade de Ju?, distrito de Irau?uba. Nesta regi?o, o maior tremor atingiu 4,9 mb, s? superada no Cear? pelo tremor de Pacajus de 1980 (5.2 mb). Uma nova intensa atividade s?smica iniciou-se em 9 de setembro de 2015, e perdurou at? o in?cio de mar?o de 2016, quando foram registrados mais de 500 tremores. Desta vez, o maior de intensidade observada foi de IV (MM), com a magnitude m?xima observada de 3,8 mb. Este trabalho ? decorrente da an?lise dos dados coletados na campanha realizada no per?odo de setembro de 2015 at? o in?cio de mar?o de 2016. Nesta campanha, foram utilizadas sete esta??es sismogr?ficas digitais, sendo seis compostas por aceler?grafos a tr?s componentes e uma esta??o, com um conjunto de tr?s sism?metros de per?odo curto (um vertical e dois horizontais). Os dados registrados por elas foram analisados, objetivando a determina??o de hipocentros e dos mecanismos focais. Foram analisados 294 eventos s?smicos, registrados em pelo menos quatro esta??es, utilizando o programa COMPASS. Na determina??o hipocentral, foi utilizado o programa HYPO71, utilizando-se um modelo de semiespa?o, com os seguintes par?metros: velocidade de onda P (Vp) de 6,20 km/s e raz?o Vp/Vs de 1.69. Todos os eventos detectados em pelo menos quatro esta??es, com res?duo de tempo menor que 0,01 s e erros horizontais e verticais menores que 0,01 km, num total de 69 eventos, possuem um alinhamento N-NW e revelam uma zona ativa de aproximadamente 2 km de extens?o e profundidade variando de 8 a 9 km. Dentre os 69 eventos selecionados foram escolhidos 22 mais bem localizados para determina??o do plano de falha a partir dos hipocentros, obtendo-se os valores do mecanismo focal composto, realizado com aux?lio do programa FPFIT. Os par?metros da falha sismog?nica foram obtidos pela combina??o do m?todo dos m?nimos quadrados e do programa FPFIT (dire??o = 45?, mergulho = 52? e o rejeito total = -151?), confirmando a orienta??o da falha na dire??o NNW-SSE, com movimento normal. Os epicentros e o mecanismo focal n?o parecem indicar que haja correla??o com estruturas mapeadas at? agora em superf?cie. / The studied region is located in the municipality of Irau?uba, Cear?, in the Borborema Province and it is one of the most active seismic regions of Brazil. The seismic activity of the Northeast of Brazil is well observed by several events that have occurred in the region for many years, with repetitions in some areas that are known as active areas. Many of these events are perceived by population of the areas where they occur, because even if these events do not reach great magnitudes, they may frighten natives. In some cases, they even cause small damages in houses such as small cracks in the walls and displacement of tiles. One example of this kind of seismic activity is the one that occurs in the Irau?uba city, located in the northwestern portion of the Cear? state, 175 km from its capital, Fortaleza. The seismic activity in Irau?uba is known and studied since 1991, when several tremors occurred in the south, in the Ju? city, district of Irau?uba. In this region, the biggest tremor reached 4.9 mb of magnitude, surpassed only in Cear? by the tremor in Pacajus in 1980 (5.2 mb). A new intense seismic activity began in September 9, 2015, and it lasted until the beginning of March, 2016, when more than 500 tremors were registered, but this time the highest intensity IV (MM) was observed, with maximum observed magnitude of 3.8 Mb for this period. This master thesis deals with the analysis of collected data in the performed campaign in the period from October, 2015 to the beginning of March, 2016. In this campaign, seven digital seismographic stations were used, of which six were composed of accelerometers in three components, and one was composed of a set of three short period seismometers (one vertical and two horizontal). The data recorded by these stations were analyzed, with the objective of the determination of hypocenters and focal mechanisms. 294 seismic events were analyzed, recorded by at least four stations, using the Compass software. In the determination, the HYPO71 software was used to determine the hypocenters, using a semi-space model with the following parameters: P wave velocity (Vp) of 6.20 km/s and Vp/Vs ratio of 1.69. All events were detected at least by four stations, with time residue less than 0.01 s and horizontal and vertical errors less than 0.1 km. A total of 69 events have a N-NW alignment and revealed an active zone of approximately 2 km of extension and depth varying from 8 to 9 km. For a set of 23 tremors more well located, a fault plan was determined from the hypocenters, and values of a composite focal mechanism were obtained, performed with the aid of the FPFIT software. It was done for a set of data, fixing the fault plan. The parameters of the seismogenic fault were obtained by the combination of the least squares method and the FPFIT software (strike = 45?, dip = 52? e o rake = -151?), confirming the orientation of the fault in the direction N-NW, with normal movement. The epicenters and the focal mechanism do not seem to indicate that there is correlation with so far mapped structures in surface.
|
654 |
Detecção de falhas em rolamentos de máquinas rotativas utilizando técnicas de processamentos de sinais /Santos, Rodolfo de Sousa, 1965- January 2017 (has links)
Orientador: Mauro Hugo Mathias / Banca: Mauro Pedro Peres / Banca: Luis Fernando Almeida / Banca: Cesar da Costa / Banca: Cicero da Rocha Souto / Resumo: Os sinais de vibrações de máquinas rotativas conduzem a informações dinâmicas da máquina e esta análise é de grande importância no que diz respeito ao monitoramento de condição e diagnósticos de máquinas. Vários métodos de análises têm sido empregados no sentido de diagnosticar falhas em componentes de máquinas tais como engrenagens, rolamentos, dentre outros. Este trabalho apresenta uma análise sobre detecção de falhas em rolamentos de máquinas rotativas, e para esta apreciação utilizou-se os bancos de dados da CASE WESTERN RESERV UNIVERSITY e o banco de dados da FEG/UNESP. O objetivo principal deste trabalho foi a implementação de técnicas avançadas para identificar e caracterizar as falhas que são geradas em rolamentos, vislumbrando o aprimoramento da manutenção baseada na condição. Inicialmente, realizou-se a implementação e simulação no banco de dados da (CWRU), utilizando o software MATLAB e por meio da técnica de ressonância de alta frequência (HFRT), obteve-se resultados satisfatórios, entretanto esta metodologia é limitada uma vez que ela é empregada apenas para regime estacionário. A implementação da técnica HFRT não identificou em alguns casos a frequências para caracterização dos defeitos nas pistas dos rolamentos. Em seguida, utilizou-se a técnica Short Time Fourier Transform-STFT. A implementação proporcionou uma análise bem mais sensível aos impactos gerados nas pistas, pois, com a utilização da STFT, foi possível identificar as frequências características de d... (Resumo completo, clicar acesso eletrônico abaixo) / Abstract: The vibration signals from rotating machines provide a set of dynamic information, which are very important for continuous condition monitoring of machinery. Several analytical methods have been employed in order to diagnose faults in machines components such as gears, bearings and others. This paper presents a fault detection analysis of rotating machinery bearings, using data from CASE WESTERN UNIVERSITY RESERVOIR and the FEG / UNESP database. The main objective of this work is the implementation of advanced techniques to identify and characterize bearing failures, with the purpose to improve maintenance under working conditions. At first, the implementation and simulation were done with data extracted from the database of (CWRU) using MATLAB software and high-frequency resonance technique (HFRT), which led to satisfactory results. However, this technique is limited since it is used only in a stationary regime. In some cases, the implementation of HFRT technique was not able to identify the defect frequencies of the bearing's races. Next the STFT Short-Time Fourier Transform technique was used. Its implementation provided a much more sensitive analysis of the impacts on the slopes; using STFT allowed to identify the characteristic defect frequencies. For comparison purposes, the wavelet technique combined with the envelope technique were used. This analysis was applied using Daubechies Wavelet of order 4 (DB4). In its implementation, a defective bearing signal was decompose... (Complete abstract click electronic access below) / Doutor
|
655 |
Identificação de falhas de curto-circuito de estator em motores de indução trifásicos utilizando evolução diferencial / Three-phase induction motor stator short-circuit fault identification using differential evolutionGuedes, Jacqueline Jordan 14 December 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Fundação Araucária de Apoio ao Desenvolvimento Científico e Tecnológico do Paraná / O motor de indução trifásico do tipo gaiola de esquilo é a principal máquina de conversão eletromecânica devido a sua robustez e facilidade de manutenção, sendo indispensável nos processos produtivos industriais. Por sua grande importância, pesquisas na área de identificação de falhas são realizadas constantemente com o objetivo de diminuir as taxas de manutenções corretivas e permitir uma manutenção programada, diminuindo perdas no processo produtivo, decorrentes de paradas indesejadas. Com esse propósito, o presente trabalho propõe o estudo e desenvolvimento de uma metodologia alternativa que utiliza a Evolução Diferencial para identificação de falhas de curto-circuito de estator em motores de indução conectados diretamente à rede elétrica, por meio dos sinais de tensão e corrente aquisitados no domínio do tempo. O algoritmo de Evolução Diferencial é utilizado para estimar os parâmetros elétricos do motor de indução, a partir do modelo do circuito elétrico equivalente e a identificação da falha ocorre a partir do cálculo da variação percentual da indutância de magnetização estimada com o motor sem falhas. A base de dados utilizada para o trabalho foi obtida por meio de experimentos laboratoriais realizados com dois motores diferentes de 1 CV e um motor de 2 CV, sob condições de variação de conjugado, tensões equilibradas e desequilibradas. / The squirrel cage three-phase induction motor is the main electromechanical conversion machine due to its robustness and easy maintenance, therefore it is indispensable in the industrial production processes. Due to its great importance, surveys related to its fault identification are conducted constantly, in order to reduce the corrective maintenance rates and allow a scheduled maintenance, reducing the losses in the production process, due to unexpected stops. With this purpose, this work proposes the study and development of an alternative methodology based on Differential Evolution algorithm to identify stator short-circuit failures in induction motors connected directly on the electric grid, through its voltage and current signals acquired in the time domain. This Differential Evolution algorithm is used to estimate the induction motor electric parameters based on its equivalent electric circuit model and the fault identification occurs in result of the calculation of the estimated magnetization inductance percentage variation considering a healthy motor. The database used for this work was obtained through laboratory experiments performed with two different types of 1 CV motor and a 2 CV motor under different conditions of torque variation and unbalanced voltages.
|
656 |
ADC : ambiente para experimentação e avaliação de protocolos de difusão confiável / Reliable broadcast protocols experimentation and evaluation environment (ADC)Barcelos, Patricia Pitthan de Araujo January 1996 (has links)
Uma tendência recente em sistemas de computação é distribuir a computação entre diversos processadores físicos. Isto conduz a dois tipos de sistemas: sistemas fortemente acoplados e sistemas fracamente acoplados. Este trabalho enfoca os sistemas de computação classificados como fracamente acoplados, ou sistemas distribuídos, como são popularmente conhecidos. Um sistema distribuído, segundo [BAB 86], pode ser definido como um conjunto de processadores autônomos que não compartilham memória, não tem acesso a clocks' globais e cuja comunicação é realizada somente por troca de mensagens. As exigências intrínsecas de sistemas distribuídos compreendem a confiabilidade e a disponibilidade. Estas exigências tem levado a um crescente interesse em técnicas de tolerância a falhas, cujo objetivo é manter a consistência do sistema distribuído, mesmo na ocorrência de falhas. Uma técnica de tolerância a falhas amplamente utilizada em sistemas distribuídos é a técnica de difusão confiável. A difusão confiável é uma técnica de redundância de software, onde um processador dissemina um valor para os demais processadores em um sistema distribuído, o qual esta sujeito a falhas [BAB 85]. Por ser uma técnica básica de comunicação, diversos procedimentos de tolerância a falhas baseiam-se em difusão confiável. Este trabalho descreve a implementação de um ambiente de apoio a sistemas distribuídos intitulado Ambiente para Experimentação e Avaliação de Protocolos de Difusão Confiável (ADC). Neste ambiente são utilizados os recursos da difusão confiável para a obtenção de uma concordância entre todos os membros do sistema livres de falha. Esta concordância, conhecida como consenso, é obtida através de algoritmos de consenso, os quais visam introduzir o grau de confiabilidade exigido pelos sistemas distribuídos. O ADC (Ambiente para Experimentação e Avaliação de Protocolos de Difusão Confiável) foi desenvolvido em estações de trabalho SUN (SunOS) utilizando o sistema operacional de rede heterogêneo HetNOS [BAA 93] desenvolvido na UFRGS. O ambiente foi implementado com base em um estudo realizado sobre protocolos de difusão confiável [BAR 94]. Através da implementação do ADC e possível simular a execução de protocolos de difusão confiável aplicando modelos propostos para os mesmos. Desta execução são extraídos resultados, sobre os quais pode-se realizar uma analise. Esta análise tem sua fundamentação principalmente nos parâmetros de desempenho, confiabilidade e complexidade. Tanto a implementação do ADC como a realização da analise do modelo proposto foram realizados tendo como suporte alguns dos protocolos de difusão confiável disponíveis na literatura. O principal objetivo deste ambiente consiste na experimentação, ou seja, na verificação da relação teórico-prática dos sistemas distribuídos perante a utilização de uma técnica de redundância de software, a difusão confiável. Através deste ambiente torna-se possível a determinação de parâmetros tais como o número de mensagens de difusão trocadas entre os processos, o número de mensagens de retransmissão enviadas, o número de mensagens emitidas durante todo o processamento do modelo, etc. Estes parâmetros resultam numa analise consistente de protocolos de difusão confiável. / A recent trend in computing systems is to distribute the computation between several physical processors. This leads to two different systems: closely coupled systems and loosely coupled systems. This work focuses on computing systems classified as loosely coupled or distributed systems, as they are commonly known. According to [BAB 86], a distributed system can be defined as a set of autonomous processors with no shared memory, no global clocks and whose comunication is performed only by message exchange. The inherent requirements of distributed systems include reliability and availability. These have caused an increasing interest in fault tolerance techniques, whose goal is to keep the distributed system consistent despite failures. A fault tolerance technique largely used in distributed systems is reliable broadcast. Reliable broadcast is a software redundancy technique, where a processor disseminates a value to other processors in a distributed system, in which failures can occur [BAB85]. Because it is a basic communication technique, several fault tolerance procedures are based on reliable broadcast. This work describes the implementation of a support environment for distributed systems called Reliable Broadcast Protocols Experimentation and Evaluation Environment (ADC). Reliable broadcast resources are used in this environment to obtain an agreement among all off-failure system components. This agreement, called consensus, has been obtained through consensus algorithms, which aim to introduce the reliability degree required in distributed systems. The ADC has been developed in Sun workstation (SunOS) using the heterogeneous operating system HetNOS [BAA 93] which was developed at UFRGS. The environment has been implemented based on a research about reliable broadcast protocols [BAR 94]. Through the ADC it is possible to simulate the execution of reliable broadcast protocols applying proposed models to them. From this execution results are extracted, and over them analysis can be done. This analysis has been based essentialy in parameters such as performance, reliability and complexity. Some classical reliable broadcast protocols were used as a support to ADC implementation and model analysis. The main goal of this environment consists in validating diffusion protocols in a practical distributed systems environment, facing reliable broadcast. Through this environment it can be possible the analysis of important parameters resolution such as the number of messages exchanged between process, the number of retransmission of messages sent, the number of messages sent during the whole model processing, others. These parameters result in a consistent analysis of reliable broadcast protocols.
|
657 |
Localização de faltas em sistemas de transmissão de energia elétrica baseada na impedância aparente : algoritmo utilizando dados de um terminalLima, Diomar Adonis Copetti January 2013 (has links)
É notável que o Sistema Elétrico de Potência (SEP) está constantemente exposto a adversidades ocasionadas por forças da natureza ou desgastes naturais de seus componentes. A localização com certa exatidão de uma falta no Sistema de Transmissão de Energia Elétrica (STEE), ocasionada por uma destas adversidades, contribui para a confiabilidade e segurança da operação do SEP. Neste contexto, este trabalho apresenta um método computacional de Localização de Faltas (LDF), desenvolvido em ambiente MATLAB®, baseado na Impedância Aparente (IA), utilizando dados de apenas um terminal, sendo o equacionamento desenvolvido em componentes simétricas. Este método tem como dados de entrada as componentes fundamentais de tensão e corrente do terminal local e a Potência de Curto Circuito (SCC) do sistema equivalente conectado ao terminal remoto. Para validar o método proposto foram realizadas diversas simulações para todos os tipos de faltas shunt, contemplando inúmeras condições destas, utilizando para isso, o programa computacional ATP-EMTP, alimentado com dados de parâmetros reais de um sistema de transmissão. Objetivando analisar a eficiência deste método, realizou-se a comparação de seus resultados com os resultados obtidos por um método estado-da-arte. A partir de análises e comparações, os resultados alcançados pertencentes ao método de LDF proposto, apresentam-se promissores para a LDF em sistemas de transmissão. / Electric Power Systems (EPS) are constantly exposed to adversities caused by forces of nature and components lifetime. The precise fault location in the Transmission System (TEPS), caused by these adversities, contributes to the reliability and safety the operation of the EPS. In this context, this work presents a computational method for fault location (FL), developed in MATLAB ® environment, based on the Apparent Impedance (AI) of the transmission line. The proposed method uses only one terminal data and is developed in symmetrical components equations. This method has as input data the fundamental components of voltage and current of the local terminal and the short circuit power (SCP) of the equivalent system connected to the remote terminal. The proposed method is validated through several simulations for all fault types, covering many fault conditions, making use of the software ATP-EMTP, fed with data from the actual parameters of a real life transmission system. Aiming to analyze the efficiency of this method, a comparison was made against the an state-of-the-art method. From analysis and comparison of the results obtained, is observed that the proposed scheme is capable to obtain precise fault location estimations and presents as promising method for the FL in transmission systems.
|
658 |
Early evaluation of multicore systems soft error reliability using virtual platforms / Avaliação de sistema de larga escala sob à influência de falhas temporárias durante a exploração de inicial projetos através do uso de plataformas virtuaisRosa, Felipe Rocha da January 2018 (has links)
A crescente capacidade de computação dos componentes multiprocessados como processadores e unidades de processamento gráfico oferecem novas oportunidades para os campos de pesquisa relacionados computação embarcada e de alto desempenho (do inglês, high-performance computing). A crescente capacidade de computação progressivamente dos sistemas baseados em multicores permite executar eficientemente aplicações complexas com menor consumo de energia em comparação com soluções tradicionais de núcleo único. Essa eficiência e a crescente complexidade das cargas de trabalho das aplicações incentivam a indústria a integrar mais e mais componentes de processamento no mesmo sistema. O número de componentes de processamento empregados em sistemas grande escala já ultrapassa um milhão de núcleos, enquanto as plataformas embarcadas de 1000 núcleos estão disponíveis comercialmente. Além do enorme número de núcleos, a crescente capacidade de processamento, bem como o número de elementos de memória interna (por exemplo, registradores, memória RAM) inerentes às arquiteturas de processadores emergentes, está tornando os sistemas em grande escala mais vulneráveis a erros transientes e permanentes. Além disso, para atender aos novos requisitos de desempenho e energia, os processadores geralmente executam com frequências de relógio agressivos e múltiplos domínios de tensão, aumentando sua susceptibilidade à erros transientes, como os causados por efeitos de radiação. A ocorrência de erros transientes pode causar falhas críticas no comportamento do sistema, o que pode acarretar em perdas de vidas financeiras ou humanas. Embora tenha sido observada uma taxa de 280 erros transientes por dia durante o voo de uma nave espacial, os sistemas de processamento que trabalham à nível do solo devem experimentar pelo menos um erro transiente por dia em um futuro próximo. A susceptibilidade crescente de sistemas multicore à erros transientes necessariamente exige novas ferramentas para avaliar a resiliência à erro transientes de componentes multiprocessados em conjunto com pilhas complexas de software (sistema operacional, drivers) durante o início da fase de projeto. O objetivo principal abordado por esta Tese é desenvolver um conjunto de técnicas de injeção de falhas, que formam uma ferramenta de injeção de falha. O segundo objetivo desta Tese é estabelecer as bases para novas disciplinas de gerenciamento de confiabilidade considerando erro transientes em sistemas emergentes multi/manycore utilizando aprendizado de máquina. Este trabalho identifica multiplicas técnicas que podem ser usadas para fornecer diferentes níveis de confiabilidade na carga de trabalho e na criticidade do aplicativo. / The increasing computing capacity of multicore components like processors and graphics processing unit (GPUs) offer new opportunities for embedded and high-performance computing (HPC) domains. The progressively growing computing capacity of multicore-based systems enables to efficiently perform complex application workloads at a lower power consumption compared to traditional single-core solutions. Such efficiency and the ever-increasing complexity of application workloads encourage industry to integrate more and more computing components into the same system. The number of computing components employed in large-scale HPC systems already exceeds a million cores, while 1000-cores on-chip platforms are available in the embedded community. Beyond the massive number of cores, the increasing computing capacity, as well as the number of internal memory cells (e.g., registers, internal memory) inherent to emerging processor architectures, is making large-scale systems more vulnerable to both hard and soft errors. Moreover, to meet emerging performance and power requirements, the underlying processors usually run in aggressive clock frequencies and multiple voltage domains, increasing their susceptibility to soft errors, such as the ones caused by radiation effects. The occurrence of soft errors or Single Event Effects (SEEs) may cause critical failures in system behavior, which may lead to financial or human life losses. While a rate of 280 soft errors per day has been observed during the flight of a spacecraft, electronic computing systems working at ground level are expected to experience at least one soft error per day in near future. The increased susceptibility of multicore systems to SEEs necessarily calls for novel cost-effective tools to assess the soft error resilience of underlying multicore components with complex software stacks (operating system-OS, drivers) early in the design phase. The primary goal addressed by this Thesis is to describe the proposal and development of a fault injection framework using state-of-the-art virtual platforms, propose set of novel fault injection techniques to direct the fault campaigns according to with the software stack characteristics, and an extensive framework validation with over a million of simulation hours. The second goal of this Thesis is to set the foundations for a new discipline in soft error reliability management for emerging multi/manycore systems using machine learning techniques. It will identify and propose techniques that can be used to provide different levels of reliability on the application workload and criticality.
|
659 |
Hardening strategies for HPC applications / Estratégias de enrobustecimento para aplicações PADOliveira, Daniel Alfonso Gonçalves de January 2017 (has links)
A confiabilidade de dispositivos de Processamentos de Alto Desempenho (PAD) é uma das principais preocupações dos supercomputadores hoje e para a próxima geração. De fato, o alto número de dispositivos em grandes centros de dados faz com que a probabilidade de ter pelo menos um dispositivo corrompido seja muito alta. Neste trabalho, primeiro avaliamos o problema realizando experimentos de radiação. Os dados dos experimentos nos dão uma taxa de erro realista de dispositivos PAD. Além disso, avaliamos um conjunto representativo de algoritmos que derivam entendimentos gerais de algoritmos paralelos e a confiabilidade de abordagens de programação. Para entender melhor o problema, propomos uma nova metodologia para ir além da quantificação do problema. Qualificamos o erro avaliando a importância de cada execução corrompida por meio de um conjunto dedicado de métricas. Mostramos que em relação a computação imprecisa, a simples detecção de incompatibilidade não é suficiente para avaliar e comparar a sensibilidade à radiação de dispositivos e algoritmos PAD. Nossa análise quantifica e qualifica os efeitos da radiação na saída das aplicações, correlacionando o número de elementos corrompidos com sua localidade espacial. Também fornecemos o erro relativo médio (em nível do conjunto de dados) para avaliar a magnitude do erro induzido pela radiação. Além disso, desenvolvemos um injetor de falhas, CAROL-FI, para entender melhor o problema coletando informações usando campanhas de injeção de falhas, o que não é possível através de experimentos de radiação. Injetamos diferentes modelos de falha para analisar a sensitividade de determinadas aplicações. Mostramos que partes de aplicações podem ser classificadas com diferentes criticalidades. As técnicas de mitigação podem então ser relaxadas ou enrobustecidas com base na criticalidade de partes específicas da aplicação. Este trabalho também avalia a confiabilidade de seis arquiteturas diferentes, variando de dispositivos PAD a embarcados, com o objetivo de isolar comportamentos dependentes de código e arquitetura. Para esta avaliação, apresentamos e discutimos experimentos de radiação que abrangem um total de mais de 352.000 anos de exposição natural e análise de injeção de falhas com base em um total de mais de 120.000 injeções. Por fim, as estratégias de ECC, ABFT e de duplicação com comparação são apresentadas e avaliadas em dispositivos PAD por meio de experimentos de radiação. Apresentamos e comparamos a melhoria da confiabilidade e a sobrecarga imposta das soluções de enrobustecimento selecionadas. Em seguida, propomos e analisamos o impacto do enrobustecimento seletivo para algoritmos de PAD. Realizamos campanhas de injeção de falhas para identificar as variáveis de código-fonte mais críticas e apresentamos como selecionar os melhores candidatos para maximizar a relação confiabilidade/sobrecarga. / HPC device’s reliability is one of the major concerns for supercomputers today and for the next generation. In fact, the high number of devices in large data centers makes the probability of having at least a device corrupted to be very high. In this work, we first evaluate the problem by performing radiation experiments. The data from the experiments give us realistic error rate of HPC devices. Moreover, we evaluate a representative set of algorithms deriving general insights of parallel algorithms and programming approaches reliability. To understand better the problem, we propose a novel methodology to go beyond the quantification of the problem. We qualify the error by evaluating the criticality of each corrupted execution through a dedicated set of metrics. We show that, as long as imprecise computing is concerned, the simple mismatch detection is not sufficient to evaluate and compare the radiation sensitivity of HPC devices and algorithms. Our analysis quantifies and qualifies radiation effects on applications’ output correlating the number of corrupted elements with their spatial locality. We also provide the mean relative error (dataset-wise) to evaluate radiation-induced error magnitude. Furthermore, we designed a homemade fault-injector, CAROL-FI, to understand further the problem by collecting information using fault injection campaigns that is not possible through radiation experiments. We inject different fault models to analyze the sensitivity of given applications. We show that portions of applications can be graded by different criticalities. Mitigation techniques can then be relaxed or hardened based on the criticality of the particular portions. This work also evaluates the reliability behaviors of six different architectures, ranging from HPC devices to embedded ones, with the aim to isolate code- and architecturedependent behaviors. For this evaluation, we present and discuss radiation experiments that cover a total of more than 352,000 years of natural exposure and fault-injection analysis based on a total of more than 120,000 injections. Finally, Error-Correcting Code, Algorithm-Based Fault Tolerance, and Duplication With Comparison hardening strategies are presented and evaluated on HPC devices through radiation experiments. We present and compare both the reliability improvement and imposed overhead of the selected hardening solutions. Then, we propose and analyze the impact of selective hardening for HPC algorithms. We perform fault-injection campaigns to identify the most critical source code variables and present how to select the best candidates to maximize the reliability/overhead ratio.
|
660 |
Resilient regular expression matching on FPGAs with fast error repair / Avaliação resiliente de expressões regulares em FPGAs com rápida correção de errosLeipnitz, Marcos Tomazzoli January 2017 (has links)
O paradigma Network Function Virtualization (NFV) promete tornar as redes de computadores mais escaláveis e flexíveis, através do desacoplamento das funções de rede de hardware dedicado e fornecedor específico. No entanto, funções de rede computacionalmente intensivas podem ser difíceis de virtualizar sem degradação de desempenho. Neste contexto, Field-Programmable Gate Arrays (FPGAs) têm se mostrado uma boa opção para aceleração por hardware de funções de rede virtuais que requerem alta vazão, sem se desviar do conceito de uma infraestrutura NFV que visa alta flexibilidade. A avaliação de expressões regulares é um mecanismo importante e computacionalmente intensivo, usado para realizar Deep Packet Inpection, que pode ser acelerado por FPGA para atender aos requisitos de desempenho. Esta solução, no entanto, apresenta novos desafios em relação aos requisitos de confiabilidade. Particularmente para FPGAs baseados em SRAM, soft errors na memória de configuração são uma ameaça de confiabilidade significativa. Neste trabalho, apresentamos um mecanismo de tolerância a falhas abrangente para lidar com falhas de configuração na funcionalidade de módulos de avaliação de expressões regulares baseados em FPGA. Além disso, é introduzido um mecanismo de correção de erros que considera o posicionamento desses módulos no FPGA para reduzir o tempo de reparo do sistema, melhorando a confiabilidade e a disponibilidade. Os resultados experimentais mostram que a taxa de falha geral e o tempo de reparo do sistema podem ser reduzidos em 95% e 90%, respectivamente, com custos de área e performance admissíveis. / The Network Function Virtualization (NFV) paradigm promises to make computer networks more scalable and flexible by decoupling the network functions (NFs) from dedicated and vendor-specific hardware. However, network and compute intensive NFs may be difficult to virtualize without performance degradation. In this context, Field-Programmable Gate Arrays (FPGAs) have been shown to be a good option for hardware acceleration of virtual NFs that require high throughput, without deviating from the concept of an NFV infrastructure which aims at high flexibility. Regular expression matching is an important and compute intensive mechanism used to perform Deep Packet Inspection, which can be FPGA-accelerated to meet performance constraints. This solution, however, introduces new challenges regarding dependability requirements. Particularly for SRAM-based FPGAs, soft errors on the configuration memory are a significant dependability threat. In this work we present a comprehensive fault tolerance mechanism to deal with configuration faults on the functionality of FPGA-based regular expression matching engines. Moreover, a placement-aware scrubbing mechanism is introduced to reduce the system repair time, improving the system reliability and availability. Experimental results show that the overall failure rate and the system mean time to repair can be reduced in 95% and 90%, respectively, with manageable area and performance costs.
|
Page generated in 0.0678 seconds