• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 881
  • 128
  • 7
  • 6
  • 6
  • 6
  • 6
  • 2
  • Tagged with
  • 1020
  • 364
  • 295
  • 264
  • 243
  • 170
  • 161
  • 117
  • 113
  • 111
  • 108
  • 107
  • 98
  • 96
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Detecção e diagnóstico de falhas baseado em modelos empíricos no subespaço das variáveis de processo (EMPVSUB)

Bastidas, Maria Eugenia Hidalgo January 2018 (has links)
O escopo desta dissertação é o desenvolvimento de uma metodologia para a detecção e diagnóstico de falhas em processos industriais baseado em modelos empíricos no subespaço das variáveis do processo com expansão não linear das bases. A detecção e o diagnóstico de falhas são fundamentais para aumentar a segurança, confiabilidade e lucratividade de processos industriais. Métodos qualitativos, quantitativos e baseados em dados históricos do processo têm sido estudados amplamente. Para demonstrar as vantagens da metodologia proposta, ela será comparada com duas metodologias consideradas padrão, uma baseada em Análise de Componentes Principais (PCA) e a outra baseada em Mínimos Quadrados Parciais (PLS). Dois estudos de casos são empregados nessa comparação. O primeiro consiste em um tanque de aquecimento com mistura e o segundo contempla o estudo de caso do processo da Tennessee Eastman. As vantagens da metodologia proposta consistem na redução da dimensionalidade dos dados a serem usados para um diagnóstico adequado, além de detectar efetivamente a anormalidade e identificar as variáveis mais relacionadas à falha, permitindo um melhor diagnóstico. Além disso, devido à expansão das bases dos modelos é possível trabalhar efetivamente com sistemas não lineares, através de funções polinomiais e exponenciais dentro do modelo. Adicionalmente o trabalho contém uma metodologia de validação dos resultados da metodologia proposta, que consiste na eliminação das variáveis do melhor modelo obtido pelos Modelos Empíricos, através do método Backward Elimination. A metodologia proposta forneceu bons resultados na área do diagnóstico de falhas: conseguiu-se uma grande diminuição da dimensionalidade nos sistemas estudados em até 93,55%, bem como uma correta detecção de anormalidades e permitiu a determinação das variáveis mais relacionadas às anormalidades do processo. As comparações feitas com as metodologias padrões permitiram demonstrar que a metodologia proposta tem resultados superiores, pois consegue detectar as anormalidades em um espaço dimensional reduzido, detectando comportamentos não lineares e diminuindo incertezas. / Fault detection and diagnosis are critical to increasing the safety, reliability, and profitability of industrial processes. Qualitative and quantitative methods and process historical data have been extensively studied. This article proposes a methodology for fault detection and diagnosis, based on historical data of processes and the creation of empirical models with the expansion of nonlinear bases (polynomial and exponential bases) and regularization techniques. To demonstrate the advantages of the proposed approach, it is compared with two standard methodologies: Principal Components Analysis (PCA) and the Partial Least Squares (PLS), performed in two case studies: a mixed heating tank and the Tennessee Eastman Process. The advantages of the proposed methodology are the reduction of the dimensionality of the data used, in addition to the effective detection of abnormalities, identifying the variables most related to the fault. Furthermore, the work contains a methodology to validate the diagnosis results consisting of variable elimination from the best empirical models with the Backward Elimination algorithm. The proposed methodology achieved a promising performance, since it can decrease the dimensionality of the studied systems up to 93.55%, reducing uncertainties, and capturing nonlinear behaviors.
422

Automated design flow for applying triple modular redundancy in complex semi-custom digital integrated circuits / Fluxo de projeto automatizado para aplicar redundância modular tripla em circuitos semicustomizados complexos

Benites, Luis Alberto Contreras January 2018 (has links)
Os efeitos de radiação têm sido um dos problemas mais sérios em aplicações militares e espaciais. Mas eles também são uma preocupação crescente em tecnologias modernas, mesmo para aplicações comerciais no nível do solo. A proteção dos circuitos integrados contra os efeitos da radiação podem ser obtidos através do uso de processos de fabricação aprimorados e de estratégias em diferentes estágios do projeto do circuito. A técnica de TMR é bem conhecida e amplamente empregada para mascarar falhas únicas sem detectálas. No entanto, o projeto de circuitos TMR não é automatizado por ferramentas EDA comerciais e até mesmo eles podem remover parcial ou totalmente a lógica redundante. Por outro lado, existem várias ferramentas que podem ser usadas para implementar a técnica de TMR em circuitos integrados, embora a maioria delas sejam ferramentas comerciais licenciadas, convenientes apenas para dispositivos específicos, ou com uso restrito por causa do regime ITAR. O presente trabalho pretende superar esses incovenientes, para isso uma metodologia é proposta para automatizar o projeto de circuitos TMR utilizando um fluxo de projeto comercial. A abordagem proposta utiliza um netlist estruturado para implementar automaticamente os circuitos TMR em diferentes níveis de granularidade de redundância para projetos baseados em células e FPGA. A otimização do circuito TMR resultante também é aplicada com base na abordagem do dimensionamento de portas lógicas. Além disso, a verificação do circuito TMR implementado é baseada na verificação de equivalência e garante sua funcionalidade correta e sua capacidade de tolerancia a falhas simples. Experimentos com um circuito derivado de HLS e uma descrição ofuscada do soft-core ARM Cortex-M0 foram realizados para mostrar o uso e as vantagens do fluxo de projeto proposto. Diversas questões relacionadas à remoção da lógica redundante implementada foram encontradas, bem como o impacto no incremento de área causado pelos votadores de maioria. Além disso, a confiabilidade de diferentes implementações de TMR do soft core ARM sintetizado em FPGA foi avaliada usando campanhas de injeção de falhas emuladas. Como resultado, foi reforçado o nível de alta confiabilidade da implemntação com mais fina granularidade, mesmo na presença de até 10 falhas acumuladas, e a menor capacidade de mitigação correspondente à replicação de flip-flops apenas. / Radiation effects have been one of the most serious issues in military and space applications. But they are also an increasing concern in modern technologies, even for commercial applications at the ground level. Protection or hardening of integrated circuits against radiation effects can be obtained through the use of enhanced fabrication processes and strategies at different stages of the circuit design. The triple modular redundancy (TMR) technique is a widely and well-known technique employed to mask single faults without detecting them. However, the design of TMR circuits is not automated by commercial electronic design automation (EDA) tools and even they can remove partially or totally the redundant logic. On the other hand, there are several tools that can be used to implement the TMR technique in integrated circuits, although most of them are licensed commercial tools, convenient only for specific devices, or with restricted use because of the International Traffic in Arms Regulations (ITAR) regimen. The present work intends to overcome these issues so a methodology is proposed to automate the design of TMR circuits using a commercial design flow. The proposed approach uses a structured netlist to implement automatically TMR circuits at different granularity levels of redundancy for cell-based and field-programmable gate array (FPGA) designs. Optimization of the resulting TMR circuit is also applied based on the gate sizing approach. Moreover, verification of the implemented TMR circuit is based on equivalence checking, and guarantee its correct functionality and its fault-tolerant capability against soft errors. Experiments with an high-level synthesis (HLS)-derived circuit and an obfuscated description of the ARM Cortex-M0 soft-core are performed to show the use and the advantages of the proposed design flow. Several issues related to the removal of the implemented redundant logic were found as well as the impact in the increment of area caused by the majority voters. Furthermore, the reliability of different TMR implementations of the ARM soft-core synthesized in FPGA was evaluated using emulated-simulation fault injection campaigns. As a result, it was reinforced the high-reliability level of the finest granularity implementation even in the presence of up to 10 accumulated faults and the poorest mitigation capacity corresponding to the replication of flip-flops solely.
423

Designing and evaluating hybrid techniques to detect transient faults in processors embedded in FPGAs / Desenvolvendo e Avaliando técnicas híbridas para detectar falhas transientes em processadores embarcados em FPGAs / Entwurf und auswertung von hybrid-techniken zur erkennung von transienten fehlern in FPGA eingebetteten prozessoren

Azambuja, José Rodrigo Furlanetto de January 2013 (has links)
Der aktuelle Stand der Technologie bringt schnellere und kleinere Bausteine für die Herstellung von integrierten Schaltungen mit sich, die während sie effizienter sind auch anfälliger für Strahlung werden. Kleinere Abmessungen der Transistoren, höhere Integrationsdichte, geringere Versorgungsspannungen und höhere Betriebsfrequenzen sind einige der Charakteristika, die energiegeladene Partikel zu einer Herausforderung machen, wenn man integrierte Schaltungen in rauen Umgebungen einsetzt. Diese Art der Partikel hat einen sehr großen Einfluss auf Prozessoren, die in einer solchen Umgebung eingesetzt werden. Sowohl die Ausführung des Programms, welche durch fehlerhafte Sprünge in der Programmsequenz beeinflusst wird, als auch Daten, die in speichernden Elementen wie Programmspeicher, Datenspeicher oder in Registern abgelegt sind, werden verfälscht. Um solche Prozessorsysteme abzusichern, wird in der Literatur Fehlertoleranz empfohlen, welche die Systemperformanz verringert, einen größeren Flächenverbrauch mit sich bringt und das System dennoch nicht komplett schützen kann. Diese Fehlertoleranz kann sowohl durch software- als auch durch hardwarebasierte Ansätze umgesetzt werden. In diesem Zusammenhang schlagen wir eine Kombination aus Hardware- und Software- Lösung vor, welche die Systemperformanz nur sehr wenig beeinflusst und den zusätzlichen Speicheraufwand minimiert. Diese Hybrid-Technologie zielt darauf ab, alle Fehler in einem System zu finden. Fünf solcher Techniken werden beschrieben und erklärt, zwei der vorgestellten Techniken sind bekannte Software-Lösungen, die anderen drei sind neue Hybrid-Lösungen, um alle transienten Effekte von Strahlung in Prozessoren erkennen zu können. Diese unterschiedlichen Ansätze werden anhand ihrer Ausführungszeit, Programm-, Datenspeicher, Flächenvergrößerung und Taktfrequenz analysiert und ausgewertet. Um die Effizienz und die Machbarkeit des vorgeschlagenen Ansatzes verifizieren zu können, werden Fehlerinjektionstests sowohl durch Simulation als auch durch Bestrahlungsexperimente in unterschiedlichen Positionen mit einer Cobalt-60 Quelle durchgeführt. Die Ergebnisse des vorgeschlagenen Ansatzes verbessern den Stand der Technik durch die Bereitstellung einer höheren Fehlererkennungsrate bei sehr geringer negativer Beeinflussung der Performanz und des Speicherverbrauchs. / Os recentes avanços tecnológicos proporcionaram dispositivos menores e mais rápidos para a fabricação de circuitos que, apesar de mais eficientes, se tornaram mais sensíveis aos efeitos de radiação. Menores dimensões de transistores, mais densidade de integração, tensões de alimentação mais baixas e frequências de operação mais altas são algumas das características que tornaram partículas energizadas um problema, quando lidando com sistemas integrados em ambientes severos. Estes tipos de partículas tem uma grande influencia em processadores funcionando em tais ambientes, afetando tanto o fluxo de execução do programa ao causar desvios incorretos, bem como os dados armazenados em elementos de memória, como memórias de dados e programas e registradores. A fim de proteger sistemas processados, técnicas de tolerância a falhas foram propostas na literatura usando propostas baseadas em hardware, software, que diminuem o desempenho do sistema, aumentam a sua área e não são capazes de proteger totalmente o sistema destes efeitos. Neste contexto, propomos a combinação de técnicas baseadas em hardware e software para criar técnicas híbridas orientadas a detectar todas as falhas que afetam o sistema, com baixa degradação de desempenho e aumento de memória. Cinco técnicas são apresentadas e descritas em detalhes, das quais duas são conhecidas técnicas baseadas puramente em software e três são técnicas híbridas novas, para detectar todos os tipos de efeitos transientes causados pela radiação em processadores. As técnicas são avaliadas de acordo com o aumento no tempo de execução, no uso das memórias de dados e programa e de área, e degradação da frequência de operação. Para verificar a eficiência e aplicabilidade das técnicas propostas, campanhas de injeção de falhas são realizadas ao se simular a injeção de falhas e realizar experimentos de irradiação em diferentes localidades com nêutron e fontes de Cobalto-60. Os resultados mostraram que as técnicas propostas aprimoraram o estado da arte ao fornecer altas taxas de detecção de falhas com baixas penalidades em degradação de desempenho e aumento de memória. / Recent technology advances have provided faster and smaller devices for manufacturing circuits that while more efficient have become more sensitive to the effects of radiation. Smaller transistor dimensions, higher density integration, lower voltage supplies and higher operating frequencies are some of the characteristics that make energized particles an issue when dealing with integrated circuits in harsh environments. These types of particles have a major influence in processors working in such environments, affecting both the program’s execution flow by causing incorrect jumps in the program, and the data stored in memory elements, such as data and program memories, and registers. In order to protect processor systems, fault tolerance techniques have been proposed in literature using hardware-based and software-based approaches, which decrease the system’s performance, increase its area, and are not able to fully protect the system against such effects. In this context, we proposed a combination of hardware- and software-based techniques to create hybrid techniques aimed at detecting all the faults affecting the system, at low performance degradation and memory overhead. Five techniques are presented and described in detail, from which two are known software-based only techniques and three are new hybrid techniques, to detect all kinds of transient effects caused by radiation in processors. The techniques are evaluated according to execution time, program and data memories, and area overhead and operating frequency degradation. To verify the effectiveness and the feasibility of the proposed techniques, fault injection campaigns are performed by injecting faults by simulation and performing irradiation experiments in different locations with neutrons and a Cobalt-60 sources. Results have shown that the proposed techniques improve the state-of-the-art by providing high fault detection rates at low penalties on performance degradation and memory overhead.
424

Electromigration aware cell design / Projeto de células considerando a eletromigração

Posser, Gracieli January 2015 (has links)
A Eletromigração (EM) nas interconexões de metal em um chip é um mecanismo crítico de falhas de confiabilidade em tecnologias de escala nanométrica. Os trabalhos na literatura que abordam os efeitos da EM geralmente estão preocupados com estes efeitos nas redes de distribuição de potência e nas interconexões entre as células. Este trabalho aborda o problema da EM em outro aspecto, no interior das células, e aborda especificamente o problema da eletromigração em interconexões de saída, Vdd e Vss dentro de uma célula padrão onde há poucos estudos na literatura que endereçam esse problema. Até onde sabe-se, há apenas dois trabalhos na literatura que falam sobre a EM no interior das células. (DOMAE; UEDA, 2001) encontrou buracos formados pela EM nas interconexões de um inversor CMOS e então propôs algumas ideias para reduzir a corrente nos segmentos de fio onde formaram-se buracos. O outro trabalho, (JAIN; JAIN, 2012), apenas cita que a EM no interior das células padrão deve ser verificada e a frequência segura das células em diferentes pontos de operação deve ser modelada. Nenhum trabalho da literatura analisou e/ou modelou os efeitos da EM nos sinais dentro das células. Desta forma, este é o primeiro trabalho a usar o posicionamento dos pinos para reduzir os efeitos da EM dentro das células. Nós modelamos a eletromigração no interior das células incorporando os efeitos de Joule heating e a divergência da corrente e este modelo é usado para analisar o tempo de vida de grandes circuitos integrados. Um algoritmo eficiente baseado em grafos é desenvolvido para acelerar a caracterização da EM no interior das células através do cálculos dos valores de corrente média e RMS. Os valores de corrente computados por esse algoritmo produzem um erro médio de 0.53% quando comparado com os valores dados por simulações SPICE. Um método para otimizar a posição dos pinos de saída, Vdd e Vss das células e consequentemente otimizar o tempo de vida do circuito usando pequenas modificações no leiaute é proposto. Para otimizar o TTF dos circuitos somente o arquivo LEF é alterado para evitar as posições de pino críticas, o leiaute da célula não é alterado. O tempo de vida do circuito pode ser melhorado em até 62.50% apenas evitando as posições de pino críticas da saída da célula, 78.54% e 89.89% evitando as posições críticas do pino de Vdd e Vss, respectivamente Quando as posições dos pinos de saída, Vdd e Vss são otimizadas juntas, o tempo de vida dos circuitos pode ser melhorado em até 80.95%. Além disso, nós também mostramos o maior e o menor tempo de vida sobre todos as posições candidatas de pinos para um conjunto de células, onde pode ser visto que o tempo de vida de uma célula pode ser melhorado em até 76 pelo posicionamento do pino de saída. Além disso, alguns exemplos são apresentados para explicar porque algumas células possuem uma melhora maior no TTF quando a posição do pino de saída é alterada. Mudanças para otimizar o leiaute das células são sugeridas para melhorar o tempo de vida das células que possuem uma melhora muito pequena no TTF através do posicionamento dos pinos. A nível de circuito, uma análise dos efeitos da EM é apresentada para as diferentes camadas de metal e para diferentes comprimentos de fios para os sinais (nets) que conectam as células. / Electromigration (EM) in on-chip metal interconnects is a critical reliability failure mechanism in nanometer-scale technologies. Usually works in the literature that address EM are concerned with power network EM and cell to cell interconnection EM. This work deals with another aspect of the EM problem, the cell-internal EM. This work specifically addresses the problem of electromigration on signal interconnects and on Vdd and Vss rails within a standard cell. Where there are few studies in the literature addressing this problem. To our best knowledge we just found two works in the literature that talk about the EM within a cell. (DOMAE; UEDA, 2001) found void formed due to electromigration in the interconnection portion in a CMOS inverter and then proposes some ideas to reduce the current through the wire segments where the voids were formed. The second work, (JAIN; JAIN, 2012), just cites that the standard-cell-internal-EM should be checked and the safe frequency of the cells at different operating points must be modeled. No previous work analyzed and/or modeled the EM effects on the signals inside the cells. In this way, our work is the first one to use the pin placement to reduce the EM effects inside of the cells. In this work, cell-internal EM is modeled incorporating Joule heating effects and current divergence and is used to analyze the lifetime of large benchmark circuits. An efficient graph-based algorithm is developed to speed up the characterization of cell-internal EM. This algorithm estimates the currents when the pin position is moved avoiding a new characterization for each pin position, producing an average error of just 0.53% compared to SPICE simulation. A method for optimizing the output, Vdd and Vss pin placement of the cells and consequently to optimize the circuit lifetime using minor layout modifications is proposed. To optimize the TTF of the circuits just the LEF file is changed avoiding the critical pin positions, the cell layout is not changed. The circuit lifetime could be improved up to 62.50% at the same area, delay, and power because changing the pin positions affects very marginally the routing. This lifetime improvement is achieved just avoiding the critical output pin positions of the cells, 78.54% avoiding the critical Vdd pin positions, 89.89% avoiding the critical Vss pin positions and up to 80.95% (from 1 year to 5.25 years) when output, Vdd, and Vss pin positions are all optimized simultaneously. We also show the largest and smallest lifetimes over all pin candidates for a set of cells, where the lifetime of a cell can be improved up to 76 by the output pin placement. Moreover, some examples are presented to explain why some cells have a larger TTF improvement when the output pin position is changed. Cell layout optimization changes are suggested to improve the lifetime of the cells that have a very small TTF improvement by pin placement. At circuit level, we present an analysis of the EM effects on different metal layers and different wire lengths for signal wires (nets) that connect cells.
425

Um Método de Gerenciamento Integrado de Ocorrências de Falhas de Qualidade e Segurança e Sua Aplicação na Arena Fonte Nova

Souza, Mateus Eça 27 March 2018 (has links)
Submitted by Mateus Souza (mateuseps2008@gmail.com) on 2018-07-17T20:05:56Z No. of bitstreams: 1 Dissertação Final - MATEUS.pdf: 6052225 bytes, checksum: 752c1e4e56b6d81328df814cd9f6274f (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2018-07-20T11:55:22Z (GMT) No. of bitstreams: 1 Dissertação Final - MATEUS.pdf: 6052225 bytes, checksum: 752c1e4e56b6d81328df814cd9f6274f (MD5) / Made available in DSpace on 2018-07-20T11:55:22Z (GMT). No. of bitstreams: 1 Dissertação Final - MATEUS.pdf: 6052225 bytes, checksum: 752c1e4e56b6d81328df814cd9f6274f (MD5) / Fundação de Amparo a Pesquisa do Estado da Bahia / A gestão de organizações com estruturas operacionais complexas envolve uma infinidade de fatores críticos que podem contribuir para a ocorrência de eventos não desejáveis acarretando desde um pequeno grau de insatisfação até uma situação de risco à vida dos usuários dos sistemas. Desta forma, os gestores destas organizações precisam estar munidos de métodos eficientes de gestão para lidar com estas ocorrências, a fim de mitigar as suas causas fundamentais e impedir a sua reincidência, contribuindo para um sistema mais confiável e eficiente. Nesse sentido, este trabalho apresenta um método de gerenciamento integrado de ocorrências e faz uso da Itaipava Arena Fonte Nova como ambiente de aplicação. Este trabalho se justifica devido à necessidade de um uso mais racional dos recursos organizacionais e a obrigatoriedade de desenvolvimento de processos com níveis de segurança e de qualidade alinhados às normas e padrões vigentes. Sendo assim, um banco de dados de ocorrência foi construído, um modelo matemático de priorização foi desenvolvido e, por fim, uma sistematização do método proposto foi elaborada em forma de fluxograma. Os resultados da aplicação do modelo de priorização nos anos 2013, 2014 e 2015 convergiram com o método tradicional de priorização apenas na dimensão segurança, algo que já era esperado. No ano de 2013 nenhuma ocorrência foi classificada como prioritária. No ano de 2014 duas ocorrências foram priorizadas: 1) Orientação precária; e 2) Atendentes de bares/ lanchonetes despreparados. No ano de 2015 cinco ocorrências foram priorizadas: 1) Vendedores irregulares; 2) Conflitos entre usuários; 3) Superlotação de setores/ corredores; 4) Filas em bar/ lanchonete; e 5) Acesso à internet precário. Foram utilizadas sessões de brainstorming e um diagrama de Ishikawa para identificar e apresentar as causas fundamentais relacionadas às ocorrências priorizadas. Na recomendação de ações de correção foram utilizados documentos específicos para arenas multiuso, além de normas internacionais das áreas de segurança e qualidade. Dois cenários foram simulados no intuito de verificar o comportamento do modelo de priorização quando alimentado com abundância de registros e quando a opinião do usuário é suprimida. / The management of organizations with complex operational structures involves many critical factors that may contribute to the occurrence of undesirable events generating from a small degree of dissatisfaction to a life-threatening situation for system users. In this way, managers of these organizations need to be equipped with efficient management methods to deal with these fault occurrences in order to mitigate their root causes and prevent their recurrence, contributing to a more reliable and efficient system. In this sense, this work presents a method of integrated management of occurrences and makes use of Itaipava Arena Fonte Nova as an application environment. This work is justified due to the need for a more rational use of organizational resources and the obligation to develop processes with levels of safety and quality in line with current norms and standards. Thus, an integrated event database was constructed, a mathematical model of prioritization was developed and, finally, a systematization of the proposed method was elaborated as a flowchart. The results of applying the prioritization model in the years 2013, 2014 and 2015 converged with the traditional prioritization method only in the security dimension, something that was already expected. In the year 2013, no occurrence was classified as a priority. In the year of 2014 two occurrences were prioritized: 1) Precarious orientation and; and 2) Unprepared attendants of bars/ snack bars. In the year of 2015 five occurrences were prioritized: 1) Irregular sellers; 2) Conflicts between users; 3) Overcrowding of sectors/ aisle; 4) Queues in bar/ snack bar; and 5) Precarious internet access. Brainstorming sessions and an Ishikawa diagram were used to identify and present the root causes related to the prioritized occurrences. In the recommendation of corrective actions, specific documents for multipurpose arenas were used, in addition to international standards of the areas of safety and quality. Two scenarios were simulated in order to verify the behavior of the prioritization model when fed with abundant records and when the user's opinion is suppressed.
426

Detecção e Diagnóstico de Falhas com Redes Neurais sem Pesos

Oliveira, José Carlos 20 April 2018 (has links)
Submitted by José Carlos Oliveira (jcarlos.jeq@hotmail.com) on 2018-07-25T17:12:40Z No. of bitstreams: 1 Tese_Final_José_Carlos_Martins_Oliveira.pdf: 4601437 bytes, checksum: e063bb6da481b557eeb5ce50666f37fe (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2018-08-03T12:12:58Z (GMT) No. of bitstreams: 1 Tese_Final_José_Carlos_Martins_Oliveira.pdf: 4601437 bytes, checksum: e063bb6da481b557eeb5ce50666f37fe (MD5) / Made available in DSpace on 2018-08-03T12:12:58Z (GMT). No. of bitstreams: 1 Tese_Final_José_Carlos_Martins_Oliveira.pdf: 4601437 bytes, checksum: e063bb6da481b557eeb5ce50666f37fe (MD5) / CAPES (Coordenação de Aperfeiçoamento de Pessoal de Nível Superior) e CNPq (Conselho Nacional de Desenvolvimento Científico e Tecnológico) pelo apoio financeiro. / Sistemas de detecção e diagnóstico de falhas (FDD - Fault Detection and Diagnosis) têm sido largamente utilizados em processos industriais. A necessidade de detecção antecipada e segura de falhas em sistemas dinâmicos e reais provocou uma demanda crescente por processos de supervisão que integram os sistemas FDD. Neste contexto, o objetivo principal desta tese é abordar o problema de detecção e diagnóstico de falhas em problemas dinâmicos univariável e multivariáveis com base nas Redes Neural Sem Pesos (RNSP). As RNSP utilizam neurônios baseados em dispositivos de memórias RAM (Random Access Memories, memórias de acesso randômico ou aleatório) para o aprendizado das características intrínsecas nos dados de treinamento. Essas redes apresentam algoritmos de aprendizagem rápidos e flexíveis, precisão e consistência nos resultados, sem a necessidade de geração de resíduos e retreinamento das redes e um potencial elevado para o reconhecimento e classificação de padrões. Como resultado da pesquisa realizada, são propostos três sistemas de detecção e diagnóstico de falhas baseados no modelo neural sem pesos, conhecido como dispositivo WiSARD (Wilkie, Stonham e Aleksander’s Recognition Device, dispositivo de reconhecimento de Wilkie, Stonham e Aleksander). Os sistemas propostos contam também com as contribuições da seleção de atributos, de modelos estatísticos básicos e da lógica fuzzy para a formação dos padrões comportamentais apresentados às RSNP usadas. Para a validação dos sistemas propostos foram testados três estudos de caso. Um deles se refere a um problema real univariável com dados obtidos pelos sensores de temperatura do compressor de gás para a venda em uma Unidade de Processamento de Gás Natural (UPGN) da Petrobras, localizada no município de Pojuca na Bahia (UPGN-3-Bahia). O segundo simula uma planta industrial considerada como um benchmark na área de detecção e diagnóstico de falhas, e conhecida como Tennessee Eastman Process (TEP). O terceiro e último estudo de caso simula um reator tanque agitado continuamente (CSTR, Continuous Stirred Tank Reactor, reator tanque agitado continuamente). Os resultados apresentados comprovam a boa adaptação das RNSP para o problema de detecção e diagnóstico de falhas, com percentuais de acertos, na classificação, acima de 98%. / Fault Detection and Diagnosis (FDD) systems have been widely used in industrial processes. The need of detection anticipated and secure of failure in dynamic and real systems provoke to a growing demand for supervisory processes that integrate FDD systems. In this context, the main objective of this thesis is to approach the problem of detecting and diagnosing failures in univariate and multivariate dynamic problems based on Weightless Neural Networks (WNN). The RNSP uses neurons based on RAM (Random Access Memories) devices to learn the intrinsic characteristics in the training data. These networks use fast and flexible learning algorithms, which provide accurate and consistent results, without the need for residual generation or network retraining, and therefore they have great potential use for pattern recognition and classification. As result of the research, three systems of fault detection and diagnosis based on the weightless neural model, known as WiSARD device (Wilkie, Stonham e Aleksander’s Recognition Device, dispositivo de reconhecimento de Wilkie, Stonham e Aleksander) are proposed. The proposed systems also count with the contributions of the attribute selection, basic statistical models and fuzzy logic for the formation of behavioral patterns presented to the RSNP used. For the validation of the proposed systems, three case studies were tested. One of them refers to a real univariate problem with data obtained by temperature sensors of the gas of sale compressor of a Petrobras Natural Gas Processing Unit (NGPU) located in the city of Pojuca in Bahia (NGPU-3, Bahia). The second simulates an industrial plant considered as a benchmark in the area of fault detection and diagnosis and known as the Tennessee Eastman Process (TEP). The third and final case study simulates a continuous stirred tank reactor (CSTR, Continuous Stirred Tank Reactor). The results show the good adaptation of the RNSP to the problem of detection and diagnosis of failures with percentage of correctness in the classification above 98%.
427

Tectônica transcorrente mesozoica-cenozoica na borda leste da bacia do Paraná, estado de Santa Catarina

JACQUES, Patricia Duringer January 2013 (has links)
Submitted by Flasleandro Oliveira (flasleandro.oliveira@cprm.gov.br) on 2017-08-28T17:35:13Z No. of bitstreams: 1 tese_final_patricia_jacques.pdf: 22363654 bytes, checksum: af44165ed70f2c461b005aac0025baac (MD5) / Approved for entry into archive by Flasleandro Oliveira (flasleandro.oliveira@cprm.gov.br) on 2017-08-28T17:35:39Z (GMT) No. of bitstreams: 1 tese_final_patricia_jacques.pdf: 22363654 bytes, checksum: af44165ed70f2c461b005aac0025baac (MD5) / Approved for entry into archive by Flasleandro Oliveira (flasleandro.oliveira@cprm.gov.br) on 2017-08-28T17:35:58Z (GMT) No. of bitstreams: 1 tese_final_patricia_jacques.pdf: 22363654 bytes, checksum: af44165ed70f2c461b005aac0025baac (MD5) / Made available in DSpace on 2017-08-28T17:36:09Z (GMT). No. of bitstreams: 1 tese_final_patricia_jacques.pdf: 22363654 bytes, checksum: af44165ed70f2c461b005aac0025baac (MD5) Previous issue date: 2013 / O presente estudo teve como objetivo principal avaliar as estruturas rúpteis da borda leste da Bacia do Paraná em Santa Catarina, a partir do estudo dos lineamentos estruturais que afetaram as rochas do embasamento, da sucessão Gondwânica, das vulcânicas da Formação Serra Geral e das alcalinas associadas ao Domo de Lages e ao Complexo Carbonatítico de Anitápolis. Para atingir estes objetivos, foram efetuados levantamentos de campo de análise estrutural dos lineamentos, integração do arcabouço estrutural a partir de dados geofísicos (aeromagnetometria), análise de imagens do sistema óptico (Landsat-7 ETM+ ), imagens de radar (SRTM-3) e dados de microtomografia computadorizada (μCT). Os dados obtidos foram incorporados em um Sistema de Informação Geográfica (SIG), analisados em conjunto ou separados, e permitiram caracterizar estruturas associadas à tectônica formadora e deformadora da Bacia do Paraná. A tectônica formadora da bacia evidencia um padrão estrutural compativel com o modelo de um ‘rifte central’ de direção NE-SW, e a tectônica deformadora revelou estar ligada não apenas a movimentos verticais, mas principalmente a movimentos horizontais capazes de gerar falhas transcorrentes em ambiente intraplaca. Foram caracterizados três eventos tectônicos deformadores da sequência Paleozoica da Bacia do Paraná, que são posteriores as vulcânicas da Formação Serra Geral e as rochas alcalinas do Domo de Lages, a saber: um evento mais antigo (Cretáceo Inferior) com orientação da compressão máxima (σ1) ao redor de N-S, observado apenas nas rochas da Formação Serra Geral; um evento de idade intermediária (Cretáceo Superior- Terciário) com compressão máxima (σ1) orientada próxima de NE-SW, caracterizado nos três domínios estudados (Escudo Catarinense, Form. Serra Geral e rochas alcalinas); e o último evento de idade mais nova (Neógeno), com a compressão máxima (σ1) orientada ao redor de E-W (ESE-WNW), idendificado em dois domínios (Escudo Catarinense e Form. Serra Geral). Os três eventos envolveram a geração de estruturas transcorrentes e podem ser explicados em um contexto geodinâmico associados à: ruptura continental do Gondwana, abertura do Oceano Atlântico, rotação da Placa Sul-America de leste para oeste e subducção na costa oeste da Placa Sul-Americana. Os dois primeiros eventos foram relacionados à tectônica que afetou à margem passiva (transtração) da Placa Sul- VII Americana, e o último foi relacionado à influência da subducção da Placa de Nazca sob a Placa Sul-Americana. O processo iniciou-se com a compressão máxima (σ1) ao redor de N-S, que gerou transcorrências destrais intracontinentais próximas de NW e transcorrências sinistrais NE associadas com a margem continental rompida. Posteriormente, o campo de compressão máxima (σ1) mudou para direção próxima de NE, devido à rotação da Placa Sul-Americana para oeste e, atualmente, devido à influência da compressão da margem ativa da Placa Sul-Americana sobre a Placa de Nazca, instalou-se um campo de compressão máxima (σ1) próximo de E-W (transpressão) / 2013
428

A level set approach for topology optimization with local stress constraints

Emmendoerfer Junior, Hélio January 2015 (has links)
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Mecânica, Florianópolis, 2015. / Made available in DSpace on 2016-05-24T17:21:36Z (GMT). No. of bitstreams: 1 338913.pdf: 15783641 bytes, checksum: e4e5e30a9fc572b02430ff4164172aea (MD5) Previous issue date: 2015 / Este trabalho tem como foco o problema de otimização topológica para minimização de massa com restrições locais sobre o campo de tensões de von Mises. Usando conceitos de curvas de nível (ou level sets) para o controle do domínio, desenvolve-se um procedimento de restrição responsável por uma contínua ativação/desativação de um número finito de restrições de tensão local durante a sequência de otimização. As restrições são convenientemente distribuídas sobre o domínio e impostas ao problema através de uma abordagem Lagrangiano aumentado. O principal objetivo da presente tese é criar um algoritmo capaz de identificar as regiões com concentração de tensões e conduzir a topologia para um mínimo local viável. A evolução das curvas de nível utiliza informações da análise de sensibilidade para atualizar a topologia da estrutura. Em um primeiro momento, tendo como finalidade testar a restrição de tensão proposta, emprega-se a clássica equação de Hamilton-Jacobi para a atualização das curvas de nível, uma técnica bastante usada na literatura. Em seguida, uma equação de reação-difusão é usada para orientar, também via evolução das curvas de nível, a sequência de otimização do projeto. Esta última equação de evolução possui duas vantagens. A primeira é a possibilidade de nuclear furos durante o processo de otimização, uma importante característica para um verdadeiro método de otimização topológica. A outra vantagem consiste na eliminação da etapa de reinicialização da função, necessária em evoluções de Hamilton-Jacobi, obtendo melhorias significantes em termos de convergência. Para a solução numérica da equação de reação-difusão, utilizam-se malhas regulares com os tradicionais elementos finitos quadrilaterais e malhas poligonais não-estruturadas, obtidas a partir de tesselações de Voronoi. Vários exemplos em duas dimensões com resultados numéricos bem sucedidos comprovam o bom comportamento da metodologia proposta para detectar concentrações de tensões e propor um projeto viável.<br> / Abstract : This work focuses on topology optimization for mass minimization with local constraints on the von Mises stress field. Within a level-set context to control the domain, it is developed a constraint procedure that accounts for a continuous activation/deactivation of a finite number of local stress constraints during the optimization sequence. Such constraints are conveniently distributed over the domain and imposed to the problem through an augmented Lagrangian approach. The main objective is to create an efficient algorithm capable of identifying stress concentration regions and drive the topology to a feasible local minimum. The level set evolution makes use of information of the sensitivity analysis to update the structural topology. Initially, being the main goal testing the proposed stress constraint, the level set updating is accomplished by the classical Hamilton-Jacobi equation, widely employed in the literature. Next, a reaction-diffusion equation is used to guide, also via evolution of a level set, the design optimization sequence. The advantages of the latter evolution equation are twofold. Firstly, it allows the creation of new holes during the optimization process, a significant feature for a true topological optimization method. Secondly, reinitialization steps usually found in Hamilton-Jacobi based evolution are eliminated with a significant improvement in convergence. The numerical solution of the reaction-diffusion equation is performed by using regular meshes with standard quads and unstructured polygonal meshes obtained from Voronoi tessellations. A set of benchmark examples in two dimensions achieving successful numerical results assesses the good behavior of the proposed methodology to detect stress concentrations and propose a feasible design.
429

As técnicas de Análise dos Modos de Falhas e seus Efeitos e Análise da Árvore de Falhas no desenvolvimento e na avaliação de produtos

Sakurada, Eduardo Yuji January 2001 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. / Made available in DSpace on 2012-10-18T10:46:38Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-25T21:51:43Z : No. of bitstreams: 1 178025.pdf: 15415548 bytes, checksum: 0a8d943c2e3642d7ad725ae526c57349 (MD5)
430

Avaliação dos detectores de defeitos e sua influência nas operações de consenso / On the evaluation of failure detectors and their influence on consensus operations

Estefanel, Luiz Angelo Barchet January 2001 (has links)
Este trabalho relata observações e analises sobre como os detectores de defeitos influenciam as operação de consenso. O conceito dos detectores de defeitos é essencial para as operações de consenso em sistemas distribuídos assíncronos, uma vez que esses representam uma das (micas formas de sobrepujar as limitações impostas pela chamada Impossibilidade FLP (impossibilidade de diferenciar um processo falho de um processo mais lento). Enquanto os detectores de defeitos tem seu funcionamento bem definido através de duas propriedades, completeness e accuracy, Não há nenhuma restrição quanto a forma de implementá-los. Na literatura são encontrados vários modelos de detectores de defeitos, construídos com as mais variadas estratégias, mecanismos de comunicação e de detecção. No entanto, estes modelos não costumam ser acompanhados de uma comparação com os detectores já existentes; os autores limitam-se a apresentar as inovações dos mecanismos sugeridos. De toda literatura pesquisada, apenas um trabalho procurou comparar diferentes modelos de detectores de defeitos, e através de simulações, avaliou o impacto destes detectores sobre o tempo de terminação das operações de consenso. Entretanto, aquele trabalho era bem limitado, tanto nos modelos de detectores analisados quanto nos objetivos das observações. O presente trabalho procurou estender aquele experimento, incluindo mais modelos de detectores, e transportando-os para um ambiente prático de execução. As observações realizadas não ficaram limitadas as avaliações já realizadas por aquele trabalho, de tal forma que os modelos de detectores testados foram analisados sob diversas métricas, situações e parâmetros de operação. Essas avaliações possibilitaram verificar o comportamento dos detectores frente aos padrões de falhas mais significativos, avaliar o impacto de cada detector sobre as operações de consenso e a sua interação com os elementos do ambiente de execução. Essas avaliações permitiram fazer uma comparação dos detectores, possibilitando a identificação de suas limitações, suas situações de melhor desempenho e possíveis otimizações para serem realizadas em trabalhos futuros. / This work presents our observations and analysis on the influence of the failure detectors on the consensus algorithm. Failure detectors are essential to the consensus over an asynchronous distributed system, as they represent one of the few techniques that are able to circumvent the limitation imposed by the FLP Impossibility (the impossibility to distinguish a crashed process from a slow one, in asynchronous systems). While failure detectors are well defined through two properties, completeness and accuracy, there's no rule about their implementation. Thus, in the literature there are many models of failure detectors, each one implemented using different approaches to the communication and detection strategies. However, these detectors seldom compare themselves to the existing ones; their authors usually present only the advantages and innovations of the new model. Indeed, we only found one work that tried to compare different failure detectors. Using simulation techniques, that work evaluated the impact of the failure detectors on the consensus termination time. However, that research was very limited in the number of detectors analyzed and in the evaluation goals. The present work extended that experience, including more detectors in the analysis and evaluating them in a practical environment. Also, the observations were not restricted to those from the original paper, and the detectors were analyzed with more metrics, failure patterns and operational parameters. The evaluation allowed us to identify the behavior from the detectors in face of the most significant failure patterns, their influence on the consensus operation and their interaction with the execution environment. These evaluation also enabled us to compare the detectors, identifying their limitations, their best employment situations and possible optimizations to future developments.

Page generated in 0.0537 seconds