• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 881
  • 128
  • 7
  • 6
  • 6
  • 6
  • 6
  • 2
  • Tagged with
  • 1020
  • 364
  • 295
  • 264
  • 243
  • 170
  • 161
  • 117
  • 113
  • 111
  • 108
  • 107
  • 98
  • 96
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
671

Manifestações patológicas em empreendimentos habitacionais de baixa renda executados em alvenaria estrutural : uma análise da relação de causa e efeito / Building pathologies in low cost housing projects with structural masonry: an analysis of the cause-effect relationship

Alexandre, Ilídio Francisco January 2008 (has links)
A alvenaria estrutural vem ganhando um grande impulso no Brasil ao longo das últimas décadas, sendo cada vez mais utilizada, principalmente em empreendimentos habitacionais de interesse social. No caso específico do Estado do Rio Grande do Sul, nos últimos dois anos, a maioria dos empreendimentos habitacionais de baixa renda foram executados com esse processo construtivo. Por exigência dos órgãos financiadores destes tipos de empreendimentos, as empresas construtoras dos mesmos devem ser possuidoras de certificação do seu sistema de gestão da qualidade. Entretanto, apesar desta certificação, tem-se observado a presença de manifestações patológicas, com predominância de fissuras, nos empreendimentos de baixa renda, por elas executadas. As causas das manifestações patológicas em empreendimentos construídos em alvenaria estrutural têm sido objeto de estudo de diversas pesquisas. Porém, não se fez até então um estudo das possíveis causas destas manifestações do ponto de vista multicausal, envolvendo as várias etapas do processo construtivo. Neste sentido, a presente pesquisa teve como objetivo principal analisar as relações de causa e efeito entre as fissuras dos empreendimentos construídos em alvenaria estrutural e as suas causas, utilizando-se de ferramentas de melhorias da qualidade que adotam uma visão multi-casual, muito utilizadas em outras indústrias Para este estudo foram utilizados relatórios de monitoramento de execução de empreendimentos que pertencem aos modos de provisão habitacional do Programa de Arrendamento Residencial (PAR) e Imóvel na Planta (IP), no Estado do Rio Grande do Sul, ambos gerenciados pela Caixa Econômica Federal. A pesquisa consistiu em: (a) revisão bibliográfica; (b) levantamento e análise dos dados provenientes dos relatórios, identificando falhas, recomendações técnicas e boas práticas adotadas pelas empresas construtoras; (c) aplicação de um método de análise de relações de causa e efeito composto por ferramentas da qualidade; e (d) geração de mapas de relações de causa e efeito, recomendações para tratamento das principais causas e listagem de algumas boas práticas construtivas. Através desta pesquisa foi possível verificar as principais falhas ao longo do processo construtivo em vários níveis de análise e analisar as relações de causa e efeito entre eles e propor uma priorização de melhorias da qualidade. Com base nesta priorização foi sistematizado um conjunto de recomendações técnicas e de boas práticas que podem ser disseminadas entre as empresas construtoras tendo em vista a melhoria da qualidade dos empreendimentos em estudo. / Structural masonry has had a substantial development in Brazil in the last few decades, becoming increasingly important, especially in social interest housing projects. In the specific case of Rio Grande do Sul, in the last two years, most low cost housing projects have been built using this construction process. Due to the demand of the funding organizations, the construction companies that build those projects must have a certified quality management system. However, despite this certification, a large number of building pathologies have been observed in those projects, especially cracks. In fact, the causes of building pathologies in structural masonry buildings have been the focus of several research studies. However, very little has been investigated on the causes of those pathologies from a multi-causal perspective, considering several stages of the construction process. The main objective of this research work is to analyze the cause-effect relationships between cracks in structural masonry buildings and their causes, using quality improvement tools that provide such multi-causal perspective, widely used in other industries. This study was based on quality monitoring reports of projects from two housing programs, the Residential Leasing Program (PAR) and the Blue-print Program (IP), in the State of Rio Grande do Sul. Both programs are managed by the National Savings Bank. The research study consisted of: (a) a literature review; (b) data collection and analysis using those reports, with the aim of identifying building failures, necessary improvements, and good practices adopted by construction companies; (c) application of a method for analyzing the cause-effect relationships which combined a set of quality tools; (d) development of cause-effect relationship maps, proposition of a set of improvements and a production of a list of good practices. Based on this study, it was possible to identify failures in the construction process, as well as to analyze the cause-effect relationships and propose some priorities in terms of improvements measures. Based on those priorities, a set of technical recommendations was established, as well as a list of good practices that should be disseminated among construction companies, in order to improve the quality of low-cost housing projects.
672

Procedimento de teste para deteccao de falhas no processador transputer / Test procedure for faults detection in the transputer processor

Bezerra, Eduardo Augusto January 1996 (has links)
Procedimentos de teste para dispositivos eletrônicos tem sido construídos de forma a lidar com problemas, tais como geração de padrões de teste, cobertura de falhas e outros parâmetros tais como custo e tempo. Com o surgimento dos circuitos VLSI (Very Large Scale Integration), tais como os processadores, os problemas do teste tem aumentado. Com relação aos processadores, sua complexidade é um convite para o uso de procedimentos de teste funcionais, ignorando a estrutura física dos circuitos. Adicionalmente, informações sobre a estrutura do processador são geralmente desconhecidas por parte do usuário. No nível funcional, um processador é tratado como um sistema composto por blocos funcionais, cuja descrição pode ser obtida no manual do usuário. Cada bloco e caracterizado pela sua função, como por exemplo, a unidade lógica e aritmética, registradores, memória, etc... Testar o processador consiste em exercitar cada bloco com padrões de teste determinados. A utilização do processador transputer em situações onde se faz necessário um certo nível de confiabilidade depende da utilização de técnicas para detecção on-line. No presente trabalho é proposto um procedimento para o teste funcional do transputer. O teste funcional aqui proposto permite detecção de falhas on-line, em um contexto de aplicação periódica (pela suspensão temporária mas sem alteração do contexto da aplicação do usuário), com baixa degradação no desempenho global do sistema. Hipóteses e procedimentos relacionados a fabricação de circuitos não são considerados. Para possibilitar o uso de técnicas de teste convencionais, o transputer IMS T800 é particionado em blocos funcionais e um modelo para o teste, baseado na organização desse componente, e proposto. Este modelo é apoiado pela similaridade desse processador com um sistema microprocessado. Após o particionamento cada bloco funcional pode ser testado em separado; para os blocos que possuem organização como a de microprocessadores convencionais (tais como parte da CPU e a FPU), utiliza-se como base o método proposto por Robach and Saucier [ROB80]. De acordo com este método de teste funcional, as instruções do processador são modeladas por intermédio de grafos, que formam a base para definição de um conjunto mínimo de instruções. A execução desse conjunto exercita todos os elementos pertencentes ao respectivo bloco funcional do transputer. Entretanto, o procedimento proposto não é uma aplicação direta da metodologia citada, devido a características particulares do transputer, especialmente no que diz respeito ao paralelismo de operações, e sua estrutura de blocos internos. Com relação aos testes on-line, a utilização de um conjunto de instruções reduzido possibilita a realização de um teste rápido, reduzindo perdas de desempenho. Para os blocos restantes, de acordo com suas características, são construídos procedimentos de teste específicos. A freqüência de execução é ajustável para cada bloco. Dependendo das exigências da aplicação, alguns procedimentos podem ser omitidos, reduzindo a carga provocada pelo procedimento de teste no desempenho do sistema. A validação do procedimento de teste é realizada de duas maneiras: injeção de falhas, para verificar a capacidade de detecção: e avaliação de desempenho, para identificar o nível de degradação causado pela utilização do procedimento de teste em um sistema genérico. Apesar desse trabalho ter sido desenvolvido com base na estrutura da maquina TNODE [TEL91] e na abordagem de teste global descrita em [NUN93b], o procedimento de teste proposto pode ser utilizado em qualquer sistema composto por transputers, cujos parâmetros de aplicação se enquadrem nos requisitos usados neste trabalho. / Test procedures for electronic devices have been planned in order to deal with problems as test pattern generation, fault coverage and other parameters as cost and time. With the advent of very large scale integration (VLSI) circuits, such as the microprocessors, the test problems have arised. Concerning processors, their complexity is an invitation to the use of functional test procedures, ignoring the physical structure of the circuit. Further, structural information about the processor is, in general, unknown by users. In a functional level, a processor is seen as a system made up of functional blocks, whose description can be obtained from the user's manual. Each block is characterized by its function, as arithmetic and logic unit, registers, memory, etc... Testing the processor consists of exercising every block with specified test patterns. The use of the transputer processor in situations where reliability is needed depends on the use of on-line detection techniques. In this work, a functional test procedure for the transputer is proposed. The functional test here proposed intends to allow on-line fault detection, in a context of periodical application, with low degradation in global system performance. Hypotheses and procedures related to the fabrication process are not concerned. In order to make possible the use of conventional test techniques, the IMS T800 transputer is partitioned in functional blocks and a test model, based on the architecture of this component, is proposed. This model is supported by the similarity of this processor with a microprocessor system. Then each functional block may be tested in separate; for the blocks that have conventional microprocessor architecture (as part of the CPU and the FPU), the method proposed by Robach and Saucier [ROB80] is used. According to this functional test method, processor instructions are modeled by means of graphs which are the basis to find a minimal instruction set. The execution of this set exercises all elements that belong to the respective functional block of the transputer. Therefore, it is not a straight application of that methodology due to particular characteristics of the transputer, specially concerning the parallelism of operation and its internal blocks structure. Concerning on-line tests, the use of a reduced instruction set allows a fast test realization, reducing the overhead over system performance. For the remainder blocks, specific test procedures are built according to their features. The frequency of execution is adjustable to each block. Depending on the application constraints, some procedures may be omitted, reducing the overhead produced by the test procedure over the system performance. The validation of the test procedure may be done by means of: fault injection, to verify the faults coverage parameters; and performance evaluation, to identify degradation level caused by the inclusion of test procedure in a generic system. Although this work has been developed with basis in the structure of the T-NODE machine [TEL91] and the global test approach described in [NUN93b], it can be used in other transputer systems whose application parameters are similar to those here used.
673

ADC : ambiente para experimentação e avaliação de protocolos de difusão confiável / Reliable broadcast protocols experimentation and evaluation environment (ADC)

Barcelos, Patricia Pitthan de Araujo January 1996 (has links)
Uma tendência recente em sistemas de computação é distribuir a computação entre diversos processadores físicos. Isto conduz a dois tipos de sistemas: sistemas fortemente acoplados e sistemas fracamente acoplados. Este trabalho enfoca os sistemas de computação classificados como fracamente acoplados, ou sistemas distribuídos, como são popularmente conhecidos. Um sistema distribuído, segundo [BAB 86], pode ser definido como um conjunto de processadores autônomos que não compartilham memória, não tem acesso a clocks' globais e cuja comunicação é realizada somente por troca de mensagens. As exigências intrínsecas de sistemas distribuídos compreendem a confiabilidade e a disponibilidade. Estas exigências tem levado a um crescente interesse em técnicas de tolerância a falhas, cujo objetivo é manter a consistência do sistema distribuído, mesmo na ocorrência de falhas. Uma técnica de tolerância a falhas amplamente utilizada em sistemas distribuídos é a técnica de difusão confiável. A difusão confiável é uma técnica de redundância de software, onde um processador dissemina um valor para os demais processadores em um sistema distribuído, o qual esta sujeito a falhas [BAB 85]. Por ser uma técnica básica de comunicação, diversos procedimentos de tolerância a falhas baseiam-se em difusão confiável. Este trabalho descreve a implementação de um ambiente de apoio a sistemas distribuídos intitulado Ambiente para Experimentação e Avaliação de Protocolos de Difusão Confiável (ADC). Neste ambiente são utilizados os recursos da difusão confiável para a obtenção de uma concordância entre todos os membros do sistema livres de falha. Esta concordância, conhecida como consenso, é obtida através de algoritmos de consenso, os quais visam introduzir o grau de confiabilidade exigido pelos sistemas distribuídos. O ADC (Ambiente para Experimentação e Avaliação de Protocolos de Difusão Confiável) foi desenvolvido em estações de trabalho SUN (SunOS) utilizando o sistema operacional de rede heterogêneo HetNOS [BAA 93] desenvolvido na UFRGS. O ambiente foi implementado com base em um estudo realizado sobre protocolos de difusão confiável [BAR 94]. Através da implementação do ADC e possível simular a execução de protocolos de difusão confiável aplicando modelos propostos para os mesmos. Desta execução são extraídos resultados, sobre os quais pode-se realizar uma analise. Esta análise tem sua fundamentação principalmente nos parâmetros de desempenho, confiabilidade e complexidade. Tanto a implementação do ADC como a realização da analise do modelo proposto foram realizados tendo como suporte alguns dos protocolos de difusão confiável disponíveis na literatura. O principal objetivo deste ambiente consiste na experimentação, ou seja, na verificação da relação teórico-prática dos sistemas distribuídos perante a utilização de uma técnica de redundância de software, a difusão confiável. Através deste ambiente torna-se possível a determinação de parâmetros tais como o número de mensagens de difusão trocadas entre os processos, o número de mensagens de retransmissão enviadas, o número de mensagens emitidas durante todo o processamento do modelo, etc. Estes parâmetros resultam numa analise consistente de protocolos de difusão confiável. / A recent trend in computing systems is to distribute the computation between several physical processors. This leads to two different systems: closely coupled systems and loosely coupled systems. This work focuses on computing systems classified as loosely coupled or distributed systems, as they are commonly known. According to [BAB 86], a distributed system can be defined as a set of autonomous processors with no shared memory, no global clocks and whose comunication is performed only by message exchange. The inherent requirements of distributed systems include reliability and availability. These have caused an increasing interest in fault tolerance techniques, whose goal is to keep the distributed system consistent despite failures. A fault tolerance technique largely used in distributed systems is reliable broadcast. Reliable broadcast is a software redundancy technique, where a processor disseminates a value to other processors in a distributed system, in which failures can occur [BAB85]. Because it is a basic communication technique, several fault tolerance procedures are based on reliable broadcast. This work describes the implementation of a support environment for distributed systems called Reliable Broadcast Protocols Experimentation and Evaluation Environment (ADC). Reliable broadcast resources are used in this environment to obtain an agreement among all off-failure system components. This agreement, called consensus, has been obtained through consensus algorithms, which aim to introduce the reliability degree required in distributed systems. The ADC has been developed in Sun workstation (SunOS) using the heterogeneous operating system HetNOS [BAA 93] which was developed at UFRGS. The environment has been implemented based on a research about reliable broadcast protocols [BAR 94]. Through the ADC it is possible to simulate the execution of reliable broadcast protocols applying proposed models to them. From this execution results are extracted, and over them analysis can be done. This analysis has been based essentialy in parameters such as performance, reliability and complexity. Some classical reliable broadcast protocols were used as a support to ADC implementation and model analysis. The main goal of this environment consists in validating diffusion protocols in a practical distributed systems environment, facing reliable broadcast. Through this environment it can be possible the analysis of important parameters resolution such as the number of messages exchanged between process, the number of retransmission of messages sent, the number of messages sent during the whole model processing, others. These parameters result in a consistent analysis of reliable broadcast protocols.
674

Otimização do risco de estruturas redundantes considerando os efeitos das não linearidades e múltiplos modos de falha

Esposito, Adelano January 2016 (has links)
O desenvolvimento de métodos que permitam reproduzir numericamente o comportamento el de sistemas estruturais reais tem desa ado cientistas e pesquisadores a abordarem questões que vão além das condições de integridade do sistema. Neste sentido, uma série de novos parâmetros devem ser considerados durante um processo de otimização estrutural, zelando pela con abilidade em níveis aceitáveis enquanto que os custos esperados de falhas sejam minimizados. Aparentemente, os objetivos segurança e economia competem entre si, nesse contexto, a otimização do risco estrutural surge como uma formulação que permite equacionar este problema através do chamado custo esperado total. Nesta Tese, apresenta-se o desenvolvimento de uma técnica precisa para satisfazer os termos que compõem a função custo esperado total, isto é, uma técnica capaz de estimar a con abilidade de sistemas estruturais redundantes pela identi cação dos múltiplos modos de falha de uma maneira mais precisa que os métodos convencionais aproximados e de simulação. Além disso, análises inelásticas de estruturas de aço incluindo as não linearidades físicas e geométricas são consideradas utilizando o MCDG, além de leis constitutivas para prever o comportamento inelástico. Em posse destas informações, o algoritmo calcula o risco como sendo a probabilidade de falha multiplicada pela consequência econômica resultante desta falha. Ao risco são acrescentados os demais custos associados ao sistema estrutural, os quais não dependem dos parâmetros aleatórios do sistema e por isso denominados custos xos. Como produto, tem-se o custo esperado total, o qual corresponde a função objetivo do problema de otimização estrutural. Aplicações numéricas demonstram a precisão e e ciência da metodologia na avaliação da probabilidade de falha de problemas envolvendo funções de estado limite altamente não lineares com múltiplas regiões de falhas, assim como os efeitos causados pelas não linearidades físicas e geométricas nas análises probabil ísticas e na otimização do risco das estruturas. Os resultados demonstraram que, em relação às incertezas e consequências monetárias da falha, a estrutura ótima pode ser encontrada apenas pela formulação da otimização do risco, onde a con guração da estrutura e os limites de segurança são otimizados simultaneamente. A otimização do risco resulta numa estrutura ótima em termos mecânicos, custo esperado total e segurança. / The development of methods that allow to numerically reproduce the actual behavior of real structural systems has challenged scientists and researchers and urged them to address issues that extend beyond the integrity of a system. Therefore, a series of new parameters must be taken into account during the structural optimization process, looking for acceptable reliability levels while minimizing the expected failure costs. Apparently, safety and economy compete with each other, and in this context, structural risk optimization arises as a formulation that allows equating this problem through the so-called total expected cost. In this Thesis, an accurate technique is developed to satisfy the minimization of the total expected cost function i:e:; a technique that allows estimating the reliability of redundant structural systems by the identi cation of multiple failure modes in a more precise way than conventional approximation and simulation methods. Besides, inelastic analysis of steel trusses including both geometric and physical nonlinearities are considered using the generalized displacement control method, in addition to constitutive laws to predict the inelastic behavior. Based on this information, the algorithm calculates risk as the failure probability multiplied by the economic losses resulting from such failure. The other costs associated to the structual system are added to the actual risk and since they do not depend on system's random parameters, they are referred as xed costs. As result, one obtains the total expected cost, which corresponds to the objective function of the structural optimization problem. Numerical applications shows the accuracy and e ciency of the methodology in the evaluation of the failure probability of problems represented by high nonlinear limit state functions with multiple failure regions. It is also included the e ects of geometric and physical nonlinearities originated in the probabilistic analysis and risk optimization of truss structures. Results show that, in consideration of uncertainty and the monetary consequences of failure, the optimum structure can only be found by a risk optimization formulation, where structural con guration and safety margins are optimized simultaneously. Risk optimization yields a structure which is optimum in terms of mechanics and in terms of the compromise between cost and safety.
675

FITT : fault injection test tool to validate safety communication protocols / FITT : a fault injection tool to validate safety communication protocols / Uma ferramenta de injeção de falhas para validar protocolos de comunicação seguros

Dobler, Rodrigo Jaureguy January 2016 (has links)
Protocolos de comunicação seguros são essenciais em ambientes de automação industrial, onde falhas não detectadas na comunicação de dispositivos podem provocar danos irreparáveis à vida ou ao meio-ambiente. Esses protocolos seguros devem ser desenvolvidos de acordo com alguma norma de segurança, como a IEC 61508. Segundo ela, faz parte do processo de implementação destes protocolos, a escolha de técnicas adequadas de validação, entre elas a injeção de falhas, a qual deve considerar um modelo de falhas apropriado ao ambiente de operação do protocolo. Geralmente, esses ambientes são caracterizados pela existência de diversas formas de interferência elétrica e eletromagnética, as quais podem causar falhas nos sistemas eletrônicos existentes. Nos sistemas de comunicação de dados, isto pode levar a destruição do sinal de dados e causar estados de operação equivocados nos dispositivos. Assim, é preciso utilizar uma técnica de injeção de falhas que permita simular os tipos de erros de comunicação que podem ocorrer nos ambientes industriais. Dessa forma, será possível verificar o comportamento dos mecanismos de tolerância falhas na presença de falhas e assegurar o seu correto funcionamento. Para esta finalidade, este trabalho apresenta o desenvolvimento do injetor de falhas FITT para validação de protocolos de comunicação seguros. Esta ferramenta foi desenvolvida para ser utilizada com o sistema operacional Linux. O injetor faz uso do PF_RING, um módulo para o Kernel do Linux, que é responsável por realizar a comunicação direta entre as interfaces de rede e o injetor de falhas. Assim os pacotes não precisam passar pelas estruturas do Kernel do Linux, evitando que atrasos adicionais sejam inseridos no processo de recebimento e envio de mensagens. As funções de falhas desenvolvidas seguem o modelo de falhas de comunicação descrito na norma IEC 61508. Esse modelo é composto pelos erros de repetição, perda, inserção, sequência incorreta, endereçamento, corrupção de dados, atraso, mascaramento e falhas de memória em switches. / Safe communication protocols are essential in industrial automation environments, where undetected failures in the communication of devices can cause irreparable damage to life or to the environment. These safe protocols must be developed according to some safety standard, like IEC 61508. According to it, part of the process of implementing these protocols is to select appropriate techniques for validation, including the fault injection, which should consider an appropriate fault model for the operating environment of the protocol. Generally, these environments are characterized by the existence of various forms of electric and electromagnetic interference, which can cause failures in existing electronic systems. In data communication systems, this can lead to the destruction of the data signal and cause erroneous operation states in the devices. Thus, it is necessary to use a fault injection technique that allows simulating the types of communication errors that may occur in industrial environments. So, it will be possible to verify the behavior of the fault tolerance mechanisms in the presence of failures and ensure its correct functioning. For this purpose, this work presents the development of FITT fault injector for validation of safety communication protocols. This tool was developed to be used with Linux operating system. The fault injector makes use of PF_RING, a module for the Linux Kernel and that is responsible to perform the direct communication between the network interfaces and the fault injector. Thus the packages do not need to go through the Linux Kernel structures, avoiding additional delays to be inserted into the process of receiving and sending messages. The developed fault injection functions follow the communication fault model described in the IEC61508 standard, composed by the errors of repetition, loss, insertion, incorrect sequence, addressing, data corruption, delay, masking and memory failures within switches. The fault injection tests applied with this model allow to properly validate the fault tolerance mechanisms of safety protocols.
676

Avaliação da integridade estrutural de projetos de válvulas do tipo esfera trunnion e/ou gaveta utilizadas nas instalações de petróleo

Rossetto, Diego Rizzotto January 2016 (has links)
Esta tese propõe avaliar a integridade estrutural de projetos de válvulas do tipo esfera trunnion e/ou gaveta. Por meio desta pesquisa, são avaliados os principais modos de falhas e parâmetros funcionais. Os estudos foram realizados utilizando a técnica dos elementos finitos e permitiram a construção de modelos para avaliar os seguintes modos de falha. (i) colapso estrutural dos principais componentes; (ii) vazamento na interface esfera/sede; (iii) travamento do sistema de acionamento devido à influência da vazão de escoamento do fluido. A avaliação da integridade estrutural é de fundamental importância para mitigar e/ou evitar erros, durante a fase de desenvolvimento de válvulas. Os modelos desenvolvidos também possibilitam o aprimoramento de novos projetos de válvulas e o aperfeiçoamento de projetos já desenvolvidos. O estudo proposto pode ser utilizado como indicador da qualidade de projeto de válvulas, auxiliando a equipe de desenvolvimento no dimensionamento de novos produtos, permitindo assim a avaliação dos requisitos funcionais e a avaliação da possível melhoria do projeto. Os resultados mostraram que o uso do método dos elementos finitos durante as fases iniciais do processo de desenvolvimento de válvulas é extremamente útil na concepção de novos produtos, permitindo a elaboração de produtos otimizados, sendo que por meio de um conhecimento multidisciplinar falhas prematuras podem ser detectadas nas fases iniciais do processo de desenvolvimento de projeto de válvulas, possibilitando com isso o desenvolvimento de um projeto mais racional com melhoria significativa de qualidade, confiabilidade, desempenho e competividade. O uso do método dos elementos finitos também possibilita uma redução do número de ensaios com protótipos físicos, o tempo de desenvolvimento e consequentemente o custo final do produto. / This thesis proposes to evaluate the structural integrity of the trunnion ball valves and/or gate. By means of this research, are evaluated main failure modes and functional parameters. The studies were conducted using the finite elements technique and allowed the construction of models to evaluate the following modes of failure. (i) structural collapse of the main components; (ii) leakage in the ball/seat interface; (iii) torque and/or locking of drive system due the influence of fluid flow rate. The evaluation of the integrity structural is of fundamental importance to mitigate and/or avoid errors, during the valve development phase. The models developed also enable the improvement de new valves design and the upgrade the valves design already developed. The proposed study can be used as an indicator the quality of valves design, assisting the development team in the design of new products, thus enabling the assessment of the functional requirements and evaluation of possible improvements in the design. The results showed that the use of finite element method during the early stage of valve development process is extremely useful in the conception the new products, allow to develop products optimized, and by means of a multidisciplinary knowledge premature failures can be detected in the early stages of the product design, besides enable the development of a design more rational with significant improvement in quality, reliability, performance and competitiveness. The use of finite element method also allows reduction the number of with physical prototype tests, time of development and the final cost of the product.
677

Análise dos tempos de reparo em sistemas redundantes do tipo Cold Standby com alternância

Botelho, Heitor Cabral January 2016 (has links)
Nas indústrias química e petroquímica o uso de sistemas redundantes é comum. Exceto pelos programas de lubrificação, a estratégia de manutenção adotada para estes sistemas é, principalmente, a manutenção corretiva. Os objetivos desta dissertação são, a partir do registro do histórico de falhas dos equipamentos de uma unidade fabril petroquímica e conceitos de confiabilidade, estimar o tempo limite que estes sistemas podem operar sem intervenções de manutenção, mantendo a disponibilidade do sistema em níveis adequados. Esse tempo limite foi usado para desenvolver um indicador a ser utilizado no processo de priorização das atividades de manutenção. Para atingir os objetivos foram desenvolvidas as seguintes etapas: a) revisão dos dados de confiabilidade; b) elaboração de modelagem de sistemas de bombeamento. Inicialmente foi realizada uma revisão dos dados de confiabilidade coletados pela empresa em estudo, a partir da qual se obteve análise dos problemas encontrados com os dados, sumário de procedimentos a serem adotados para cada tipo de problema e sugestões para evitar sua reincidência. Por meio dos resultados iniciais, foi elaborada a modelagem de sistemas de bombeamento, utilizando o método de Monte Carlo. Obtevese, como resultado, curvas de disponibilidade do sistema versus tempos para reparo. O método proposto é simples de ser utilizado em campo e, definida a disponibilidade desejada para o sistema redundante, permite o cálculo do máximo tempo para reparo do equipamento em falha. / In chemical and petrochemical industries redundant systems are usual. Except by lubrication programs, the maintenance strategy adopted for these systems is mainly corrective maintenance. Considering the historical failure records of the equipment of a factory and the use of reliability concepts, the goal of this work is to estimate the maximum time that these systems can operate without maintenance interference, while keeping the system availability on adequate levels. This maximum time was used to develop an indicator to be used in the process of prioritization of maintenance activities. To achieve these goals, the following steps have been developed: a) reliability data review; b) elaboration of a pumping system model. Initially, a review of the reliability data collect at the studied company was performed, from which an analysis of the problems encountered at these data, a summary of procedures to be adopted for each type of problem, and suggestions to avoid its recurrence were established. As a consequence of first results, a model for each pumping system using the Monte Carlo method was developed and availability curves of the system versus time to repair were obtained. The proposed method is simple to use in the field and, considering the desired availability for the redundant system, it allows the calculation of the maximum time to repair equipment failures.
678

Quaternary CLB a falul tolerant quaternary FPGA

Rhod, Eduardo Luis January 2012 (has links)
A diminuição no tamanho dos transistores vem aumentando cada vez mais o número de funções que os dispositivos eletrônicos podem realizar. Apesar da diminuição do tamanho mínimo dos transistores, a velocidade máxima dos circuitos não consegue seguir a mesma taxa de aumento. Um dos grandes culpados apontados pelos pesquisadores são as interconexões entre os transistores e também entre os componentes. O aumento no número de interconexões dos circuitos traz consigo um significativo aumento do cosumo de energia, aumento do atraso de propagação dos sinais, além de um aumento da complexidade e custo do projeto dos circuitos integrados. Como uma possível solução a este problema é proposta a utilização de lógica multivalorada, mais especificamente, a lógica quaternária. Os dispositivos FPGAs são caracterizados principalmente pela grande flexibilidade que oferecem aos projetistas de sistemas digitais. Entretanto, com o avanço nas tecnologias de fabricação de circuitos integrados e diminuição das dimensões de fabricação, os problemas relacionados ao grande número de interconexões são uma preocupação para as próximas tecnologias de FPGAs. As tecnologias menores que 90nm possuem um grande aumento na taxa de erros dos circuitos, na lógica combinacional e sequencial. Apesar de algumas potenciais soluções começara a ser investigadas pela comunidade, a busca por circuitos tolerantes a erros induzidos por radiação, sem penalidades no desempenho, área ou potência, ainda é um assunto de pesquisa em aberto. Este trabalho propõe o uso de circuitos quaternários com modificações para tolerar falhas provenientes de eventos transientes. Como principal contribuição deste trabalho destaca-se o desenvolvimento de uma CLB (do inglês Configurable Logic Block) quaternária capaz de suportar eventos transientes e, na possibilidade de um erro, evitá-lo ou corrigi-lo. / The decrease in transistor size is increasing the number of functions that can be performed by the electronic devices. Despite this reduction in the transistors minimum size, the circuit’s speed does not follow the same rate. One of the major reasons pointed out by researchers are the interconnections between the transistors and between the components. The increase in the number of circuit interconnections brings a significant increase in energy consumption, propagation delay of signals, and an increase in the complexity and cost of new technologies IC designs. As a possible solution to this problem the use of multivalued logic is being proposed, more specifically, the quaternary logic. FPGA devices are characterized mainly by offering greater flexibility to designers of digital systems. However, with the advance in IC manufacturing technologies and the reduced size of the minimum fabricated dimensions, the problems related to the large number of interconnections are a concern for future technologies of FPGAs. The sub 90nm technologies have a large increase in the error rate of its functions for the combinational and sequential logic. Although potential solutions are being investigated by the community, the search for circuits tolerant to radiation induced errors, without performance, area, or power penalties, is still an open research issue. This work proposes the use of quaternary circuits with modifications to tolerate faults from transient events. The main contribution of this work is the development of a quaternary CLB (Configurable Logic Block) able to withstand transient events and the occurrence of soft errors.
679

Localização de faltas em sistemas de transmissão de energia elétrica baseada na impedância aparente : algoritmo utilizando dados de um terminal

Lima, Diomar Adonis Copetti January 2013 (has links)
É notável que o Sistema Elétrico de Potência (SEP) está constantemente exposto a adversidades ocasionadas por forças da natureza ou desgastes naturais de seus componentes. A localização com certa exatidão de uma falta no Sistema de Transmissão de Energia Elétrica (STEE), ocasionada por uma destas adversidades, contribui para a confiabilidade e segurança da operação do SEP. Neste contexto, este trabalho apresenta um método computacional de Localização de Faltas (LDF), desenvolvido em ambiente MATLAB®, baseado na Impedância Aparente (IA), utilizando dados de apenas um terminal, sendo o equacionamento desenvolvido em componentes simétricas. Este método tem como dados de entrada as componentes fundamentais de tensão e corrente do terminal local e a Potência de Curto Circuito (SCC) do sistema equivalente conectado ao terminal remoto. Para validar o método proposto foram realizadas diversas simulações para todos os tipos de faltas shunt, contemplando inúmeras condições destas, utilizando para isso, o programa computacional ATP-EMTP, alimentado com dados de parâmetros reais de um sistema de transmissão. Objetivando analisar a eficiência deste método, realizou-se a comparação de seus resultados com os resultados obtidos por um método estado-da-arte. A partir de análises e comparações, os resultados alcançados pertencentes ao método de LDF proposto, apresentam-se promissores para a LDF em sistemas de transmissão. / Electric Power Systems (EPS) are constantly exposed to adversities caused by forces of nature and components lifetime. The precise fault location in the Transmission System (TEPS), caused by these adversities, contributes to the reliability and safety the operation of the EPS. In this context, this work presents a computational method for fault location (FL), developed in MATLAB ® environment, based on the Apparent Impedance (AI) of the transmission line. The proposed method uses only one terminal data and is developed in symmetrical components equations. This method has as input data the fundamental components of voltage and current of the local terminal and the short circuit power (SCP) of the equivalent system connected to the remote terminal. The proposed method is validated through several simulations for all fault types, covering many fault conditions, making use of the software ATP-EMTP, fed with data from the actual parameters of a real life transmission system. Aiming to analyze the efficiency of this method, a comparison was made against the an state-of-the-art method. From analysis and comparison of the results obtained, is observed that the proposed scheme is capable to obtain precise fault location estimations and presents as promising method for the FL in transmission systems.
680

Limiting fake accounts in large-scale distributed systems through adaptive identity management / Gerenciamento adaptativo de identidades em sistemas distribuídos de larga escala

Cordeiro, Weverton Luis da Costa January 2014 (has links)
Sistemas online como Facebook, Twitter, Digg, e comunidades BitTorrent (entre vários outros) oferecem um processo leve para a obtenção de identidades (por exemplo, confirmar um endereço de e-mail válido; os requisitos podem variar dependendo do sistema), de modo que os usuários possam cadastrar-se facilmente nos mesmos. Tal conveniência vem com um preço, no entanto: com um pequeno esforço, um atacante pode obter uma grande quantidade de contas falsas (ataque Sybil), e utilizá-las para executar atividades maliciosas (que possam prejudicar os usuários legítimos) ou obter vantagens indevidas. É extremamente desafiador (senão impossível) desenvolver uma única solução de gerenciamento de identidades que seja ao mesmo tempo capaz de oferecer suporte a uma variedade de usuários usando dispositivos heterogêneos e adequada para uma diversidade de ambientes (por exemplo, sistemas distribuídos de larga escala, Internet das Coisas, e Internet do Futuro). Como consequência, a comunidade de pesquisa tem focado no projeto de soluções de gerenciamento de identidades customizadas, em cenários com um conjunto bem definido de propósitos, requisitos e limitações. Nesta tese, abordamos o problema de contas falsas em sistemas distribuídos de larga escala. Mais especificamente, nos concentramos em sistemas baseados no paradigma para- par e que podem acomodar esquemas de gerenciamento de identidades leves e de longo prazo (ex., sistemas de compartilhamento de arquivos e de live streaming, sistemas de detecção de intrusão colaborativos, entre outros); leves porque os usuários devem obter identidades sem precisar fornecer “provas de identidade” (ex., passaporte) e/ou pagar taxas; e longo prazo porque os usuários devem ser capazes de manter suas identidades (ex., através de renovação) por um período indefinido. Nosso principal objetivo é propor um arcabouço para precificar adaptativamente as solicitações de identidades como uma abordagem para conter ataques Sybil. A ideia chave é estimar um grau de confiança para as solicitações de identidades, calculada como função do número de identidades já concedidas em um dado período, considerando a origem dessas solicitações. Nossa abordagem baseia-se em prova de trabalho e usa desafios criptográficos como um recurso para conter atacantes. Nesta tese, nós também concentramos esforços na reformulação dos desafios tradicionais, de modo a torná-los “verdes” e “´uteis”. Os resultados obtidos via simulação e experimentação mostraram a viabilidade técnica de usar desafios verdes e ´uteis para o gerenciamento de identidades. Mais importante, eles mostraram que caracterizar as solicitações de identidades com base na origem das mesmas constitui uma abordagem promissora para lidar com a redução substancial da disseminação de contas falsas. / Online systems such as Facebook, Twitter, Digg, and BitTorrent communities (among various others) offer a lightweight process for obtaining identities (e.g., confirming a valid e-mail address; the actual requirements may vary depending on the system), so that users can easily join them. Such convenience comes with a price, however: with minimum effort, an attacker can obtain a horde of fake accounts (Sybil attack), and use them to either perform malicious activities (that might harm legitimate users) or obtain unfair benefits. It is extremely challenging (if not impossible) to devise a single identity management solution at the same time able to support a variety of end-users using heterogeneous devices, and suitable for a multitude of environments (e.g., large-scale distributed systems, Internet-of-Things, and Future Internet). As a consequence, the research community has focused on the design of system-specific identity management solutions, in scenarios having a well-defined set of purposes, requirements, and constraints. In this thesis, we approach the issue of fake accounts in large-scale, distributed systems. More specifically, we target systems based on the peer-to-peer paradigm and that can accommodate lightweight, long-term identity management schemes (e.g., file sharing and live streaming networks, collaborative intrusion detection systems, among others); lightweight because users should obtain identities without being required to provide “proof of identity” (e.g., passport) and/or pay taxes; and long-term because users should be able to maintain their identities (e.g., through renewal) for an indefinite period. Our main objective is to propose a framework for adaptively pricing identity requests as an approach to limit Sybil attacks. The key idea is to estimate a trust score for identity requests, calculated as a as function of the number of identities already granted in a given period, and considering their source of origin. Our approach relies on proof of work, and uses cryptographic puzzles as a resource to restrain attackers. In this thesis, we also concentrate on reshaping traditional puzzles, in order to make them “green” and “useful”. The results obtained through simulation and experimentation have shown the feasibility of using green and useful puzzles for identity management. More importantly, they have shown that profiling identity requests based on their source of origin constitutes a promising approach to tackle the dissemination of fake accounts.

Page generated in 0.036 seconds