• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 312
  • 9
  • 9
  • 9
  • 9
  • 6
  • 5
  • 3
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 326
  • 102
  • 96
  • 90
  • 84
  • 59
  • 59
  • 56
  • 34
  • 34
  • 31
  • 29
  • 29
  • 27
  • 25
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Metodologia integrada para mapeamento de falhas utilizando FMEA e relatório A3 no desenvolvimento de produtos sob encomenda

Lorenzi, Clarice Inês January 2015 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Engenharia Mecânica, Florianópolis, 2015. / Made available in DSpace on 2016-02-09T03:08:59Z (GMT). No. of bitstreams: 1 337527.pdf: 2004673 bytes, checksum: b32fbcdd8e9492cb0e4ea9a334b2c3ef (MD5) Previous issue date: 2015 / Uma das técnicas adotadas para garantir qualidade e confiabilidade de produtos ainda na fase de projeto é a FMEA (Failure Mode and Effects Analysis) que, com caráter preventivo, atua na mitigação dos modos de falha. Contudo, algumas limitações desta ferramenta restringem sua aplicação. Em detrimento destas limitações, este estudo propõe um método que integra a filosofia do método A3 e as práticas da FMEA em um documento padrão A3 para a análise de falhas e registro do conhecimento gerado. O estudo é aplicado em uma empresa de automação industrial cujo processo produtivo é caracterizado por jobbing e, visa contribuir na melhoria do processo de análise de falhas e solução de falhas. Esta pesquisa é dividida em três fases: Fase I: mapeamento das falhas identificadas no momento da montagem mecânica de três equipamentos, considerando os hábitos e métodos atuais da organização, para identificar dos tipos de falhas que acometem peças fabricadas; Fase II: combinação dos métodos FMEA e A3 para solução de problemas em um documento modelo no formato A3 e elaboração de um checklist para revisão do detalhamento; Fase III: aplicação do método na análise de falhas na fase de projetos e também na solução de falhas conceituais na fase de montagem mecânica e testes, promovendo o registro do conhecimento gerado. A análise das informações ocorreu de modo qualitativo e quantitativo, compreendendo tabelas e gráficos obtidos pelos dados coletados. Os resultados obtidos demonstraram viabilidade de aplicação do método proposto tanto para a análise de falhas quanto para o registro do conhecimento. Além disso, também foi possível constatar que a adoção de práticas de melhoria na rotina, como por exemplo, o checklist de revisão do detalhamento, mesmo que não compreenda todos os desenhos, pode minimizar em até 10% o número de peças com falhas. <br> / One of the techniques used to ensure product quality and reliability even in the design phase is the FMEA (Failure Modes and Effects Analysis) that, with preventive measures, seeks to mitigate the failure modes. However, some limitations of this tool restrict its application. As a result of these limitations, this study proposes a method that integrates the philosophy of A3 method and FMEA practices on a standard A3 document for fault analysis and recording of the knowledge generated. The study is applied in an industrial automation company whose production process is characterized by jobbing and aims to contribute in improving the process of analyzing faults and troubleshooting. This study is divided into three phases: Phase I: mapping of the faults identified at three mechanical assembly equipment, considering the organization's current habits and methods to identify the types of flaws that affect manufactured parts; Phase II: combination of techniques FMEA and A3 on a model document in A3 format and preparation of a checklist for details of the review; Phase III: the method in the failure analysis in the design phase and also in the solution of conceptual flaws in the mechanical assembly stage and testing, support the registration of the knowledge generated. The analysis of the information was qualitative and quantitatively, including charts and graphs obtained by the data collected. The results showed feasibility of the method proposed for both failure analysis and for the registration of knowledge. Moreover, it was also possible to demonstrate that the adoption of the routine improvement practices, such as the checklist detailing the review, even not comprising all the drawings, can minimize up to 10% the number of parts with failures.
42

ITVM

Barreto, Luciano January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Automação e Sistemas / Made available in DSpace on 2013-03-04T19:51:22Z (GMT). No. of bitstreams: 1 304547.pdf: 1786570 bytes, checksum: 4895650404875d59c1ed23dcc8a74096 (MD5) / A Internet tem sido o meio de comunicação utilizado por muitas empresas para divulgarem seus serviços. Dessa forma a segurança de tais serviços é um assunto de grande importância e necessidade. Como os sistemas atualmente são distribuídos pela Internet, estes estão expostos a um meio extremamente hostil, onde intrusões por entidades mal intencionadas acontecem com grande frequência. Estas intrusões causam perdas e danos muitas vezes em proporções catastróficas, tanto para empresas como para a sociedade. Nesta dissertação apresentamos uma infraestrutura cuja finalidade é fornecer suporte de tolerância a intrusões (faltas maliciosas ou bizantinas) para serviços. Nossa abordagem faz uso da tecnologia de virtualização e de memória compartilhada no sentido de conseguir custos mais baixos na execução de protocolos de máquina de estado (ME) em contexto bizantino. O uso da virtualização permitiu a inserção de um componente confiável no modelo. Como esta tecnologia separa em diferentes camadas os processos que gerenciam as máquinas virtuais e a que executam as máquinas virtuais é possível a inserção de um componente que gerencie as réplicas, iniciando ou desligando estas quando necessário. Além disso, este componente confiável é responsável pela execução do serviço de acordo do protocolo, e permitiu a criação de uma arquitetura com custos reduzidos, onde as requisições de clientes podem ser executadas com um número variável de réplicas (entre f +1 e 2f+1). O trabalho discute os algoritmos, apresentam detalhes de protótipo, testes e um confronto com trabalhos relacionados na literatura, onde mostramos que foi obtida uma redução do número de servidores necessários, assim como reduzimos o número de réplicas necessárias para a execução do serviço replicado. / The Internet has been a means of communication of daily basis for many companies share their service. Presently, the security of such services is a matter of great importance and necessity. These systems are now distributed over the Internet and they are exposed to an extremely hostile environment, where intrusions by malicious entities occur with great frequency. These intrusions cause damages, often catastrophic, both for companies and for society. This work presents an infrastructure based in virtualization which provides support to intrusion tolerance (Byzantine or malicious faults) to services. The introduced approach makes extensive use of virtualization technology and shared memory in order to reduce costs in the execution of state machine (ME) protocols in the Byzantine context. The use of virtualization technology allowed the insertion of a trusted component that in the model. As this technology separates into different layers, processes that manage the virtual machines and process that execute virtual machines, it is possible to insert a component that manages the replicas, starting or turning off these when necessary. In addition, this reliable component is responsible for the execution of agreement service, and allowed the creation of an architecture with reduced costs, where the customer requests can be performed with a variable number of replicas (between f+1 and 2f + 1). This work discusses the algorithms, presents details of a prototype, tests and a comparison with related work in the literature.
43

Sistematização de técnicas de análise de falha e projeto para confiabilidade

Kagueiama, Heitor Azuma January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Mecânica / Made available in DSpace on 2013-03-04T20:45:45Z (GMT). No. of bitstreams: 1 304360.pdf: 6352245 bytes, checksum: 9bd976cfca21324f35b63310fc6a1a04 (MD5) / Em projeto, uma das questões de grande importância é a garantia do bom funcionamento dos sistemas técnicos em todo o ciclo de vida, que deve ser considerada desde as primeiras etapas de projeto até o fim da vida útil. No contexto produtivo atual, o controle sobre a ocorrência de falhas em sistemas é um fator competitivo importante, já que nenhum sistema técnico é capaz de operar dentro das condições esperadas infinitamente. A confiabilidade é a capacidade de um item desempenhar uma função, ou seja, trata da probabilidade do item passar do estado de operação para o estado de falha. Para desenvolver o projeto para confiabilidade existem procedimentos e um conjunto de técnicas, já conhecidas, com suas vantagens e desvantagens. Com a experiência acumulada na utilização de tais técnicas, é possível perceber que muitas limitações atribuídas à elas ocorrem pela falta de processos de integração entre as mesmas. Dessa forma, o presente trabalho aborda o desenvolvimento de um modelo que sistematiza a integração entre as técnicas de análise de confiabilidade -- baseado nas técnicas IDEF0 (integration definition for function modeling), FMECA (failure modes effects and criticality analysis), CNEA (causal network event analysis), redes bayesianas e FTA (fault tree analysis). Priorizou-se utilizar estas técnicas por serem amplamente utilizadas no setor acadêmico e industrial, e por complementarem-se na análise de confiabilidade. O trabalho é apresentado dentro do contexto de projeto, mas o objetivo principal é propor uma integração entre as técnicas e exemplificar a partir de um modelo que foi aplicado no sistema hidráulico do leme do navio Itabuna. Com isso, pretendeu-se oferecer aos projetistas e analistas de confiabilidade, uma sistematização para utilizar as técnicas com o fim de facilitar o desenvolvimento do projeto de produto para a confiabilidade.
44

Algoritmo distribuído para backup reativo tolerante a faltas bizantinas em redes peer-to-peer

Appio, Alisson Rafael January 2012 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2012. / Made available in DSpace on 2013-07-16T04:32:21Z (GMT). No. of bitstreams: 1 317329.pdf: 962693 bytes, checksum: 22297662416e592bd5e9cf5c246c662b (MD5) / Backup é uma cópia de dados para outro dispositivo de armazenamento com o propósito de restaurar o dado em caso de perda do original. Redes Peer-to- Peer (P2P) tem sido utilizada para armazenar dados de usuários. Neste tipo de rede, a topologia muda constantemente e peers que estão armazenando o backup podem ser desligados sem nenhum aviso prévio dificultando a restauração do backup que foi distribuído, alguns peers podem ser maliciosos podendo negaro serviço de restauração, corromper o backup e até mesmo modificar o backup inserindo algum vírus. Neste contexto, temos dois grandes desafios: como assegurar a disponibilidade para restaurar o backup sem necessitar realizar uma cópia global; como assegurar que o dado é confiável e está integro independente do dono do arquivo ter realizado verificações de integridade quando o dado estava replicado na rede P2P. Para resolver estes problemas, este trabalho apresenta um algoritmo para backup P2P projetado e modelado para assegurar alta disponibilidade para restaurar backup usando o conceito de uma doença epidêmica. Para evitar que o comportamento epidêmico replique o dado para toda a rede, o algoritmo controla de forma distribuída o número de peers que estão armazenando o backup. O algoritmo utiliza recursos de hardware para otimizar todo o processo de armazenamento e restauração do backup. Para assegurar que o dado é confiável e está integro mesmo na presença de um peer malicioso, é usado o protocolo de acordo bizantino com os peers que estão armazenando o backup sem necessitar que o dono do arquivo fique online. Em nossos experimentos foi possível constatar uma alta disponibilidade para restaurar o arquivo chegando a taxas entre 97% a 99.9% mantendo um mínimo de redundância do backup na rede P2P.<br> / Abstract : A backup is a copy of data to another storage device with the proposed to restore the data in the case of the original data is lost. Peer-to-Peer (P2P) computer network is used to user's storage data. In this network, the topology is changing every time and the peers that are storage backup can be offline without any previous warning and hindering the backup restore, some peers may be classified as malicious, it can deny of restore service, corrupt the backup and it can insert a virus in the backup. In this context, we have two major challenges: how to ensure the availability to restore the backup without requiring to copy data to all peers; how to ensure that the data is reliable regardless owner's data have performed checks of integrity in the remote peer. To solve this problems, this work present an algorithm to backup in P2P network, the algorithm was designed to ensure high availability to restore backup using the concept on an epidemic disease. To avoid replicate data to all peers, the algorithm controls the number of peers that are storage the distributed backup.The algorithm uses hardware devices to optimize all process of storage and restore the backup. To ensure that the data is reliable even in the presence a malicious peer, the algorithm uses the Byzantine agreement protocol with the peers are storage backup without regardless owner's data is online. In our experiments was verified a high availability rate to restore the file, this rates vary between 97% to 99.9% maintaining the minimum redundancy of backup in P2P network.
45

Controle de réplicas utilizando a plataforma java 2 enterprise edition

Diniz, Anibal Mantovani January 2003 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação. / Made available in DSpace on 2012-10-21T04:18:52Z (GMT). No. of bitstreams: 1 209098.pdf: 688752 bytes, checksum: bb2f9de1a806f5cf15c0b8cc05c16540 (MD5) / Um dos desafios para os sistemas computacionais modernos é a implantação destes em projetos que utilizam as técnicas de distribuição, tanto de dados quanto da execução de processos em máquinas distribuídas geograficamente em localidades diferentes. Para atender estes requisitos explora-se a capacidade de plataformas baseadas em componentes, utilizadas para prover estas características às aplicações corporativas. Da utilização destes componentes em aplicações distribuídas surgem estudos e técnicas para garantir melhor desempenho, transparência, segurança e disponibilidade garantida.
46

Estudo das falhas humanas da equipe de enfermagem no plano assistencial

Gonçalves, Neiva Maria Alvares January 2002 (has links)
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia de Produção. / Made available in DSpace on 2012-10-20T05:12:03Z (GMT). No. of bitstreams: 1 193732.pdf: 1297145 bytes, checksum: eb8bf18e423fcdada0337c71e4f9de5e (MD5) / Estudo sobre o levantamento de falhas humanas da equipe de enfermagem do Hospital Casa de Saúde São Paulo (Umuarama - PR) e sua relação com a organização do trabalho, vista como cerne que influi - direta e indiretamente - na ação do trabalhador. Tem como prisma a noção de que as condições de trabalho, aliada aos riscos inerentes à profissão, às cargas de trabalho conseqüentes, assim como formação profissional (deficiente ou ineficiente) são decisivos na contribuição de maior ou menor probabilidade de ocorrerem falhas envolvendo o fator humano. Leva em consideração que, analisadas criteriosamente e sob uma perspectiva ergonômica e de biossegurança, ou seja, relacionando o fato aos condicionantes sócio-culturais, num processo continuado e com objetivos bem definidos, os erros podem contribuir para desenvolver uma cultura organizacional que vise à sua prevenção, levando em consideração os fatores que tornam propícia a sua ocorrência. Baseado na concepção da Enfermagem enquanto profissão fundamental para o desenvolvimento e a manutenção da sociedade, visto que é responsável pela assistência de pessoas fragilizadas em detrimento de alguma carência em suas funções vitais e lavando em conta o grande número de ações erradas vislumbradas diariamente nas manchetes dos jornais, o estudo se volta à desmistificação da falha enquanto responsabilidade individual e procura alternativas para amenizar a sua ocorrência. Apóia-se na pesquisa quantiqualitativa e observacional, com abordagem descritiva, partindo-se de uma amostra de 18,87% dos Auxiliares de Enfermagem da Instituição Hospitalar (dez pessoas), onde foram aplicadas quatro ferramentas, nesta ordem: Análise Documental, Observação Direta, Método da Análise da Ação Errada e Questionário. O ferramental possibilitou a análise das falhas da amostra assim como alicerçou considerações acerca das suas possíveis causas, embasando propostas para minimização dos seus efeitos adversos. Conclui-se que os profissionais enfocados no estudo encontram-se em condições de trabalho que consideram razoáveis porém o sistema organizacional mostra-se voltado aos interesses empresariais.Os Auxiliares de Enfermagem cometem erros por assumirem atividades não concernentes a sua formação profissional e/ou por estarem com sobrecarga de trabalho. A complexidade do tema e a gravidade das conseqüências leva a vislumbrar trabalhos futuros enfocando as três categorias profissionais e a atuação de uma equipe interdisciplinar.
47

ß-2 microglobulina e citocinas séricas como indicadores de falha terapêutica aos anti-retrovirais

Almeida, Ricardo Augusto Monteiro de Barros [UNESP] 26 February 2009 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:31:29Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-02-26Bitstream added on 2014-06-13T20:41:51Z : No. of bitstreams: 1 almeida_ramb_dr_botfm.pdf: 853261 bytes, checksum: 866edf2277c1ac0e74ea9c48e8cb31a9 (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Universidade Estadual Paulista (UNESP) / Iniciativas como a “WHO/UNAIDS ‘3 by 5’ permitiram que se atingisse, no ano de 2007, a marca de 3 milhões de pessoas com acesso à terapia antiretroviral (TARV) em países de baixa e média renda. O aumento da cobertura nestes países demanda custos importantes com anti-retrovirais, porém também levanta outro problema, que é o monitoramento da terapia em localidades de poucos recursos. Há consenso no fato de que devem ser pesquisados marcadores de eficácia da TARV mais acessíveis. Considerando o comportamento da β-2 microglobulina sérica e das citocinas séricas TNF-α, IFN-γ, IL-2, IL-4 e IL-10 com relação à atividade inflamatória induzida pela replicação do HIV-1, o objetivo deste estudo foi o de verificar o comportamento destas substâncias como indicadores da presença, ou não, de falha terapêutica à HAART. Entre agosto de 2004 e novembro de 2005, 89 indivíduos infectados pelo HIV-1, atendidos pela Área de Doenças Tropicais da Faculdade de Medicina de Botucatu-UNESP, e 20 indivíduos normais, doadores de sangue do Hemocentro de Botucatu [43 mulheres e 66 homens; idade média = 39,7 anos (22 - 66 anos)] foram divididos em 4 grupos: G1- 15 indivíduos infectados pelo HIV-1, virgens de tratamento ou sem HAART há pelo menos seis meses e com contagens de linfócitos T CD4 + menores que 350 células/mm3; G2- 31 indivíduos infectados pelo HIV-1, em uso de HAART e sem falha terapêutica virológica (FT); G3- formado por 43 indivíduos infectados pelo HIV-1, em uso de HAART e com FT, e GC- formado por 20 indivíduos normais, não infectados pelo HIV-1, que serviram de controles para as citocinas séricas. Foram revisados os dados demográficos, clínicos e de HAART e realizados os exames β-2 microglobulina sérica, citocinas séricas (TNF-α, IFN-γ, IL-2, IL-4 e IL-10), genotipagem do HIV-1, carga viral plasmática (CV) e linfócitos T CD4 + e T CD8 +. Para... / Initiatives such as WHO/UNAIDS ‘3 by 5’ made it possible to achieve the figure of 3 million people with access to antiretroviral therapy (ART) in middle- and low-income countries in 2007. The increase in these countries’ coverage leads to important expenditure on antiretroviral drugs; however, it also raises another problem, which is therapy monitoring in low-income locations. There is agreement on the fact that more accessible ART efficacy markers must be studied. By considering the behavior of serum β-2 microglobulin and serum cytokines TNF-α, IFN-γ, IL-2, IL-4 and IL-10 in relation to inflammatory activity induced by HIV-1 replication, the objective of this study was to assess the behavior of such substances as indicators of the presence, or not, of antiretroviral therapeutic failure (TF). From August 2004 to November 2005, 89 HIV-1-infected individuals assisted by the Tropical Diseases Sector of the Botucatu School of Medicine – UNESP and 20 normal blood donors at the Blood Transfusion Center of Botucatu [43 female and 66 male; mean age = 39.7 years (22 - 66 years)] were divided into 4 groups: G1- 15 HIV-1-infected individuals, previously untreated or without HAART for at least six months and CD4 + < 350 cells/mm3; G2- 31 HIV-1-infected individuals undergoing HAART without virological therapeutic failure (TF), G3- 43 HIV-1-infected individuals undergoing HAART with TF, and CG- 20 normal individuals who served as controls for serum cytokines. Demographic, clinical and HAART data were reviewed, and serum β-2 microglobulin, serum cytokines (TNFα, IFN-γ, IL-2, IL-4 and IL-10), HIV-1 genotyping, plasma viral load (VL) and T CD4 + and T CD8 + lymphocytes tests were performed. The Mann-Whitney test for independent samples was used for between-group comparison in the case of numeric variables, and Fisher’s exact test was applied for category variables. Statistical difference... (Complete abstract click electronic access below)
48

Tolerância a falhas em sistemas MPI com grupos dinâmicos de processos recomendados e registro de mensagens distribuído baseado em paxos

Camargo, Edson Tavares de January 2017 (has links)
Orientador : Prof. Dr. Elias P. Duarte Jr. / Tese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa: Curitiba, 11/05/2017 / Inclui referências : f. 93-103 / Área de concentração : Ciência da computação / Resumo: Os sistemas HPC (High-Performance Computing) são geralmente empregados para executar aplicações de longa duração, incluindo, por exemplo, simulações científicas e industriais complexas. Construir sistemas HPC tolerante a falhas permanece um desafio à medida que o tamanho desses sistemas aumenta. Esta tese de doutorado apresenta duas estratégias de tolerância a falhas para sistemas HPC baseados em MPI. A primeira contribuição apresenta uma solução para lidar com a variabilidade de desempenho que afeta negativamente ou inviabiliza a execução das aplicações HPC. Este é o caso dos clusters compartilhados onde um nodo computacional pode se tornar muito lento e comprometer a execução de toda a aplicação. Esta tese propõe um novo modelo de diagnóstico em nível de sistema onde os processos executam testes entre si a fim de determinar se são recomendados ou não-recomendados. Os processos classificados como recomendados formam um grupo dinâmico, chamado de DGRP (Dynamic Group of Recommended Processes), e são responsáveis por executar a aplicação. Os processos testados como não-recomendados são removidos do DGRP. Um processo pode reingressar ao DGRP após uma rodada de consenso executada pelos processos do DGRP. O modelo foi implementado e empregado para monitorar os processos em um cluster compartilhado multiusuário. No estudo de caso apresentado, os processos do DGRP executam o algoritmo de ordenação paralela Hyperquicksort. O Hyperquicksort é implementado e adaptado para se reconfigurar em tempo de execução a fim de suportar até n ?? 1 processos não-recomendados (em um sistema com n processos). Os resultados obtidos demonstram a sua eficiência. A segunda contribuição desta tese se insere na técnica de rollback-recovery na sua variante chamada de registro de mensagens. O registro de mensagens não requer a sincronização dos processos para salvar o estado da aplicação e evita que todos os processos reiniciem a partir do último estado salvo. No entanto, a maioria dos protocolos de registro de mensagens conta com um componente centralizado e que não tolera falhas, chamado de event logger, para armazenar as informações de recuperação, isto é, os determinantes. Esta tese de doutorado propõe o primeiro event logger distribuído e tolerante a falhas para os protocolos de registro de mensagens. Duas implementações baseadas no algoritmo de consenso Paxos, chamadas de Paxos Clássico e Paxos Paralelo, foram realizadas para o event logger. Um protocolo pessimista de registro de mensagens é construído e implementado para interagir com o event logger proposto e realizar a recuperação automática das aplicações MPI. O desempenho dos event loggers é avaliado perante a aplicação AMG (Algebraic MultiGrid) e as aplicações do NAS Parallel benchmark. A recuperação é avaliada através do algoritmo paralelo de Gusfield e a aplicação AMG. Resultados demonstram que o event logger baseado em Paxos Paralelo tem desempenho comparável ou superior ao da abordagem centralizada e que o protocolo proposto realiza a recuperação da aplicação eficientemente. Palavras-chave: Tolerância a Falhas em MPI, DGRP, Registro de Mensagens, Paxos Paralelo. / Abstract: HPC systems are employed to execute long-running applications including, for example, complex industrial and scientific simulations. Building robust, fault-tolerant HPC systems remains a challenge as the size of the system grows. This doctoral thesis presents two faulttolerant strategies for HPC systems based on MPI. Our first contribution presents a solution to deal with the performance variation of HPC system processes that negatively a_ect or even prevent the execution of HPC applications. This is the case in shared clusters in which a single node can become too slow and can thus compromise the entire application execution. This thesis proposes a new system-level diagnosis model in which processes execute tests among themselves in order to determine whether they are recommended or non-recommended. Processes classified as recommended form a Dynamic Group of Recommended Processes (DGRP), which is responsible for running the application. A process can rejoin the DGRP after a round of consensus executed by the DGRP processes. The model was implemented and used to monitor processes in a shared multi-user cluster. In the case study presented, the DGRP processes execute the parallel sorting algorithm Hyperquicksort. Hyperquicksort is implemented and adapted to reconfigure itself at runtime in order to proceed even if up to N ?? 1 processes become non-recommended (N is the total number of processes). Results are presented showing that the strategy is e_cient. The second contribution of this thesis is in the field of the rollbackrecovery technique in its variant based on message logging. Message logging does not require all processes to coordinate in order to save their states during normal execution. Neither does it require to restart all processes from the last saved states after a single process fails. However, most existing message logging protocols rely on a centralized entity which does not tolerate failures, called event logger, which stores recovery information called determinants. This thesis proposes, to the best of our knowledge, the first distributed and fault-tolerant event logger. Two implementations are presented based on the Paxos consensus algorithm, called Classic Paxos and Parallel Paxos. A pessimistic message logging protocol is built and implemented based on the proposed event logger to perform automatic recovery of MPI applications after failures. We evaluate the performance of the event logger using both the AMG (Algebraic MultiGrid) application and NAS Parallel benchmark applications. Application recovery is evaluated in two case studies based on Gusfield's parallel cut tree algorithm and the AMG application. Results show that the event logger based on Parallel Paxos performs as well as or better than a centralized event logger and that the proposed recovery protocol is also e_cient. Keywords: Fault Tolerance in MPI, DGRP, Message Logging, Parallel Paxos.
49

Sistema de arquivos distribuído flexível e adaptável

Fernandes, Silas Evandro Nachif [UNESP] 13 April 2012 (has links) (PDF)
Made available in DSpace on 2014-06-11T19:24:01Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-04-13Bitstream added on 2014-06-13T20:51:10Z : No. of bitstreams: 1 fernandes_sen_me_sjrp.pdf: 941362 bytes, checksum: e0e07c896853141b27f27af08088487b (MD5) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Com o aumento do volume de dados e a incerteza dos recursos de hardware e software, a descentralização dos dados em sistema de arquivos surgiu com a finalidade de diminuir a probabilidade de perda total desses dados. Com isso, este trabalho propõe um modelo de sistema de arquivos distribuído que incorpora características de transparência, escalabilidade, tolerância a falhas, criptografia, suporte a hardware de baixo custo, facilidade na implantação e manipulação dos arquivos / With the increasing volume of data and uncertainty of hardware and software resources, the decentralization of data in file systems came up with the aim of reducing the likelihood of total loss of such data. Thus, this paper proposes a model of distributed file systems that integrates features of transparency, scalability, fault tolerance, encryption, support for low cost hardware, easy management and handling of files
50

Reativação de falhas: o caso da Zona de Falha de Cássia/MG / Fault reactivation: the case of the Cássia Fault Zone/MG

Sartori, José Eduardo [UNESP} 11 January 2018 (has links)
Submitted by JOSE EDUARDO SARTORI null (edu_sammy@yahoo.com.br) on 2018-03-08T23:03:10Z No. of bitstreams: 1 Tese_JES.pdf: 11494584 bytes, checksum: 689b2ca420e30f0b0e97f388ecc4d2d2 (MD5) / Approved for entry into archive by Adriana Aparecida Puerta null (dripuerta@rc.unesp.br) on 2018-03-09T17:23:59Z (GMT) No. of bitstreams: 1 sartori_je_dr_rcla.pdf: 10806564 bytes, checksum: 16932cd737c53cf35719973ca5cab2ef (MD5) / Made available in DSpace on 2018-03-09T17:23:59Z (GMT). No. of bitstreams: 1 sartori_je_dr_rcla.pdf: 10806564 bytes, checksum: 16932cd737c53cf35719973ca5cab2ef (MD5) Previous issue date: 2018-01-11 / Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / A Zona de Falha de Cássia corresponde a uma zona de falha transcorrente sinistral oblíqua orientada segundo a direção geral NNW-SSE. A estrutura se desenvolveu em decorrência de movimentações tardias do Cinturão de Cisalhamento Campo do Meio durante o Ciclo Orogênico Brasiliano. A Zona de Falha de Cássia está registrada através de uma faixa de rochas deformadas de largura variável entre 0,5 a 3,0 km, composta por rochas miloníticas, caracterizadas por deformação dúctil-rúptil em condições metamórficas de fácies xisto verde, zona da clorita. A descontinuidade foi reativada como uma zona de falha normal, com bloco baixo a sudoeste (reativação geométrica) durante o Neocretáceo, correlacionada com o Soerguimento do Alto Paranaíba. A reativação tectônica foi marcada por intensa brechação, cataclase e a formação de dois conjuntos de falhas normais com arranjo em blocos escalonados progressivamente rebaixados para oeste. As feições microestruturais e reações de alteração constatadas, juntamente com a ocorrência de pseudotaquilito permitiram inferir que estas rochas de falha foram desenvolvidas em profundidades inferiores a 11 km, com temperaturas menores que 300°C, provavelmente associadas a sismos. Uma segunda etapa de reativação está registrada através da formação de depósitos sedimentares argilosos e arenosos quaternários, respectivamente nas regiões de Cássia-Pratápolis e Desemboque. Tratam-se de depósitos correlativos de falha relacionados à movimentação da Zona de Falha de Cássia como uma zona de falha normal, com bloco baixo a sudoeste, configurando uma reativação cinemática. Localmente os sedimentos exibem feições de deformação rúptil como falhas, fraturas e zonas brechadas, indicando atividade neotectônica na região. Este rico acervo de produtos geológicos transforma a Zona de Falha de Cássia em modelo para estudos de reativação tectônica em ambiente intraplaca e evolução de longo termo. / The Cássia Fault Zone corresponds to an oblique sinistral transcurrent fault zone oriented in the general direction NNW-SSE. The structure developed as a result of late movements of the Campo do Meio Shear Belt during the Brasilian Orogenic Cycle. The Cássia Fault Zone is recorded through a range of deformed rocks varying in width ranging from 0.5 to 3.0 km, composed of milonitic rocks, characterized by ductile deformation in metamorphic conditions of green schist facies (chlorite zone). The discontinuity was reactivated as a normal fault zone, with a lower block to the southwest (geometric reactivation) during the Neocretaceous, correlated with the Soerguimento do Alto Paranaíba. The tectonic reactivation was marked by intense breccia, cataclase and the formation of two sets of normal faults with arrangement in stepped blocks progressively lowered to the west. The microstructural features and alteration reactions observed together with the occurrence of pseudotaquilite allowed us to infer that these fault rocks were developed at depths lower than 11 km, with temperatures lower than 300 ° C, probably associated with earthquakes. A second stage of reactivation is recorded through the formation of quaternary sedimentary deposits in the regions of Cássia-Pratápolis and Desemboque. These are correlative fault deposits related to the movement of the Cássia Fault Zone as a normal fault zone, with a lower block to the southwest, forming a kinematic reactivation. Locally, the sediments exhibit features of deformation such as faults, fractures and breccias, indicating neotectonic activity in the region. This rich collection of geological products transforms the Cássia Fault Zone into a model for studies of tectonic reactivation in intraplate environment and long term evolution. / CNPq: 165801/2014-0

Page generated in 0.033 seconds