• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1005
  • 30
  • 15
  • 11
  • 6
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 1064
  • 558
  • 344
  • 196
  • 135
  • 107
  • 100
  • 93
  • 81
  • 80
  • 78
  • 78
  • 76
  • 71
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Previsão de falhas no período de garantia a partir da percepção do cliente : um estudo de caso junto a uma empresa de alta tecnologia

Pasetto, Siane de Castro January 2002 (has links)
A prestação de serviços tem sido um importante diferencial dentro do cenário competitivo atual. Para empresas de manufatura, um desses serviços de destaque é o atendimento à garantia, o qual deve ser desenhado de forma a maximizar a satisfação do cliente, operando dentro de custos otimizados. Para permitir a alocação mais eficiente de recursos aos serviços de atendimento à garantia, é importante entender o comportamento das falhas do produto durante o período de garantia, o qual depende da confiabilidade do produto, do tempo e intensidade de uso e do volume de vendas. Esta dissertação trata da aplicação e adaptação de um modelo apropriado para a predição de falhas durante o período de garantia. Esse modelo poderá auxiliar as organizações a manter controle sobre o custo do atendimento à garantia, auxiliando na melhoria contínua dos serviços prestados.
32

Confiabilidade da avaliação eletroencefalográfica na área sensório-motora em indivíduos com doença de Parkinson

Viana, Carlos Márcio Cordeiro 30 August 2017 (has links)
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Educação Física, Programa de Pós-Graduação em Educação Física, 2017. / Submitted by Gabriela Lima (gabrieladaduch@gmail.com) on 2017-11-30T12:02:02Z No. of bitstreams: 1 2017_CarlosMárcioCordeiroViana.pdf: 2539509 bytes, checksum: dc8042bf7c13dd12bbcfc4cbcaa40555 (MD5) / Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2018-01-22T19:53:15Z (GMT) No. of bitstreams: 1 2017_CarlosMárcioCordeiroViana.pdf: 2539509 bytes, checksum: dc8042bf7c13dd12bbcfc4cbcaa40555 (MD5) / Made available in DSpace on 2018-01-22T19:53:15Z (GMT). No. of bitstreams: 1 2017_CarlosMárcioCordeiroViana.pdf: 2539509 bytes, checksum: dc8042bf7c13dd12bbcfc4cbcaa40555 (MD5) Previous issue date: 2018-01-22 / Introdução: A carência de estudos que investigam a confiabilidade do processo que envolve a avaliação da atividade elétrica cortical por meio do eletroencefalograma (EEG) em indivíduos com doença de Parkinson (DP) tem limitado o uso dessa ferramenta no diagnóstico e reabilitação neurofuncional. Determinar, portanto, o erro sistemático e a variabilidade biológicas inerentes ao uso desse instrumento podem levar à uma melhor compreensão da relação entre as reais modificações clínicas do paciente após um intervenção e o que pode ser atribuído justamente ao erro associado ao processo de mensuração. Metodologia: Trata-se de um estudo de confiabilidade com medidas de teste e reteste respeitando um intervalo de sete dias. Participaram do estudo indivíduos adultos diagnosticados com Doença de Parkinson idiopática (média de idade 67.88 [±9.78] anos). A atividade elétrica cortical dos participantes foi medida por meio de EEG durante a realização de uma tarefa motora que simula uma atividade instrumental do dia a dia por um único avaliador. Durante a tarefa motora a captação dos sinais elétricos corticais foi realizada por um canal de EEG com o par de eletrodos posicionados no sítio de Cz-Pz. Para aquisição e tratamento do sinal elétrico utilizamos o equipamento ProComp Infiniti® e o Software Biograph Infiniti®. A média da amplitude do sinal do ritmo sensório-motor (RSMμV) obtido em Cz-Pz durante a realização da tarefa motora foi utilizada como variável de comparação entre o teste e reteste para determinar a confiabilidade relativa (teste de Wilcoxon, coeficiente de correlação intraclasse [CCI]), confiabilidade absoluta (representação gráfica de Bland-Altman) e mudança mínima detectável (MMD). Resultados: O teste de Wilcoxon demonstrou não existir diferença estatisticamente significante entre as medianas do RSM entre o teste e o reteste (p = 0.99). CCI demonstrou moderada e significante confiabilidade das medidas do RSM entre o teste e o reteste (0.576; p = 0.017). O método de representação gráfica de Bland-Atman demonstrou um erro sistemático de 0.6 μV e um erro aleatório de 5.40 a - 4,30 μV. A MMD foi de 4,17μV. Conclusão: A medida do RSM por meio de EEG em Cz-Pz após teste e reteste de uma tarefa motora demonstrou moderada confiabilidade relativa e baixo erro sistemático, o qual poderá ser utilizado em futuros estudos e na prática profissional como estimativa de erro associadas às mensurações no indivíduo com doeça de Parkinson. Contudo, fazem-se necessários estudos que correlacionem mudanças clínicas motoras as amplitudes do RSM na área sensório-motora na DP. / Introduction: The lack of studies investigating the reliability of the process involving the evaluation of cortical electrical activity through the electroencephalogram (EEG) in individuals with Parkinson's disease (PD) has limited the use of this tool in neurofunctional diagnosis and rehabilitation. Therefore, determining the systematic error and biological variability inherent to the use of this instrument can lead to a better understanding of the relationship between the actual clinical changes of the patient after an intervention and what can be attributed precisely to the error associated with the measurement process. Methodology: This is a reliability study with test and retest measures, respecting an interval of seven days. Adult subjects diagnosed with idiopathic Parkinson's disease (mean age = 67.88 [± 9.78] years) participated in the study. The cortical electrical activity of the participants was measured by means of EEG during the accomplishment of a motor task that simulates an instrumental activity of the day by day by a single evaluator. During the motor task, cortical electrical signal capture was performed by an EEG channel with the pair of electrodes positioned at the Cz-Pz site. For the acquisition and treatment of the electrical signal we use the ProComp Infiniti® equipment and the Biograph Infiniti® Software. The mean amplitude of the sensor-motor rhythm signal (SMRμV) obtained in Cz-Pz during the motor task was used as a variable of comparison between the test and retest to determine the relative reliability (Wilcoxon test, intraclass correlation coefficient [ICC]), absolute reliability (Bland-Altman plot) and minimum detectable change (MDC). Results: The Wilcoxon test showed no statistically significant difference between the medians of RSM between the test and the retest (p = 0.99). ICC demonstrated moderate and significant reliability of SMR measurements between the test and the retest (0.576; p = 0.017). The graphical representation method of Bland-Atman demonstrated a systematic error of 0.6μV and a random error of 5.40 to - 4.30μV. The MDC was 4.17μV. Conclusion: The measurement of SMR by EEG in Cz-Pz after test and retest of a motor task demonstrated moderate relative reliability and low systematic error, which could be used in future studies and professional practice as an estimate of error associated with measurements in the individual with Parkinson's disease. However, studies that correlate motor clinical changes with SMR amplitudes in the sensorimotor area in PD are necessary.
33

Estimativas de confiabilidade de produto a partir das contagens mensais de vendas e falhas ao longo do período de garantia

Dillenburg, Marcos Rebello January 2005 (has links)
Esta dissertação aborda a estimativa das probabilidades de falha de um produto ao longo do período de garantia. As fontes de dados para esta estimativa são a quantidade de produtos vendidos e o número de falhas detectadas em cada mês. Duas metodologias não-paramétricas para esta análise são apresentadas e validadas. A metodologia de análise de dados completos requer o conhecimento da data de venda e de falha de cada produto. A metodologia de análise de dados incompletos requer apenas os totais de vendas e falhas em cada mês ao longo do período de garantia. Para os dois casos, é ainda implementada a suavização das probabilidades de falha estimadas, utilizando distribuições paramétricas Weibull ou Lognormal. As duas técnicas são implementadas em planilha eletrônica e aplicadas na análise de dados simulados. O desempenho de cada metodologia é avaliado com dados de diferentes características, resultando em recomendações para escolha e aplicação da metodologia mais adequada em cada caso
34

Estratégias comutativas para análise de confiabilidade em linha de produtos de software

Castro, Thiago Mael de 18 November 2016 (has links)
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2016. / Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2017-01-17T13:07:06Z No. of bitstreams: 1 2016_ThiagoMaeldeCastro.pdf: 1475237 bytes, checksum: fe4d96aa2db1e482634a4417f7749632 (MD5) / Approved for entry into archive by Raquel Viana(raquelviana@bce.unb.br) on 2017-02-20T16:33:40Z (GMT) No. of bitstreams: 1 2016_ThiagoMaeldeCastro.pdf: 1475237 bytes, checksum: fe4d96aa2db1e482634a4417f7749632 (MD5) / Made available in DSpace on 2017-02-20T16:33:40Z (GMT). No. of bitstreams: 1 2016_ThiagoMaeldeCastro.pdf: 1475237 bytes, checksum: fe4d96aa2db1e482634a4417f7749632 (MD5) / Engenharia de linha de produtos de software é uma forma de gerenciar sistematicamente a variabilidade e a comunalidade em sistemas de software, possibilitando a síntese automática de programas relacionados (produtos) a partir de um conjunto de artefatos reutilizáveis. No entanto, o número de produtos em uma linha de produtos de software pode crescer exponencialmente em função de seu número de características, tornando inviável vericar a qualidade de cada um desses produtos isoladamente. Existem diversas abordagens cientes de variabilidade para análise de linha de produtos, as quais adaptam técnicas de análise de produtos isolados para lidar com a variabilidade de forma e ciente. Tais abordagens podem ser classificadas em três dimensões de análise (product-based, family-based e feature-based ), mas, particularmente no contexto de análise de conabilidade, não existe uma teoria que compreenda (a) uma especificação formal das três dimensões e das estratégias de análise resultantes e (b) prova de que tais análises são equivalentes uma à outra. A falta de uma teoria com essas propriedades impede que se raciocine formalmente sobre o relacionamento entre as dimensões de análise e técnicas de análise derivadas, limitando a con ança nos resultados correspondentes a elas. Para preencher essa lacuna, apresentamos uma linha de produtos que implementa cinco abordagens para análise de con abilidade de linhas de produtos. Encontrou-se evidência empírica de que as cinco abordagens são equivalentes, no sentido em que resultam em con abilidades iguais ao analisar uma mesma linha de produtos. Além disso, formalizamos três das estratégias implementadas e provamos que elas são corretas, contanto que a abordagem probabilística para análise de con abilidade de produtos individuais também o seja. Por m, apresentamos um diagrama comutativo de passos intermediários de análise, o qual relaciona estratégias diferentes e permite reusar demonstrações de corretude entre elas. / Software product line engineering is a means to systematically manage variability and commonality in software systems, enabling the automated synthesis of related programs (products) from a set of reusable assets. However, the number of products in a software product line may grow exponentially with the number of features, so it is practically infeasible to quality-check each of these products in isolation. There is a number of variability-aware approaches to product-line analysis that adapt single-product analysis techniques to cope with variability in an e cient way. Such approaches can be classi ed along three analysis dimensions (product-based, family-based, and feature-based), but, particularly in the context of reliability analysis, there is no theory comprising both (a) a formal speci cation of the three dimensions and resulting analysis strategies and (b) proof that such analyses are equivalent to one another. The lack of such a theory prevents formal reasoning on the relationship between the analysis dimensions and derived analysis techniques, thereby limiting the con dence in the corresponding results. To ll this gap, we present a product line that implements ve approaches to reliability analysis of product lines. We have found empirical evidence that all ve approaches are equivalent, in the sense that they yield equal reliabilities from analyzing a given product line. We also formalize three of the implemented strategies and prove that they are sound with respect to the probabilistic approach to reliability analysis of a single product. Furthermore, we present a commuting diagram of intermediate analysis steps, which relates di erent strategies and enables the reuse of soundness proofs between them.
35

Uma abordagem probabilística para definição de critérios de combinação de carga em normas de projeto estrutural

Barragan, Gonzalo Felipe Aguinaga January 1995 (has links)
Neste trabalho é apresentado um método para avaliar o máximo efeito produzido por ações combinadas atuando sobre sistemas estruturais. Embora se faça uso da teoria de processos aleatórios, as expressões desenvolvidas são de uso direto e simples, representando uma forma atraente para aplicação prática em projetos estruturais. Considerando que os dados disponíveis para muitas ações sobre estruturas são os dois primeiros momentos estatísticos (valor médio e desvio padrão) e a taxa de mudança das intensidades das ações individuais, o método proposto faz uso destes valores para obter o valor médio e o desvio padrão do valor máximo do efeito combinado. Usando os dois primeiros momentos obtidos para o valor máximo do efeito combinado, pode-se determinar o valor a ser usado no projeto estrutural como a média acrescida de um múltiplo do desvio padrão conforme a confiabilidade almejada. As principais vantagens apresentadas pelo método proposto são: I) a abordagem .trata com as estatísticas das ações individuais, que são mais facilmente encontradas e menos afetadas por incertezas do que os valores característicos utilizados nas atuais normas estruturais, 2) os resultados obtidos possibilitam o uso da teoria da confiabilidade estrutural para calcular a propensão à falha associada a um estado limite e, 3) o procedimento proposto para combinar ações mantém a simplicidade necessária para ser usado em normas estruturais, não exigindo do projetista conhecimento da teoria de processos aleatórios. / A method for assessing the maximum effect of cembined actions on structural systems is developed. Although the Theory of Stochastic Processes is applied, the derived expressions are suitable for straightforward calculations and hence suitable for practical applications in structural design. Considering that information on actions upon structures is often available as the two first statistical moments (mean and standard deviation) and the mean ocurrence rate of changes in the intensity of individual actions, the proposed approach makes use of these parameters to arrive at the mean value and standard deviation of the maximum combined effect. By using these two first moments o f the max:imum cembined effect, it is possible to determine the value to be used in the structural design as the mean increased by a multiple ofthe standard deviation, according to the aimed reliability. The main advantages presented by the proposed method are: 1) the approach deals with statistics of individual actions, which can be more easily found and bear less uncertainty that the characteristics values commonly used in cenventional design cedes, 2) the obtained results rnake possible the use of the Theory of Reliability, which yields the proness to failure associated with a given limit state and, 3) the approach keeps the simplicity necessary to be used within some codified procedure, as required in structural design cedes, without the need o f knowledge o f the Theory o f Stochastic Processes.
36

Proposta de método de análise de confiabilidade de sistemas eletrônicos empregando dados de retorno em garantia. / Proposal of reliability analysis method of electronic systems using warranty data.

Danielli Villar Lemes 26 June 2006 (has links)
Atualmente, a grande concorrência de mercado faz com que as empresas busquem maior confiabilidade e qualidade em seus produtos, aumentando assim a confiança e fidelidade de seus clientes. Além disso a diminuição dos gastos com garantia e a possibilidade de extensão da mesma é um grande diferencial de mercado, e pode ser obtido com a realização de estudos de confiabilidade dos sistemas e equipamentos. Este trabalho propõe um método para esse estudo e apresenta um caso exemplo, aplicando o método sugerido, e, propondo melhorias. O presente trabalho reúne conceitos básicos de confiabilidade, apresentando as ferramentas mais utilizadas e explana sobre análise de dados de retorno em garantia. São propostas também algumas soluções para vencer as dificuldades possíveis de serem encontradas. O método consiste em adequar os dados obtidos, de um banco de dados qualquer, para se realizar uma análise de confiabilidade partindo do conhecimento do produto através de materiais apropriados e da execução da árvore funcional, seguida da Análise de Modos e Efeitos de Falha, e, realizando a análise dos dados de garantia, classificando o tipo de registro, como suspenso, completo ou agrupado, e atribuindo a aproximação dos dados a uma distribuição estatística adequada para se calcular os parâmetros e obter a confiabilidade do equipamento ou sistema. A partir dessa análise dos dados é possível se obter relações de sazonalidade entre falhas, entre falhas e lotes de produção, entre tempos até a falha, além de estimativas de confiabilidade e taxa de falha, entre outras. Além disso, é possível se realizar a validação da análise de modos e efeitos de falha a partir dos dados de retorno em garantia. A aplicação do método é realizada através de um caso exemplo, central telefônica. O estudo segue o modelo proposto e, de posse da estimativa de confiabilidade, é possível se calcular os custos de garantia e realizar melhorias, principalmente no banco de dados de retorno em garantia, para que a análise seja cada vez mais precisa. / Nowadays, the great market competition makes that the companies look for higher reliability and quality in their products, the customers' fidelity trust. Besides the decrease of the expenses with warranty makes possible its extension which is a great market differential this objective can be accomplished with product reliability – based analysis. The objective of this work is to propose a method for that study and to present an example of analysis, proposing improvements and validation the suggested method. The present work gathers basic reliability concepts, presenting the most used tools for data associated with warranty period. The method consists on adapting the failure data, of any database, to develop a reliability analysis, following basic steps such as product analysis based on functional trees, followed by the Failure Mode, Effects and Analysis, to define the critical components and, to accomplish the analysis of the warranty data, the failure data are classified as suspended complete or contained, and an appropriate statistical distribution is adjusted to evaluate the reliability of the equipment or system. Starting from that data analysis it is possible to obtain seasonal relationships among faults, between faults and production lots, among times to failures. Besides, it is possible to validate the Failure Mode, Effects and Analysis based on warranty registers. The application of the method is demonstrated through an example, involving the reliability analysis of an analogic PABX of. The study follows the proposed model and, based on reliability estimative, it is possible to calculate the warranty costs and to propose possible product and data collection improvements, mainly in the warranty database in order to improve the reliability analysis results.
37

Estimativas de confiabilidade de produto a partir das contagens mensais de vendas e falhas ao longo do período de garantia

Dillenburg, Marcos Rebello January 2005 (has links)
Esta dissertação aborda a estimativa das probabilidades de falha de um produto ao longo do período de garantia. As fontes de dados para esta estimativa são a quantidade de produtos vendidos e o número de falhas detectadas em cada mês. Duas metodologias não-paramétricas para esta análise são apresentadas e validadas. A metodologia de análise de dados completos requer o conhecimento da data de venda e de falha de cada produto. A metodologia de análise de dados incompletos requer apenas os totais de vendas e falhas em cada mês ao longo do período de garantia. Para os dois casos, é ainda implementada a suavização das probabilidades de falha estimadas, utilizando distribuições paramétricas Weibull ou Lognormal. As duas técnicas são implementadas em planilha eletrônica e aplicadas na análise de dados simulados. O desempenho de cada metodologia é avaliado com dados de diferentes características, resultando em recomendações para escolha e aplicação da metodologia mais adequada em cada caso
38

Análise de provas de carga e confiabilidade para edifício comercial na região metropolitana do Recife

Oliveira, Pedro Eugenio Silva de 06 December 2013 (has links)
Submitted by Romulus Lima (romulus.lima@ufpe.br) on 2015-03-13T15:09:14Z No. of bitstreams: 2 DISSERTAÇÃO Pedro Eugenio Silva de Oliveira.compressed.pdf: 5742325 bytes, checksum: da016b61c4727264b490087c98c81f48 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-13T15:09:14Z (GMT). No. of bitstreams: 2 DISSERTAÇÃO Pedro Eugenio Silva de Oliveira.compressed.pdf: 5742325 bytes, checksum: da016b61c4727264b490087c98c81f48 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-12-06 / A planície do Recife apresenta subsolo, bastante heterogêneo diretamente relacionado com as regressões marinhas que ocorreram em períodos geológicos recentes. Por este motivo uma diversidade de soluções de fundações pode ser observada. A partir do ano 2002 houve um aumento significativo do número de fundações realizadas com estacas tipo hélice contínua. Recentemente foi executada uma obra com mais de 4.000 estacas deste tipo. Para elaboração de projeto de fundações foram solicitados 68 furos de sondagens SPT e seguindo norma de fundações NBR 6122:2010, o número de provas de carga mínimo exigido foi de 1% das estacas de cada obra, como medida de controle. Foram executadas 40 provas de carga estática nas estacas. O presente trabalho tem como objetivo avaliar a confiabilidade estatística do sistema de fundações do empreendimento a partir do resultado desses ensaios. Para tanto foi necessário obter as cargas solicitantes nas estacas, bem como as cargas máximas que cada estaca suporta (carga última). Para avaliar a capacidade de carga das estacas utilizaram-se os métodos semiempíricos de Alonso 1996 e Antunes Cabral 1996, e da confiabilidade real, obtida a partir de 03 métodos extrapolação da carga última com base no resultado dos ensaios de prova de carga (Van der Veen, 1953, Décourt, 1996 e Chin, 1970). Foi demonstrado analiticamente que os métodos de Décourt, 1996 e Chin 1970 obtêm resultados equivalentes, e essa demonstração posteriormente foi comprovada experimentalmente. É apresentada explicação física para o método de Van der Veen, 1953 e formulada equação geral para os três métodos. Também foi possível comprovar que existe influência do nível de deslocamento obtido em ensaio de prova de carga sobre o resultado dos métodos, de forma que os coeficientes de variação das cargas de ruptura para pequenos deslocamentos (até 2% do diâmetro) se mostraram mais elevados que os demais. A partir das cargas nas estacas foram calculadas as curvas de solicitação. Verificou-se que 10% das estacas trabalhavam com carga muito menor que a média, então (para efeito de comparação) essas estacas foram excluídas de análise, dando origem a duas amostras de solicitação, a primeira que considera todas as estacas, chamada de amostra dos dados brutos, e a segunda que considera 90% da amostra, chamada de amostra de dados tratados.Também foram calculadas as curvas de resistências a partir do resultado das sondagens e a partir do resultado das provas de carga, e foram chamadas de resistência de projeto e resistências de campo, respectivamente. Para a confiabilidade de projeto considerando os dados brutos foi obtido índice de confiabilidade (β) igual a 8,09 e probabilidade de ruína igual a 1/5,178x1010, já para os dados tratados foi obtido β de 9,32 e probabilidade de ruína de 1/1,027x1013. Foi observada influência dos deslocamentos das provas de carga sobre a confiabilidade de campo de forma que ao se excluir as PCEs que deslocaram menos de 2% do diâmetro o índice de confiabilidade β de campo variou de valores em torno de 3 pra valores entre 6 e 13. Semelhantemente a probabilidade de ruína diminuiu mais de 100.000 vezes, variando de valores em torno de 1/1.000 para valores inferiores a 1/10.000.000.
39

Redução do consumo energético e aumento da dependabilidade através do compartilhamento de refrigeração entre conteiners data centers

PAIXÃO, Vandenberg Borges da 08 August 2014 (has links)
Submitted by Alice Araujo (alice.caraujo@ufpe.br) on 2017-11-30T19:20:48Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO DE VANDEMBERG BORGES DA PAIXÃO.pdf: 2970236 bytes, checksum: 2b7d9f68b5679b4d338c9c7eff85d8e6 (MD5) / Made available in DSpace on 2017-11-30T19:20:48Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO DE VANDEMBERG BORGES DA PAIXÃO.pdf: 2970236 bytes, checksum: 2b7d9f68b5679b4d338c9c7eff85d8e6 (MD5) Previous issue date: 2014-08-08 / Os data centers são ambientes conhecidos como de missão crítica, que abrigam equipamentos responsáveis pelo processamento e armazenamento de informações cruciais, tendo por características disponibilidade, confiabilidade e redundância, garantindo sua operação de forma ininterrupta mesmo em casos adversos. Para garantir níveis elevados de disponibilidade e confiabilidade, faz-se necessário sistemas redundantes capazes de suprir o sistema principal em caso de falhas. A redundância, por sua vez, gera custos de implantação e manutenção, além de maior consumo energético. Dentre os vários fatores que afetam a disponibilidade, a variação de temperatura no ambiente de TI (computer room) é item primário de segurança, pois causa impacto direto nestes dispositivos, variando também sua dependabilidade. Este trabalho propõe modelos redundantes de refrigeração, mas sem agregar novas unidades refrigerantes, com objetivo de elevar os níveis de disponibilidade, confiabilidade e segurança, analisando conjuntos de Container Data Center (CDC), em diferentes cenários. A metodologia aplicada analisa os níveis de processamento e a capacidade de refrigeração, buscando o ponto de equilíbrio entre o maior nível de processamento, sem comprometer o desempenho, e a menor capacidade de refrigeração, compartilhada entre os CDCs. Nesta abordagem, são analisados impactos provocados pela variação de temperatura através de modelos de Arrhenius, diagrama de blocos, modelos de rede de Petri estocástica, modelos de compartilhamentos da estrutura de refrigeração e os impactos causados casos de CDCs que apresentam temperaturas elevadas. Como resultado, é possível comprovar a eficiência dos modelos estudados, que é possível elevar a dependabilidade sem agregar novas estruturas de refrigeração, que estes níveis de dependabilidade são proporcionais ao número de CDCs com estruturas compartilhadas. / The data centers is an environment known as mission-critical, which keep equipment responsible for the processing and housing of crucial information, having as characteristics availability, reliability and redundancy, which guarantee its operation in a uninterrupted way even in unusual situations. In order to insure high levels of availability and reliability, it is necessary redundant systems able to support the main system in case of failure. The redundancy, on the other hand, make deployment and maintenance costs, besides a larger energy consumption. Between many reasons which affect the availability, the temperature variation in TI place (computer room) is a Primary safety item, for it causes an direct impact in these devices, which also varies its dependability. This work proposes redundant models of cooling, but without adding new refrigerant units, in order to rise the availability, reliability and security levels, analyzing sets of Container Data Center (CDC) in different scenarios. The applied methodology has as analytical items levels of processing and cooling capacity, seeking the break-even-point between the higher level of processing, without compromising performance, and lower cooling capacity, shared between the CDCs. In this approach, it is analyzed impacts caused by variation in temperature through the Arrhenius model, the block diagram, Petri net stochastic models, sharing models of cooling structure and the impacts of CDCs cases with high ambient temperatures. As a result, it is possible to prove the efficiency of the studied models, it is also possible to rise the dependability without adding new refrigeration structures, for this dependability levels are relatives to the number of CDs with shared structure.
40

Metodologia para a otimização da manutenção de equipamentos e sistemas

Santos, Ismar Simões dos 21 June 1996 (has links)
Orientador: Carlos Amadeu Pallerosi / Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica / Made available in DSpace on 2018-07-21T11:45:45Z (GMT). No. of bitstreams: 1 Santos_IsmarSimoesdos_M.pdf: 3591660 bytes, checksum: 528ddafc70e2c71d5ca0d3a9f990af8e (MD5) Previous issue date: 1996 / Resumo: A maioria dos programas computacional de gerenciamento da manutenção possui um módulo com os dados históricos de manutenção dos equipamentos, mas não calculam a disponibilidade, confiabilidade e mantenabilidade destes equipamentos. Com o objetivo de criar um método para a otimização da manutenção, tendo como base os dados históricos dos equipamentos, o Sistema 7123 de Gerenciamento da Manutenção foi modificado para permitir o cálculo direto das estimativas dos parâmetros das distribuições dos tempos até falha e dos tempos até recolocação em serviço, através do programa computacional RAMP. O RAMP calcula .a disponibilidade, confiabilidade e mantenabilidade dos sistemas, equipamentos e componentes. com estes resultados e utilizando-se árvores lógicas de decisões, baseadas em conceitos confiabilísticos, pode-se manter ou melhorar a disponibilidade das plantas de processo, fazendo melhorias nas instalações e estabelecendo a freqüência e o tipo de manutenção (preventiva sistemática, preventiva preditiva, testes periódicos para detecção de falhas ocultas ou corretiva), mais econômicos e efetivos a serem aplicados. A manutenção preventiva sistemática, prática comum na atividade de manutenção para aumentar a confiabilidade e a disponibilidade dos equipamentos, somente em alguns casos específicos satisfaz este objetivo. A manutenção preventiva sistemática só aumenta a disponibilidade significativamente quando as taxas de falha são crescentes e o tempo médio até recolocação em serviço da manutenção preventiva é muito menor que o tempo médio até recolocação em serviço da manutenção corretiva. Uma forma mais abrangente de considerar a questão, quando a falha não tem efeito na segurança das operações, é considerar o custo operacional do equipamento. Neste caso a prática da manutenção preventiva sistemática tem se mostrado mais econômico quando as taxas de falha são crescentes e o custo da manutenção corretiva é muito maior que o custo, da manutenção preventiva sistemática. Quando uma falha pode comprometer a segurança operacional, o prazo de manutenção preventiva deve ser em função da desconfiabilidade máxima que se pretende assumir. / Abstract: Not informed. / Mestrado / Mestre em Qualidade

Page generated in 0.0556 seconds