691 |
APLICAÇÃO DE ANÁLISE ESTATÍSTICA NAS CURVAS σ-N DA LIGA DE ALUMÍNIO 7050-T7451 DE APLICAÇÃO ESTRUTURALCanto, Osmari Ademir Hoffmann do 28 August 2013 (has links)
Made available in DSpace on 2017-07-21T20:42:45Z (GMT). No. of bitstreams: 1
Osmari Ademir.pdf: 5711833 bytes, checksum: b01e1ba889748fa3eef4d7ca30cbe837 (MD5)
Previous issue date: 2013-08-28 / Given the importance of presenting ever more reliable results with respect to the fatigue life of aluminum alloy 7050-T7451 application of this structural work guided their main focus on carrying out a statistical analysis of fatigue data collected from Axial fatigue tests conducted on specimens of this alloy. The data collected from these tests may be treated by various types of distribution functions, each function has some special features that have direct relation to the nature of the data collected thus different functions may have different results when applied to the same data set. Therefore it is not always clear which distribution function presented the results more reliable in relation to the data analyzed. For the statistical treatment of the data we used the statistical tool Minitab Release 13.0 which were analyzed four functions of distribution, Weibull, Lognormal Base and Loglogística and Normal. The choice of the function that best represented the data was based on two methods, graph method, where we obtained a qualitative analysis of the distribution of fatigue data and analytical method which produced a quantitative analysis of the results. For the definition of the function that showed the best results, comparisons were made of the most relevant statistics, especially the value of Anderson Darling test that was used in the work of adhesion. In addition to this statistical comparisons were also made errors regarding the probability of failure of 50% and also the values of the confidence intervals. The curves σ - N were plotted from the best figures for each voltage level. The results obtained after the statistical treatment of all values of fatigue life showed that for higher voltage levels (low cycle fatigue) any of the four functions studied can provide good adhesion to the fatigue data with errors quite small, as expected. For the values for medium voltage levels, which began to appear more substantial dispersions four functions still showed good adhesion, but showed most significant errors. When dealing with data sets of high cycle fatigue where stress levels were lower, the functions not performed well in fitting to the data, therefore, showed very high values of Anderson Darling statistic in which case the function is Loglogística was very efficient achieving produce good results even in groups where there were censored values (samples that did not fail). Thus it can be stated that the fatigue curves obtained from this method provide more reliable results, ensuring more security in predicting fatigue life of components built with aluminum alloy 7050-T7451. / Havendo a necessidade de se apresentar resultados cada vez mais confiáveis no que diz respeito à vida em fadiga da liga de alumínio 7050-T7451 de aplicação estrutural o presente trabalho norteia seu foco principal na realização de uma análise estatística dos dados de fadiga coletados a partir de ensaios de fadiga axial realizados em espécimes desta liga. Os dados coletados a partir destes ensaios podem ser tratados por vários tipos de funções de distribuição. Cada função apresenta particularidades que possuem relação direta com a natureza dos dados coletados. Dessa forma funções diferentes podem apresentar resultados diferentes quando aplicadas ao mesmo conjunto de dados. Sendo assim, nem sempre fica claro qual função de distribuição apresentou o resultado mais confiável em relação aos dados analisados. Para o tratamento estatístico, utilizou-se a ferramenta MINITAB Release 13.0 onde foram analisadas quatro funções de distribuição, Weibull, Lognormal Base e, Loglogística e Normal. A escolha da função que melhor representou os dados foi baseada em dois métodos, o primeiro foi o método gráfico, onde foi obtida uma analise qualitativa da distribuição dos dados de fadiga, o segundo foi o método analítico que permite fazer uma análise quantitativa dos resultados. Para a definição da função que apresentou o melhor resultado, foram realizadas comparações das estatísticas de maior relevância, principalmente o valor de Anderson Darling, que foi o teste de aderência utilizado no trabalho. Além deste método foram também realizadas comparações entre os erros referentes à probabilidade de falha a 50% e também dos valores dos intervalos de confiança. As curvas – N foram plotadas a partir dos melhores valores apresentados para cada nível de tensão. Os resultados obtidos após o tratamento estatístico de todos os valores de vida em fadiga mostraram que para os níveis de tensão mais elevados (fadiga de baixo ciclo), qualquer uma das quatro funções estudadas consegue apresentar boa aderência aos dados de fadiga com erros considerados pequenos. Para os valores referentes a níveis de tensão médios, onde começaram a surgir dispersões mais consideráveis, as quatro funções ainda mostraram boa aderência, mas apresentaram erros mais significativos. Ao tratar os conjuntos de dados de fadiga de alto ciclo, as funções não obtiveram um bom desempenho na aderência aos dados, pois, apresentaram valores muito elevados para a estatística de Anderson Darling. Nesses casos a função Loglogística se mostrou mais eficiente conseguindo apresentar melhores resultados até mesmo em conjuntos onde houveram valores censurados (amostras que não falharam). Com isso, pode-se afirmar que as curvas de fadiga obtidas a partir deste método fornecem resultados mais confiáveis, garantindo maior segurança na previsão de vida em fadiga de componentes construídos com a liga de alumínio 7050-T7451.
|
692 |
Método de apoio à formulação de estratégia de manutenção em ambiente industrial: um estudo de casoBrand, Gustavo Gastmann 27 June 2011 (has links)
Submitted by Silvana Teresinha Dornelles Studzinski (sstudzinski) on 2016-02-17T12:23:02Z
No. of bitstreams: 1
Gustavo Gastmann Brand_.pdf: 698042 bytes, checksum: 303b375ce86e6c8e28f55a2462a7cefd (MD5) / Made available in DSpace on 2016-02-17T12:23:02Z (GMT). No. of bitstreams: 1
Gustavo Gastmann Brand_.pdf: 698042 bytes, checksum: 303b375ce86e6c8e28f55a2462a7cefd (MD5)
Previous issue date: 2011-06-27 / Nenhuma / O objetivo principal desta dissertação é apresentar um método para aplicação da Manutenção Centrada em Confiabilidade (MCC) em uma linha de cromagem de cilindros de alumínio. Para a análise, foram utilizados os tempos até a falha e os tempos para o reparo. O trabalho foi desenvolvido a partir de um estudo de caso e aplicado em uma empresa multinacional fabricante de motores à combustão interna, cuja produção de cilindros de alumínio atinge volume anual de 4,5 milhões de peças. Em relação aos objetivos específicos desse trabalho, citam-se a revisão dos conceitos, histórico e aplicações da manutenção, conceito de confiabilidade, modelos de distribuição probabilística, estimativa de parâmetros, teste de aderência e fundamentos de falhas. As principais etapas para aplicação do método são: definição e seleção do sistema objeto do estudo; análise funcional de falhas; seleção dos itens críticos; coleta e análise dos dados de falha; seleção de ações de manutenção; e determinação dos intervalos de manutenção. Como o Mean Time To Repair (MTTR) foi muito baixo em relação ao Mean Time Between Failure (MTBF), toda a atenção foi concentrada para aumentar o MTBF e não reduzir o MTTR. Como resultado, verificou-se que quase todos os equipamentos estudados estão na fase de maturidade. Observou-se também que a Manutenção Preventiva é predominante, em muitos casos associada à Preditiva. As considerações finais alinham as estratégias de manutenção com as estratégias de produção referentes ao sistema estudado. / The main objective of this study is to show a method for implementation of Reliability Centered Maintenance (RCM) in a plating line of aluminum cylinders. For the analysis, It was used the time to failure and time to repair in the modeling. The work was developed from a case study and applied in a multinational manufacturer of internal combustion engines, whose production of aluminum cylinders achieves annual volume of 4.5 million pieces. Regarding the secondary objectives of this work, It´s mentioned the review of the literature on the concepts, history and maintenance applications, the concept of reliability, probability distribution models, parameter estimation, testing, adherence and reasons for failure. The main steps for implementing the method are: definition and system selection object of the study, functional analysis of failures; selection of critical items, collection and analysis of failure data, selection of maintenance actions, and determining maintenance intervals. As the Mean Time To Repair (MTTR) was very low compared to the Mean Time Between Failure (MTBF), the whole focus was to increase MTBF and not reduce MTTR. The result was the strategy of Preventive Maintenance, as predominant in many cases, associated with Predictive. The final consideration line maintenance strategies with production strategies for the system studied.
|
693 |
Implementa??o e avalia??o de m?todos para confiabilidade de redes intra-chipSilva, Alzemiro Henrique Lucas da 27 January 2010 (has links)
Made available in DSpace on 2015-04-14T14:49:30Z (GMT). No. of bitstreams: 1
430304.pdf: 2164502 bytes, checksum: db47a771a28123bb6c1aa5df3d495e3b (MD5)
Previous issue date: 2010-01-27 / As inova??es na fabrica??o de circuitos integrados t?m reduzido continuamente o tamanho dos componentes, permitindo um aumento na densidade l?gica de sistemas eletr?nicos complexos, denominados SoCs (Systems‐on‐a‐Chip), mas afetando tamb?m a confiabilidade destes componentes. Barramentos globais utilizados para interconex?o de componentes em um chip est?o cada vez mais sujeitos aos efeitos de crosstalk, que podem causar atrasos e picos nos sinais. Este trabalho apresenta e avalia diferentes t?cnicas para toler?ncia a falhas em redes intra‐chip, nos quais a rede ? capaz de manter o mesmo desempenho da rede original mesmo na ocorr?ncia de falhas. Quatro t?cnicas s?o apresentadas e avaliadas em termos de consumo adicional de ?rea, lat?ncia dos pacotes, consumo de pot?ncia e an?lise de defeitos residuais. Os resultados demonstram que o uso de codifica??o CRC nos enlaces ? vantajoso quando o m?nimo acr?scimo de ?rea e consumo de pot?ncia ? o principal objetivo. Entretanto, cada um dos m?todos apresentados neste trabalho tem as suas pr?prias vantagens e podem ser utilizados dependendo da aplica??o alvo.
|
694 |
Introdução ao conceito de probabilidade por uma visão freqüentista: estudo epistemológico e didáticoCoutinho, Cileda de Queiroz e Silva 17 May 1994 (has links)
Made available in DSpace on 2016-04-27T16:58:06Z (GMT). No. of bitstreams: 1
dissertacao_cileda_coutinho.pdf: 270331 bytes, checksum: 2e080f8d78865a174410f0895db4fb4f (MD5)
Previous issue date: 1994-05-17 / Este trabalho sobre o ensino de probabilidades é de natureza didática, no sentido utilizado na França atualmente, seguindo os trabalhos de Guy Brousseou: um estudo teórico e aplicado das relações entre o ensino e a aprendizagem em matemática. Nosso objetivo é estudar as concepções espontâneas ou pré-construídas dos alunos à propósito do acaso e de probabilidade, analisando as seqüências experimentais de introdução a estes conceitos, a partir da observação da estabilização da freqüência relativa de um evento após um grande número de repetições da experiência aleatória. O objetivo final da escolha freqüentista é, sem dúvida, estender a noção de probabilidade às situações não somente de "casos igualmente prováveis" segundo o enunciado de Laplace em seu segundo princípio, na obra "Ensaio Filosófico de Probabilidade", mas também modelizar as situações complexas tais como as questões de confiabilidade, difusão (epidemias), na pesquisa petrolífera ou no controle estocástico. Como objetivo didático, trata-se de ligar de forma profunda o ensino às condições de aprendizagem nas quais o aluno de hoje está inserido. Os dados obtidos através de um questionário elaborado com o objetivo de detectar as concepções pré-construídas dos alunos, da aplicação e análise de uma seqüência de ensino elaborada a partir dos resultados deste questionário foram analizados à luz de resultados anteriormente obtidos por outros pesquisadores, tais como S. Maury e J. Bordier, entre outros
|
695 |
Análise dos tempos de reparo em sistemas redundantes do tipo Cold Standby com alternânciaBotelho, Heitor Cabral January 2016 (has links)
Nas indústrias química e petroquímica o uso de sistemas redundantes é comum. Exceto pelos programas de lubrificação, a estratégia de manutenção adotada para estes sistemas é, principalmente, a manutenção corretiva. Os objetivos desta dissertação são, a partir do registro do histórico de falhas dos equipamentos de uma unidade fabril petroquímica e conceitos de confiabilidade, estimar o tempo limite que estes sistemas podem operar sem intervenções de manutenção, mantendo a disponibilidade do sistema em níveis adequados. Esse tempo limite foi usado para desenvolver um indicador a ser utilizado no processo de priorização das atividades de manutenção. Para atingir os objetivos foram desenvolvidas as seguintes etapas: a) revisão dos dados de confiabilidade; b) elaboração de modelagem de sistemas de bombeamento. Inicialmente foi realizada uma revisão dos dados de confiabilidade coletados pela empresa em estudo, a partir da qual se obteve análise dos problemas encontrados com os dados, sumário de procedimentos a serem adotados para cada tipo de problema e sugestões para evitar sua reincidência. Por meio dos resultados iniciais, foi elaborada a modelagem de sistemas de bombeamento, utilizando o método de Monte Carlo. Obtevese, como resultado, curvas de disponibilidade do sistema versus tempos para reparo. O método proposto é simples de ser utilizado em campo e, definida a disponibilidade desejada para o sistema redundante, permite o cálculo do máximo tempo para reparo do equipamento em falha. / In chemical and petrochemical industries redundant systems are usual. Except by lubrication programs, the maintenance strategy adopted for these systems is mainly corrective maintenance. Considering the historical failure records of the equipment of a factory and the use of reliability concepts, the goal of this work is to estimate the maximum time that these systems can operate without maintenance interference, while keeping the system availability on adequate levels. This maximum time was used to develop an indicator to be used in the process of prioritization of maintenance activities. To achieve these goals, the following steps have been developed: a) reliability data review; b) elaboration of a pumping system model. Initially, a review of the reliability data collect at the studied company was performed, from which an analysis of the problems encountered at these data, a summary of procedures to be adopted for each type of problem, and suggestions to avoid its recurrence were established. As a consequence of first results, a model for each pumping system using the Monte Carlo method was developed and availability curves of the system versus time to repair were obtained. The proposed method is simple to use in the field and, considering the desired availability for the redundant system, it allows the calculation of the maximum time to repair equipment failures.
|
696 |
Planejamento dos sistemas de distribuição de energia elétrica integrando a confiabilidade do serviço /Tabares Pozos, Alejandra. January 2019 (has links)
Orientador: John Fredy Franco Baquero / Resumo: O planejamento bem-sucedido de redes de distribuição requer uma metodologia que inclua um modelo de rede preciso que considere não apenas os custos econômicos, mas também os custos associados à confiabilidade do sistema. Considerando estas duas características essenciais, esta tese propõe modelos matemáticos que permitam incluir a avaliação da confiabilidade dentro do problema do planejamento de expansão de sistemas de distribuição com múltiplos estágios, visando expandir os ativos de rede (ramos e subestações) e minimizar os custos de confiabilidade do sistema. Em relação às características da rede, o modelo de planejamento proposto utiliza um fluxo de potência AC não-linear e não convexo, que é convertido em um problema convexo usando reformulação cônica, técnicas de linearização por partes, com o intuito de obter tratabilidade computacional usando técnicas clássicas de otimização. Além disso, a avaliação de confiabilidade convencional baseada em simulação é implementada de forma equivalente por meio de expressões algébricas dentro do modelo matemático. Vários casos de estudo são usados para demostrar a eficácia da metodologia de planejamento proposta. / Abstract: Successful planning of distribution networks requires a methodology that includes an accurate network model that considers not only the economic costs but also the costs associated with system reliability. Considering these two essential characteristics, this thesis proposes mathematical models that include reliability assessment within multi-stage expansion planning problem of distribution systems, aiming at expanding network assets (branches and substations) and minimizing reliability costs of the system. In relation to the network characteristics, the proposed planning model uses a non-convex nonlinear AC power flow, which is converted into a convex problem using conic reformulation and piece-wise linearization, to obtain the computational treatability using classical optimization techniques. In addition, conventional simulation-based reliability assessment is implemented equivalently through algebraic expressions. Several benchmarks are used to demonstrate the effectiveness of the proposed planning methodology. / Doutor
|
697 |
Modelo de avaliação de conjuntos de dados científicos por meio da dimensão de veracidade dos dados. / Scientific datasets evaluation model based on the data veracity dimension.Batista, André Filipe de Moraes 06 November 2018 (has links)
A ciência é uma organização social: grupos de colaboração independentes trabalham para gerar conhecimento como um bem público. A credibilidade dos trabalhos científicos está enraizada nas evidências que os suportam, as quais incluem a metodologia aplicada, os dados adquiridos e os processos para execução dos experimentos, da análise de dados e da interpretação dos resultados obtidos. O dilúvio de dados sob o qual a atual ciência está inserida revoluciona a forma como as pesquisas são realizadas, resultando em um novo paradigma de ciência baseada em dados. Sob tal paradigma, novas atividades são inseridas no método científico de modo a organizar o processo de geração, curadoria e publicação de dados, beneficiando a comunidade científica com o reuso de conjuntos de dados científicos e a reprodutibilidade de experimentos. Nesse contexto, novas abordagens para a resolução de problemas estão sendo apresentadas, obtendo resultados que antes eram considerados de relevante dificuldade, bem como possibilitando a geração de novos conhecimentos. Diversos portais estão disponibilizando conjuntos de dados resultantes de pesquisas científicas. Todavia, tais portais pouco abordam o contexto sobre os quais os conjuntos de dados foram criados, dificultando a compreensão sobre os dados e abrindo espaço para o uso indevido ou uma interpretação errônea. Poucas são as literaturas que abordam essa problemática, deixando o foco para outros temas que lidam com o volume, a variedade e a velocidade dos dados. Essa pesquisa objetivou definir um modelo de avaliação de conjuntos de dados científicos, por meio da construção de um perfil de aplicação, o qual padroniza a descrição de conjuntos de dados científicos. Essa padronização da descrição é baseada no conceito de dimensão de Veracidade dos dados, definido ao longo da pesquisa, e permite o desenvolvimento de métricas que formam o índice de veracidade de conjuntos de dados científicos. Tal índice busca refletir o nível de detalhamento de um conjunto de dados, com base no uso dos elementos de descrição, que facilitarão o reuso dos dados e a reprodutibilidade dos experimentos científicos. O índice possui duas dimensões: a dimensão intrínseca aos dados, a qual pode ser utilizada como critério de admissão de conjunto de dados em portais de publicação de dados; e a dimensão social, mensurando a adequabilidade de um conjunto de dados para uso em uma área de pesquisa ou de aplicação, por meio da avaliação da comunidade científica. Para o modelo de avaliação proposto, um estudo de caso foi desenvolvido, descrevendo um conjunto de dados proveniente de um projeto científico internacional, o projeto GoAmazon, de modo a validar o modelo proposto entre os pares, demonstrando o potencial da solução no apoio ao reuso dos dados, podendo ser incorporado em portais de dados científicos. / Science is a social organization: independent collaboration groups work to generate knowledge as a public good. The credibility of the scientific work is entrenched in the evidence that supports it, which includes the applied methodology, the acquired data, the processes to execute the experiments, the data analysis, and the interpretation of the obtained results. The flood of data under which current science is embedded revolutionizes the way surveys are conducted, resulting in a new paradigm of data-driven science. Under such a paradigm, new activities are inserted into the scientific method to organize the process of generation, curation, and publication of data, benefiting the scientific community with the reuse and reproducibility of scientific datasets. In this context, new approaches to problem solving are being presented, obtaining results that previously were considered of relevant difficulty, as well as making possible the generation of new knowledge. Several portals are providing datasets resulting from scientific research. However, such portals do little to address the context upon which datasets are created, making it difficult to understand the data and opening up space for misuse or misinterpretation. In the Big Data area, the dimension that proposes to deal with this aspect is called Veracity. Few studies in the literature approach such a theme, focusing on other dimensions, such as volume, variety, and velocity of data. This research aimed to define a of scientific datasets, through the establishment of an application profile, which standardizes the description of scientific datasets. This standardization of the description is based on the veracity dimension concept, which is defined throughout the research and allows the development of metrics that form the Veracity Index of scientific datasets. This index seeks to reflect the level of detail of a dataset based on the use of the descriptive elements, which will facilitate the reuse and reproducibility of the data. The index is weighted by the evaluation of the scientific community in a collaborative sense, which assess the level of description, comprehension capacity, and suitability of the dataset for a given research or application area. For the proposed collaborative evaluation model, a case study was developed that described a dataset from an international scientific project, the GoAmazon project, in order to validate the proposed model among the peers, demonstrating the potential of the solution in the reuse and reproducibility of datasets, showing that such an index can be incorporated into scientific data portals.
|
698 |
Morbidade hospitalar por causas externas no Sistema Único de Saúde em São José dos Campos, SP / Hospital morbidity due to external causes via Sistema Único de Saúde in São José dos Campos, SPMelione, Luís Paulo Rodrigues 14 August 2006 (has links)
Objetivos. Realizou-se uma pesquisa com o objetivo de conhecer a qualidade dos dados de internação, os gastos diretos e a morbidade hospitalar por causas externas em São José dos Campos, São Paulo. Material e Métodos. Foram estudadas as internações pelo Sistema Único de Saúde (SUS) por lesões decorrentes de causas externas no primeiro semestre de 2003, no Hospital Municipal Dr. José de Carvalho Florence. Este hospital é referência para o atendimento ao trauma no Município. Foram analisados os prontuários de 990 internações. A concordância das variáveis relativas à vítima, à internação e ao agravo foi avaliada pela taxa bruta de concordância e pelo coeficiente Kappa. As lesões e as causas externas foram codificadas segundo a 10ª revisão da Classificação Internacional de Doenças. Resultados. A taxa de concordância bruta entre os dados do Sistema de Informações Hospitalares do SUS e a avaliação do pesquisador foi de boa qualidade para as variáveis relativas à vítima e à internação, variando de 89,0% a 99,2%. As lesões tiveram concordância ótima, exceto os traumatismos do pescoço (k=0,73), traumatismos múltiplos (k=0,67), e fraturas do tórax (k=0,49). As causas externas tiveram concordância ótima para acidentes de transporte e quedas. A confiabilidade foi menor para agressões (k=0,50), causas indeterminadas (k=0,37), e complicações da assistência médica (k=0,03). Houve concordância ótima nos acidentes de transporte em pedestres, ciclistas e motociclistas. Após ajuste do coeficiente Kappa para vieses e prevalência, os resultados mais baixos do coeficiente mudaram para melhor, exceto as causas indeterminadas. O maior gasto médio de internação foi por acidentes de transporte (R$ 614,63) seguido das agressões (R$ 594,90). As lesões com maior gasto médio foram às fraturas de pescoço (R$ 1.191,42) e traumatismo intracraniano (R$ 1.000,44). As internações com maior custo-dia foram às fraturas do crânio e dos ossos da face (R$ 166,72) e traumatismo intra-abdominal (R$ 148,26). A taxa de mortalidade hospitalar por causas externas foi de 4%, sendo maior entre pedestres (12,2%) e vítimas de agressões (8,2%). As principais causas externas de internação foram às lesões por acidentes de transporte (31,8%) e quedas (26,7%). A razão de masculinidade foi 3,1:1 e a faixa etária predominante foi 20-29 anos (23,3%). As partes do corpo mais atingidas foram membros inferiores (24,6%) e cabeça (22,0%). As lesões mais freqüentes foram às fraturas (49,8%) e o traumatismo intracraniano (13,5%). A maior taxa de internação ocorreu na região Norte do Município. Conclusões. As variáveis de estudo tiveram boa qualidade no nível de agregação analisado. Algumas variáveis relativas à vítima e alguns tipos de causas externas necessitam de aperfeiçoamento da qualidade dos dados. O perfil da morbidade hospitalar encontrado confirmou os acidentes de transporte como importante causa externa de internação hospitalar no Município. / Objectives. The objectives of the research were to identify the quality of admission data, direct expenditures, and external-cause hospital morbidity in the city of São José dos Campos, São Paulo, Brazil. Materials and Methods. Admissions to the Municipal Hospital Dr. José de Carvalho Florence via Sistema Único de Saúde (Unified Health System) resulting from external-cause injuries were analyzed during the first semester of 2003. This Hospital is a reference for trauma care in the city. Nine hundred and ninety patient admission charts were analyzed. Agreement between variables regarding victim, admission and the offence was analyzed by rate of rude agreement and by Kappa coefficient. The injuries and the external causes were codified according to the International Classification of Diseases, 10th revision. Results. The rate of rude agreement between the data registered in the Information System and the researchers evaluation was very good for variables regarding victim and admission with an 89.0% to 99.2% variation. Injuries had very good agreement, except for neck traumas (k=0.73), multiple traumas (k=0.50), and chest fractures (k=0.49). External causes had very good agreement for land transportation accidents and falls. Reliability was smaller for assaults (k=0.50), undetermined intent events (k=0.37), and medical care complications (k=0.03). There was very good agreement for transportation accidents involving pedestrians, cyclists, and motorcyclists. After adjusting the Kappa coefficient for bias & prevalence, the lowest coefficient results changed for better, except for undetermined intent events. The highest external cause average cost for hospital admission was due to land transportation accidents (R$ 614.63) followed by assaults (R$ 594.90). The highest injury average cost for hospital admission was neck fractures (R$ 1,191.42) and intracranial trauma (R$1,000.44). Admissions with higher daily cost were skull and face fractures (R$ 166.72) and intraabdominal trauma (R$ 148.26). External-cause hospital mortality rate was 4%, being higher among pedestrians (12.2%) and assault victims (8.2%). The main external cause for admissions was due to injuries from land transportation accidents (31.8%) and falls (26.7%). The male ratio was 3.1:1 and the predominant age was 20-29 years of age (23.3%). The most affected parts of the body were the lower limbs (24.6%) and the head (22.0%). The most frequent injuries were fractures (49.8%) and intracranial traumas (13.5%). The highest admission rate occurred in the north-side of the city. Conclusions. The study variables were good in the aggregation level analyzed. Some variables regarding the victim and some types of external cause require data quality improvement. The profile of hospital morbidity found in this study has confirmed that land transportation accidents are an important external cause for admission in the city.
|
699 |
Reintegração de servidores em sistemas distribuídos / Reintegration of failed server in distributed systemsPasin, Marcia January 1998 (has links)
Sistemas distribuídos representam uma plataforma ideal para implementação de sistemas computacionais com alta confiabilidade e disponibilidade devido a redundância fornecida por um grande número de estações interligadas. Falhas de um servidor podem ser contornadas pela reconfiguração do sistema. Entretanto falhas em seqüência que afetem múltiplas estações comprometem não apenas o desempenho do sistema, mas também a continuidade do serviço e sua confiabilidade. Assim, servidores falhos, que tenham sido isolados do sistema, devem ser reintegrados tão logo quanto possível para não comprometer a disponibilidade do sistema computacional. Este trabalho trata da atualização do estado de servidores e da troca de informação que o servidor recuperado realiza para integrar-se aos demais membros do sistema através de um procedimento chamado reintegração do servidor. E assumido um ambiente distribuído que garante alta confiabilidade em aplicações convencionais através da técnica de replicação de arquivos. O servidor a ser reintegrado faz parte de um grupo de replicação e volta a participar ativamente do grupo tão logo seja reintegrado. Para tanto, considera-se a estratégia de replicação por copia primaria e um sistema distribuído experimental, compatível com o NFS, desenvolvido na UFRGS para aplicar a reintegração de servidor. Os métodos de atualização de arquivos para a reintegração do servidor foram implementadas no ambiente UNIX. / Distributed systems are an ideal platform to develop high reliable computer applications due to the redundancy supplied by a great number of interconnected workstations. Failed stations can be masked reconfiguring the system. However, sequential faults, that affect multiple stations, not just decrease the performance of the system, but also affect the continuity of the service and its reliability. Thus, failed stations working as servers, that have been isolated from the system, should be reintegrated as soon as possible to not impair the system availability. This work is exactly about methods to update the state of failed servers. It deals also with the change of information that the recovered server accomplishes to be integrated to the other members of the service group through a process called reintegration of server. It is assumed a distributed environment that guarantees high reliability in conventional applications through replication of files. The server to be reintegrated is part of a replication group and it participates actively of the service group again as soon as it is reintegrated. Our approach is based on a primary copy. The file actualization methods to the reintegration of server were implemented in an UNIX environment. To illustrate our approach we will describe how the integration of repaired server can be made a fault-tolerant system. The experimental distributed system, compatible with NFS, was designed at the UFRGS.
|
700 |
Otimização do risco de estruturas redundantes considerando os efeitos das não linearidades e múltiplos modos de falhaEsposito, Adelano January 2016 (has links)
O desenvolvimento de métodos que permitam reproduzir numericamente o comportamento el de sistemas estruturais reais tem desa ado cientistas e pesquisadores a abordarem questões que vão além das condições de integridade do sistema. Neste sentido, uma série de novos parâmetros devem ser considerados durante um processo de otimização estrutural, zelando pela con abilidade em níveis aceitáveis enquanto que os custos esperados de falhas sejam minimizados. Aparentemente, os objetivos segurança e economia competem entre si, nesse contexto, a otimização do risco estrutural surge como uma formulação que permite equacionar este problema através do chamado custo esperado total. Nesta Tese, apresenta-se o desenvolvimento de uma técnica precisa para satisfazer os termos que compõem a função custo esperado total, isto é, uma técnica capaz de estimar a con abilidade de sistemas estruturais redundantes pela identi cação dos múltiplos modos de falha de uma maneira mais precisa que os métodos convencionais aproximados e de simulação. Além disso, análises inelásticas de estruturas de aço incluindo as não linearidades físicas e geométricas são consideradas utilizando o MCDG, além de leis constitutivas para prever o comportamento inelástico. Em posse destas informações, o algoritmo calcula o risco como sendo a probabilidade de falha multiplicada pela consequência econômica resultante desta falha. Ao risco são acrescentados os demais custos associados ao sistema estrutural, os quais não dependem dos parâmetros aleatórios do sistema e por isso denominados custos xos. Como produto, tem-se o custo esperado total, o qual corresponde a função objetivo do problema de otimização estrutural. Aplicações numéricas demonstram a precisão e e ciência da metodologia na avaliação da probabilidade de falha de problemas envolvendo funções de estado limite altamente não lineares com múltiplas regiões de falhas, assim como os efeitos causados pelas não linearidades físicas e geométricas nas análises probabil ísticas e na otimização do risco das estruturas. Os resultados demonstraram que, em relação às incertezas e consequências monetárias da falha, a estrutura ótima pode ser encontrada apenas pela formulação da otimização do risco, onde a con guração da estrutura e os limites de segurança são otimizados simultaneamente. A otimização do risco resulta numa estrutura ótima em termos mecânicos, custo esperado total e segurança. / The development of methods that allow to numerically reproduce the actual behavior of real structural systems has challenged scientists and researchers and urged them to address issues that extend beyond the integrity of a system. Therefore, a series of new parameters must be taken into account during the structural optimization process, looking for acceptable reliability levels while minimizing the expected failure costs. Apparently, safety and economy compete with each other, and in this context, structural risk optimization arises as a formulation that allows equating this problem through the so-called total expected cost. In this Thesis, an accurate technique is developed to satisfy the minimization of the total expected cost function i:e:; a technique that allows estimating the reliability of redundant structural systems by the identi cation of multiple failure modes in a more precise way than conventional approximation and simulation methods. Besides, inelastic analysis of steel trusses including both geometric and physical nonlinearities are considered using the generalized displacement control method, in addition to constitutive laws to predict the inelastic behavior. Based on this information, the algorithm calculates risk as the failure probability multiplied by the economic losses resulting from such failure. The other costs associated to the structual system are added to the actual risk and since they do not depend on system's random parameters, they are referred as xed costs. As result, one obtains the total expected cost, which corresponds to the objective function of the structural optimization problem. Numerical applications shows the accuracy and e ciency of the methodology in the evaluation of the failure probability of problems represented by high nonlinear limit state functions with multiple failure regions. It is also included the e ects of geometric and physical nonlinearities originated in the probabilistic analysis and risk optimization of truss structures. Results show that, in consideration of uncertainty and the monetary consequences of failure, the optimum structure can only be found by a risk optimization formulation, where structural con guration and safety margins are optimized simultaneously. Risk optimization yields a structure which is optimum in terms of mechanics and in terms of the compromise between cost and safety.
|
Page generated in 0.0557 seconds