• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1009
  • 30
  • 15
  • 11
  • 6
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 1068
  • 562
  • 344
  • 197
  • 135
  • 108
  • 100
  • 93
  • 81
  • 80
  • 79
  • 78
  • 76
  • 75
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
711

Gerenciamento t?rmico e energ?tico em MPSoCs

Castilhos, Guilherme Machado de 10 August 2017 (has links)
Submitted by PPG Ci?ncia da Computa??o (ppgcc@pucrs.br) on 2018-10-24T21:20:23Z No. of bitstreams: 1 ALEXANDRE LAZARETTI ZANATTA.DIS.pdf: 3682553 bytes, checksum: f4e0c608791ce6787d609d8099456e04 (MD5) / Rejected by Sheila Dias (sheila.dias@pucrs.br), reason: Devolvido devido ao trabalho que foi enviado ser de outro aluno. No TEDE est? o nome de um aluno com o t?tulo de um trabalho e no arquivo PDF que veio, est? um outro trabalho de outro aluno. on 2018-10-26T13:20:54Z (GMT) / Submitted by PPG Ci?ncia da Computa??o (ppgcc@pucrs.br) on 2018-10-26T15:12:04Z No. of bitstreams: 1 GUILHERME MACHADO DE CASTILHOS.DIS.pdf: 4635819 bytes, checksum: a352dd213c362adb08b9c172c053a214 (MD5) / Approved for entry into archive by Caroline Xavier (caroline.xavier@pucrs.br) on 2018-10-30T16:51:02Z (GMT) No. of bitstreams: 1 GUILHERME MACHADO DE CASTILHOS.DIS.pdf: 4635819 bytes, checksum: a352dd213c362adb08b9c172c053a214 (MD5) / Made available in DSpace on 2018-10-30T16:56:34Z (GMT). No. of bitstreams: 1 GUILHERME MACHADO DE CASTILHOS.DIS.pdf: 4635819 bytes, checksum: a352dd213c362adb08b9c172c053a214 (MD5) Previous issue date: 2017-08-10 / Thermal cycles and high temperatures can have a significant impact on the systems performance, power consumption and reliability, which is a major and increasingly critical design metric in emerging multi-processor embedded systems. Existing thermal management techniques rely on physical sensors to provide them temperature values to regulate the system?s operating temperature and thermal variation at runtime. However, on-chip thermal sensors present limitations (e.g., extra power and area cost), which may restrict their use in large-scale systems. In this context, this Thesis proposes a lightweight software-based runtime temperature model, enabling to capture detailed temperature distribution information of multiprocessor systems with negligible overhead in the execution time. The temperature model is embedded in a distributedmemory MPSoC platform, described at the RTL level. Results show that the average absolute temperature error estimation, compared to the HotSpot tool is smaller than 4% in systems with up to 36 processing elements. Task mapping is the process selected to act in the system, using the temperature information generated by the proposed model. Task mapping is the process of assigning a processing element to execute a given task. The number of cores in many-core systems increases the complexity of the task mapping. The main concerns of task mapping for large systems include (i) scalability; (ii) dynamic workload; and (iii) reliability. It is necessary to distribute the mapping decisions across the system to ensure scalability. The workload of emerging many-core systems may be dynamic, i.e., new applications may start at any moment, leading to different mapping scenarios. Therefore, it is necessary to execute the mapping process at runtime to support dynamic workload. The workload assignment plays a major role in the many-core system reliability. Load imbalance may generate hotspots zones and consequently thermal implications. Recently, task mapping techniques aiming at improving system reliability have been proposed in the literature. However, such approaches rely on centralized mapping decisions, which are not scalable. To address these challenges, the main goal of this Thesis is to propose a hierarchical runtime mapping heuristic, which provides scalability and fair thermal distribution. Thermal distribution inside the system increases the system reliability in long-term, due to the reduction of hotspot regions. The proposed mapping heuristic considers the PE temperature as a cost function. The proposal adopts a hierarchical thermal monitoring scheme, able to estimate at runtime the instantaneous temperature at each processing element. The mapping uses the temperature estimated by the monitoring scheme to guide the mapping decision. Results compare the proposal against a mapping heuristic whose main cost function minimizes the communication energy. Results obtained in large systems, show a decrease in the maximum temperature (best case, 8%) and improvement in the thermal distribution (best case, 50% lower standard deviation of processor temperatures). Such results demonstrate the effectiveness of the proposal. Also, a 45% increase in the lifetime of the system was achieved in the best case, using the proposed mapping. / As altas varia??es t?rmicas e de temperatura de opera??o podem ter um impacto significativo no desempenho do sistema, consumo de energia e na confiabilidade, uma m?trica cada vez mais cr?tica em sistema multiprocessados. As t?cnicas de gerenciamento t?rmico existentes dependem de sensores f?sicos para fornecer os valores de temperatura para regular a temperatura de opera??o e a varia??o t?rmica do sistema em tempo de execu??o. No entanto, os sensores t?rmicos em um chip apresentam limita??es (por exemplo, custo extra de pot?ncia e de ?rea), o que pode restringir seu uso em sistemas com uma grande quantidade de processadores. Neste contexto, esta Tese prop?e um modelo de temperatura baseado em software, realizado em tempo de execu??o, permitindo capturar informa??es detalhadas da distribui??o de temperatura de sistemas multiprocessados com custo m?nimo no desempenho das aplica??es. Para validar a proposta, o modelo foi inclu?do em uma plataforma MPSoC com mem?ria distribu?da, descrita no n?vel RTL. Al?m disso, os resultados mostram que o erro absoluto m?dio da estimativa de temperatura, em compara??o com a ferramenta HotSpot, ? menor do que 4% em sistemas com at? 36 elementos de processamento. O mapeamento de tarefas foi o processo escolhido para atuar no sistema, utilizando as informa??es de temperatura geradas pelo modelo proposto. O mapeamento de tarefas ? o processo de selecionar um elemento de processamento para executar uma determinada tarefa. O n?mero de n?cleos em sistemas multiprocessados, aumenta a complexidade do mapeamento de tarefas. As principais preocupa??es no mapeamento de tarefas em sistemas de grande porte incluem: (i) escalabilidade; (Ii) carga de trabalho din?mica; e (iii) confiabilidade. ? necess?rio distribuir a decis?o de mapeamento em todo o sistema para assegurar a escalabilidade. A carga de trabalho de sistemas multiprocessados pode ser din?mica, ou seja, novas aplica??es podem come?ar a qualquer momento, levando a diferentes cen?rios de mapeamento. Portanto, ? necess?rio executar o processo de mapeamento em tempo de execu??o para suportar carga din?mica de trabalho. A atribui??o de carga de trabalho desempenha um papel importante na confiabilidade do sistema. O desequil?brio de carga pode gerar zonas de hotspot e consequentemente implica??es t?rmicas. Recentemente, t?cnicas de mapeamento de tarefas com o objetivo de melhorar a confiabilidade do sistema foram propostas na literatura. No entanto, tais abordagens dependem de decis?es de mapeamento centralizado, que n?o s?o escal?veis. Para enfrentar esses desafios, esta Tese prop?e uma heur?stica de mapeamento hier?rquico realizado em tempo de execu??o, que ofere?a escalabilidade e uma melhor distribui??o t?rmica. A melhor distribui??o t?rmica dentro do sistema aumenta a confiabilidade do sistema a longo prazo, devido ? redu??o das varia??es t?rmicas e redu??o de zonas de hotspot. A heur?stica de mapeamento proposta considera a temperatura do PE como uma fun??o custo. A proposta adota um esquema hier?rquico de monitoramento de temperatura, capaz de estimar em tempo de execu??o a temperatura instant?nea de cada elemento de processamento. O mapeamento usa a temperatura estimada pelo m?todo de monitoramento para orientar a decis?o de mapeamento. Os resultados comparam a proposta com uma heur?stica de mapeamento cuja principal fun??o de custo minimiza a energia de comunica??o. Os resultados obtidos mostram diminui??o da temperatura m?xima (melhor caso, 8%) e melhora na distribui??o t?rmica (melhor caso, valor 50% menor do desvio padr?o das temperaturas dos processadores). Al?m disso, alcan?ou-se, no melhor caso, um aumento de 45% no tempo de vida do sistema utilizando o mapeamento proposto.
712

Adaptação transcultural e avaliação das propriedades psicométricas do Determine Your Nutritional Health®, para idosos, no município de São Paulo - SP, Brasil / Cross-cultural adaptation and assessment of the psychometric properties of the Determine Your Nutritional Health®, for older people, in São Paulo - SP, Brazil

Manuela de Almeida Roediger 25 September 2015 (has links)
Introdução: A triagem nutricional é um método utilizado mundialmente, para identificar indivíduos em risco nutricional, sendo os idosos o segmento populacional mais vulnerável. No entanto, no Brasil, ainda não existem métodos específicos para triagem nutricional de idosos domiciliados. Objetivos: i) identificar métodos de triagem nutricional para idosos domiciliados e selecionar o mais adequado para utilização no Brasil; ii) realizar a adaptação transcultural e validação de conteúdo do método selecionado; e iii) verificar as propriedades psicométricas de confiabilidade, de validade e de equivalência operacional do método selecionado. Métodos: Esta tese é composta por três manuscritos. O primeiro apresenta revisão sistemática de métodos de triagem nutricional para idosos domiciliados, publicados nas bases de dados PubMed, LILACS e Web of Science, no período de 1990 a 2012. O segundo descreve o processo de adaptação transcultural e validação de conteúdo do método selecionado, Determine Your Nutritional Health® (DNH), para o Brasil. O terceiro analisou a versão brasileira do método de triagem nutricional Verifique a condição nutricional do idoso, quanto à confiabilidade (pelo teste de McNemar e gráficos de Bland & Altman), à validade discriminante (pela correlação entre o resultado do escore final de triagem nutricional, com as variáveis antropométricas e indicadores nutricionais, utilizando o teste de Mann Whitney) e à equivalência operacional (pelos dados relativos à duração de realização do método e pelo grau de entendimento pela escala Likert entre 1 a 5 ). Resultados: Manuscrito 1: 12 métodos de triagem nutricional que atenderam aos critérios de elegibilidade foram descritos, segundo suas características, forma de identificação do risco nutricional, propriedades psicométricas e aspectos operacionais, sendo selecionado para adaptação transcultural para o Brasil, o método DNH. Manuscrito 2: Adaptações de palavras e expressões foram realizadas originando a versão brasileira Verifique a condição nutricional do idoso apresentando as mesmas questões da versão original do DNH, contudo, em formato mais claro, por meio de perguntas, consideradas acessíveis e de fácil entendimento. Manuscrito 3: Constatou-se que o método Verifique a condição nutricional do idoso é confiável, ou seja, foi capaz de reproduzir respostas semelhantes quando realizadas duas vezes (em momentos diferentes) no mesmo indivíduo, mostrou resultados suficientes quanto à validação discriminante e apresentou duração média da entrevista de 7 minutos, com nota média geral de entendimento de 4,8. Conclusões: O método de triagem nutricional DNH foi selecionado como o mais adequado para adaptação transcultural para o Brasil. Seu processo de adaptação resultou na versão brasileira Verifique a condição nutricional do idoso. Esse método mostrou-se confiável e apresentou resultados suficientes referentes à sua validade discriminante e equivalência operacional, constituindo uma alternativa preventiva para ser utilizada, por profissionais de saúde, com a finalidade de alertar os idosos, quanto à sua condição nutricional para procurarem ajuda especializada. / Background: The nutritional screening is a method used worldwide to identify individuals at nutritional risk, being the older people the most vulnerable population segment. However, in Brazil, there are still no specific methods for nutritional screening in older domiciled people. Objectives: i) identify nutritional screening methods for older domiciled people and select the most adequate for the use in Brazil; ii) carry out the cross-cultural adaptation and validation of content of the method selected; and iii) verify the psychometric properties of reliability, validity and operational equivalence of the method selected. Methods: This thesis is composed of three manuscripts. The first presents a systematic review of nutritional screening methods for the use in older domiciled people published in the databases PubMed, LILACS and Web of Science from 1990 to 2012. The second describes the process of cultural adaptation and validation of contents of the selected method, Determine Your Nutritional Health® (DNH) to Brazil. The third analyzed the Brazilian version of the nutritional screening method \"Verify the condition nutritional of the older people\", regarding the reliability (by the McNemar test and Bland & Altman), the discriminate validity (by correlation between the result of the final score of the screening nutrition, with the anthropometric variables and nutritional indicators, using the Mann-Whitney test) and operational equivalence (by data on the duration of implementation of the method and degree of understanding by Likert scale of 1-5). Results: Manuscript 1: 12 nutritional screening methods which attended the eligibility criteria were described, according to their characteristics, form of identification of nutritional risk, psychometric properties and operational aspects, being selected for cross-cultural adaptation to Brazil, the DNH method. Manuscript 2: Adaptations of words and expressions were made resulting in the Brazilian version of \"Verify the condition nutritional of the older people\", presenting the same issues of the original version of DNH, however, in clearer format, through questions considered accessible and easy to understand. Manuscript 3: It was found that the \"Verify the condition nutritional of the older people\" is reliable, that is, was able to reproduce similar responses when carried out twice (at different moments) with the same individual. It showed sufficient results regarding the discriminate validity and presented an average duration of 7 minutes to carry out the method, with a 4.8 general average grade of understanding. Conclusions: The nutritional screening method DNH was selected as the most adequate for cross-cultural adaptation to Brazil. Its adjustment process resulted in the Brazilian version of \"Verify the condition nutritional of the older people\". This method proved to be reliable and presented results sufficient regarding its discerning validity and operational equivalence, constituting a preventative alternative to be used by health professionals, with the purpose of alerting the older people about their nutritional condition to seek specialized help.
713

Catálogo de abordagens de apoio à rastreabilidade de requisitos baseado em uma revisão sistemática da literatura.

MALCHER, Paulo Robson Campelo January 2015 (has links)
Rastreabilidade de Requisitos é uma atividade de grande importância no contexto da Gerência de Requisitos em Projetos de software e pode ser definida como a atividade que acompanha um requisito em todo seu ciclo de vida. Nesse sentido, diversas abordagens (técnicas, modelos de processos, frameworks de processo, ferramenta, metodologias e afins) de apoio a rastreabilidade encontram-se dispersas na literatura para que se possam atingir os níveis de produtividade e qualidade desejados. Neste contexto, este trabalho visa contribuir por meio de um catálogo de abordagens de apoio a atividade de rastreabilidade de requisito, que é um instrumento que reúne estas abordagens a fim de facilitar e ajudar organizações na sua escolha. Para alcançar tal resultado foi utilizado o método da Engenharia de Software Baseada em Evidências chamado Revisão Sistemática da Literatura, devido a este método ser confiável, rigoroso e auditável, tendo assim, como objetivo investigar na literatura tais abordagens e boas práticas de rastreabilidade de requisitos no contexto de projetos de software.
714

Aperfeiçoamento de um produto através do estudo de sua confiabilidade como um fator de valor. / Product improvement through the study of its reliability as a factor value.

Mizuno, Caroline Sayuri 10 May 2010 (has links)
A presente dissertação deseja mostrar a utilização do estudo de confiabilidade como uma ferramenta de melhoria de projeto de um produto. Para atingir o objetivo estudou-se a melhoria de um retentor automotivo através do estudo de sua confiabilidade e utilizando técnicas de engenharia do valor. Com esse estudo pretende-se mostrar a relação dos dados de campo e ensaios funcionais utilizados. Através da análise dos dados de campo, foi selecionada uma característica funcional a ser melhorada no produto. A técnica de engenharia do valor aplicada ao produto resultou na variável que deveria ser melhorada no produto, e a análise de confiabilidade antes e após a alteração no produto, juntamente com os ensaios funcionais acelerados mostram a eficácia da melhoria realizada no produto. / This research aims to show a way to use the reliability study as a tool to guarantee the improvements in a product design. To reach the goal, a improvement in a oil seal was executed through the study of its reliability and using the value engineer technique. This study aims to show the relationship between the field information and functional tests. Through the analysis of field information, the functional characteristic that must be improved in the product was selected, and the value engineering technique application result in an element that must be improved in a product. The reliability study after and before the change in product, together with functional tests showed the efficiency of the change in the product aimingat improving its operational life.
715

Otimização de risco estrutural baseada em confiabilidade / Reliability-based structural risk optimization

Verzenhassi, Camila Cardozo 28 March 2008 (has links)
Em um ambiente competitivo, sistemas estruturais devem ser projetados levando-se em conta, além da funcionalidade, o custo total de construção e operação da estrutura, bem como a sua capacidade de geração de lucro. Os custos estão diretamente ligados ao risco que a construção e operação da estrutura oferecem. O risco deve ser entendido como o produto de um custo esperado de falha pela probabilidade de que essa falha aconteça. A segurança da estrutura está diretamente relacionada com os coeficientes de segurança adotados em projeto. Verifica-se, portanto, que a minimização do custo total de um sistema estrutural passa, necessariamente, por uma otimização do nível de segurança para o qual o sistema é projetado. Diante desses fatos, neste trabalho realiza-se a busca do coeficiente de segurança parcial ótimo que minimiza o custo esperado total de sistemas estruturais: a chamada otimização de risco baseada em confiabilidade. Para tanto, foi desenvolvido um programa computacional em Fortran que encontra o coeficiente de segurança ótimo. Tal programa está acoplado a um programa de análise de confiabilidade estrutural desenvolvido na EESC/USP e a um programa comercial de elementos finitos. O trabalho inclui alguns estudos de caso, entre eles o de uma torre de telefonia sujeita a cargas de vento e de tornado. Esses estudos mostram que quando parcelas não estruturais dominam o custo, um projeto super-dimensionado não representa grande perda econômica, enquanto um projeto sub-dimensionado pode causar enormes prejuízos. O trabalho aponta que a confiabilidade ótima é altamente dependente das conseqüências e custos de falha. Mostra também que casualidades que possuem grande incerteza e grandes conseqüências de falha tendem a dominar o projeto. O estudo indica que, em situações de projeto diferentes (e.g., carregamentos diferentes), é razoável trabalhar-se com níveis de confiabilidade distintos. Além disso, mostra que a falta de percepção do risco pelas partes envolvidas em um projeto pode levar a contratos inadequados. Finalmente, o estudo revela que para uma estrutura submetida a carregamentos que variam com o tempo, como tornados, o custo e a confiabilidade ótimos são altamente dependentes da vida útil adotada para o projeto. / In a competitive environment, structural systems must be designed considering not only their function, but also their total costs of construction and operation and their ability to generate profit. The costs are directly linked to the risk resulting from construction and operation of the structure. Risk is defined as the product of failure cost by failure probability. The safety of the structure is directly related to safety coefficients adopted in design. Hence, the minimization of the total cost of a structural system necessarily involves an optimization of the safety level for which the system is designed. Based on these facts, the present study investigates the partial safety factor which minimizes the total expected cost of specific structural systems. This is referred to as reliability-based risk optimization. A Fortran computer code is developed to find the optimum safety factor. This code works together with a structural reliability analysis program developed at EESC/USP and with a commercial finite element program. Some case studies are presented, including the design of a steel frame communications tower, subjected to extreme storm and tornado wind loads. These studies show that when non-structural terms dominate the cost function, it is not too costly to over-design, but an under-designed project can cause huge money losses. The study shows that optimum reliability is strongly dependant on limit state exceedance consequences. It also shows that events with high uncertainty and high failure consequences generally dominate the design, and that for different design situations (e.g., multiple hazards) it is reasonable to work with different reliability levels. Moreover, it shows that when risk is not properly understood, it is also not properly dealt with by the parties involved, leading to inadequate contracts. Finally, the study shows that for structures under time-varying loads, such as tornados, the optimum reliability is strongly dependent on the selected design life.
716

Arquitetura modular de processador multicore, flexível, segura e tolerante a falhas, para sistemas embarcados ciberfísicos. / Modular multicore processor architecture, flexible, securi and fault tolerant, to embedded cyber-physical systems.

Penteado, Cesar Giacomini 08 December 2010 (has links)
Sistemas Ciberfísicos (SCF) são sistemas onde existe uma união entre computação e física. Os SCF serão utilizados nas mais diversas áreas, formando uma nova era de produtos e estarão em qualquer lugar, sendo utilizados por qualquer um e para qualquer tarefa. Aplicações para SCF incluem sistemas e dispositivos médicos altamente confiáveis, controle de tráfego e segurança, sistemas automotivos avançados, controle de processos, conservação de energia, controle ambiental, aviação, instrumentação, controle de infra estrutura crítica, sistemas de defesa, fabricação e estruturas inteligentes. O cenário de sistemas ciberfísicos (SCF) exigirá dos processadores de sistemas embarcados melhorias em características além de processamento de I/O, consumo de energia e comunicação, ou seja, as futuras arquiteturas de processadores deverão possuir também características de segurança, tolerância à falhas e flexibilidade arquitetural para adequação aos diversos cenários alvo de SCF. Neste contexto, nesta tese de doutorado, idealizou-se uma arquitetura modular multicore (AMM), voltada à SCF, composta por processadores multicore, hardware dedicado ou ambos. Dessa maneira, propõe-se um processador para a arquitetura AMM e avalia-se seu correto funcionamento por meio de simulações no software Modelsim e ferramentas de simulação de circuitos integrados. Apresenta-se um protótipo para uma primeira versão da arquitetura AMM e detalham-se alguns programas especificamente escritos para comprovar as principais características da arquitetura. Na tese, apresentam-se testes funcionais em FPGA para o processador base do protótipo AMM, dados de utilização do protótipo do processador da arquitetura AMM em FPGA e um protótipo do processador da AMM em silício. Analisa-se o protótipo da arquitetura AMM com aplicações criticas e de uso em SCF, tais como: segurança, redundância, e tolerância a falhas; as quais permitem concluir que os processadores futuros de SCF devem ter essas características. A tese mostra que esses quesitos podem ser incluídos em sistemas embarcados com características multicore dedicados a aplicações e necessidades de sistemas SCF. / Cyber-physical Systems (CPS) are systems where there is an union between computing and physics. The CPS will be used in several areas, forming a new era of systems or devices and could be anywhere, being used by anyone and anything. Applications for CPS include highly reliable medical systems and devices, traffic control and security, advanced automotive, process control, energy conservation, environmental control, aviation, instrumentation, control of critical infrastructure, defense systems, manufacturing, and smart structures. So, CPS scenario needs requirements design of embedded systems, composed by processors with new features in addition to I/O processing, power consumption, and communication. Then, the future of processor architectures should also have security, fault tolerance, architectural adaptation and flexibility to various and different scenarios. In this context, in this thesis, it is proposed a modular architecture to multicore processor (AMM) to use in the CPS. It is composed by multicore processors, dedicated hardware or both. Thus, in this thesis, we have proposed one processor architecture and we have done verification based on simulations using Modelsim software and simulation tools for integrated circuits, and we have running applications programs to demonstrate the main features of the AMM architecture. We also show a prototype of AMM using FPGA as well as implementation data such as FPGA usage and resources in silicon area. It is also presented an ASIC prototype of AMM core. The prototype architecture of the AMM was analyzed with critical applications which are used in CPS, such as security, redundancy and fault tolerance, and these tests suggest that the future CPS processors must have those characteristics. Thus, the thesis shows that these aspects can be included in embedded systems with dedicated features to multicore applications and systems used in CPS.
717

Avaliação de incertezas em modelo de dano com aplicação a prismas de alvenaria sob compressão / Evaluation of model uncertainties of a damage model with application in masonry prisms under compression

Gonçalves Júnior, Luiz Aquino 27 August 2008 (has links)
A norma brasileira de cálculo de alvenaria é baseada no método de tensões admissíveis e passa por revisão para ser escrita no método dos estados limites. A confiabilidade estrutural é um ramo da engenharia que mede segurança das estruturas, sendo muitas vezes empregada para calibrar fatores de segurança. Para medir a confiabilidade de uma estrutura deve-se conhecer as incertezas que envolvem o problema. A incerteza de modelo estima a tendência do modelo (que pode ser eventualmente ser eliminada) e a variância do modelo (uma medida da sua variabilidade). O presente trabalho propõe um método de cálculo da incerteza de um modelo numérico de um prisma formado por três unidades concreto sujeito à compressão. O estudo numérico é feito em elementos finitos com análise não-linear baseada em dano. A incerteza é avaliada através de variáveis de projeto: tensão máxima, deformação na tensão máxima e módulo de elasticidade. São aplicados métodos probabilísticos para comparar resultados numéricos e ensaios experimentais disponíveis na literatura. Confronta-se a probabilidade de falha resultante de resistências corrigidas, sem correção e obtidas experimentalmente. Conclui-se que a incerteza de modelo é importante para quantificar a medida de segurança e deve ser levada em conta na análise da confiabilidade de uma estrutura. O procedimento também é útil para qualificar e comparar modelos de cálculo, com aplicações em alvenaria ou quaisquer outros tipos de estruturas. / The brazilian masonry code is based on the allowable stress method and is currently in revision to be written in the partial safety factor format. Structural reliability is a branch of engineering which allows quantitative evaluation of the safety of structures, being useful in the calibration of safety factors. To measure structural safety, it is necessary to know the uncertainties present in the problem. Model error variables estimate the bias of the model (wich can eventually be eliminated) and the variance of the model (a measure of the model variability). The present work suggests a method for evaluation of modeling uncertainty of the resistence of a prism made of three concrete units subject to compression. The numerical study is based on the finite element method and nonlinear analysis with damage mechanics. The uncertainty is evaluated by design variables: maximum stress, deformation in maximum stress and elasticity modulus of the prism. A probabilistic method is used to compare numerical results with experimental results taken from the literature. The probability of failure based on experimental resistances are compared with the probability of failure based on the model and corrected resistances. It is concluded that the model uncertainty is important to quantify safety and must be taken into account in structural reliability analysis. The procedure is also useful to qualify and compare different models, with application to masonry or other kinds of structural materials.
718

Modelagem de dados de falhas de equipamentos de sub-superf?cie em po?os de petr?leo da Bacia Potiguar / Modellinf of data of flaws of equipmente of sub-surface in oil well of the Bacia Potiguar

Dantas, Maria Aldilene 28 April 2008 (has links)
Made available in DSpace on 2014-12-17T14:52:40Z (GMT). No. of bitstreams: 1 MariaAD.pdf: 1151403 bytes, checksum: ec2a5410864dfc28e3a9b2591ef3f6f8 (MD5) Previous issue date: 2008-04-28 / This master?s thesis presents a reliability study conducted among onshore oil fields in the Potiguar Basin (RN/CE) of Petrobras company, Brazil. The main study objective was to build a regression model to predict the risk of failures that impede production wells to function properly using the information of explanatory variables related to wells such as the elevation method, the amount of water produced in the well (BSW), the ratio gas-oil (RGO), the depth of the production bomb, the operational unit of the oil field, among others. The study was based on a retrospective sample of 603 oil columns from all that were functioning between 2000 and 2006. Statistical hypothesis tests under a Weibull regression model fitted to the failure data allowed the selection of some significant predictors in the set considered to explain the first failure time in the wells / Esta disserta??o apresenta uma aplica??o do estudo da confiabilidade em dados de tempo de vida de po?os petrol?feros terrestres produtores de ?leo da Bacia Potiguar (RN/CE). A vari?vel resposta do nosso estudo ? o tempo de funcionamento do po?o dentro de sua normalidade at? apresentar a primeira falha relacionada a equipamentos de subsuperficie, que cause uma parada total no funcionamento do po?o. O principal objetivo do estudo foi, com base em um conjunto de dados reais fornecidos pela PETROBRAS, verificar a exist?ncia do relacionamento do tempo de vida com diversas caracter?sticas dos po?os como, m?todo de eleva??o utilizado, quantidade de ?gua produzida (BSW Basic Sediments and Water), Raz?o G?s ?leo (RGO), profundidade de instala??o da bomba, unidade operacional de origem, entre outras. Neste trabalho foi feito um estudo retrospectivo com uma amostra composta por 603 po?os-colunas que estavam em funcionamento no per?odo de 2000 a 2006. A modelagem probabil?stica dos dados foi feita atrav?s do ajuste do modelo de regress?o Weibull. O ajuste deste modelo se mostrou apropriado aos dados e permitiu avaliar, atrav?s de testes estat?sticos de hip?teses, os fatores significativamente relacionados com o tempo at? a falha dos po?os
719

[en] SEISMIC RISK ANALYSIS OF STRUCTURES AND SYSTEM COMPONENTS / [pt] ANÁLISE PROBABILÍSTICA DE SEGURANÇA SÍSMICA DE SISTEMAS E COMPONENTES ESTRUTURAIS

ANDREIA ABREU DINIZ DE ALMEIDA 28 May 2002 (has links)
[pt] Apresenta-se uma metodologia geral para a avaliação do risco sísmico em sistemas estruturais de engenharia civil com particularizações para edifícios e, a seguir, executam- se aplicações para exemplificar a proposta e para o desenvolvimento de procedimentos complementares aos adotados na prática por métodos determinísticos. Para tal, considera-se a excitação sísmica como um processo aleatório fracamente estacionário, definido por uma função de densidade de espectro de potência da aceleração do movimento do terreno e, no domínio da frequência, determinam-se funções semelhantes para as respostas estruturais. Considera-se, a seguir, o problema de primeira ultrapassagem, de acordo com a solução de Vanmarcke, para determinar a distribuição de probabilidade das respostas estruturais permanecerem abaixo dos níveis numericamente especificados, designados de barreiras. A partir dessas probabilidades, prossegue-se para desenvolver: - uma metodologia para análise de risco sísmico de estruturas prediais, incluindo uma fase preliminar de avaliação da ameaça sísmica para o território nacional; - recursos para avaliação do compromisso probabilístico entre uma função de densidade de espectro de potência da excitação sísmica, para uma região, e um espectro de resposta de projeto proposto para o mesmo local; - o conceito e o procedimento para geração de um espectro de resposta uniformemente provável a ser utilizado para análise do sistema principal e de um espectro de resposta acoplado uniformemente provável para o caso dos sistemas secundários; - uma comparação entre a capacidade a ações horizontais eólicas de estruturas prediais correntes, no Brasil, e o significado dessa resistência para os requisitos de demanda decorrente dos sismos prováveis; - um procedimento para geração de uma função de densidade de espectro de potência objetivo associada a um espectro de resposta de projeto prescrito. A implementação computacional da análise estrutural no domínio da frequência utiliza parcialmente o programa SASSI-2000 e a análise probabilística usa os programas APESS e CA desenvolvidos internamente ao trabalho. / [en] One presents a general methodology to the evaluation of the seismic risk to civil engineering structures, with emphasis to building systems, and in sequence a series of applications is made to exemplify this proposal and to develop complementary procedures to the deterministic structural analysis. On this way, one considers the structural seismic excitation as a weakly stationary random process mainly defined by a ground acceleration power density function and one determines, in the frequency domain, similar structural response quantity functions. One applies, to this response functions, the first passage problem solution according to Vanmarcke and so determining the distribution probability functions of these maximum structural response quantities to remain below specified numerical levels, which are called barriers. From these probability distributions, one proceeds to develop: − a methodology to the structural seismic risk analysis, including a previous phase to define the seismic hazard over the Brazilian territory; − tools to evaluated the probabilistic compromise between a power spectrum density function of the seismic excitation for a region and a design response spectrum proposed to the same area; − the idea of a uniformly probable design response spectrum and the procedures to generate this function to be used in the analyses of the primary system; and to produce a uniformly probable coupled response spectrum for the analyses of secondary systems; − a comparison between the wind horizontal action capacity of regular building structures in Brazil and the capability which would be expected to the seismic hazard; − a procedure to generate a target power spectrum density function for the seismic hazard probabilistically associated to a prescribed design response spectrum for a site. The computational support to the frequency domain structural analysis is taken partially from SASSI-2000 program and the probabilistic paths are made by APESS and CA programs which have been developed inside this work.
720

ADC : ambiente para experimentação e avaliação de protocolos de difusão confiável / Reliable broadcast protocols experimentation and evaluation environment (ADC)

Barcelos, Patricia Pitthan de Araujo January 1996 (has links)
Uma tendência recente em sistemas de computação é distribuir a computação entre diversos processadores físicos. Isto conduz a dois tipos de sistemas: sistemas fortemente acoplados e sistemas fracamente acoplados. Este trabalho enfoca os sistemas de computação classificados como fracamente acoplados, ou sistemas distribuídos, como são popularmente conhecidos. Um sistema distribuído, segundo [BAB 86], pode ser definido como um conjunto de processadores autônomos que não compartilham memória, não tem acesso a clocks' globais e cuja comunicação é realizada somente por troca de mensagens. As exigências intrínsecas de sistemas distribuídos compreendem a confiabilidade e a disponibilidade. Estas exigências tem levado a um crescente interesse em técnicas de tolerância a falhas, cujo objetivo é manter a consistência do sistema distribuído, mesmo na ocorrência de falhas. Uma técnica de tolerância a falhas amplamente utilizada em sistemas distribuídos é a técnica de difusão confiável. A difusão confiável é uma técnica de redundância de software, onde um processador dissemina um valor para os demais processadores em um sistema distribuído, o qual esta sujeito a falhas [BAB 85]. Por ser uma técnica básica de comunicação, diversos procedimentos de tolerância a falhas baseiam-se em difusão confiável. Este trabalho descreve a implementação de um ambiente de apoio a sistemas distribuídos intitulado Ambiente para Experimentação e Avaliação de Protocolos de Difusão Confiável (ADC). Neste ambiente são utilizados os recursos da difusão confiável para a obtenção de uma concordância entre todos os membros do sistema livres de falha. Esta concordância, conhecida como consenso, é obtida através de algoritmos de consenso, os quais visam introduzir o grau de confiabilidade exigido pelos sistemas distribuídos. O ADC (Ambiente para Experimentação e Avaliação de Protocolos de Difusão Confiável) foi desenvolvido em estações de trabalho SUN (SunOS) utilizando o sistema operacional de rede heterogêneo HetNOS [BAA 93] desenvolvido na UFRGS. O ambiente foi implementado com base em um estudo realizado sobre protocolos de difusão confiável [BAR 94]. Através da implementação do ADC e possível simular a execução de protocolos de difusão confiável aplicando modelos propostos para os mesmos. Desta execução são extraídos resultados, sobre os quais pode-se realizar uma analise. Esta análise tem sua fundamentação principalmente nos parâmetros de desempenho, confiabilidade e complexidade. Tanto a implementação do ADC como a realização da analise do modelo proposto foram realizados tendo como suporte alguns dos protocolos de difusão confiável disponíveis na literatura. O principal objetivo deste ambiente consiste na experimentação, ou seja, na verificação da relação teórico-prática dos sistemas distribuídos perante a utilização de uma técnica de redundância de software, a difusão confiável. Através deste ambiente torna-se possível a determinação de parâmetros tais como o número de mensagens de difusão trocadas entre os processos, o número de mensagens de retransmissão enviadas, o número de mensagens emitidas durante todo o processamento do modelo, etc. Estes parâmetros resultam numa analise consistente de protocolos de difusão confiável. / A recent trend in computing systems is to distribute the computation between several physical processors. This leads to two different systems: closely coupled systems and loosely coupled systems. This work focuses on computing systems classified as loosely coupled or distributed systems, as they are commonly known. According to [BAB 86], a distributed system can be defined as a set of autonomous processors with no shared memory, no global clocks and whose comunication is performed only by message exchange. The inherent requirements of distributed systems include reliability and availability. These have caused an increasing interest in fault tolerance techniques, whose goal is to keep the distributed system consistent despite failures. A fault tolerance technique largely used in distributed systems is reliable broadcast. Reliable broadcast is a software redundancy technique, where a processor disseminates a value to other processors in a distributed system, in which failures can occur [BAB85]. Because it is a basic communication technique, several fault tolerance procedures are based on reliable broadcast. This work describes the implementation of a support environment for distributed systems called Reliable Broadcast Protocols Experimentation and Evaluation Environment (ADC). Reliable broadcast resources are used in this environment to obtain an agreement among all off-failure system components. This agreement, called consensus, has been obtained through consensus algorithms, which aim to introduce the reliability degree required in distributed systems. The ADC has been developed in Sun workstation (SunOS) using the heterogeneous operating system HetNOS [BAA 93] which was developed at UFRGS. The environment has been implemented based on a research about reliable broadcast protocols [BAR 94]. Through the ADC it is possible to simulate the execution of reliable broadcast protocols applying proposed models to them. From this execution results are extracted, and over them analysis can be done. This analysis has been based essentialy in parameters such as performance, reliability and complexity. Some classical reliable broadcast protocols were used as a support to ADC implementation and model analysis. The main goal of this environment consists in validating diffusion protocols in a practical distributed systems environment, facing reliable broadcast. Through this environment it can be possible the analysis of important parameters resolution such as the number of messages exchanged between process, the number of retransmission of messages sent, the number of messages sent during the whole model processing, others. These parameters result in a consistent analysis of reliable broadcast protocols.

Page generated in 0.0495 seconds