• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1006
  • 30
  • 15
  • 11
  • 6
  • 6
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 1065
  • 559
  • 344
  • 196
  • 135
  • 107
  • 100
  • 93
  • 81
  • 80
  • 78
  • 78
  • 76
  • 72
  • 71
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Desenvolvimento de novos produtos considerando aspectos de confiabilidade, risco e ferramentas de qualidade. / New product development considering reliability, risk analysis and quality tools

Carlos Alberto Murad 16 June 2011 (has links)
A intensa competição no mercado global e as constantes mudanças nas exigências dos clientes têm feito com que muitas empresas repensem seus processos de negócios não somente para sobreviver, mas também para se manterem competitivas no mercado atual. O processo de desenvolvimento de produtos é um fator importante para qualquer empresa se manter competitiva neste cenário. A falta de um bom processo de desenvolvimento de produtos é sem dúvida uma grande desvantagem para uma empresa. Somente um bom processo de desenvolvimento não garante a vantagem competitiva das empresas, é necessário também que seus produtos sejam confiáveis e para que isto aconteça torna-se essencial desenvolver produtos com qualidade, através do uso disciplinado e constante de ferramentas de qualidade. Para ser competitivo um produto precisa ser desenvolvido com o mínimo de tempo, recursos e custo, para atender às necessidades de mercado. Algumas metodologias foram desenvolvidas e estas focam no desenvolvimento de um produto sempre pensando nas necessidades da manufatura, montagem, qualidade, confiabilidade e ciclo de vida do produto, evitando mudanças tardias no produto. Muitos estudos acadêmicos e industriais têm sido propostos nesta área. Cada empresa deve encontrar e se adaptar ao processo ou modelo mais adequado para ela dentro das suas necessidades técnicas e culturais. Este estudo apresenta uma metodologia a ser usada para melhorar a qualidade do produto e deve ser usada quando da fase conceitual onde se escolhem os melhores sistemas e/ou componentes para formar um novo produto final. / The intense competition in global market along with constant changes in customers demands have forced companies to re-think some of their business processes, not only to survive, but also to stay competitive on this market. The product development process is one of the key business processes for any company to stay competitive and global on this scenario. The lack of a good development process is with no doubt a big disadvantage for any company. Only a good development process does not guarantee a competitive advantage for anyone, it becomes necessary to have reliable products in the field and to make this happens it is vital to develop products with quality through the use of quality tools in a constant and disciplined way. To be competitive, a product needs to be designed in a minimum amount of time, with minimum resources and cost. To meet market needs some methodologies were developed thinking on manufacturing, assembly, quality, reliability and life cycle avoiding late product changes. Many studies academic and industrial have been proposed in this area. Each company has to find and adapt the most appropriate model that fits its technical and cultural needs. This research presents a methodology to be used to improve product quality during the early phases of development when systems and/or components are chosen for a new product.
332

Modelagem dos tempos de falhas ao longo do calendário

Werner, Liane January 1996 (has links)
Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto. / One ways to evaluate the reliability of some product is to verify the behavior of the fails in tests of continuous use. Nevertheless, this information doesn’t allow to know in what date the fail will occur. To solve this impasse, in the present dissertation we approach the modeling of the fails time along the calendar. The modeling of these times allow a better administration of the guarantee’s system and technical maintenance, as well as to provide to the company to estimate and monitorize the reliability of the product. To proceed with the modeling it’s necessary, first of all, to know the distribution of three variables, the product lifetime, in hours of continuous use; the time of product’s use, in hours per day, and the interval of time between the manufacture and the sale, in days. Knowing the behavior of these variables, two alternatives of solution are presented: (a) modeling through Monte Carlo’s simulation and (b) modeling through closed mathematical solution. The cases in what there are one or several groups of customers who make use of the product are discussed.
333

Modelagem dos tempos de falhas ao longo do calendário

Werner, Liane January 1996 (has links)
Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto. / One ways to evaluate the reliability of some product is to verify the behavior of the fails in tests of continuous use. Nevertheless, this information doesn’t allow to know in what date the fail will occur. To solve this impasse, in the present dissertation we approach the modeling of the fails time along the calendar. The modeling of these times allow a better administration of the guarantee’s system and technical maintenance, as well as to provide to the company to estimate and monitorize the reliability of the product. To proceed with the modeling it’s necessary, first of all, to know the distribution of three variables, the product lifetime, in hours of continuous use; the time of product’s use, in hours per day, and the interval of time between the manufacture and the sale, in days. Knowing the behavior of these variables, two alternatives of solution are presented: (a) modeling through Monte Carlo’s simulation and (b) modeling through closed mathematical solution. The cases in what there are one or several groups of customers who make use of the product are discussed.
334

Otimização sob incertezas de estruturas com comportamento não linear utilizando modelos de ordem reduzida

MOTTA, Renato de Siqueira 19 February 2015 (has links)
Submitted by Isaac Francisco de Souza Dias (isaac.souzadias@ufpe.br) on 2016-01-29T18:13:48Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Tese_Renato_VF_envBib_Vf.pdf: 3061970 bytes, checksum: bb1335c8d40e3a2f9e3f638d37abf5d6 (MD5) / Made available in DSpace on 2016-01-29T18:13:49Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Tese_Renato_VF_envBib_Vf.pdf: 3061970 bytes, checksum: bb1335c8d40e3a2f9e3f638d37abf5d6 (MD5) Previous issue date: 2015-02-19 / CNPq / Nas ultimas décadas o tópico de otimização tem ampliado suas aplicações e tem sido bastante aprimorado devido principalmente ao crescimento da capacidade computacional. Entretanto, na maioria das aplicações na engenharia, a abordagem tradicional é considerar modelos determinísticos. Porém algum grau de incerteza ou variação de parâmetros na caracterização de qualquer sistema estrutural é inevitável. Infelizmente a abordagem determinística pode levar a soluções cujo desempenho pode cair significativamente e/ou restrições podem ser violadas devido a perturbações decorrentes de incertezas. Neste trabalho, serão examinadas algumas abordagens para a consideração das incertezas no processo de otimização e assim obter projetos robustos e confiáveis em estruturas com comportamento não lineare. Um projeto robusto é aquele que apresenta, além de bom desempenho, uma baixa variabilidade às incertezas do problema. As medidas de robustez utilizadas aqui foram: a média e a variância da função de interesse. Quando se usa ambas as medidas, à busca por um projeto robusto ótimo, surge como um problema de decisão com múltiplos critérios (otimização multiobjetivo robusta). Para o calculo dos parâmetros estatísticos serão empregadas duas técnicas de análise de propagação de incerteza, o método de Monte Carlo (MC) e o método da colocação probabilística (Probabilistic Collocation Method - PCM). Quando se considera além da robustez, a confiabilidade estrutural, tem-se então, um problema de otimização robusta baseada em confiabilidade (RBRDO, Reliability-Based Robust Design Optimization). Neste tipo de problema, alguma restrição associada à probabilidade de falha está presente em sua formulação. Dois métodos para o cálculo da probabilidade de falha da estrutura foram investigados: o MC e o FORM (First Order Reliability Method). Para avaliar a restrição de confiabilidade em um procedimento de otimização, serão utilizadas duas abordagens: uma abordagem chamada RIA (Reliability index approach), onde é necessário calcular a probabilidade de falha (ou índice de confiabilidade) de cada novo projeto e uma abordagem denominada PMA (Performance Measure Approach), para lidar com este tipo de restrições sem a necessidade do cálculo direto da probabilidade de falha. Serão abordados aqui, problemas que envolvem análise não-linear, utilizando o POD (“Proper Orthogonal Decomposition”) para a redução da ordem do modelo computacional e consequentemente, o tempo computacional. As estruturas consideradas são treliças planas e espaciais e estruturas 2D (estado plano) com as considerações das não linearidades físicas e geométricas. / In recent decades the optimization topic has expanded its applications and has been greatly enhanced due mainly to the growth of the computational power available. However, in most engineering applications, the traditional approach is to consider deterministic models. However some degree of uncertainty or variation in the parametric characterization of any structural system is inevitable. Unfortunately, the deterministic approach can lead to solutions whose performance may degrade significantly and/or constraints may be violated due to perturbations caused by uncertainties. In this thesis, some approaches will be examined for the consideration of the uncertainties in the optimization process and thus obtaining robust and reliable designs of structures with nonlinear behavior. A robust design is one that has, in addition to good performance, a low variability of the problem uncertainties. The robustness measures used here were the mean and the variance of the function of interest. When using both measures, the search for a robust optimum design comes as a decision problem with multiple criteria (robust multi-objective optimization). To calculate statistical parameters two techniques of uncertainty propagation analysis will be employed: the method of Monte Carlo (MC) and the Probabilistic Collocation Method (PCM). When considering the structural reliability, in addition to the robustness, it leads to a Reliability-based Robust Design Optimization (RBRDO) problem. In this type of problem, some constraints related with the probability of failure are present in its formulation. Two methods for the approximated computation of the failure probability of the structure were investigated: the MC and the FORM (First Order Reliability Method). To evaluate the reliability constraint in an optimization procedure, two approaches will be used: an approach called RIA (Reliability index approach) where it is necessary to calculate the probability of failure (or reliability index) of each project and an approach called PMA (Performance Measure Approach), to handle such a restriction without the direct computation of the probability of failure. To reduce the order of the computational model, problems involving nonlinear analysis using the Proper Orthogonal Decomposition (POD) will be addressed here, resulting in reduced computational time. The structures considered are plane and space trusses and 2D structures (plan analysis) with the considerations of physical and geometrical nonlinearities.
335

A novel q-exponential based stress-strength reliability model and applications to fatigue life with extreme values

SALES FILHO, Romero Luiz Mendonça 24 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-08-05T14:42:09Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE PPGEP (Romero Luiz M. Sales Filho).pdf: 3453451 bytes, checksum: be76714c0d9a1e907faa85d15041f6ca (MD5) / Made available in DSpace on 2016-08-05T14:42:09Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) TESE PPGEP (Romero Luiz M. Sales Filho).pdf: 3453451 bytes, checksum: be76714c0d9a1e907faa85d15041f6ca (MD5) Previous issue date: 2016-02-24 / CAPEs / In recent years, a family of probability distributions based on Nonextensive Statistical Mechanics, known as q-distributions, has experienced a surge in terms of applications to several fields of science and engineering. In this work the _-Exponential distribution will be studied in detail. One of the features of this distribution is the capability of modeling data that have a power law behavior, since it has a heavy-tailed probability density function (PDF) for particular values of its parameters. This feature allows us to consider this distribution as a candidate to model data sets with extremely large values (e.g. cycles to failure). Once the analytical expressions for the maximum likelihood estimates (MLE) of _-Exponential are very difficult to be obtained, in this work, we will obtain the MLE for the parameters of the _- Exponential using two different optimization methods: particle swarm optimization (PSO) and Nelder-Mead (NM), which are also coupled with parametric and non-parametric bootstrap methods in order to obtain confidence intervals for these parameters; asymptotic intervals are also derived. Besides, we will make inference about a useful performance metric in system reliability, the called index __(_, where the stress _ and strength are independent q-Exponential random variables with different parameters. In fact, when dealing with practical problems of stress-strength reliability, one can work with fatigue life data and make use of the well-known relation between stress and cycles until failure. For some materials, this kind of data can involve extremely large values and the capability of the q- Exponential distribution to model data with extremely large values makes this distribution a good candidate to adjust stress-strength models. In terms of system reliability, the index _ is considered a topic of great interest, so we will develop the maximum likelihood estimator (MLE) for the index _ and show that this estimator is obtained by a function that depends on the parameters of the distributions for and _. The behavior of the MLE for the index _ is assessed by means of simulated experiments. Moreover, confidence intervals are developed based on parametric and non-parametric bootstrap. As an example of application, we consider two experimental data sets taken from literature: the first is related to the analysis of high cycle fatigue properties of ductile cast iron for wind turbine components, and the second one evaluates the specimen size effects on gigacycle fatigue properties of high-strength steel. / Nos últimos anos, tem sido notado em diversas áreas da ciência e engenharia, um aumento significativo na aplicabilidade da família q de distribuições de probabilidade que se baseia em Mecânica Estatística Não Extensiva. Uma das características da distribuição q-Exponencial é a capacidade de modelar dados que apresentam comportamento de lei de potência, uma vez que tal distribuição possui uma função densidade de probabilidade (FDP) que apresenta cauda pesada para determinados valores de parâmetros. Esta característica permite-nos considerar tal distribuição como candidata para modelar conjuntos de dados que apresentam valores extremamente grandes (Ex.: ciclos até a falha). Uma vez que expressões analíticas para os estimadores de máxima verossimilhança dos parâmetros não são facilmente encontradas, neste trabalho, iremos obter as estimativas de máxima verossimilhança dos parâmetros através de dois métodos de otimização: particle swarm optimization (PSO) e Nelder-Mead (NM), que além das estimativas pontuais, irão nos fornecer juntamente com abordagens bootstrap, intervalos de confiança para os parâmetros da distribuição; intervalos assintóticos também serão derivados. Além disso, faremos inferência sobre um importante índice de confiabilidade, o chamado Índice __(_, onde Y (estresse) e X (força) são variáveis aleatórias independentes. De fato, quando tratamos de problemas práticos de força-estresse, podemos trabalhar com dados de fadiga e fazer uso da bem conhecida relação entre estresse e ciclos até a falha. Para alguns materiais, esse tipo de variável pode apresentar dados com valores muito grandes e a capacidade da q-Exponencial em modelar esse tipo de dado torna essa uma distribuição a ser considerada para ajustar modelos de força-estresse. Em termos de confiabilidade de sistemas, o índice R é considerado um tópico de bastante interesse, assim iremos desenvolver os estimadores de máxima verossimilhança para esse índice e mostrar que esse estimador é obtido através de uma função que depende dos parâmetros da distribuição de X e Y. O comportamento do estimador é investigado através de experimentos simulados. Intervalos de confiança são desenvolvidos através de bootstrap paramétrico e nãoparamétrico. Duas aplicações envolvendo dados de ciclos até a falha e retiradas da literatura são consideradas: a primeira para ferro fundido e a segunda para aço de alta resistência.
336

Detector multiusuario sub-otimo por confiabilidade de amostras / Sub-optimal multiser detector based on reliable samples

Frison, Celso Iwata 21 October 2009 (has links)
Orientador: Celso de Almeida / Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação / Made available in DSpace on 2018-08-14T23:28:24Z (GMT). No. of bitstreams: 1 Frison_CelsoIwata_M.pdf: 5336693 bytes, checksum: bde1ddd7684a93de5f398e08705c6bb0 (MD5) Previous issue date: 2009 / Resumo: Dentre as técnicas de detecção multiusuário existentes em sistemas CDMA, a técnica conhecida como ótima é a responsável por gerar a menor probabilidade de erro de símbolo possível. Porém, o desempenho referente a esta técnica é obtido através de uma elevada complexidade em número de cálculos, o que leva à sua impraticabilidade em sistemas reais. Com isso, um detector multiusuário sub-ótimo que utiliza limiares de confiabilidade nas amostras recebidas para classificá-las como confiáveis ou não-confiáveis é proposto em um ambiente CDMA síncrono. Cada uma destas amostras já classificadas, recebe um processamento diferenciado na detecção. A introdução de limiares de confiabilidade na detecção multiusuário demonstrou que um desempenho equiparável ao de um detector multiusuário ótimo pode ser possível, e ao mesmo tempo com uma menor complexidade em número de cálculos realizados. Uma modelagem matemática foi desenvolvida para a obtenção das equações de complexidade em número de cálculos e da probabilidade de erro de bit. Estas expressões analíticas foram validadas através de simulações realizadas. / Abstract: Among all the existing multiuser detection techniques in CDMA systems, the one which gives the minimum symbol error probability is called optimum. Conversely, the performance of this technique is obtained with a high complexity in the number of calculations, which make this technique impracticable in real systems. Then, a sub-optimum multiuser detector which applies reliability thresholds to the received samples, to classify them as reliable or nonreliable, is proposed in a synchronous CDMA system. Each one of these samples that has been already classified receives a different management in the detection process of the bits. The insertion of these reliability thresholds in the multiuser detection showed that a performance similar to the optimum multiuser detector could be achieved, and at the same time, with a significant reduction in the number of calculations (detector's complexity). Theoretical equations of complexity an bit error rate are presented. These theoretical expressions are tight when compared to the respective simulations. / Mestrado / Telecomunicações e Telemática / Mestre em Engenharia Elétrica
337

Modelagem dos tempos de falhas ao longo do calendário

Werner, Liane January 1996 (has links)
Um dos modos de avaliar a confiabilidade de um produto é verificando o comportamento das falhas em testes de uso contínuo. Contudo, essa informação não permite saber em que data a falha ocorrerá. Para resolver esse impasse abordamos na presente dissertação a modelagem dos tempos de falha ao longo do calendário. A modelagem desses tempos permite uma melhor administração do sistema de garantia e assistência técnica, além de possibilitar a empresa estimar e monitorar a confiabilidade do produto. Para proceder com a modelagem, é preciso, inicialmente, conhecer a distribuição de três variáveis: o tempo de vida do produto, em horas de uso contínuo; o tempo de uso do produto, em horas por dia; e o intervalo de tempo entre a manufatura e a venda, em dias. Conhecendo o comportamento dessa variáveis duas alternativas de solução são apresentadas: (a) Modelagem via simulação de Monte Carlo e (b) Modelagem através de solução matemática fechada. São discutidos os casos em que há um ou vários grupos de clientes que utilizam o produto. / One ways to evaluate the reliability of some product is to verify the behavior of the fails in tests of continuous use. Nevertheless, this information doesn’t allow to know in what date the fail will occur. To solve this impasse, in the present dissertation we approach the modeling of the fails time along the calendar. The modeling of these times allow a better administration of the guarantee’s system and technical maintenance, as well as to provide to the company to estimate and monitorize the reliability of the product. To proceed with the modeling it’s necessary, first of all, to know the distribution of three variables, the product lifetime, in hours of continuous use; the time of product’s use, in hours per day, and the interval of time between the manufacture and the sale, in days. Knowing the behavior of these variables, two alternatives of solution are presented: (a) modeling through Monte Carlo’s simulation and (b) modeling through closed mathematical solution. The cases in what there are one or several groups of customers who make use of the product are discussed.
338

[pt] AVALIAÇÃO DA CONFIABILIDADE DE SISTEMAS DE GERAÇÃO E TRANSMISSÃO BASEADA EM TÉCNICAS DE ENUMERAÇÃO DE ESTADOS E AMOSTRAGEM POR IMPORTÂNCIA / [en] RELIABILITY ASSESSMENT OF GENERATING AND TRANSMISSION SYSTEMS BASED ON STATE ENUMERATION AND IMPORTANCE SAMPLING TECHNIQUES

BRUNO ALVES DE SA MANSO 30 September 2021 (has links)
[pt] A avaliação probabilística da confiabilidade de um sistema elétrico de potên-cia visa quantificar, em índices, as estatísticas do risco do mesmo não atender seus clientes em plenitude. Na prática, os critérios determinísticos (e.g., N-1) são ainda os mais empregados. Na literatura, porém, a análise probabilística é uma área ex-tensa de pesquisa, podendo ser dividida em duas vertentes: as baseadas em simula-ção Monte Carlo (SMC) e aquelas fundamentadas na enumeração de estados (EE). Apesar de ser reconhecidamente inferior, a técnica EE é a que se assemelha mais aos critérios determinísticos, e, muito provavelmente por esta razão, possui extensa gama de trabalhos relacionados. Contudo, tais trabalhos apresentam limitações, pois, ou se restringem a sistemas de pequeno porte, ou desconsideram contingências de maior ordem quando abordam sistemas reais (médio-grande porte). De qualquer maneira, existe um grande apego do setor elétrico por técnicas de confiabilidade que se assemelhem às práticas dos operadores e planejadores. Isso motivou o de-senvolvimento de um método baseado em EE, o qual seja capaz de avaliar a confi-abilidade de sistemas de geração e transmissão com desempenho comparável ao da SMC. De forma heterodoxa, os conceitos de amostragem por importância (IS - Im-portance Sampling), uma técnica de redução de variância (VRT - Variance Reduc-tion Techniques) tipicamente empregada na SMC, serviram de inspiração para apri-morar a EE. Assim, o método proposto nesta dissertação é o resultado da combina-ção de uma ferramenta do tipo IS-VRT com técnicas de EE. Para análise e validação do método proposto, são utilizados dois sistemas teste comumente empregados neste tópico de pesquisa, sendo um deles de médio porte e capaz de reproduzir caracterís-ticas típicas de sistemas reais. / [en] The probabilistic reliability assessment of an electric power system aims to quantify, in terms of risk indices, its inability to fully serve its customers. In prac-tice, deterministic criteria (e.g., N-1) are still the most widely used. In the literature, however, probabilistic analysis is an extensive area of research, which can be di-vided into two evaluation categories: those based on Monte Carlo simulation (MCS) and those based on the state enumeration (SE). Despite being admittedly inferior, the SE technique is the one that most closely resembles the deterministic criteria, and, most likely for this reason, has a wide range of technical publications. How-ever, such works have limitations, because they are either restricted to small sys-tems, or they disregard higher contingency orders, when addressing real systems (medium-large). In any case, there is a strong attachment of the electric sector to reliability techniques that are similar to the practices of operators and planners. This motivated the development of a method based on SE, which is capable of assessing the reliability of generation and transmission systems with performance comparable to that of MCS. In a heterodox way, importance sampling (IS) concepts used in variance reduction techniques (VRT), typically employed by MCS, have served as inspiration to improve SE. Thus, the method proposed in this dissertation is the combination result of an IS-VRT type tool with SE techniques. For the analysis and validation of the proposed method, two test systems commonly used in this research topic are used, one of which is medium-sized and capable of reproducing typical characteristics of real systems.
339

[en] METROLOGICAL RELIABILITY OF BLOOD COLD CHAIN EQUIPMENTS / [pt] CONFIABILIDADE METROLÓGICA DE EQUIPAMENTOS DA CADEIA DE FRIO PARA PRODUTOS HEMOTERÁPICOS

JORDANA COLMAN 23 March 2012 (has links)
[pt] A confiabilidade metrológica dos equipamentos da cadeia de frio para conservação de produtos hemoterápicos é fundamental para garantir a eficiência de tratamentos e evitar a ocorrência de eventos adversos. Os freezers utilizados para conservação do sangue e hemocomponentes devem atender aos requisitos exigidos pela Portaria número 1.353, publicada em junho de 2011 pelo Ministério da Saúde, dentre os quais a garantia da uniformidade da distribuição de temperatura por todo o volume de armazenamento. No entanto, tal conformidade é avaliada a partir da medição da temperatura em um único ponto. No presente trabalho foi desenvolvido um sistema multicanal, com oito transdutores do modelo Pt-100, para avaliação da distribuição espacial e estabilidade temporal da temperatura em equipamentos da cadeia de frio. Foram realizadas medições da temperatura utilizando o sistema desenvolvido no volume interno de freezers de diferentes marcas, em uso para conservação de hemoterápicos, pertencentes a um serviço de hemoterapia localizado no Rio de Janeiro. Os resultados indicaram não uniformidade de distribuição espacial e temporal da temperatura no interior dos equipamentos avaliados, sugerindo a necessidade de maior abrangência do requisito para avaliação da conformidade dos equipamentos da cadeia de frio utilizados na conservação do sangue e hemocomponentes. / [en] The metrological reliability of cold chain equipment for storage of haemotherapic products is essential to ensure effective treatment and prevent the occurrence of adverse events. The freezers used for storage of blood and blood products must meet the requirements of the Ordinance number 1353, published in June 2011 by the Ministry of Health, among them the assurance of uniformity of temperature distribution throughout the storage volume. However, such compliance is evaluated from the measurement on a single point. In this study we developed a multichannel system with eight transducers Pt-100 model, to evaluate the spatial distribution and temporal stability of temperature in the cold chain equipment. Temperature measurements were performed using the system developed in the internal volume of different brands of freezers in use for conservation haemotherapic belonging to a transfusion service located in Rio de Janeiro. The results showed no uniformity of spatial and temporal distribution of temperature inside the equipment evaluated, suggesting the need for greater coverage of the requirement for conformity assessment of cold chain equipment used for the preservation of blood and blood products.
340

[en] METROLOGICAL RELIABILITY OF OPTICAL COHERENCE TOMOGRAPHY IN BIOMEDICAL APPLICATIONS / [pt] CONFIABILIDADE METROLÓGICA DA TOMOGRAFIA POR COERÊNCIA ÓPTICA EM APLICAÇÕES BIOMÉDICAS

CAROLINA MOREIRA GOLONI MARQUES 14 April 2014 (has links)
[pt] A Tomografia por Coerência Óptica (OCT) vem sendo utilizada desde a década de 1990 em diversas áreas do campo biomédico, uma biópsia óptica com importantes perspectivas como ferramenta diagnóstica para caracterização quantitativa de estruturas teciduais.No presente trabalho é realizado estudo dos parâmetros para avaliação de conformidade dos equipamentos optoeletrônicos para aplicação biomédica como Laser, IPL(Luz Pulsada Intensa) e OCT, objetivando a identificação dos itens cuja avaliação é necessária como requisito em futura norma específica para equipamentos de Tomografia por Coerência Óptica. Além dos parâmetros metrológicos requeridos na norma particular para equipamentos a Laser, e alguns dos parâmetros da norma para IPL, foram identificados outros parâmetros metrológicos específicos para avaliação de equipamentos de OCT, considerando sua aplicação biomédica, como comprimento de coerência, resolução axial e resolução transversal. Considerando a possibilidade de elaboração futura de norma específica para OCT, para alguns dos parâmetros identificados, recomendou-se o requisito de medição e, para outros, somente a inclusão da informação nos documentos acompanhantes. Dentre os parâmetros cujo requisito de medição foi recomendado para equipamentos de OCT são: potência da emissão eletromagnética, comprimento de onda central, concentricidade entre os feixes de trabalho e de mira, diâmetro e divergência do feixe de trabalho, duração de um pulso, número de pulsos em um trem de pulsos e irradiância espectral. / [en] Optical Coherence Tomography has been proving to be an efficient diagnostics technique for imaging in vivo tissues, an optical biopsy with important perspectives as a diagnostics tool for quantitative characterization of tissue structures.The present work studies the parameters conformity evaluation of optoelectronics equipment for biomedical applications like Laser, IPL (Intense Pulsed Light), and OCT, targeting the identification of items which are necessary as a requirement to develop a future specific standard for Optical Coherence Tomography equipments. Beside the metrological parameters required by the particular standard for Laser and IPL equipment, specific parameters necessary for OCT’s evaluation have been identified, regarding its biomedical application. For some parameters identified, measurement requisite has been recommended, and for others, only the information on the accompanying documents. Among the parameters required for measurement, highlights for: electromagnetic emission power, measurement uncertainty of incident power, coherence length, work beam diameter and divergence, pulse duration and spectral irradiance.

Page generated in 0.0883 seconds