Spelling suggestions: "subject:"estatística""
111 |
Inteligência estatística na tomada de decisão médica: um estudo de caso em pacientes traumatizados / Statistical intelligence in medical decision making: a case study in traumatized patientsGarcia, Marcelo 22 November 2018 (has links)
O principal objetivo do estudo foi utilizar informações de ocorrência do Traumatismo Crânio Encefálico (TCE) que possam inferir/gerar descobertas associadas ao risco de gravidade do paciente, bem como auxiliar na tomada de decisão médica ao definir o melhor prognóstico, indicando quais as possíveis medidas que podem ser escolhidas para a gravidade na lesão sofrida pela vítima. Inicialmente, foram analisadas as estatísticas descritivas dos dados dos pacientes de TCE de um hospital do interior de São Paulo. Participaram desse estudo 50 pacientes. Os resultados mostraram que a maior frequência do trauma é por acidentes de trânsito (62%), seguidos de acidentes por queda (24%). Traumas em pacientes do sexo masculino (88%) são muito mais frequentes do que em pacientes do sexo feminino. Para modelagem, transformou-se a variável resposta \"Abbreviated Injury Scale (AIS)\" em dicotômica, considerando 0 (zero) aos pacientes fora de risco e 1 (um) aos que apresentaram algum tipo de risco. Em seguida, técnicas de aprendizado estatístico foram utilizadas de modo a comparar o desempenho dos classificadores Regressão Logística sendo um caso do Generalized Linear Model (GLM), Random Forest (RF), Support Vector Machine (SVM) e redes probabilísticas Naïve Bayes (NB). O modelo com melhor desempenho (RF) combinou os índices Accuracy (ACC) , Area Under ROC Curve (AUC) , Sensitivity (SEN), Specificity (SPE) e Matthews Correlation Coefficient (MCC), que apresentaram os resultados mais favoráveis no quesito de apoio no auxílio da tomada de decisão médica, possibilitando escolher o estudo clínico mais adequado das vítimas traumatizadas ao considerar o risco de vida do indivíduo. Conforme o modelo selecionado foi possível gerar um ranking para estimar a probabilidade de risco de vida do paciente. Em seguida foi realizado uma comparação de desempenho entre o modelo RF (novo classificador) e os índices Revisited Trauma Score (RTS), Injury Severity Score (ISS) , Índice de Barthel (IB) referente à classificação de risco dos pacientes. / The main objective of this study was to consider the information related to the occurrence of traumatic brain injury (TBI) that can infer new results associated with the patients risk of severity as well as assisting in the medical decision in order to find the best prognosis; this can lead to indicate possible measures that can be chosen for severity in the injury suffered by the victim. Initially, we have presented descriptive statistics from the patients with TBI from a hospital located in the heartland of São Paulo. Fifty patients were recruited for this study. Descriptive analyzes showed that the highest frequency of trauma is due to traffic accidents (62 %) followed by crashes per accident (24 %). The causes related to trauma occur much more often in male patients (88 %) than in female patients. To order model, the response variable Abbreviated Injury Scale (AIS) was considered as dichotomous, where 0 (zero) was to out-of-risk patients and 1 (one) to those who presented some type of risk. Further, statistical learning techniques were used in order to compare the performance of the Logistic Regression as a Generalized Linear Model (GLM), Random Forest (RF), Support Vector Machine (SVM) and Naive Bayes (NB) model. The best performing (RF) model combined the Accuracy (ACC) , Area Under ROC Curve (AUC) , Sensitivity (SEN), Specificity (SPE) e Matthews Correlation Coefficient (MCC), which presented the most favorable results in terms of support in medical decision, making it possible to choose the most appropriate clinical study of traumatized victims based on the individual life risk. According to the selected model it was possible to generate a rank to estimate the probability of life risk of the patient. Then a performance comparison was performed between the RF model (proposed classifier) and the Revisited Trauma Score (RTS), Injury Severity Score (ISS), Barthel index (IB) referring to the risk classification of patients.
|
112 |
Ajuste de modelos de degradabilidade ruminal por meio da técnica de produção de gases utilizando as metodologias clássica e bayesiana / Adjustment of ruminal degradability models applying the technique of gas production by using classical and Bayesian methodologiesSouza, Gabriel Batalini de 15 March 2013 (has links)
Dado o poder agropecuário nacional e sabendo que a pastagem tem papel fundamental na nutrição animal, torna-se primordial o estudo dos mecanismos da digestão ruminal das forragens, para um aproveitamento mais racional das pastagens pelos animais, propiciando uma fermentação ruminal ótima e possibilitando o balanceamento de rações de forma mais adequada. Esta abordagem é possível por meio dos modelos de degradação ruminal, que são classificados como modelos de regressão não lineares. Neste trabalho são abordadas as metodologias clássica e bayesiana para ajustar os modelos que descrevem a cinética de degradação ruminal por meio da técnica de produção de gases. Na abordagem clássica foram considerados os modelos não sigmoidal proposto por Orskov&McDonald (1979), o Logístico proposto por Schofield (1994) e o Gompertz proposto por Lavrencic (1997), considerando a necessidade de fatores autorregressivos de primeira e segunda ordem mediante o teste de razão de verossimilhança (TRV); os modelos foram avaliados por meio dos critérios de Akaike (AIC), coeficiente de determinação ajustado (R2 aj) e quadrado médio residual (QMR). Em uma segunda etapa realizou-se o ajuste do modelo não sigmoidal sem fator autorregressivo utilizando a abordagem bayesiana, em que a condição de convergência das cadeias foi analisada por meio dos critérios de Geweke (1992), Heidelberger&Welch (1993), Raftery& Lewis (1992) e o Erro de Monte Carlo (EMC). Dentre os modelos utilizados, o que melhor se ajustou aos dados analisados foi o modelo não sigmoidal proposto por Orskov e McDonald (1979), sem o fator autorregressivo, obtendo estimativas condizentes com a realidade do fenômeno. Os resultados obtidos por meio da abordagem bayesiana também foram satisfatórios, mostrando que a técnica, apesar de pouco difundida em estudos de degradação ruminal é uma metodologia bastante viável e tem muito a agregar em estudos da área. / Given the national agricultural power and knowing that grazing plays an important role in animal nutrition, it becomes primordial to study the mechanisms of ruminal digestion of forages, for a more rational use of pastures by the animals, providing an optimal rumen fermentation and allowing a more adequate and balanced feed. This approach is possible by using the rumen degradation models, which are classified as non-linear regression models. This essay discusses the classical and Bayesian methods to adjust the models that describe the kinetics of degradation by rumen gas production technique. In the classical approach, the \"Non Sigmoidal models\", proposed by Orskov& McDonald (1979), the \"Logistic\", proposed by Schofield (1994), and \"Gompertz\", proposed by Lavrencic (1997), were considered, taking into account the need for autoregressive factors of first and second order, by the \"likelihood ratio test \" (TRV). These models were evaluated using the Akaike criteria (AIC), the coefficient of determination adjusted (R2aj) and \"the residual average square\" (QMR). In the following stage, the adjustment of the non sigmoidal model without the autoregressive factor were performed, using the Bayesian approach. For these matters, the condition of the convergence of chains was analyzed using Geweke (1992), Heidelberger & Welch (1993), Raftery& Lewis (1992) and Monte Carlo error(EMC) criteria.Among the models used, the one that best settle to the data analyzed was the non sigmoidal model without the autoregressive factor, proposed by Orskov and McDonald (1979), obtaining consistent estimates with the reality of the phenomenon. The results obtained through the Bayesian approach were also satisfactory, showing that the technique, although less diffused in studies of rumen methodology, is very viable and has a lot to add in these area studies.
|
113 |
Análise de custo-eficácia dos pagamentos por serviços ambientais em paisagens fragmentadas: estudo de caso de São Paulo / Cost-effectiveness analysis of payments for environmental services in fragmented landscapes: case study in the State of São PauloFendrich, Arthur Nicolaus 14 November 2017 (has links)
Mesmo com o crescimento da dependência da vida humana em relação aos serviços ecossistêmicos, a taxa de perda de diversidade genética no planeta tem alcançado níveis semelhantes à de grandes eventos de extinção, evidenciando a necessidade de ações para a conservação dos recursos naturais. Em adição aos tradicionais instrumentos de comando e controle para a conservação, os instrumentos econômicos têm tido crescente atenção no mundo nos últimos anos, com especial destaque para os Pagamentos por Serviços Ambientais (PSA). A abordagem de pagamentos de incentivos tem crescido na última década e, apesar das potencialidades que o PSA apresenta, muitos programas falham em incorporar o conhecimento científico em sua execução, sendo esse um dos aspectos que podem acarretar baixo desempenho ambiental e econômico. Neste contexto, o presente projeto buscou avaliar a custo-eficácia do PSA em paisagens fragmentadas. A área de estudo é o estado de São Paulo, cuja fragmentação historicamente ocorre pela expansão agropecuária e pelos diversos impactos decorrentes do grande crescimento populacional em seu território. Foram distribuídos questionários para a obtenção das preferências dos proprietários rurais paulistas em relação aos programas de PSA para restauração de vegetação nativa. Os dados coletados foram relacionados a características socioeconômicas e ambientais e um modelo beta inflacionado de zero misto dentro da classe GAMLSS foi utilizado. Em seguida, o modelo foi utilizado para predizer os resultados para os proprietários não entrevistados e a curva de investimento para diferentes retornos para conservação foi construída. Os resultados apontaram que o PSA é uma alternativa muito custosa frente aos orçamentos ambientais paulistas e que traz poucos benefícios para a restauração no estado de São Paulo. A pesquisa possui uma vertente teórica, pois contribui para a compreensão da adequabilidade do PSA em paisagens fragmentadas, e uma vertente prática, pois explicita a quantidade de recursos necessária para a execução dos programas analisados. / Although the dependence of human activities on ecosystem services has risen in the past decades, the current rate of genetic diversity loss has substantially declined and reached alarming levels. In addition to the traditional command and control approach for the promotion of conservation, growing attention has been given to economic instruments, especially to Payments for Environmental Services (PES). Despite all potentialities of the PES instrument, many programs fail to introduce scientic knowledge in the execution. Such a lack of foundation may result in low environmental and economic performance. The present research aims at evaluating the cost-effectiveness of PES in fragmented landscapes. The study area is the state of São Paulo, which has been fragmented by the agricultural and pasture expansion, and the impacts linked to the large population growth. A survey with dierent PES programs was sent to rural landowners and responses were analyzed and linked to socioeconomic and environmental characteristics through a zero-inflated beta mixed model, within the GAMLSS framework. The model was used to predict enrollment of non-respondents in different PES programs. Finally, the relationship between total area for restoration and the amount of resources needed for each program was compared to the environmental budget of the state of São Paulo. Results show that PES is a very costly alternative that can provide only few results for restoration. The present work has a theoretical orientation, as it contributes to the comprehension of the feasibility of PES programs in fragmented landscapes, and a practical orientation, as it quantifies the amount of resources required by the programs analyzed.
|
114 |
Modelos estatísticos para a transição ordem - desordem de camadas lipídicas / Statistical models for the order-disorder transition of lipid layersGuidi, Henrique Santos 18 December 2012 (has links)
Lipídios em solução aquosa formam uma variedade de estruturas diferentes que incluem monocamadas de surfactantes na interface água-ar, conhecidas como monocamadas de Langmuir, como também vesículas unilamelares ou plurilamelares no interior da solução. Sob variação de temperatura, estas estruturas apresentam diferentes fases, observadas através de calorimetria ou variação isotérmica de pressão lateral. Entre as fases apresentadas por estas estruturas, as duas mais importantes se diferenciam pela ordem das cadeias lipídicas. Entendemos que do ponto de vista das fases termodinâmicas, simplificado e qualitativo, monocamadas de Langmuir e bicamadas lipídicas constituem o mesmo sistema físico sob vínculos diferentes. Neste trabalho, desenvolvemos um modelo estatístico para o estudo da transição ordem-desordem destes sistemas, que inclui flutuações de densidade, estas ausentes no modelo de Doniach, de 1980, a base para muitos estudos teóricos para transições de fase de sistemas lipídicos. Flutuações de densidade são fundamentais na descrição de vesículas lipídicas carregadas, compostas de surfactante cuja cabeça polar se dissocia em água. O estudo em laboratório das propriedades térmicas e estruturais de membranas artificiais de lipídios carregados _e relativamente recente, e foi desenvolvido em grande parte no Laboratório de Biofísica do IFUSP. Tais membranas apresentam comportamento distinto das membranas neutras, notoriamente influenciado pela concentração de sal na solução. Isto motivou o desenvolvimento de uma segunda versão do modelo, na qual passamos a descrever a cabeça polar do lipídio em termos de um par de cargas opostas, sendo que a camada lipídica foi acoplada ao modelo primitivo restrito na rede, que desempenha o papel da solução salina. O primeiro modelo foi estudado por aproximação de campo médio e por simulações de Monte Carlo, e o segundo modelo foi investigado apenas através de simulações numéricas. O estudo do modelo carregado foi precedido por uma investigação criteriosa das técnicas de simulação de sistemas com interação Coulombiana, resultando no desenvolvimento de uma metodologia adequada a condições de contorno não isotrópicas e com custo computacional reduzido. Os modelos estatísticos propostos por nós levaram a dois resultados importantes. O modelo para camadas lipídicas neutras é, até hoje, o único modelo estatístico que descreve tanto a transição gel-fluido de bicamadas lipídicas, como a transição líquido condensado - líquido expandido\" de monocamadas de Langmuir, além de descrever também a transição líquido expandido gás na interface água-ar. O modelo para camadas lipídicas que se dissociam em água reproduz a variação abrupta na dissociação, concomitante com a transição ordem-desordem, propriedade que permite interpretar estudos experimentais relativos à condutividade das soluções lipídicas correspondentes. / Lipids in aqueous solution form a variety of different structures which include monolayers of surfactants at the water-air interface, known as Langmuir monolayers, as well as unilamellar or plurilamellar vesicles within the solution. Under temperature variation, these structures display different phases, observed through calorimetry or isothermal variation of lateral pressure. Among the phases presented by these structures, the two most important differ in the order of the lipid chains. From the point of view of the thermodynamic phases, our understanding is that Langmuir monolayers and lipid bilayers constitute the same physical system under different constraints. In this work, we develop a statistical model for the order - disorder transition of lipid bilayers which adds density fluctuations to Doniach\'s 1980 model, which has been considered the basis for many theoretical studies for lipid systems phase transitions. Density fluctuations are essential in the description of the properties of charged vesicles in solution, which consist of surfactants whose polar head dissociates in water. The study in the laboratory of thermal and structural properties of artificial charged lipid membranes is relatively new, and was developed largely in the IFUSP Laboratory of Biophysics. Such membranes exhibit distinct behavior if compared to neutral membranes, notoriously influenced by the solution salt concentration. The experimental investigations motivated us to develop a second model, in which we describe the polar headgroups through a pair of opposite charges. The lipid layer is attached to the lattice restricted primitive model, which plays the role of the saline solution. The first model was studied both through a mean-field approximation as well as through Monte Carlo simulations, whereas the second model was investigated only through numerical simulations. The study of the charged model was preceded by a thorough investigation of the simulation techniques for Coulomb interaction systems, leading to the development of a methodology suitable for non isotropic boundary conditions and with reduced computational cost. The statistical models proposed by us led to two important results. To our knowledge, our model for neutral lipid layers is the only statistical model which, aside from describing simultaneously both the gel-fluid transition of lipid bilayers and the condensed liquid - expanded liquid transition of Langmuir monolayers, also describes the gas- expanded liquid transition at the air-water interface. The model for lipid layers that dissociate in water reproduces the abrupt change in dissociation, concomitant with the order-disorder transition, a property that allows us to interpret experimental studies related to conductivity of the corresponding lipid solutions.
|
115 |
Aspectos biométricos da detecção de QTL'S ("Quantitative Trait Loci") em espécies cultivadas. / Biometrical aspects of QTL detection in cultivated species.Silva, Heyder Diniz 05 December 2001 (has links)
O mapeamento de QTL's difere dos demais tipos de pesquisas conduzida em genética. Por se tratar basicamente de um procedimento de testes múltiplos, surge, neste contexto, um problema que se refere ao nível de significância conjunto da análise, e consequentemente, seu poder. Deste modo, avaliou-se, via simulação computacional de dados, o poder de detecção de QTL's da análise de marcas simples, realizada por meio de regressão linear múltipla, utilizando o procedimento stepwise" para seleção das marcas e procedimentos baseados em testes individuais, utilizando os critérios FDR e de Bonferroni para determinação nível de significância conjunto. Os resultados mostraram que o procedimento baseado em regressão múltipla, utilizando o procedimento stepwise" foi mais poderoso em identificar as marcas associadas a QTL's e, mesmo nos casos em que este procedimento apresentou poder ligeiramente inferior aos demais, verificou-se que o mesmo tem como grande vantagem selecionar apenas as marcas mais fortemente ligadas aos QTL's. Dentre os critérios FDR e de Bonferroni, o primeiro mostrou-se, em geral, mais poderoso, devendo ser adotado nos procedimentos de mapeamento por intervalo. Outro problema encontrado na análise de QTL's refere-se µa abordagem da interação QTL's x ambientes. Neste contexto, apresentou-se uma partição da variância da interação genótipos x ambientes em efeitos explicados pelos marcadores e desvios, a partir da qual obtiveram-se os estimadores da proporção da variância genética (pm), e da variância da interação genótipos x ambientes (pms), explicadas pelos marcadores moleculares. Estes estimadores independem de desvios das frequências alélicas dos marcadores em relação µ as esperadas (1:2:1 em uma geração F2, 1:1 em um retrocruzamento, etc.), porém, apresentam uma alta probabilidade de obtenção de estimativas fora do intervalo paramétrico, principalmente para valores elevados destas proporções. Contudo, estas probabilidades podem ser reduzidas com o aumento do número de repetições e/ou de ambientes nos quais as progênies são avaliadas. A partir de um conjunto de dados de produtividade de grãos, referentes µ a avaliação de 68 progênies de milho, genotipadas para 77 marcadores moleculares codominantes e avaliadas em quatro ambientes, verificou-se que as metodologias apresentadas permitiram estimar as proporções pm e pms, bem como classificar as marcas associadas a QTL's, conforme seu nível de interação. O procedimento permitiu ainda a identificação de regiões cromossômicas envolvidas no controle genético do caractere sob estudo conforme sua maior ou menor estabilidade ao longo dos ambientes. / In general terms, QTL mapping di®ers from other research ac-tivities in genetics. Being basically a multiple test procedure, problems arise which are related to the joint level of signi¯cance of the analysis, and consequently, to its power. Using computational simulation of data, the power of simple marker analysis, carried out through multiple linear regression, using stepwise procedures to select the markers was obtained. Procedures based on single tests, using both the FDR and the Bonferroni criteria to determinate the joint level of signi¯cance were also used. Results showed that the procedure based on multiple regression, using the stepwise technique, was the most powerful in identifying markers associated to QTL's. However, in cases where its power was smaller, its advantage was the ability to detect only markers strongly associates with QTL's. In comparision with the Bonferroni method, the FDR criterion was in general more powerful, and should be adopted in the interval mapping procedures. Additional problems found in the QTL analysis refer to the QTL x environment interaction. We consider this aspect by par-titioning the genotype x environment interaction variance in components explained by the molecular markers and deviations. This alowed estimating the proportion of the genetic variance (pm), and genotype x environment variance (pms), explained by the markers. These estimators are not a®ected by deviations of allelic frequencies of the markers in relation to the expected values (1:2:1 in a F2 generation, 1:1 in a backcross , etc). However, there is a high probability of obtaining estimates out of the parametric range, specially for high values of this proportion. Nevertheless, these probabilities can be reduced by increasing the number of replications and/or environments where the progenies are evaluated. Based on a set of grain yield data, obtained from the evaluation of 68 maize progenies genotyped for 77 codominant molecular markers, and evaluated as top crosses in four environments, the presented methodologies allowed estimating proportions pm and pms as well the classification of markers associated to QTL's, with respect to its level of genotype x environment interaction. The procedure also allowed the identification of chromosomic regions, involved in the genetical control of the considered trait, according to its stability, in relation to the observed environmental variation.
|
116 |
Extração de conhecimento de laudos de radiologia torácica utilizando técnicas de processamento estatístico de linguagem natural. / Knowledge extraction from reports of radiology thoracic using techniques of statistical processing of natural language.Zerbinatti, Leandro 15 April 2010 (has links)
Este trabalho promove um estudo em informática em saúde no qual se analisam laudos de radiologia torácica através de métodos de processamento estatístico de linguagem natural com o intuito de subsidiar a interoperabilidade entre sistemas de saúde. Foram utilizados 2000 laudos de radiologia do tórax para a extração de conhecimento identificando-se as palavras, n-gramas e frases que os compõem. Foi calculado o índice de Zipf e verificou-se que poucas palavras compõem a maioria dos laudos e que a maioria das palavras não tem representatividade estatística A partir dos termos identificados foi realizada a tradução e a comparação da existência desses em um vocabulário médico padronizado com terminologia internacional, o SNOMEDCT. Os termos que tinham uma relação completa e direta com os termos traduzidos foram incorporados nos termos de referência juntamente com a classe à qual o termo pertence e seu identificador. Foram selecionados outros 200 laudos de radiologia de tórax para realizar o experimento de rotulação dos termos em relação à referência. A eficiência obtida neste estágio, que é o percentual de rotulação dos laudos, foi de 45,55%. A partir de então foram incorporados aos termos de referência, sob a classe de conceito de ligação, artigos, preposições e pronomes. É importante ressaltar que esses termos não adicionam conhecimento de saúde ao texto. A eficiência obtida foi de 73,23%, aumentando significativamente a eficiência obtida anteriormente. Finalizamos o trabalho com algumas formas de aplicação dos laudos rotulados para a interoperabilidade de sistemas, utilizando para isto ontologias, o HL7 CDA (Clinical Documents Architecture) e o modelo de arquétipos da Fundação OpenEHR. / This work promotes a study in health informatics technology which analyses reports of chest X-ray through statistical natural language processing methods for the purpose of supporting the interoperability between health systems. Two thousand radiology reports were used for the extraction of knowledge by identifying the words, n-grams and phrases of reports. Zipfs constant was studied and it was determined that few words make up the majority of the reports and that most of the words do not have statistical significance. The translation and comparison with exisiting standardized medical vocabulary with international terminology, called SNOMED-CT, was done based on the terms identified. The terms that had a complete and direct correlation with the translated terms were incorporated into the reference terms along with its class and the word identifier. Another 200 reports of chest x-rays were selected to perform the terms tagging experiment of with respect to the reference. The efficiency obtained, which is the percentage of labeling of the reports, was 45.55%. Subsequentely, articles, prepositions and pronouns were incorporated into the terms of reference under the linkage concept of class. It is important to note that these terms do not carry health knowledge to the text. Thus, the efficiency ratio was 73.23%, significantly increasing the efficiency obtained previously. The study was concluded with some forms of application of the reports tagged for system interoperability, using different ontologies, the HL7 CDA (Clinical Documents Architecture) and the archetypes at OpenEHR Fondation.
|
117 |
Aplicação do Analytical Quality Assurance Cycle no desenvolvimento de método para análise de compostos voláteis e semivoláteis pelo acoplamento das técnicas Refrigerated Sorptive Extraction e Gas Chromatography (RSE/GC) / Application of the Analytical Quality Assurance Cycle in the development of a method of analysis of volatile and semi-volatile contaminants by coupling techniques Refrigerated Sorptive Extraction and Gas Chromatography (RSE/GC)Camargo, Ricardo dos Santos 15 December 2016 (has links)
Este trabalho visou a aplicação de uma ferramenta da qualidade chamada Analytical Quality Assurance Cycle, que engloba num ciclo: a Validação de Métodos, já bem conhecida do meio científico; o Cálculo de Incerteza Analítica e Controle de Qualidade Intralaboratorial, estes ainda pouco aplicados no meio acadêmico, mas que unidos se mostraram uma alternativa útil e poderosa para a garantia da qualidade de resultados de um laboratório de pesquisa e desenvolvimento universitário. O projeto de pesquisa que recebeu a aplicação da ferramenta buscava uma otimização de metodologia de extração de contaminantes, denominada Refrigerated Sorptive Extraction que é baseada em sorção por barra de polidimetilsiloxano, e posterior determinação do contaminantes voláteis e semivoláteis por um cromatógrafo a gás com detector de ionização em chama (GC/FID). Uma das otimizações comtemplou a miniaturização do protótipo, o que tornou possível utilizar a dessorção térmica diretamente no injetor do cromatógrafo, o que permitiu ao equipamento determinar concentrações cada vez mais baixas, como foi o caso dos compostos octilfenol e fluoranteno, alcançando a concentração de 0,5 µg L-1. A aplicação da metodologia foi realizada em amostras ambientais reais de água superficial, coletadas segundo os procedimentos descritos no Guia nacional de coleta e preservação de amostras publicado pela Agencia Nacional de Águas (ANA) e Companhia Ambiental do Estado de São Paulo (CETESB). Como um adendo da etapa de Cálculo de Incerteza do ciclo, foram descritos os critérios para o Cálculo de Incerteza da Amostragem, de muita importância para a garantia da qualidade do resultado final. Foram encontrados alguns obstáculos para a aplicação do Analytical Quality Assurance Cycle, que exige a utilização de padrões analíticos com incerteza declarada (produzidos de acordo com a norma ISO Guia 34) e a calibração de equipamentos que interferem na qualidade dos resultados. Nesse trabalho não foi possível utilizar os padrões ISO Guia 34, mas através de um programa de verificação da balança analítica com peso-padrão calibrado em laboratório da Rede Brasileira de Calibração do Instituto Nacional de Metrologia e Qualidade Industrial (RBC/INMETRO), foi possível obter a Rastreabilidade Metrológica para as medições realizadas nas amostras coletadas. Apesar de todo o cuidado com a garantia da qualidade com as ferramentas aplicadas, a Rastreabilidade Metrológica por si só não consegue garantir a qualidade do resultado da medição integralmente. Portanto foi detectada a necessidade de implantar um Sistema de Gestão da Qualidade adaptado ao laboratório para prover a Rastreabilidade Documental que faltava. Foram utilizadas as normas NBR ISO/IEC 17025 e Boas Práticas de Laboratório para fornecer uma base para o sistema implantado. Enfim, todo esse trabalho foi dedicado a aproximar a Metrologia, a Garantia e o Controle da Qualidade aos laboratórios de pesquisa universitários, pois é imprescindível que esses conceitos sejam aplicados à academia para garantir a reprodutibilidade dos resultados gerados. / This thesis presents an application of a quality tool called the Analytical Quality Assurance Cycle, which involves in a cycle: the Validation of Methods, already well known in the scientific environment, the Estimation of Analytical Uncertainty and Intralaboratorial Quality Control. These latter are few applied in the academic medium, but that united tools proved to be an useful and powerful alternative for a guarantee of the quality of results of research and development laboratories at universities. The research project that received the application of this tool sought an optimization of contamination extraction methodology, denominated Refrigerated Sorptive Extraction that is based on sorption by a polydimethylsiloxane bar, and subsequent determination of volatile and semivolatile contaminants by a gas chromatograph with flame ionization detector (GC/FID). One of the optimizations contemplated the miniaturization of the prototype, which enabled the thermal desorption inside the injector of the chromatograph, which allowed the equipment to reach concentrations increasingly low, as was the case of the compounds octylphenol and fluoranthene, achieving a concentration of 0,5 µg L-1. The application of the methodology was carried out in samples of surface water collected according to the National Collection and Preservation Guide published by the Brazilian National Water Agency (ANA) and São Paulo State Environmental Company (CETESB). As an addendum of the Estimation of Uncertainty step in the cycle, was discussed the methods of Estimation of Uncertainty of the Sampling, that it is very important for a guarantee of the quality of the final result. Some challenges were found in the application of the Analytical Quality Assurance Cycle, which requires the use of analytical standards with declared uncertainty (made according the ISO Guide 34) and a calibration of equipment that interferes in the quality of the results. In this project, it is not used analytical standards with declared uncertainty, but the introduction of a program of verification of the analytical balance with standard weight calibrated in a laboratory of the Brazilian Calibration Network of the National Institute of Metrology and Industrial Quality (RBC/INMETRO) provides the Metrological Traceability for the measurements of the samples collected. Despite all the care taken with quality assurance with the applied tools, Metrological Traceability alone cannot guarantee the total quality of the measurement results. Thus, a need was detected to implement a Quality Management System adapted to the laboratory for a probable Documentary Traceability that was lacking. NBR ISO/IEC 17025 and Good Laboratory Practices (GLP) were used as a basis for the implanted system. Finally, all this work was dedicated to approximate the Metrology, the Guarantee and a Quality Control to the university research laboratories, for which these concepts are applied in the academy to guarantee the reproducibility of the generated results.
|
118 |
Seleção de variáveis aplicada ao controle estatístico multivariado de processos em bateladasPeres, Fernanda Araujo Pimentel January 2018 (has links)
A presente tese apresenta proposições para o uso da seleção de variáveis no aprimoramento do controle estatístico de processos multivariados (MSPC) em bateladas, a fim de contribuir com a melhoria da qualidade de processos industriais. Dessa forma, os objetivos desta tese são: (i) identificar as limitações encontradas pelos métodos MSPC no monitoramento de processos industriais; (ii) entender como métodos de seleção de variáveis são integrados para promover a melhoria do monitoramento de processos de elevada dimensionalidade; (iii) discutir sobre métodos para alinhamento e sincronização de bateladas aplicados a processos com diferentes durações; (iv) definir o método de alinhamento e sincronização mais adequado para o tratamento de dados de bateladas, visando aprimorar a construção do modelo de monitoramento na Fase I do controle estatístico de processo; (v) propor a seleção de variáveis, com propósito de classificação, prévia à construção das cartas de controle multivariadas (CCM) baseadas na análise de componentes principais (PCA) para monitorar um processo em bateladas; e (vi) validar o desempenho de detecção de falhas da carta de controle multivariada proposta em comparação às cartas tradicionais e baseadas em PCA. O desempenho do método proposto foi avaliado mediante aplicação em um estudo de caso com dados reais de um processo industrial alimentício. Os resultados obtidos demonstraram que a realização de uma seleção de variáveis prévia à construção das CCM contribuiu para reduzir eficientemente o número de variáveis a serem analisadas e superar as limitações encontradas na detecção de falhas quando bancos de elevada dimensionalidade são monitorados. Conclui-se que, ao possibilitar que CCM, amplamente utilizadas no meio industrial, sejam adequadas para banco de dados reais de elevada dimensionalidade, o método proposto agrega inovação à área de monitoramento de processos em bateladas e contribui para a geração de produtos de elevado padrão de qualidade. / This dissertation presents propositions for the use of variable selection in the improvement of multivariate statistical process control (MSPC) of batch processes, in order to contribute to the enhacement of industrial processes’ quality. There are six objectives: (i) identify MSPC limitations in industrial processes monitoring; (ii) understand how methods of variable selection are used to improve high dimensional processes monitoring; (iii) discuss about methods for alignment and synchronization of batches with different durations; (iv) define the most adequate alignment and synchronization method for batch data treatment, aiming to improve Phase I of process monitoring; (v) propose variable selection for classification prior to establishing multivariate control charts (MCC) based on principal component analysis (PCA) to monitor a batch process; and (vi) validate fault detection performance of the proposed MCC in comparison with traditional PCA-based and charts. The performance of the proposed method was evaluated in a case study using real data from an industrial food process. Results showed that performing variable selection prior to establishing MCC contributed to efficiently reduce the number of variables and overcome limitations found in fault detection when high dimensional datasets are monitored. We conclude that by improving control charts widely used in industry to accomodate high dimensional datasets the proposed method adds innovation to the area of batch process monitoring and contributes to the generation of high quality standard products.
|
119 |
Aplicação do controle estatístico de processo (CEP) como ferramenta para a melhoria da qualidade do leite / Application of statistical process control (SPC) as a tool for improvement of milk qualityFabio Henrique Takahashi 01 September 2011 (has links)
Objetivou-se utilizar o controle estatístico de processo (CEP) como ferramenta de melhoria da qualidade do leite. O objetivo do primeiro estudo foi avaliar o CEP como ferramenta de identificação de variações não naturais, na qualidade do leite, passíveis de serem manipuladas. Para este estudo, foram utilizados dados de produção de leite, de contagem de células somáticas (CSS) e de contagem bacteriana total (CBT) de 384 fazendas, obtidos do banco de dados da Clínica do Leite - ESALQ/ USP no ano de 2009. Avaliou-se os efeitos naturais (época do ano e produção de leite) sobre a variação de CCS e CBT, e adicionalmente, foram gerados gráficos de controle para escore de células somáticas (ECS) e contagem bacteriana total transformada (tCBT), com a finalidade de identificar fontes de variação não naturais em um grupo de quatro fazendas. A variabilidade das informações foi avaliada pelo estimador do desvio padrão (sigma), calculado com base na amplitude móvel. Verificou-se que a época do ano influenciou significativamente o ECS e a tCBT. Os gráficos de controle, dentro de cada época, indicaram a presença de variações não naturais no ECS e na tCBT no grupo de fazendas avaliadas. Além disso, os gráficos de controle também caracterizaram fazendas em controle estatístico de processos. No segundo estudo objetivou-se utilizar o CEP como ferramenta de identificação e classificação de fazendas com maiores probabilidades de violarem os padrões de qualidade utilizados pela indústria. Foram utilizados dados de CCS e CBT de 452 fazendas, no período de janeiro de 2009 a março de 2010. Calcularam-se as proporções de violação nos padrões de qualidade, considerando os limites de CCS = 400.000 céls./ mL e CBT = 100.000 UFC/ mL. Foram calculados os índices de capacidade (Cpk) e classificaram-se as fazendas segundo quatro categorias de médias e de índices Cpk. As fazendas que apresentaram maiores médias e desvios obtiveram maiores frequências de violação. As fazendas com médias inferiores aos limites propostos para CCS e CBT representaram, respectivamente, 25,05 % e 97,78 % das fazendas. Entretanto, a proporção de fazendas que forneceram leite consistentemente dentro dos padrões de qualidade avaliados (Cpk 1) representou 4,65 % e 35,17 % das propriedades para CCS e CBT respectivamente. Portanto, a aplicação do CEP dentro das fazendas é uma ferramenta adicional para monitorar a qualidade do leite produzido, o índice Cpk pode ser utilizado em conjunto com os atuais modelos de caracterização da qualidade do leite de fazendas pelas indústrias, uma vez que identifica rebanhos mais consistentes em produzir leite dentro de um padrão de qualidade. / This study aimed to employ statistical process control (SPC) as a tool to improve milk quality. The first objective of the study was to evaluate SPC as tool to identify non-natural variation of milk quality that are possible to be manipulated. In this study, data on milk production, somatic cell count (SCC), and total bacterial count (TBC) of 384 farms were used, provided by database of Clínica do Leite ESALQ/ USP in 2009. Natural effects (time of year and milk production) trough SCC and TBC variation were evaluated, and additionally, control charts for score cell somatic (SCS) and total bacterial count transformed (TBCt) were built aiming to identify sources of non-natural variations in a group of four farms. The variability of information was evaluated trough standard deviation estimator (sigma), calculated with basis of moving range. It was observed that time of year influenced significantly SCS and TBCt. The control charts, in each period, indicated signs of non-natural variation in SCS and TBCt in the group of herds evaluated. Furthermore, the control charts characterized the farms in statistical process control. The second study aimed to use SPC as a tool for identification and rating farms with larger probabilities of infraction on quality standard used by industry. Data of SCC and TBC from 452 farms, from January 2009 to March 2010, were used. The proportion of violation in quality standard, regarding the limits of SCC = 4000,000 cells/ mL and TBC = 100,000 CFU/ mL was calculated. Capability indices (Cpk) were calculated and farms were categorized into four classes of Cpk means and indices. Farms that presented larger means and deviation shoed superior frequencies of violation. Herds with means below the proposed limits of SCC and TBC represented, respectively, 25.05 % and 97.78 % of farms. However, proportion of farms that delivered milk consistently within the standards of quality evaluated (Cpk 1) represented 4.65 % and 35.17 % of farms for SCC and TBC, respectively. Therefore, application of SPC on farms is an additional tool for monitoring milk quality produced, the index Cpk can be used, by industries, associated with the current models to characterize milk quality from farms, since it identifies herds more consistent in producing quality-standard milk.
|
120 |
Estudo do efeito da qualidade dos pinos sobre os indicadores perda de voltagem anódica e distribuição de corrente em cubas Söderberg.Luiz Sérgio Vaz 00 December 1997 (has links)
Um experimento foi conduzido na fábrica da Alcoa Alumínio S.A., em Poços de Caldas - MG, para estudar o efeito da qualidade dos pinos anódicos e do tempo nos indicadores Perda de Voltagem Anódica e Distribuição de Corrente em cubas Söderberg. Utilizando a técnica de Análise de Variância para medições repetidas foi possível mostrar que cubas com pinos novos (cubas experiência) obtiveram uma redução estatisticamente significativa de 9,7% nos valores médios de Perda Anódica e uma melhoria de 12,6% na Distribuição de Corrente. O estudo mostrou que o fator tempo, em decorrência do processo de corrosão dos pinos, foi significativo na explicação da variação dos valores de Perda Anódica. Avaliando a expressão do coeficiente de variação, o estudo apresenta a tese de que a Distribuição de Corrente de uma cuba depende muito mais da variância da idade operacional dos pinos (estado de conservação) do que da sua vida útil. No propósito de evidenciar o comportamento dos dados ao longo do experimento, modelos de regressão, com limites naturais ou tecnológicos de crescimento, foram comparados segundo a natureza e forma da curva, se curvas "S" ou não.
|
Page generated in 0.0576 seconds