531 |
Estudo de esforços em pavimentos de concreto continuamente armados como plataformas ferroviárias. / Study of efforts in continuously reinforced concrete pavements as railway platforms.Freitas, Rodrigo Souza de 01 April 2019 (has links)
Desde os anos 1940, o pavimento de concreto continuamente armado (PCCA) é uma tecnologia empregada para o tráfego rodoviário nos Estados Unidos da América (EUA). A partir de 1972, na Alemanha, as premissas de construção do PCCA foram aplicadas em linhas ferroviárias. A utilização do PCCA como plataforma ferroviária é relativamente recente e ainda não existem normas específicas para o seu dimensionamento e análises. Diante disso, o comportamento estrutural do PCCA rodoviário é adotado para as vias férreas rígidas. O objetivo central deste trabalho é compreender o comportamento estrutural de um PCCA convencional utilizado como plataforma ferroviária. Para tanto, foram realizadas simulações numéricas computacionais com o software Abaqus/CAE, primeiramente para elaborar um modelo computacional de um PCCA convencional calibrando-o com resultados de ensaios de campo. Posteriores simulações com fixações, trilhos e a solicitações de três diferentes veículos foram conduzidas, no modelo inicialmente proposto, dentro do próprio Abaqus/CAE. As simulações no PCCA como plataforma ferroviária consistiram em avaliar se a posição da carga ferroviária em relação às fissuras do PCCA influenciava no comportamento estrutural do pavimento. Realizou-se também um estudo paramétrico com os elementos da via permanente e um estudo à fadiga no concreto utilizado. O PCCA comportou-se estruturalmente muito bem quando utilizado para veículos de passageiros. O período de vida observado para os veículos de passageiros está dentro do esperado para plataformas ferroviárias rígidas. Entretanto, para o caso do veículo de carga, os modelos de fadiga mostraram uma vida de projeto bem inferior à esperada para plataformas ferroviárias rígidas, portanto, o pavimento não suportaria o carregamento de veículos de carga. O estudo paramétrico demonstrou que a rigidez das fixações é o elemento que mais influencia na deflexão da via, na tensão de tração no fundo das placas e na tensão de tração em flexão nos trilhos. O melhoramento da capacidade estrutural da fundação diminui a tensão de tração no pavimento, sem alterar a deflexão na via permanente. / Since the 1940s, continuously reinforced concrete pavement (CRCP) is a technology used in the United States of America (USA) for road traffic. Starting in 1972, the CRCP construction premises were applied to railway lines in Germany. Use of PCCA as a railway platform is relatively recent and there are no specific standards for its scaling and analysis, there are no specific standards for its design and analysis. Given this, the structural behavior of the PCCA road is adopted for the rigid railways. The central objective of this work is to understand the structural behavior of a conventional CRCP used as a railway platform. For this, numerical simulations were performed with Abaqus/CAE software to develop a conventional CRCP model calibrated with field test results. Later, simulations with fixations, rails and three different vehicles loads were conducted in the model initially proposed. The CRCP simulations as railway platform consisted of evaluating whether the positioning of the rail load in relation to the CRCP transverse cracks influenced the structural behavior of the pavement. A parametric study was also performed on the permanent track elements and on the concrete fatigue life. As a result, the pavement lifespan observed under these vehicles loads is within that expected for rigid railway platforms, for the three fatigue models used. However, in the case of the cargo vehicle, the fatigue models showed a design life inferior that expected for rigid railway platforms; therefore, the pavement would not be appropriate for the loading of cargo vehicles. The parametric study showed that the stiffness of the fixings is the element that most influences track deflection, tensile stress at the bottom of the slabs and tensile stress in the rails. The improvement of the foundation decreases the tensile stress in the pavement without changing the deflection in the permanent way.
|
532 |
Análise de pastilhas de plantas por espectrometria de emissão óptica com plasma induzido por laser em regimes temporais de nano- e de femtossegundos / Nanosecond and femtosecond laser-induced breakdown spectroscopy for the analysis of pellets of plant materialsCarvalho, Gabriel Gustinelli Arantes de 11 June 2015 (has links)
A influência das variáveis associadas ao laser como a fluência, o comprimento de onda, e a duração do pulso, assim como as relacionadas às propriedades das amostras, como a distribuição do tamanho das partículas e as características químicas da matriz, foram avaliadas visando à determinação quantitativa de macro- (P, K, Ca, Mg) e micronutrientes (Cu, Fe, Mn, Zn, B) em pastilhas de materiais vegetais por espectrometria de emissão óptica com plasma induzido por laser (LIBS). Os efeitos da distribuição do tamanho das partículas e da fluência do laser foram investigados a partir da análise de amostras peneiradas (150-20 µm) empregando-se um sistema LIBS, em regime temporal de nanossegundos (ns-LIBS), montado com um laser de Nd:YAG a 1064 nm (pulsos de 5 ns e 360 mJ)e um espectrômetro com óptica Echelle e detector ICCD. Observou-se um aumento na sensibilidade e na precisão das medições com a diminuição do tamanho das partículas usadas no preparo das pastilhas, e uma diminuição dos efeitos de matriz causados por diferenças no tamanho das partículas, quando pastilhas preparadas com partículas < 75 µm foram analisadas com pulsos de 50 J cm-2. Verificou-se uma melhora significativa na exatidão das medições de Mg, Fe, Mn e Zn feitas em um conjunto de pastilhas de folhas de cana-de-açúcar (partículas < 75 µm) empregando-se esta fluência. Em uma segunda etapa, observou-se que variações no comprimento de onda do laser de Nd:YAG (1064, 532, 355 e 266 nm) não influenciaram de maneira significativa a precisão e exatidão das medições em pastilhas de folhas de cana-de-açúcar, obtendo-se correlações lineares entre as intensidades dos sinais de emissão e as correspondentes frações de massa dos analitos. Variações no comprimento de onda do laser de Nd:YAG não afetaram a análise de um conjunto heterogêneo de amostras, composto por pastilhas de folhas de plantas de diferentes espécies, como soja, cana-de-açúcar, milho, citros, café, por exemplo, por ns-LIBS. No entanto, diferentemente do observado para o conjunto de pastilhas de folhas de cana-de-açúcar, observou-se, uma baixa correlação (r cal < 0,90) entre as frações de massa de Ca, Mg, P, Cu, Fe, Mn e Zn determinadas por ns-LIBS e os valores de referência, o que demonstra a baixa robustez de ns-LIBS frente às variações na composição química das matrizes. Posteriormente, analisou-se este conjunto heterogêneo de amostras com sistema LIBS, em regime temporal de femtossegundos (fs-LIBS), montado com laser de Ti:Safira (pulsos de 60 fs e 1,65 mJ) e espectrômetro com óptica Czerny-Turner e ICCD. Demonstrou-se que o uso de pulsos em regime de fs proporcionou calibrações e validação menos dependentes da composição química das matrizes. As frações de massa de Ca, Mg, P, Fe e Mn previstas por fs-LIBS foram estatisticamente concordantes com os valores de referência, independentemente do modelo de calibração usado. Além disso, o uso de calibração multivariada melhorou a capacidade preditiva de ns-LIBS, assemelhando-se à de fs-LIBS. Concluiu-se que o emprego de fs-LIBS foi a estratégia mais robusta e que ofereceu maior flexibilidade à variabilidade matricial / The influence of laser properties, such as fluence, wavelength and pulse duration, as well as sample characteristics, such as particle size distribution and chemical matrix composition, was evaluated aiming at the quantitative determination of macro- (P, K, Ca, Mg) and micronutrients (Cu, Fe, Mn, Zn, B) in pellets of plant materials by laser-induced breakdown spectroscopy (LIBS). Firstly, the effects of particle size distribution and laser fluence on the analysis of pellets (test samples) prepared with sieved samples (from 150 to 20 µm apertures) were investigated. Experiments were carried out with a nanosecond LIBS (ns-LIBS) system by using a Q-switched Nd:YAG laser at 1064 nm (5 ns; 360 mJ) and a spectrometer with Echelle optics and intensified charge-coupled device (ICCD) detector. Results indicated that smaller particles yielded to sensitivities\' enhancement and attained better measurements\' precision. Moreover, matrix effects were reduced by analyzing pellets prepared from < 75 ?m sieved fractions and pulses of 50 J cm-2. In addition, there was a significant improvement on accuracy of Mg, Fe, Mn and Zn measurements in a set of test samples of sugarcane leaves by using this fluence. In a second experiment, variations in the Nd:YAG laser wavelength (1064, 532, 355 and 266 nm) did not affect the analysis of test samples of sugarcane leaves, and provided linear correlations between emission signal intensities and corresponding analytes mass fractions. In addition, variations within Nd:YAG laser wavelength did not affect the analysis of a heterogeneous sample set composed by pellets of leaves from different crops, such as soy, sugarcane, maize, citrus and coffee by ns-LIBS. However, in contrast to previous findings, the univariate calibration models for ns-LIBS presented lower linearity (r cal < 0.90) for Ca, Mg, P, Cu, Fe, Mn and Zn, no matter the laser wavelength used for the analysis. These circumstances reflect the low robustness of ns-LIBS to variations within matrix chemical composition among test samples. Afterwards, test samples from different crops were analyzed by a femtosecond LIBS (fs-LIBS) by using a Ti:Sapphire laser, including a mode-locked oscillator and an ultrafast amplifier (60 fs; 1.65 mJ per pulse), and a spectrometer with Czerny-Turner optics and ICCD. Findings indicated that the pulse duration was a decisive variable for providing accurate quantification of nutrients in different plant species, which present substantial differences in terms of matrix chemical composition. Close agreement between Ca, Mg, P, Fe and Mn mass fractions predicted by fs-LIBS and those determined by ICP OES was evidenced, whatever the modeling approach used. Contrarily, for ns-LIBS analysis of test samples from different crops, only the use of multivariate partial least squares (PLS) regression appears capable for resolving the non-linear transformations of the emission intensities according to the physical mechanisms governing this temporal regime of ablation. Thus, when using multivariate modeling, the figures-of merit reflecting the predictive capabilities of ns-LIBS resemble to those achieved by fs-LIBS. Either way, fs-LIBS is a more robust approach that better offers larger flexibility to the matrix variability
|
533 |
Fusão de informações obtidas a partir de múltiplas imagens visando à navegação autônoma de veículos inteligentes em abiente agrícola / Data fusion obtained from multiple images aiming the navigation of autonomous intelligent vehicles in agricultural environmentUtino, Vítor Manha 08 April 2015 (has links)
Este trabalho apresenta um sistema de auxilio à navegação autônoma para veículos terrestres com foco em ambientes estruturados em um cenário agrícola. É gerada a estimativa das posições dos obstáculos baseado na fusão das detecções provenientes do processamento dos dados de duas câmeras, uma estéreo e outra térmica. Foram desenvolvidos três módulos de detecção de obstáculos. O primeiro módulo utiliza imagens monoculares da câmera estéreo para detectar novidades no ambiente através da comparação do estado atual com o estado anterior. O segundo módulo utiliza a técnica Stixel para delimitar os obstáculos acima do plano do chão. Por fim, o terceiro módulo utiliza as imagens térmicas para encontrar assinaturas que evidenciem a presença de obstáculo. Os módulos de detecção são fundidos utilizando a Teoria de Dempster-Shafer que fornece a estimativa da presença de obstáculos no ambiente. Os experimentos foram executados em ambiente agrícola real. Foi executada a validação do sistema em cenários bem iluminados, com terreno irregular e com obstáculos diversos. O sistema apresentou um desempenho satisfatório tendo em vista a utilização de uma abordagem baseada em apenas três módulos de detecção com metodologias que não tem por objetivo priorizar a confirmação de obstáculos, mas sim a busca de novos obstáculos. Nesta dissertação são apresentados os principais componentes de um sistema de detecção de obstáculos e as etapas necessárias para a sua concepção, assim como resultados de experimentos com o uso de um veículo real. / This work presents a support system to the autonomous navigation for ground vehicles with focus on structured environments in an agricultural scenario. The estimated obstacle positions are generated based on the fusion of the detections from the processing of data from two cameras, one stereo and other thermal. Three modules obstacle detection have been developed. The first module uses monocular images of the stereo camera to detect novelties in the environment by comparing the current state with the previous state. The second module uses Stixel technique to delimit the obstacles above the ground plane. Finally, the third module uses thermal images to find signatures that reveal the presence of obstacle. The detection modules are fused using the Dempster-Shafer theory that provides an estimate of the presence of obstacles in the environment. The experiments were executed in real agricultural environment. System validation was performed in well-lit scenarios, with uneven terrain and different obstacles. The system showed satisfactory performance considering the use of an approach based on only three detection modules with methods that do not prioritize obstacle confirmation, but the search for new ones. This dissertation presents the main components of an obstacle detection system and the necessary steps for its design as well as results of experiments with the use of a real vehicle.
|
534 |
Regressão logística com erro de medida: comparação de métodos de estimação / Logistic regression model with measurement error: a comparison of estimation methodsRodrigues, Agatha Sacramento 27 June 2013 (has links)
Neste trabalho estudamos o modelo de regressão logística com erro de medida nas covariáveis. Abordamos as metodologias de estimação de máxima pseudoverossimilhança pelo algoritmo EM-Monte Carlo, calibração da regressão, SIMEX e naïve (ingênuo), método este que ignora o erro de medida. Comparamos os métodos em relação à estimação, através do viés e da raiz do erro quadrático médio, e em relação à predição de novas observações, através das medidas de desempenho sensibilidade, especificidade, verdadeiro preditivo positivo, verdadeiro preditivo negativo, acurácia e estatística de Kolmogorov-Smirnov. Os estudos de simulação evidenciam o melhor desempenho do método de máxima pseudoverossimilhança na estimação. Para as medidas de desempenho na predição não há diferença entre os métodos de estimação. Por fim, utilizamos nossos resultados em dois conjuntos de dados reais de diferentes áreas: área médica, cujo objetivo está na estimação da razão de chances, e área financeira, cujo intuito é a predição de novas observações. / We study the logistic model when explanatory variables are measured with error. Three estimation methods are presented, namely maximum pseudo-likelihood obtained through a Monte Carlo expectation-maximization type algorithm, regression calibration, SIMEX and naïve, which ignores the measurement error. These methods are compared through simulation. From the estimation point of view, we compare the different methods by evaluating their biases and root mean square errors. The predictive quality of the methods is evaluated based on sensitivity, specificity, positive and negative predictive values, accuracy and the Kolmogorov-Smirnov statistic. The simulation studies show that the best performing method is the maximum pseudo-likelihood method when the objective is to estimate the parameters. There is no difference among the estimation methods for predictive purposes. The results are illustrated in two real data sets from different application areas: medical area, whose goal is the estimation of the odds ratio, and financial area, whose goal is the prediction of new observations.
|
535 |
Modelos de regressão beta com erro nas variáveis / Beta regression model with measurement errorCarrasco, Jalmar Manuel Farfan 25 May 2012 (has links)
Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros. / In this thesis, we propose a beta regression model with measurement error. Among nonlinear models with measurement error, such a model has not been studied extensively. Here, we discuss estimation methods such as maximum likelihood, pseudo-maximum likelihood, and regression calibration methods. The maximum likelihood method estimates parameters by directly maximizing the logarithm of the likelihood function. The pseudo-maximum likelihood method is used when the inference in a given model involves only some but not all parameters. Hence, we say that the model under study presents parameters of interest, as well as nuisance parameters. When we replace the true covariate (observed variable) with conditional estimates of the unobserved variable given the observed variable, the method is known as regression calibration. We compare the aforementioned estimation methods through a Monte Carlo simulation study. This simulation study shows that maximum likelihood and pseudo-maximum likelihood methods perform better than the calibration regression method and the naïve approach. We use the programming language Ox (Doornik, 2011) as a computational tool. We calculate the asymptotic distribution of estimators in order to calculate confidence intervals and test hypotheses, as proposed by Carroll et. al (2006, Section A.6.6), Guolo (2011) and Gong and Samaniego (1981). Moreover, we use the likelihood ratio and gradient statistics to test hypotheses. We carry out a simulation study to evaluate the performance of the likelihood ratio and gradient tests. We develop diagnostic tests for the beta regression model with measurement error. We propose weighted standardized residuals as defined by Espinheira (2008) to verify the assumptions made for the model and to detect outliers. The measures of global influence, such as the generalized Cook\'s distance and likelihood distance, are used to detect influential points. In addition, we use the conformal approach for evaluating local influence for three perturbation schemes: case-weight perturbation, respose variable perturbation, and perturbation in the covariate with and without measurement error. We apply our results to two sets of real data to illustrate the theory developed. Finally, we present our conclusions and possible future work.
|
536 |
Aplicação da espectroscopia de infravermelho próximo na caracterização de petróleo: simulação de uma unidade de destilação atmosférica. / Application of near infrared spectroscopy in the characterization of crude petroleum: simulation of an atmospheric distillation unit.Falla Sotelo, Francisco 16 October 2006 (has links)
A contínua mudança na qualidade da carga de alimentação das unidades de destilação atmosférica introduz incertezas na operação do processo de refino. A caracterização precisa do petróleo bruto, cuja composição varia devido à sua natureza intrínseca e às condições de transporte e armazenamento nas refinarias, poderia auxiliar na redução destas incertezas. O processo clássico de caracterização, baseado nas curvas de destilação TBP (True Boiling Point, Ponto de Ebulição Verdadeiro), ainda não permite detectar essas mudanças de modo mais dinâmico, o que reduz a precisão da simulação do processo e, portanto, uma menor confiabilidade nas condições de operação determinadas a partir dela. No Brasil, petróleo pesado é produzido de forma predominante, que é misturado freqüentemente com petróleo leve importado antes do refino. Como conseqüência, nas refinarias brasileiras as características do petróleo mudam em média, a cada três dias, sendo esta taxa de variação incompatível com a determinação das curvas de destilação TBP. A análise SimDis (Simulated Distillation, Destilação Simulada) é atualmente a técnica de laboratório alternativa para aproximar as curvas de destilação. Porém, ainda apresenta algumas características que a tornam tão limitantes quanto a análise TBP. A espectroscopia NIR (Near InfraRed, Infravermelho Próximo), tem se consagrado como uma técnica analítica rápida e viável em inúmeras aplicações industriais na determinação de diversos parâmetros qualitativos. Neste trabalho, metodologias inovadoras de caracterização são desenvolvidas visando reproduzir com maior dinamismo o processo de refino. A reprodução das curvas de destilação das cargas ao processo de destilação atmosférica da Refinaria de Capuava (RECAP ? Petrobras S.A.) através do seu espectro NIR tem sido o ponto de partida no desenvolvimento do trabalho. Métodos de calibração multivariada e redes neurais foram utilizados na construção de algoritmos computacionais que permitem a previsão dos perfis de destilação do petróleo processado, os quais foram utilizados na simulação do processo para avaliar o impacto da aplicação desta metodologia. A boa qualidade da reprodução das propriedades físico-químicas do petróleo através do NIR foi comprovada, uma vez que os modelos construídos foram condicionados às características da matéria analisada. Quanto à reprodução do cenário real do processo através da simulação, os resultados obtidos são promissores, mostrando que a caracterização da carga é útil para reproduzir mudanças no processamento. Porém, alguns aspectos precisam ainda ser aprofundados visando o melhor desempenho das metodologias. Contudo, os resultados desta pesquisa reforçam a relevância do papel da espectroscopia NIR, juntamente com técnicas clássicas de laboratório utilizadas, numa nova concepção de caracterização, que tem na rapidez e confiabilidade os seus principais aliados e pode ser aplicada na simulação de um processo visando uma melhor qualidade de operação. / The continuous variation in the quality of the feed petroleum to atmospheric distillation unities brings uncertainty to the operation of the refining process. The characterization of the crude oil, whose composition varies due to its intrinsic nature and the transport conditions and storage in refineries, could be useful in reducing the uncertainty. The classic process of characterization, based on TBP distillation curves (True Boiling Point), still does not permit to detect these changes in a more dynamic manner, which reduces the precision of the process simulation and, consequently, less confidence in the operation conditions determined from it. In Brazil, heavy petroleum is produced predominantly, which is typically blended with light imported petroleum before refining. As a consequence, in Brazilian refineries the characteristics of the petroleum change, on the average, about every three days. This rate of the petroleum change is incompatible with the determination of TBP curves. Nowadays, SimDis analysis (Simulated Distillation) is an alternative laboratory technique able to approximate the distillation curves. However, it still presents some limiting characteristics like those of TBP analysis. In the last decades, the NIR spectroscopy (Near InfraRed) has showed to be a both fast and feasible analytical technique for innumerous industrial applications in the determination of various qualitative parameters. In the present work, an innovative characterization methodology is developed aiming to reproduce more dynamically the refining process. The reproduction of distillation curves of the feed to the atmospheric distillation process of the Refinery of Capuava (RECAP ? Petrobras S.A.) from its NIR spectral determination has been the initial point for the development. Multivariate calibration methods and neural networks have been used in the construction of computational algorithms that allow the prediction of distillation profiles of the petroleum processed. These profiles were applied in process simulation in order to evaluate the impact of the application of this methodology. The good quality of the physicochemical properties of petroleum reproduction using NIR was confirmed, it is due to the fact that constructed models were conditioned to the characteristics of the samples analyzed. With respect to the reproduction of the real process behavior through simulation, the results obtained are promising, which show that the feed characterization is useful in order to reproduce process variations. However, some aspects need to be analyzed deeply in order to improve the performance of the methodologies. Finally, the results of this research strengthen the role of NIR spectroscopy together with classic laboratory techniques used in a new characterization concept, whose major advantages are the rapidity and the trustworthiness of its predictions, that can be applied in order to improve the quality of the simulation of a process.
|
537 |
Calibração multivariada empregando transformada wavelet adaptativa.Clarimar José Coelho 00 December 2002 (has links)
Esta tese envolve o uso de técnicas baseadas na teoria de wavelets, mais especificamente bancos de filtros de quadratura espelhada, para tratar problemas de colinearidade na calibração multivariada de análises instrumentais.As principais contribuições do trabalho consistem na formulação de bancos de filtros na forma matricial usualmente empregada em quimiometria e no desenvolvimento de técnicas para otimizar os filtros de acordo com uma dada matriz de sinais de calibração. Para isso, dois métodos são propostos.O primeiro método objetiva maximizar a concentração de variância nas variáveis resultantes da transformação realizada pelo banco de filtros, de modo que um número menor de variáveis seja necessário para explicar uma dada quantidade de variância. Esse método emprega uma parametrização ortogonal dos filtros para contornar as dificuldades causadas pelas restrições não-lineares impostas pela condição de reconstrução perfeita. O segundo método objetiva maximizar o ganho de codificação do banco de filtros. Para isso, é proposta uma extensão da abordagem de programação semi-infinita para projeto de bancos de filtros de quadratura espelhada. Nos dois métodos, a otimização é seguida de um algoritmo de seleção para escolher um subconjunto de variáveis com pequena colinearidade.Regressão por mínimos-quadrados é então utilizada para relacionar essas variáveis com as concentrações dos analitos nas amostras de calibração. Adicionalmente, é proposto um algoritmo sub-ótimo para o ajuste simultâneo dos filtros e da estrutura de árvore de decomposição.Para fins de ilustração, as técnicas propostas são aplicadas à determinação simultânea de Mn, Mo, Cr, Ni e Fe em amostras de ação usando dados obtidos com um sistema de detecção de baixa resolução baseado em um espectrômetro de plasma acoplado a um arranjo de fotodiodos.Os resultados são expressos em termos dos erros de predição em um conjunto de amostras de teste não incluídas no processo de modelamento. Os resultados obtidos com os bancos de filtros otimizados mostram-se melhores que os obtidos com filtros não-otimizados e também com Regressão em Componentes Principais e Mínimos-Quadrados Parciais, que são técnicas comumente usadas em quimiometria.
|
538 |
Sistemas de análises químicas em fluxo explorando mecanismos de re-alimentação, calibração multivariada e outras abordagens para melhoria em desempenho / Flow systems exploiting feed-back mechanisms, multivariate calibration and other strategies for improving the analytical performanceFortes, Paula Regina 30 June 2010 (has links)
Estudos foram conduzidos relativamente ao desempenho dos sistemas de análises em fluxo quando configurados como sistemas inteligentes, associados às técnicas de calibração multivariada ou empregando nanocristais como sensibilizadores. Ainda, melhorias relacionadas às modificações dos fluxos foram avaliadas, especialmente no que se refere à diálise em linha. Neste sentido, foi proposta uma nova estratégia para implementar determinações simultâneas de ferro e vanádio em ligas metálicas envolvendo cinética diferencial. O método baseava-se nas diferentes influências exercidas por Fe2+ e por V4+ na taxa de oxidação de íons iodeto por íons Cr6+ sob condições ácidas. Três diferentes alíquotas de amostra eram inseridas em um fluxo transportador / reagente de KI, confluindo posteriormente com um fluxo de K2Cr2O7. A sobreposição entre as três zonas de amostra estabelecidas resultava em uma zona de amostra complexa com diversos valores de absorbância. Medidas realizadas nos pontos de máximos e minímos do sinal registrado eram mais precisas e continham informações acerca dos diferentes estágios de desenvolvimento da reação e de diferentes condições de concentrações. Em outra estratégia, um sistema MPFS inteligente foi proposto para a determinação turbidimétrica sequencial de sulfato e cloreto em águas naturais. Ambos os métodos foram implementados no mesmo módulo de análises, proporcionando facilidades relativas ao: preparo de amostra em linha; adição de íons sulfato ou cloreto ao meio reacional para melhoria das condições de supersaturação; decisão em tempo real acerca da necessidade ou não da próxima análise. Inicialmente, determinava-se a concentração de cloreto presente na amostra, e este resultado era comparado com um valor pré-determinado. Se este fosse superior, a amostra era analisada novamente visando à determinação de sulfato. Caso contrário, uma nova amostra era analisada. A estratégia resultou em aumento da velocidade analítica e em boas figuras de mérito analítico. Estudos relativos à natureza do fluxo foram conduzidos avaliando-se o desempenho dos fluxos pulsados provenientes de bombas solenóide em relação à eficiência do transporte de massas, dispersão da zona de amostra relacionada com a mudança de sentido do fluxo e eficiência do processo de diálise quando comparados aos fluxos tipicamente laminares. Embora fosse observada a presença de vórtices, o número de Reynolds experimentalmente obtido demonstrou que o fluxo resultante não era turbulento. Porém seu perfil exibia características de mescla turbulenta, melhorando assim o desempenho relativo ao transporte de massas e redução da dispersão da zona de amostra. Entretanto, beneficios relativos a melhorias no processo de diálise foram ausentes devido provavelmente à alta pressão exercida dentre da câmara de diálise, com consequente deformação dos poros da membrana. Nestas situações, um sistema de análises híbrido (com fluxo laminar e mescla turbulenta) seria fortemente recomendado. Finalmente, a implementação de nanocristais quantum dots (QDs) como sensibilizadores em um sistema MPFS envolvendo reação quimioluminescente foi proposta para a determinação de glipizida e gliclazida em formulaçoes farmacêuticas. O método fundamentava-se na oxidação dos íons S2- por Ce4+ em meio ácido. Na presença dos analitos, a intensidade da radiação emitida era inibida. A influência do diâmetro médio dos nanocristais foi avaliada, e os critérios utilizados para o dimensionamento do sistema foram a repetibilidade, a reprodutibilidade e a sensibilidade analítica. Os analitos foram quantificados no mesmo módulo de análises, e boas figuras de mérito analítico foram verificadas. Os resultados obtidos se apresentaram concordantes com aqueles obtidos pela Farmacopéia Britânica / Studies focusing on performance of intelligent analytical flow systems, association with multivariate calibration or use of nanocrystals as sensitizers were carried out. Moreover, improvements related to modifications in flow pattern were evaluated with emphasis to in-line dialysis. To this end, a strategy for implementing simultaneous determinations of iron and vanadium in alloys relying on differential kinetics was proposed. The method was based on the influence of Fe2+ and V4+ on the rate of iodide oxidation by Cr6+ under acidic conditions. Three different plugs of the sample were sequentially inserted into an acidic KI reagent carrier stream, and a confluent K2Cr2O7 solution was added downstream. Overlap between the established plugs led to a complex sample zone with several regions of maximal and minimal absorbance values. Measurements performed on these regions were more precise and revealed the different degrees of reaction development. In another strategy, an intelligent MPFS was proposed for sequential turbidimetric determination of sulphate and chloride in natural waters. Both methods were implemented in the same manifold, providing facilities for: in-line sample cleanup; addition of low amounts of sulphate or chloride ions to the reaction medium for improving supersaturation conditions and real-time decision on the need for next assay. The sample was initially run for chloride determination, and the analytical signal was compared with a preset value. If higher, the sample was run again, now for sulphate determination. Otherwise, next sample was assayed. The strategy led to an increased sample throughput and good analytical figures of merit. Studies focusing on the flow pattern were carried out aiming at the evaluation of the influence of the pulsed flows delivered by solenoid pumps in relation to the efficiency of mass transfer, dispersion related to changes in flow direction of the sample zone and dialysis process as compared with typical laminar flow. Although the establishment of vortices were noted, the experimentally obtained Reynolds number showed that a turbulent flow was not established. Its pattern exhibited characteristics which improved the performance due to the enhanced radial mass transport inherent in turbulent mixing. Comparatively to laminar flow, beneficial aspects were noted in relation to sample dispersion and mass transfer. In relation to dialysis efficiency however process the benefits were not noted probably due to the high pressure inside the dialysis chamber, with consequent membrane pore deformation. In this situation, a hybrid flow analysis system (with laminar flow and turbulent mixing) might be recommended. Implementation of quantum dots nanocrystals (QDs NC) as sensitizers in a MPFS with chemiluminometric detection was proposed for the determinations of gliclazide and glipizide in pharmaceutical formulations. The method relied on the oxidation of sulphite by Ce4+ in acidic medium and, in the presence of the analytes, the emitted radiation of the Ce4+-SO3 2--CdTe QDs system was inhibited. Influence of crystal size was investigated, and the criteria for system optimization were the analytical repeatability, reproducibility and sensitivity. Both analytes were quantified in the same manifold, resulting in good analytical figures of merit. The results were in fairly good agreement with those obtained by the British Pharmacopoeia reference method
|
539 |
Modelo causal para análise probabilística de risco de falhas de motores a jato em situação operacional de fabricaçãoPereira, José Cristiano 27 July 2017 (has links)
Submitted by Secretaria Pós de Produção (tpp@vm.uff.br) on 2017-07-27T19:21:56Z
No. of bitstreams: 1
D2014 - José Cristiano Pereira.pdf: 9830334 bytes, checksum: d5be51799514c74451d0ca3358d7757b (MD5) / Made available in DSpace on 2017-07-27T19:21:56Z (GMT). No. of bitstreams: 1
D2014 - José Cristiano Pereira.pdf: 9830334 bytes, checksum: d5be51799514c74451d0ca3358d7757b (MD5) / O processo de fabricação de motores a jato é complexo. Perigos e riscos e muitos elementos críticos estão presentes em milhares de atividades necessárias para fabricar um motor. Na investigação realizada nota-se a inexistência de um modelo específico para calcular quantitativamente a probabilidade de falha operacional de um motor à jato. O objetivo da tese foi desenvolver um modelo causal para análise de risco probabilística de falhas de motores a jato em situação operacional de fabricação. O modelo se caracteriza pela aplicação de rede Bayesiana associada à árvore de falha / árvore de evento e elicitação de probabilidades por especialistas para quantificar a probabilidade de falha. Para a concepção da construção do modelo, foi inicialmente desenvolvida uma pesquisa bibliométrica, através da consulta aos principais motores de busca nacionais e internacionais, em periódicos científicos e técnicos, bancos de dissertações/teses e eventos técnicos relacionados ao tema, para estabelecimento dos estado-da-arte e da técnica. Para a estimativa das probabilidades associadas aos cenários de falhas propostos, foi desenvolvido um processo de elicitação de probabilidade a partir da consulta a especialistas e técnicos. Na concepção do modelo foram consideradas três áreas de influência para a confiabilidade do sistema: humana, software e calibração. Como resultado foi desenvolvido o modelo CAPEMO, que é suportado por um aplicativo que utiliza a teoria das probabilidades (Lei de Bayes) para modelar incerteza. A probabilidade de falha estimada ao final da processo de fabricação, antes do motor ser colocado em operação, contribui no processo de tomada de decisão, melhoria da segurança do sistema e redução de riscos de falha do motor em operação / The process of jet engines manufacturing is complex. Hazards and risks and many critical elements are present in the thousands of activities required to manufacture an engine. In the conducted investigation it is observed a lack of a specific model to estimate quantitatively the probability of a jet engine operational failure. The goal of this thesis is to develop a causal model for probabilistic risk analysis of jet engines failure in manufacturing situational operation. The model is characterized by the application of Bayesian Network associated with the fault tree and event tree to quantify the probability of failure. For the establishment of state-of-the-art and technique and for the conception and construction of the model, a bibliometric research was conducted in the main national and international search engines, in the scientific and technical journals, in the database of dissertations/theses and technical events related to the topic. For the estimation of the probabilities associated with the proposed fault scenarios, a process of probability elicitation from technicians and experts was developed. In the design of the model three areas of influence for the reliability of the system were considered: human, software and calibration. As a result CAPEMO model was developed, that is supported by a software application that uses probability theory to model uncertainty. The probability of engine failure estimated at the end of the manufacturing process, before the motor be put into operation, helps in the allocation of resources in the decision-making process and improves system safety reducing the risk of engine failure in operation
|
540 |
Modelos de regressão beta com erro nas variáveis / Beta regression model with measurement errorJalmar Manuel Farfan Carrasco 25 May 2012 (has links)
Neste trabalho de tese propomos um modelo de regressão beta com erros de medida. Esta proposta é uma área inexplorada em modelos não lineares na presença de erros de medição. Abordamos metodologias de estimação, como máxima verossimilhança aproximada, máxima pseudo-verossimilhança aproximada e calibração da regressão. O método de máxima verossimilhança aproximada determina as estimativas maximizando diretamente o logaritmo da função de verossimilhança. O método de máxima pseudo-verossimilhança aproximada é utilizado quando a inferência em um determinado modelo envolve apenas alguns mas não todos os parâmetros. Nesse sentido, dizemos que o modelo apresenta parâmetros de interesse como também de perturbação. Quando substituímos a verdadeira covariável (variável não observada) por uma estimativa da esperança condicional da variável não observada dada a observada, o método é conhecido como calibração da regressão. Comparamos as metodologias de estimação mediante um estudo de simulação de Monte Carlo. Este estudo de simulação evidenciou que os métodos de máxima verossimilhança aproximada e máxima pseudo-verossimilhança aproximada tiveram melhor desempenho frente aos métodos de calibração da regressão e naïve (ingênuo). Utilizamos a linguagem de programação Ox (Doornik, 2011) como suporte computacional. Encontramos a distribuição assintótica dos estimadores, com o objetivo de calcular intervalos de confiança e testar hipóteses, tal como propõem Carroll et. al.(2006, Seção A.6.6), Guolo (2011) e Gong e Samaniego (1981). Ademais, são utilizadas as estatísticas da razão de verossimilhanças e gradiente para testar hipóteses. Num estudo de simulação realizado, avaliamos o desempenho dos testes da razão de verossimilhanças e gradiente. Desenvolvemos técnicas de diagnóstico para o modelo de regressão beta com erros de medida. Propomos o resíduo ponderado padronizado tal como definem Espinheira (2008) com o objetivo de verificar as suposições assumidas ao modelo e detectar pontos aberrantes. Medidas de influência global, tais como a distância de Cook generalizada e o afastamento da verossimilhança, são utilizadas para detectar pontos influentes. Além disso, utilizamos a técnica de influência local conformal sob três esquemas de perturbação (ponderação de casos, perturbação da variável resposta e perturbação da covariável com e sem erros de medida). Aplicamos nossos resultados a dois conjuntos de dados reais para exemplificar a teoria desenvolvida. Finalmente, apresentamos algumas conclusões e possíveis trabalhos futuros. / In this thesis, we propose a beta regression model with measurement error. Among nonlinear models with measurement error, such a model has not been studied extensively. Here, we discuss estimation methods such as maximum likelihood, pseudo-maximum likelihood, and regression calibration methods. The maximum likelihood method estimates parameters by directly maximizing the logarithm of the likelihood function. The pseudo-maximum likelihood method is used when the inference in a given model involves only some but not all parameters. Hence, we say that the model under study presents parameters of interest, as well as nuisance parameters. When we replace the true covariate (observed variable) with conditional estimates of the unobserved variable given the observed variable, the method is known as regression calibration. We compare the aforementioned estimation methods through a Monte Carlo simulation study. This simulation study shows that maximum likelihood and pseudo-maximum likelihood methods perform better than the calibration regression method and the naïve approach. We use the programming language Ox (Doornik, 2011) as a computational tool. We calculate the asymptotic distribution of estimators in order to calculate confidence intervals and test hypotheses, as proposed by Carroll et. al (2006, Section A.6.6), Guolo (2011) and Gong and Samaniego (1981). Moreover, we use the likelihood ratio and gradient statistics to test hypotheses. We carry out a simulation study to evaluate the performance of the likelihood ratio and gradient tests. We develop diagnostic tests for the beta regression model with measurement error. We propose weighted standardized residuals as defined by Espinheira (2008) to verify the assumptions made for the model and to detect outliers. The measures of global influence, such as the generalized Cook\'s distance and likelihood distance, are used to detect influential points. In addition, we use the conformal approach for evaluating local influence for three perturbation schemes: case-weight perturbation, respose variable perturbation, and perturbation in the covariate with and without measurement error. We apply our results to two sets of real data to illustrate the theory developed. Finally, we present our conclusions and possible future work.
|
Page generated in 0.056 seconds