• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 9
  • 5
  • 3
  • 1
  • Tagged with
  • 48
  • 25
  • 13
  • 10
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

[en] HIGH FREQUENCY DATA AND PRICE-MAKING PROCESS ANALYSIS: THE EXPONENTIAL MULTIVARIATE AUTOREGRESSIVE CONDITIONAL MODEL - EMACM / [pt] ANÁLISE DE DADOS DE ALTA FREQÜÊNCIA E DO PROCESSO DE FORMAÇÃO DE PREÇOS: O MODELO MULTIVARIADO EXPONENCIAL - EMACM

GUSTAVO SANTOS RAPOSO 04 July 2006 (has links)
[pt] A modelagem de dados que qualificam as transações de ativos financeiros, tais como, preço, spread de compra e venda, volume e duração, vem despertando o interesse de pesquisadores na área de finanças, levando a um aumento crescente do número de publicações referentes ao tema. As primeiras propostas se limitaram aos modelos de duração. Mais tarde, o impacto da duração sobre a volatilidade instantânea foi analisado. Recentemente, Manganelli (2002) incluiu dados referentes aos volumes transacionados dentro de um modelo vetorial. Neste estudo, nós estendemos o trabalho de Manganelli através da inclusão do spread de compra e venda num modelo vetorial autoregressivo, onde as médias condicionais do spread, volume, duração e volatilidade instantânea são descritas a partir de uma formulação exponencial chamada Exponential Multivariate Autoregressive Conditional Model (EMACM). Nesta nova proposta, não se fazem necessárias a adoção de quaisquer restrições nos parâmetros do modelo, o que facilita o procedimento de estimação por máxima verossimilhança e permite a utilização de testes de Razão de Verossimilhança na especificação da forma funcional do modelo (estrutura de interdependência). Em paralelo, a questão de antecipar movimentos nos preços de ativos financeiros é analisada mediante a utilização de um procedimento integrado, no qual, além da modelagem de dados financeiros de alta freqüência, faz-se uso de um modelo probit ordenado contemporâneo. O EMACM é empregado com o objetivo de capturar a dinâmica associada às variáveis e sua função de previsão é utilizada como proxy para a informação contemporânea necessária ao modelo de previsão de preços proposto. / [en] The availability of high frequency financial transaction data - price, spread, volume and duration -has contributed to the growing number of scientific articles on this topic. The first proposals were limited to pure duration models. Later, the impact of duration over instantaneous volatility was analyzed. More recently, Manganelli (2002) included volume into a vector model. In this document, we extended his work by including the bid-ask spread into the analysis through a vector autoregressive model. The conditional means of spread, volume and duration along with the volatility of returns evolve through transaction events based on an exponential formulation we called Exponential Multivariate Autoregressive Conditional Model (EMACM). In our proposal, there are no constraints on the parameters of the VAR model. This facilitates the maximum likelihood estimation of the model and allows the use of simple likelihood ratio hypothesis tests to specify the model and obtain some clues about the interdependency structure of the variables. In parallel, the problem of stock price forecasting is faced through an integrated approach in which, besides the modeling of high frequency financial data, a contemporary ordered probit model is used. Here, EMACM captures the dynamic that high frequency variables present, and its forecasting function is taken as a proxy to the contemporaneous information necessary to the pricing model.
32

Testando o CAPM no mercado acionário brasileiro utilizando GARCH Multivariado entre 1995 e 2012

Godeiro, Lucas Lúcio 30 October 2012 (has links)
Made available in DSpace on 2016-04-26T20:48:38Z (GMT). No. of bitstreams: 1 Lucas Lucio Godeiro.pdf: 2764843 bytes, checksum: c27a349337947bc5671ae909ca2237f6 (MD5) Previous issue date: 2012-10-30 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / The work aim to test the CAPM for the Brazilian Shares Market using the static was beta and the dynamic beta. The sample used is composed for 28 shares of the Ibovespa index in March 21, 2012 and that was traded long the period researched, between 01/01/1995 and 20/03/2012. Was estimated the static and dynamic betas, and that the dynamics betas has a larger explication power on the cross section returns excess. It was found that the parameters that measure relative risk aversion were significant, indicating that an increase in volatility negatively affects the expected return of the agents / A pesquisa objetiva testar o CAPM para o mercado de ações brasileiro utilizando o beta estático e o beta dinâmico. A amostra utilizada é composta por 28 ações do índice Ibovespa em vinte de março de 2012 e que foram negociados durante todo o período pesquisado, que vai de 01/01/1995 a 20/03/2012. Foram estimados os betas estáticos e dinâmicos, sendo que os betas dinâmicos tem um maior poder de explicação sobre os excessos de retornos cross section. Também foi constatado que os parâmetros que medem aversão a risco relativa foram significantes, indicando que um aumento de volatilidade afeta de forma negativa o retorno esperado dos agentes
33

Interdependência e assimetria de retornos e volatilidade dos ADRs da América Latina em relação aos mercados desenvolvidos durante a crise do subprime: um estudo multivariado / Interdependence and asymmetry of returns and volatility of ADRs from Latin America compared to developed markets during the subprime crisis: a multivariate study

Corrêa, Ana Carolina Costa 02 September 2016 (has links)
A crescente globalização financeira e integração desses mercados resultaram em relações cada vez mais próximas entre os países, sejam eles desenvolvidos ou emergentes. Esses fenômenos, somados às crises financeiras recentes, provocaram maior interesse nos eventos de transmissão de volatilidade e de fluxos de informações entre os mercados financeiros. Dentre elas, destaca-se a crise financeira internacional de 2008, conhecida como \"crise do subprime\", considerada a maior e mais importante desde a Grande Depressão de 1929. Neste contexto, o mercado de recibos americanos de depósito (ADRs) apresentou uma importância crescente nas últimas décadas, especialmente para companhias sediadas em países emergentes, como os da América Latina. Essa região, particularmente, exibiu uma grande expansão neste mercado. De maneira geral, as empresas de países emergentes emissoras de ADRs possuem características mais similares às companhias sediadas nos mercados desenvolvidos, comparadas às demais de seu país de origem. Por isso, como objetivo geral deste estudo, buscou-se detectar e mensurar o fenômeno da interdependência, englobando os transbordamentos (spillovers) de retornos e de volatilidade e suas assimetrias, entre os principais mercados de capitais da América Latina - Brasil, Argentina, Chile e México - e dos países desenvolvidos - Estados Unidos, Japão, Reino Unido e França - no âmbito da última crise financeira internacional. Esse fenômeno foi investigado considerando tanto seus índices acionários de mercado, como os índices de ADRs criados neste estudo, um para cada mercado da América Latina. Estes foram compostos pelas cotações de seus respectivos ADRs níveis 2 ou 3, sendo que a metodologia desenvolvida para sua criação foi uma das contribuições deste trabalho. A partir das séries temporais de retornos diários logarítmicos dos índices dos oito países no período de junho de 2008 a maio de 2015, foi empregada uma metodologia abrangente. Foram aplicadas três abordagens univariadas para modelagem das volatilidades dos mercados (GARCH, EGARCH e TARCH) e dois modelos multivariados assimétricos VAR-MGARCH, com representação Diagonal VECH, para identificação dos transbordamentos de retornos e volatilidade, bem como a análise de suas correlações condicionais. Além disso, foram estimados dois modelos autorregressivos multivariados (VAR) para análise das relações conjuntas dos mercados, e a análise das Funções de Resposta a Impulso (IRF) e dos efeitos sobre a variância por meio de sua decomposição. Os resultados indicaram que as séries de retornos dos mercados de ADRs de empresas latino-americanas não apresentam comportamento mais similar, no tocante à volatilidade, ao dos principais mercados de capitais desenvolvidos. No entanto, há evidências de que os índices de ADRs possuem maior interdependência com os principais mercados de capitais desenvolvidos, por apresentarem relações mais próximas com esses, comparados aos mercados acionários latino-americanos analisados. Essa conclusão corrobora as hipóteses elaboradas sobre esse tema a partir da teoria de segmentação de mercado e das próprias características dessas companhias. Outro resultado relevante foi que os mercados emergentes da América Latina são mais suscetíveis a efeitos locais e regionais que globais, confirmando o benefício do uso dos ativos financeiros desses países para diversificação de carteiras internacionais, mesmo durante uma crise financeira internacional, como a do subprime. / The growing financial globalization and integration of this markets resulted in increasingly close links between the countries, both developed and emerging ones. These phenomena, added to the recent financial crises, provoked greater interest in the events of volatility and information flows transmission between the financial markets. Among them, stands out the international financial crisis of 2008, known as the \"subprime crisis\", considered the largest and most important since the Great Depression of 1929. In this context, the American Depositary Receipts (ADRs) market showed an increasing importance in recent decades, especially for companies based in emerging markets, such as the Latin America. This region, particularly, exhibited a large expansion in this market. In general, companies in emerging countries issuers of ADRs have more similar characteristics to companies based in developed markets, compared to the rest of their country of origin. Therefore, the general objective of this study was to detect and measure the interdependence phenomenon, encompassing returns and volatility spillovers and their asymmetries, among the major capital markets in Latin America - Brazil, Argentina, Chile and Mexico - and developed countries - United States, Japan, UK and France - within the last international financial crisis. This phenomenon was investigated considering both their stock market indices and the ADRs indices created in this study, one for each Latin America country. They were compound of the quotes from their respective ADRs levels 2 or 3, and the methodology developed for their creation was one of the contributions of this assignment. Using the time series of daily logarithmic returns of the eight countries indices in the period from June 2008 to May 2015, it was applied an embracing methodology. It was estimated three univariate approaches to modeling the markets volatility (GARCH, EGARCH and TARCH) and two asymmetric multivariate models VAR-MGARCH, with Diagonal VECH representation, for identification of the returns and volatility spillovers, as well as analysis of their conditional correlations. In addition, two multivariate autoregressive models (VAR) were estimated for analysis of joint relations of markets, and analysis of Impulse Response Functions (IRF) and the effects on the variance through its decomposition. The results indicated that the returns series from Latin American ADR markets doesn\"t have behavior more similar, with regard to volatility, to the major developed capital markets. However, there is evidence that the ADR indices present greater interdependence with the major developed capital markets, because they have closer relationships with these, compared to the Latin American equity markets analyzed. This finding supports the hypothesis elaborated on this subject from the market segmentation theory and the characteristics of these companies. Another important result was that the emerging markets of Latin America are more susceptible to local and regional effects than global ones, confirming the benefit of the use of the financial assets of these countries for diversification of international portfolios, even during an international financial crisis, such as the subprime.
34

[en] AIR QUALITY MONITORING AND ASSESSMENT: A MULTIDISCIPLINARY STUDY / [pt] MONITORAMENTO E AVALIAÇÃO DA QUALIDADE DO AR: UM ESTUDO MULTIDISCIPLINAR

ALEX RUBEN HUAMAN DE LA CRUZ 18 January 2019 (has links)
[pt] A poluição do ar é um dos sérios problemas que o mundo enfrenta atualmente. Sua compreensão é muito complexa devido à estreita relação dos poluentes com as variáveis meteorológicas e o uso da terra os quais influenciam sua composição. Atualmente, existem duas abordagens tradicionais para a coleta de amostras relevantes para a deposição atmosférica e estudos atmosféricos relacionados aos estudos de monitoramento. A primeira abordagem envolve a coleta direta de material particulado (PM) transportado pelo ar que objetivou estudos quantitativos em forma local, de curto/médio alcance ou de transporte global de poluentes, incluindo estudos relacionados à saúde relacionados ao tamanho de material particulado: PM2.5 e PM10. Sua aplicação em grande escala implica em investimentos caros devido a altos custos de manutenção e problemas logísticos para instalar o equipamento instrumental em todos os locais necessários de amostragem. A segunda abordagem usa um biomonitor para avaliar a poluição do ar que é considerado como não custoso, mas confiável e relativamente simples. Portanto, monitorar a qualidade do ar usando organismos vivos como biomonitores recebeu atenção crescente nos últimos anos, porque certos tipos de organismos biológicos fornecem uma medida de exposição integrada em determinado período de tempo e enriquecem a substância a ser determinada para que a acessibilidade analítica seja melhorada e a incerteza das medições reduzida. Neste trabalho, a maioria dos estudos foi abordada no uso de biomonitores como ferramenta adequada para avaliar a qualidade do ar de diferentes locais. Esta tese teve seis objetivos principais: 1) biomonitoramento passivo com líquens; 2) biomonitoramento da qualidade do ar próximo a área industrial; 3) biomonitoramento ativo com espécies de Tillandsia; 4) uma comparação do biomonitoramento usando três espécies diferentes de Tillandsia; 5) qualidade do ar nos Jogos Olímpicos de 2016; 6) correção de sobreposição espectral. Os biomonitores foram coletados do local de controle, transplantados e expostos na área de estudo de interesse por um período de tempo determinado para acumular oligoelementos. Os oligoelementos foram medidos por espectrometria de massa com plasma indutivamente acoplado (ICP-MS) e os resultados das concentrações foram tratados com ferramentas quimiométricos. Os resultados mostraram a capacidade dos líquenes e das espécies de Tillandsia de acumular elementos traço e ferramentas quimiométricos ajudaram para identificar possíveis fontes de emissão. No primeiro objetivo foram identificadas três possíveis fontes de emissão: fontes veiculares, re-suspensão do solo (origem natural) e práticas agrícolas. No segundo objetivo foi provado que partículas negras foram emitidas principalmente da indústria do couro. O terceiro objetivo mostra as emissões veiculares como principal fonte de poluição nas áreas urbanas, uso de agroquímicos nas áreas peri-urbanas e ressuspensão do solo representada pelas áreas rurais. O quarto objetivo mostra que todas as espécies de Tillandsia provaram ser bons biomonitores. O quinto objetivo demonstrou que o controle de estratégias e a regulação do tráfego implantado pelo governo do Rio de Janeiro influenciaram na redução de poluentes durante o período olímpico. No sexto objetivo, Lasso mostrou os melhores resultados quando os valores preditivos de elementos de terras raras foram analisados. / [en] Air pollution is one of the serious problems that the world currently facing. Their understanding it is very complex due to the close relationship of the pollutants, meteorological variables, and land uses influence their composition. Actually, there are two traditional approaches for collecting samples relevant to air and atmospheric deposition which are related to monitoring studies. The first approach involves the direct collection of airborne particulate matter (PM) which aimed quantitative studies at local, short/medium range or global transport of pollutants, including health-related studies related to size fractionate airborne particulate matter (PM2.5 and PM10). Their application on large-scale implied expensive investments due to both high costs of maintenance and logistic problem to install the instrumental equipment at all needed locations. The second approach uses an air pollution monitor which is considered as a non-expensive, yet reliable, and relatively simple. Therefore, monitoring air quality by using living organisms as biomonitors has received increasing attention in recent years because certain types of biological organisms provide a measure of integrated exposure over certain amount of time and enrich the substance to be determined so that the analytical accessibility is improved and the measurements uncertainty reduced. In this work, the most of studies were approached in the use of biomonitors as tool suitable to assess the air quality of different locations. This thesis had six principal objectives: 1) passive biomonitoring with lichens; 2) biomonitoring of air quality near industrial area; 3) active biomonitoring with Tillandsia species; 4) a comparison of biomonitoring using three different species of Tillandsia; 5) air quality in 2016 Olympic Games; 6) correction of spectral overlap. Biomonitors were collected from control site, transplanted and exposed into the study area of interest for a time period determined to accumulate trace elements. Trace elements were measured by inductively coupled plasma mass spectrometry (ICP-MS) and the concentrations results were treated with chemometric tools. Results show the ability of lichens and Tillandsia species to accumulate trace elements and chemometric tools helped to identify possible emission sources. In the first objective were identified three possible sources of emission: vehicular sources, soil resuspension (natural origin) and agricultural practices. In the second objective was proved that black particles were emitted mainly from leather industry. The third objective shows the vehicular emissions as the main source of pollution in the urban areas, use of agrochemicals in the peri-urban areas and soil resuspension represented by rural areas. The fourth objective shows that all Tillandsia species proved to be good biomonitors. The fifth objective demonstrated that strategies control and traffic regulation implanted by the government of Rio de Janeiro influenced in the reduction of pollutants during the Olympic period. In the sixth objective, Lasso shows better results when predict values of rare earth elements were analyzed.
35

Determinação de hidrocarbonetos policíclicos aromáticos associados ao material particulado atmosféric

Lopes, Wilson Araújo 09 February 2007 (has links)
Submitted by Ana Hilda Fonseca (anahilda@ufba.br) on 2016-09-06T16:08:00Z No. of bitstreams: 1 Lopes W A Tese de Doutorado IQ-UFBA 2007.PDF: 2585828 bytes, checksum: 5e4ecce83a58663cda34dce3a68a966c (MD5) / Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2016-09-08T10:48:19Z (GMT) No. of bitstreams: 1 Lopes W A Tese de Doutorado IQ-UFBA 2007.PDF: 2585828 bytes, checksum: 5e4ecce83a58663cda34dce3a68a966c (MD5) / Made available in DSpace on 2016-09-08T10:48:19Z (GMT). No. of bitstreams: 1 Lopes W A Tese de Doutorado IQ-UFBA 2007.PDF: 2585828 bytes, checksum: 5e4ecce83a58663cda34dce3a68a966c (MD5) / CNPq, FINEP, FAPESB e ANEEL / Os Hidrocarbonetos policíclicos aromáticos (HPA) são poluentes formados geralmente durante a combustão incompleta de petróleo e derivados, carvão mineral, biomassa e outros materiais orgânicos. São emitidos por diversas fontes naturais ou antrópicas e estão presentes na atmosfera, hidrosfera e litosfera. A atmosfera é o seu principal meio de transporte onde se encontram em fase vapor ou adsorvidos em material particulado. Em centros urbanos, sua emissão está associada principalmente aos veículos automotores, movidos a diesel e gasolina. Os HPA e seus derivados, por exemplo, os nitro-HPA e oxi-HPA, são agentes cancerígenos e/ou mutagênicos, daí a importância de estudos sobre a sua presença na atmosfera e em outras matrizes ambientais, sobre a reatividade e atividades biológicas. Neste trabalho, foram determinadas as concentrações atmosféricas para 16 HPA considerados como poluentes prioritários pela agência de proteção ambiental dos Estados Unidos da América (U. S. EPA), em amostras de material particulado atmosférico (MPA), usando o método de CG-EM com monitoramento de íons selecionados. As amostras de MPA foram coletadas em amostradores de grande volume (Hi-vol) e, em seguida, foram extraídas usando a técnica de sonicação e uma solução de acetonitrila e diclorometano (3:1) como solvente. Os extratos foram pré- concentrados (10/1) e em seguida analisados por CG-EM/SIM. Com o objetivo de assegurar uma boa separação dos 16 HPA, no menor tempo de análise, foi utilizado o planejamento multivariado para estabelecer as condições de programação de temperatura do forno (aquecimento da coluna). O processo de otimização foi realizado por meio do planejamento fatorial fracionário e através do planejamento do tipo Box-Behnken, sendo avaliados os seguintes fatores: temperatura inicial (oC), velocidade de elevação da temperatura N° 1 (°C.min-1), temperatura intermediária (oC), velocidade de elevação da temperatura N° 2 (°C.min-1) e temperatura final (oC). As condições otimizadas para a separação dos 16 HPA foram estabelecidas em: 70 °C (2 min) ? 200 °C (30 °C/min, 5 min) ? 300 °C (5 °C/min, 1,67 min). O tempo total da análise, com uma boa separação dos 16 analitos, ficou em 33 minutos. A validação da técnica de CG-EM, no modo SIM, apresentou resultados considerados satisfatórios para a repetitividade da resposta do detector, repetitividade do tempo de retenção, e linearidade das curvas de calibração. Os limites de detecção foram estabelecidos entre 0,13 e 0,34 ng mL-1 (área) e 0,18 e 0,72 ng mL-1 (altura de pico) e os limites de quantificação entre 0,38 e 1,04 ng mL-1 (área) e entre 0,61 e 2,39 ng mL-1 (altura de pico). As amostras ambientais de MPA foram coletadas em quatro diferentes locais, apresentando os seguintes resultados: i) Estação da Lapa (Salvador, BA) - Os HPA presentes em concentrações mais altas foram o criseno (CRI), pireno (PIR) e benzo[b]fluoranteno (BbF), apresentando concentrações médias de respectivamente 2,62, 1,32 e 1,30 ng m-3, e perfil compatível com emissões de veículos movidos a diesel; ii) Porto de Aratu (Candeias, BA) - Os HPA presentes em maiores concentrações foram o benzo[b]fluoranteno (BbF), benzo[g,h,i]perileno (BgP) e Indeno[1,2,3- c,d]pireno (IND), apresentando concentrações médias de respectivamente 2,53, 1,22 e 1,12 ng m-3 (AGV-PTS) e 1,74, 0,82 e 0,73 (AGV MP10); iii) Ilha de Maré, (Salvador, BA) – os valores mais altos foram observados para o benzo[b]fluoranteno (BbF), benzo[b]fluoranteno (BkF) e benzo[g,h,i]perileno (BgP), apresentando concentrações médias de respectivamente 1,62, 0,73 e 0,72 ng m-3; iv) Cidade Universitária da USP (São Paulo, SP) - Os HPA que apresentaram maiores concentrações médias foram o benzo[b]fluoranteno (BbF), criseno (CRI) e o benzo[g,h,i]perileno, com os valores de, respectivamente, 0,93, 0,50 e 0,49 ng m-3. Os resultados foram avaliados em termos de perfil das concentrações, prováveis fontes de emissões e, em alguns casos, por comparação com análises anteriores. / Polycyclic aromatic hydrocarbons (PAH) are ubiquitous pollutants that are emitted from several natural or anthropic sources and may be present in the atmosphere, hydrosphere and lithosphere. They usually originate during the incomplete combustion of petroleum and its derivatives, mineral coal, biomass and other organic materials. They are mainly transported in the atmosphere, being present either in the vapor phase or adsorbed in particulate material. In urban centers, emission is mainly associated with diesel- and gasoline-powered motor vehicles. Since PAH and derivatives, e.g. nitro-PAH and oxy-PAH, are carcinogenic and/or mutagenic agents, to study the effect of their presence in the atmosphere and in other environmental matrices on the biological activity and reactivity are of key relevance. In this study, the atmospheric concentrations of the 16 PAHs that are considered priority pollutants by the U.S. Environmental Protection Agency were evaluated in samples of atmospheric particulate material (APM), using gas chromatography / mass spectrometry with selected-ion monitoring mode (GC-MS/SIM). APM samples were collected in high-volume air samplers (Hi-vol) and then extracted under sonication with a solution of acetonitrile and dichloromethane (3:1) as a solvent. Extracts were pre-concentrated (10/1) and analyzed by GC-MS/SIM. In order to assure an adequate separation of the 16 PAHs, in the shortest analysis time, a multivariate design was used to set the conditions of the oven temperature program (column warming). The optimization process was carried out using factorial fractional design and Box-Behnken design. The following factors were evaluated: initial temperature (ºC), temperature rate N°1 (ºC.min-1), intermediate temperature (ºC), temperature rate N°2 (ºC.min-1) and final temperature (ºC). The optimized conditions for the separation of the 16 PAH were set at: 70 ºC (2 min) → 200 ºC (30 ºC/min, 5 min) → 300 ºC (5 ºC/min, 1.67 min). Total analysis time, with an adequate separation of the 16 analytes was 33 minutes. Validation of GC-MS in the SIM mode rendered satisfactory results for repeatability of detector response, repeatability of retention time, and linearity of calibration curves. Detection limits were established between 0.13 and 0.34 ng mL- 1 (area) and 0.18 and 0.72 ng mL-1 (peak height). Environmental samples of PMA were collected at four different locations, with the following results: i) Lapa Bus Station (Salvador, BA) - The PAH with the highest concentrations were crysene (CRY), pyrene (PYR) and benzo[b]fluoranthene (BbF), with mean concentrations of 2.62, 1.32, and 1.30 ng m-3, respectively, suggesting a profile compatible with diesel vehicle emissions; ii) Port of Aratu (Candeias, BA) – The PAH with the highest concentrations were benzo[b]fluoranthene (BbF), benzo[g,h,i]perylene (BgP) and indeno[1,2,3-c,d]pyrene (IND), with mean concentrations of 2.53, 1.22, and 1.12 ng m-3 (TSP) and 1.74, 0.82 e 0.73 (PM10), respectively; iii) Ilha de Maré, (Salvador, BA) – The PAH with the highest concentrations were benzo[b]fluoranthene (BbF), benzo[k]fluoranthene (BkF) and benzo[g,h,i]perylene (BgP), with mean concentrations of 1.62, 0.73 e 0.72 ng m-3, respectively; iv) University of São Paulo (São Paulo, SP) - The PAH with the highest mean concentrations were benzo[b]fluoranthene (BbF), chrysene (CRI) and benzo[g,h,i]perylene (BgP) with values of 0.93, 0.50 and 0.49 ng m-3, respectively. The results were evaluated with respect to concentration profile, probable emission sources and in some cases, were compared to prior analyses.
36

Ensaios sobre a dinâmica em finanças

Dana, Samy 11 June 2008 (has links)
Made available in DSpace on 2010-04-20T20:48:38Z (GMT). No. of bitstreams: 3 71050100641.pdf.jpg: 15085 bytes, checksum: da94bf1ee170193cadfd39532db9d412 (MD5) 71050100641.pdf: 1002739 bytes, checksum: 24f904fbada233718e98bb0431662279 (MD5) 71050100641.pdf.txt: 115624 bytes, checksum: 49213ba733bbc49141b1a9b8047d5bec (MD5) Previous issue date: 2008-06-11T00:00:00Z / This thesis is divided in two chapters. The first chapter entitled "The Dynamics of the Dynamic Hedging" derives an optimal hedging ratio in a dynamic discrete-time stochastic setting allowing for margin requirements. Then, it empirically analyzes the dynamics of the hedging strategy in terms of wealth volatility by comparing alternative estimation methods. Besides considering margin accounts empirically, we also innovate by varying the out-of-sample hedging horizon for a representative investor from 10 to 127 days and evaluate the impact of the time horizon on the hedging efficiency. The second chapter entitled "The impact of ETS market on the futures prices of electricity or Kyoto 220 volts: Fast and Furious" addresses the economic impact of the carbon allowance market in European Emission Trading Scheme (ETS) on the futures market of electricity and gas prices. We also analyze the dynamics relationship among these markets with coal and natural gas futures markets. / O primeiro ensaio desenvolve e implementa um modelo de proteção (hedging) dinâmico considerando as chamadas de margem. O segundo ensaio trata-se de uma revisão teórica e de uma análise empírica do impacto do mercado de crédito de carbono europeu, impulsionado pelo Protocolo de Kyoto, no mercado futuro da eletricidade na Europa.
37

AVALIAÇÃO DA QUALIDADE DO PROCESSO DE LINGOTAMENTO CONTÍNUO NA PRESENÇA DE CORRELAÇÃO CRUZADA / QUALITY EVALUATION OF CONTINUOUS CASTING PROCESS IN PRESENCE OF CROSS-CORRELATION

Mezzomo, Meire 25 July 2013 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In the current competitive market, a great part of companies has as the main goal the search for continuous improvement of their products and services. Therefore, the application of statistical methods has great relevance in the quality evaluation, helping in the understanding and monitoring of the processes. In such context, the present study concerns to the use of multivariate control charts in the evaluation of the productive processes in the presence of cross-correlation, which the objective is to verify the continuous casting process stability in the production of still billets by means of Hotelling's T2 multivariate control charts applied in the estimated residual mathematical linear models. Initially, the existence of data autocorrelation was verified, it is necessary the ARIMA modeling, because when it happens, it is necessary to determine the residues and apply multivariate control charts to the residues and not on the original variables. The existence of correlation showed to be meaningful among the variables, being one of the assumptions for the statistical application T2. When the T2 chart instability is verified, it was necessary to identify the variable or the set of variables of steel temperatures in the distributor and in the distributor weight, which are responsible for the instability. Later, the estimated residues were decomposed into principal components, and with the help of the correlation of the original variables and the principal components, the variables which most contributed to the formation of each component were identified. Therefore, it was possible to detect the variables which caused the system instability, once for the steel temperature in the distributor were the T4 and T5, followed by T6, T3, T7 and T2 and for the weight of the distributor, PD4, PD5, PD3, PD6 and PD2, respectively. This way, the estimated residues from the mathematical models, the use of multivariate chart control Hotelling's T2 and the decomposition into principal components which were able to represent the productive process. This methodology allowed the understanding of the behavior of the variables and helped the monitoring of this process, as well as, in the determination of the possible variables which caused the instability in the continuous casting process. / No atual mercado competitivo, grande parte das empresas tem como principal objetivo a busca da melhoria contínua dos seus produtos e serviços. Assim, a aplicação de métodos estatísticos apresenta grande relevância na avaliação da qualidade, auxiliando na compreensão e monitoramento de processos. Nesse contexto, o presente estudo aborda a utilização de gráficos de controle multivariados na avaliação do processo produtivo na presença de correlação cruzada, cujo objetivo é verificar a estabilidade do processo de lingotamento contínuo na fabricação de tarugos de aço por meio do gráfico de controle multivariado T2 de Hotelling aplicado nos resíduos estimados de modelos matemáticos lineares. Inicialmente, foi verificada a existência de autocorrelação nos dados, sendo necessária a utilização da modelagem ARIMA, pois quando isso ocorre, deve-se proceder à determinação dos resíduos e aplicar os gráficos de controle multivariados aos resíduos e não nas variáveis originais. A existência de correlação cruzada mostrou-se significativa entre as variáveis, sendo um dos pressupostos para a aplicação da estatística T2. Verificada a instabilidade no gráfico T2, buscaram-se identificar a variável ou conjunto de variáveis das temperaturas do aço no distribuidor e peso do distribuidor, responsáveis pela instabilidade. Posteriormente, os resíduos estimados foram decompostos em componentes principais, e com o auxílio da correlação entre as variáveis originais e as componentes principais, identificou-se as variáveis que mais contribuíram para a formação de cada componente. Assim, foi possível detectar as variáveis causadoras da instabilidade do sistema, sendo que para às temperaturas do aço no distribuidor foram às temperaturas T4 e T5, seguidas de T6, T3, T7 e T2 e para o peso do distribuidor, PD4, PD5, PD3, PD6 e PD2, respectivamente. Deste modo, os resíduos estimados oriundos dos modelos matemáticos, a aplicação dos gráficos de controle multivariados T2 de Hotelling e a decomposição em componentes principais foram capazes de representar o processo produtivo. Esta metodologia possibilitou a compreensão do comportamento das variáveis e auxiliou no monitoramento do processo, bem como, na determinação das possíveis variáveis causadoras da instabilidade no processo de lingotamento contínuo.
38

Multivariate non-parametric statistical tests to reuse classifiers in recurring concept drifting environments

GONÇALVES JÚNIOR, Paulo Mauricio 23 April 2013 (has links)
Data streams are a recent processing model where data arrive continuously, in large quantities, at high speeds, so that they must be processed on-line. Besides that, several private and public institutions store large amounts of data that also must be processed. Traditional batch classi ers are not well suited to handle huge amounts of data for basically two reasons. First, they usually read the available data several times until convergence, which is impractical in this scenario. Second, they imply that the context represented by data is stable in time, which may not be true. In fact, the context change is a common situation in data streams, and is named concept drift. This thesis presents rcd, a framework that o ers an alternative approach to handle data streams that su er from recurring concept drifts. It creates a new classi er to each context found and stores a sample of the data used to build it. When a new concept drift occurs, rcd compares the new context to old ones using a non-parametric multivariate statistical test to verify if both contexts come from the same distribution. If so, the corresponding classi er is reused. If not, a new classi er is generated and stored. Three kinds of tests were performed. One compares the rcd framework with several adaptive algorithms (among single and ensemble approaches) in arti cial and real data sets, among the most used in the concept drift research area, with abrupt and gradual concept drifts. It is observed the ability of the classi ers in representing each context, how they handle concept drift, and training and testing times needed to evaluate the data sets. Results indicate that rcd had similar or better statistical results compared to the other classi ers. In the real-world data sets, rcd presented accuracies close to the best classi er in each data set. Another test compares two statistical tests (knn and Cramer) in their capability in representing and identifying contexts. Tests were performed using adaptive and batch classi ers as base learners of rcd, in arti cial and real-world data sets, with several rates-of-change. Results indicate that, in average, knn had better results compared to the Cramer test, and was also faster. Independently of the test used, rcd had higher accuracy values compared to their respective base learners. It is also presented an improvement in the rcd framework where the statistical tests are performed in parallel through the use of a thread pool. Tests were performed in three processors with di erent numbers of cores. Better results were obtained when there was a high number of detected concept drifts, the bu er size used to represent each data distribution was large, and there was a high test frequency. Even if none of these conditions apply, parallel and sequential execution still have very similar performances. Finally, a comparison between six di erent drift detection methods was also performed, comparing the predictive accuracies, evaluation times, and drift handling, including false alarm and miss detection rates, as well as the average distance to the drift point and its standard deviation. / Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T18:02:08Z No. of bitstreams: 2 Tese Paulo Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-03-12T18:02:08Z (GMT). No. of bitstreams: 2 Tese Paulo Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-04-23 / Fluxos de dados s~ao um modelo de processamento de dados recente, onde os dados chegam continuamente, em grandes quantidades, a altas velocidades, de modo que eles devem ser processados em tempo real. Al em disso, v arias institui c~oes p ublicas e privadas armazenam grandes quantidades de dados que tamb em devem ser processadas. Classi cadores tradicionais n~ao s~ao adequados para lidar com grandes quantidades de dados por basicamente duas raz~oes. Primeiro, eles costumam ler os dados dispon veis v arias vezes at e convergirem, o que e impratic avel neste cen ario. Em segundo lugar, eles assumem que o contexto representado por dados e est avel no tempo, o que pode n~ao ser verdadeiro. Na verdade, a mudan ca de contexto e uma situa c~ao comum em uxos de dados, e e chamado de mudan ca de conceito. Esta tese apresenta o rcd, uma estrutura que oferece uma abordagem alternativa para lidar com os uxos de dados que sofrem de mudan cas de conceito recorrentes. Ele cria um novo classi cador para cada contexto encontrado e armazena uma amostra dos dados usados para constru -lo. Quando uma nova mudan ca de conceito ocorre, rcd compara o novo contexto com os antigos, utilizando um teste estat stico n~ao param etrico multivariado para veri car se ambos os contextos prov^em da mesma distribui c~ao. Se assim for, o classi cador correspondente e reutilizado. Se n~ao, um novo classi cador e gerado e armazenado. Tr^es tipos de testes foram realizados. Um compara o rcd com v arios algoritmos adaptativos (entre as abordagens individuais e de agrupamento) em conjuntos de dados arti ciais e reais, entre os mais utilizados na area de pesquisa de mudan ca de conceito, com mudan cas bruscas e graduais. E observada a capacidade dos classi cadores em representar cada contexto, como eles lidam com as mudan cas de conceito e os tempos de treinamento e teste necess arios para avaliar os conjuntos de dados. Os resultados indicam que rcd teve resultados estat sticos semelhantes ou melhores, em compara c~ao com os outros classi cadores. Nos conjuntos de dados do mundo real, rcd apresentou precis~oes pr oximas do melhor classi cador em cada conjunto de dados. Outro teste compara dois testes estat sticos (knn e Cramer) em suas capacidades de representar e identi car contextos. Os testes foram realizados utilizando classi cadores xi xii RESUMO tradicionais e adaptativos como base do rcd, em conjuntos de dados arti ciais e do mundo real, com v arias taxas de varia c~ao. Os resultados indicam que, em m edia, KNN obteve melhores resultados em compara c~ao com o teste de Cramer, al em de ser mais r apido. Independentemente do crit erio utilizado, rcd apresentou valores mais elevados de precis~ao em compara c~ao com seus respectivos classi cadores base. Tamb em e apresentada uma melhoria do rcd onde os testes estat sticos s~ao executadas em paralelo por meio do uso de um pool de threads. Os testes foram realizados em tr^es processadores com diferentes n umeros de n ucleos. Melhores resultados foram obtidos quando houve um elevado n umero de mudan cas de conceito detectadas, o tamanho das amostras utilizadas para representar cada distribui c~ao de dados era grande, e havia uma alta freq u^encia de testes. Mesmo que nenhuma destas condi c~oes se aplicam, a execu c~ao paralela e seq uencial ainda t^em performances muito semelhantes. Finalmente, uma compara c~ao entre seis diferentes m etodos de detec c~ao de mudan ca de conceito tamb em foi realizada, comparando a precis~ao, os tempos de avalia c~ao, manipula c~ao das mudan cas de conceito, incluindo as taxas de falsos positivos e negativos, bem como a m edia da dist^ancia ao ponto de mudan ca e o seu desvio padr~ao.
39

Multivariate non-parametric statistical tests to reuse classifiers in recurring concept drifting environments

Gonçalves Júnior, Paulo Mauricio 23 April 2013 (has links)
Data streams are a recent processing model where data arrive continuously, in large quantities, at high speeds, so that they must be processed on-line. Besides that, several private and public institutions store large amounts of data that also must be processed. Traditional batch classi ers are not well suited to handle huge amounts of data for basically two reasons. First, they usually read the available data several times until convergence, which is impractical in this scenario. Second, they imply that the context represented by data is stable in time, which may not be true. In fact, the context change is a common situation in data streams, and is named concept drift. This thesis presents rcd, a framework that o ers an alternative approach to handle data streams that su er from recurring concept drifts. It creates a new classi er to each context found and stores a sample of the data used to build it. When a new concept drift occurs, rcd compares the new context to old ones using a non-parametric multivariate statistical test to verify if both contexts come from the same distribution. If so, the corresponding classi er is reused. If not, a new classi er is generated and stored. Three kinds of tests were performed. One compares the rcd framework with several adaptive algorithms (among single and ensemble approaches) in arti cial and real data sets, among the most used in the concept drift research area, with abrupt and gradual concept drifts. It is observed the ability of the classi ers in representing each context, how they handle concept drift, and training and testing times needed to evaluate the data sets. Results indicate that rcd had similar or better statistical results compared to the other classi ers. In the real-world data sets, rcd presented accuracies close to the best classi er in each data set. Another test compares two statistical tests (knn and Cramer) in their capability in representing and identifying contexts. Tests were performed using adaptive and batch classi ers as base learners of rcd, in arti cial and real-world data sets, with several rates-of-change. Results indicate that, in average, knn had better results compared to the Cramer test, and was also faster. Independently of the test used, rcd had higher accuracy values compared to their respective base learners. It is also presented an improvement in the rcd framework where the statistical tests are performed in parallel through the use of a thread pool. Tests were performed in three processors with di erent numbers of cores. Better results were obtained when there was a high number of detected concept drifts, the bu er size used to represent each data distribution was large, and there was a high test frequency. Even if none of these conditions apply, parallel and sequential execution still have very similar performances. Finally, a comparison between six di erent drift detection methods was also performed, comparing the predictive accuracies, evaluation times, and drift handling, including false alarm and miss detection rates, as well as the average distance to the drift point and its standard deviation. / Submitted by João Arthur Martins (joao.arthur@ufpe.br) on 2015-03-12T19:25:11Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese Paulo Mauricio Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5) / Made available in DSpace on 2015-03-12T19:25:11Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) tese Paulo Mauricio Gonçalves Jr..pdf: 2957463 bytes, checksum: de163caadf10cbd5442e145778865224 (MD5) Previous issue date: 2013-04-23 / Fluxos de dados s~ao um modelo de processamento de dados recente, onde os dados chegam continuamente, em grandes quantidades, a altas velocidades, de modo que eles devem ser processados em tempo real. Al em disso, v arias institui c~oes p ublicas e privadas armazenam grandes quantidades de dados que tamb em devem ser processadas. Classi cadores tradicionais n~ao s~ao adequados para lidar com grandes quantidades de dados por basicamente duas raz~oes. Primeiro, eles costumam ler os dados dispon veis v arias vezes at e convergirem, o que e impratic avel neste cen ario. Em segundo lugar, eles assumem que o contexto representado por dados e est avel no tempo, o que pode n~ao ser verdadeiro. Na verdade, a mudan ca de contexto e uma situa c~ao comum em uxos de dados, e e chamado de mudan ca de conceito. Esta tese apresenta o rcd, uma estrutura que oferece uma abordagem alternativa para lidar com os uxos de dados que sofrem de mudan cas de conceito recorrentes. Ele cria um novo classi cador para cada contexto encontrado e armazena uma amostra dos dados usados para constru -lo. Quando uma nova mudan ca de conceito ocorre, rcd compara o novo contexto com os antigos, utilizando um teste estat stico n~ao param etrico multivariado para veri car se ambos os contextos prov^em da mesma distribui c~ao. Se assim for, o classi cador correspondente e reutilizado. Se n~ao, um novo classi cador e gerado e armazenado. Tr^es tipos de testes foram realizados. Um compara o rcd com v arios algoritmos adaptativos (entre as abordagens individuais e de agrupamento) em conjuntos de dados arti ciais e reais, entre os mais utilizados na area de pesquisa de mudan ca de conceito, com mudan cas bruscas e graduais. E observada a capacidade dos classi cadores em representar cada contexto, como eles lidam com as mudan cas de conceito e os tempos de treinamento e teste necess arios para avaliar os conjuntos de dados. Os resultados indicam que rcd teve resultados estat sticos semelhantes ou melhores, em compara c~ao com os outros classi cadores. Nos conjuntos de dados do mundo real, rcd apresentou precis~oes pr oximas do melhor classi cador em cada conjunto de dados. Outro teste compara dois testes estat sticos (knn e Cramer) em suas capacidades de representar e identi car contextos. Os testes foram realizados utilizando classi cadores tradicionais e adaptativos como base do rcd, em conjuntos de dados arti ciais e do mundo real, com v arias taxas de varia c~ao. Os resultados indicam que, em m edia, KNN obteve melhores resultados em compara c~ao com o teste de Cramer, al em de ser mais r apido. Independentemente do crit erio utilizado, rcd apresentou valores mais elevados de precis~ao em compara c~ao com seus respectivos classi cadores base. Tamb em e apresentada uma melhoria do rcd onde os testes estat sticos s~ao executadas em paralelo por meio do uso de um pool de threads. Os testes foram realizados em tr^es processadores com diferentes n umeros de n ucleos. Melhores resultados foram obtidos quando houve um elevado n umero de mudan cas de conceito detectadas, o tamanho das amostras utilizadas para representar cada distribui c~ao de dados era grande, e havia uma alta freq u^encia de testes. Mesmo que nenhuma destas condi c~oes se aplicam, a execu c~ao paralela e seq uencial ainda t^em performances muito semelhantes. Finalmente, uma compara c~ao entre seis diferentes m etodos de detec c~ao de mudan ca de conceito tamb em foi realizada, comparando a precis~ao, os tempos de avalia c~ao, manipula c~ao das mudan cas de conceito, incluindo as taxas de falsos positivos e negativos, bem como a m edia da dist^ancia ao ponto de mudan ca e o seu desvio padr~ao.
40

Controle estatístico multivariado de processo aplicado à produção de biodiesel por transesterificação

SALES, Rafaella de Figueiredo 19 February 2016 (has links)
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-09-02T13:38:23Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Rafaella de Figueiredo Sales.pdf: 2788155 bytes, checksum: 95e4d0c2ca7494069abdc945b186152e (MD5) / Made available in DSpace on 2016-09-02T13:38:23Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Rafaella de Figueiredo Sales.pdf: 2788155 bytes, checksum: 95e4d0c2ca7494069abdc945b186152e (MD5) Previous issue date: 2016-02-19 / PETROBRÁS / PRH - 28 / O biodiesel é considerado um potencial substituto para os combustíveis de origem fóssil. Geralmente, esse biocombustível é produzido através da transesterificação de óleos vegetais ou gordura animal utilizando um álcool de cadeia curta. A vasta aplicação industrial da transesterificação para produção de biodiesel requer um cuidadoso monitoramento do processo e modelagem dessa reação, orientados para um melhor entendimento e para a otimização do processo. Além disso, o controle do processo é de fundamental importância para garantir a qualidade do biodiesel de forma constante, uniforme e atendendo às especificações necessárias para a sua comercialização. Dentre as técnicas existentes para o monitoramento de reações, a espectroscopia no infravermelho próximo permite uma análise rápida e não destrutiva, podendo ser utilizada para o monitoramento in-line de processos. Nesse contexto, o presente trabalho descreve o monitoramento in-line da produção de biodiesel por transesterificação de óleo de soja com metanol utilizando a espectroscopia na região do infravermelho próximo. As reações foram conduzidas em batelada com controle de temperatura e velocidade de agitação. Dois estudos diferentes foram então realizados a partir dos dados espectroscópicos coletados ao longo das reações. A primeira abordagem consistiu na implementação de estratégias de controle estatístico multivariado e de qualidade, baseadas em métodos de projeção multivariada. Nesse estudo, modelos de referência baseados em dois métodos diferentes (tempo real e após o término da batelada) foram desenvolvidos usando bateladas sob condições normais de operação (concentração de catalisador NaOH de 0,75% em massa em relação à massa de óleo de soja, temperatura de 55°C e velocidade de agitação de 500 rpm). Foram avaliadas diferentes técnicas de pré-processamento espectral, bem como estratégias para desdobramento da matriz de dados espectrais. Posteriormente, bateladas submetidas a diferentes perturbações (relacionadas à adição de água e a mudanças na temperatura, na velocidade de agitação, na concentração de catalisador e na matéria prima utilizada) foram produzidas para avaliar o desempenho dos diferentes modelos em relação às suas capacidades de detectar falhas de operação. De um modo geral, as cartas de controle desenvolvidas foram capazes de detectar a maioria das falhas intencionalmente produzidas ao longo do processo. Apenas pequenas perturbações na velocidade de agitação não foram identificadas. A segunda abordagem baseou-se no estudo do comportamento cinético da metanólise do óleo de soja em diferentes condições de temperatura (20, 45 e 55°C) e de concentração de catalisador (0,75 e 1,0% m/m de NaOH). Nesse estudo, a modelagem cinética foi realizada a partir dos perfis de concentração do éster metílico estimados utilizando o método de Resolução multivariada de curvas com mínimos quadrados alternantes com restrição de correlação. Os perfis de concentração obtidos permitiram o desenvolvimento de um estudo cinético simplificado da reação, a qual foi considerada como seguindo uma cinética de pseudo-primeira ordem baseada na concentração do éster metílico para a reação global de transesterificação. O modelo cinético incluiu apenas o regime pseudo-homogêneo, em que é observada uma rápida taxa de reação e a cinética está controlada pela reação química. Para esse regime, obteve-se uma energia de ativação de 32,29 kJ.mol-1, com base na equação de Arrhenius. / Biodiesel is considered a potential substitute for fossil fuels. In general, this biofuel is produced by transesterification of vegetable oils or animal fats using a short-chained alcohol. The wide industrial application of transesterification for biodiesel production requires a thorough process monitoring and modeling of this reaction, oriented to a better understanding and optimization of the process. Moreover, process control is of utmost importance to ensure in a constant and uniform way the biodiesel quality in order to meet commercialization requirements. Among the existing techniques applied for reaction monitoring, near infrared spectroscopy allows a fast and non-destructive analysis, being able to be used for in-line process monitoring. In this context, the present work describes the in-line monitoring of biodiesel production by transesterification of soybean oil with methanol using near infrared spectroscopy. Reactions were carried out in batch reactors with temperature and agitation speed control. Two different studies were then carried out from spectroscopic data collected throughout the reactions. The first approach consisted of the implementation of multivariate statistic and quality control strategies, based on multivariate projection methods. In this study, reference models based on two different methods (real time and end of batch) were developed using batches under normal operating condition (0.75 w/w% of catalyst NaOH with respect to the amount of oil, temperature of 55ºC and stirring speed of 500 rpm). Different techniques for pre-processing and unfolding the spectral data were evaluated. Afterwards, batches subjected to different disturbances (related with water addition and changes in the temperature, agitation speed, catalyst content and raw material used) were manufactured to assess the performance of the different models in terms of their capability for fault detection. In general, the control charts developed were able to detect most of the failures intentionally produced during the batch runs. Only small variations in the stirring spend were not detected. The second approach was based on the study of the kinetic behavior of the soybean oil methanolysiscarried out with different temperatures (20, 44 and 55°C) and catalyst (NaOH) concentrations (0.75 and 1.0 w/w% based onoil weight). In this study, the kinetic modelling was developed from methyl ester concentration profiles estimated by Multivariate curve resolution alternating least squares with correlation constraint. The obtained concentration profiles allowed the development of a simplified kinetic model of the reaction, which was considered to follow a pseudo-first order overall kinetics based on methyl ester concentration for global transesterification reaction. The kinetic model included only the pseudo-homogeneous regime where the overall process kinetics is under chemical reaction control and a fast methanolysis rate is observed. For this regime, the activation energy was 32.29 kJ.mol-1, based on Arrhenius equation.

Page generated in 0.0723 seconds