• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • Tagged with
  • 8
  • 8
  • 7
  • 7
  • 6
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

[en] HPA MODEL FOR MODELING HIGH FREQUENCY DATA: APPLICATION TO FORECAST HOURLY ELECTRIC LOAD / [pt] MODELO HPA PARA A MODELAGEM DE DADOS DE ALTA FREQUÊNCIA: APLICAÇÃO À PREVISÃO HORÁRIA DE CARGA ELÉTRICA

SCHAIANE NOGUEIRA OUVERNEY BARROSO 28 December 2010 (has links)
[pt] A previsão de curto prazo, que envolve dados de alta frequência, é essencial para a confiabilidade e eficiência da operação do setor elétrico, fazendo com que a alocação da carga seja feita de forma eficiente, além de indicar possíveis distorções nos próximos períodos (dias, horas, ou frações de hora). A fim de garantir a operação energética, diversas abordagens têm sido empregadas com vistas à previsão de carga de energia a curto prazo. Dentre elas, pode-se citar os modelos híbridos de Séries Temporais, Lógica Fuzzy e Redes Neurais e o Método Holt-Winters com múltiplos ciclos que é a principal ferramenta utilizada atualmente. O HPA (Hierarchical Profiling Approach) é um modelo que decompõe a variabilidade dos dados de séries temporais em três componentes: determinística, estocástica e ruído. A metodologia é capaz de tratar observações únicas, periódicas e aperiódicas, e ao mesmo tempo, serve como uma técnica de pré-branqueamento. Este trabalho tem por objetivo implementar o HPA e aplicá-lo a dados de carga de energia elétrica de 15 em 15 minutos pra um estado da região Sudeste do Brasil. Também serão analisadas as previsões de curto prazo geradas pelo modelo para a série considerada, visto que a habilidade preditiva do HPA ainda é desconhecida para séries brasileiras. As previsões forneceram Coeficiente U de Theil igual a 0,36 e um Erro Percentual Absoluto Médio (MAPE, Mean Absolute Percentage Error) de 5,46%, o qual é bem inferior ao valor fornecido pelo Modelo Ingênuo usado para comparação (15,08%). / [en] Short-term forecast, which involves high frequency data, is essential for a reliable and efficient electricity sector operation, enabling an efficient power load allocation and indicating possible distortions in the coming periods (days, hours, or hour fractions). To ensure the operation efficiency, several approaches have been employed in order to forecast the short-term load. Among them, one can mention the hybrid models of Time Series, Fuzzy Logic and Neural Networks and Holt-Winters Method with multiple cycles, which is the main tool used today. The HPA (Hierarchical Profiling Approach) model decomposes the variability of time series data into three components: deterministic, stochastic and noise. The model is capable of modeling single, periodic and aperiodic observations, and at the same time function as a pre-whitening technique. This work aims to implement the HPA and to apply it in 15 in 15 minutes load data of a Brazil’s southeastern state, since the predictive ability of the HPA is still not known for the Brazilian series. The short-term forecasts estimated for the series considered are analyzed and provided a Theil-U Coefficient equal to 0.36 and a Mean Absolute Percentage Error (MAPE) of 5.46%, which is smaller than the value given by the Naive Model (15.08%).
2

Modelos arch heterogêneos e aplicações à análise de dados de alta freqüência / heterogeneous ARCH models and applications to analyse high frequency datas.

Ruilova Teran, Juan Carlos 26 April 2007 (has links)
Neste trabalho estudamos diferentes variantes dos modelos GARCH quando consideramos a chegada da informação heterogênea sob a forma de dados de alta freqüência. Este tipo de modelos, conhecidos como HARCH(n), foram introduzidos por Muller et al. (1997). Para entender a necessidade de incorporar esta característica da heterogeneidade da informação, estudamos o problema da agregação temporal para processos GARCH e a modelagem destes em dados de alta freqüência e veremos quais são as desvantagens destes modelos e o porquê da necessidade de corrigi-lo. Propusemos um novo modelo que leva em conta a heterogeneidade da informação do mercado financeiro e a memória longa da volatilidade, generalizando assim o modelo proposto por Müller et al.(1997), e estudamos algumas das propriedades teóricas do modelo proposto. Utilizamos estimação via máxima verossimilhança e amostrador de Griddy-Gibbs, e para avaliar o desempenho destes métodos realizamos diversas simulações. Também fizemos aplicações a duas séries de alta freqüência, a taxa de câmbio Euro- Dólar e o índice Ibovespa. Uma modificação ao algoritmo de Griddy-Gibbs foi proposta, para ter uma janela móvel de pontos, para a estimação das distribuições condicionais, a cada iteração. Este procedimento foi validado pela proximidade das estimações com a técnica de máxima verossimilhança. Disponibilizaremos algumas bibliotecas para o pacote S-Plus em que as análises descritas neste trabalho poderão ser reproduzidas. Informações relativas a tais bibliotecas estarão disponíveis na página Web http://www.ime.usp.br/~ruilova. / In this work we study different variants of GARCH models to analyze the arrival of heterogeneous information in high frequency data. These models, known as HARCH(*n*) models, were introduced by Müller et al.(1997). To understand the necessity to incorporate this characteristic, heterogeneous information, we study temporal aggregation on GARCH processes for high frequency data, and show some problems in the application of these models and the reason why it is necessary to develop new models. We propose a new model, that incorporates the heterogeneous information present in the financial market and the long memory of the volatility, generalizing the model considered by Müller et al.(1997). We propose to estimate the model via maximum likelihood and Griddy-Gibbs sampler. To assess the performance of the suggested estimation procedures we perform some simulations and apply the methodology to two time series, namely the foreign exchange rate Euro-Dollar and the series of the Ibovespa index. A modification of the algorithm of Griddy-Gibbs sampler was proposed to have a grid of points in a mobile window, to estimate the condicional distributions, in each iteration. This was validated by the similar results between maximum likelihood and Griddy-Gibbs sampler estimates obtained. We implemented the methods described in this work creating some libraries for the SPlus package. Information concerning these libraries is available in the Web page http://www.ime.usp.br/~ruilova.
3

Modelos arch heterogêneos e aplicações à análise de dados de alta freqüência / heterogeneous ARCH models and applications to analyse high frequency datas.

Juan Carlos Ruilova Teran 26 April 2007 (has links)
Neste trabalho estudamos diferentes variantes dos modelos GARCH quando consideramos a chegada da informação heterogênea sob a forma de dados de alta freqüência. Este tipo de modelos, conhecidos como HARCH(n), foram introduzidos por Muller et al. (1997). Para entender a necessidade de incorporar esta característica da heterogeneidade da informação, estudamos o problema da agregação temporal para processos GARCH e a modelagem destes em dados de alta freqüência e veremos quais são as desvantagens destes modelos e o porquê da necessidade de corrigi-lo. Propusemos um novo modelo que leva em conta a heterogeneidade da informação do mercado financeiro e a memória longa da volatilidade, generalizando assim o modelo proposto por Müller et al.(1997), e estudamos algumas das propriedades teóricas do modelo proposto. Utilizamos estimação via máxima verossimilhança e amostrador de Griddy-Gibbs, e para avaliar o desempenho destes métodos realizamos diversas simulações. Também fizemos aplicações a duas séries de alta freqüência, a taxa de câmbio Euro- Dólar e o índice Ibovespa. Uma modificação ao algoritmo de Griddy-Gibbs foi proposta, para ter uma janela móvel de pontos, para a estimação das distribuições condicionais, a cada iteração. Este procedimento foi validado pela proximidade das estimações com a técnica de máxima verossimilhança. Disponibilizaremos algumas bibliotecas para o pacote S-Plus em que as análises descritas neste trabalho poderão ser reproduzidas. Informações relativas a tais bibliotecas estarão disponíveis na página Web http://www.ime.usp.br/~ruilova. / In this work we study different variants of GARCH models to analyze the arrival of heterogeneous information in high frequency data. These models, known as HARCH(*n*) models, were introduced by Müller et al.(1997). To understand the necessity to incorporate this characteristic, heterogeneous information, we study temporal aggregation on GARCH processes for high frequency data, and show some problems in the application of these models and the reason why it is necessary to develop new models. We propose a new model, that incorporates the heterogeneous information present in the financial market and the long memory of the volatility, generalizing the model considered by Müller et al.(1997). We propose to estimate the model via maximum likelihood and Griddy-Gibbs sampler. To assess the performance of the suggested estimation procedures we perform some simulations and apply the methodology to two time series, namely the foreign exchange rate Euro-Dollar and the series of the Ibovespa index. A modification of the algorithm of Griddy-Gibbs sampler was proposed to have a grid of points in a mobile window, to estimate the condicional distributions, in each iteration. This was validated by the similar results between maximum likelihood and Griddy-Gibbs sampler estimates obtained. We implemented the methods described in this work creating some libraries for the SPlus package. Information concerning these libraries is available in the Web page http://www.ime.usp.br/~ruilova.
4

[pt] INSERÇÃO DE VARIÁVEIS EXÓGENAS NO MODELO HOLT-WINTERS COM MÚLTIPLOS CICLOS PARA PREVISÃO DE DADOS DE ALTA FREQUÊNCIA OBSERVACIONAL DE DEMANDA DE ENERGIA ELÉTRICA / [en] INTRODUCE EXOGENOUS VARIABLES IN HOLT-WINTERS EXPONENTIAL SMOOTHING WITH MULTIPLE SEASONAL PATTERNS HIGH FREQUENCY ELECTRICITY DEMAND OBSERVATIONS

05 November 2021 (has links)
[pt] O objetivo deste trabalho é inserir variáveis exógenas no modelo Holt-Winters com múltiplos ciclos, genuinamente univariado. Serão usados dados horários de demanda de energia elétrica provenientes de uma cidade da região sudeste do Brasil e dados de temperatura, tanto em sua forma primitiva quanto derivada, por exemplo, indicadores de dias quentes, o chamado cooling degree days (CDD). Com isso, pretende-se melhorar o poder preditivo do modelo, gerando previsões com maior acurácia. / [en] The aim of this thesis is to insert exogenous variables in the model Holt-Winters with multiple cycles, genuinely univariate. Hourly data will be used for electricity demand from a city in southeastern Brazil and temperature data, both in its original form as derived, for example, indicators of hot days, cooling degree days called (CDD). With this, we intend to improve the predictive power of the model, generating predictions with greater accuracy.
5

[en] ACCELERATED LEARNING AND NEURO-FUZZY CONTROL OF HIGH FREQUENCY SERVO-HYDRAULIC SYSTEMS / [pt] CONTROLE POR APRENDIZADO ACELERADO E NEURO-FUZZY DE SISTEMAS SERVO-HIDRÁULICOS DE ALTA FREQUÊNCIA

ELEAZAR CRISTIAN MEJIA SANCHEZ 29 January 2018 (has links)
[pt] Nesta dissertação foram desenvolvidas técnicas de controle por aprendizado acelerado e Neuro-Fuzzy, aplicadas em um sistema servo-hidráulico para ensaio de fadiga. Este sistema tem o propósito de fazer ensaios em materiais para prever a resistência à fadiga dos materiais. O trabalho envolveu quatro etapas principais: levantamento bibliográfico, desenvolvimento de um controle por aprendizado acelerado, desenvolvimento de um controle por aprendizado Neuro-Fuzzy, e implementação experimental dos modelos de controle por aprendizado proposto em uma máquina de ensaios de materiais. A implementação do controle por aprendizado acelerado foi feita a partir do modelo de controle desenvolvido por Alva, com o objetivo de acelerar o processo de aprendizagem. Esta metodologia consiste em fazer um controle do tipo bang-bang, restringindo a servo-válvula a trabalhar sempre em seus limites extremos de operação, i.e., procurando mantê-la sempre completamente aberta em uma ou outra direção. Para manter a servo-válvula trabalhando em seus limites de seu funcionamento, os instantes ótimos para as reversões são obtidos pelo algoritmo de aprendizado, e armazenados em tabelas específicas para cada tipo de carregamento. Estes pontos de reversão dependem de diversos fatores, como a amplitude e carga média da solicitação, e são influenciados pela dinâmica do sistema. Na metodologia proposta, a lei de aprendizado inclui um termo de momentum que permite acelerar a aprendizagem dos valores das tabelas constantemente durante a execução dos testes, melhorando a resposta a cada evento. O desenvolvimento de um controle por aprendizado Neuro-Fuzzy foi motivado pela necessidade de ter um agente com a capacidade de aprendizado e armazenamento dos pontos ótimos de reversão. Este modelo de controle também consiste na implementação de um controle do tipo bang-bang, trabalhando com a servo-válvula sempre nos seus limites extremos de operação. O instante de reversão é determinado pelo sistema Neuro-Fuzzy, o qual tem como entradas a gama (dobro da amplitude) e o valor mínimo do carregamento solicitado. O processo de aprendizado é feito pelas atualizações dos pesos do sistema Neuro-Fuzzy, baseado nos erros obtidos durante a execução dos testes, melhorando a resposta do sistema a cada evento. A validação experimental dos modelos propostos é feita em uma máquina servohidráulica de ensaios de fadiga. Para este fim, o algoritmo de controle proposto foi implementado em tempo real em um módulo de controle CompactRIO da National Instruments. Os testes efetuados demonstraram a eficiência da metodologia proposta. / [en] In this thesis, accelerated learning and Neuro-Fuzzy control techniques were developed and applied to a servo-hydraulic system used in fatigue tests. This work involved four main stages: literature review, development of an accelerated learning control, development of a Neuro-Fuzzy control, and implementation of the learning control models into a fatigue testing machine. The accelerated learning control was implemented based on a learning control developed in previous works, introducing a faster learning law. Both learning control methodologies consist on implementing a bang-bang control, forcing the servovalve to always work in its operational limits. As the servo-valve works in its operational limits, the reversion points to achieve every peak or valley in the desired history are obtained by the learning algorithm, and stored in a specific table for each combination of minimum and mean load. The servo-valve reversion points depend on a few factors, such as alternate and mean loading components, while they are as well influenced by the system dynamics. In the proposed accelerated methodology, the learning law includes one momentum term that allows to speed up the learning process of the table cell values during the execution of the tests. The developed Neuro-Fuzzy control also consists on a bang-bang control, making the servo-valve work in its operational limits. However, here the instant of each reversion is determined by the Neuro-Fuzzy system, which has the load range and minimum load required as inputs. The learning process is made by the update of the Neuro-Fuzzy system weights, based on the errors obtained during the execution of the test.The experimental validation of the proposed models was made using a servo-hydraulic testing machine. The control algorithm was implemented in real time in a C-RIO computational system. The tests demonstrated the efficiency of the proposed methodology.
6

[en] DISTRIBUTIONS OF RETURNS, VOLATILITIES AND CORRELATIONS IN THE BRAZILIAN STOCK MARKET / [pt] DISTRIBUIÇÕES DE RETORNOS, VOLATILIDADES E CORRELAÇÕES NO MERCADO ACIONÁRIO BRASILEIRO

MARCO AURELIO SIMAO FREIRE 24 February 2005 (has links)
[pt] A hipótese de normalidade é comumente utilizada na área de análise de risco para descrever as distribuições dos retornos padronizados pelas volatilidades. No entanto, utilizando cinco dos ativos mais líquidos na Bovespa, este trabalho mostra que tal hipótese não é compatível com medidas de volatilidades estimadas pela metodologia EWMA ou modelos GARCH. Em contraposição, ao extrair a informação contida em cotações intradiárias, a metodologia de volatilidade realizada origina retornos padronizados normais, potencializando ganhos no cálculo de medidas de Valor em Risco. Além disso, são caracterizadas as distribuições de volatilidades e correlações de ativos brasileiros e, em especial, mostra-se que as distribuições das volatilidades são aproximadamente lognormais, enquanto as distribuições das correlações são aproximadamente normais. A análise é feita tanto de um ponto de vista univariado quanto multivariado e fornece subsídio para a melhor modelagem de variâncias e correlações em um contexto de grande dimensionalidade. / [en] The normality assumption is commonly used in the risk management area to describe the distributions of returns standardized by volatilities. However, using five of the most actively traded stocks in Bovespa, this paper shows that this assumption is not compatible with volatilities estimated by EWMA or GARCH models. In sharp contrast, when we use the information contained in high frequency data to construct the realized volatilies measures, we attain the normality of the standardized returns, giving promise of improvements in Value at Risk statistics. We also describe the distributions of volatilities and correlations of the brazilian stocks, showing that the distributions of volatilities are nearly lognormal and the distribuitions of correlations are nearly Gaussian. All analysis is traced both in a univariate and a multivariate framework and provides background for improved high-dimensional volatility and correlation modelling in the brazilian stock market.
7

[pt] ENSAIOS SOBRE A PRECIFICAÇÃO EMPÍRICA DE ATIVOS, POLÍTICA MONETÁRIA E SUAS INTER-RELAÇÕES / [en] ESSAYS ON EMPIRICAL ASSET PRICING, MONETARY POLICY AND THEIR INTER-RELATIONS

FLÁVIO DE FREITAS VAL 20 September 2016 (has links)
[pt] A presente tese trata da estimação do risco e da precificação de ativos financeiros, de medidas que buscam estimar como os agentes de mercado estão avaliando a política monetária, bem como da inter-relação entre o mercado acionário e a política monetária. Esta inter-relação é representada pela estimação da reação do mercado acionário às mudanças na política monetária. O primeiro trabalho implementa dois recentes modelos de estimação de volatilidade que utilizam dados de alta frequência. O modelo Auto-Regressivo Heterogêneo (HAR) e o modelo Componente (2-Comp) são estimados e os resultados são comparados com os encontrados pelas estimações que utilizam a família de modelos Auto-Regressivos com Heteroscedasticidade Generalizados (GARCH). Durante o período analisado, os modelos que usam dados intradiários obtiveram melhores previsões de retornos dos ativos avaliados, tanto dentro como fora da amostra, confirmando assim que esses modelos possuem informações importantes para uma série de agentes econômicos. No trabalho seguinte se estima a credibilidade da política monetária implementada pelo Banco Central do Brasil - BCB nos últimos dez anos. Esta credibilidade foi estimada por meio de implementação do filtro de Kalman em medidas derivadas de expectativas inflacionárias de pesquisa ao consumidor, da pesquisa Focus do BCB e de curvas de juros dos títulos governamentais. Os resultados fornecem evidências da existência de três movimentos da credibilidade inflacionária estimada pela medida implícita e pela Focus no período analisado: (i) cedeu fortemente em meados de 2008, durante o momento mais crítico da Crise Subprime; (ii) relativa estabilidade entre o início de 2009 e meados de 2010 (meados de 2013, pela medida Focus); (iii) uma tendência de queda a partir de então, quando houve uma taxa real de juros abaixo da mínima compatível com a meta de inflação. Já a credibilidade inflacionária estimada a partir de pesquisa ao consumidor apresentou um comportamento mais errático que as demais, apresentando uma tendência de queda mais intensa a partir do início de 2013 e permanecendo em patamares próximos a zero desde então. Ao mesmo tempo, os resultados indicam que alterações da inflação são importantes para a previsão da credibilidade estimada a partir de pesquisa ao consumidor, validando sua característica backward looking e de ser formada a partir de expectativa adaptativa dos consumidores. A metodologia adotada possibilita desenvolver estimativas em tempo real do grau desta credibilidade e retornar avaliação quantitativa sobre a consistência da política monetária em um ambiente de metas de inflação. Ele contribui para a literatura existente ao implementar o teste de credibilidade de Svensson (1993) e o estender dentro de um arcabouço econométrico de espaço de estado, permitindo a estimação probabilística do grau de credibilidade da política monetária implementada pela autoridade monetária brasileira no período analisado. Finalmente, o terceiro e último trabalho é um estudo empírico da relação entre a política monetária, implementada pelo BCB, e o mercado de ações brasileiro. Utilizando a metodologia de Estudo de Eventos, analisa-se o efeito dos componentes esperados e não esperados das decisões de política monetária nos retornos do Índice Bovespa e de trinta e cinco ações de diferentes empresas. Os resultados fornecem evidências de que a política monetária possui um efeito significativo no mercado acionário, sendo que o evento de reversão na direção da política monetária tende a potencializar a resposta deste mercado. A análise no nível setorial indica que o setor de consumo cíclico é o mais afetado por esta política, enquanto os setores de utilidade pública e de petróleo, gás e biocombustíveis não são afetados significativamente. Os ativos individuais respondem de forma bastante heterogênea à política monetária, porém, ao se utilizar os retornos anormais destes ativos, identificou-se uma forte redução na intensidade e no número de empresas impactadas pela política monetária. Além disso, a surpresa monetária é explicada por variações não esperadas da taxa de desemprego, do índice de produção industrial e do IPCA, sendo Granger causada por variações não esperadas do índice de produção industrial, indicando a importância desta variável para a previsão da política monetária. / [en] This present thesis discusses the estimation of risk and of financial assets pricing, the measures that seek to estimate how the market players are evaluating the monetary policy, as well as the inter-relationship between the stock market and monetary policy. This interrelation is represented by the estimation of the stock market s reaction to changes in monetary policy. The first essay implements the estimation of two recent volatility models using high-frequency data. Heterogeneous Autoregressive model (HAR) and the Component model (2-Comp) are estimated and the results are compared with those found by estimations using the Generalized Autoregressive Conditional Heteroskedasticity (GARCH) family models. During the analyzed period, the models using intraday data obtained better forecasts of asset returns valued both in-sample and out-of-sample, thus confirming that these models have important information for the economic agents. The next essay estimates the credibility of monetary policy implemented by the Central Bank of Brazil - BCB in the last ten years. This credibility was estimated by the use of Kalman filter on measures of inflation expectations derived from the consumer survey, the Focus survey from BCB and on the yield curves of government bonds. The results provide evidence of the existence of three changes on inflationary credibility in the analyzed period: (i) sharp downturn in mid-2008; (ii) relative stability between early 2009 and mid-2010 (mid-2013, for Focus measure); (iii) a downward trend since then, when there was a real interest rate below the minimum compatible with the inflation target. Besides, inflationary credibility estimated from the consumer pooling showed a more erratic behavior than the others, with a tendency to fall more intensely from the beginning of 2013 and remaining at levels close to zero since then. At the same time, the results indicate that inflation changes are important for the prediction of the credibility estimated from consumer pooling, validating its backwardated characteristic and its construction from adaptive consumer expectations. The adopted methodology enables to develop real-time estimates of BCB credibility and to return quantitative assessment of the consistency of monetary policy on an inflation target regime. This work adds to the existing literature in implementing Svensson credibility test (1993) and in extending it within an econometric framework of state space, allowing the probabilistic estimation of the degree of credibility of the monetary policy implemented by the Brazilian monetary authority during the analyzed period. Finally, the third and final essay is an empirical study of the relationship between monetary policy, implemented by the BCB, and the Brazilian stock market. Using the Event Study methodology, this essay analyzes the effect of expected and unexpected components of monetary policy decisions on the Bovespa index returns and on thirty-five different stock returns. The results provide evidence that monetary policy has a significant effect on the stock market returns, and the reversal event in the direction of monetary policy tends to enhance the response of the stock market. The analysis on a sectorial basis indicates that the cyclical consumer sector is the most affected by this policy, while the public utility and the oil, gas and biofuels sectors are not significantly affected. Individual assets respond in a very heterogeneous way to monetary policy. However, when using the abnormal returns, we identified a strong reduction in the intensity and in the number of companies affected by monetary policy. Furthermore, monetary surprise is explained by unexpected variations in the unemployment rate, in the industrial production index and in the CPI. Nonetheless, monetary surprise is Granger caused by unexpected variations in the industrial production index, indicating the importance of this variable for monetary policy forecasting.
8

[en] ANALYSIS TECHNIQUES FOR CONTROLLING ELECTRIC POWER FOR HIGH FREQUENCY DATA: APPLICATION TO THE LOAD FORECASTING / [pt] ANÁLISE DE TÉCNICAS PARA CONTROLE DE ENERGIA ELÉTRICA PARA DADOS DE ALTA FREQUÊNCIA: APLICAÇÃO À PREVISÃO DE CARGA

JULIO CESAR SIQUEIRA 08 January 2014 (has links)
[pt] O objetivo do presente trabalho é o desenvolvimento de um algoritmo estatístico de previsão da potência transmitida pela usina geradora termelétrica de Linhares, localizada no Espírito Santo, medida no ponto de entrada da rede da concessionária regional, a ser integrado em plataforma composta por sistema supervisório em tempo real em ambiente MS Windows. Para tal foram comparadas as metodologias de Modelos Arima(p,d,q), regressão usando polinômios ortogonais e técnicas de amortecimento exponencial para identificar a mais adequada para a realização de previsões 5 passos-à-frente. Os dados utilizados são provenientes de observações registradas a cada 5 minutos, contudo, o alvo é produzir estas previsões para observações registradas a cada 5 segundos. Os resíduos estimados do modelo ajustado foram analisados via gráficos de controle para checar a estabilidade do processo. As previsões produzidas serão usadas para subsidiar decisões dos operadores da usina, em tempo real, de forma a evitar a ultrapassagem do limite de 200.000 kW por mais de quinze minutos. / [en] The objective of this study is to develop a statistical algorithm to predict the power transmitted by a thermoelectric power plant in Linhares, located at Espírito Santo state, measured at the entrance of the utility regional grid, which will be integrated to a platform formed by a real time supervisor system developed in MS Windows. To this end we compared Arima (p,d,q), Regression using Orthogonal Polynomials and Exponential Smoothing techniques to identify the best suited approach to make predictions five steps ahead. The data used are observations recorded every 5 minutes, however, the target is to produce these forecasts for observations recorded in every five seconds. The estimated residuals of the fitted model were analysed via control charts to check on the stability of the process. The forecasts produced by this model will be used to help not to exceed the 200.000 kW energy generation upper bound for more than fifteen minutes.

Page generated in 0.0464 seconds