PREVISÃO DO CONSUMO INDUSTRIAL DE ENERGIA
ELÉTRICA POR REGIÃO DO BRASIL
Gustavo Costa Moura Neves
Hugo Catalão Simas Vivas
Projeto de Graduação apresentado ao Curso
de Engenharia de Produção da Escola
Politécnica, Universidade Federal do Rio de
Janeiro, como parte dos requisitos
necessários à obtenção do título de
Engenheiro.
Orientador: André Assis de Salles, D. Sc.
Rio de Janeiro
Março de 2018
ii
Costa Moura Neves, Gustavo
Catalão Simas Vivas, Hugo
Previsão do Consumo Industrial de Energia Elétrica por
Região do Brasil / Gustavo Costa Moura Neves e Hugo Catalão
Simas Vivas – Rio de Janeiro: UFRJ / Escola Politécnica, 2018.
XVI, 237 p.: il.; 29,7 cm
Orientador: André Assis de Salles
Projeto de Graduação – UFRJ/ Escola Politécnica/ Curso de
Engenharia de Produção, 2018.
Referências Bibliográficas: p. 144-148.
1. Consumo de Energia Elétrica. 2. Forecasting. 3. Séries
Temporais. 4. SARIMA. 5. Machine Learning. 6. SVR.
I. Salles, André Assis de. II. Universidade Federal do Rio de
Janeiro, Escola Politécnica, Curso de Engenharia de Produção. III.
Previsão do Consumo Industrial de Energia Elétrica por Região
do Brasil.
iii
Agradecimentos
Agradecimentos do Gustavo:
Agradeço, em primeiro lugar, a Deus, por ter me iluminado em toda minha caminhada.
Agradeço também aos meus amigos e minha família, principalmente meus pais, João e
Márcia, sem cujo apoio jamais teria conseguido chegar até aqui.
À minha namorada, Bruna, por toda a dedicação e apoio durante este trabalho e em toda
a minha vida.
Agradeço, também, a todo o corpo docente do curso de engenharia de produção da
UFRJ, que foram importantíssimos para a minha formação.
Por último, um agradecimento especial ao prof. André Salles, por todo o seu apoio
durante a elaboração deste trabalho, mostrando-se a todo momento interessado e
disposto a nos ajudar.
Agradecimentos do Hugo:
Primeiramente, agradeço a minha família, por ter me apoiado e me incentivado durante
todos esses anos de estudos, sem eles nada disso seria possível, principalmente a minha
avó Áurea e a minha mãe Andreia.
Ao corpo docente do curso de Engenharia de Produção da UFRJ que me formaram, não
somente como Engenheiro, mas também como cidadão.
Ao professor Luiz Antonio Meirelles in memorian, pela sua amizade e por ter feito me
apaixonar pela Engenharia de Produção no início da faculdade.
A todos os meus amigos e a minha dupla do trabalho de conclusão de curso, pelos
momentos felizes e por terem me levantado nos momentos difíceis.
E um agradecimento especial ao professor, André Salles, por seu companheirismo,
disponibilidade, paciência e interesse de nos auxiliar com esse estudo.
iv
Resumo do Projeto de Graduação apresentado à Escola Politécnica/ UFRJ como parte
dos requisitos necessários para a obtenção do grau de Engenheiro de Produção.
PREVISÃO DO CONSUMO INDUSTRIAL DE ENERGIA ELÉTRICA
POR REGIÃO DO BRASIL
Gustavo Costa Moura Neves
Hugo Catalão Simas Vivas
Março/2018
Orientador: André Assis de Salles
Curso: Engenharia de Produção
Possuindo relação direta com o comportamento da economia, a energia elétrica é
utilizada por todos os segmentos da sociedade e apresenta papel preponderante para o
setor industrial. Diversos fatores socioeconômicos e climáticos influenciam no consumo
de energia elétrica, contudo, existe a incerteza da intensidade e velocidade com que
esses fatores se manifestam, fazendo com que a previsão do consumo de energia elétrica
tenha uma relevância cada vez maior para o planejamento do setor elétrico e para a
tomada de decisões a curto e longo prazo. Este trabalho se propôs a analisar diversos
modelos de previsões para o consumo de energia elétrica industrial para cada região do
Brasil e a avaliá-los, através da comparação das medidas de ajustamento das previsões,
a fim de indicar o modelo mais adequado para as respectivas regiões. Com este objetivo,
foram utilizadas séries históricas mensais, relativas ao período de janeiro de 2003 a abril
de 2017, das variáveis exógenas: temperatura, número de unidades consumidoras,
Tarifa Média de energia elétrica e o IBCR.
Palavras-chave: Consumo de Energia Elétrica, Forecasting, Séries Temporais,
SARIMA, Machine Learning, SVR.
v
Abstract of Undergraduate Project presented to POLI/UFRJ as a partial fulfillment of
the requirements for the degree of Industrial Engineer.
INDUSTRIAL ELECTRICAL CONSUMPTION FORECASTING PER
REGION IN BRAZIL
Gustavo Costa Moura Neves
Hugo Catalão Simas Vivas
March 2018
Advisor: André Assis de Salles
Course: Industrial Engineering
Being directly related to the behavior of the economy, electric energy is used by all
segments of the society and presents a preponderant role for the industrial sector.
Several socioeconomic and climatic factors affect the consumption of electric energy.
However, there is uncertainty in the intensity and speed with which these factors are
manifested. Thus, electric energy consumption forecasting has an increasing relevance
in regards to the electric sector planning and decision-making in the short and long
term. This work aimed to analyze several forecasting models for the consumption of
industrial electrical energy for each region in Brazil and to evaluate them by comparing
the adjustment measures of the forecasts, in order to indicate the most appropriate
model for each region. For this purpose, monthly historical data series were used for the
periods from January 2003 to April 2017, such as: temperature, number of consuming
units, average electricity tariff, and IBCR.
Keywords: Electric Energy Consumption, Forecasting, Time Series, SARIMA, Machine
Learning, SVR.
vi
Sumário
1. INTRODUÇÃO .................................................................................................... 1
1.1. Contextualização ................................................................................................. 1
1.2. Motivação e Objetivos ......................................................................................... 6
1.3. Estrutura do Trabalho .......................................................................................... 8
2. REVISÃO BIBLIOGRÁFICA ................................................................................... 9
3. METODOLOGIA ADOTADA .............................................................................. 14
3.1. Conceitos Básicos de Séries Temporais ............................................................... 14
Definição de Série Temporal ............................................................................. 14
Componentes de uma Série Temporal ............................................................. 14
Definição de Ruído Branco ................................................................................ 15
Aplicações de Séries Temporais ........................................................................ 16
3.2. Funções de Autocovariância e Autocorrelação .................................................... 16
3.3. Estacionariedade ............................................................................................... 18
Estacionariedade fraca ...................................................................................... 18
Estacionariedade forte ...................................................................................... 18
Testes de Raízes Unitárias ................................................................................. 19
Diferenciação de Séries Temporais ................................................................... 22
3.4. Autocorrelação .................................................................................................. 23
3.5. Homocedasticidade ........................................................................................... 27
3.6. Normalidade ..................................................................................................... 29
3.7. Modelos Utilizando Dados Históricos da Série Dependente ................................ 31
Processo Autoregressivo (AR) ........................................................................... 31
Processo Média Móvel (MA) ............................................................................. 32
Processo Autoregressivo de Médias Móveis (ARMA) ....................................... 33
Processo Autoregressivo Integrado de Médias Móveis (ARIMA) ..................... 34
Processo Autoregressivo Integrado de Médias Móveis Sazonal (SARIMA) ...... 34
Estimação dos Parâmetros dos Modelos e Comparação .................................. 35
Amortecimento Exponencial Simples ............................................................... 37
Amortecimento Exponencial Duplo (Holt) ........................................................ 38
vii
Amortecimento Exponencial Duplo com Efeito Sazonal (Holt Winters) ........... 39
Modelos de Decomposição de Séries Temporais ............................................. 40
3.8. Modelos Incrementando Variáveis Exógenas ...................................................... 42
ARMAX .............................................................................................................. 42
Regressão Linear com Erros ARMA ................................................................... 43
Modelos de Regressão Dinâmica ...................................................................... 44
Decomposição com Variáveis Exógenas ........................................................... 45
3.9. Modelos de Machine Learning ........................................................................... 45
Rede Neural ....................................................................................................... 46
Random Forest .................................................................................................. 48
Support Vector Regression (SVR) ...................................................................... 49
3.10. Medidas de Ajustamento ................................................................................... 51
4. AMOSTRA: DADOS UTILIZADOS ....................................................................... 52
4.1. Descrição dos Dados .......................................................................................... 52
Consumo de Energia Elétrica Industrial ............................................................ 52
Temperatura ..................................................................................................... 52
Tarifa Média ...................................................................................................... 53
IBCR ................................................................................................................... 54
4.2. Resumos Estatísticos, Testes de Estacionariedade e Normalidade ....................... 54
Consumo de Energia Elétrica ............................................................................ 55
IBCR ................................................................................................................... 57
Tarifas Médias ................................................................................................... 59
Temperaturas .................................................................................................... 61
Unidades consumidoras .................................................................................... 62
5. RESULTADOS OBTIDOS .................................................................................... 64
5.1. Modelo 1: SARIMA ............................................................................................ 64
Região Centro-Oeste ......................................................................................... 64
Região Nordeste ................................................................................................ 67
Região Norte ..................................................................................................... 69
Região Sudeste .................................................................................................. 71
Região Sul .......................................................................................................... 73
5.2. Modelo 2: Holt-Winters ..................................................................................... 75
viii
Região Centro-Oeste ......................................................................................... 75
Região Nordeste ................................................................................................ 77
Região Norte ..................................................................................................... 79
Região Sudeste .................................................................................................. 82
Região Sul: ......................................................................................................... 84
5.3. Modelo 3: Regressão Linear com Erros SARIMA .................................................. 86
Região Centro-Oeste ......................................................................................... 86
Região Nordeste ................................................................................................ 88
Região Norte ..................................................................................................... 90
Região Sudeste .................................................................................................. 92
Região Sul .......................................................................................................... 94
5.4. Modelo 4: Decomposição com Variáveis Dummies ............................................. 96
Região Centro-Oeste ......................................................................................... 96
Região Nordeste ................................................................................................ 98
Região Norte ................................................................................................... 100
Região Sudeste ................................................................................................ 102
Região Sul ........................................................................................................ 104
5.5. Modelo 5: Decomposição com Séries de Fourier ............................................... 106
Região Centro-Oeste ....................................................................................... 106
Região Nordeste .............................................................................................. 108
Região Norte ................................................................................................... 110
Região Sudeste ................................................................................................ 112
Região Sul ........................................................................................................ 114
5.6. Modelo 6: Random Forest ................................................................................ 116
Região Centro-Oeste ....................................................................................... 117
Região Nordeste .............................................................................................. 119
Região Norte ................................................................................................... 121
Região Sudeste ................................................................................................ 123
Região Sul ........................................................................................................ 125
5.7. Modelo 7: SVR ................................................................................................. 127
Região Centro-Oeste ....................................................................................... 127
Região Nordeste .............................................................................................. 129
ix
Região Norte ................................................................................................... 131
Região Sudeste ................................................................................................ 133
Região Sul ........................................................................................................ 135
5.8. Comparação entre os Modelos ......................................................................... 137
Região Centro-Oeste ....................................................................................... 137
Região Nordeste .............................................................................................. 137
Região Norte ................................................................................................... 138
Região Sudeste ................................................................................................ 138
Região Sul ........................................................................................................ 139
Resumo dos Modelos ...................................................................................... 140
6. COMENTÁRIOS FINAIS ................................................................................... 142
REFERÊNCIAS BIBLIOGRÁFICAS ............................................................................. 144
APÊNDICE A: Testes de Normalidade .................................................................... 149
APÊNDICE B: Testes de Estacionariedade .............................................................. 174
APÊNDICE C: Código R do Sudeste ......................................................................... 223
x
Lista de Figuras
Figura 1: Representação das relações entre os segmentos do setor energético ................ 1
Figura 2: Matriz energética brasileira ............................................................................... 2
Figura 3: Participação das classes de consumidores de energia no consumo total do
Brasil, 2016 ....................................................................................................................... 4
Figura 4: Consumo de energia elétrica industrial no Brasil em GWh, 2003-2017 .......... 5
Figura 5: Consumo de energia elétrica industrial por região do Brasil, 2003-2017 ......... 6
Figura 6: Gráfico de Autocorrelação Empírica (ACF) ................................................... 24
Figura 7: Estrutura básica de uma rede neural ............................................................... 46
Figura 8: Exemplo de árvore de decisão ........................................................................ 48
Figura 9: Exemplo de vetor de suporte ........................................................................... 50
Figura 10: Forecasting do SARIMA - Centro-Oeste ...................................................... 65
Figura 11: Gráfico ACF do SARIMA - Centro-Oeste ................................................... 66
Figura 12: Teste Ljung-Box do SARIMA - Centro-Oeste ............................................. 66
Figura 13: Teste GARCH do SARIMA - Centro-Oeste ................................................. 67
Figura 14: Forecasting do SARIMA - Nordeste ............................................................. 67
Figura 15: Gráfico ACF do SARIMA - Nordeste .......................................................... 68
Figura 16: Teste Ljung-Box do SARIMA - Nordeste .................................................... 68
Figura 17: Teste GARCH do SARIMA - Nordeste ........................................................ 69
Figura 18: Forecasting do SARIMA - Norte .................................................................. 69
Figura 19: Gráfico ACF do SARIMA - Norte ................................................................ 70
Figura 20: Teste Ljung-Box do SARIMA - Norte ......................................................... 70
Figura 21: Teste GARCH do SARIMA - Norte ............................................................. 70
Figura 22: Forecasting do SARIMA - Sudeste ............................................................... 71
Figure 23: Gráfico ACF do SARIMA - Sudeste ............................................................ 72
Figura 24: Teste Ljung-Box do SARIMA - Sudeste ...................................................... 72
Figura 25: Teste GARCH do SARIMA - Sudeste .......................................................... 72
Figura 26: Forecasting do SARIMA - Sul ...................................................................... 73
Figura 27: Gráfico ACF do SARIMA - Sul ................................................................... 74
Figura 28: Teste Ljung-Box do SARIMA - Sul ............................................................. 74
Figura 29: Teste GARCH do SARIMA - Sul ................................................................. 74
xi
Figura 30: Forecasting do Holt Winters - Centro-Oeste................................................. 75
Figura 31: Gráfico ACF do Holt Winters - Centro-Oeste .............................................. 76
Figura 32: Teste Ljung-Box do Holt Winters - Centro-Oeste ........................................ 76
Figura 33: Teste GARCH do Holt Winters - Centro-Oeste............................................ 76
Figura 34: Forecasting do Holt Winters - Nordeste ....................................................... 77
Figura 35: Gráfico ACF do Holt Winters - Nordeste ..................................................... 78
Figura 36: Teste Ljung-Box do Holt Winters - Nordeste ............................................... 78
Figura 37: Teste GARCH do Holt Winters - Nordeste .................................................. 78
Figura 38: Forecasting do Holt Winters - Norte ............................................................. 79
Figura 39: Gráfico ACF do Holt Winters - Norte .......................................................... 80
Figura 40: Teste Ljung-Box do Holt Winters - Norte .................................................... 80
Figure 41: Teste GARCH do Holt Winters - Norte ........................................................ 80
Figura 42: Gráfico ACF do quadrado dos resíduos do HW - Norte ............................... 81
Figura 43: Forecasting do Holt Winters - Sudeste ......................................................... 82
Figura 44: Gráfico ACF do Holt Winters - Sudeste ....................................................... 83
Figura 45: Teste Ljung-Box do Holt Winters - Sudeste ................................................. 83
Figura 46: Teste GARCH do Holt Winters - Sudeste .................................................... 83
Figura 47: Forecasting do Holt Winters - Sul................................................................. 84
Figura 48: Gráfico ACF do Holt Winters - Sul .............................................................. 85
Figura 49: Teste Ljung-Box do Holt Winters - Sul ........................................................ 85
Figura 50: Teste GARCH do Holt Winters - Sul............................................................ 85
Figura 51: Forecasting da regressão com erros SARIMA - Centro-Oeste ..................... 86
Figura 52: Gráfico ACF da regressão com erros SARIMA - Centro-Oeste ................... 87
Figura 53: Teste Ljung-Box da regressão com erros SARIMA - Centro-Oeste ............ 87
Figura 54: Teste GARCH da regressão com erros SARIMA - Centro-Oeste ................ 87
Figura 55: Forecasting da regressão com erros SARIMA - Nordeste ............................ 88
Figure 56: Gráfico ACF da regressão com erros SARIMA - Nordeste ......................... 89
Figura 57: Teste Ljung-Box da regressão com erros SARIMA - Nordeste ................... 89
Figura 58: Teste GARCH da regressão com erros SARIMA - Nordeste ....................... 89
Figura 59: Forecasting da regressão com erros SARIMA - Norte ................................. 90
Figura 60: Gráfico ACF da regressão com erros SARIMA - Norte ............................... 91
xii
Figura 61: Teste Ljung-Box da regressão com erros SARIMA - Norte ......................... 91
Figura 62: Teste GARCH da regressão com erros SARIMA - Norte ............................ 91
Figura 63: Forecasting da regressão com erros SARIMA - Sudeste .............................. 92
Figura 64: Gráfico ACF da regressão com erros SARIMA - Sudeste ........................... 93
Figura 65: Teste Ljung-Box da regressão com erros SARIMA - Sudeste ..................... 93
Figura 66: Teste GARCH da regressão com erros SARIMA - Sudeste ......................... 93
Figura 67: Forecasting da regressão com erros SARIMA - Sul ..................................... 94
Figura 68: Gráfico ACF da regressão com erros SARIMA - Sul ................................... 95
Figura 69: Teste Ljung-Box da regressão com erros SARIMA - Sul ............................ 95
Figura 70: Teste GARCH da regressão com erros SARIMA - Sul ................................ 95
Figura 71: Forecasting da decomposição com dummies - Centro-Oeste ....................... 96
Figura 72: Gráfico ACF da decomposição com dummies - Centro-Oeste ..................... 97
Figura 73: Teste Ljung-Box da decomposição com dummies - Centro-Oeste............... 97
Figura 74: Teste GARCH da decomposição com dummies - Centro-Oeste .................. 98
Figura 75: Forecasting da decomposição com dummies - Nordeste .............................. 98
Figura 76: Gráfico ACF da decomposição com dummies - Nordeste ............................ 99
Figura 77: Teste Ljung-Box da decomposição com dummies - Nordeste ..................... 99
Figura 78: Teste GARCH da decomposição com dummies - Nordeste ......................... 99
Figura 79: Forecasting da decomposição com dummies - Norte ................................. 100
Figura 80: Gráfico ACF da decomposição com dummies - Norte ............................... 101
Figura 81: Teste Ljung-Box da decomposição com dummies - Norte ......................... 101
Figura 82: Teste GARCH da decomposição com dummies - Norte ............................ 101
Figura 83: Forecasting da decomposição com dummies - Sudeste .............................. 102
Figura 84: Gráfico ACF da decomposição com dummies - Sudeste ............................ 103
Figura 85: Teste Ljung-Box da decomposição com dummies - Sudeste ..................... 103
Figura 86: Teste GARCH da decomposição com dummies - Sudeste ......................... 104
Figura 87: Forecasting da decomposição com dummies - Sul ..................................... 104
Figura 88: Gráfico ACF da decomposição com dummies - Sul ................................... 105
Figura 89: Teste Ljung-Box da decomposição com dummies - Sul............................. 105
Figura 90: Teste GARCH da decomposição com dummies - Sul ................................ 106
Figura 91: Forecasting da decomposição com Fourier - Centro-Oeste ........................ 107
xiii
Figura 92: Gráfico ACF da decomposição com Fourier - Centro-Oeste ...................... 108
Figura 93: Teste Ljung-Box da decomposição com Fourier - Centro-Oeste ............... 108
Figura 94: Teste GARCH da decomposição com Fourier - Centro-Oeste ................... 108
Figura 95: Forecasting da decomposição com Fourier – Nordeste .............................. 109
Figura 96: Gráfico ACF da decomposição com Fourier - Nordeste............................. 110
Figura 97: Teste Ljung-Box da decomposição com Fourier - Nordeste ...................... 110
Figura 98: Teste GARCH da decomposição com Fourier - Nordeste .......................... 110
Figura 99: Forecasting da decomposição com Fourier - Norte .................................... 111
Figura 100: Gráfico ACF da decomposição com Fourier - Norte ................................ 112
Figura 101: Teste Ljung-Box da decomposição com Fourier - Norte .......................... 112
Figura 102: Teste GARCH da decomposição com Fourier - Norte ............................. 112
Figura 103: Forecasting da decomposição com Fourier - Sudeste ............................... 113
Figura 104: Gráfico ACF da decomposição com Fourier - Sudeste............................. 114
Figura 105: Teste Ljung-Box da decomposição com Fourier - Sudeste ...................... 114
Figura 106: Teste GARCH da decomposição com Fourier - Sudeste .......................... 114
Figura 107: Forecasting da decomposição com Fourier - Sul ...................................... 115
Figura 108: Gráfico ACF da decomposição com Fourier - Sul .................................... 116
Figure 109: Teste Ljung-Box da decomposição com Fourier - Sul ............................. 116
Figure 110: Teste GARCH da decomposição com Fourier - Sul ................................. 116
Figura 111: Forecasting do Random Forest - Centro-Oeste ......................................... 117
Figura 112: Gráfico ACF do Random Forest - Centro-Oeste ...................................... 118
Figura 113: Teste Ljung-Box do Random Forest - Centro-Oeste ................................ 118
Figura 114: Teste GARCH do Random Forest - Centro-Oeste .................................... 118
Figura 115: Forecasting do Random Forest - Nordeste ................................................ 119
Figura 116: Gráfico ACF do Random Forest - Nordeste ............................................. 120
Figura 117: Teste Ljung-Box do Random Forest - Nordeste ....................................... 120
Figura 118: Teste GARCH do Random Forest - Nordeste ........................................... 120
Figura 119: Forecasting do Random Forest - Norte ..................................................... 121
Figura 120: Gráfico ACF do Random Forest - Norte ................................................... 122
Figura 121: Teste Ljung-Box do Random Forest - Norte ............................................ 122
Figura 122: Teste GARCH do Random Forest - Norte ................................................ 122
xiv
Figura 123: Forecasting do Random Forest - Sudeste .................................................. 123
Figura 124: Gráfico ACF do Random Forest - Sudeste ............................................... 124
Figura 125: Teste Ljung-Box do Random Forest - Sudeste ......................................... 124
Figura 126: Teste GARCH do Random Forest - Sudeste ............................................. 124
Figura 127: Forecasting do Random Forest - Sul ......................................................... 125
Figura 128: Gráfico ACF do Random Forest - Sul ...................................................... 126
Figura 129: Teste Ljung-Box do Random Forest - Sul ................................................ 126
Figura 130: Teste GARCH do Random Forest - Sul .................................................... 126
Figura 131: Forecasting do SVR - Centro-Oeste.......................................................... 127
Figura 132: Gráfico ACF do SVR - Centro-Oeste ....................................................... 128
Figura 133: Teste Ljung-Box do SVR - Centro-Oeste ................................................. 128
Figura 134: Teste GARCH do SVR - Centro-Oeste..................................................... 128
Figura 135: Forecasting do SVR - Nordeste ................................................................ 129
Figura 136: Gráfico ACF do SVR - Nordeste .............................................................. 130
Figura 137: Teste Ljung-Box do SVR - Nordeste ........................................................ 130
Figura 138: Teste GARCH do SVR - Nordeste ........................................................... 130
Figura 139: Forecasting do SVR - Norte ...................................................................... 131
Figura 140: Gráfico ACF do SVR - Norte ................................................................... 132
Figura 141: Teste Ljung-Box do SVR - Norte ............................................................. 132
Figura 142: Teste GARCH do SVR - Norte ................................................................. 132
Figura 143: Forecasting do SVR - Sudeste .................................................................. 133
Figura 144: Gráfico ACF do SVR - Sudeste ................................................................ 134
Figura 145: Teste Ljung-Box do SVR - Sudeste .......................................................... 134
Figura 146: Teste GARCH do SVR - Sudeste ............................................................. 134
Figura 147: Forecasting do SVR - Sul.......................................................................... 135
Figura 148: Gráfico ACF do SVR - Sul ....................................................................... 136
Figura 149: Teste Ljung-Box do SVR - Sul ................................................................. 136
Figura 150: Teste GARCH do SVR - Sul..................................................................... 136
xv
Lista de Tabelas
Tabela 1: Resumo estatístico do consumo de energia elétrica por região ...................... 56
Tabela 2: Resumo estatístico das diferenças de ordem 1 do consumo de energia elétrica
........................................................................................................................................ 57
Tabela 3: Resumo estatístico do IBCR por região ......................................................... 58
Tabela 4: Resumo estatístico das diferenças de ordem 1 do IBCR por região ............... 58
Tabela 5: Resumo estatístico das séries de tarifas médias por região ............................ 59
Tabela 6: Resumo estatístico das séries das diferenças de ordem 1 das tarifas médias por
região .............................................................................................................................. 60
Tabela 7: Resumo estatístico das séries das temperaturas médias por região ................ 61
Tabela 8: Resumo estatístico das séries das diferenças de ordem 1 das temperaturas
médias ............................................................................................................................. 62
Tabela 9: Resumo estatístico das séries de unidades consumidoras por região ............. 63
Tabela 10: Resumo estatístico das séries das diferenças de ordem 1 de unidades
consumidoras .................................................................................................................. 63
Tabela 11: Medidas de ajustamento do SARIMA - Centro-Oeste ................................. 65
Tabela 12: Medidas de ajustamento do SARIMA – Nordeste ....................................... 68
Tabela 13: Medidas de ajustamento do SARIMA – Norte ............................................. 69
Tabela 14: Medidas de ajustamento do SARIMA - Sudeste .......................................... 71
Tabela 15: Medidas de ajustamento do SARIMA - Sul ................................................. 73
Tabela 16: Medidas de ajustamento do Holt Winters - Centro-Oeste ............................ 75
Tabela 17: Medidas de ajustamento do Holt Winters – Nordeste .................................. 77
Tabela 18: Medidas de ajustamento do Holt Winters - Norte ........................................ 79
Tabela 19: Medidas de ajustamento do Holt Winters - Sudeste ..................................... 82
Tabela 20: Medidas de ajustamento do Holt Winters - Sul ............................................ 84
Tabela 21: Medidas de ajustamento da regressão com erros SARIMA - Centro-Oeste 86
Tabela 22: Medidas de ajustamento da regressão com erros SARIMA - Nordeste ....... 88
Tabela 23: Medidas de ajustamento da regressão com erros SARIMA - Norte............. 90
Tabela 24: Medidas de ajustamento da regressão com erros SARIMA - Sudeste ......... 92
Tabela 25: Medidas de ajustamento da regressão com erros SARIMA - Sul ................ 94
Tabela 26: Medidas de ajustamento da decomposição com dummies - Centro-Oeste .. 97
xvi
Tabela 27: Medidas de ajustamento da decomposição com dummies - Nordeste ......... 99
Tabela 28: Medidas de ajustamento da decomposição com dummies - Norte ............. 100
Tabela 29: Medidas de ajustamento da decomposição com dummies - Sudeste ......... 102
Tabela 30: Medidas de ajustamento da decomposição com dummies - Sul ................ 105
Tabela 31: Medidas de ajustamento da decomposição com Fourier - Centro-Oeste ... 107
Tabela 32: Medidas de ajustamento da decomposição com Fourier - Nordeste .......... 109
Tabela 33: Medidas de ajustamento da decomposição com Fourier - Norte................ 111
Tabela 34: Medidas de ajustamento da decomposição com Fourier - Sudeste ............ 113
Tabela 35: Medidas de ajustamento da decomposição com Fourier - Sul ................... 115
Tabela 36: Medidas de ajustamento do Random Forest - Centro-Oeste ...................... 117
Tabela 37: Medidas de ajustamento do Random Forest - Nordeste ............................. 119
Tabela 38: Medidas de ajustamento do Random Forest - Norte .................................. 121
Tabela 39: Medidas de ajustamento do Random Forest - Sudeste ............................... 123
Tabela 40: Medidas de ajustamento do Random Forest - Sul ...................................... 125
Tabela 41: Medidas de ajustamento do SVR - Centro-Oeste ....................................... 127
Tabela 42: Medidas de ajustamento do SVR - Nordeste .............................................. 129
Tabela 43: Medidas de ajustamento do SVR - Norte ................................................... 131
Tabela 44: Medidas de ajustamento do SVR - Sudeste ................................................ 133
Tabela 45: Medidas de ajustamento do SVR - Sul ....................................................... 135
Tabela 46: Comparação entre modelos - Centro-Oeste ................................................ 137
Tabela 47: Comparação entre modelos - Nordeste ....................................................... 137
Tabela 48: Comparação entre modelos - Norte ............................................................ 138
Tabela 49: Comparação entre modelos - Sudeste ......................................................... 139
Tabela 50: Comparação entre modelos - Sul ................................................................ 139
Tabela 51: Melhores modelos por região ..................................................................... 140
Tabela 52: Verificação dos pressupostos...................................................................... 140
xvii
Glossário de Siglas
ACF - Função de Autocorrelação
ADF - Augmented Dickey-Fuller
AGC - Algoritmo Genético Caótico
AR - Autoregressivo
ARMA - Processo Autoregressivo de Médias Móveis
ARIMA - Processo Autoregressivo Integrado de Médias Móveis
ANEEL - Agência Nacional de Energia Elétrica
BDMEP - Banco de Dados Meteorológicos para Ensino e Pesquisa
CNAE - Classificação Nacional de Atividades Econômicas
CSS - Conditional Sum of Squares
EPE - Empresa de Pesquisa Energética
HW - Holt Winters
IBCR - Índice de Atividade Econômica Regional
MA - Média Móvel
MAE - Mean Absolute Error
MAPE - Mean Absolute Percentage Error
MME – Ministério de Minas e Energia
MQC - Mínimos Quadrados Condicionais
xviii
MQO - Mínimos Quadrados Ordinários
MSE - Mean Squared Error
PACF - Função de Autocorrelação Parcial
PRESS - Predicted Residual Error Sum of Squares
PIB - Produto Interno Bruto
PIM-PF - Pesquisa Industrial Mensal de Produção Física
RF - Random Forest
RMSE - Root-Mean-Square Error
RVSQM - Regressão por Vetores de Suporte por Mínimos Quadrados
SARIMA - Processo Autoregressivo Integrado de Médias Móveis Sazonal
SVM - Support Vector Machine
SVR - Support Vector Regression
VAR - Vetor Autoregressivo
1
1. INTRODUÇÃO
1.1. Contextualização
Aprendemos, ao longo dos anos, que é indiscutível a importância e a dependência
extrema da energia elétrica para a vida das pessoas, indústrias, empresas e demais
instituições. Nos dias atuais, a realização das atividades econômicas e o bom
funcionamento da sociedade estão estritamente ligados à produção e abastecimento de
energia elétrica. Situações catastróficas ocorrem quando há uma falha no planejamento
do setor elétrico brasileiro, seja na matriz energética, na infraestrutura ou na previsão da
oferta e demanda do consumo de energia elétrica, como por exemplo, o racionamento
de energia elétrica imposto pelo governo brasileiro durante o ano de 2001. Caso a
sociedade e as instituições públicas falhassem no racionamento de energia neste
período, ocorreria um colapso na economia brasileira devido à falta de energia elétrica
nas indústrias e comércios.
A compreensão da importância dos modelos de previsão de consumo de energia elétrica
requer uma breve explicação sobre o funcionamento do setor elétrico brasileiro. A
cadeia produtiva, em todo o mundo, é composta por sistemas de geração, distribuição,
transmissão e comercialização de energia elétrica. Ela começa na produção de energia
através de diversas fontes e termina no abastecimento ao consumidor final, segundo
uma forma de contratação estabelecida. A figura 1 ilustra essa relação entre os agentes e
consumidores de energia elétrica no Brasil.
Figura 1: Representação das relações entre os segmentos do setor energético
Fonte: ANEEL (2008)
2
A responsabilidade por transformar a energia mecânica, térmica, química e nuclear em
energia elétrica é do segmento de geração. A matriz energética brasileira é composta,
em sua grande maioria, por usinas hidrelétricas, responsável por 68,1% da energia
gerada, e termelétricas, como podemos verificar na figura a seguir. Contudo, há um
planejamento produzido pela EPE (2017) para diversificar essa matriz na expansão do
setor elétrico, com o objetivo de diminuir a dependência da produção de energia com a
fonte hidráulica, visto que recentemente sofremos com os baixos índices pluviométricos
nas usinas, acarretando em um aumento do custo de energia, devido ao acionamento das
termelétricas. Essas flutuações tarifárias alteram a dinâmica do orçamento e impactam a
demanda por energia. Cabe ressaltar que nos últimos três anos o governo, segundo o
Balanço Energético Nacional da EPE (2017), está investindo em produção de energias
renováveis, como biomassa, solar e principalmente eólica, com a finalidade de diminuir
a produção custosa e poluidora de energia termelétrica.
Figura 2: Matriz energética brasileira
Fonte: Empresa de Pesquisa Energética - EPE
O segmento de transmissão é caracterizado pela atividade de transporte e operação da
rede elétrica que conecta os geradores de energia até os centros de distribuição
localizadas próximo dos consumidores, sendo composta por 136.698 quilômetros de
linhas de transmissão, com tensão maior ou igual a 230kV, e operada por 77
3
concessionárias, segundo dados do MME (2017). É importante salientar que a imensa
extensão deste segmento no Brasil deve-se ao fato de as localizações das hidrelétricas
serem distantes dos centros consumidores.
A conexão e atendimento ao consumidor, qualquer que seja o seu porte, são realizados
por grandes empresas denominadas distribuidoras de energia elétrica, que têm como
finalidade fazer o elo entre o setor de energia elétrica e a sociedade, já que suas
instalações recebem todo o suprimento destinado ao abastecimento no país das
companhias de transmissão. O mercado de distribuição é formado por 87
concessionárias, responsáveis por abastecer mais de 82 milhões de unidades
consumidoras (ANEEL, 2017).
Cabe ressaltar um aspecto relevante da cadeia produtiva do setor elétrico: a demanda
por energia elétrica necessita estar em sintonia com a produção, devido à atual
impossibilidade de gerar um estoque de eletricidade. Segundo Andrade (2009), o
desconhecimento sobre a demanda do consumo de energia elétrica pode provocar
consequências gravíssimas à continuidade do fornecimento, no curtíssimo prazo, devido
à relação estreita existente entre demanda e oferta. No longo prazo, o desequilíbrio entre
a oferta e demanda pode levar a crises de abastecimento, impactando significativamente
a economia e o desenvolvimento do país. Portanto, são essenciais para o setor
energético o acompanhamento do cenário econômico no Brasil e das políticas para uma
melhor compreensão do comportamento da demanda.
Deste modo, é necessário o uso de modelos de previsão adequados de previsões a longo
prazo da demanda de energia, para realizar uma gestão estratégica do suprimento de
energia mais eficiente. Essa gestão é realizada pelos órgãos governamentais e agências
regulatórias em parceria com as empresas fornecedoras, distribuidoras e geradoras de
energia. Porém, previsões agregadas não são suficientes para esta gestão, havendo a
necessidade de desagregação segundo o tipo de energia e quantidade de energia
consumida pelas regiões brasileiras.
A Empresa de Pesquisa Energética (EPE) divide os consumidores de energia em 8
classes: Industrial, Residencial, Rural, Comercial, Serviço Público, Poder Público,
4
Iluminação Pública e Própria, e em subclasses de acordo com a tensão demandada, os
quais não levou-se em consideração neste estudo.
Decidiu-se estudar o consumo de energia industrial, por diversos motivos. Atualmente,
a indústria brasileira consome 35,7% da energia total do Brasil, como podemos observar
na figura 3, sendo assim é a classe consumidora que tem mais impacto no setor elétrico.
Figura 3: Participação das classes de consumidores de energia no consumo total do Brasil, 2016
Fonte: Empresa de Pesquisa Energética - EPE
Além disso, o setor industrial apresenta uma dinâmica de consumo complexa e muito
volátil, capaz de retrair bruscamente em épocas de crise, como por exemplo, a retração
de 10,9% de 2014 a 2017 e os 15,7% de retração na crise de 2008/2009, ilustrado na
figura 4, sendo o "termômetro" das atividades econômicas no Brasil. Em contrapartida,
o crescimento do consumo de energia elétrica residencial não parece ser tão afetado por
fatores econômicos, uma vez que houve um aumento de 6,4% desta classe consumidora,
no mesmo período de crise correspondente de janeiro de 2014 a dezembro de 2017. Isso
ocasionou um aumento de 26,7% para 28,8% na participação do consumo de energia
total e uma redução na participação do consumo industrial de 39,9% para 35,7% do
consumo total. Logo, é de suma importância realizar modelos de previsão para o setor
5
industrial, uma vez que, na retomada do crescimento econômico, o consumo de energia
elétrica industrial aumentará consideravelmente, sendo a capacidade de abastecimento
deste setor um fator economicamente limitante.
Figura 4: Consumo de energia elétrica industrial no Brasil em GWh, 2003-2017
Fonte: Empresa de Pesquisa Energética - EPE
Outros motivos para a realização deste estudo são as quantificações das influências,
sobre o consumo de energia das atividades econômicas industriais, das variáveis a
saber: a) temperatura, pois, geralmente, a demanda aumenta nos dias quentes devido à
necessidade de refrigerar e ventilar os ambientes e as máquinas nas indústrias; b) tarifa
média da energia, já que a disponibilidade de eletricidade a preços módicos é, cada vez
mais, fator decisivo para a competitividade do país; e o c) IBCR para indicar o nível de
atividade econômica brasileira, visto que quanto maior a atividade econômica do país,
mais produtos serão produzidos e mais energia será consumida.
Apesar de a energia elétrica ser o serviço mais universalizado e com maior capilaridade
de todos os segmentos da infraestrutura, ainda há dificuldades físicas, de localidade ou
econômicas para a expansão da rede elétrica. Afinal, cada região geográfica do Brasil
possui perfis bastante peculiares e diferenciados que influenciam os contornos que os
sistemas de geração, transmissão e distribuição adquirem ao longo do tempo, além de
influenciar na facilidade de acesso da população local e das indústrias à rede elétrica
6
(ANEEL, 2008). Portanto, a desagregação por regiões brasileiras foi aplicada neste
estudo, para auxiliar na tomada de decisão para a expansão pelos diversos agentes do
setor energético.
O consumo de energia elétrica industrial por região, segundo dados da EPE, está
representado na figura 5, onde podemos observar que a Região Sudeste tem uma
predominância no consumo de energia elétrica, aproximadamente 55%. Por motivos
históricos possui o maior polo industrial brasileiro, seguido pela região Sul, que superou
o consumo industrial da Região Nordeste desde janeiro de 2011.
Figura 5: Consumo de energia elétrica industrial por região do Brasil, 2003-2017
Fonte: Empresa de Pesquisa Energética - EPE
1.2. Motivação e Objetivos
A motivação para este estudo será a realização de modelos de previsões
autorregressivos, econométricos e de machine learning aplicados com sucesso na
previsão de consumo de energia elétrica em diversos países, para contribuir de alguma
forma para a retomada do crescimento econômico do Brasil. A disponibilidade de
energia é indispensável em economias industriais modernas, uma vez que a sua
indisponibilidade pode provocar uma deterioração na balança comercial, devido a um
aumento das importações de energia elétrica para suprir essa ausência. Além disso, pode
ocasionar um aumento nos preços da energia, por causa do acionamento das
7
termoelétricas, com o objetivo de suprir a demanda não atendida pelas hidrelétricas e
pelas fontes de energia renováveis – como eólica, solar e biomassa. E, em casos mais
extremos, pode ocorrer a interrupção do processo produtivo e a necessidade de
programas de racionamento. Um caso emblemático desta situação foi a crise que
ocorreu no setor elétrico em 2001 que obrigou à realização de racionamento de energia
pela população e as instituições públicas, para minimizar o impacto nas indústrias,
provocada pela escassez de chuva e a ausência de investimentos em geração e
distribuição de energia.
Para isso, será necessária a desagregação das previsões, em nível regional e a seleção do
consumo de energia industrial como variável dependente, por possuir a maior
participação no consumo total de energia elétrica do país, uma alta volatilidade e a
criticidade do abastecimento deste setor, com a finalidade de traçar futuros cenários de
longo prazo que facilite a visualização em maiores detalhes, auxiliando na tomada de
decisões dos agentes.
O objetivo deste trabalho será fazer previsões para o consumo de energia elétrica
industrial mensal por região do Brasil e identificar as que possuem os menores erros,
com o intuito de auxiliar o governo e os agentes do setor elétrico na tomada de decisão e
no planejamento da infraestrutura. Por isso, serão utilizadas as séries temporais,
compreendendo o período de janeiro de 2003 a abril de 2017, de temperatura, IBCR,
tarifa média de energia e unidades consumidoras como variáveis independentes do
modelo, para analisar como fatores climáticos e socioeconômicos impactam no
consumo de energia. Além disso, realizar-se-ão modelos utilizando somente dados
históricos da série dependente (consumo de energia elétrica industrial) e técnicas de
machine learning. Por fim, os diversos modelos elaborados serão analisados
comparativamente, através de medidas de ajustamento das previsões, a fim de indicar o
modelo mais adequado para as respectivas regiões que permitir a previsão de cenários
futuros para o consumo de energia elétrica.
8
1.3. Estrutura do Trabalho
Primeiramente, este trabalho realizará uma breve apresentação e contextualização do
setor elétrico brasileiro e da importância da realização de uma previsão acurada para
essa área. Posteriormente, o capítulo 2 apresentará uma revisão bibliográfica de
trabalhos que realizaram métodos de previsão modernos de consumo de energia elétrica
no exterior e no Brasil. No capítulo 3 será detalhada toda a metodologia utilizada no
estudo, desde conceitos básicos de séries temporais, até conceitos de estacionariedade,
autocorrelação, homocedasticidade e normalidade. Ademais, este capítulo também
elucidará os modelos de previsão, começando pelos modelos utilizando dados históricos
da série dependente, depois, modelos incrementando variáveis exógenas e, por último,
modelos de machine learning. O capítulo 4 caracterizará as séries temporais usadas,
através de resumos estatísticos e gráficos de dispersão, além disso, será neste capítulo
que os testes de normalidade, estacionariedade e as transformações das séries originais
serão realizados, a fim de atender esses dois pressupostos. Os resultados das sete
previsões para cada região serão apresentados no capítulo 5, assim como a comparação
entre os modelos para identificar a previsão ótima por região. E, por último, o capítulo 6
apresentará as considerações finais do trabalho.
9
2. REVISÃO BIBLIOGRÁFICA
Em meio à crescente importância da previsão de consumo de energia elétrica e ao
avanço dos métodos de previsão, a produção acadêmica sobre o assunto tem sido
bastante extensa nos últimos anos. Muitos estudos têm sido feitos no contexto da
aplicação de novos métodos de previsão a dados reais de consumo, para fins de
comparação com outras técnicas, em termos de erro de previsão, tempo de cálculo e
facilidade de compreensão e execução. A regressão linear e os modelos univariados de
previsão de séries temporais vêm perdendo espaço para modernas técnicas de machine
learning, como redes neurais artificiais e regressão por vetores de suporte.
Ahmed et al. (1994) investigaram a influência que variáveis externas exercem sobre o
consumo de energia. Um modelo de regressão linear foi desenvolvido com dados da
Província Oriental da Arábia Saudita, com periodicidade mensal. Através do método
step-wise, foram testadas como variáveis explicativas a temperatura, a umidade e a
radiação solar - todos em média mensal -, além do tamanho da população. Apesar de o
modelo final contemplar todas as variáveis, percebeu-se que a radiação possui
influência pouco significativa sobre o consumo, ao contrário das outras três variáveis.
Foram realizadas análises gráficas sobre a normalidade dos resíduos e sobre as
diferenças entre os valores observados e os previstos, apresentando resultados
satisfatórios, porém sem entrar em detalhes quantitativos acerca da qualidade do
modelo.
Abdel-Aal e Al-Garni (1997) desenvolveram um outro estudo acerca dos mesmos
dados, dessa vez utilizando a técnica de redes abdutivas, um exemplo de aplicação de
tecnologia machine-learning. Uma vantagem deste método é a sua simplicidade, à
medida que ele não exige pressuposto praticamente algum em relação aos dados e
requer um tempo de treinamento e ajuste consideravelmente menor do que outras
técnicas de machine-learning, como redes neurais. Alguns modelos foram elaborados,
cada um considerando uma combinação diferente das seguintes variáveis
independentes: temperatura, umidade, radiação solar, população, Produto Interno Bruto
10
(PIB) e um índice temporal para captar a tendência da série de consumo energético. Os
resultados do trabalho indicam que o melhor modelo encontrado de redes abdutivas
utiliza apenas a temperatura e a umidade, enquanto a regressão linear ideal leva em
conta, além dessas duas, a radiação, a população e o PIB. Dessa forma, a técnica
estudada, além de ser de rápida implementação e de ter gerado previsões mais precisas
que a regressão linear, utilizou apenas variáveis climáticas, ignorando as variáveis
demográficas.
Abdel-Aal e Al-Garni (1997) também estudaram o consumo de energia elétrica na
Província Oriental da Arábia Saudita. A metodologia adotada, no entanto, consistiu na
análise de séries temporais univariadas. Nesse sentido, foram desenvolvidos modelos
ARIMA distintos, através da variação de seus parâmetros. Utilizou-se dados de
temperatura mensal em um intervalo de 5 anos como set de treinamento, além de 1 ano
adicional a fim de avaliar as previsões do modelo. É concluído que os modelos ARIMA
oferecem boas previsões quando comparados à regressão linear e a modelos básicos de
machine-learning, principalmente quando as análises se limitam ao curto prazo. É
ressaltado que o modelo desenvolvido apresenta erros de previsão menores que os
outros, além de demandar apenas uma série de dados históricos, enquanto os outros
modelos requerem um número consideravelmente maior.
Uma técnica que tem sido muito utilizada mais recentemente é a regressão por vetores
de suporte (RVS). Trata-se de uma outra forma de aplicação de machine-learning que
apresenta resultados de previsão melhores que as tradicionais regressões. Tais modelos
possuem três parâmetros, os quais são determinados a partir de algoritmos
evolucionários, que são baseados em mecanismos de reprodução biológica. Esses
algoritmos costumam apresentar alguns problemas, como tempo excessivo de cálculo,
convergência lenta e frequentemente a um ponto ótimo local, e não global. Nesse
contexto, Hong (2010) fez uma análise sobre um algoritmo inovador chamado de
otimização caótica por enxame de formigas. Tal método foi aplicado a um conjunto de
dados de periodicidade anual provenientes de quatro regiões de Taiwan. Ao comparar
os resultados dos modelos obtidos com outros tipos de algoritmos para determinação
dos parâmetros, conclui-se que a técnica testada pelo autor apresenta resultados
11
superiores às demais analisadas. Entretanto, é ressaltado ao final do trabalho que existe
ainda muito espaço para outros algoritmos mais complexos serem explorados e
auxiliarem a utilização da SVR.
Hong et al (2012) aplicaram um outro algoritmo caótico para otimização dos parâmetros
da RVS: o algoritmo genético caótico (AGC). Além disso, também foi utilizado um
ajuste sazonal dos dados através da estimação do índice do componente sazonal da
série. A série estudada foi composta por dados de consumo de energia da região
nordeste da China, com base mensal, entre dezembro de 2004 e abril de 2009, sendo o
set de treinamento constituído de 32 meses, e os 14 meses restantes sendo usados para
validação do modelo. Conclui-se, ao final do trabalho, que o modelo híbrido, que uniu
SVR, AGC e ajuste sazonal, obteve resultados satisfatórios, em termos de precisão das
previsões, quando comparados a outros modelos elaborados.
Uma extensão da SVR tradicional é a regressão por vetores de suporte por mínimos
quadrados (RVSMQ). Enquanto a versão original utiliza restrições de desigualdades a
serem otimizadas, a RVSQM usa a técnica dos mínimos quadrados aplicada à função de
custo (SUYKENS, 1999). Li et al (2012) utilizaram esta metodologia aliada ao
algoritmo evolutivo de moscas-da-fruta. Foi feito uma análise com dados de consumo
de energia elétrica anual da China, no período entre 1978 e 2011. A cada iteração, a
previsão de consumo de determinado ano era realizada a partir dos valores dos 3 anos
precedentes. Além do modelo em questão, outros foram também elaborados a fim de
comparação, como regressões e RVSQM utilizando outros algoritmos de otimização. O
modelo final apresentou o menor erro de previsão entre todos os analisados, porém
precisou de um tempo de convergência maior que os métodos mais básicos de
determinação de parâmetros para o RVSQM.
Fan et al (2015) aplicaram o conceito de decomposição diferencial empírica (DDE) e
auto-regressão (AR) aos modelos SVR. Primeiramente, utiliza-se a DDE para decompor
os dados em tempo-frequência: uma parte com alta frequência, e outra com os resíduos.
Em seguida, é aplicado a SVR na parte de alta frequência, determinando os parâmetros
adequados. Já em cima dos resíduos é aplicado a AR, uma vez que eles satisfazem a
condição de estacionariedade e são monótonos. Enfim, os resultados da previsão final
12
são obtidos a partir da combinação entre as duas partes analisadas até então
separadamente. Testou-se tal metodologia em dois estudos de caso: um com dados de
Nova Gales do Sul, na Austrália, e outro de Nova Iorque, Estados Unidos. Os dois
conjuntos de dados possuem características significativamente diferentes, como
tendência e variância. É concluído que, em ambas as situações, o modelo proposto
supera a RVS tradicional, tanto em termos de erros de previsão, quanto em função da
interpretabilidade, visto que as regras criadas pelo modelo são mais compreensíveis aos
olhos humanos do que nas outras técnicas mais tradicionais.
Além disso, Abosedra et al. (2009) investigaram a relação causal entre o consumo de
eletricidade do Líbano e diversas variáveis exógenas com periodicidade mensal, entre
Janeiro de 1995 e Dezembro de 2005, tais como: temperatura, humidade e o
crescimento econômico. Através do teste de causalidade de Grange, concluiu-se que há
a existência de causalidade unidirecional que decorre do consumo de eletricidade para o
crescimento econômico, indicando que os decisores políticos, nos estágios iniciais da
reconstrução do país pós-guerra, devem priorizar o desenvolvimento da infraestrutura e
o aumento da capacidade do setor elétrico do Líbano, pois esses fatores impulsionariam
o crescimento econômico.
Saab et al. (2000) desenvolveram três modelos univariados para prever o consumo de
energia elétrica mensal no Líbano pós-guerra (janeiro de 1990 a maio de 1999), mais
especificamente, o modelo autorregressivo AR(1), o autorregressivo, integrado e de
médias móveis (ARIMA) e um modelo AR(1) com um filtro passa-altas. O desempenho
das previsões foi avaliado através de quatro critérios: o erro médio percentual absoluto
(EMPA), a soma acumulada dos erros (SAE), a soma dos quadrados dos resíduos (SQR)
e o erro quadrático médio percentual (MSE), sendo que o modelo AR(1) com filtro
passa-altas foi superior em todos os critérios.
No que diz respeito às previsões de consumo de energia no Brasil, temos o trabalho de
Oliveira et al. (2010). Os autores realizaram um modelo de previsão da demanda de
longo prazo do consumo de energia residencial no Brasil utilizando séries históricas
anuais de 1980 a 2000, totalizando 21 observações, com o objetivo de quantificar as
influências da tarifa média residencial de energia elétrica, o preço de eletrodomésticos e
13
o PIB na variável endógena. As estimações das elasticidades foram realizadas através da
modelagem de um vetor autoregressivo (VAR) e de um modelo de correção de erros
vetoriais (MCEV), utilizando a forma funcional log-linear para obtê-las diretamente dos
resultados das regressões. Os modelos de previsões foram satisfatórios, devido ao fato
dos coeficientes serem significativos e não existirem indícios de que os resíduos não
sejam homocedásticos, não-autocorrelacionados ou normalmente distribuídos.
Koo et al (2014) realizaram três modelos de previsão com um horizonte de 1 dia com
dados horários para o consumo de energia elétrica na Coréia do Sul. Contudo, foi
necessária a utilização de classificadores de dados, k-média (K-M) e k vizinhos mais
próximos (K-NN), para eliminar os erros ocasionados pelos padrões de consumo que
variam de acordo com os dias da semana. Os dados classificados foram usados como
insumos para três modelos de previsão: redes neurais artificiais (RNA), suavização
exponencial simples (SES) e Group method of data handling (GMDH), sendo este
último o que obteve a melhor performance para as previsões nos Domingos, Segundas e
dias de semana, segundo o critério MAPE. Cabe ressaltar que os resultados ainda
podem ser melhorados, devido ao fato de o MAPE ser mais alto para os finais de
semana e para as Segundas-feiras em comparação aos dias de semana.
Outro caso interessante foi o modelo de previsão desenvolvido por Shen et al (2016).
Eles utilizaram os conceitos de controle de rastreamento de trajetória e a teoria da
estabilidade de Lyapunov para criar um algoritmo de previsão universal e robusto, tendo
como vantagens a não necessidade de treinamento estatístico, ausência de erro na
criação do modelo e a convergência do erro de observação ser teoricamente assegurada.
Os autores realizaram uma análise de performance desse novo modelo no curto, médio e
longo prazo, evidenciando uma melhor performance de, no mínimo, 30% em relação ao
ARMA com e sem correção de erros e a rede neural de retropropagação com e sem
correção de erros, utilizando o critério MAPE. Contudo, o modelo ainda possui erros de
aproximação, ocasionado pelo fato do algoritmo ser derivado em forma contínua e estar
implementado discretamente.
14
3. METODOLOGIA ADOTADA
3.1. Conceitos Básicos de Séries Temporais
Definição de Série Temporal
Define-se séries temporais como conjuntos de observações dos valores que uma
variável assume ao longo do tempo (GUJARATI, 2008). Um conjunto de variáveis
aleatórias {xt}, onde t é o índice de tempo, é designado como um processo estocástico.
Os valores observados destes são chamados de realizações dos processos estocásticos.
De maneira geral, porém, o termo séries temporais é com frequência utilizado para se
referir tanto ao processo quanto a uma de suas realizações (SHUMWAY & STOFFER,
2011).
Os dados referentes às séries temporais podem ser coletados a intervalos de tempos
regulares, como diariamente, mensalmente ou anualmente. Neste caso, diz-se que são
séries discretas. Quando os intervalos de tempo são tão curtos que tendem a zero, são
classificadas como séries contínuas. Alguns exemplos de séries contínuas são a medição
de tensão elétrica e o consumo de dados de internet. Como todas as séries abordadas
neste trabalho são discretas, de frequência mensal, todos os conceitos e modelos
estudados serão relativos a este tipo de série.
Componentes de uma Série Temporal
Toda série temporal pode ser decomposta em três componentes não observáveis:
tendência, sazonalidade e um componente aleatório (MORETTIN & TOLOI, 2004).
Alguns autores, como Salles (2005), incluem um quarto componente, denominado
componente cíclico.
Matematicamente, pode-se representar tal decomposição sob duas diferentes formas:
1. Modelo aditivo:
𝑌𝑡 = 𝑇𝑡 + 𝑆𝑡 + 𝐶𝑡 + 𝑎𝑡 (1)
15
2. Modelo multiplicativo:
𝑌𝑡 = 𝑇𝑡 ∗ 𝑆𝑡 ∗ 𝐶𝑡 ∗ 𝑎𝑡 (2)
Onde:
Tt (tendência): existe quando há variações de longo prazo, positivas ou
negativas, sobre a média dos valores da série. Essa variação pode ser linear,
quadrática, logarítmica, etc.
St (sazonalidade): variações que ocorrem, com um período regular e conhecido,
ao longo do tempo. Apresentam-se sob a formam de ciclos que se repetem ao longo
da série, podendo ser causados por fatores relacionados ao clima, a determinado
período de tempo ou outros fatores relacionados às estações do tempo (SALLES,
2005).
Ct (componente cíclico): são variações sobre a série com períodos não fixos e
geralmente não conhecidos, aparecendo no longo prazo.
at (componente aleatório): também chamado de componente irregular, é
relacionado às variações aleatórias da série temporal, geralmente provocadas por
eventos imprevisíveis e sem intervalos de tempo definidos (SALLES, 2005). Tal
componente costuma ser tratada como um ruído branco, cuja definição será
apresentada mais adiante. Porém, essa condição pode ser relaxada em alguns
momentos, de forma que se trate {at} apenas como um processo estacionário
(MORETTIN & TOLOI, 2004).
Definição de Ruído Branco
Um processo aleatório {at} é dito um ruído branco forte caso as realizações do processo
at sejam independentes e identicamente distribuídas. Caso E(at) = 0, o processo é
centrado, e caso Var(at) = 1, trata-se de um processo reduzido.
No entanto, a noção mais difundida de ruído branco se baseia sobre o conceito de ruído
branco fraco. No caso de um processo aleatório {at}, pode-se dizer que ele é um ruído
branco fraco caso satisfaça as seguintes condições (GOUDE, 2015):
16
E(at) =
E(at2) = 2
E(ai*aj) = 0, i j
Ao longo deste trabalho, sempre que for mencionado o termo ruído branco, subentende-
se que se trata do conceito de ruído branco fraco.
Aplicações de Séries Temporais
A análise de dados captados em diferentes instantes de tempo gera problemas para a
tradicional modelagem e inferência estatísticas (SHUMWAY & STOFFER, 2011), uma
vez que existe uma correlação óbvia entre medições referentes a instantes de tempo
adjacentes, e o tratamento convencional supõe que os dados são independentes e
identicamente distribuídos. Nesse sentido, a análise dos dados como séries temporais
ajuda a explicar os efeitos do tempo sobre as variáveis.
Os principais objetivos da análise de séries temporais são a modelagem da série -
entender de que forma os valores observados são gerados -, a previsão de valores
futuros com o máximo de assertividade, e o entendimento de uma forma ótima para
controlar um sistema (WEI, 1990).
São inúmeros os campos de aplicação do estudo de séries temporais. O campo da
economia é um dos mais relevantes, onde existem séries como o valor de ações na
Bolsa, índices de produção industrial, medidas de desemprego, etc. Outras áreas de
importância relevante são o consumo de energia elétrica, principalmente no tocante à
previsão do consumo para planejamento da oferta, e o campo da medicina, como na
avaliação dos efeitos de medicamentos sobre pacientes que sofrem de determinada
enfermidade.
3.2. Funções de Autocovariância e Autocorrelação
Dado um processo aleatório Yt, define-se como sua função de autocovariância:
𝐶𝑜𝑣(𝑌𝑡, 𝑌𝑡+ℎ) = 𝛾(ℎ) (3)
17
A função de autocorrelação, por sua vez, é definida como:
𝜌(ℎ) =
𝛾(ℎ)
𝛾(0)
(4)
Ambas as funções são simétricas, ou seja, (h) = (-h), e (h) = (-h). Na prática,
porém, não se conhece as funções de autocovariância e autocorrelação de um processo
aleatório. Dessa forma, faz-se necessário uma forma de estimar seus valores com base
nas observações das realizações do processo (GOUDE, 2015). Nesse contexto, a função
de autocovariância empírica pode ser definida como:
𝛾(ℎ) =
1
𝑛∑ (𝑦𝑡 − �̅�)(𝑦𝑡−ℎ − �̅�)
𝑛
𝑡=ℎ+1, ∀ ℎ ∈ (0, . . . , 𝑛 − 1)
(5)
Já a função de autocorrelação empírica pode ser calculada da seguinte maneira:
�̂�(ℎ) =
∑ (𝑦𝑡 − �̅�)(𝑦𝑡−ℎ − �̅�)𝑛𝑘=ℎ+1
∑ (𝑦𝑡 − �̅�)2𝑛𝑡=1
=𝛾(ℎ)
𝛾(0),
∀ ℎ ∈ (0, . . . , 𝑛 − 1)
(6)
Os valores estimados por essa função são frequentemente plotados em um gráfico de
autocorrelação parcial, o qual é importante para a análise da adequação dos resíduos.
Além dessas funções de autocovariância e autocorrelação, caso se queira analisar as
dependências entre 3 ou mais variáveis aleatórias, faz-se necessário definir o conceito
de correlação parcial. Ela é definida como (GOUDE, 2015):
𝑟𝑋2,...,𝑋𝑘−1(𝑋1, 𝑋𝑘) = 𝜌(𝑋1 − 𝑃𝑀(𝑋2,...,𝑋𝑘−1), 𝑋𝑘 − 𝑃𝑀(𝑋2,...,𝑋𝑘−1)) (7)
No caso de um processo aleatório Yt, centrado e estacionário de ordem 2, define-se sua
função de autocorrelação parcial como (GOUDE, 2015):
𝑟(1) = 𝜌(1) (8)
𝑟(ℎ) = 𝑟𝑌2,...,𝑌ℎ(𝑌1, 𝑌ℎ+1), ∀ ℎ ≥ 2 (9)
𝑟(ℎ) = 𝑟(−ℎ) (10)
O algoritmo de Durbin nos permite, de forma recursiva, obter as autocorrelações
parciais r(k) = bk,k relacionadas a um processo Yt, estacionário de ordem 2, através da
seguinte fórmula (BOX & JENKINS, 1976):
18
𝑏𝑘,𝑗 = 𝑏𝑘−1,𝑗 − 𝑏𝑘,𝑘𝑏𝑘−1,𝑘−𝑗, ∀ 𝑗 = 1,… , 𝑘 − 1
(11)
𝑏𝑘,𝑘 =
𝛾(𝑘) − ∑ 𝛾(𝑘 − 𝑗)𝑏𝑘−1,𝑗𝑘−1𝑗=1
𝛾(0) − ∑ 𝛾(𝑗)𝑏𝑘−1,𝑗𝑘−1𝑗=1
(12)
3.3. Estacionariedade
Estacionariedade fraca
O conceito de estacionariedade fraca, ou de ordem 2, é verificada para todo processo
aleatório Yt tal que sua esperança seja constante e suas autocovariâncias sejam estáveis
ao longo do tempo (GOUDE, 2015), ou seja:
∀ 𝑡, 𝐸(𝑌𝑡) = 𝜇 (13)
∀ 𝑡, ∀ ℎ, 𝐶𝑜𝑣(𝑌𝑡, 𝑌𝑡+ℎ) = 𝛾(ℎ) (14)
Como Var(Yt) = (0), deduz-se que um processo estacionário fraco possui variância
constante ao longo do tempo. Na prática, a forma mais simples de se estudar a
estacionariedade fraca de uma série é plotando o gráfico dos valores observados ao
longo do tempo, de forma a verificar se a esperança e a variância são constantes no
decorrer do tempo. Porém, como veremos mais adiante, existem formas estatisticamente
mais precisas para verificar a estacionariedade de segunda ordem de um processo
aleatório.
Estacionariedade forte
Dado um processo aleatório Yt, diz-se que ele é um processo estacionário forte, ou
estritamente estacionário, se, para toda função mensurável f, f(Y1,Y2,...,Yt) e
f(Y1+h,Y2+h,...,Yt+h) sigam a mesma lei (GOUDE, 2015). Em outras palavras, no caso de
um processo estritamente estacionário, todos os seus momentos são invariantes para
todo deslocamento em relação à origem do tempo (PERRAUDIN, 2004).
19
Na prática, é muito difícil verificar a hipótese de estacionariedade forte para os
processos aleatórios, visto que ela é muito restritiva. Desta forma, prefere-se utilizar o
conceito de estacionariedade fraca, ou de ordem 2 (PERRAUDIN, 2004). Todos os
processos estritamente estacionários satisfazem as condições de estacionariedade fraca,
porém, o contrário não é verdade.
Testes de Raízes Unitárias
O teste de raiz unitária, utilizado para avaliar a estacionariedade de um processo
aleatório, tem se tornado cada vez mais popular. Seja o modelo de passeio aleatório,
descrito pela equação (15):
𝑌𝑡 = 𝑌𝑡−1 + 𝑎𝑡 (15)
Onde at é um termo de ruído branco centrado e de variância 2. Ou seja, Y toma um
valor, no tempo t, igual ao seu próprio valor no tempo t - 1, acrescido de um choque
aleatório at. Pode-se reescrever a equação (15) da seguinte forma:
𝑌𝑡 = 𝑌0 + ∑𝑎𝑡
𝑡
(16)
Onde Y0 é o valor de Y no tempo t = 0. A partir dessa equação, encontra-se a esperança
e a variância desse processo (GUJARATI, 2008).
𝐸(Y𝑡) = 𝐸(𝑌0 + ∑𝑎𝑡
𝑡
) = 𝐸(𝑌0) + 𝐸(∑𝑎𝑡
𝑡
) = 𝑌0 + 0 = 𝑌0 (17)
𝑉𝑎𝑟(𝑌𝑡) = 𝑉𝑎𝑟(𝑌0 + ∑𝑎𝑡
𝑡
) = 𝑉𝑎𝑟(𝑌0) + ∑𝑉𝑎𝑟(𝑎𝑡)
𝑡
= 0 + 𝑡𝜎2 = 𝑡𝜎2 (18)
Apesar de o valor esperado do processo Yt ser constante ao longo do tempo, é fácil
notar que sua variância explode quando t aumenta, pois:
lim𝑡→∞
𝑡𝜎2 = +∞ (19)
20
Dessa maneira, o processo Yt é não estacionário. Generalizando o modelo de passeio
aleatório, podemos reescrevê-lo da seguinte forma:
𝑌𝑡 = 𝜌𝑌𝑡−1 + 𝑎𝑡 (20)
Como já visto, caso = 1, tem-se um modelo de passeio aleatório, não estacionário. A
ideia por trás dos testes de raiz unitária reside em fazer uma regressão de Yt sobre Yt-1, a
fim de verificar, estatisticamente, se o coeficiente é igual a 1 (GUJARATI, 2008).
Neste caso, o processo seria não estacionário.
Apesar de, no caso de não existência de raiz unitária, o test t de Student possa ser
utilizado (GUJARATI, 2008), deve-se recorrer a uma outra distribuição, visto que, no
caso de raiz unitária, a distribuição de Student não é adequada. Subtraindo-se Yt-1 de
ambos os lados da equação do processo de raiz , chega-se a:
𝑌𝑡 − 𝑌𝑡−1 = (𝜌 − 1)𝑌𝑡−1 + 𝑎𝑡 (21)
Introduzindo o operador de diferenciação de primeira ordem (), e substituindo-se ( -
1) por , tem-se:
∆𝑌𝑡 = 𝛿𝑌𝑡−1 + 𝑎𝑡 (22)
Procede-se, então, da seguinte forma: após calcular as primeiras diferenças do processo
(Yt - Yt-1), faz-se uma regressão desses valores em relação a Yt-1. Caso o coeficiente
seja estatisticamente não significativo na regressão, ou seja, igual a 0, tem-se:
∆𝑌𝑡 = 𝑌𝑡 − 𝑌𝑡−1 = 𝑎𝑡 (23)
Ou seja, caso = 0, temos um modelo de passeio aleatório não estacionário. Por outro
lado, caso < 0, conclui-se que o processo é estacionário. Conforme já dito
anteriormente, não é possível utilizar o test t de student, que se costuma utilizar em
regressões convencionais. Nesse sentido, Dickey e Fuller (1979) demonstraram, através
de simulações de Monte Carlo, que, sob a hipótese nula de = 0, o valor estimado de
segue a estatística (tau).
21
Além do caso já discutido em que Yt é um passeio aleatório, outras duas hipóteses são
consideradas para Yt no teste de raiz unitária de Dickey-Fuller (GUJARATI, 2008):
Passeio aleatório com deslocamento:
∆𝑌𝑡 = 𝛽1 + 𝛿𝑌𝑡−1 + 𝑎𝑡 (24)
Passeio aleatório com deslocamento em torno de uma tendência determinística:
∆𝑌𝑡 = 𝛽1 + 𝛽2𝑡 + 𝛿𝑌𝑡−1 + 𝑎𝑡 (25)
Para todas as situações, as hipóteses nulas e alternativa do teste são:
H0: = 0, ou seja, existe uma raiz unitária, de forma que a série é não
estacionária.
H1: < 0, ou seja, não existe raiz unitária, e a série é estacionária
Uma alternativa a esse teste tradicional é o teste Dickey-Fuller aumentado, no qual o
erro at, antes considerado não correlacionado, passa a ser considerado, por meio da
adição de valores defasados de Yt às três equações de passeio aleatório vistas
anteriormente. No caso do passeio aleatório com deslocamento em torno de uma
tendência determinística, com a adição das variáveis defasadas, chega-se à equação
generalizada (26):
∆𝑌𝑡 = 𝛽1 + 𝛽2𝑡 + 𝛿𝑌𝑡−1 + ∑ 𝛼𝑖∆𝑌𝑡−1
𝑚
𝑖=1+ 휀𝑡
(26)
Onde t é um ruído branco. O número de lags incluídos na equação costuma ser
determinado empiricamente, de maneira que haja termos o suficiente para que t seja
serialmente não correlacionado (GUJARATI, 2008).
22
Diferenciação de Séries Temporais
Lidar com séries temporais não estacionários pode trazer inúmeros problemas, sendo a
regressão espúria, provavelmente, um dos principais. Trata-se, em outras palavras, de
uma regressão sem sentido, em que o valor do coeficiente de determinação (R2) é
superestimado, levando-nos a crer erroneamente, muitas vezes, que temos uma boa
regressão. Além disso, as estatísticas dos testes t de Student e Fisher para a significância
da regressão não seguem exatamente essas distribuições, originando frequentemente
conclusões falhas.
Nesse sentido, é recomendável, quando possível, lançar mão de métodos para tornar as
séries temporais estacionárias. Muitas transformações nos dados podem ser feitas, sendo
a diferenciação das séries o método mais utilizado para alcançar este objetivo.
A diferenciação de primeira ordem consiste em capturar as diferenças entre valores
observados do processo aleatório para um dado lag h, segundo a fórmula:
𝑌𝑡′ = 𝑌𝑡 − 𝑌𝑡−ℎ (27)
Caso a estacionariedade não seja alcançada, mesmo após a diferenciação de ordem 1,
pode-se proceder realizando sucessivas diferenciações. Por exemplo, a diferenciação de
ordem 2, para o lag h, é calculada da seguinte forma:
𝑌𝑡′′ = 𝑌𝑡
′ − 𝑌𝑡−ℎ′ = (𝑌𝑡 − 𝑌𝑡−ℎ) − (𝑌𝑡−ℎ − 𝑌𝑡−2ℎ) = 𝑌𝑡 − 2𝑌𝑡−ℎ + 𝑌𝑡−2ℎ (28)
De forma mais geral, pode-se definir o operador de diferenciação tal que, para um
dado lag h:
∆𝑌𝑡 = 𝑌𝑡 − 𝑌𝑡−ℎ (29)
E
∆𝑘𝑋𝑡 = ∆(∆𝑘−1𝑋𝑡 (30)
23
As diferenciações mais comumente utilizadas são as de lag 1. No entanto, algumas
vezes, para se alcançar a estacionariedade, se faz necessário conjugá-las com
diferenciações sazonais, por exemplo, de lag 12 no caso de séries com periodicidade
mensal, de forma a eliminar os efeitos tanto da tendência quanto da sazonalidade.
3.4. Autocorrelação
Um dos pressupostos mais importantes dos modelos MQO é a ausência de
autocorrelação nos termos dos resíduos. A inexistência de autocorrelação no processo
de resíduos at é representada através das condições (GUJARATI, 2008):
𝐶𝑜𝑣(𝑎𝑖, 𝑎𝑗 | 𝑋𝑖 𝑒 𝑋𝑗) = 𝐸(𝑎𝑖𝑎𝑗) = 0, ∀ 𝑖 ≠ 𝑗 (31)
𝐶𝑜𝑣(𝑎𝑖, 𝑎𝑗) = 0, 𝑠𝑒 𝑋 é 𝑛ã𝑜 𝑒𝑠𝑡𝑜𝑐á𝑠𝑡𝑖𝑐𝑜 (32)
As consequências da violação dessa hipótese são facilmente mensuráveis. Por exemplo,
seja o modelo de regressão simples:
𝑌𝑡 = 𝛽1 + 𝛽2𝑋𝑡 + 𝑎𝑡 (33)
Caso exista autocorrelação nos resíduos at, pode-se dizer que, para cada t, at é
determinado, em parte, por at-1. Consequentemente, Yt depende não apenas de Xt, mas
também de ut-1.
Gujarati (2008) lista várias possíveis causas para a existência de autocorrelação na série
dos erros. Ela pode ser explicada, muitas vezes, pela ausência de uma ou mais variáveis
explicativas importantes no modelo. Dessa forma, a autocorrelação pode significar que
a regressão não está boa o suficiente com as variáveis explicativas que estão inclusas no
modelo. Uma outra possível causa é a não estacionariedade da série dos erros, que pode
acontecer mesmo quando as séries Yt e Xt são estacionárias.
Caso exista autocorrelação nos resíduos e a mesma seja ignorada, são graves as
consequências para a análise do modelo. Por exemplo, a estimativa da variância dos
resíduos provavelmente será subestimada. Como consequência disso, o coeficiente de
24
determinação, R2, será superestimado. Não obstante, os testes de significância t de
Student e de Fisher ficam completamente comprometidos, não levando a resultados
confiáveis (GUJARATI, 2008).
A existência ou não de autocorrelação nos resíduos pode ser avaliada por diversas
formas. A mais simples é através do gráfico dos valores observados dos erros em função
do tempo. Caso existam padrões bem definidos, como formato de senos, ou
dependência positiva ou negativa de at em relação a valores passados, é provável que
exista autocorrelação.
Outra alternativa visual é através dos gráficos da função de autocorrelação empírica,
descrita pela equação (34):
�̂�(ℎ) =
∑ (𝑦𝑡 − �̅�)(𝑦𝑡−ℎ − �̅�)𝑛𝑘=ℎ+1
∑ (𝑦𝑡 − �̅�)2𝑛𝑡=1
=𝛾(ℎ)
𝛾(0), ∀ ℎ ∈ (0, . . . , 𝑛 − 1
(34)
Figura 6: Gráfico de Autocorrelação Empírica (ACF)
Fonte: Elaboração própria
25
A figura (6) ilustra as estimativas dos valores de autocorrelação de uma série, no eixo
vertical, em função das defasagens. As linhas azuis representam os intervalos de
confiança de 95%. Para o lag 0, a função atinge, obviamente, o valor unitário. A partir
do lag 1, porém, espera-se que uma série não autocorrelacionada apresente todos os
valores dentro do intervalo de confiança. Caso existisse um pico no lag 12, por
exemplo, haveria evidência de que Yt depende, em parte, de Yt-12.
Esta análise gráfica possui um problema: a análise de cada lag de forma separada.
Existe a possibilidade de que, mesmo todas as linhas estando dentro do intervalo de
confiança, coletivamente os valores sejam grandes (SHUMWAY & STOFFER, 2011).
Uma forma simples de se testar a autocorrelação de forma coletiva é fazendo uma
regressão das séries dos erros, at, em relação a seus valores passados, ou seja:
𝑎𝑡 = 𝛽1 + 𝛽2𝑎𝑡−1+. . . +𝛽𝑛𝑎𝑡−𝑛+1 + 𝑢𝑡 (35)
Após o cálculo dos parâmetros através do MQO, analisa-se a significância dos
parâmetros, através de testes t de Student, para testar a significância de valores passados
sobre at. De forma mais geral, o teste de Fisher pode ser utilizado para confrontar as
seguintes hipóteses:
H0: 1 = 0 e 2 = 0 e ... e n = 0, ou seja, a regressão não é significativa, logo, não
há autocorrelação na série.
Ha: 1 0 ou 2 0 ou ... ou n 0, ou seja, existe correlação em relação a pelo
menos um lag, significando que existe autocorrelação.
Existe um teste estatístico mais robusto, denominado teste de Ljung-Box, que, ao invés
de ajustar uma regressão linear à série dos resíduos, encaixa um modelo ARMA(p, q)
aos dados, considerando H lags. A estatística de teste é dada pela equação (36).
(SHUMWAY & STOFFER, 2011):
𝑄 = 𝑛(𝑛 + 2)∑
�̂�𝑒2(ℎ)
𝑛 − ℎ
𝐻
ℎ=1
(36)
26
Tal estatística segue a distribuição Qui-Quadrada, com h graus de liberdade. As
hipóteses do teste são:
H0: não existe autocorrelação na série dos resíduos
Ha: existe autocorrelação na série dos resíduos
O teste é unilateral pelo lado direito, ou seja, a hipótese nula é rejeitada caso:
𝑄 > 𝜒1−𝛼,ℎ2 (37)
Existem ainda outras alternativas, como o teste de Durbin-Watson. A estatística do teste
é dada por:
𝐷 =
∑ (�̂�𝑡 − �̂�𝑡−1)2𝑛
𝑡=2
∑ �̂�𝑡2𝑛
𝑡=1
(38)
As hipóteses testadas são:
H0: não existe autocorrelação na série dos resíduos
Ha: existe autocorrelação na série dos resíduos
Os critérios de decisão deste teste são baseados em valores tabelados para os limites
inferiores (Dl) e superiores (Du) da estatística de teste (GUJARATI, 2008). São eles:
Se 0 < D < Dl: rejeita-se H0
Se Dl < D < Du: zona de indecisão, o teste é inconclusivo
Se Du < D < 4 - Du: não se rejeita H0
Se 4 - Du < D < 4 - Dl: zona de indecisão, o teste é inconclusivo
Se 4 - Dl < D < 4: rejeita-se H0
Apesar de ser mundialmente utilizado, o teste de Durbin-Watson pressupõe várias
hipóteses (GUJARATI, 2008), dentre elas:
A regressão inclui o intercepto.
As variáveis explicativas não são estocásticas.
Os termos de erro ut seguem uma distribuição normal.
27
A regressão não inclui valores defasados de Yt como variáveis explicativas.
Dessa forma, o teste de Durbin-Watson possui aplicação muito restrita, principalmente
devido à hipótese de normalidade dos resíduos.
3.5. Homocedasticidade
A homocedasticidade é outro importante requisito para os resíduos da maioria dos
modelos estatísticos. Ela significa variância constante do termo do erro, ai,
independentemente do valor de Xi (GUJARATI, 2008), ou seja:
𝑉𝑎𝑟(𝑎𝑖) = 𝐸[𝑎𝑖 − 𝐸(𝑎𝑖|𝑋𝑖)]2 = 𝐸(𝑎𝑖
2|𝑋𝑖) = 𝐸(𝑎𝑖2) = 𝜎2 (39)
Desde que Xi seja não estocástico. Em caso de heterocedasticidade, a variância varia de
acordo com o tempo:
𝑉𝑎𝑟(𝑎𝑖|𝑋𝑖) = 𝜎𝑖2 (40)
A análise gráfica, apesar de possivelmente gerar alguns insights, não é tão simples
quanto no caso da autocorrelação. Alguns testes, nesse sentido, foram criados para se
testar a hipótese de homocedasticidade dos resíduos. Um dos mais simples é o teste de
Pesaran, que consiste em ajustar uma regressão, explicando o erro ai através dos valores
observados da série Yi (SALLES, 2005). A equação da regressão é da forma:
𝑎2 = 𝛽1 + 𝛽2�̂�2 (41)
Realiza-se os testes de significância t de Student e Fisher. Caso a regressão seja
significativa, conclui-se que há evidência de que a série dos resíduos é heterocedástica.
Caso contrário, existe evidência da homocedasticidade dos erros.
Engle (1982) desenvolveu o chamado modelo de heterocedasticidade condicional
autoregressiva (ARCH). Neste modelo, a heterocedasticidade, observada ao longo do
tempo, apresenta autocorrelação. Seja, por exemplo, a série temporal descrita pela
equação (42):
28
𝑌𝑡 = 𝜇𝑡 + 𝑎𝑡 (42)
Onde at é um ruído branco centrado, escrito da seguinte forma:
𝑎𝑡 = 𝜎𝑡𝑧𝑡 (43)
Sendo zt um processo independente e identicamente distribuído, centrado e reduzido. A
variância incondicional dos resíduos é, portanto:
𝐸(𝑎𝑡𝑎𝑡+ℎ) = 0, ∀ ℎ > 0 (44)
Onde h representa o número de lags. A variância condicional dos erros, por sua vez, é
escrita como:
𝑉𝑎𝑟(𝑌𝑡|𝐻𝑡−1) = 𝑉𝑎𝑟(𝑎𝑡|𝐻𝑡−1) = 𝐸(𝑎𝑡2|𝐻𝑡−1) = 𝜎𝑡
2 (45)
Onde Ht é um processo que designa o histórico disponível até o instante de tempo t.
Percebe-se, dessa forma, que a heterocedasticidade condicional significa autocorrelação
no processo dos erros elevado ao quadrado, at2.
O teste de Arch segue a mesma lógica do teste de autocorrelação dos resíduos por meio
de regressão. A única diferença é que, ao invés de ajustar uma regressão sobre a série
dos resíduos em si, a série considerada é a dos resíduos elevados ao quadrado, ou seja:
𝑎𝑡2 = 𝛽1 + 𝛽2𝑎𝑡−1
2 +. . . +𝛽n𝑎𝑡−𝑛+12 + 𝑢𝑡 (46)
Onde ut é um ruído branco. As hipóteses do teste são:
H0: 1 = 0 e 2 = 0 e... e n = 0, ou seja, a regressão não é significativa, logo não
há autocorrelação na série dos resíduos ao quadrado, ou seja, não existe evidência de
heterocedasticidade na série dos resíduos.
Ha: 1 0 ou 2 0 ou... ou n 0, ou seja, a regressão é significativa, logo há
autocorrelação na série dos resíduos ao quadrado, ou seja, existe evidência de
heterocedasticidade na série dos resíduos.
29
Ao longo dos anos, muitas variações foram propostas ao tradicional modelo ARCH.
Uma das mais conhecidas é o modelo de heterocedasticidade condicional autoregressiva
generalizada (GARCH), que foi desenvolvido por Engle e Bollerslev (1986).
Analogamente ao teste de Ljung-Box para a autocorrelação dos resíduos, o teste
GARCH utiliza um modelo ARMA para descrever o processo de geração da variância
condicional, sendo descrito como:
𝜎𝑡
2 = 𝛽0 + ∑ 𝛽𝑖𝑎𝑡−𝑖2
𝑝
𝑖=1+ ∑ 𝛽𝑖𝜎𝑡−𝑖
2𝑞
𝑖=1
(47)
A variância condicional dos resíduos no instante de tempo t dependem, dessa maneira,
tanto dos erros passados elevados ao quadrado, tanto da própria variância condicional
em períodos anteriores. O teste GARCH segue a mesma lógica do teste ARCH, testando
a hipótese nula de não significância do modelo ARMA, que traduz a
homocedasticidade, contra a hipótese alternativa de significância do modelo, traduzindo
a ausência de homocedasticidade na série dos resíduos.
3.6. Normalidade
Embora a normalidade não seja um requisito para a maioria dos modelos de previsão,
ela consiste em uma hipótese adicional para os modelos de regressão através do método
dos mínimos quadrados ordinários. Quando os erros de uma regressão linear seguem a
distribuição gaussiana, o estimador de MQO também é considerado um estimador de
máxima verossimilhança.
Além disso, o conhecimento da distribuição que os resíduos de uma regressão seguem é
de suma importância para a realização de testes de hipóteses sobre os estimadores dos
parâmetros da regressão. Caso os resíduos sejam normais, a distribuição de
probabilidade dos estimadores de MQO também é normal, uma vez que qualquer
função linear de variáveis com distribuição normal também é normalmente distribuída
(GUJARATI, 2008).
30
Outra vantagem de os resíduos serem normais é quando se trabalha com amostras
pequenas. Neste caso, esta hipótese permite utilizar testes estatísticos tais como t de
Student, Fisher e Qui-Quadrado (GUJARATI, 2008).
Há diversos métodos para analisar a normalidade da série de resíduos. O mais simples é
a análise do histograma da variável, de maneira a comparar com o histograma de uma
variável normal. Outra alternativa gráfica são os gráficos de probabilidade normal, ou
gráficos Q-Q, nos quais se plota os valores observados dos resíduos no eixo das
abscissas e os valores esperados, no eixo vertical, caso os resíduos seguissem uma
distribuição normal. Quanto mais próximos de uma linha reta estiverem os pontos do
gráfico, mais evidência existe de que a série dos erros é normalmente distribuída.
Além das análises gráficas, há diversos testes estatísticos amplamente utilizados para
checar a normalidade. Um dos mais conhecidos é o teste de Jarque-Bera, cuja estatística
leva em conta a assimetria (S) e a curtose (K), e é calculada através da equação (48):
𝐽𝐵 = 𝑛 [
𝑆2
6+
(𝐾 − 3)2
24]
(48)
Onde:
𝑆 =
𝐸(𝑋 − 𝜇)3
𝜎3
(49)
𝐾 =
𝐸(𝑋 − 𝜇)4
[𝐸(𝑋 − 𝜇)2]2
(50)
As hipóteses nulas e alternativa do teste de Jarque-Bera são:
H0: S = 0 e K = 3, ou seja, JB = 0, significando que a distribuição seguida pelos
resíduos é normal.
Ha: S 0 ou K 3, ou seja, JB 0, significando que os resíduos não seguem
uma distribuição normal.
31
Para grandes tamanhos amostrais, a estatística JB segue a distribuição Qui-Quadrado
com 2 graus de liberdade (GUJARATI, 2008).
3.7. Modelos Utilizando Dados Históricos da Série Dependente
Nas últimas décadas, os modelos de previsão que utilizam apenas dados históricos de
uma série temporal para prever seus valores futuros se tornaram cada vez mais
populares, tomando, em parte, espaço antes ocupado por modelos tradicionais de
regressão. A principal vantagem desses métodos é a simplicidade, pelo fato de não
necessitar de outras séries se não a própria série a ser prevista. As previsões realizadas
por esses modelos fornecem, em geral, valores muito próximos aos reais,
principalmente quando se analisa o curto e médio prazos.
Processo Autoregressivo (AR)
Os processos autoregressivos (AR) são processos estacionários que verificam a seguinte
relação (GUJARATI, 2008):
𝑋𝑡 + ∑ 𝜙𝑖𝑋𝑡−𝑖
𝑝
𝑖=1= 𝑎𝑡, ∀ 𝑡 ∈ Ζ, 𝜙𝑖 ∈ ℝ
(51)
Onde p é chamado de ordem do processo AR, e at é um ruído branco de variância 2.
Seja L o operador de defasagem, linear e invertível, tal que:
𝐿𝑛𝑋𝑡 = 𝑋𝑡−𝑛 (52)
E:
(∑ 𝑎𝑖𝐿
𝑖𝑝
𝑖=1)𝑋𝑡 = ∑ 𝑎𝑖𝑋𝑡−𝑖
𝑝
𝑖=1
(53)
O processo AR pode ser, então, reescrito como:
Φ(𝐿)𝑋𝑡 = 𝑎𝑡 (54)
Onde:
32
Φ(𝐿) = 1 + 𝜙1𝐿+. . . +𝜙p𝐿𝑝 (55)
A função de autocorrelação de um processo AR é a solução da seguinte relação:
1 + ∑ 𝜙𝑗𝜆
−𝑗 = 0𝑝
𝑗=1
(56)
A solução da equação acima permite concluir que a função de autocorrelação tende
exponencialmente a 0, à medida que o número de lags cresce (ver GOUDE (2015)).
Já a função de autocorrelação parcial dos processos AR é zero para lags maiores ou
iguais a p + 1, visto que a projeção de Xt sobre M(Xt-1, ..., Xt-h) é:
∑ 𝜙𝑗𝑋𝑡−𝑗
𝑝
𝑗=1
(57)
E o coeficiente de Xt-h é zero (GOUDE, 2015). Tais informações acerca das funções de
autocorrelação e autocorrelação parcial dos processos autoregressivos são muito úteis
para a adequação ou não de um modelo AR a um processo observado, e a determinação
do parâmetro p.
Processo Média Móvel (MA)
Os processos média móvel (MA) é representado através da equação (GUJARATI,
2008):
𝑌𝑡 = 𝜇 + ∑ 𝛽𝑖𝑎𝑡−𝑖
𝑞
𝑖=1
(58)
Onde é uma constante, at é um ruído branco, e q é denominado ordem do processo
MA. Neste modelo, o processo Yt depende é explicado através de uma média móvel dos
termos de erro do instante t e de momentos passados.
Mais uma vez, com o auxílio do operador de defasagem L, pode-se reescrever o
processo na forma:
𝑋𝑡 = (1 + 𝜃1𝐿+. . . +𝜃𝑞𝐿𝑞)𝑎𝑡 = Θ(𝐿)𝑎𝑡 (59)
33
A partir dessa equação, pode-se demonstrar que a função de autocorrelação de um
processo MA(q) é dada por (ver GOUDE (2015)):
{𝜌(ℎ) =
𝜃ℎ + 𝜃ℎ+1𝜃1+. . . +𝜃𝑞𝜃𝑞−ℎ
1 + 𝜃12+. . . +𝜃𝑞
2
0, 𝑐𝑎𝑠𝑜 𝑐𝑜𝑛𝑡𝑟á𝑟𝑖𝑜
, 𝑠𝑒 1 ≤ ℎ ≤ 𝑞
(60)
Em um processo MA(q), q é necessariamente não nulo. Consequentemente, de acordo
com a equação acima, (q) 0. Além disso, para lags a partir de q + 1, a função de
autocorrelação tem valores zero. Tais informações são, novamente, importantes na
análise do gráfico ACF para adequação de um modelo MA.
Processo Autoregressivo de Médias Móveis (ARMA)
Os processos autoregressivos de médias móveis (ARMA) são uma generalização dos
modelos AR e MA. Um processo estacionário pode ser representado através de um
modelo ARMA(p, q) caso satisfaça:
𝑋𝑡 + ∑ 𝜙𝑖𝑋𝑡−1 = 𝑎𝑡 + ∑ 𝜃𝑗𝑎𝑡−𝑗
𝑞
𝑗=1
𝑝
𝑖=1, ∀ 𝑡 ∈ 𝑍
(61)
Usando o operador de defasagem, reescreve-se a equação (61) como:
Φ(𝐿)𝑋𝑡 = Θ(𝐿)𝑎𝑡, ∀ 𝑡 ∈ 𝑍 (62)
A função de autocovariância de um processo ARMA(p, q) verifica a seguinte equação
(ver GOUDE (2015)):
𝛾(ℎ) + ∑ 𝜙𝑗𝛾(ℎ − 𝑗)
𝑝
𝑗=1= 𝐶𝑜𝑣(𝑋𝑡−ℎ, 𝑎𝑡 + 𝜃1𝑎𝑡−1+. . . +𝜃𝑞𝑎𝑡−𝑞) = 0
(63)
Para lags maiores ou iguais a q + 1, a função de autocovariância, logo também a função
de autocorrelação, tende exponencialmente a zero. É possível verificar, além disso, que
a autocorrelação parcial tende exponencialmente a zero para lags maiores ou iguais ao
máximo entre q + 1 e p.
34
Processo Autoregressivo Integrado de Médias Móveis (ARIMA)
Os três modelos discutidos até aqui (AR, MA e ARMA) têm a hipótese de que o
processo é estacionário. Nesse sentido, o modelo ARIMA(p, d, q) é uma generalização
do modelo ARMA(p, q), em que a série é previamente diferenciada d vezes, a fim de
torná-la estacionária.
Seja o operador de diferenciação previamente definido. Utilizando também o
operador de defasagem L, é fácil verificar que:
∆𝑑𝑋𝑡 = (1 − 𝐿)𝑑𝑋𝑡 (64)
Dessa forma, define-se o modelo ARIMA(p, d, q) da seguinte maneira (GOUDE, 2015):
Φ(𝐿)(1 − 𝐿)𝑑𝑋𝑡 = Θ(𝐿)𝑎𝑡, ∀ 𝑡 ∈ 𝑍 (65)
Onde (1 - L)dXt representa a série diferenciada estacionária.
Processo Autoregressivo Integrado de Médias Móveis Sazonal (SARIMA)
Os modelos SARIMA é uma variação dos modelos ARIMA, em que a sazonalidade
estocástica do processo é levada em consideração. Caso se ajuste um modelo ARIMA
para uma série temporal com sazonalidade mensal, por exemplo, nota-se, nos gráficos
de autocorrelação e autocorrelação parcial, que os valores dessas funções demoram
muito tempo para decair em direção de zero. Além disso, verifica-se picos nos lags
múltiplos da sazonalidade, neste caso, 12, 24, etc. Como resultado disso, as previsões do
modelo ARIMA não ficam satisfatórias.
Box e Jenkins (1976) propuseram, endereçando essa questão, modelos multiplicativos
SARIMA (p,d,q)(P,D,Q)[s], definidos através da equação (66):
(1 − 𝐿)𝑑Φ𝑝(𝐿)(1 − 𝐿𝑠)𝐷Φ𝑃(𝐿𝑠)𝑋𝑡 = Θ𝑞(𝐿)Θ𝑄(𝐿𝑠)𝑎𝑡, ∀ 𝑡 ∈ 𝑍 (66)
Onde:
p = ordem do processo AR
d = ordem da diferenciação de lag 1
35
q = ordem do processo MA
P = ordem do processo SAR (autoregressivo sazonal)
D = ordem da diferenciação sazonal
Q = ordem do processo MAR (médias móveis sazonal)
s = periodicidade da série
Estimação dos Parâmetros dos Modelos e Comparação
Após ter sido feita a escolha do tipo de modelo e das respectivas ordens, o passo
seguinte é realizar a estimação dos coeficientes do modelo. Diferentemente das
regressões convencionais, não é possível estimar os parâmetros dos modelos MA,
ARIMA e SARIMA através do método de MQO, pois os erros passados não podem ser
especificados como variável independente neste método, uma vez que eles não são
conhecidos até que o modelo seja ajustado. Faz-se necessário o uso de métodos de
estimação não lineares.
Uma das possíveis formas de estimação dos parâmetros é através do método de
mínimos quadrados condicionais (MQC). O método, por exemplo, para o caso de
modelos AR, consiste em obter a soma condicional dos quadrados minimizando a
função (ver GOUDE (2015)):
�̂�𝑐𝑠𝑠 = 𝑎𝑟𝑔𝑚𝑖𝑛𝜙 ∑ (𝑋𝑡 − ∑ 𝜙𝑗𝑋𝑡−𝑗
𝑝
𝑗=1)
2𝑛
𝑡=𝑝+1
(67)
Onde css significa conditional sum of squares. Em seguida:
�̂�𝑐𝑠𝑠
2 =1
𝑛 − 𝑝∑ (𝑋𝑡 − ∑ �̂�𝑐𝑠𝑠𝑋𝑡−𝑗
𝑝
𝑗=1)
2𝑛
𝑡=𝑝+1
(68)
As equações podem ser generalizadas para modelos ARMA. Outra alternativa é
estimação através do estimador de máxima verossimilhança. A função de
verossimilhança de uma variável aleatória Xt é definida como (GUJARATI, 2008):
𝐿(𝜃; 𝑥1, 𝑥2, . . . , 𝑥𝑛) = 𝑓(𝑥1; 𝜃)𝑓(𝑥2; 𝜃). . . 𝑓(𝑥𝑛; 𝜃) (69)
36
Onde f(X, ) representa a função de distribuição de probabilidade de uma variável
aleatória X, com parâmetro . Em geral, utiliza-se a função log de verossimilhança
(log(L)), por conveniência matemática. Simplificadamente, o método consiste em
diferenciar a função log(L) em relação à incógnita, de modo a encontrar o ponto de
maximização da função. Assegura-se que se trata de um ponto máximo ao diferenciar
mais uma vez a função (GUJARATI, 2008).
Em relação a um processo ARMA(p, q), a função de verossimilhança pode ser escrita
sob a forma (ver SHUMWAY & STOFFER (2011)):
𝐿(𝛽, 𝜎𝑤
2) = (2𝜋𝜎𝑤2)−𝑛/2[𝑟1(𝛽)𝑟2(𝛽). . . 𝑟𝑛(𝛽)]−1/2𝑒𝑥𝑝 [
−𝑆(𝛽)
2𝜎𝑤2
] (70)
Onde:
𝑆(𝛽) = ∑ [
(𝑥𝑡 − 𝑥𝑡𝑡−1(𝛽))2
𝑟𝑡(𝛽)]
𝑛
𝑡=1
(71)
Logo, a estimação por meio do estimador de máxima verossimilhança, para um modelo
ARMA(p, q), consiste em maximizar esta função em relação a e 𝜎𝑤2 .
Em condições apropriadas, para modelos ARMA causais e invertíveis, em condições
assintóticas (com n infinitamente grande), ambos os métodos, MQC e máxima
verossimilhança, fornecem estimadores ótimos e são equivalentes entre si.
Após ter estimado os coeficientes de um determinado modelo ARMA(p, q), por
exemplo, com p e q previamente escolhidos, pode-se escolher outros valores plausíveis
para p e q, calcular seus coeficientes da mesma forma e comparar os dois modelos a fim
de verificar qual deles fornece o melhor resultado. Essa comparação, geralmente, é feita
a partir de dois indicadores (GOUDE, 2015):
Critério de Informação de Akaike (AIC):
𝐴𝐼𝐶(𝜙, 𝜃, 𝜎2) = −2𝑙𝑜𝑔(𝐿(𝜙, 𝜃, 𝜎2)) + 2𝑘 (72)
37
Critério de Informação Bayesiano (BIC):
𝐵𝐼𝐶(𝜙, 𝜃, 𝜎2) = −2𝑙𝑜𝑔(𝐿(𝜙, 𝜃, 𝜎2)) + 𝑛𝑘 (73)
Onde L é a função de verossimilhança, e k é o número de parâmetros no modelo, ou
seja, p + q + 1, caso a constante esteja incluída, ou p + q, caso contrário. Na prática, o
melhor modelo é aquele que possui o menor valor para os dois critérios.
Amortecimento Exponencial Simples
Muitos modelos de amortecimento exponencial surgiram ao longo das últimas décadas.
A lógica por trás deles consiste em prever valores futuros de uma série temporal com
base em uma extensão de valores passados, dando importância decrescente a eles à
medida que mais longe são do tempo presente.
Seja uma série temporal estacionária Yt. Uma possibilidade bem simples de estimar seus
valores futuros seria fazer uma média simples de seus valores passados, ou seja:
�̂�𝑡+ℎ|𝑡 =
1
𝑡∑ 𝑌𝑖
𝑡
𝑖=1
(74)
Onde h é o número de passos futuros a serem previstos, e t é o número de observações
passadas a serem consideradas para o cálculo da média. Dessa forma, são dadas
importâncias equivalentes aos valores passados da série, independentemente do índice
de tempo em que foram observadas.
O modelo de amortecimento exponencial simples propõe a adoção de pesos para cada
observação, que decaem exponencialmente à medida que se avança sobre o passado. A
equação (74), uma média simples, se torna, para previsões com horizonte unitário:
�̂�𝑡+1|𝑡 = 𝛼𝑌𝑡 + 𝛼(1 − 𝛼)𝑌𝑡−1 + 𝛼(1 − 𝛼)2𝑌𝑡−2+. .. (75)
Onde 0 1 é denominado parâmetro do amortecimento. A equação de previsão de
Y, em um passo t + h qualquer, é dada por: (HYNDMAN, 2014).
�̂�𝑡+ℎ|𝑡 = 𝑙𝑡 = ∑ 𝛼(1 − 𝛼)𝑗𝑌𝑡−𝑗 + (1 − 𝛼)𝑡𝑙0
𝑡−1
𝑗=0
(76)
38
As previsões para diferentes passos são constantes. Os valores de e l0 são definidos
através da minimização do erro quadrático médio (MSE):
𝑀𝑆𝐸 =
1
𝑡∑ (𝑌𝑖 − �̂�𝑖|𝑖−1)
2 =1
t∑ 𝑎𝑖
2𝑡
𝑖=1
𝑡
𝑖=1
(77)
A minimização do MSE é similar ao que se faz em modelos convencionais de regressão,
exceto pelo fato de não existir uma fórmula exata de solução, devendo-se recorrer a
métodos de otimização numérica para encontrar os valores dos parâmetros
(HYNDMAN, 2014). O mesmo método é utilizado para a determinação dos sucessivos
modelos de amortecimento exponencial apresentados a seguir.
Amortecimento Exponencial Duplo (Holt)
Holt (1957) estendeu os modelos de amortecimento exponencial tradicionais, que
pressupõem a estacionariedade da série temporal, de forma a permitir que exista
tendência na série. Modela-se a série com uma tendência linear, tornando a equação de
previsão:
�̂�𝑡+ℎ|𝑡 = 𝑙𝑡 + ℎ𝑏𝑡 (78)
Onde:
𝑙𝑡 = 𝛼𝑌𝑡 + (1 − 𝛼)(𝑙𝑡−1 + 𝑏𝑡−1) (79)
𝑏𝑡 = 𝛽(𝑙𝑡 − 𝑙𝑡−1) + (1 − 𝛽)𝑏𝑡−1 (80)
Onde 0 1 é o parâmetro de amortecimento, 0 1 é o parâmetro de
amortecimento da tendência, lt é denominado nível da série no tempo t, e bt é a
tendência no tempo t.
Diferentemente do amortecimento exponencial simples, em que as previsões são
constantes para diferentes passos, as previsões deste modelo são uma função linear, com
inclinação positiva ou negativa, dependendo da tendência apresentada pela série.
39
Amortecimento Exponencial Duplo com Efeito Sazonal (Holt Winters)
Muitas séries temporais apresentam, além de tendência, um comportamento sazonal ao
longo do tempo. A fim de contemplar a sazonalidade, Holt e Winters desenvolveram um
novo modelo de amortecimento exponencial, que existe em duas formas: aditiva e
multiplicativa. O modelo aditivo tem como equação de previsão (HYNDMAN, 2014):
�̂�𝑡+ℎ|𝑡 = 𝑙𝑡 + ℎ𝑏𝑡 + 𝑠𝑡−𝑚+ℎ (81)
Onde:
𝑙𝑡 = 𝛼(𝑌𝑡 − 𝑠𝑡−𝑚) + (1 − 𝛼)(𝑙𝑡−1 + 𝑏𝑡−1) (82)
𝑏𝑡 = 𝛽(𝑙𝑡 − 𝑙𝑡−1) + (1 − 𝛽)𝑏𝑡−1 (83)
𝑠𝑡 = 𝛾(𝑌𝑡 − 𝑙𝑡−1 − 𝑏𝑡−1) + (1 − 𝛾)𝑠𝑡−𝑚 (84)
Onde m denota o período da sazonalidade, h é o número de passos de previsão, , e
são parâmetros de amortecimento, lt designa o nível da série no instante t, bt indica a
tendência em t, e st a sazonalidade no tempo t.
Já o modelo multiplicativo apresenta a seguinte equação de previsão:
�̂�𝑡+ℎ|𝑡 = (𝑙𝑡 + ℎ𝑏t)𝑠𝑡−𝑚+ℎ (85)
Onde:
𝑙𝑡 = 𝛼
𝑌𝑡
𝑠𝑡−𝑚+ (1 − 𝛼)(𝑙𝑡−1 + 𝑏𝑡−1)
(86)
𝑏𝑡 = 𝛽(𝑙𝑡 − 𝑙𝑡−1) + (1 − 𝛽)𝑏𝑡−1 (87)
𝑠𝑡 = 𝛾
𝑌𝑡
(𝑙𝑡−1 + 𝑏𝑡−1)+ (1 − 𝛾)𝑠𝑡−𝑚
(88)
40
O modelo aditivo é recomendável quando as variações sazonais são aproximadamente
constantes ao longo do tempo, enquanto o modelo multiplicativo é ideal quando tais
variações mudam proporcionalmente em relação ao nível da série (HYNDMAN, 2014).
Modelos de Decomposição de Séries Temporais
Conforme já visto, uma série temporal pode ser decomposta em quatro componentes:
tendência (Tt), sazonalidade (St), componente aleatório (at) e componente cíclico (Ct).
Para simplificar, supõe-se que existam apenas os três primeiros componentes, de forma
que o efeito cíclico seja explicado dentro do componente sazonal. Assim, uma série Yt
pode ser escrita na forma aditiva:
𝑌𝑡 = 𝑇𝑡 + 𝑆𝑡 + 𝑎𝑡 (89)
A lógica dos métodos de decomposição reside em realizar estimativas de Tt e St, de tal
maneira que possamos subtrai-los da equação acima, e obter uma estimativa para o
componente aleatório at. É importante ressaltar que não é recomendável isolar um
componente sem isolar o outro, pois a especificação da sazonalidade depende da
tendência, logo métodos de estimação de St podem ser afetados caso não estimemos,
simultaneamente, Tt (MORETTIN & TOLOI, 2004).
A forma mais simples de se estimar a tendência de uma série temporal é modelando-a
através de funções polinomiais (FRANCO, 2016). Ou seja, escreve-se a tendência
através da equação:
𝑇𝑡 = 𝛽0 + 𝛽1𝑡 + 𝛽2𝑡2+. . . +𝛽𝑘𝑡
𝑘 (90)
Em relação à sazonalidade, a forma mais prática para estimá-la é utilizando variáveis
dummies, variáveis binárias que indicam a presença ou ausência de determinado efeito
sazonal na série.
O número de variáveis dummies utilizado é igual ao período da série subtraído de 1,
pois, caso todas as variáveis zerem, o efeito causado assemelha-se ao efeito de uma
variável dummy em si.
41
Na prática, após definir as formas de estimação da tendência e da sazonalidade, inclui-
se tais estimativas em um modelo, como um modelo de regressão. Pode-se, por
exemplo, tentar prever futuros valores de Yt através de um processo autoregressivo,
adicionando a tendência na forma polinomial e a sazonalidade com variáveis dummy.
Um modelo autoregressivo puro requer que a série seja estacionária, ou seja, não
apresente tendência nem sazonalidade. Porém, conjugando esses três fatores, é possível
chegar a um modelo satisfatório.
Seja m o período da sazonalidade de uma série temporal Yt. Uma possível equação de
previsão de Yt é:
𝑌𝑡 = 𝑇𝑡 + 𝑆𝑡 + ∑ 𝜙𝑖𝑌𝑡−𝑖
𝑝
𝑖=1+ 𝑎𝑡
(91)
Substituindo Tt e St:
𝑌𝑡 = 𝛽0 + 𝛽1𝑡 + 𝛽2𝑡
2+. . . +𝛽𝑘𝑡𝑘 + 𝛿1𝐷1+. . . +𝛿𝑚−1𝐷𝑚−1 + ∑ 𝜙𝑖𝑌𝑡−𝑖
𝑝
𝑖=1+ 𝑎𝑡
(92)
Onde D1, ..., Dm-1 são as variáveis dummy, que valem 0 ou 1, e são fornecidas como
input para o modelo. Os coeficientes da equação podem ser estimados através do
método de MQO.
Uma outra forma de se modelar a sazonalidade de uma série é por meio de séries de
Fourier. Sob essa perspectiva, define-se a sazonalidade Zt como (ver GOUDE (2015)):
𝑆𝑡 = ∑ {𝛼𝑗𝑐𝑜𝑠(𝑤𝑗𝑡) + 𝛽𝑗𝑠𝑒𝑛(𝑤𝑗𝑡)}
𝑛
𝑗=0
(93)
Onde a frequência wj é definida como:
𝑤𝑗 =
2𝜋𝑗
𝑚, 𝑗 = 0, . . . , 𝑛 =
𝑚
2
(94)
Onde m é o período de sazonalidade da série, e n é um valor arbitrário que não pode
exceder m/2. Essa modelagem, portanto, define 2n funções trigonométricas para
explicar a sazonalidade de uma série temporal. Da mesma forma que foi feito com as
42
variáveis dummies, pode-se substituir essa aproximação na equação de regressão de Yt,
de forma a achar, pelos MQO, os parâmetros da regressão.
3.8. Modelos Incrementando Variáveis Exógenas
Embora os modelos apresentados na seção anterior sejam extremamente úteis para a
previsão de séries temporais, muitas vezes os valores observados da própria série e os
valores calculados de erros, por si só, não são suficientes para explicar variações na
variável dependente, principalmente em um horizonte longo.
A inclusão de variáveis exógenas ao modelo frequentemente ajuda a explicar variações
que não conseguem ser captadas pelo histórico da série. Por exemplo, caso o Brasil
entre em uma grande crise econômica, o consumo de energia elétrica industrial tende a
cair bruscamente. Caso o modelo utilize apenas o histórico do consumo e os erros de
previsão, a queda brusca demora a ser refletida nos valores previstos, gerando previsões
imprecisas. Se o modelo contemplar uma variável de atividade econômica ou industrial,
no entanto, a queda tende a ser captada muito mais rapidamente.
ARMAX
Os modelos autoregressivos de médias móveis com variáveis exógenas (ARMAX) são
uma generalização dos tradicionais modelos ARMA, nos quais são inclusas variáveis
externas para ajudar a explicar a variável dependente. Seja um processo ARMA(p, q):
𝑌𝑡 = 𝜙1𝑌𝑡−1+. . . +𝜙𝑝𝑌𝑡−𝑝 − 𝜃1𝑎𝑡−1−. . . −𝜃𝑞𝑎𝑡−𝑞 + 𝑎𝑡 (95)
Onde at é ruído branco. O modelo ARMAX(p,q,X1,...,Xk) simplesmente adiciona
variáveis (X1, ..., Xk) ao modelo, transformando a equação precedente em:
𝑌𝑡 = 𝛽1𝑋1,𝑡+. . . +𝛽𝑘𝑋𝑘,𝑡 + 𝜙1𝑌𝑡−1+. . . +𝜙𝑝𝑌𝑡−𝑝 − 𝜃1𝑎𝑡−1−. . . −𝜃𝑞𝑎𝑡−𝑞 + 𝑎t (96)
Com o auxílio do operador de defasagem L, reescreve-se a equação (96) na seguinte
forma:
Φ(𝐿)𝑌𝑡 = 𝛽𝑋𝑡 +/Θ(𝐿)𝑎𝑡 (97)
43
Logo:
𝑌𝑡 =
𝛽
Φ(𝐿)𝑋𝑡 +
Θ(𝐿)
Φ(𝐿)𝑎𝑡
(98)
Nota-se que os coeficientes do AR se misturam tanto com o termo do erro quanto com
as variáveis exógenas. O coeficiente angular, nessa equação, não possui significado
prático (HYNDMAN, 2014).
Essa generalização dos modelos ARMA é analogamente extensível aos modelos
ARIMA e SARIMA, dando origem aos modelos ARIMAX e SARIMAX. Da mesma
forma que para os modelos sem variáveis exógenas, métodos não lineares como MQC e
estimador de máxima verossimilhança devem ser utilizados para estimação dos
parâmetros, devido à presença de erros passados como variáveis explicativas.
Regressão Linear com Erros ARMA
Devido à falta de interpretabilidade do coeficiente angular na equação de previsão dos
modelos ARMAX, muitos autores, como Hyndman (2014), preferem um outro tipo de
modelo, denominado regressão linear com erros ARMA. Eles são definidos como:
𝑌𝑡 = 𝛽𝑋𝑡 + 𝑛𝑡 (99)
𝑛𝑡 = 𝜙1𝑛𝑡−1+. . . +𝜙𝑝𝑌𝑝−1 − 𝜃1𝑎𝑡−1−. . . −𝜃𝑞𝑎𝑡−𝑞 + 𝑎𝑡 (100)
Há dois termos de erro: nt é o erro do modelo de regressão de Yt, que é permitido ter
autocorrelação, e at é o erro do ARMA(p, q) ajustado a nt. O processo at é um ruído
branco, não apresentando autocorrelação, portanto.
Utilizando, novamente, o operador de defasagem L, obtém-se:
𝑌𝑡 = 𝛽𝑋𝑡 +
Θ(𝐿)
Φ(𝐿)𝑎𝑡
(101)
44
Dessa forma, o coeficiente angular toma sua forma e interpretação usuais. A
minimização da soma dos quadrados de nt, que é o procedimento em uma regressão
convencional, não é o ideal para este caso, devido à autocorrelação existente nos
resíduos. Tal procedimento levaria a regressões espúrias e testes de hipótese imprecisos.
Os coeficientes são calculados, então, através da minimização da soma dos quadrados
de at (HYNDMAN, 2014).
Analogamente, pode-se ajustar modelos ARIMA ou SARIMA às regressões, seguindo a
mesma lógica descrita. Uma maneira de verificar qual modelo ARMA, ARIMA ou
SARIMA melhor se encaixa aos resíduos da regressão e seus parâmetros (p, q, etc), é
ajustando uma regressão sobre Yt em função das variáveis exógenas e analisando os
resíduos com os gráficos de ACF e PACF, conforme explicado anteriormente.
Modelos de Regressão Dinâmica
Os dois modelos recém-descritos podem ser considerados casos particulares do que se
chama de modelos de funções de transferência, descritos através da equação
(HYNDMAN, 2014):
𝑌𝑡 =
𝛽(𝐿)
𝑣(𝐿)𝑋𝑡 +
Θ(𝐿)
Φ(𝐿)𝑎𝑡
(102)
Nessa forma mais geral, as variáveis exógenas Xt podem estar presentes de forma
defasada, obtidas através do operador de defasagem L. Em outras palavras, observações
passadas das variáveis exógenas podem contribuir para explicar o valor tomado pela
variável Y no tempo t.
O operador v(L), por sua vez, atua no sentido de conferir efeitos decrescentes das
variáveis exógenas sobre Yt, à medida que se avança sobre o passado. Tais modelos
também são chamados de modelos de regressão dinâmica (HYNDMAN, 2014).
Um caso particular de modelo de regressão dinâmica, denominado modelo
autoregressivo de defasagens distribuídas (ARDL), acontece quando se tem a seguinte
equação de previsão:
45
𝑌𝑡 = ∑ 𝜙𝑖𝑌𝑡−𝑖
𝑝
𝑖=1+ ∑ (∑ 𝛽𝑖𝑋𝑖,𝑡−𝑗
𝑚
𝑗=0)
𝑘
𝑖=1+ 𝑎𝑡
(103)
Onde at é ruído branco, k é o número de variáveis exógenas, e m é o número máximo de
defasagens permitidas para cada variável exógena. Como não existem termos MA,
pode-se estimar os coeficientes do modelo usando o método MQO.
Decomposição com Variáveis Exógenas
A decomposição de séries temporais em componentes de tendência, sazonalidade e
aleatoriedade pode ser complementada pela adição de variáveis exógenas. Ou seja, ao
invés de explicar um processo Yt apenas através de seus três componentes, aplica-se a
seguinte relação:
𝑌𝑡 = 𝑇𝑡 + 𝑆𝑡 + 𝛽1𝑋1+. . . +𝛽𝑘𝑋𝑘 + 𝑎𝑡 (104)
Pode-se utilizar os mesmos métodos para explicar a tendência e a sazonalidade, como
polinômios, variáveis dummies e séries de Fourier. As variáveis exógenas podem ser
incluídas, também, em formas defasadas. O método MQO pode ser utilizado para
estimação dos coeficientes da regressão.
3.9. Modelos de Machine Learning
A área de conhecimento relacionada ao machine learning (aprendizado de máquinas)
tem se tornado cada vez mais popular, nos últimos anos, no contexto de previsões de
séries temporais. Machine learning é um ramo da ciência da computação que dá às
máquinas a capacidade de aprendizado sem ter sido diretamente programada para isso.
A aplicação do machine learning à previsão tem gerado resultados melhores que os
obtidos através de modelos estatísticos tradicionais. Seu uso aumenta
consideravelmente a capacidade de exploração de relações não lineares entre dados de
entrada e de saída, de difícil compreensão para o ser humano. Outra vantagem dos
modelos que utilizam machine learning é a virtual inexistência de pressupostos sobre as
séries de dados e suas distribuições.
46
Os modelos baseados em machine learning podem ser classificados em supervisionados
e não supervisionados. No primeiro tipo, são fornecidos valores para as variáveis
explicativas e para a variável dependente, treinando o modelo de forma similar aos
utilizados nos modelos previamente citados, ou seja, comparando os valores previstos
com os reais, e usando os erros para chegar às melhores estimativas dos parâmetros. No
caso não supervisionado, apenas os valores das variáveis explicativas são fornecidos,
cabendo inteiramente à máquina descobrir relações entre os dados e propor previsões. A
maioria dos métodos são supervisionados.
Rede Neural
Redes neurais constituem um dos modelos de machine learning mais populares no
mundo. Sua estrutura é baseada no funcionamento do cérebro humano, sendo composta
por camadas de neurônios que se conectam entre si através de sinapses, as quais
transmitem sinais. Cada neurônio, ao receber um sinal, processa-o e então o transmite
adiante. Uma rede neural com apenas uma camada de neurônios oculta pode ser
ilustrada da seguinte forma:
Figura 7: Estrutura básica de uma rede neural
Fonte: https://www.otexts.org/fpp/9/3
Os neurônios da camada de input são responsáveis por receber os dados de entrada,
enquanto os neurônios das camadas ocultas transmitem-nos adiante, e os neurônios de
output sintetizam e fornecem o resultado final do sistema.
47
O output de um neurônio de índice i é denominado xi. Um neurônio j, localizado uma
camada à frente, recebe esse input juntamente com outros provenientes de neurônios da
mesma camada imediatamente antecedente. Por exemplo, um neurônio da camada
oculta da imagem acima, de índice j, recebe como input:
𝑧𝑗 = 𝑏𝑗 + ∑ 𝑤𝑖,𝑗𝑥𝑖
4
𝑖=1
(105)
Onde wi,j são pesos que existem para cada combinação de neurônios. Inicialmente,
assumem valores aleatórios, que são alterados com o aprendizado. A equação anterior
mostra que o valor recebido pelo neurônio j é uma combinação linear entre os outputs
x1, x2, x3 e x4, oriundos dos neurônios da camada anterior. Antes de o neurônio j ler a
combinação desses inputs, é aplicada uma função de transformação não linear, como um
sigmoide:
𝑠(𝑧) =
1
1 + 𝑒−𝑧
(106)
Essa função é aplicada com o intuito de reduzir o efeito indesejado de valores extremos,
diminuindo, dessa forma, a influência de outliers nos resultados do modelo
(HYNDMAN, 2014).
A rede neural ilustrada acima é um exemplo de rede neural feed-forward, em que
existem apenas sinapses em uma única direção, não existindo ligações recursivas entre
os neurônios. Existem muitas redes, no entanto, que apresentam propagação de sinais
também no sentido inverso, chamadas de backpropagation, ou retropropagação.
O método de aprendizado consiste, simplificadamente, em minimizar a função de custo
do modelo. Tal função pode ser, por exemplo, a média dos erros quadráticos de
previsão. O modelo é treinado diversas vezes, utilizando, em cada momento, diferentes
pontos de partida, os quais geram diferentes resultados. Ao final, são feitas médias
sobre os resultados obtidos, chegando a um único output para cada input (HYNDMAN,
2014).
48
Random Forest
Os métodos de previsão através de árvores de decisão também são muito utilizados para
previsão. Uma árvore de decisão consiste em um diagrama, em formato de árvore, que
parte de um conjunto de dados e ramifica-o em diversos subconjuntos, de acordo com
regras de decisão. A figura 8 ilustra um exemplo de uma árvore simples, referente ao
acidente do Titanic, onde sibsp representa o número de parentes que o passageiro tinha
a bordo.
Figura 8: Exemplo de árvore de decisão
Fonte: www.datasciencecentral.com/profiles/blogs/introduction-to-classification-regression-trees-
cart
Nesta árvore, a variável resposta é binária, indicando se o indivíduo sobreviveu ou não
ao acidente do navio. Árvores como essa são chamadas de árvores de classificação.
Existem, também, árvores de regressão, em cuja variável dependente é contínua. As
variáveis explicativas, em ambos os casos, podem ser categóricas ou contínuas. Assim
como nas redes neurais, as ramificações e os nós da árvore são calculados através de um
processo de aprendizado supervisionado que visa a minimizar uma dada função de
custo.
Previsões utilizando árvores de decisão apresentam muitas vantagens, como a fácil
interpretabilidade de seu output (diferentemente das redes neurais, que são de difícil
49
compreensão aos olhos humanos) e a facilidade de se trabalhar com grande volume de
dados, o que viabiliza seu uso em áreas relacionadas à big data. Entretanto, um de seus
maiores problemas é o overfitting. É muito comum que, ao longo do processo de
aprendizado, se construa árvores grandes e complexas, sem a devida necessidade.
Nesse sentido, Random Forests são modelos que foram desenvolvidos para aproveitar
as vantagens das árvores de decisão, mas combatendo o problema do overfitting. Neste
modelo, constrói-se um grande número de árvores de decisão, usando sets de
treinamento escolhidos de maneira aleatória com reposição. Dessa forma, para cada
conjunto de dados aleatoriamente escolhido, calcula-se previsões para o test set a partir
da árvore gerada. A previsão final é calculada por:
𝑓 =
1
𝐵∑ 𝑓𝑏(𝑥′)
𝐵
𝑏=1
(107)
Onde B é o número de árvores construídas.
Support Vector Regression (SVR)
Support vector machine (SVM), ou máquina de vetores de suporte, é mais um método
de aprendizado supervisionado usado para a previsão. A ideia básica por trás deste
método consiste na criação de hiperplanos que separam os dados em diferentes
categorias. Para ilustrar esse conceito, um dos casos mais simples, onde a variável
resposta é binária e existem apenas duas variáveis explicativas, pode ser ilustrado na
figura 9:
50
Figura 9: Exemplo de vetor de suporte
Fonte: https://www.r-bloggers.com/machine-learning-using-support-vector-machines/
No caso de uma série temporal, o eixo horizontal poderia representar o índice de tempo,
e o vertical uma variável explicativa. Os pontos azuis e os quadrados vermelhos
representam os dois valores possíveis para a variável dependente suposta.
O método de aprendizado traça um hiperplano (neste caso, uma reta) que separe as
observações em duas categorias. A reta é calculada de forma que sua distância seja a
máxima possível entre os extremos de cada categoria, de forma que se minimize a
possibilidade de novas observações, ao serem previstas, sejam associadas ao conjunto
errado. Neste caso, a reta deve ser equidistante, portanto, das duas linhas tracejadas.
Apesar de ser majoritariamente usado para modelos de classificação, como o exemplo
citado, o método SVM pode ser também aplicado para regressões, no que se chama de
support vector regression (SVR). Resumidamente, o processo de aprendizado do SVR
visa a minimizar 1
2‖𝑤2‖, onde �⃗⃗� é o vetor de regressão, sujeito às restrições
(DRUCKER, BURGES, KAUFMAN, SMOLA, & VAPNIK, 1996):
{𝑌𝑖− < 𝑤, 𝑋𝑖 > − 𝑏 ≤ 휀< 𝑤, 𝑋𝑖 > + 𝑏 − 𝑌𝑖 ≤ 휀
(108)
51
Onde Xi é o set de treinamento, Yi são os valores reais da variável dependente, b é uma
constante, é uma constante que atua como limite superior e o operador <> indica o
produto interno. O produto interno entre w e Xi, acrescido de b, significa a previsão do
valor de Yi a partir de Xi.
3.10. Medidas de Ajustamento
O uso de indicadores de ajustamento de modelos de previsão de séries temporais é
extremamente importante para mensurar a qualidade de cada modelo e, principalmente,
ser capaz de comparar diferentes modelos. Alguns dos indicadores mais utilizados para
este propósito são (SALLES, 2005):
Erro médio absoluto (MAE):
𝑀𝐴𝐸 =
∑ |𝑌𝑖 − 𝑌�̂�|𝑛𝑖=1
𝑛
(109)
Erro absoluto médio percentual (MAPE):
𝑀𝐴𝑃𝐸 =
1
𝑛∑ |
𝑌𝑖 − �̂�𝑖
𝑌𝑖|
𝑛
𝑖=1
(110)
Erro quadrado médio (RMSE):
𝑅𝑀𝑆𝐸 = √∑(𝑌𝑖 − �̂�𝑖)
2
𝑛
𝑛
𝑖=1
(111)
Soma dos quadrados dos erros de previsão (PRESS):
𝑃𝑅𝐸𝑆𝑆 = ∑ (𝑌𝑖 − �̂�𝑖−1)
2𝑛
𝑖=1
(112)
52
4. AMOSTRA: DADOS UTILIZADOS
4.1. Descrição dos Dados
Consumo de Energia Elétrica Industrial
O consumo de energia elétrica em GWh será a variável dependente dos nossos modelos
de previsão e corresponde ao volume de energia requisitado ao sistema gerador,
compreendendo as perdas de energia no sistema elétrico e o volume medido pelas
distribuidoras e/ou geradoras.
Na classe industrial enquadram-se as unidades consumidoras em que seja desenvolvida
atividade industrial, conforme definido na Classificação Nacional de Atividades
Econômicas – CNAE, assim como o transporte de matéria-prima, insumo ou produto
resultante do seu processamento, caracterizado como atividade de suporte e sem fim
econômico próprio, desde que realizado de forma integrada fisicamente à unidade
consumidora industrial.
As indústrias alimentícia, mineral, automobilística, têxtil, extrativa, metalúrgica, de
papel e celulose, borracha e plástico são responsáveis por 79,37% do consumo de
energia industrial, segundo dados da EPE. Além disso, a classe industrial é a que
consome mais energia elétrica no Brasil, aproximadamente 35,7% (EPE, 2017), sendo
de fundamental importância fazer uma previsão acurada para este setor, com o objetivo
de promover o crescimento econômico.
As séries históricas de consumo de energia industrial por região foram retiradas do
Sistema Gerenciador de Séries Temporais do Banco Central, tendo como fontes a
Eletrobrás e a Empresa de Pesquisa Energética (EPE). As séries estão definidas entre o
período de janeiro de 2003 e abril de 2017, e as previsões a serem realizadas
considerarão um horizonte de aproximadamente 2 anos.
Temperatura
Segundo Fidalgo et al. (2007) A temperatura é a mais importante das condições
climáticas que influenciam o consumo de energia elétrica, pois, geralmente, a demanda
53
aumenta nos dias quentes devido à necessidade de refrigerar e ventilar os ambientes e as
máquinas nas indústrias. Andrade e Sant'Anna (2013) mencionam que a relação entre o
consumo de energia e a temperatura apresenta um comportamento linear para regiões
caracterizadas pelo clima tropical. Cabe ressaltar, que em outros países, com invernos
mais rigorosos, há a necessidade de aquecimento dos ambientes, ficando caracterizada
uma relação em forma de U entre as variáveis (HIPPERT et al., 2001). Quantificar essa
relação é de suma importância a longo prazo para mensurar os impactos que o aumento
das temperaturas, ocasionadas pelas mudanças climáticas em escala global, podem
acarretar no consumo de energia das nossas indústrias.
A série histórica de temperaturas, em graus Celsius, foi gerada pelo Banco de Dados
Meteorológicos para Ensino e Pesquisa (BDMEP), com o objetivo de apoiar as
atividades de ensino e pesquisa e outras aplicações em recursos hídricos, meteorologia,
meio ambiente, saúde pública, etc. Os dados são disponibilizados em níveis diários e
mensais para cada estação, portanto foi necessária realizar uma agregação regional
delas, ou seja, a temperatura regional mensal utilizada neste trabalho é a média das
médias de todas as estações de uma determinada região do Brasil, compreendendo o
período entre Janeiro de 2003 e Abril de 2017, totalizando 172 observações.
Tarifa Média
Quantificar a relação entre a tarifa média industrial e o consumo de energia é essencial
para o governo brasileiro realizar suas políticas, uma vez que 29,5% do valor da tarifa,
segundo dados da ANEEL, são tributos (ICMS e PIS/COFINS), podendo ser
aumentados ou diminuídos com o objetivo de controlar o consumo de energia para
evitar apagões. Por exemplo, a crise hídrica que ocorreu entre 2013 e 2015 provocou o
acionamento massivo das termoelétricas, devido aos níveis críticos atingidos pelos
reservatórios de água. Como seu custo de geração é mais alto do que a média praticada
na matriz energética brasileira, composta por 68,1% de hidrelétricas EPE (2017), há
uma consequência inevitável: a energia do sistema fica mais cara. Contudo, houve um
congelamento das tarifas de energia elétrica, mantendo o mesmo nível de consumo.
Os dados históricos, compreendendo o período entre janeiro de 2003 a abril de 2017, da
tarifa média com impostos do consumo de energia industrial por região foram coletados
54
dos Relatórios de Consumo e Receita de Distribuição da Agência Nacional de Energia
Elétrica (ANEEL). A tarifa média regional industrial é calculada dividindo a receita
total de fornecimento pelo consumo total de energia, levando em consideração a
declaração de cada distribuidora de energia de quanto cobram pelo fornecimento de um
MWh. Esperamos que esta variável exógena influencie negativamente na variável
dependente.
IBCR
O Índice de Atividade Econômica Regional (IBCR) é um indicador mensal para as
cinco regiões geográficas do Brasil, com o intuito de ser um parâmetro do nível de
atividade econômica. O IBCR é calculado, pelo Banco Central (BACEN), com o uso de
proxies representativas do volume da produção industrial, agropecuária e do setor de
serviços. Hahn et al (2009) mencionam que os fatores econômicos influenciam bastante
nas previsões para o consumo de energia de médio e longo prazo, portanto, esperamos
que esse indicador tenha uma influência positiva no consumo de energia elétrica, uma
vez que quanto maior a atividade econômica do país, mais produtos serão produzidos e
mais energia será consumida.
As séries temporais do IBCR foram obtidas do Sistema Gerenciador de Séries
Temporais do Banco Central, compreendendo o período entre janeiro de 2003 e abril de
2017, totalizando 172 observações.
Cabe ressaltar, que outros indicadores da atividade econômica – Pesquisa Industrial
Mensal de Produção Física (PIM-PF) e o Produto Interno Bruto (PIB) – esbarram em
limitações em níveis de agregação ou temporal, em relação às outras variáveis do
estudo.
4.2. Resumos Estatísticos, Testes de Estacionariedade e Normalidade
Resumos Estatísticos foram elaborados, para cada variável exógena e endógena dos
modelos, com o objetivo de caracterizar a dispersão dos valores das séries temporais,
analisando suas médias, medianas, assimetrias, curtose, valores máximos e mínimos. Os
resultados foram obtidos através da utilização da ferramenta Análise de Dados do Excel.
55
Ademais, os pressupostos de estacionariedade e normalidade dos dados para a
realização dos modelos de previsão, também foram verificados nesta Seção, através dos
testes citados anteriormente: Jarque-Bera para testar a normalidade, caso o valor-p seja
muito baixo nós rejeitamos a hipótese nula da variável possuir uma distribuição normal,
e o teste de raiz unitária ADF para a estacionariedade, onde se analisa a hipótese nula da
variável possuir uma raiz unitária, ou seja, a série será estacionária, caso o nível
descritivo for suficientemente baixo (menor que o nível de significância de 5% aceitado
nos estudos). Os valores-p dos testes foram obtidos com o auxílio do software EViews e
podem ser observados nos anexos.
Cabe ressaltar que a presença de estacionariedade nas séries temporais é de suma
importância para a robustez dos modelos, pois, com sua ausência, regressões espúrias
podem ser produzidas, ocasionando em um coeficiente de determinação exagerado e na
ausência de relação de causa-efeito entre as variáveis utilizadas.
Uma série de transformações foram realizadas nas séries temporais com a finalidade de
obter-se a normalidade e a estacionariedade dos dados. A transformação que teve mais
êxito foi a primeira diferença definida por:
ΔZ(t) = 𝑍(𝑡) − 𝑍(𝑡 − 1) (113)
Isto indica que as séries temporais trabalhadas são integradas de primeira ordem I(1), ou
seja, a série original não é estacionária, mas se diferenciarmos uma vez ela, rejeitaremos
a hipótese nula da existência de uma raiz unitária do teste ADF.
Portanto, quando nos referirmos às séries temporais transformadas, estaremos nos
referindo à diferenciação de primeira ordem da série I(1).
Consumo de Energia Elétrica
Podemos observar na Tabela 1 que a Região Sudeste é responsável por 55,52% do
consumo de energia industrial do Brasil. Segundo Morais (2003, p. 485,486), fatores
históricos contribuíram com o desenvolvimento e a concentração da indústria na região
Sudeste, como por exemplo, a posição geográfica estratégica e a construção de ferrovias
para transportar o café entre São Paulo, interior do país e Porto de Santos. Em termos
56
percentuais, a região Centro-Oeste possui um maior desvio-padrão, aproximadamente
22,8% do valor da média.
Tabela 1: Resumo estatístico do consumo de energia elétrica por região
Fonte: Elaboração própria
Todas as regiões, exceto o Centro-Oeste, possuem uma assimetria negativa, ou seja, a
distribuição tem uma “cauda” mais longa à esquerda. Ademais, a curtose negativa para
as regiões, exceto Sudeste, indica que a distribuição de consumo de energia é, em sua
grande maioria, platicúrtica, ou seja, é mais achatada que a função normal.
Além disso, podemos afirmar que as séries não são normais, uma vez que os valores-p
do teste Jarque-Bera são menores que o nível de significância de 5%, rejeitando a
hipótese nula de normalidade e também são não estacionárias, pois os valores-p do teste
ADF são maiores que o nível de significância de 5%, aceitando assim a hipótese nula de
raiz unitária.
Contudo, quando diferenciamos uma vez a série, obtemos os seguintes resultados
representados na Tabela 2.
ConsumoEnergia-CO ConsumoEnergia-NE ConsumoEnergia-N ConsumoEnergia-SE ConsumoEnergia-S
Média 584,7674 2233,1977 1087,2093 7751,7965 2378,8140
Erro padrão 10,1466 16,9364 10,6158 56,3882 21,1931
Mediana 549,5000 2278,0000 1088,5000 7825,5000 2434,5000
Modo 472,0000 1942,0000 862,0000 7596,0000 1811,0000
Desvio padrão 133,0716 222,1183 139,2248 739,5249 277,9452
Variância da amostra 17708,0509 49336,5572 19383,5349 546897,1338 77253,5441
Curtose -1,3889 -0,8046 -0,8006 0,7204 -0,6449
Assimetria 0,1845 -0,5514 -0,3892 -0,9650 -0,4817
Intervalo 519 860 567 3150 1184
Mínimo 319 1715 737 5646 1648
Máximo 838 2575 1304 8796 2832
Soma 100580 384110 187000 1333309 409156
Jarque-Bera 14,6770 13,3400 8,9900 29,4000 9,6700
p-valor (Jarque-Bera) 0,0007 0,0013 0,0111 0,0000 0,0080
p-valor (ADF) 0,2996 0,5406 0,3997 0,0880 0,2835
Número de Observações 172 172 172 172 172
57
Tabela 2: Resumo estatístico das diferenças de ordem 1 do consumo de energia elétrica
Fonte: Elaboração própria
Fica evidenciado uma melhora significativa nos testes de estacionariedade e
normalidade para todas as regiões. O valor-p do teste ADF é menor que o nível de
significância de 5%, rejeitando assim a hipótese nula de raiz unitária para as séries I(1)
do consumo de energia. Entretanto, a normalidade é aceita somente para as regiões
Centro-Oeste e Norte, devido ao alto p-valor. Mesmo assim, optou-se por dar
continuidade ao estudo, levando em consideração os efeitos causados pela a violação
desse pressuposto. Cabe ressaltar, o valor negativo da média das diferenças de primeira
ordem do consumo de energia industrial do Nordeste, isto evidencia uma redução do
consumo de energia da região nos últimos 15 anos.
IBCR
Segundo a Tabela 3, a região Norte possui 144,04 em média do Índice de Atividade
Econômica Regional, sendo a maior do Brasil e as regiões com os menores índices, em
média, são a região Sudeste com 130,17 e a sul com 130,18. As curtoses são negativas
para todas as distribuições, confirmando uma função de distribuição Platicúrtica, ou
seja, mais achatada que a distribuição normal. Ademais, os valores de assimetria para a
o IBCR da região Sul e Centro-Oeste estão bem próximos de 0 indicando simetria, isto
é, a média, mediana e moda coincidem no mesmo ponto.
dif1ConsumoEnergia-CO dif1ConsumoEnergia-NE dif1ConsumoEnergia-N dif1ConsumoEnergia-SE dif1ConsumoEnergia-S
Média 2,2865 -0,9942 2,4854 10,5848 6,5380Erro padrão 2,1789 7,2384 3,7644 18,4437 9,1142Mediana 5,0000 -15,0000 5,0000 29,0000 4,0000Modo 10,0000 24,0000 29,0000 14,0000 27,0000Desvio padrão 28,4924 94,6538 49,2259 241,1832 119,1840Variância da amostra 811,8174 8959,3470 2423,1924 58169,3266 14204,8265Curtose -0,1182 0,2880 0,2008 1,4874 1,3904Assimetria -0,0877 0,4691 0,1069 -0,7799 0,0736Intervalo 142 533 257 1421 681Mínimo -70 -198 -125 -899 -319Máximo 72 335 132 522 362Soma 391 -170 425 1810 1118Jarque-Bera 0,3746 6,5886 0,5024 59,9730 12,4753p-valor (Jarque-Bera) 0,8292 0,0371 0,7779 0,0000 0,0020p-valor (ADF) 0,0000 0,0499 0,0011 0,0464 0,0223Número de Observações 171 171 171 171 171
58
Tabela 3: Resumo estatístico do IBCR por região
Fonte: Elaboração própria
Nenhuma das séries do IBCR teve a hipótese nula de raiz unitária rejeitada, devido aos
altos p-valores do teste ADF e a normalidade foi aceita somente para as regiões Sul e
Centro-Oeste ao nível de significância de 5%. A tabela 4 é composta pelos resumos
estatísticos das primeiras diferenças da série do IBCR.
Tabela 4: Resumo estatístico das diferenças de ordem 1 do IBCR por região
Fonte: Elaboração própria
IBCR-CO IBCR-NE IBCR-N IBCR-SE IBCR-S
Média 139,79 133,50 144,04 130,17 130,18
Erro padrão 1,85 1,41 1,79 1,31 1,41
Mediana 140,60 137,14 146,25 134,65 133,15
Modo 126,61 108,50 157,24 #N/D 105,37
Desvio padrão 24,24 18,52 23,47 17,21 18,50
Variância da amostra 587,81 342,86 550,93 296,07 342,27
Curtose -0,71 -0,99 -0,99 -1,05 -0,58
Assimetria 0,07 -0,46 -0,30 -0,42 0,08
Intervalo 99,99 69,58 90,75 62,69 82,81
Mínimo 93,74 91,54 93,08 95,51 94,92
Máximo 193,73 161,12 183,83 158,20 177,73
Soma 24044,48 22961,77 24775,10 22389,79 22390,96
Jarque-Bera 3,8630 13,1860 9,7030 12,9845 2,7624
p-valor (Jarque-Bera) 0,1449 0,00137 0,0078 0,0015 0,2512
p-valor (ADF) 0,2196 0,1226 0,1705 0,1242 0,3851
Número de Observações 172 172 172 172 172
dif1IBCR-CO dif1IBCR-NE dif1IBCR-N dif1IBCR-SE dif1IBCR-S
Média 0,3643 0,3405 0,3271 0,2256 0,3073
Erro padrão 0,9354 0,4264 0,4744 0,2949 0,6580
Mediana -0,4300 0,5400 -0,0500 -0,4800 0,3400
Modo -11,9200 -11,7200 -1,4100 -1,4800 0,3400
Desvio padrão 12,2322 5,5756 6,2037 3,8562 8,6044
Variância da amostra 149,6278 31,0875 38,4858 14,8704 74,0359
Curtose 0,8439 0,0750 -0,0637 0,0250 0,9736
Assimetria 0,4346 -0,0761 -0,0251 0,6497 0,3580
Intervalo 63,8500 29,6300 31,7200 18,6900 47,5800
Mínimo -29,2200 -13,2400 -16,1500 -7,7400 -22,0700
Máximo 34,6300 16,3900 15,5700 10,9500 25,5100
Soma 62,29 58,22 55,93 38,58 52,54
Jarque-Bera 9,6744 0,172527 0,08432 11,8198 9,4938
p-valor (Jarque-Bera) 0,0079 0,917353 0,958716 0,0027 0,008679
p-valor (ADF) 0,0012 0,0468 0,0000 0,0000 0,0380
Número de Observações 171 171 171 171 171
59
Portanto, comprovamos que a série IBCR é I(1), uma vez que a primeira diferença das
séries históricas é estacionária (valor-p menor do que 0,05). Além disto, podemos
aceitar a normalidade para a série transformada das regiões Norte e Nordeste.
Tarifas Médias
A tabela 5 revela certas curiosidades relativas às tarifas médias por região no Brasil. Por
exemplo, a região que possui a maior tarifa industrial no Brasil é o Centro-Oeste,
R$338,00. A distribuidora que cobrou o maior valor por MWh industrial encontra-se na
região Sul, aproximadamente 640 reais. Já a tarifa de R$137,24, cobrada no Nordeste,
foi a menor do Brasil nos últimos 15 anos. A assimetria positiva para todas as regiões
evidencia uma “cauda” à esquerda para essas distribuições e a curtose positiva
caracteriza as distribuições como Leptocúrtica, ou seja, é mais afunilada e possui um
pico mais alto que a função normal.
Tabela 5: Resumo estatístico das séries de tarifas médias por região
Fonte: Elaboração própria
A ausência de estacionariedade para todas as distribuições, devido ao fato de o valor-p
ser maior que o nível de significância para todas as regiões e a presença de normalidade
somente na região Nordeste, evidencia a necessidade de uma transformação para
atender os pressupostos básicos para a realização de modelos de previsão. Novamente,
Tarifa-CO Tarifa-NE Tarifa-N Tarifa-SE Tarifa-S
Média 338,00 303,89 309,76 332,22 327,63
Erro padrão 7,42 6,10 5,86 8,31 8,90
Mediana 316,72 294,21 300,35 314,89 301,44
Modo 323,07 #N/D #N/D 302,89 299,44
Desvio padrão 97,35 80,04 76,90 109,04 116,75
Variância da amostra 9477,83 6406,45 5913,63 11888,67 13631,10
Curtose 0,94 0,08 1,21 0,58 0,70
Assimetria 1,09 0,40 0,96 0,94 1,09
Intervalo 483,23 348,64 407,80 458,30 501,08
Mínimo 156,39 137,24 137,86 143,02 139,40
Máximo 639,62 485,88 545,66 601,32 640,48
Soma 58136,08 52268,38 53279,12 57141,68 56352,83
Jarque-Bera 38,8716 4,5636 35,2997 26,8937 36,3008
p-valor (Jarque-Bera) 0,0000 0,1021 0,0000 0,0000 0,0000
p-valor (ADF) 0,6415 0,5774 0,7635 0,7344 0,8531
Número de Observações 172 172 172 172 172
60
utilizamos a diferenciação de primeira ordem para as séries de tarifa média com
imposto, o resultado encontra-se na próxima tabela.
Tabela 6: Resumo estatístico das séries das diferenças de ordem 1 das tarifas médias por região
Fonte: Elaboração própria
Observamos que as tarifas médias com impostos variam positivamente ao longo do
tempo, sendo que a Região Sul possui a maior variação mensal, R$2,23, e a região
Nordeste a menor, R$1,76. Os baixos valores-p das distribuições evidenciam que as
séries de Tarifa Média com Imposto são I(1), pois rejeitamos a hipótese nula de raiz
unitária. Mas vale salientar, os altos valores dos testes de Jarque-Bera nessas
distribuições, provocados por uma grande variação esporádica nos preços devido aos
reajustes de preços realizados pela ANEEL, através de bandeiras tarifárias que indicam
se a energia custará mais ou menos em função das condições de geração de eletricidade,
como por exemplo, fatores climáticos. Fazendo com que rejeitemos com grande certeza
a normalidade dos dados. Basta observarmos os valores mínimos e máximos das
distribuições, para chegarmos a essa conclusão, uma vez que estes valores são muito
maiores que a média.
dif1Tarifa-CO dif1Tarifa-NE dif1Tarifa-N dif1Tarifa-SE dif1Tarifa-S
Média 2,00 1,76 1,92 2,20 2,23
Erro padrão 1,22 0,98 1,19 0,93 1,14
Mediana 0,37 0,95 1,16 1,53 2,06
Modo 6,56 -0,38 -5,38 2,19 -2,04
Desvio padrão 15,95 12,86 15,51 12,19 14,87
Variância da amostra 254,37 165,26 240,64 148,49 221,19
Curtose 7,01 4,53 5,27 8,51 8,70
Assimetria 0,97 -0,18 -0,34 1,40 0,32
Intervalo 148,02 101,62 122,38 112,98 150,82
Mínimo -62,64 -58,11 -63,70 -38,51 -72,52
Máximo 85,38 43,51 58,68 74,47 78,30
Soma 342,52 301,11 327,47 375,42 382,10
Jarque-Bera 353,2135 136,8379 186,9574 537,3109 507,1289
p-valor (Jarque-Bera) 0,0000 0,0000 0,0000 0,0000 0,0000
p-valor (ADF) 0,0000 0,0000 0,0000 0,0000 0,0000
Número de Observações 171 171 171 171 171
61
Temperaturas
As regiões com temperaturas mais elevadas são a Nordeste e Norte, aproximadamente
26,5 graus Celsius, em contrapartida, a região Sul apresenta a menor temperatura média
do Brasil, cerca de 18,69 graus Celsius. Além disso, a Região Sul possui a maior
variabilidade de temperatura no Brasil, já que possui o maior desvio padrão e intervalo
entre as séries, isto se deve ao fato da presença de invernos mais rigorosos,
proporcionado pelo clima predominante temperado. Todas as séries possuem uma curva
de distribuição afunilada, devido aos valores negativos de curtose.
Tabela 7: Resumo estatístico das séries das temperaturas médias por região
Fonte: Elaboração própria
As séries não seguem uma distribuição normal, devido ao baixo valor-p do teste de
Jarque-Bera, entretanto, rejeitamos a hipótese nula da existência de raiz unitária com o
nível de significância de 5% para as regiões Norte e Sul. O pressuposto de normalidade
novamente é rejeitado para todas as distribuições, devido aos valores-p serem menores
que 0,05, comprovando a necessidade de uma transformação para atender os
pressupostos básicos. A tabela 8 apresenta os dados do resumo estatístico para as séries
transformadas.
Temperatura-CO Temperatura-NE Temperatura-N Temperatura-SE Temperatura-S
Média 24,39 26,03 26,99 22,43 18,69
Erro padrão 0,11 0,08 0,05 0,16 0,27
Mediana 24,92 26,19 26,89 23,05 18,88
Modo #N/D #N/D #N/D #N/D #N/D
Desvio padrão 1,49 1,05 0,63 2,04 3,59
Variância da amostra 2,22 1,11 0,40 4,16 12,89
Curtose -0,46 -0,64 -0,51 -0,99 -1,24
Assimetria -0,62 -0,40 0,44 -0,48 -0,20
Intervalo 6,76 4,63 2,95 8,00 13,04
Mínimo 20,88 23,55 25,78 17,91 11,23
Máximo 27,64 28,18 28,73 25,91 24,27
Soma 4195,92 4476,69 4642,05 3858,37 3214,45
Jarque-Bera 12,3375 7,6044 7,6105 13,6044 12,1183
p-valor (Jarque-Bera) 0,0029 0,0223 0,0223 0,0011 0,0023
p-valor (ADF) 0,5506 0,7198 0,0379 0,4748 0,0000
Número de Observações 172 172 172 172 172
62
Tabela 8: Resumo estatístico das séries das diferenças de ordem 1 das temperaturas médias
Fonte: Elaboração própria
Essa foi a transformação que obteve os melhores resultados. Aceitamos com absoluta
certeza a estacionariedade dos dados e rejeitamos apenas a normalidade para a região
Centro-Oeste. Vale enfatizar que prosseguiremos o estudo mesmo com a não
normalidade dos dados da série dif1Temperatura-CO, considerando as causas da
violação desse pressuposto.
Unidades consumidoras
Podemos concluir, através da Tabela 9, a discrepância da concentração industrial nas
regiões brasileiras. A região Sudeste possui 228944,49 unidades consumidoras
industriais em média, enquanto que a região Norte tem 17 vezes menos unidades,
aproximadamente 13131. Os testes dos pressupostos de normalidade e estacionariedade
apresentaram os piores resultados nestas séries históricas de unidades consumidoras por
região, uma vez que os valores-p dos testes ADF são extremamente baixos e os valores-
p do teste Jarque-Bera apresentam valores altíssimos, rejeitando fortemente a
estacionariedade e normalidade de todas as séries.
dif1Temperatura-CO dif1Temperatura-NE dif1Temperatura-N dif1Temperatura-SE dif1Temperatura-S
Média 0,0015 -0,0033 -0,0018 -0,0064 -0,0276
Erro padrão 0,0928 0,0535 0,0345 0,1081 0,1730
Mediana -0,1552 -0,0653 0,0010 -0,0457 0,0670
Modo #N/D #N/D #N/D #N/D #N/D
Desvio padrão 1,2132 0,7001 0,4512 1,4136 2,2626
Variância da amostra 1,4720 0,4901 0,2036 1,9982 5,1192
Curtose 0,4679 -0,3701 -0,0474 -0,3325 -0,2367
Assimetria 0,5199 0,1930 -0,0087 -0,0963 -0,3141
Intervalo 6,4472 3,6418 2,2037 6,5139 11,2840
Mínimo -2,8367 -1,8714 -1,1502 -3,3254 -6,5650
Máximo 3,6105 1,7704 1,0535 3,1885 4,7190
Soma 0,2516 -0,5696 -0,3046 -1,0944 -4,7115
Jarque-Bera 8,8226 2,1511 0,0487 1,1715 3,2618
p-valor (Jarque-Bera) 0,0121 0,3411 0,9759 0,5567 0,1957
p-valor (ADF) 0,0000 0,0000 0,0000 0,0000 0,0000
Número de Observações 171 171 171 171 171
63
Tabela 9: Resumo estatístico das séries de unidades consumidoras por região
Fonte: Elaboração própria
Portanto, novamente transformaremos as séries e os resultados estão representados na
Tabela 10. Aceitamos a estacionariedade para todas as séries devido ao valor-p próximo
de 0 e rejeitamos a hipótese nula de normalidade para todas as distribuições, pois o valor-
p é menor do que nível de significância de 5%. Cabe ressaltar o alto valor positivo da
média das diferenças das Unidades Consumidoras da Região Sul, podendo assim concluir
que o polo industrial dessa Região foi a que mais cresceu nos últimos 15 anos.
Tabela 10: Resumo estatístico das séries das diferenças de ordem 1 de unidades consumidoras
Fonte: Elaboração própria
UnCons-CO UnCons-NE UnCons-N UnCons-SE UnCons-S
Média 36075,51 63602,65 13130,58 228944,49 196804,92
Erro padrão 316,98 486,84 32,15 600,14 2089,11
Mediana 34022,00 65401,00 13206,00 230395,50 190965,50
Modo #N/D 62964,00 13594,00 230276,00 #N/D
Desvio padrão 4157,15 6384,87 421,62 7870,73 27398,47
Variância da amostra 17281889,16 40766616,71 177766,89 61948320,96 750675999,54
Curtose -1,24 0,30 -0,24 2,24 -1,53
Assimetria 0,58 -1,23 -0,67 -1,59 0,11
Intervalo 12494 21903 1854 38304 76470
Mínimo 31067 48984 11941 205567 159182
Máximo 43561 70887 13795 243871 235652
Soma 6204988 10939656 2258460 39378453 33850446
Jarque-Bera 20,45902 42,85349 13,05003 103,9845 16,94297
p-valor (Jarque-Bera) 0,0000 0,0000 0,0015 0,0000 0,0002
p-valor (ADF) 0,9233 0,9386 0,6651 0,8928 0,7191
Número de Observações 172 172 172 172 172
dif1UnCons-CO dif1UnCons-NE dif1UnCons-N dif1UnCons-SE dif1UnCons-S
Média 31,29 -88,25 -9,08 -224,00 347,98
Erro padrão 16,44 44,36 8,38 99,68 104,44
Mediana 34,00 -56,00 -8,00 -97,00 296,00
Modo -61,00 -143,00 -35,00 -61,00 708,00
Desvio padrão 215,01 580,06 109,62 1303,47 1365,67
Variância da amostra 46227,92 336467,10 12016,24 1699040,42 1865058,77
Curtose 1,42 49,37 6,23 10,24 9,54
Assimetria -0,47 -5,74 -0,38 -2,01 1,08
Intervalo 1386 6652 922 11359 13463
Mínimo -800 -5534 -535 -7393 -5692
Máximo 586 1118 387 3966 7771
Soma 5350 -15091 -1553 -38304 59505
Jarque-Bera 18,9415 17275,34 261,4071 812,9892 639,735
p-valor (Jarque-Bera) 0,0001 0,0000 0,0000 0,0000 0,0000
p-valor (ADF) 0,0000 0,0000 0,0000 0,0000 0,0000
Número de Observações 171 171 171 171 171
64
5. RESULTADOS OBTIDOS
As 172 observações das séries temporais foram divididas em dois subconjuntos: um
primeiro, contendo aproximadamente 85% dos pontos, denominado training set, sobre
cujos valores as equações de previsão foram ajustadas. O segundo, chamado de test set,
composto pelos 15% restantes das observações, é utilizado para se testar as previsões
dadas pelo modelo obtido, comparando os valores previstos com os valores reais
observados neste conjunto. Nesse sentido, todos os modelos foram ajustados com base
no training set, e tiveram sua eficiência medida sobre o test set.
5.1. Modelo 1: SARIMA
O primeiro modelo testado foi um processo autoregressivo integrado de médias móveis
sazonal SARIMA(p,d,q)(P,D,Q)[s]. Para a estimação dos parâmetros do modelo, foi
utilizada a função auto.arima do R.
Para cada iteração, composta por uma diferente combinação dos parâmetros, a função
calcula os coeficientes da equação de previsão através do MQC e do método de máxima
verossimilhança. O primeiro é usado para calcular os valores de partida para cada
coeficiente, sendo o segundo utilizado após esse cálculo inicial, a fim de otimizar a
escolha dos coeficientes.
Após o cálculo das equações de cada modelo candidato, realizou-se uma comparação
entre eles, com o intuito de verificar qual deles minimiza os critérios de informação AIC
e BIC. O output da função é o modelo que minimiza esses critérios, com suas ordens, os
valores de seus coeficientes e os valores ajustados para o training set (fitted values). A
partir da equação do modelo, são realizadas previsões sobre o test set e comparadas as
diferenças entre os valores previstos e os reais.
Região Centro-Oeste
O melhor modelo SARIMA encontrado para a região Centro-Oeste foi do tipo
SARIMA(0,1,1)(2,0,0)[12]. Foi feita, portanto, uma diferenciação de lag 1 a fim de
tornar o processo estacionário. A equação do modelo é dada por:
65
𝑌′𝑡 = −0,2986𝑎𝑡−1 + 0,4143𝑌′𝑡−12 + 0,2108𝑌′𝑡−24 + 𝑎𝑡 (114)
Onde at é ruído branco, e Y' é a primeira diferença da série Yt. A previsão do modelo
sobre o test set gerou o gráfico da figura 10:
Figura 10: Forecasting do SARIMA - Centro-Oeste
Fonte: Elaboração própria
A linha vermelha representa os valores reais da série de consumo de energia, enquanto a
linha azul indica as previsões feitas pelo modelo para o test set. A área sombreada
escura ilustra o intervalo de confiança de 80% das previsões, enquanto a área clara
mostra o intervalo de confiança de 95%.
Os valores das medidas de ajustamento são dadas na tabela 11:
Tabela 11: Medidas de ajustamento do SARIMA - Centro-Oeste
Fonte: Elaboração própria
A última etapa do processo de elaboração de modelos, de extrema importância, consiste
em analisar os resíduos do modelo em relação aos pressupostos de ausência de
66
autocorrelação e da existência de homocedasticidade. O primeiro deles pode ser
avaliado graficamente através do gráfico ACF.
Figura 11: Gráfico ACF do SARIMA - Centro-Oeste
Fonte: Elaboração própria
Apesar da ocorrência de apenas uma linha que ultrapasse os limites das linhas azuis,
aparentemente pode-se dizer que a série dos erros apresenta comportamento não
autocorrelacionado. Isso é comprovado pelo teste de Ljung-Box, que fornece uma
estatística de teste 3,39, com p-valor 75,9%. Logo, não se rejeita a hipótese nula do
teste, de ausência de autocorrelação. O output do teste, executado pelo R, é mostrado na
figura 12.
Figura 12: Teste Ljung-Box do SARIMA - Centro-Oeste
Fonte: Elaboração própria
A heterocedasticidade é testada por meio do teste GARCH, também através do R. O
output do teste é:
67
Figura 13: Teste GARCH do SARIMA - Centro-Oeste
Fonte: Elaboração própria
O p-valor alto, de 70,97%, corrobora para a não rejeição da hipótese nula de
homocedasticidade dos termos do resíduo do SARIMA. Dessa forma, ambos os
requisitos são satisfeitos para este modelo.
Região Nordeste
O modelo SARIMA encontrado foi da ordem SARIMA(2,1,0)(1,1,1)[12], com equação
da forma:
∆𝑌𝑡 = −0,1708∆𝑌𝑡−1 − 0,2185∆𝑌𝑡−2 − 0,2483∆𝑌𝑡−12 − 0,5894𝑎𝑡−12 + 𝑎𝑡
(115)
Onde at é ruído branco, e representa o operador de diferenciação, neste caso,
indicando uma diferenciação de lag 1 seguida de outra de lag 12. O gráfico das
previsões e as medidas de ajustamento são mostrados na figura 14 e na tabela 12:
Figura 14: Forecasting do SARIMA - Nordeste
68
Fonte: Elaboração própria
Tabela 12: Medidas de ajustamento do SARIMA – Nordeste
Fonte: Elaboração própria
Apesar dos erros de previsão consideravelmente elevados, os pressupostos de
homocedasticidade e não autocorrelação são verificados:
Figura 15: Gráfico ACF do SARIMA - Nordeste
Fonte: Elaboração própria
Figura 16: Teste Ljung-Box do SARIMA - Nordeste
Fonte: Elaboração própria
69
Figura 17: Teste GARCH do SARIMA - Nordeste
Fonte: Elaboração própria
Região Norte
Foi encontrado um SARIMA da ordem SARIMA(2,0,0)(0,1,1)[12], com os seguintes
coeficientes:
∆𝑌𝑡 = 0,5122∆𝑌𝑡−1 + 0,3208∆𝑌𝑡−2 − 0,6755𝑎𝑡−12 + 𝑎𝑡 (116)
Onde at é ruído branco, e representa uma diferenciação sazonal de período 12. O
forecasting produziu os resultados da figura 18 e da tabela 13.
Figura 18: Forecasting do SARIMA - Norte
Fonte: Elaboração própria
Tabela 13: Medidas de ajustamento do SARIMA – Norte
Fonte: Elaboração própria
70
A ausência de autocorrelação se verifica:
Figura 19: Gráfico ACF do SARIMA - Norte
Fonte: Elaboração própria
Figura 20: Teste Ljung-Box do SARIMA - Norte
Fonte: Elaboração própria
Entretanto, a um nível de significância de 5%, não se pode validar a hipótese nula do
teste GARCH, que diz que os resíduos são homocedásticos. Logo, o segundo
pressuposto não foi validado para este modelo.
Figura 21: Teste GARCH do SARIMA - Norte
Fonte: Elaboração própria
71
Região Sudeste
Um SARIMA(3,1,0)(2,1,0)[12] foi ajustado para a série de consumo da região Sudeste,
com os coeficientes dados por:
∆𝑌𝑡 = −0,0676∆𝑌𝑡−1 + 0,0674∆𝑌𝑡−2 + 0,2216∆𝑌𝑡−3
− 0,6219∆𝑌𝑡−12 − 0,3232∆𝑌𝑡−24 + 𝑎𝑡
(117)
Onde at é resíduo branco e indica diferenciações de lag 1 e 12 de primeira ordem. As
previsões geradas são resumidas por:
Figura 22: Forecasting do SARIMA - Sudeste
Fonte: Elaboração própria
Tabela 14: Medidas de ajustamento do SARIMA - Sudeste
Fonte: Elaboração própria
72
Os dois requisitos em relação aos erros de previsão foram verificados com sucesso:
Figure 23: Gráfico ACF do SARIMA - Sudeste
Fonte: Elaboração própria
Figura 24: Teste Ljung-Box do SARIMA - Sudeste
Fonte: Elaboração própria
Figura 25: Teste GARCH do SARIMA - Sudeste
Fonte: Elaboração própria
73
Região Sul
Foi ajustado um SARIMA(4,0,0)(0,1,1)[12] à série de consumo da região Sul. Os
coeficientes calculados foram:
∆𝑌𝑡 = 0,5672∆𝑌𝑡−1 + 0,3845∆𝑌𝑡−2 + 0,2420∆𝑌𝑡−3
− 0,2292∆𝑌𝑡−4 − 0,6568𝑎𝑡−12 + 𝑎𝑡
(118)
Onde at é ruído branco, e indica uma diferenciação sazonal de período 12. Os
resultados da previsão foram:
Figura 26: Forecasting do SARIMA - Sul
Fonte: Elaboração própria
Tabela 15: Medidas de ajustamento do SARIMA - Sul
Fonte: Elaboração própria
74
Os erros apresentam concordância aos pressupostos de homocedasticidade e não
autocorrelação:
Figura 27: Gráfico ACF do SARIMA - Sul
Fonte: Elaboração própria
Figura 28: Teste Ljung-Box do SARIMA - Sul
Fonte: Elaboração própria
Figura 29: Teste GARCH do SARIMA - Sul
Fonte: Elaboração própria
75
5.2. Modelo 2: Holt-Winters
Região Centro-Oeste
Os parâmetros do modelo de Holt Winters para a região Centro-Oeste, obtidos através
da minimização do erro quadrático médio, no R, foram:
𝛼 = 0,5760506 (119)
𝛽 = 0,01190022 (120)
𝛾 = 0,4777714 (121)
O gráfico com o forecasting do modelo sobre o test set está representado na figura 30.
Figura 30: Forecasting do Holt Winters - Centro-Oeste
Fonte: Elaboração própria
Os valores das medidas de ajustamento são:
Tabela 16: Medidas de ajustamento do Holt Winters - Centro-Oeste
Fonte: Elaboração própria
76
O gráfico ACF é ilustrado na figura 31:
Figura 31: Gráfico ACF do Holt Winters - Centro-Oeste
Fonte: Elaboração própria
Os testes de Ljung-Box e GARCH foram positivos, indicando a não autocorrelação e a
homocedasticidade dos resíduos. Os outputs dos testes foram:
Figura 32: Teste Ljung-Box do Holt Winters - Centro-Oeste
Fonte: Elaboração própria
Figura 33: Teste GARCH do Holt Winters - Centro-Oeste
Fonte: Elaboração própria
77
Região Nordeste
O modelo Holt Winters foi aplicado sobre a primeira diferencial do consumo da região
Nordeste. Os parâmetros calculados para este modelo foram:
𝛼 = 0,004147727 (122)
𝛽 = 0,4161375 (123)
𝛾 = 0,3810132 (124)
O gráfico de forecasting e as medidas de ajustamento são dados por:
Figura 34: Forecasting do Holt Winters - Nordeste
Fonte: Elaboração própria
Tabela 17: Medidas de ajustamento do Holt Winters – Nordeste
Fonte: Elaboração própria
78
Pode-se ver que este modelo produziu erros muito menores que o SARIMA aplicado à
região Nordeste. Além disso, os pressupostos sobre os resíduos foram satisfeitos:
Figura 35: Gráfico ACF do Holt Winters - Nordeste
Fonte: Elaboração própria
Figura 36: Teste Ljung-Box do Holt Winters - Nordeste
Fonte: Elaboração própria
Figura 37: Teste GARCH do Holt Winters - Nordeste
Fonte: Elaboração própria
79
Região Norte
Para a região Norte, os parâmetros do modelo Holt Winters são:
𝛼 = 0,5068026 (125)
𝛽 = 0,01698014 (126)
𝛾 = 0,8172327 (127)
Os resultados do forecasting sobre o test set se encontram na figura 38 e na tabela 18:
Figura 38: Forecasting do Holt Winters - Norte
Fonte: Elaboração própria
Tabela 18: Medidas de ajustamento do Holt Winters - Norte
Fonte: Elaboração própria
80
Da mesma forma que o SARIMA, o modelo Holt Winters gerou resíduos que não
apresentam autocorrelação, mas que são heterocedásticos:
Figura 39: Gráfico ACF do Holt Winters - Norte
Fonte: Elaboração própria
Figura 40: Teste Ljung-Box do Holt Winters - Norte
Fonte: Elaboração própria
Figure 41: Teste GARCH do Holt Winters - Norte
Fonte: Elaboração própria
81
A heterocedasticidade pode ser investigada através da análise do gráfico ACF do
quadrado dos resíduos. A figura 42 mostra que nos primeiros lags existe uma relação de
dependência acima dos limites de confiança, apesar de as barras diminuírem
consideravelmente após os primeiros lags.
Figura 42: Gráfico ACF do quadrado dos resíduos do HW - Norte
Fonte: Elaboração própria
82
Região Sudeste
Foi aplicado um modelo Holt Winters sobre a primeira diferença da série temporal de
consumo da região Sudeste, sendo os coeficientes dados por:
𝛼 = 0,004333868 (128)
𝛽 = 0,1057074 (129)
𝛾 = 0,4429711 (130)
A previsão em cima do test set é resumida na figura 43 e na tabela 19:
Figura 43: Forecasting do Holt Winters - Sudeste
Fonte: Elaboração própria
Tabela 19: Medidas de ajustamento do Holt Winters - Sudeste
Fonte: Elaboração própria
83
Os pressupostos dos resíduos foram satisfeitos, conforme demonstrado a seguir:
Figura 44: Gráfico ACF do Holt Winters - Sudeste
Fonte: Elaboração própria
Figura 45: Teste Ljung-Box do Holt Winters - Sudeste
Fonte: Elaboração própria
Figura 46: Teste GARCH do Holt Winters - Sudeste
Fonte: Elaboração própria
84
Região Sul:
Os parâmetros ótimos do modelo de HW aplicado à primeira diferença da série de
consumo da região Sul são:
𝛼 = 0,002135314 (131)
𝛽 = 0,8979033 (132)
𝛾 = 0,4597179 (133)
O forecasting sobre o test set originou os resultados da figura 47 e da tabela 20:
Figura 47: Forecasting do Holt Winters - Sul
Fonte: Elaboração própria
Tabela 20: Medidas de ajustamento do Holt Winters - Sul
Fonte: Elaboração própria
85
Nenhum dos pressupostos sobre os resíduos, no entanto, foi atendido:
Figura 48: Gráfico ACF do Holt Winters - Sul
Fonte: Elaboração própria
Figura 49: Teste Ljung-Box do Holt Winters - Sul
Fonte: Elaboração própria
Figura 50: Teste GARCH do Holt Winters - Sul
Fonte: Elaboração própria
86
5.3. Modelo 3: Regressão Linear com Erros SARIMA
Região Centro-Oeste
As variáveis exógenas mais significativas para este modelo foram o IBCR, o número de
unidades consumidoras e a tarifa média com imposto. Os erros oriundos dessa regressão
foram modelados com um SARIMA(2,1,0)(4,0,0)[12]. O modelo final foi definido
como:
𝑌𝑡 = −0,2188 ∗ 𝐼𝐵𝐶𝑅 + 0,009 ∗ 𝑈𝑛𝐶𝑜𝑛𝑠 − 0,1 ∗ 𝑇𝑎𝑟𝑖𝑓𝑎 + 𝑛𝑡
𝑛′𝑡 = −0,30𝑛′𝑡−1 − 0,15𝑛′𝑡−2 + 0,29𝑛′𝑡−12 + 0,09𝑛′𝑡−24
+ 0,17𝑛′𝑡−36 + 0,24𝑛′𝑡−48 + 𝑒𝑡
(134)
O gráfico do forecasting é ilustrado na figura 51:
Figura 51: Forecasting da regressão com erros SARIMA - Centro-Oeste
Fonte: Elaboração própria
Foram encontradas as medidas de ajustamento:
Tabela 21: Medidas de ajustamento da regressão com erros SARIMA - Centro-Oeste
Fonte: Elaboração própria
87
O gráfico de ACF está representado na figura 52:
Figura 52: Gráfico ACF da regressão com erros SARIMA - Centro-Oeste
Fonte: Elaboração própria
O gráfico indica a não existência de autocorrelação, corroborada pelo teste de Ljung-
Box. Além disso, o teste GARCH atesta a homocedasticidade dos resíduos.
Figura 53: Teste Ljung-Box da regressão com erros SARIMA - Centro-Oeste
Fonte: Elaboração própria
Figura 54: Teste GARCH da regressão com erros SARIMA - Centro-Oeste
Fonte: Elaboração própria
88
Região Nordeste
Foram incluídas, na regressão linear do modelo, as variáveis IBCR e unidades
consumidoras. Os erros foram modelados com um SARIMA(2,1,0)(2,0,0)[12]. A
equação ficou na forma:
𝑌𝑡 = 9,439 ∗ 𝐼𝐵𝐶𝑅 − 0,01 ∗ 𝑈𝑛𝐶𝑜𝑛𝑠 + 𝑛𝑡 (135)
𝑛′𝑡 = −0,306𝑛′𝑡−1 − 0,239𝑛′𝑡−2 + 0,278𝑛′𝑡−12 + 0,435𝑛′𝑡−24
+ 𝑒𝑡
(136)
Onde nt são erros autocorrelacionados da regressão, e nt é ruído branco. O gráfico das
previsões sobre o test set e as medidas de erro seguem na figura 55 e na tabela 22.
Figura 55: Forecasting da regressão com erros SARIMA - Nordeste
Fonte: Elaboração própria
Tabela 22: Medidas de ajustamento da regressão com erros SARIMA - Nordeste
Fonte: Elaboração própria
89
Trata-se do melhor modelo, até agora, para a região Nordeste. Os pressupostos também
são satisfeitos:
Figure 56: Gráfico ACF da regressão com erros SARIMA - Nordeste
Fonte: Elaboração própria
Figura 57: Teste Ljung-Box da regressão com erros SARIMA - Nordeste
Fonte: Elaboração própria
Figura 58: Teste GARCH da regressão com erros SARIMA - Nordeste
Fonte: Elaboração própria
90
Região Norte
A regressão linear é composta pelas variáveis explicativas IBCR, unidades
consumidoras e tarifa com imposto. Foi ajustado um SARIMA(4,1,0)(2,0,0)[12] aos
erros oriundos desta regressão. A equação do modelo, com os coeficientes ótimos
calculados, é:
𝑌𝑡 = 2,448 ∗ 𝐼𝐵𝐶𝑅 − 0,01 ∗ 𝑈𝑛𝐶𝑜𝑛𝑠 + 0,02 ∗ 𝑇𝑎𝑟𝑖𝑓𝑎 + 𝑛𝑡 (137)
𝑛′𝑡 = −0,460𝑛′𝑡−1 − 0,129𝑛′𝑡−2 − 0,057𝑛′𝑡−3 − 0,087𝑛′𝑡−4
+ 0,339𝑛′𝑡−12 + 0,296𝑛′𝑡−24 + 𝑒𝑡
(138)
Onde nt são erros autocorrelacionados da regressão, nt é ruído branco e n't representa a
diferenciação de ordem 1 de nt. O gráfico das previsões sobre o test set e as medidas de
erro seguem na figura 59 e na tabela 23.
Figura 59: Forecasting da regressão com erros SARIMA - Norte
Fonte: Elaboração própria
Tabela 23: Medidas de ajustamento da regressão com erros SARIMA - Norte
Fonte: Elaboração própria
91
Ao contrário do SARIMA e do Holt Winters para a região Norte, este modelo atende a
todos os requisitos acerca dos resíduos:
Figura 60: Gráfico ACF da regressão com erros SARIMA - Norte
Fonte: Elaboração própria
Figura 61: Teste Ljung-Box da regressão com erros SARIMA - Norte
Fonte: Elaboração própria
Figura 62: Teste GARCH da regressão com erros SARIMA - Norte
Fonte: Elaboração própria
92
Região Sudeste
As variáveis IBCR, temperatura e tarifa foram usadas na regressão da variável
dependente consumo. Os erros dessa regressão foram ajustados com um
SARIMA(3,1,0)(3,1,0)[12]. O modelo é descrito como:
𝑌𝑡 = 18,436 ∗ 𝐼𝐵𝐶𝑅 − 3,816 ∗ 𝑇𝑒𝑚𝑝𝑒𝑟𝑎𝑡𝑢𝑟𝑎 − 2,721 ∗ 𝑇𝑎𝑟𝑖𝑓𝑎 + 𝑛𝑡 (139)
∆𝑛𝑡 = −0,11∆𝑛𝑡−1 + 0,04∆𝑛𝑡−2 + 0,26∆𝑛𝑡−3 − 0,64∆𝑛𝑡−12
− 0,38∆𝑛𝑡−24 − 0,10∆𝑛𝑡−36 + 𝑒𝑡
(140)
Onde nt é o resíduo da regressão, et é ruído branco, e indica duas diferenciações de
ordem 1: uma de lag 1, e outra de lag 12. As previsões em cima do test set são
resumidas na figura 63 e na tabela 24:
Figura 63: Forecasting da regressão com erros SARIMA - Sudeste
Fonte: Elaboração própria
Tabela 24: Medidas de ajustamento da regressão com erros SARIMA - Sudeste
Fonte: Elaboração própria
93
Verificou-se os pressupostos sobre os resíduos:
Figura 64: Gráfico ACF da regressão com erros SARIMA - Sudeste
Fonte: Elaboração própria
Figura 65: Teste Ljung-Box da regressão com erros SARIMA - Sudeste
Fonte: Elaboração própria
Figura 66: Teste GARCH da regressão com erros SARIMA - Sudeste
Fonte: Elaboração própria
94
Região Sul
Foram incluídas as variáveis exógenas IBCR e temperatura na regressão do consumo.
Os erros da regressão foram modelados por um SARIMA(3,1,0)(2,1,0)[12]. A equação
do modelo é representada por:
𝑌𝑡 = 5,254 ∗ 𝐼𝐵𝐶𝑅 + 5,161 ∗ 𝑇𝑒𝑚𝑝𝑒𝑟𝑎𝑡𝑢𝑟𝑎 + 𝑛𝑡 (141)
∆𝑛𝑡 = −0,48∆𝑛𝑡−1 − 0,12∆𝑛𝑡−2 + 0,18∆𝑛𝑡−3 − 0,69∆𝑛𝑡−12
− 0,25∆𝑛𝑡−24 + 𝑒𝑡
(142)
Onde nt é o erro autocorrelacionado da regressão linear, et é ruído branco e representa
uma diferenciação de lag 1 juntamente com uma sazonal de lag 12. Chegou-se aos
resultados de previsão da figura 67 e da tabela 25:
Figura 67: Forecasting da regressão com erros SARIMA - Sul
Fonte: Elaboração própria
Tabela 25: Medidas de ajustamento da regressão com erros SARIMA - Sul
Fonte: Elaboração própria
95
Os dois pressupostos sobre os resíduos foram atendidos:
Figura 68: Gráfico ACF da regressão com erros SARIMA - Sul
Fonte: Elaboração própria
Figura 69: Teste Ljung-Box da regressão com erros SARIMA - Sul
Fonte: Elaboração própria
Figura 70: Teste GARCH da regressão com erros SARIMA - Sul
Fonte: Elaboração própria
96
5.4. Modelo 4: Decomposição com Variáveis Dummies
Região Centro-Oeste
As variáveis incluídas no modelo, além das 11 dummies, foram: tendência linear, IBCR,
unidades consumidoras, consumo defasado nos lags 1 e 12, tarifa média com imposto, e
temperatura compensada média. A equação do modelo ficou da forma:
𝑌𝑡 = 114 + 0,64𝑡 + 0,31 ∗ 𝐼𝐵𝐶𝑅 + 0,01 ∗ 𝑈𝑛𝐶𝑜𝑛𝑠 + 0,70 ∗ 𝑙𝑎𝑔1 − 0,05
∗ 𝑙𝑎𝑔12 − 0,11 ∗ 𝑇𝑎𝑟𝑖𝑓𝑎 − 6,13 ∗ 𝑇𝑒𝑚𝑝𝑒𝑟𝑎𝑡𝑢𝑟𝑎 + 27,4
∗ 𝐷𝑢𝑚𝑚𝑦2 + 46,3 ∗ 𝐷𝑢𝑚𝑚𝑦3 + 38,0 ∗ 𝐷𝑢𝑚𝑚𝑦4 + 34,9
∗ 𝐷𝑢𝑚𝑚𝑦5 + 9,8 ∗ 𝐷𝑢𝑚𝑚𝑦6 + 33,6 ∗ 𝐷𝑢𝑚𝑚𝑦7 + 44,0
∗ 𝐷𝑢𝑚𝑚𝑦8 + 39,9 ∗ 𝐷𝑢𝑚𝑚𝑦9 + 49,5 ∗ 𝐷𝑢𝑚𝑚𝑦10 + 19,2
∗ 𝐷𝑢𝑚𝑚𝑦11 + 22,1 ∗ 𝐷𝑢𝑚𝑚𝑦12 + 𝑎𝑡
(143)
Onde at é resíduo branco, e a variável Dummy2, quando vale 1, todas as outras
dummies valem 0, e significa que o índice t corresponde ao mês de fevereiro. As outras
dummies funcionam de forma análoga. Quando todas as variáveis dummies zeram, o
mês analisado é o de janeiro.
A previsão sobre o test set aparece na figura 71:
Figura 71: Forecasting da decomposição com dummies - Centro-Oeste
Fonte: Elaboração própria
97
As medidas de ajustamento para este modelo são resumidas na tabela 26:
Tabela 26: Medidas de ajustamento da decomposição com dummies - Centro-Oeste
Fonte: Elaboração própria
Na figura 72, o gráfico ACF:
Figura 72: Gráfico ACF da decomposição com dummies - Centro-Oeste
Fonte: Elaboração própria
O gráfico ACF, juntamente com os testes de Ljung-Box e GARCH, apontam para a
observância dos pressupostos.
Figura 73: Teste Ljung-Box da decomposição com dummies - Centro-Oeste
Fonte: Elaboração própria
98
Figura 74: Teste GARCH da decomposição com dummies - Centro-Oeste
Fonte: Elaboração própria
Região Nordeste
As variáveis incluídas, além das dummies sazonais, são: tendência linear, IBCR, tarifa
média com imposto e consumo defasado de períodos 1 e 12. A equação de previsão é:
𝑌𝑡 = −523,6 − 3,81𝑡 + 8,79 ∗ 𝐼𝐵𝐶𝑅 + 0,77 ∗ 𝑙𝑎𝑔1 + 0,05 ∗ 𝑙𝑎𝑔12 + 0,32
∗ 𝑇𝑎𝑟𝑖𝑓𝑎 − 41,6 ∗ 𝐷𝑢𝑚𝑚𝑦2 + 148,7 ∗ 𝐷𝑢𝑚𝑚𝑦3 − 64,4
∗ 𝐷𝑢𝑚𝑚𝑦4 + 8,5 ∗ 𝐷𝑢𝑚𝑚𝑦5 − 53,5 ∗ 𝐷𝑢𝑚𝑚𝑦6 + 39,3
∗ 𝐷𝑢𝑚𝑚𝑦7 + 17,3 ∗ 𝐷𝑢𝑚𝑚𝑦8 − 40,5 ∗ 𝐷𝑢𝑚𝑚𝑦9 + 2,0
∗ 𝐷𝑢𝑚𝑚𝑦10 − 66,4 ∗ 𝐷𝑢𝑚𝑚𝑦11 − 54,2 ∗ 𝐷𝑢𝑚𝑚𝑦12 + 𝑎𝑡
(144)
O gráfico de forecasting e as medidas de erro aparecem na figura 75 e na tabela 27.
Figura 75: Forecasting da decomposição com dummies - Nordeste
Fonte: Elaboração própria
99
Tabela 27: Medidas de ajustamento da decomposição com dummies - Nordeste
Fonte: Elaboração própria
Considerando um nível de significância de 5%, pode-se afirmar que os resíduos
atendem aos pressupostos do modelo:
Figura 76: Gráfico ACF da decomposição com dummies - Nordeste
Fonte: Elaboração própria
Figura 77: Teste Ljung-Box da decomposição com dummies - Nordeste
Fonte: Elaboração própria
Figura 78: Teste GARCH da decomposição com dummies - Nordeste
Fonte: Elaboração própria
100
Região Norte
O modelo de regressão inclui as 11 variáveis dummies, tendência linear e as variáveis
exógenas: IBCR, tarifa com imposto e variáveis defasadas em 1 e 12 períodos do
consumo. Segue abaixo a equação de previsão:
𝑌𝑡 = 46,85 − 0,24𝑡 + 2,02 ∗ 𝐼𝐵𝐶𝑅 + 0,65 ∗ 𝑙𝑎𝑔1 − 0,04 ∗ 𝑙𝑎𝑔12 + 0,04
∗ 𝑇𝑎𝑟𝑖𝑓𝑎 − 32,9 ∗ 𝐷𝑢𝑚𝑚𝑦2 + 67,2 ∗ 𝐷𝑢𝑚𝑚𝑦3 − 6,4
∗ 𝐷𝑢𝑚𝑚𝑦4 + 17,2 ∗ 𝐷𝑢𝑚𝑚𝑦5 − 18,7 ∗ 𝐷𝑢𝑚𝑚𝑦6 + 23,1
∗ 𝐷𝑢𝑚𝑚𝑦7 + 4,7 ∗ 𝐷𝑢𝑚𝑚𝑦8 − 17,3 ∗ 𝐷𝑢𝑚𝑚𝑦9 + 22,8
∗ 𝐷𝑢𝑚𝑚𝑦10 − 14,2 ∗ 𝐷𝑢𝑚𝑚𝑦11 + 8,7 ∗ 𝐷𝑢𝑚𝑚𝑦12 + 𝑎𝑡
(145)
Onde at é ruído branco. O gráfico de forecasting e as medidas de erro aparecem na
figura 79 e na tabela 28.
Figura 79: Forecasting da decomposição com dummies - Norte
Fonte: Elaboração própria
Tabela 28: Medidas de ajustamento da decomposição com dummies - Norte
101
Fonte: Elaboração própria
Mais uma vez, o pressuposto de inexistência de autocorrelação é atendido, porém existe
evidência de que os resíduos sejam heterocedásticos:
Figura 80: Gráfico ACF da decomposição com dummies - Norte
Fonte: Elaboração própria
Figura 81: Teste Ljung-Box da decomposição com dummies - Norte
Fonte: Elaboração própria
Figura 82: Teste GARCH da decomposição com dummies - Norte
102
Fonte: Elaboração própria
Região Sudeste
Considerando as variáveis dummies e variáveis defasadas do consumo nos lags 1 e 2,
obteve-se o seguinte modelo de regressão:
𝑌𝑡 = 0,93 ∗ 𝑙𝑎𝑔1 + 0,03 ∗ 𝑙𝑎𝑔2 + 488,6 ∗ 𝐷𝑢𝑚𝑚𝑦2 + 365,8 ∗ 𝐷𝑢𝑚𝑚𝑦3
+ 547,7 ∗ 𝐷𝑢𝑚𝑚𝑦4 + 217,4 ∗ 𝐷𝑢𝑚𝑚𝑦5 + 383,8
∗ 𝐷𝑢𝑚𝑚𝑦6 + 301,8 ∗ 𝐷𝑢𝑚𝑚𝑦7 + 546,9 ∗ 𝐷𝑢𝑚𝑚𝑦8
+ 342,7 ∗ 𝐷𝑢𝑚𝑚𝑦9 + 323,3 ∗ 𝐷𝑢𝑚𝑚𝑦10 + 402,0
∗ 𝐷𝑢𝑚𝑚𝑦11 + 54,95 ∗ 𝐷𝑢𝑚𝑚𝑦12 + 𝑎𝑡
(146)
Onde aa é termo de resíduo branco. As previsões obtidas para este modelo foram:
Figura 83: Forecasting da decomposição com dummies - Sudeste
Fonte: Elaboração própria
Tabela 29: Medidas de ajustamento da decomposição com dummies - Sudeste
Fonte: Elaboração própria
103
A um nível de significância de 5%, não existe evidência para refutar a conformidade
dos resíduos aos pressupostos:
Figura 84: Gráfico ACF da decomposição com dummies - Sudeste
Fonte: Elaboração própria
Figura 85: Teste Ljung-Box da decomposição com dummies - Sudeste
Fonte: Elaboração própria
104
Figura 86: Teste GARCH da decomposição com dummies - Sudeste
Fonte: Elaboração própria
Região Sul
Além das variáveis dummies, foram incluídos no modelo o IBCR e as defasagens de lag
1 e 12 do consumo. Não foi incluído termo algum de tendência. A equação de previsão
é dada por:
𝑌𝑡 = −51,8 + 4,65 ∗ 𝐼𝐵𝐶𝑅 + 0,40 ∗ 𝑙𝑎𝑔1 + 0,28 ∗ 𝑙𝑎𝑔2 − 265,8 ∗ 𝐷𝑢𝑚𝑚𝑦2
+ 229,0 ∗ 𝐷𝑢𝑚𝑚𝑦3 + 209,0 ∗ 𝐷𝑢𝑚𝑚𝑦4 + 209,6 ∗ 𝐷𝑢𝑚𝑚𝑦5
+ 249,5 ∗ 𝐷𝑢𝑚𝑚𝑦6 + 253,4 ∗ 𝐷𝑢𝑚𝑚𝑦7 + 267,7 ∗ 𝐷𝑢𝑚𝑚𝑦8
+ 215,2 ∗ 𝐷𝑢𝑚𝑚𝑦9 + 238,9 ∗ 𝐷𝑢𝑚𝑚𝑦10 + 212,1
∗ 𝐷𝑢𝑚𝑚𝑦11 + 162,2 ∗ 𝐷𝑢𝑚𝑚𝑦12 + 𝑎𝑡
(147)
Onde at é termo de ruído branco. Na figura 87 e na tabela 30, seguem os resultados da
previsão realizada:
Figura 87: Forecasting da decomposição com dummies - Sul
105
Fonte: Elaboração própria
Tabela 30: Medidas de ajustamento da decomposição com dummies - Sul
Fonte: Elaboração própria
Embora a série dos resíduos do modelo atenda ao requisito de não autocorrelação, não
existe evidência de que os erros sejam homocedásticos:
Figura 88: Gráfico ACF da decomposição com dummies - Sul
Fonte: Elaboração própria
Figura 89: Teste Ljung-Box da decomposição com dummies - Sul
Fonte: Elaboração própria
106
Figura 90: Teste GARCH da decomposição com dummies - Sul
Fonte: Elaboração própria
5.5. Modelo 5: Decomposição com Séries de Fourier
Região Centro-Oeste
O modelo de decomposição com séries de Fourier utiliza as mesmas variáveis exógenas
que a decomposição com variáveis dummies, alterando apenas a forma de explicar a
sazonalidade da série temporal. Para o caso da região Centro-Oeste, a equação de
previsão segue abaixo:
𝑌𝑡 = 147 + 0,63𝑡 + 0,30 ∗ 𝐼𝐵𝐶𝑅 + 0,01 ∗ 𝑈𝑛𝐶𝑜𝑛𝑠 + 0,70 ∗ 𝑙𝑎𝑔1 − 0,05
∗ 𝑙𝑎𝑔12 − 0,11 ∗ 𝑇𝑎𝑟𝑖𝑓𝑎 − 6,25 ∗ 𝑇𝑒𝑚𝑝𝑒𝑟𝑎𝑡𝑢𝑟𝑎 − 0,52
∗ 𝑐𝑜𝑠1 − 15,0 ∗ 𝑐𝑜𝑠2 + 2,9 ∗ 𝑐𝑜𝑠3 − 0,8 ∗ 𝑐𝑜𝑠4 + 8,8 ∗ 𝑐𝑜𝑠5
− 0,3 ∗ 𝑐𝑜𝑠6 − 4,2 ∗ 𝑠𝑒𝑛1 − 5,3 ∗ 𝑠𝑒𝑛2 − 4,0 ∗ 𝑠𝑒𝑛3 − 0,7
∗ 𝑠𝑒𝑛4 + 3,6 ∗ 𝑠𝑒𝑛5 − 4𝑒13𝑠𝑒𝑛6 + 𝑎𝑡
(148)
Tal equação, quando aplicada sobre o test set, gera previsões ilustradas na figura 91:
107
Figura 91: Forecasting da decomposição com Fourier - Centro-Oeste
Fonte: Elaboração própria
As medidas de erro são dadas por:
Tabela 31: Medidas de ajustamento da decomposição com Fourier - Centro-Oeste
Fonte: Elaboração própria
Por último, seguem o gráfico ACF e os testes de hipótese, atestando que os pressupostos
foram respeitados pelo modelo.
108
Figura 92: Gráfico ACF da decomposição com Fourier - Centro-Oeste
Fonte: Elaboração própria
Figura 93: Teste Ljung-Box da decomposição com Fourier - Centro-Oeste
Fonte: Elaboração própria
Figura 94: Teste GARCH da decomposição com Fourier - Centro-Oeste
Fonte: Elaboração própria
Região Nordeste
Juntamente com as funções periódicas de senos e cossenos e com a tendência linear,
foram inclusos no modelo as mesmas variáveis exógenas que o modelo de
decomposição com variáveis dummies, gerando a seguinte equação:
109
𝑌𝑡 = −522 − 3,73𝑡 + 8,64 ∗ 𝐼𝐵𝐶𝑅 + 0,77 ∗ 𝑙𝑎𝑔1 + 0,05 ∗ 𝑙𝑎𝑔12 − 0,30
∗ 𝑇𝑎𝑟𝑖𝑓𝑎 − 16,8 ∗ 𝑐𝑜𝑠1 − 30,7 ∗ 𝑐𝑜𝑠2 − 1,3 ∗ 𝑐𝑜𝑠3 + 9,0
∗ 𝑐𝑜𝑠4 + 17,1 ∗ 𝑐𝑜𝑠5 − 19,1 ∗ 𝑐𝑜𝑠6 + 15,2 ∗ 𝑠𝑒𝑛1 + 19,1
∗ 𝑠𝑒𝑛2 − 25,9 ∗ 𝑠𝑒𝑛3 + 9,2 ∗ 𝑠𝑒𝑛4 + 52,8 ∗ 𝑠𝑒𝑛5
+ 2𝑒14𝑠𝑒𝑛6 + 𝑎𝑡
(149)
Os resultados da previsão são demonstrados na figura 95 e na tabela 32.
Figura 95: Forecasting da decomposição com Fourier – Nordeste
Fonte: Elaboração própria
Tabela 32: Medidas de ajustamento da decomposição com Fourier - Nordeste
Fonte: Elaboração própria
Apesar de similares, os resultados são ligeiramente melhores que os da decomposição
com dummies, tornando este o melhor modelo até agora para o Nordeste. Os
pressupostos são verificados:
110
Figura 96: Gráfico ACF da decomposição com Fourier - Nordeste
Fonte: Elaboração própria
Figura 97: Teste Ljung-Box da decomposição com Fourier - Nordeste
Fonte: Elaboração própria
Figura 98: Teste GARCH da decomposição com Fourier - Nordeste
Fonte: Elaboração própria
Região Norte
Utilizando as mesmas variáveis exógenas que a decomposição anterior, a equação do
modelo com séries de Fourier é da forma:
111
𝑌𝑡 = 51,5 − 0,25𝑡 + 2,02 ∗ 𝐼𝐵𝐶𝑅 + 0,65 ∗ 𝑙𝑎𝑔1 − 0,04 ∗ 𝑙𝑎𝑔12
+ 0,04 ∗ 𝑇𝑎𝑟𝑖𝑓𝑎 − 4,0 ∗ 𝑐𝑜𝑠1 − 6,8 ∗ 𝑐𝑜𝑠2 + 6,0
∗ 𝑐𝑜𝑠3 + 5,5 ∗ 𝑐𝑜𝑠4 + 11,7 ∗ 𝑐𝑜𝑠5 − 8,3 ∗ 𝑐𝑜𝑠6 + 5,2
∗ 𝑠𝑒𝑛1 − 3,5 ∗ 𝑠𝑒𝑛2 − 12,7 ∗ 𝑠𝑒𝑛3 + 9,3 ∗ 𝑠𝑒𝑛4 + 24,4
∗ 𝑠𝑒𝑛5 − 5𝑒12𝑠𝑒𝑛6 + 𝑎𝑡
(150)
Os resultados da previsão são exibidos na figura 99 e na tabela 33:
Figura 99: Forecasting da decomposição com Fourier - Norte
Fonte: Elaboração própria
Tabela 33: Medidas de ajustamento da decomposição com Fourier - Norte
Fonte: Elaboração própria
O pressuposto de homocedasticidade mais uma vez é desrespeitado, apesar de haver
evidência de que os resíduos não são autocorrelacionados:
112
Figura 100: Gráfico ACF da decomposição com Fourier - Norte
Fonte: Elaboração própria
Figura 101: Teste Ljung-Box da decomposição com Fourier - Norte
Fonte: Elaboração própria
Figura 102: Teste GARCH da decomposição com Fourier - Norte
Fonte: Elaboração própria
Região Sudeste
Usando as mesmas variáveis explicativas que na decomposição anterior, chegou-se à
seguinte equação:
113
𝑌𝑡 = 0,99 ∗ 𝑙𝑎𝑔1 + 0,01 ∗ 𝑙𝑎𝑔2 − 93,5 ∗ 𝑐𝑜𝑠1 − 127,7 ∗ 𝑐𝑜𝑠2 − 10,8
∗ 𝑐𝑜𝑠3 − 48,5 ∗ 𝑐𝑜𝑠4 − 66,0 ∗ 𝑐𝑜𝑠5 + 46,5 ∗ 𝑐𝑜𝑠6
+ 1,20 ∗ 𝑠𝑒𝑛1 − 13,2 ∗ 𝑠𝑒𝑛2 − 83,8 ∗ 𝑠𝑒𝑛3 − 69,3
∗ 𝑠𝑒𝑛4 − 60,0 ∗ 𝑠𝑒𝑛5 − 6𝑒14𝑠𝑒𝑛6 + 𝑎𝑡
(151)
Onde at é termo de resíduo branco. As previsões geraram os resultados da figura 103 e
da tabela 34:
Figura 103: Forecasting da decomposição com Fourier - Sudeste
Fonte: Elaboração própria
Tabela 34: Medidas de ajustamento da decomposição com Fourier - Sudeste
Fonte: Elaboração própria
Embora as medidas de erro sejam similares aos da decomposição com dummies, não
pôde ser verificado o pressuposto de não existência de autocorrelação nos termos do
erro:
114
Figura 104: Gráfico ACF da decomposição com Fourier - Sudeste
Fonte: Elaboração própria
Figura 105: Teste Ljung-Box da decomposição com Fourier - Sudeste
Fonte: Elaboração própria
Figura 106: Teste GARCH da decomposição com Fourier - Sudeste
Fonte: Elaboração própria
Região Sul
As mesmas variáveis da decomposição com dummies foram consideradas para este
modelo, exceto as que explicam a sazonalidade da série temporal. A equação de
previsão ficou:
115
𝑌𝑡 = 158,0 + 4,48 ∗ 𝐼𝐵𝐶𝑅 + 0,41 ∗ 𝑙𝑎𝑔1 + 0,29 ∗ 𝑙𝑎𝑔2 − 47,1 ∗ 𝑐𝑜𝑠1
− 31,1 ∗ 𝑐𝑜𝑠2 − 18,6 ∗ 𝑐𝑜𝑠3 + 5,4 ∗ 𝑐𝑜𝑠4 + 24,6 ∗ 𝑐𝑜𝑠5
+ 12,8 ∗ 𝑐𝑜𝑠6 − 20,0 ∗ 𝑠𝑒𝑛1 − 11,8 ∗ 𝑠𝑒𝑛2 − 45,9 ∗ 𝑠𝑒𝑛3
− 37,4 ∗ 𝑠𝑒𝑛4 − 13,5 ∗ 𝑠𝑒𝑛5 − 4𝑒14𝑠𝑒𝑛6 + 𝑎𝑡
(152)
Onde at é resíduo branco. A previsão sobre o test set se encontra na figura 107:
Figura 107: Forecasting da decomposição com Fourier - Sul
Fonte: Elaboração própria
Tabela 35: Medidas de ajustamento da decomposição com Fourier - Sul
Fonte: Elaboração própria
Assim como na outra decomposição, o requisito de homocedasticidade não consegue
ser verificado. Há indícios, inclusive, de que existe autocorrelação na série dos erros:
116
Figura 108: Gráfico ACF da decomposição com Fourier - Sul
Fonte: Elaboração própria
Figure 109: Teste Ljung-Box da decomposição com Fourier - Sul
Fonte: Elaboração própria
Figure 110: Teste GARCH da decomposição com Fourier - Sul
Fonte: Elaboração própria
5.6. Modelo 6: Random Forest
117
Região Centro-Oeste
Foram consideradas significativas para o modelo as variáveis: IBCR, temperatura,
unidades consumidoras, tarifa média com imposto, e consumo defasado em 1 e em 12
períodos. Após a construção de 1000 árvores, foi feita uma média das previsões de cada
uma para o test set. As previsões e as medidas de ajustamento são dadas na figura 111 e
na tabela 36.
Figura 111: Forecasting do Random Forest - Centro-Oeste
Fonte: Elaboração própria
Tabela 36: Medidas de ajustamento do Random Forest - Centro-Oeste
Fonte: Elaboração própria
118
Os pressupostos acerca dos resíduos foram satisfeitos, conforme o gráfico ACF e os
testes de hipótese:
Figura 112: Gráfico ACF do Random Forest - Centro-Oeste
Fonte: Elaboração própria
Figura 113: Teste Ljung-Box do Random Forest - Centro-Oeste
Fonte: Elaboração própria
Figura 114: Teste GARCH do Random Forest - Centro-Oeste
Fonte: Elaboração própria
119
Região Nordeste
As variáveis que entraram no modelo são: IBCR, temperatura, unidades consumidoras,
tarifa com imposto, e variáveis defasadas do consumo com lags 1, 2, 3 e 12, todas
diferenciadas de ordem 1. As médias das previsões das 1000 árvores e seus erros
seguem na figura 115 e na tabela 37, respectivamente.
Figura 115: Forecasting do Random Forest - Nordeste
Fonte: Elaboração própria
Tabela 37: Medidas de ajustamento do Random Forest - Nordeste
Fonte: Elaboração própria
120
As medidas de erro são bastante similares ao modelo com séries de Fourier, colocando-
o entre os melhores modelos. Os pressupostos, mais uma vez, são todos verificados:
Figura 116: Gráfico ACF do Random Forest - Nordeste
Fonte: Elaboração própria
Figura 117: Teste Ljung-Box do Random Forest - Nordeste
Fonte: Elaboração própria
Figura 118: Teste GARCH do Random Forest - Nordeste
Fonte: Elaboração própria
121
Região Norte
O modelo Random Forest foi ajustado às primeiras diferenças das séries explicativas
IBCR, temperatura média, unidades consuimidoras e lag 1 do consumo, a fim de prever
a primeira diferença do consumo industrial. O resultado das médias das 1000 árvores
foi:
Figura 119: Forecasting do Random Forest - Norte
Fonte: Elaboração própria
Tabela 38: Medidas de ajustamento do Random Forest - Norte
Fonte: Elaboração própria
122
Os pressupostos acerca dos resíduos são atendidos:
Figura 120: Gráfico ACF do Random Forest - Norte
Fonte: Elaboração própria
Figura 121: Teste Ljung-Box do Random Forest - Norte
Fonte: Elaboração própria
Figura 122: Teste GARCH do Random Forest - Norte
Fonte: Elaboração própria
123
Região Sudeste
As variáveis IBCR, temperatura, tarifa e lag 1 do consumo foram utilizadas no modelo
Random Forest para a região Sudeste, originando previsões, cujas médias são resumidas
na figura 123 e na tabela 39:
Figura 123: Forecasting do Random Forest - Sudeste
Fonte: Elaboração própria
Tabela 39: Medidas de ajustamento do Random Forest - Sudeste
Fonte: Elaboração própria
124
O modelo apresentou medidas de erro relativamente altas. No entanto, as condições
relativas aos resíduos foram verificadas:
Figura 124: Gráfico ACF do Random Forest - Sudeste
Fonte: Elaboração própria
Figura 125: Teste Ljung-Box do Random Forest - Sudeste
Fonte: Elaboração própria
Figura 126: Teste GARCH do Random Forest - Sudeste
Fonte: Elaboração própria
125
Região Sul
Foi ajustado um modelo Random Forest de 1000 árvores sobre a série original de
consumo da região Sul, levando em conta as variáveis: IBCR, temperatura, unidades
consumidoras, tarifa, e lags 1, 2, 3 e 12 da variável dependente. O forecasting gerou:
Figura 127: Forecasting do Random Forest - Sul
Fonte: Elaboração própria
Tabela 40: Medidas de ajustamento do Random Forest - Sul
Fonte: Elaboração própria
126
Apesar de as medidas de ajustamento serem levemente piores que as obtidas nas
decomposições, este modelo atende largamente às condições sobre os resíduos:
Figura 128: Gráfico ACF do Random Forest - Sul
Fonte: Elaboração própria
Figura 129: Teste Ljung-Box do Random Forest - Sul
Fonte: Elaboração própria
Figura 130: Teste GARCH do Random Forest - Sul
Fonte: Elaboração própria
127
5.7. Modelo 7: SVR
Região Centro-Oeste
As variáveis incluídas foram: IBCR, temperatura, unidades consumidoras, tendência
linear, séries de Fourier e consumo defasado de lags 1 e 12. Todas as variáveis foram
usadas na forma diferenciada de primeira ordem. O gráfico de forecasting e as medidas
de ajustamento são:
Figura 131: Forecasting do SVR - Centro-Oeste
Fonte: Elaboração própria
Tabela 41: Medidas de ajustamento do SVR - Centro-Oeste
Fonte: Elaboração própria
128
Os pressupostos sobre os resíduos foram novamente satisfeitos a um nível de
significância de 5%, de acordo com o gráfico ACF e os testes Ljung-Box e GARCH:
Figura 132: Gráfico ACF do SVR - Centro-Oeste
Fonte: Elaboração própria
Figura 133: Teste Ljung-Box do SVR - Centro-Oeste
Fonte: Elaboração própria
Figura 134: Teste GARCH do SVR - Centro-Oeste
Fonte: Elaboração própria
129
Região Nordeste
O modelo SVR, para a região Nordeste, levou em consideração as variáveis: tendência
linear, séries de Fourier, IBCR temperatura e unidades consumidoras, todas as variáveis
diferenciadas uma vez. Variáveis defasadas do consumo não foram consideradas
relevantes para o modelo. Os resultados da previsão foram:
Figura 135: Forecasting do SVR - Nordeste
Fonte: Elaboração própria
Tabela 42: Medidas de ajustamento do SVR - Nordeste
Fonte: Elaboração própria
130
Todos as medidas de ajustamento são mínimas para este modelo, dentro da região
Nordeste. As condições de homocedasticidade e não autocorrelação, por fim, também
são satisfeitas:
Figura 136: Gráfico ACF do SVR - Nordeste
Fonte: Elaboração própria
Figura 137: Teste Ljung-Box do SVR - Nordeste
Fonte: Elaboração própria
Figura 138: Teste GARCH do SVR - Nordeste
Fonte: Elaboração própria (2018
131
Região Norte
O modelo SVR levou em consideração as variáveis: tendência linear, variáveis
defasadas do consumo de lags 1, 3 e 12, tarifa média com imposto, IBCR temperatura e
unidades consumidoras. As previsões tiveram como resultado:
Figura 139: Forecasting do SVR - Norte
Fonte: Elaboração própria
Tabela 43: Medidas de ajustamento do SVR - Norte
Fonte: Elaboração própria
132
Os resíduos são homocedásticos e não apresentam autocorrelação:
Figura 140: Gráfico ACF do SVR - Norte
Fonte: Elaboração própria
Figura 141: Teste Ljung-Box do SVR - Norte
Fonte: Elaboração própria
Figura 142: Teste GARCH do SVR - Norte
Fonte: Elaboração própria
133
Região Sudeste
Para este modelo, foram consideradas as variáveis IBCR, tarifa e defasagens de lags 1, 3
e 12 do variável consumo. Obteve-se, após o forecasting:
Figura 143: Forecasting do SVR - Sudeste
Fonte: Elaboração própria
Tabela 44: Medidas de ajustamento do SVR - Sudeste
Fonte: Elaboração própria
134
Os resíduos atenderam aos dois pressupostos:
Figura 144: Gráfico ACF do SVR - Sudeste
Fonte: Elaboração própria
Figura 145: Teste Ljung-Box do SVR - Sudeste
Fonte: Elaboração própria
Figura 146: Teste GARCH do SVR - Sudeste
Fonte: Elaboração própria
135
Região Sul
O último modelo de machine learning, SVR, considerou as seguintes variáveis
explicativas: tarifa, IBCR, temperatura e variáveis defasadas de lag 1, 3 e 12 do
consumo. Os resultados da previsão seguem na figura 147 e na tabela 45:
Figura 147: Forecasting do SVR - Sul
Fonte: Elaboração própria
Tabela 45: Medidas de ajustamento do SVR - Sul
Fonte: Elaboração própria
136
Somando-se ao fato de as medidas de ajustamento deste modelo serem as melhores
entre todos os analisados para a região Sul, os pressupostos dos resíduos também são
verificados:
Figura 148: Gráfico ACF do SVR - Sul
Fonte: Elaboração própria
Figura 149: Teste Ljung-Box do SVR - Sul
Fonte: Elaboração própria
Figura 150: Teste GARCH do SVR - Sul
Fonte: Elaboração própria
137
5.8. Comparação entre os Modelos
Região Centro-Oeste
Todos os modelos ajustados para o consumo da região Centro-Oeste satisfizeram os
pressupostos de homocedasticidade e ausência de autocorrelação nos resíduos. A tabela
46 resume as medidas de ajustamento dos modelos.
Tabela 46: Comparação entre modelos - Centro-Oeste
Fonte: Elaboração própria
Em verde, aparecem os mínimos valores de cada uma das medidas de erro. Pode-se
perceber que a escolha do melhor modelo fica entre a regressão com erros SARIMA e o
SVR, visto que eles se revezam entre os modelos que minimizam os valores de erro.
Região Nordeste
Apresenta-se, a seguir, o resumo dos modelos ajustados para a região Nordeste. Assim
como a região Centro-Oeste, todos os modelos atenderam aos requisitos sobre as séries
de resíduos.
Tabela 47: Comparação entre modelos - Nordeste
Fonte: Elaboração própria
138
O modelo SVR desponta como o melhor modelo, sendo o que minimiza todas as
medidas de ajustamento. Além disso, os modelos de decomposição e Random Forest
apresentam medidas baixas e próximas ao SVR. A discrepância negativa fica por conta
do SARIMA, que possui MAPE de 11,32%, mais que o dobro do segundo pior modelo
(Holt Winters).
Região Norte
A tabela 48 resume os modelos para a região Norte. Todos os modelos de cujos resíduos
não atenderam a pelo menos um dos pressupostos (ausência de autocorrelação e
homocedasticidade) foram destacados em vermelho.
Tabela 48: Comparação entre modelos - Norte
Fonte: Elaboração própria
Nota-se que os dois modelos que não utilizam variáveis exógenas (SARIMA e Holt
Winters) e os dois modelos de decomposição (Fourier e Dummies) não se encaixaram
aos pressupostos, mesmo após inúmeras tentativas de melhorar os modelos, como
adicionando variáveis defasadas do consumo, diferenciando as séries, entre outras
formas. O melhor modelo em todos os quesitos, porém (regressão com erros SARIMA)
atendeu aos requisitos, sendo assim, indubitavelmente, o melhor entre os modelos.
Região Sudeste
Com exceção da decomposição com séries de Fourier, todos os modelos analisados para
a região Sudeste atenderam aos pressupostos. Suas medidas de ajustamento são
resumidas da seguinte maneira:
139
Tabela 49: Comparação entre modelos - Sudeste
Fonte: Elaboração própria
Os dois modelos de decomposição foram os que tiveram melhor performance em
termos de erro de previsão do test set. Entretanto, como apenas o que utiliza séries de
Fourier apresentou resíduos homocedásticos e não autocorrelacionados, pode-se assumi-
lo como melhor modelo para esta região.
Região Sul
Por último, os modelos testados nos dados de consumo da região Sul são resumidos na
tabela 50.
Tabela 50: Comparação entre modelos - Sul
Fonte: Elaboração própria
O modelo de decomposição que utiliza variáveis dummies apresentou os mínimos de
todas as medidas de ajustamento. Porém, como existe evidência de que seus resíduos
são heterocedásticos, opta-se por descartar este modelo, e assumir o SVR como modelo
ótimo, pois, entre os modelos que atendem aos pressupostos, ele é o que possui menores
erros de previsão.
140
Resumo dos Modelos
Na tabela 51, encontra-se os dois melhores modelos, em termos de medida de erro, por
região. Os modelos de machine learning estão pintados em verde, enquanto os modelos
com variáveis exógenas estão destacados em cinza.
Tabela 51: Melhores modelos por região
Fonte: Elaboração própria
Nota-se uma ampla predominância dos modelos de machine learning entre os melhores
modelos. O SVR, em especial, aparece como um dos melhores em 4 das 5 regiões
analisadas. Além disso, nenhum modelo que utiliza apenas a própria variável
dependente conseguiu resultados tão expressivos.
A tabela 52 exibe, por modelo e região, quais atenderam aos pressupostos de ausência
de autocorrelação e de homocedasticidade nos resíduos.
Tabela 52: Verificação dos pressupostos
Fonte: Elaboração própria
Os modelos de machine learning se destacaram mais uma vez, não violando os
pressupostos em situação alguma. Isso prova, de certa forma, sua robusteza e ampla
capacidade de explicar variações não lineares nas séries de dados. A regressão com
erros SARIMA também satisfez a todos os pressupostos. Os destaques negativos foram
141
os modelos de decomposição de séries temporais (Dummies e Fourier), que foram
descartados em diversas regiões após a análise de seus resíduos.
142
6. COMENTÁRIOS FINAIS
Este trabalho se propôs a estudar o mercado de energia elétrica industrial nas cinco
regiões do Brasil. Foram elaborados sete modelos de previsão de demanda de energia
por região.
De forma geral, as séries temporais utilizadas apresentaram estacionariedade na forma
diferencial de primeira ordem. As variáveis IBCR, número de unidades consumidoras,
tarifa média com imposto e temperatura compensada média se revezaram entre as
variáveis exógenas incluídas pelos modelos, a fim de explicar a variável dependente
consumo.
Dois pressupostos acerca dos resíduos foram testados após o ajuste de cada modelo: a
ausência de autocorrelação e a homocedasticidade. A normalidade dos erros, que é
desejável na maioria dos modelos, apesar de não ser um requisito, não foi verificada em
modelo algum, sendo por isso descartada em âmbito geral.
Ao comparar as medidas de ajustamento dos modelos de cada região, constatou-se
(considerando um empate para o Centro-Oeste) que o SVR foi o melhor modelo para
três regiões: Centro-Oeste, Nordeste e Sul. A regressão com erros SARIMA foi
escolhida como melhor modelo para as regiões Centro-Oeste e Norte. Já o modelo de
decomposição com variáveis dummies foi o melhor modelo na região Sudeste.
O SARIMA e o amortecimento exponencial Holt Winters, únicos modelos que usam
apenas a própria série do consumo na equação de previsão, apresentaram resultados
quase sempre piores que os outros modelos. No entanto, isso não deve ofuscar a
qualidade desses modelos, que têm complexidade menor devido à utilização de apenas
uma série. O uso desses modelos para a previsão requer apenas o histórico do consumo
industrial, enquanto os outros modelos exigem valores observados das outras variáveis
explicativas. Dessa forma, faz-se necessário fazer uma previsão separada sobre os
valores do IBCR, por exemplo, antes de incluir esses valores nos modelos de previsão
do consumo que utilizam esta variável.
143
As melhores medidas de ajustamento obtidas pelos modelos que utilizam variáveis
exógenas mostram que essas variáveis são importantes para explicar variações no
consumo de energia. Variações bruscas na série de consumo, causando rupturas ou
mudanças de comportamento, demoram a ser refletidas nas previsões do SARIMA e do
amortecimento exponencial. A adição das variáveis exógenas, nesse contexto, ajuda a
explicar mais rapidamente essa variação, através da incorporação de novas informações
econômicas ou meteorológicas no modelo.
Os modelos de machine learning se destacaram, apesar de não terem apresentado
resultados muito superiores aos demais. O SVR foi o melhor modelo em três ocasiões, e
teve resultados muito consistentes também nas demais regiões. O Random Forest foi um
pouco mais instável, apresentando resultados ruins nas regiões Norte e Sudeste, porém
erros baixos nas outras regiões. Além disso, todos os 10 modelos de machine learning
satisfizeram os pressupostos sobre os resíduos. Juntamente com a regressão com erros
SARIMA, foram os únicos modelos que não violaram esses requisitos em região
alguma. Isso denota a extrema capacidade desse tipo de modelo em prever relações não
lineares entre as variáveis.
Uma proposta de melhoria para este trabalho consiste em propor métodos de
aprendizado dos modelos de machine learning. O problema da otimização desses
modelos, com os algoritmos caindo frequentemente em pontos mínimos locais e não
globais, tem sido muito comentada nos mais diversos artigos.
Outra proposta de melhoria seria analisar os modelos através da técnica de
bootstrapping. Ao invés de fazer uma divisão linear e estática dos dados entre um
training set e um test set, esse método propõe a realização de sucessivas divisões dos
dados, ajustando modelos sobre cada um dos training sets obtidos, e fazendo previsões
sobre cada test set. Ao final, médias de previsão são calculadas levando em conta as
diferentes etapas, de tal maneira que se chega a medidas de ajustamento mais confiáveis
para se utilizar na avaliação e comparação de modelos.
144
REFERÊNCIAS BIBLIOGRÁFICAS
ABDEL-AAL, R. E., AL-GARNI, A. Z., AL-NASSAR, Y. N., 1996, "Modelling and
forecasting monthly electric energy consumption in eastern Saudi Arabia using
abductive networks", Energy, v. 22, pp. 911-921.
ABDEL-AAL, R. E., A-GARNI, A. Z., 1996, "Forecasting monthly electric energy
consumption in Eastern Saudi Arabia using univariate time-series analysis", Energy, v.
22, pp. 1059-1069.
ABOSEDRA, S., DAH, A., GHOSH, S., 2009, "Electricity consumption and economic
growth, the case of Lebanon", Applied Energy, v. 86, n. 2 (Ago), pp. 429–432.
AL-GARNI, A. Z., ZUBAIR, S. M., NIZAMI, J. S., 1994, "A regression model for
electric-energy-consumption forecasting in Eastern Saudi Arabia", Energy, v. 19, pp.
1043-1049.
ALVES, Luci Imaculada de Oliveira. et. al., 1997, O espaço em construção. 3ª ed Belo
Horizonte.
ANDRADE, F.F, 2009, Um Modelo para Descrição e Previsão da Demanda dos
Consumidores Industriais de Energia Elétrica. Tese de D.Sc., Universidade Federal
de Santa Catarina (UFSC), Florianópolis, SC, Brasil.
ANDRADE, G.N., SANT'ANNA, A.P., 2013 "Estimativa do impacto das variações de
temperatura sobre o consumo residencial de energia elétrica no Rio de Janeiro". XLV
Simpósio Brasileiro de Pesquisa Operacional, 949-960, Natal, Rio Grande do Norte,
Brasil, 16-19 Setembro.
ANEEL. Atlas de energia elétrica no Brasil. [S.l.]: 3ª ed, Parte I, Capítulo 1, 2008.
Disponível em: http://www2.aneel.gov.br/arquivos/PDF/atlas3ed.pdf. Acesso em: 09
ago. 2017, 11:37:00.
BOX, G. E. P., JENKINS, G. M., Time Series Analysis: Forecasting and Control.
San Francisco, Holden-Day, 1970.
145
DICKEY, D. A., FULLER, W. A., 1979, “Distribution of the Estimators for
Autoregressive Time Series with a Unit Root”, Journal of the American Statistical
Association, v. 74, pp. 427-431.
DRUCKER, H., BURGES, C., KAUFMAN, L., SMOLA, A., VAPNIK, V., 1996,
"Support Vector Regression Machines", Advances in Neural Information Processing
Systems, v. 9, pp. 155-161.
ENGLE, R. F., 1982, "Autoregressive Conditional Heteroskedasticity with Estimates of
the Variance of United Kingdom Inflation", Econometrica, v. 50, pp. 987-1007.
ENGLE, R. F., BOLLERSLEV, T., 1986, “Modelling the persistence of conditional
variances”, Econometric Reviews, v. 5, pp. 1-50.
EPE. Balanço Energético Nacional. [S.l.]: 2017. Disponível em:
https://ben.epe.gov.br/downloads/Relatorio_Final_BEN_2017.pdf. Acesso em: 26 set.
2017, 22:33:00.
FAN, G.-F., PENG, L.-L., HONG, W.-C., SUN, F., 2015, "Electric Load Forecasting by
the SVR Model with Differential Empirical Mode Decomposition and Auto
Regression", Neurocomputing, v. 173, pp. 958-970.
FIDALGO, J., MATOS, M.A., 2007. Forecasting portugal global load with artificial
neural networks. ICANN 2007, 728–737, Part II, v. 4669, Springer, Berlin, Heidelberg,
Alemanha.
FRANCO, G., Apostila de Modelos Lineares em Séries Temporais. Belo Horizonte,
s.n., 2016.
GOUDE, Y., Modélisation de Séries Temporelles. Palaiseau, s.n., 2015.
GUJARATI, D., Basic Econometrics. 4 ed. New York, The McGraw-Hill Companies,
2004.
146
HAHN, H., NIEBERG, S.M., PICKL, S., 2009, “Electric load forecasting methods:
Tools for decision making", European Journal of Operational Research, v. 199, n. 3
(Dez), pp. 902–907.
HIPPERT H.S., PEDREIRA, C.E., SOUZA, R.C., 2001, “Neural networks for short-
term load forecasting: A review and evaluation", IEEE Transactions on Power
Systems, v. 16, n. 1 (Fev), pp. 44-55.
HOLT, C. C., 2004, "Forecasting Seasonals and Trends by Exponential Weighted
Moving Averages", International Journal of Forecasting, v. 20, pp. 5-10.
HONG, W-.C., 2010, "Application of chaotic ant swarm optimization in electric load
forecasting", Energy Policy, v. 38, pp. 5830-5839.
HONG, W.-C., DONG, Y., ZHANG, W. Y., CHEN, L.-Y., PANIGRAHI, B. K., 2012,
"Cyclic electric load forecasting by seasonal SVR with chaotic genetic algorithm",
International Journal of Electrical Power & Energy Systems, v. 44, pp. 604-614.
HYNDMAN, R., Forecasting: Principles and Practice. Perth, s.n., 2014.
KOO, B.G., LEE, S.W., KIM, W., PARK, J.H., 2014 "Comparative Study of Short-term
Electric Load Forecasting". Fifth International Conference on Intelligent Systems,
Modelling and Simulation, 463-467, Teluk Nibong, Langkawi, Malaysia, 27-29
January.
LI, H., GUO, S., ZHAO, H., SU, C., WANG, B., 2012, "Annual Electric Load
Forecasting by a Least Squares Support Vector Machine with a Fruit Fly Optimization
Algorithm", Energies, v. 5, 4430-4445.
MME. Boletim de Monitoramento do Sistema Elétrico Brasileiro. [S.l.]: setembro,
2017. Disponível em: http://www.mme.gov.br/web/guest/secretarias/energia-
eletrica/publicacoes/boletim-de-monitoramento-do-sistema-eletrico/boletins-2017.
Acesso em: 23 out. 2017, 09:30:00.
147
MORAIS, P.R., 2003 Geografia geral do Brasil, 3ª ed, pp. 485,486 , São Paulo,
Harbrar.
MORETTIN, P. A.; TOLOI, C. M. C., Análise de Séries Temporais. São Paulo,
Edgard Blucher., 2004.
NASR, G.E., BADR, E.A., DIBEHB, G., 2000, “Econometric modeling of electricity
consumption in post-war Lebanon", Energy Economics, v. 22, n. 6 (Dez), pp. 627-640.
OLIVEIRA, B.H.A.M., DAMÁZIO, J.M, LEONE, R.J.G, LERMONTOV, M.,
MACHADO, M.A.S., 2010, "Um modelo de previsão do consumo residencial de
energia elétrica no Brasil", CADERNOS DO IME – Série Estatística, v. 28, pp. 15-
31.
PERRAUDIN, C., Séries Chronologiques: Quelques Elements du Cours. Paris, s.n.,
2004.
SAAB, S., BADR, E.A., NASR, G.E., 2001, “Univariate modeling and forecasting of
energy consumption: the case of electricity in Lebanon", Energy, v. 26, n. 1 (Jan), pp.
1-14.
SALLES, A., Notas de Aula - Análise de Regressão. Rio de Janeiro, s.n., 2005.
SALLES, A., Notas de Aula - Séries Temporais - Introdução aos Modelos de
Previsão. Rio de Janeiro, s.n., 2005.
SHEN Z., WU, X., SONG, Y., GUERRERO, J.M., 2016, “Model-independent approach
for short-term electric load forecasting with guaranteed error convergence", IET
Control Theory & Applications, v. 10, n. 12 (Ago), pp. 1365-1373.
SHUMWAY, R. H., STOFFER, D. S., Time Series Analysis and Its Applications:
With R Examples. 3 ed. New York, Springer, 2011.
SUYKENS, J., VANDEWALLE, J., 1999, "Least Squares Support Vector Machine
Classifiers", Neural Processing Letters, v. 9, pp. 293-300.
148
WEI, W., Time Series Analysis: Univariate and Multivariate Methods. 2 ed.
London, Addison-Wesley, 1990.
WOOLDRIDGE, J. M., Introductory Econometrics: A modern approach. 4 ed.
Nelson Education, 2005.
ZHANGA, X., WANGA, J., ZHANG, K., 2017, “Short-term electric load forecasting
based on singular spectrum analysis and support vector machine optimized by Cuckoo
search algorithm", Electric Power Systems Research, v. 146, (Mai), pp. 270-285.
149
APÊNDICE A: TESTES DE NORMALIDADE
Consumo - Sul:
Consumo - Sudeste:
150
Consumo - Norte:
Consumo - Nordeste:
151
Consumo - Centro-Oeste:
Dif1 do Consumo - Sul:
152
Dif1 do Consumo - Sudeste:
Dif1 do Consumo - Norte:
153
Dif1 do Consumo - Nordeste:
Dif1 do Consumo - Centro-Oeste:
154
IBCR - Sudeste:
IBCR - Sul:
155
IBCR - Nordeste:
IBCR - Norte:
156
IBCR - Centro-Oeste:
Dif1 do IBCR - Nordeste:
157
Dif1 do IBCR - Sudeste:
Dif1 do IBCR - Norte:
158
Dif1 do IBCR - Centro-Oeste:
Dif1 do IBCR - Sul:
159
Tarifa Média - Sudeste:
Tarifa Média - Sul:
160
Tarifa Média - Nordeste:
Tarifa Média - Norte:
161
Tarifa Média - Centro-Oeste:
Dif1 da Tarifa Média - Sul:
162
Dif1 da Tarifa Média - Sudeste:
Dif1 da Tarifa Média - Norte:
163
Dif1 da Tarifa Média - Centro-Oeste:
Dif1 da Tarifa Média - Nordeste:
164
Temperatura - Sul:
Temperatura - Nordeste:
165
Temperatura - Norte:
Temperatura - Centro-Oeste:
166
Temperatura - Sudeste:
Dif1 da Temperatura - Sul:
167
Dif1 da Temperatura - Sudeste:
Dif1 da Temperatura - Norte:
168
Dif1 da Temperatura - Nordeste:
Dif1 da Temperatura - Centro-Oeste:
169
Unidades Consumidoras - Sul:
Unidades Consumidoras - Sudeste:
170
Unidades Consumidoras - Norte:
Unidades Consumidoras - Nordeste:
171
Unidades Consumidoras - Centro-Oeste:
Dif1 das Unidades Consumidoras - Norte:
172
Dif1 das Unidades Consumidoras - Nordeste:
Dif1 das Unidades Consumidoras - Centro-Oeste:
173
Dif1 das Unidades Consumidoras - Sul:
Dif1 das Unidades Consumidoras - Sudeste:
174
APÊNDICE B: TESTES DE ESTACIONARIEDADE
Consumo de Energia Elétrica - Sudeste:
175
Consumo de Energia Elétrica - Norte:
176
Consumo de Energia Elétrica – Nordeste:
177
Consumo de Energia Elétrica - Sul:
178
Dif1 do Consumo de Energia - Sul:
179
Dif1 do Consumo de Energia - Sudeste:
180
Dif1 do Consumo de Energia - Norte:
181
Dif1 do Consumo de Energia - Nordeste:
182
Dif1 do Consumo de Energia - Centro-Oeste:
183
IBCR - Sudeste:
184
IBCR - Sul:
185
IBCR - Nordeste:
186
IBCR - Norte:
187
IBCR - Centro-Oeste:
188
Dif1 do IBCR - Nordeste:
189
Dif1 do IBCR - Sudeste:
190
Dif1 do IBCR - Norte:
191
Dif1 do IBCR - Centro-Oeste:
192
Dif1 do IBCR - Sul:
193
Tarifa Média - Sudeste:
194
Tarifa Média - Sul:
195
Tarifa Média - Nordeste:
196
Tarifa Média - Norte:
197
Tarifa Média - Centro-Oeste:
198
Dif1 da Tarifa Média - Sul:
199
Dif1 da Tarifa Média - Sudeste:
200
Dif1 da Tarifa Média - Norte:
201
Dif1 da Tarifa Média - Nordeste:
202
Dif1 da Tarifa Média - Centro-Oeste:
203
Temperatura - Sudeste:
204
Temperatura - Sul:
205
Temperatura - Nordeste:
206
Temperatura - Norte:
207
Temperatura - Centro-Oeste:
208
Dif1 da Temperatura - Sul:
209
Dif1 da Temperatura - Sudeste:
210
Dif1 da Temperatura - Norte:
211
Dif1 da Temperatura - Nordeste:
212
Dif1 da Temperatura - Centro-Oeste:
213
Unidades Consumidoras - Sul:
214
Unidades Consumidoras - Sudeste:
215
Unidades Consumidoras - Norte:
216
Unidades Consumidoras - Nordeste:
217
Unidades Consumidoras - Centro-Oeste:
218
Dif1 das Unidades Consumidoras - Sul:
219
Dif1 das Unidades Consumidoras - Sudeste:
220
Dif1 das Unidades Consumidoras - Norte:
221
Dif1 das Unidades Consumidoras - Nordeste:
222
Dif1 das Unidades Consumidoras - Centro-Oeste:
223
APÊNDICE C: CÓDIGO R DO SUDESTE
rm(list=objects());
library(zoo)
library(timeDate)
library(forecast)
library(xts)
library(dygraphs)
library(tseries)
library(matrixStats)
library(car)
library(MASS)
library(nortest)
library(e1071)
library(randomForest)
library(neural)
library(neuralnet)
library(dynlm)
library(xlsx)
library(lmtest)
library(vars)
library(kernlab)
library(caret)
library(utils)
###### FUNCOES DE ERRO #####
mape = function(y, ychap){
return(100*mean(abs(y-ychap)/abs(y)))
}
rmse = function(eps){
return(sqrt(mean(eps^2, na.rm=TRUE)))
}
224
mae = function(eps){
return(mean(abs(eps), na.rm=TRUE))
}
PRESS = function(eps){
return(sum(eps^2), na.rm=TRUE)
}
###### IMPORTACAO DOS DADOS #####
SE = read.table("Sudeste.csv", dec=",", sep=";", header=TRUE, skip=0)
SEd = read.table("Sudestedif1.csv", dec=",", sep=";", header=TRUE, skip=0)
###### INDICE t #####
SE = data.frame(SE, t=seq(1, nrow(SE)))
SEd = data.frame(SEd, t=seq(1, nrow(SEd)))
###### SERIES DE FOURIER #####
w = 2*pi/(12)
Nfourier = 6
for(i in c(1:Nfourier)){
assign(paste("cos", i, sep=""), cos(w*SE$t*i))
assign(paste("sin", i, sep=""), sin(w*SE$t*i))
}
SE = data.frame(SE, sin1, sin2, sin3, sin4, sin5, sin6, cos1, cos2, cos3, cos4, cos5, cos6)
for(i in c(1:Nfourier)){
assign(paste("cos", i, sep=""), cos(w*SEd$t*i))
assign(paste("sin", i, sep=""), sin(w*SEd$t*i))
}
SEd = data.frame(SEd, sin1, sin2, sin3, sin4, sin5, sin6, cos1, cos2, cos3, cos4, cos5,
cos6)
225
###### SERIE LAG 1 #####
lag1 = SE$Eletrobras
lag1[2:nrow(SE)] = SE$Eletrobras[1:(nrow(SE)-1)]
SE = data.frame(SE, lag1)
lag1 = SEd$Eletrobras
lag1[2:nrow(SEd)] = SEd$Eletrobras[1:(nrow(SEd)-1)]
SEd = data.frame(SEd, lag1)
###### SERIE LAG 2 #####
lag2 = SE$Eletrobras
lag2[3:nrow(SE)] = SE$Eletrobras[1:(nrow(SE)-2)]
SE = data.frame(SE, lag2)
lag2 = SEd$Eletrobras
lag2[3:nrow(SEd)] = SEd$Eletrobras[1:(nrow(SEd)-2)]
SEd = data.frame(SEd, lag2)
##### SERIE LAG 3 #####
lag3 = SE$Eletrobras
lag3[4:nrow(SE)] = SE$Eletrobras[1:(nrow(SE)-3)]
SE = data.frame(SE, lag3)
lag3 = SEd$Eletrobras
lag3[4:nrow(SEd)] = SEd$Eletrobras[1:(nrow(SEd)-3)]
SEd = data.frame(SEd, lag3)
##### SERIE LAG 12 #####
lag12 = SE$Eletrobras
lag12[13:nrow(SE)] = SE$Eletrobras[1:(nrow(SE)-12)]
SE = data.frame(SE, lag12)
lag12 = SEd$Eletrobras
lag12[13:nrow(SEd)] = SEd$Eletrobras[1:(nrow(SEd)-12)]
SEd = data.frame(SEd, lag12)
##### VARIAVEIS DUMMY #####
226
SE = data.frame(SE, model.matrix(~as.factor(SE$Month)))
for (i in c(0:10)){
colnames(SE)[ncol(SE)-i] = paste("Mes", 12-i, sep="")
}
SE = SE[-c(ncol(SE)-11)]
##### TRAINING SET E TEST SET #####
SE1 = SE[1:147,] # training set
SE2 = SE[-c(1:nrow(SE1)),] # test set
SEd1 = SEd[1:(nrow(SE1)-1),] # training set
SEd2 = SEd[-c(1:nrow(SEd1)),] # test set
###################### MODELO 1: SARIMA ######################
# Treinamento do modelo
arima1 = auto.arima(ts(SE1$Eletrobras, frequency=12), stepwise = FALSE,
approximation = FALSE, allowdrift=FALSE)
accuracy(arima1)
# Previsao sobre o test set
forecast1 = forecast(arima1, h=length(SE2$Eletrobras))
plot(forecast1)
lines(ts(SE$Eletrobras, frequency=12), col='red')
mape(as.vector(SE2$Eletrobras), as.vector(forecast1$mean))
rmse(as.vector(SE2$Eletrobras) - as.vector(forecast1$mean))
mae(as.vector(SE2$Eletrobras) - as.vector(forecast1$mean))
sum((as.vector(SE2$Eletrobras) - as.vector(forecast1$mean))^2)
# Autocorrelacao e normalidade dos residuos
erro = arima1$residuals
acf(erro, main='SARIMA - Autocorrelacao dos erros')
erro2 = erro^2
errolm = lm(erro[-length(erro)] ~ erro[-1])
summary(errolm)
227
Box.test(erro, lag=length(acf(erro)), type="Ljung")
# Pesaran
fitted = arima1$fitted
fitted2 = fitted^2
errolm2 = lm(erro2~fitted2)
summary(errolm2)
# Garch
Box.test(erro2, lag=length(acf(erro2)), type="Ljung")
###################### MODELO 2: HOLT WINTERS ######################
# Treinamento do modelo
consumo = ts(SE1$Eletrobras, frequency=12)
hw1 = HoltWinters(consumo)
# Previsao sobre o test set
forecast3 = forecast(hw1, h=length(SE2$Eletrobras))
plot(forecast3)
lines(ts(SE$Eletrobras, frequency=12), col='red')
mape(SE2$Eletrobras, forecast3$mean)
rmse(SE2$Eletrobras - forecast3$mean)
mae(SE2$Eletrobras - forecast3$mean)
sum((as.vector(SE2$Eletrobras) - as.vector(forecast3$mean))^2)
# Autocorrelacao e normalidade dos residuos
erro = residuals(hw1)
erro2 = erro^2
errolm = lm(erro[-length(erro)] ~ erro[-1])
summary(errolm)
acf(erro, main='Holt Winters - Autocorrelacao dos erros')
pacf(erro, main='Holt Winters - Autocorrelacao parcial dos erros')
Box.test(erro, lag=length(acf(erro)), type="Ljung")
228
plot(erro, main = 'Holt Winters - Serie dos erros')
# Pesaran
fitted = hw1$fitted[,1]
fitted2 = fitted^2
errolm2 = lm(erro2~fitted2)
summary(errolm2)
# Garch
Box.test(erro2, lag=length(acf(erro2)), type="Ljung")
################ MODELO 2: HOLT WINTERS (COM DIF1) ################
# Treinamento do modelo (dif1)
consumo = ts(SEd1$Eletrobras, frequency=12)
hw1 = HoltWinters(consumo)
# Previsao sobre o test set (dif1)
forecast3 = forecast(hw1, h=length(SEd2$Eletrobras))
# Calculo da previsao sobre a serie de consumo
y = rep(SE1$Eletrobras[length(SE1$Eletrobras)], length(SE2$Eletrobras))
for (i in c(2:length(y))){
y[i] = y[i-1] + forecast3$mean[i]
}
mape(SE2$Eletrobras, y)
rmse(SE2$Eletrobras - y)
mae(SE2$Eletrobras - y)
sum((as.vector(SE2$Eletrobras) - as.vector(y))^2)
plot(SE$Eletrobras, type='l', col='red', main='Holt-Winters', ylab='Consumo',
xlab='Tempo (meses)')
lines(y, x=c((length(SE1$Eletrobras)+1):length(SE$Eletrobras)), col='blue')
229
# Autocorrelacao e normalidade dos residuos
erro = residuals(hw1)
erro2 = erro^2
errolm = lm(erro[-length(erro)] ~ erro[-1])
summary(errolm)
acf(erro, main='Holt Winters - Autocorrelacao dos erros')
pacf(erro, main='Holt Winters - Autocorrelacao parcial dos erros')
Box.test(erro, lag=length(acf(erro)), type="Ljung")
plot(erro, main = 'Holt Winters - Serie dos erros')
# Pesaran
fitted = hw1$fitted[,1]
fitted2 = fitted^2
errolm2 = lm(erro2~fitted2)
summary(errolm2)
# Garch
Box.test(erro2, lag=length(acf(erro2)), type="Ljung")
######### MODELO 3: REGRESSAO LINEAR COM ERROS SARIMA #########
# Treinamento do modelo
arima2 = auto.arima(ts(SE1$Eletrobras, frequency=12), xreg=data.frame(SE1$IBCR,
SE1$TempCompensadaMedia,
SE1$TarifaMediaComImposto))
# Previsao sobre o test set
forecast2 = forecast(arima2, h=length(SE2$Eletrobras), xreg=data.frame(SE2$IBCR,
SE2$TempCompensadaMedia,
SE2$TarifaMediaComImposto))
mape(as.vector(SE2$Eletrobras), as.vector(forecast2$mean))
rmse(as.vector(SE2$Eletrobras) - as.vector(forecast2$mean))
mae(as.vector(SE2$Eletrobras) - as.vector(forecast2$mean))
sum((as.vector(SE2$Eletrobras) - as.vector(forecast2$mean))^2)
230
plot(forecast2)
lines(ts(SE$Eletrobras, frequency=12), col='red')
# Autocorrelacao e normalidade dos residuos
erro = arima2$residuals
erro2 = erro^2
errolm = lm(erro[-length(erro)] ~ erro[-1])
summary(errolm)
acf(erro, main='Regressao com erros SARIMA - Autocorrelacao dos erros')
pacf(erro)
Box.test(erro, lag=21, type="Ljung")
# Pesaran
fitted = fitted(arima2)
fitted2 = fitted^2
errolm2 = lm(erro2~fitted2)
summary(errolm2)
# Garch
Box.test(erro2, lag=length(acf(erro2)), type="Ljung")
############## MODELO 4: DECOMPOSICAO COM DUMMIES
##############
lm2 = lm(Eletrobras ~
0+lag1+lag2#+lag2+lag3+lag12#+UnidadesConsumidoras#+TempCompensadaMedia
+Mes2+Mes3+Mes4+Mes5+Mes6+Mes7+Mes8+Mes9+Mes10+Mes11+Mes12,
data=SE1)
summary(lm2)
pred2 = predict(lm2, SE2)
mape(SE2$Eletrobras, pred2)
231
rmse(as.vector(SE2$Eletrobras) - as.vector(pred2))
mae(as.vector(SE2$Eletrobras) - as.vector(pred2))
sum((as.vector(SE2$Eletrobras) - as.vector(pred2))^2)
plot(ts(SE$Eletrobras), col='red', xlab='Tempo (meses)', ylab='Consumo',
main='Forecasts decomposicao com dummies')
lines(x=c((nrow(SE1)+1):(nrow(SE))), y=ts(pred2, frequency=12), type='l', col='blue')
# Autocorrelacao e estacionariedade dos residuos
erro = SE1$Eletrobras - lm2$fitted
erro2 = erro^2
errolm = lm(erro[-length(erro)] ~ erro[-1])
summary(errolm)
acf(erro, main='Decomposicao com Dummies - Autocorrelacao dos erros')
Box.test(erro, lag=length(acf(erro)), type="Ljung")
#Garch
Box.test(erro2, lag=length(acf(erro2)), type="Ljung")
############## MODELO 5: DECOMPOSICAO COM FOURIER ##############
# Treinamento do modelo
lm1 = lm(Eletrobras ~
0+lag1+lag2+cos1+cos2+cos3+cos4+cos5+cos6+sin1+sin2+sin3+sin4+sin5+sin6,
data=SE1)
summary(lm1)
# Previsao sobre o test set
pred1 = predict(lm1, SE2)
mape(SE2$Eletrobras, pred1)
rmse(as.vector(SE2$Eletrobras) - as.vector(pred1))
mae(as.vector(SE2$Eletrobras) - as.vector(pred1))
sum((as.vector(SE2$Eletrobras) - as.vector(pred1))^2)
plot(ts(SE$Eletrobras), col='red', xlab='Tempo (meses)', ylab='Consumo',
main='Forecasts decomposicao com Fourier')
232
lines(x=c((nrow(SE1)+1):(nrow(SE))), y=ts(pred1, frequency=12), type='l', col='blue')
# Autocorrelacao e estacionariedade dos residuos
erro = SE1$Eletrobras - lm1$fitted
erro2 = erro^2
errolm = lm(erro[-length(erro)] ~ erro[-1])
summary(errolm)
acf(erro, main='Decomposicao com Fourier - Autocorrelacao dos erros')
pacf(erro, main='Decomposicao com Fourier - Autocorrelacao parcial dos erros')
Box.test(erro, lag=length(acf(erro)), type="Ljung")
plot(erro, type='l', main = 'Decomposicao com Fourier - Serie dos erros')
#Garch
Box.test(erro2, lag=length(acf(erro2)), type="Ljung")
#################### MODELO 6: RANDOM FOREST #####################
set.seed(123)
# Treinamento do modelo
arvore = randomForest(y=SE1$Eletrobras, x=cbind(SE1$IBCR,
SE1$TempCompensadaMedia,
SE1$TarifaMediaComImposto, SE1$lag1), ntree=1000)
# Previsao sobre o test set
arvore_forecast = predict(arvore, newdata=cbind(SE2$IBCR,
SE2$TempCompensadaMedia,
SE2$TarifaMediaComImposto, SE2$lag2))
mape(SE2$Eletrobras, arvore_forecast)
rmse(as.vector(SE2$Eletrobras) - as.vector(arvore_forecast))
mae(as.vector(SE2$Eletrobras) - as.vector(arvore_forecast))
sum((as.vector(SE2$Eletrobras) - as.vector(arvore_forecast))^2)
plot(ts(SE$Eletrobras), col='red', xlab='Tempo (meses)', ylab='Consumo',
main='Forecasts Random Forest')
233
lines(x=c((nrow(SE1)+1):(nrow(SE))), y=ts(arvore_forecast, frequency=12), type='l',
col='blue')
# Autocorrelacao e normalidade dos residuos
erro = SE1$Eletrobras - arvore$predicted
erro2 = erro^2
errolm = lm(erro[-length(erro)] ~ erro[-1])
summary(errolm)
acf(erro, main='Random Forest - Autocorrelacao dos erros')
pacf(erro, main='Random Forest - Autocorrelacao parcial dos erros')
Box.test(erro, lag=length(acf(erro)), type="Ljung")
# Garch
Box.test(erro2, lag=length(acf(erro2)), type="Ljung")
############### MODELO 6: RANDOM FOREST (COM DIF1) ###############
set.seed(123)
# Treinamento do modelo
arvore2 = randomForest(y=SEd1$Eletrobras, x=cbind(SEd1$IBCR,
SEd1$TempCompensadaMedia,
SEd1$lag1, SEd1$TarifaMediaComImposto),
ntree=1000)
# Previsao sobre o test set
arvore2_forecast = predict(arvore2, newdata=cbind(SEd2$IBCR,
SEd2$TempCompensadaMedia,
SEd2$lag1, SEd2$TarifaMediaComImposto))
# Calculo da previsao sobre a serie de consumo
y = rep(SE1$Eletrobras[length(SE1$Eletrobras)], length(SE2$Eletrobras))
for (i in c(2:length(y))){
y[i] = y[i-1] + arvore2_forecast[i]
}
mape(SE2$Eletrobras, y)
234
rmse(as.vector(SE2$Eletrobras) - as.vector(y))
mae(as.vector(SE2$Eletrobras) - as.vector(y))
sum((as.vector(SE2$Eletrobras) - as.vector(y))^2)
plot(ts(SE$Eletrobras), col='red', xlab='Tempo (meses)', ylab='Consumo',
main='Forecasts Random Forest')
lines(x=c((nrow(SE1)+1):(nrow(SE))), y=ts(y, frequency=12), type='l', col='blue')
# Autocorrelacao e normalidade dos residuos
erro = SEd1$Eletrobras - arvore2$predicted
erro2 = erro^2
errolm = lm(erro[-length(erro)] ~ erro[-1])
summary(errolm)
acf(erro, main='Random Forest - Autocorrelacao dos erros')
pacf(erro, main='Random Forest - Autocorrelacao parcial dos erros')
Box.test(erro, lag=length(acf(erro)), type="Ljung")
plot(erro, type='l', main = 'Random Forest - Serie dos erros')
# Garch
Box.test(erro2, lag=length(acf(erro2)), type="Ljung")
################ MODELO 7: SUPPORT VECTOR MACHINE
################
# Treinamento do modelo
set.seed(123)
svm1 = svm(Eletrobras ~
t+cos1+cos2+cos3+cos4+cos5+cos6+sin1+sin2+sin3+sin4+sin5+sin6
+IBCR+TempCompensadaMedia+UnidadesConsumidoras+TarifaMediaComImposto+l
ag1+lag12
, data=SE1)
summary(svm1)
# Previsao sobre o test set
235
pred1 = predict(svm1, SE2)
mape(SE2$Eletrobras, pred1)
# Autocorrelacao e estacionariedade dos residuos
erro = svm1$residuals
erro2 = erro^2
errolm = lm(erro[-length(erro)] ~ erro[-1])
summary(errolm)
acf(erro, main='SVM - Autocorrelacao dos erros')
pacf(erro, main='SVM - Autocorrelacao parcial dos erros')
Box.test(erro, lag=length(acf(erro)), type="Ljung")
plot(erro, type='l', main = 'SVM - Serie dos erros')
svm_tune = tune(svm, Eletrobras ~
t+cos1+cos2+cos3+cos4+cos5+cos6+sin1+sin2+sin3+sin4+sin5+sin6
+IBCR+TempCompensadaMedia+UnidadesConsumidoras+lag1+lag12
, data=SE1, ranges=list(epsillon=seq(0,0.1,0.01), cost=2^(2:4)))
svm2 = svm_tune$best.model
pred2 = predict(svm2, SE2)
mape(SE2$Eletrobras, pred2)
########## MODELO 7: SUPPORT VECTOR MACHINE (COM DIF1) ##########
# Treinamento do modelo
set.seed(123)
svm2 = svm(Eletrobras ~ lag1+lag3+lag12+TarifaMediaComImposto+IBCR,
data=SEd1)
summary(svm2)
# Previsao sobre o test set
predsvm2 = predict(svm2, SEd2)
# Calculo da previsao sobre a serie de consumo
y = rep(SE1$Eletrobras[nrow(SE1)], nrow(SE2))
236
for (i in c(2:length(y))){
y[i] = y[i-1] + predsvm2[i]
}
mape(SE2$Eletrobras, y)
rmse(as.vector(SE2$Eletrobras) - as.vector(y))
mae(as.vector(SE2$Eletrobras) - as.vector(y))
sum((as.vector(SE2$Eletrobras) - as.vector(y))^2)
plot(SE$Eletrobras, type='l', col='red', main='Forecasts SVM', ylab='Consumo')
lines(y=y, x=c((length(SE1$Eletrobras)+1):length(SE$Eletrobras)), col='blue')
# Autocorrelacao e estacionariedade dos residuos
erro = svm2$residuals
erro2 = erro^2
errolm = lm(erro[-length(erro)] ~ erro[-1])
summary(errolm)
acf(erro, main='SVM - Autocorrelacao dos erros')
pacf(erro, main='SVM - Autocorrelacao parcial dos erros')
Box.test(erro, lag=length(acf(erro)), type="Ljung")
Box.test(erro2, lag=length(acf(erro)), type="Ljung")
############## MODELO 7: SVM USANDO A FUNCAO TUNE ##############
svm_tune = tune(svm, Eletrobras ~ lag1+lag3+lag12+TarifaMediaComImposto+IBCR,
data=SEd1, ranges=list(epsillon=seq(0,0.1,0.01), cost=2^(2:4)))
svm2 = svm_tune$best.model
pred2 = predict(svm2, SEd2)
y = rep(SE1$Eletrobras[nrow(SE1)], nrow(SE2))
for (i in c(2:length(y))){
y[i] = y[i-1] + pred2[i]
}
mape(SE2$Eletrobras, y)
rmse(as.vector(SE2$Eletrobras) - as.vector(y))
mae(as.vector(SE2$Eletrobras) - as.vector(y))
237
sum((as.vector(SE2$Eletrobras) - as.vector(y))^2)
plot(ts(SE$Eletrobras), col='red', xlab='Tempo (meses)', ylab='Consumo',
main='Forecasts SVM')
lines(x=c((nrow(SE1)+1):(nrow(SE))), y=ts(y, frequency=12), type='l', col='blue')
# Autocorrelacao e estacionariedade dos residuos
erro = svm2$residuals
erro2 = erro^2
errolm = lm(erro[-length(erro)] ~ erro[-1])
summary(errolm)
acf(erro, main='SVM - Autocorrelacao dos erros')
pacf(erro, main='SVM - Autocorrelacao parcial dos erros')
Box.test(erro, lag=length(acf(erro)), type="Ljung")
# Garch
Box.test(erro2, lag=length(acf(erro2)), type="Ljung")