eco econometria i - processos estacionários (box-jenkins)
TRANSCRIPT
1
FECAP – ECONOMETRIA I
PROCESSOS ESTACIONÁRIOS
1. INTRODUÇÃO
A modelagem de séries temporais univariadas (estacionárias) consiste nos seguintes
passos:
1. Especificação: uma classe geral de modelos é considerada para análise.
2. Identificar as ordens p e q do modelo.
3. Estimar o modelo.
4. Verificar se os resíduos estimados não rejeitam a hipótese nula de que são um ruído
branco.
Se não rejeitam, passa-se ao próximo passo;
Se rejeitarem, retorna-se ao primeiro passo.
5. Previsão
Nem sempre é fácil identificar as ordens do modelo univariado! Essa é a fase
crítica! É possível que vários pesquisadores identifiquem modelos diferentes para a mesma
série temporal.
OBS: Qualquer processo estacionário, mesmo não sendo linear, tem uma representação
linear.
2
Teorema de Wold: Considere um processo estacionário qualquer, ty . Tal processo pode ser
representado por dois processos mutuamente não correlacionados, um puramente
determinístico, outro puramente estocástico e que pode ser escrito como um ( )∞MA :
ttt duy +=
em que
1. tu e td não são correlacionados;
2. tu é regular, sendo representado por
∑∞
=
−=0s
ststu εψ
10 =ψ , 00
2 <∑∞
=ssψ , ( )2,0~ σε RBt ,
sendo ( ) tsdE ts ,,0 ∀=ε . Além disso, a sequência { }∞
=0ssψ e o processo { }tε são unicamente
determinados.
3. td é singular no sentido de que pode ser previsto a partir de seu próprio passado com
variância de predição nula.
3
Condições de estacionariedade e invertibilidade:
Um processo AR(p)
⇒++++= −−− tptpttt yyyy εφφφ ...2211
tptpttt yyyy εφφφ +−−−−⇒ −−− ...2211
é estacionário se as raízes da equação característica
( ) pp BBBB φφφφ +−−−= ...1 2
21
estiverem fora do circulo unitário.
→ B é o operador translação para o passado ( mttm yyB −= )
Um processo MA(q)
qtqtttty −−− −−−−= εθεθεθε ...2211
é invertível (ou seja, pode ser transformado em um AR( ∞ )) se as raízes da equação
característica
( ) qq BBBB θθθφ +−−−= ...1 2
21
estiverem fora do circulo unitário.
4
2. FUNÇÃO DE AUTOCORRELAÇÃO – FAC
FAC é o gráfico da autocorrelação contra a defasagem. Ela permite identificar a
ordem q de um processo MA.
Exemplos:
1) AR(1) : ttt yy εφ += −11 , ( )2,0~ σε RBt
Autocovariâncias:
[ ] ( ) ( )[ ] [ ] [ ]⇒+=+⋅+== −−−− tttttttttt EyyEyyEyyE εεφεφεφγ 112
111110
2
1
2
02
02
10 1 φ
σγσγφγ
−=⇒+=⇒
1111111 −−−−− +=⇒+= ttttttttt yyyyyyy εφεφ
[ ] [ ] [ ] 01111111 γφγεφ =⇒+= −−−− tttttt yEyyEyyE
φργ
γ== 1
0
1
2211211 −−−−− +=⇒+= ttttttttt yyyyyyy εφεφ
[ ] [ ] [ ] 11222112 γφγεφ =⇒+= −−−− tttttt yEyyEyyE
( ) 01011112 γφγφφγφγ ===
212
0
2 φργ
γ==
...
5
jj 1φρ =
OBS: Para obtermos a FAC de um processo AR(p), é necessário resolver o sistema
formado pelas as equações de Yule-Walker:
=
⋅
−
−
pp
p
p
ρ
ρ
ρ
φ
φ
φ
ρ
ρρ
ρρ
......
1......
............
...1
...1
2
1
2
1
1
21
11
Esse sistema pode ser resolvido pelo algoritmo de Durbin-Levinson1
Para um processo AR(2):
2
11 1 φ
φρ
−= e 2
2
21
2 1φ
φ
φρ +
−=
As demais autocorrelações são dadas por
2211 −− += jjj ρφρφρ , para j > 2
1 Ver Morettin & Toloi (2006), pág. 114.
6
2) AR(1) : ttt yy ε+= −18,0 , ( )2,0~ σε RBt
φφφφ1 0,8
t ρt
1 0,8002 0,6403 0,5124 0,4105 0,3286 0,2627 0,2108 0,1689 0,134
10 0,10711 0,08612 0,06913 0,05514 0,04415 0,03516 0,02817 0,02318 0,01819 0,01420 0,01221 0,00922 0,00723 0,00624 0,005
ρt
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
7
3) MA(1) : 11 −−= ttty εθε , ( )2,0~ σε RBt
Autocovariâncias:
[ ] ( ) ( )[ ]
[ ] [ ] ( ) 221
221
221
21
2
11110
1 σθσθσεθε
εθεεθεγ
+=+=+=
=+⋅+==
−
−−
tt
tttttt
EE
EyyE
( ) 2210 1 σθγ +=
[ ] ( ) ( )[ ] =+⋅+== −−−− 2111111 tttttt EyyE εθεεθεγ
[ ] ( ) ==+++= −−−−−−−− 111212
1111211 tttttttttt EE εεθεεθεεθεεθεε
21σθ=
( ) ( )2
1
122
1
21
0
11 11 θ
θ
σθ
σθ
γ
γρ
+=
+==
[ ] ( ) ( )[ ] =+⋅+== −−−− 3121122 tttttt EyyE εθεεθεγ
[ ] 0312
1211312 =+++= −−−−−− ttttttttE εεθεεθεεθεε
00
22 ==
γ
γρ
03 =γ
00
33 ==
γ
γρ
8
4) MA(1) : 18,0 −−= ttty εε , ( )2,0~ σε RBt
θθθθ1 -0,8
t ρt
1 -0,4882 0,0003 0,0004 0,0005 0,0006 0,0007 0,0008 0,0009 0,000
10 0,00011 0,00012 0,000
ρt
-0,5
-0,4
-0,3
-0,2
-0,1
0,0
1 2 3 4 5 6 7 8 9 10 11 12
9
5) FAC de alguns processos2:
2 Extraído de Bueno (2008), pág 41.
10
FAC para alguns processos3:
Concluímos que:
a) Para um processo MA, a autocorrelação torna-se zero após a defasagem q.
b) Genericamente, a FAC de um processo auto-regressivo é constituída de uma mistura
de polinômios, exponenciais e senóides amortecidas.
c) Para um processo ARMA, a autocorrelação decai geometricamente após a
defasagem q.
3 Extraído de Bueno (2008), pág 41.
11
3. FUNÇÃO DE AUTOCORRELAÇÃO PARCIAL – FACP
Em um modelo AR(1), existe uma correlação implícita entre ty e 2−ty (decaimento
exponencial da FAC).
As correlações podem ser filtradas de modo a manter apenas a correlação pura entre
duas observações. Esse processo gera a função de autocorrelação parcial FACP. Dessa
forma, a correlação implícita entre ty e 2−ty desaparece.
A FACP pode ser obtida das equações de Yule-Walker:
111 ρφ =
21
211
1
1
21
1
22 1
1
1
1
ρ
ρρ
ρ
ρ
ρρ
ρ
φ−
−==
1
1
1
1
1
12
11
21
312
21
11
33
ρρ
ρρ
ρρ
ρρρ
ρρ
ρρ
φ =
...
Outro procedimento consiste em regredir ty contra 1−ty e obter 1,1̂φ .
Em seguida, deve-se regredir ty contra 1−ty e 2−ty ; serão obtidos 1,2φ̂ e 2,2φ̂ , dos
quais interessa apenas o último.
tjtjjtjtjt eyyyy ++++= −−− ,22,11, ... φφφ ,
12
j = 1, 2, ...
te é um erro.
Concluímos que:
a) Se o processo for um AR(p), os coeficientes obtidos a partir de j >p deverão ser
iguais a zero.
b) Em um MA(q), dada a condição de invertibilidade que torna esse processo um
AR( ∞ ), pode-se mostrar que os coeficientes jj ,φ̂ decaem exponencialmente.
c) Em um modelo ARMA(p,q), há decaimento exponencial a partir da defasagem p.
13
4. IDENTIFICAÇÃO
A identificação é realizada com base na FAC e na FACP.
A FAC define a defasagem do MA, ou seja, q.
A FACP define a defasagem do AR, ou seja, p.
OBS:
1) Visualmente, é difícil identificar quando se inicia o decaimento exponencial.
2) Esse procedimento deve ser usado apenas como uma regra de bolso. Para calcular o
intervalo de confiança das correlações estimadas, necessita-se dos verdadeiros valores de
jρ . As variâncias das estimativas dependem de autocorrelações dependem umas das
outras, de modo que há uma contaminação no intervalo de confiança de cada uma dessas
estimativas.
3) Na prática, identifica-se o modelo por meio da FAC e FACP. Em seguida, usa-se a
estatística de Ljung-Box sobre os resíduos estimados para confirmar e reforçar os
resultados (caso os resultados não se confirmem por essa estatística, adicionam-se novas
defasagens e repete-se o processo de verificação de resíduos)
Ljung-Box: teste conjunto, cuja hipótese nula é 01
=∑=
n
jjρ (o teste pode ser
formulado para 0:0 =jH ρ , para todo j).
Modelo FAC FACPAR(p ) Decai exponencialmente Truncada na defasagem pMA(q ) Truncada na defasagem q Decai exponencialmenteARMA(p ,q ) Decai esponencialmente se j > q Decai esponencialmente se j > p
14
Critérios de Informação:
Objetivo: encontrar o número ideal de parâmetros de um modelo. O acréscimo de
regressores freqüentemente reduz a soma dos resíduos.
Para balancear a redução dos erros e o aumento do número de regressores, o critério
de informação associa uma penalidade a esse aumento. Se a penalidade for menor que a
redução do erro, o regressor adicional deve ser incorporado ao modelo.
O critério de especificação tem, em geral, a seguinte forma:
( ) ( )32143421
OPENALIZAÇÃ
T
ADEQUAÇÃO
TcTC ϕσ += 2ˆln
∑=
=T
tt
T 1
22 ˆ1
ˆ εσ é a variância dos resíduos
Tc representa o nº de parâmetros estimados
( )Tϕ é a ordem do processo, que penaliza a falta de parcimônia
Principais Critérios:
Bayesian Information Criterion (BIC): ( )T
TnqpBIC
lnˆln, 2 += σ
Akaike Information Criterion (AIC): ( )T
nqpAIC2
ˆln, 2 += σ
Hannan-Quinn (HQ): ( ) ( )TT
nqpHQ lnln2
ˆln, 2 += σ
Deseja-se o menor BIC, AIC ou HQ.
15
OBS:
1) BIC é consistente assintoticamente, tendendo a escolher um modelo mais parcimonioso
que o AIC.
2) AIC funciona melhor em pequenas amostras (é viesado para escolher modelos
sobreparametrizados)
3) HQ também é assintoticamente consistente, porém é menos forte que o critério BIC.
4) Resultados também são válidos para processos integrados.
5) Os critérios são indicados para os modelos AR (exclusivamente), embora sejam usados
indistintamente para identificar modelos ARMA.
16
5. ESTIMAÇÃO4
A estimação por Máximas Verossimilhanças Condicional e Exata têm as mesmas
propriedades assintóticas quando as raízes de ( )Bφ estão fora do círculo unitário. Essas
estimativas são todas consistentes, embora o método de Máxima Verossimilhança Exato
seja preferido por ser mais eficiente.
OBS: AR(p)
1) É importante ter estacionariedade estrita para garantir que certas condições necessárias
para inferência sejam satisfeitas.
2) Embora geralmente assuma-se distribuição normal, se a distribuição do processo gerador
de dados não for normal, as estimativas ainda serão consistentes.
3) Estimação por mínimos quadrados é consistente.
4 Para os alunos com interesse nesse assunto, recomenda-se Morettin & Toloi (2006) e Bueno (2008).
17
6. DIAGNÓSTICO DE RESÍDUOS
Estimado o modelo, deve-se verificar como ficaram os resíduos (devem ser RB).
Se não se rejeita a hipótese nula de não autocorrelação dos resíduos via FAC, FACP
e Ljung-Box, os resíduos comportam-se com um ruído branco.
Na situação em que se rejeita a hipótese nula, recomenda-se considerar o teste de
Ljung-Box (teste menos sujeito a equívocos). Nesse caso, recomenda-se olhar a FAC e a
FACP para tentar descobrir que autocorrelação sobressai e que deveria ser mais bem
modelada.
Testes Adicionais (Resíduos)
1) Teste de Normalidade: Teste Jarque-Bera
2) Autocorrelação dos Resíduos: Teste LM (Breusch-Godfrey)
3) Heterocedasticidade Condicional: Teste ARCH-LM
18
Exemplo: Série mensal do Produto Industrial (Índice, Base 2002 = 100), de janeiro de 2001
a março de 2010.
Para retirar a tendência e a sazonalidade, será usado o modelo de tendência
polinomial (linear) e sazonalidade determinística (dummies)
No Eviews:
Quick → Equation Estimation:
Equation Specification: pi c t d2 d3 d4 d5 d6 d7 d8 d9 d10 d11 d12
Method: LS – Least Squares (NLS and ARMA)
Onde d2, d3, d4, d5, d6, d7, d8, d9, d10, d11 e d12 são as dummies para os meses do ano.
PROD. INDUSTRIAL
80
90
100
110
120
130
140
jan/01 jan/02 jan/03 jan/04 jan/05 jan/06 jan/07 jan/08 jan/09 jan/10
19
O modelo estimado fica:
Dependent Variable: PI
Method: Least Squares
Sample: 2001M01 2010M03
Included observations: 111
Variable
Coefficien
t Std. Error t-Statistic Prob.
C 86.11527 2.002486 43.00417 0.0000
T 0.282104 0.016708 16.88468 0.0000
D2 -3.787104 2.516216 -1.505079 0.1355
D3 9.634792 2.516382 3.828827 0.0002
D4 5.196424 2.585595 2.009760 0.0472
D5 11.37654 2.585325 4.400431 0.0000
D6 8.968882 2.585163 3.469368 0.0008
D7 13.53678 2.585109 5.236444 0.0000
D8 16.60801 2.585163 6.424357 0.0000
D9 14.03368 2.585325 5.428208 0.0000
D10 19.45935 2.585595 7.526065 0.0000
D11 13.93725 2.585972 5.389559 0.0000
D12 1.217368 2.586458 0.470670 0.6389
R-squared 0.823803 Mean dependent var 110.8995
Adjusted R-squared 0.802228 S.D. dependent var 12.65147
S.E. of regression 5.626305 Akaike info criterion 6.402454
Sum squared resid 3102.220 Schwarz criterion 6.719787
Log likelihood -342.3362 F-statistic 38.18300
Durbin-Watson stat 0.444773 Prob(F-statistic) 0.000000
Nesse caso, apenas d2 e d12 não foram significativas a 5% (não se rejeita a hipótese
nula).
Para verificar se há sazonalidade, realiza-se um teste conjunto para as dummies com
a seguinte hipótese nula: 0:0 =jdH , j = 2, ..., 12.
20
Para saber os coeficientes estimados a serem testados:
No Eviews:
View → Representations
Estimation Command:
=====================
LS PI C T D2 D3 D4 D5 D6 D7 D8 D9 D10 D11 D12
Estimation Equation:
=====================
PI = C(1) + C(2)*T + C(3)*D2 + C(4)*D3 + C(5)*D4 + C(6)*D5 + C(7)*D6 + C(8)*D7 + C(9)*D8 +
C(10)*D9 + C(11)*D10 + C(12)*D11 + C(13)*D12
Substituted Coefficients:
=====================
PI = 86.1152672 + 0.2821042328*T - 3.787104233*D2 + 9.634791534*D3 + 5.19642381*D4 +
11.3765418*D5 + 8.968882011*D6 + 13.53677778*D7 + 16.60800688*D8 + 14.03368042*D9 +
19.45935397*D10 + 13.93724974*D11 + 1.217367725*D12
O teste de sazonalidade é feito da seguinte forma:
No Eviews:
View → Coefficient Tests → Wald Coefficient Restrictions…
Coefficiente Restrictions Separated by Commas:
C(3)= C(4)= C(5)= C(6)= C(7)= C(8)= C(9)= C(10)=C(11)= C(12)= C(13)=0
21
O PI apresenta sazonalidade porque a hipótese nula foi rejeitada:
Wald Test:
Equation: PI_DSA
Test Statistic Value df Probability
F-statistic 15.25828 (11, 98) 0.0000
Chi-square 167.8411 11 0.0000
Null Hypothesis Summary:
Normalized Restriction (= 0) Value Std. Err.
C(3) -3.787104 2.516216
C(4) 9.634792 2.516382
C(5) 5.196424 2.585595
C(6) 11.37654 2.585325
C(7) 8.968882 2.585163
C(8) 13.53678 2.585109
C(9) 16.60801 2.585163
C(10) 14.03368 2.585325
C(11) 19.45935 2.585595
C(12) 13.93725 2.585972
C(13) 1.217368 2.586458
Restrictions are linear in coefficients.
A tendência e a sazonalidades estimadas ficam:
No Eviews (na janela da equação estimada):
Forecast [OK]
O Eviews acrescenta a letra “f” ao nome da série ao criar a série prevista.
Se preferir, é só alterar o nome em dentro da caixa de diálogo do Forecast:
Serie names
Forecast name
22
As componentes de tendência e sazonalidade ficam:
A série sem tendência e sazonalidade pode ser obtida pela diferença entre a série
original (PI) e a série PIF:
No Eviews (na janela de comandos):
genr pidsa = pi – pif
70
80
90
100
110
120
130
140
150
01 02 03 04 05 06 07 08 09
PIF
Forecast: PIFActual: PI
Forecast sample: 2001M01 2010M03Included observations: 111
Root Mean Squared Error 5.286580Mean Absolute Error 3.931723
Mean Abs. Percent Error 3.543713Theil Inequality Coefficient 0.023696
Bias Proportion 0.000000 Variance Proportion 0.048418
Covariance Proportion 0.951582
23
A série sem tendência e sem sazonalidade (PIDSA) fica:
Agora podemos utilizar os modelos ARMA.
-16
-12
-8
-4
0
4
8
12
01 02 03 04 05 06 07 08 09
PIDSA
24
Para identificar as ordens p e q do modelo ARMA, devemos estimar a FAC e a
FACP.
No Eviews (na janela da série PIDSA):
View → Correlogram
Correlogram of Level
Lags to include: 24
Resultado:
Observamos que
1) A FAC tem decaimento exponencial (poderia ser truncada no lag 5?)
2) A FACP é truncada no lag 4 (os lags 9, 13, 15 e 23 parecem ser significativos!)
25
O modelo de partida será o AR(4).
Estimando esse modelo, obtemos:
No Eviews:
Quick → Equation Estimation:
Equation Specification: pidsa c ar(1) ar(2) ar(3) ar(4)
Method: LS – Least Squares (NLS and ARMA)
Dependent Variable: PIDSA
Method: Least Squares
Sample (adjusted): 2001M05 2010M03
Included observations: 107 after adjustments
Convergence achieved after 3 iterations
Variable
Coefficien
t Std. Error t-Statistic Prob.
C 0.038753 1.270324 0.030507 0.9757
AR(1) 0.628239 0.094554 6.644246 0.0000
AR(2) 0.243241 0.111452 2.182468 0.0314
AR(3) 0.249370 0.111877 2.228970 0.0280
AR(4) -0.363237 0.094475 -3.844812 0.0002
R-squared 0.658011 Mean dependent var -0.159288
Adjusted R-squared 0.644600 S.D. dependent var 5.336010
S.E. of regression 3.181086 Akaike info criterion 5.197924
Sum squared resid 1032.169 Schwarz criterion 5.322823
Log likelihood -273.0889 F-statistic 49.06388
Durbin-Watson stat 1.890958 Prob(F-statistic) 0.000000
Inverted AR Roots .78-.22i .78+.22i -.47-.58i -.47+.58i
Com exceção do termo constante, todos os coeficientes foram significativos ao nível
de 5%.
A equação estimada ficaria:
ttttt
ÑS
t PPPPP ε+−+++= −−−− 4321 363237,0249370,0243241,0628239,0038753,043421
onde P representa o Produto Industrial sem tendência e sem sazonalidade.
26
O AIC e o BIC são iguais, respectivamente, a 5,197924 e 5,322823. Esses valores
terão importância na comparação (se necessária) com outras especiuficações.
A linha “Inverted AR Roots” fornece informações sobre a condição de
estacionariedade desse modelo. Essa condição é atendida porque
( ) ( ) 181,022,078,0 221 <=±+=B e
( ) ( ) 175,058,047,0 222 <=±+=B
O procedimento seguinte é a análise dos resíduos. A estimativa da FAC e da FACP
é:
No Eviews (na janela da equação estimada):
View → Residual Tests → Correlogram – Q-statistics
Lags to include: 24
27
Como o p-valor do teste conjunto (última coluna da tabela) é maior do que 0,05,
podemos considerar que os resíduos são RB.
Dessa forma, podemos aceitar que o modelo AR(4) estimado é o modelo final.
28
OBS:
Procedimentos complementares:
1) Pode-se estimar modelos degenerados (sem lags intermediários), como por exemplo o
AR(4) sem o lag 3. Repetindo os procedimentos anteriores,
No Eviews:
Quick → Equation Estimation:
Equation Specification: pidsa c ar(1) ar(2) ar(4)
Method: LS – Least Squares (NLS and ARMA)
chegamos a
tttt
ÑS
t PPPP ε+−++= −−− 421 249736,0332998,0662974,0060066,043421
Nesse caso, a condição de estacionariedade é atendida e os resíduos são um RB. Os
valores do AIC e do BIC são, respectivamente, 5,226792 e 5,326711. Como são maiores
que os obtidos pelo AR(4) completo, este último deve ser o preferido.
29
2) Podem ser feitos testes adicionais:
a) Normalidade
No Eviews (na janela da equação estimada):
View → Residual Tests → Histogram – Normality Test
O teste de Jarque-Bera rejeita a hipótese de normalidade dos resíduos (p-valor, na
última linha, igual a zero)
0
4
8
12
16
20
-10 -5 0 5
Series: Residuals
Sample 2001M05 2010M03
Observations 107
Mean 3.54e-13
Median -0.001868
Maximum 6.639679
Minimum -13.66172
Std. Dev. 3.120488
Skewness -0.744698
Kurtosis 5.785863
Jarque-Bera 44.49120
Probability 0.000000
30
b) Teste LM (autocorrelação dos resíduos)
No Eviews (na janela da equação estimada):
View → Residual Tests → Serial Correlation LM Test
Breusch-Godfrey Serial Correlation LM Test:
F-statistic 0.608030 Probability 0.657795
Obs*R-squared 2.591171 Probability 0.628388
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Date: 09/19/10 Time: 19:43
Presample missing value lagged residuals set to zero.
Variable
Coefficien
t Std. Error t-Statistic Prob.
C -0.004807 1.283697 -0.003744 0.9970
AR(1) -0.414949 0.586746 -0.707203 0.4811
AR(2) 0.317212 0.369456 0.858590 0.3927
AR(3) 0.281108 0.339523 0.827949 0.4097
AR(4) -0.252323 0.226865 -1.112215 0.2688
RESID(-1) 0.454828 0.602968 0.754316 0.4525
RESID(-2) -0.063849 0.305172 -0.209224 0.8347
RESID(-3) -0.274868 0.281530 -0.976336 0.3313
RESID(-4) 0.181356 0.281294 0.644721 0.5206
R-squared 0.024217 Mean dependent var 3.54E-13
Adjusted R-squared -0.055439 S.D. dependent var 3.120488
S.E. of regression 3.205820 Akaike info criterion 5.248176
Sum squared resid 1007.174 Schwarz criterion 5.472993
Log likelihood -271.7774 F-statistic 0.304015
Durbin-Watson stat 1.963582 Prob(F-statistic) 0.962877
Não se rejeita a hipótese nula de inexistência de autocorrelação (os p-valores são
maiores do 0,05).
31
c) Teste ARCH-LM (heterocedasticidade condicional)
No Eviews (na janela da equação estimada):
View → Residual Tests → ARCH- LM Test
ARCH Test:
F-statistic 1.823599 Probability 0.147713
Obs*R-squared 5.394506 Probability 0.145086
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 09/19/10 Time: 19:50
Sample (adjusted): 2001M08 2010M03
Included observations: 104 after adjustments
Variable
Coefficien
t Std. Error t-Statistic Prob.
C 8.706284 2.530324 3.440778 0.0008
RESID^2(-1) 0.229994 0.101487 2.266243 0.0256
RESID^2(-2) -0.087721 0.103997 -0.843499 0.4010
RESID^2(-3) -0.017806 0.101566 -0.175318 0.8612
R-squared 0.051870 Mean dependent var 9.886212
Adjusted R-squared 0.023426 S.D. dependent var 21.45919
S.E. of regression 21.20635 Akaike info criterion 8.984180
Sum squared resid 44970.91 Schwarz criterion 9.085888
Log likelihood -463.1774 F-statistic 1.823599
Durbin-Watson stat 1.973277 Prob(F-statistic) 0.147713
O teste rejeita a hipótese nula para o quadrado dos resíduos defasados em um
período. Nesse caso, seria interessante verificar a possibilidade de que utilização de
modelos ARCH ou GARCH5.
5 Não fazem parte do programa da disciplina.