Está en la página 1de 5

Econometría
II


2008­II

Monitoría
#
3


1. Función
de
Autocorrelación
y
Autocorrelación
Parcial


La
función
de
autocorrelación
mide
la
correlación
entre
los
valores
de
la

serie
distanciados
un
lapso
de
tiempo
k.
Esta
definida
como:

ρk
=
Corr(Zt,
Zt‐k
)
=
E[(Zt
‐
m
)/s
][Zt‐k
‐
m
)/s
]


Solo
se
pueden
calcular
(como
máximo)
un
conjunto
de
coeficientes
de

autocorrelación
ρk
hasta
la
mitad
de
los
valores
observados.



La
gráfica
de
la
función
de
autocorrelación
muestral
se
le
llama
el

correlograma,
en
esta
a
cada
valor
de
k
le
asocia
la
correlación
revelada
en
la

muestra
entre
la
variable
y
su
pasado
a
distancia
k



Primer
uso
fundamental:
Detección
de
estacionalidad.
¿Hay
picos
que
se

repiten
en
lapsos
constantes
del
tiempo?




La
Autocorrelación
parcial
es
la
correlación
existente
entre
los
valores
de
una

serie
en
diferentes
instantes
después
de
que
se
hayan
eliminado
los

efectos
de
los
instantes
intermedios.
Esta
definida
como
la
correlación

condicional:


ρk
=
Corr[
Zt
,
Zt
+
k
|
Zt
+
1
,
Zt
+
2
,
Zt
+
3,
........Zt
+
k‐2
,Zt
+
k‐1]


También
es
posible
obtener
la
autocorrelación
parcial
por
medio
de
una

regresión
como
sigue:



ya
que
cada
coeficiente
equivale
a
ρk.



2. Estadísticos
Box‐Pierce
y
Ljung‐Box


Pruebas
para
determinar,
si
un
grupo
de
autocorrelaciones
de
una
serie

de
tiempo,
son
diferentes
de
cero.



Ho:
ρk
=
ρk
+1
=
ρk
+2
=
0

Ha:
ρk
=
ρk
+1
=
ρk
+2
=!
0


Box‐Pierce
:
 
 

 


Ljung‐Box:

 
 



P
<
α

Se
Rechaza

P
>
α

No
se
Rechaza


3. Tests
de
Raíz
Unitaria.



Dickey‐
Fuller:
Prueba
de
hipótesis
que
nos
permite
ver
si
una
serie
es

estacionaria.



Ho:
 γ 
=
0

 (Serie
no
es
estacionaria.)
 


Ha:
 γ 
=!
0
 (Serie
es
estacionaria.)
 



€ Regresión:
 

€ 

P
<
α

Se
Rechaza

P
>
α

No
se
Rechaza


Dickey‐
Fuller
Aumentada:
Prueba
de
hipótesis
que
nos
permite
ver
si
una

serie
es
estacionaria.



Ho:
 γ 
=
0

 (Serie
no
es
estacionaria.)
 


Ha:
 γ 
=!
0
 (Serie
es
estacionaria.)
 



€ Regresión:
 

€ 

P
<
α

Se
Rechaza

P
>
α

No
se
Rechaza



4. Cointegración




Se
conoce
que
cuando
no
se
cumple
esta
suposición
se
pueden
presentar

problemas
serios,
consistentes
en
que
dos
variables
completamente

independientes
pueden
aparecer
como
significativamente
asociadas
entre
sí

en
una
regresión,
únicamente
por
tener
ambas
una
tendencia
y
crecer
a
lo

largo
del
tiempo;
estos
casos
han
sido
popularizados
por
Granger
Y
Newbold

(1974)
con
el
nombre
de
“regresiones
espurias”[2].


Se
dice
que
un
vector
de
series
de
tiempo
xt
es
cointegrado
de
orden
d,b
(
xt

~
CI(d,b))
si
siendo
todas
las
series
del
vector
~
I(d),
existe
un
vector
de

coeficientes
a
tal
que
z
=
a‘x
~
I(d
‐b),
b
>0.
En
particular,
si
N=2
y
d=b=1
se

tiene
para
las
series
xt
y
yt,
las
cuales
son
I(1),
que
si
bien
en
general

cualquier
combinación
lineal
de
ellas
es
I(1),
si
existe
un
a
tal
que
zt=
xt
‐
ayt

es
I(0),
ellas
son
cointegrados
de
orden
1
y
el
parámetro
de
Cointegración
a

es
único.




5. Construcción
de
modelos
AR(p),
MA(q),
ARMA(p,q)
y
ARIMA(p,i,q)


Modelos
AR
‐>
Si
la
función
de
autocorrelacion
cae
exponencialmente
a
cero,

y

se
observan
valores
significativos
en
la
función
de
autocorrelacion
parcial,

es
probable
que
la
serie
pueda
modelarse
a
partir
de
un
proceso
AR.
Se

cuentan
los
valores
significativos
de
la
FAP
para
definir
el
p.


Modelos
MA
‐>
Si
la
función
de
autocorrelacion
parcial
cae
rápida
y

constantemente
a
cero,
y

se
observan
valores
significativos
en
la
función
de

autocorrelacion,
es
probable
que
la
serie
pueda
modelarse
a
partir
de
un

proceso
MA.
Se
cuentan
los
valores
significativos
de
la
FAC
para
definir
el
q.


Modelos
ARMA
‐>
Si
las
funciones
de
autocorrelacion
o
de
autocorrelacion

parcial,
caen
exponencialmente
a
cero
después
de
algunos
rezagos,
es

probable
que
se
tenga
un
modelo
que
combina
AR
y
MA.
Se
cuentan
los

valores
significativos
de
la
FAP,
antes
de
que
esta
empiece
a
caer

exponencialmente,
para
definir
el
p.
Se
cuentan
los
valores
significativos
de

la
FAC,
antes
de
que
esta
empiece
a
caer
exponencialmente,

para
definir
el
q.

El
i,
corresponde
al
numero
de
veces
que
tuvo
que
diferenciarse
la
serie
para

hacerla
estacionaria.



EJ.





En
el
dibujo,
la
función
de
autocorrelacion
cae
exponencialmente
hacia
cero.

En
la
función
de
autocorrelacion
parcial,
se
tiene
un
pico
para
k=1,
esto

significa
que
la
correlación
entre
(Zt
y
Zt‐1),
se
muestran
significativas,

mientras
que
el
valor
de
k=2,3,4,…
tienen
una
correlación
baja.
Para
localizar

los
picos
en
la
función
de
autocorrelación
(o
autocorrelacion
parcial)
uno

puede
tomar
las
primeras
20
autocorrelaciones.



6. 
Metodología
de
Box‐Jenkins
(Proyección
usando
modelos
ARIMA)


Metodología
iterativa
de
tres
etapas:

• Identificación
y
selección
del
modelo.


o Se
identifica
la
estacionalidad
y
estacionariedad
de
la
serie.
En

el
caso
en
que
sea
necesario,
se
corrigen
estos
problemas.

(Queda
definido
el
i)

o Se
usan
los
correlogramas
para
obtener
valores
p
y
q

candidatos.


• Se
estiman
los
parámetros
usando
MCO
o
MV.

• Se
diagnostica
el
modelo.

o Se
realiza
una
prueba
de
raíz
unitaria,
para
ver
si
los
errores

son
ruido
blanco.


o Si
el
modelo
pasa
la
prueba,
continuar
al
siguiente
punto.
De
lo

contrario,
volver
al
punto
1.

• Se
realiza
la
proyección.




También podría gustarte