Está en la página 1de 37

Estadística

2009

Maestría en Finanzas
Universidad del CEMA

Profesor: Alberto Landro


Asistente: Julián R. Siri
Clase 9
1. Modelos Dinámicos y Procesos
Estocásticos
2. Procesos AR(1)
3. Procesos AR(2)
4. Procesos MA(1)
5. Procesos MA(2)
6. Estacionariedad e Invertibilidad
7. Procesos ARMA
1. Modelos Dinámicos y Procesos Estocásticos

Proceso estocástico estacionario en sentido débil


•Un proceso es estacionario de orden S cuando sus momentos de
orden S son independientes del tiempo. Esto equivale a decir,
según la definición débil del proceso estocástico, que un proceso es
estacionario si su media y varianza son iguales para cualquier t y si
el valor de la covarianza entre dos períodos de tiempo depende
solamente de la distancia o rezago entre esos dos períodos y no del
tiempo en el cual se ha calculado la covarianza.

E Y  t1  Y  t2  ...Y  t s    E Y  t1  h  Y  t 2  h  ...Y  t s  h    ti , ti  h  T , i  1, 2,...


1. Modelos Dinámicos y Procesos Estocásticos
• Entonces, sea pues Yt un proceso estocástico, será éste estacionario si
cumple con
1  E (Yt )  
2  var(Yt )  E (Yt   )  2 2

3   k  E  (Yt   )(Yt k   )
Donde la última ecuación habla sobre la covarianza con rezago k.

A partir de lo visto, existen dos formas tendientes a evaluar si un proceso


estocástico es o no estacionario. Una de las pruebas más utilizadas es el
llamado Test de Estacionariedad basado en el correlograma.
1. Modelos Dinámicos y Procesos Estocásticos
• Para ello vamos a observar la Función de Autocorrelación (FAC).
• La FAC del rezago k, que suele denotarse como ρk, se define como:
k
k 
0
• Ya que la covarianza y la varianza están medidas en las mismas
unidades, ρk es un número puro que se encuentra entre -1 y +1.

•Sin embargo, sabemos que sólo podremos trabajar con datos muestrales,
o aplicando la terminología de los modelos dinámicos, con alguna
realización del proceso estocástico bajo estudio.
1. Modelos Dinámicos y Procesos Estocásticos
•Entonces vamos a trabajar con la función de autocorrelación muestral
(FACM), para la cual deberemos calcular la covarianza muestral al
rezago k y la varianza muestral de la siguiente manera:
T

 (Y  Y )(Y
t t k Y )
ˆk  t 1
T
Y teniendo en cuenta que la varianza del proceso es:
T

 t
(Y  Y ) 2

ˆ0  t 1
T
Entonces la función de autocorrelación muestral queda definida por:
ˆk
ˆ k 
ˆ0
1. Modelos Dinámicos y Procesos Estocásticos
• La significancia estadística de cualquier ρk puede ser evaluada a partir
de su error estándar. Si estamos ante una serie de tiempo puramente
aleatoria, los coeficientes de autocorrelación muestral se distribuirán de
forma aproximadamente normal con media cero y varianza 1/T, donde T
es el número de observaciones de la muestra.

• Por lo tanto, a un nivel de significación dado, si el ρk estimado se


encuentra dentro del intervalo definido, podremos no rechazar la
hipótesis nula respecto a que el verdadero valor de ρk es igual a 0.
1. Modelos Dinámicos y Procesos Estocásticos
• Recordemos entonces que las hipótesis a contrastar en este
test son:
H 0 :  k  0 
H1 :   k  0 
• Asimismo puede realizarse un test de significatividad
conjunta en donde se evaluará si todos los coeficientes de
autocorrelación son simultáneamente iguales a cero. Box y
Pierce desarrollaron para ello el estadístico Q, el que se define
de esta manera m
Q  T  ̂ 2
k
k 1
•En donde m es la longitud del rezago. El estadístico se
distribuye como una χ2 con m grados de libertad.
1. Modelos Dinámicos y Procesos Estocásticos
• Si el Q calculado excede al Q crítico, a un determinado nivel de
significación, se puede entonces rechazar la hipótesis nula respecto a
que todos los ρk son iguales a 0.

•Existe asimismo una variante del Test Q conocida como la prueba de


Ljung, Box y Pierce (LBP). El estadístico para dicho test alternativo se
define como: m
ˆ k
2
Q LBP
 T  (T  2)  
k 1 T  k
También se distribuye como una chi cuadrado con m grados de libertad.
La regla de decisión se realizará en este test de igual manera que en el
planteo del test estadístico anterior.
1. Modelos Dinámicos y Procesos Estocásticos
• En el correlograma de la serie de precios de Petrobras podemos
ver que las series de precios de activos financieros originales
suelen mostrarnos una FAC positiva y convergente a 0 y un
cierto nivel de FACP (sólo significativa para el primer rezago).
LAG AC PAC Q Prob>Q
1 0.9852 0.9854 488.22 0.0000
2 0.9679 -0.0834 960.37 0.0000
3 0.9515 0.0357 1417.6 0.0000
4 0.9313 -0.1483 1856.5 0.0000
5 0.913 0.081 2279.1 0.0000
6 0.8967 0.0341 2687.7 0.0000
7 0.8799 -0.0061 3081.9 0.0000
8 0.8617 -0.0771 3460.7 0.0000
9 0.8463 0.0856 3826.9 0.0000
10 0.8286 -0.1041 4178.6 0.0000
11 0.8095 -0.0161 4514.9 0.0000
12 0.7926 0.0348 4838.1 0.0000
13 0.7751 -0.0155 5147.7 0.0000
14 0.7559 -0.0602 5442.8 0.0000
15 0.7377 0.01 5724.4 0.0000
16 0.72 0 5993.3 0.0000
17 0.7012 -0.0106 6248.8 0.0000
18 0.6849 0.0554 6493.1 0.0000
19 0.6701 0.0042 6727.4 0.0000
20 0.6538 -0.0339 6950.9 0.0000
2. Procesos AR(1)
• Vamos a analizar los procesos autorregresivos, que son aquellos
procesos estocásticos que, en mayor medida, pueden ser
explicados por su propia historia.

• Decíamos que un proceso que “no tiene memoria” es un


proceso autorregresivo de orden 0. Teóricamente nuestro ruido
blanco será un proceso autorregresivo de orden 0, ya que cada
observación presente no estará influida por ninguna observación
del pasado.
2. Procesos AR(1)
Sea un proceso  Yt  AR(1):

Yt    1Yt 1   t
Entonces, será condición necesaria y suficiente, para que el proceso
estocástico pueda ser considerado estacionario, que 1 sea, en valor
absoluto, menor que la unidad.
1. Procesos AR(1)
• En esta ecuación tenemos dos constantes  y 1 , y  t , que es
un ruido blanco.

•Si un modelo AR(1) es estacionario, entonces su esperanza y su


varianza son constantes en el tiempo y se tiene que:
     
a) E Yt    1 E Yt 1  E  t    1 E Yt 1  

Por lo que E  Yt    y 
1  1
b) var(Yt )  1 var(Yt 1 )  var( t ). Ahora si el proceso AR(1) es
2

estacionario, entonces var(Yt )  var(Yt 1 ) y entonces


 2
 Y2   2
1  1
3. Procesos AR(1)
La función de autocovarianzas asume la forma:
 j  Y   1j 0  Y   j  1, 2,...
Mientras que la FAC satisface la siguiente ecuación en-diferencias:
 j  Y   1 j 1  Y   j  1, 2,3,...
Cuya solución es:
j Y   Y 1
j
 j  1, 2,3,...

La FACP será de la forma:


 1  Y  para j  1
 jj  Y   
0 para j  1
3. Procesos AR(1)
Del sistema de ecuaciones de Yule-Walker obtenemos inmediatamente
que:

ˆ
1  ˆ1
YW

Recurriendo a la fórmula del coeficiente de determinación que se utilizan


en los modelos clásicos, se puede escribir:

R  1
2
 2
  AR  1     Y   
2 2


1 2 1 1
Y
3. Procesos AR(2)
• Pasemos ahora a los procesos autorregresivos de orden 2, que
denotamos con AR(2), si responden a la siguiente formulación:

Yt    1Yt 1  2Yt  2   t
• En este caso lo que estamos suponiendo es que la influencia que
puede tener la historia en el comportamiento del proceso se
resume en su rezago de orden 2.

• La FAC de un AR(2) también converge exponencialmente a 0.


4. Procesos AR(2)
Siendo:
Yt    1Yt 1  2Yt 2   t
La representación del proceso estocástico, la condición de
estacionariedad se verifica cuando las raíces de su ecuación
característica:
  B   1  1B  2 B  0 2

Son, en módulo, mayores que la unidad. Esta condición implica las


siguientes relaciones sobre los coeficientes del proceso:
2  1  1
2  1  1
2  1
4. Procesos AR(2)
La FAC del AR(2), que satisface la ecuación en-diferencias:

 j  Y   1 j 1  Y   2  j 2  Y   j  0
Queda determinada por los dos primeros valores de  j :

1
1  Y  
1  2
12
2  Y    2
1  2
4. Procesos AR(2)
La varianza, definida por la relación:

 Y2   2  1  11  Y   2  2  Y  
Se puede descomponer en:
i) Una varianza debida a las innovaciones  ;  
 2

ii) Una varianza debida a las autocorrelaciones de primer orden del


 
proceso, 1  1  Y   ;
2 1

iii) Una varianza debida a la autocorrelación parcial de segundo orden



del proceso,  2    .
1   2
Y 
1
4. Procesos AR(2)
En lo que hace a la expresión de las condiciones de estacionariedad en
función de los coeficientes de autocorrelación, teniendo en cuenta
que:
 2  Y   12  Y 
2  1
1  1  Y 
2

Se obtienen las siguientes desigualdades:

1  Y   1
2  Y   1
2  Y   2  Y   1
2
1
4. Procesos AR(2)
Teniendo en cuenta la expresión correspondiente a  dada
2

anteriormente, y recurriendo nuevamente al coeficiente de
determinación, se puede escribir:

 2  AR  2  
R22  1   1  Y  1  2  Y  2
 2
Y

Generalizando, el coeficiente de determinación correspondiente a una


representación AR(p) puede ser expresado utilizando la siguiente
fórmula recursiva:

R   pp  1  R
2
p
2
p 1  R 2
p 1  p  1, 2,3,...
4. Procesos MA(1)

• Se llama proceso de medias móviles de orden uno (MA(1), por


moving average), que se denota como

Yt     t   . t 1
•En esta ecuación tenemos dos constantes (θ y δ) y εt, que es un
ruido blanco.

•Como primeras propiedades de este proceso se tiene


inmediatamente que Eyt= δ y también que Var yt= (1+θ2).σ2ε
2. Procesos MA(1)
Representación MA(1) de la forma:

yt   t  1 t 1   1  1 B   t

(donde: i) yt denota una variable centrada y ii)   t  : WN-débil), se


verifica que:
 0  Y    2  1  12 
 1  Y   1 2

 j Y  0  j  2
2. Procesos MA(1)
• Su función de autocorrelaciones será de la forma:
 1
 j 1
 j  Y    1  12
0 j2

•Así podemos obtener fácilmente que la autocorrelación de primer orden
obedece a una ecuación de segundo grado de la forma:
112  1  1  0

Y como:
1  1  4 12
1 
2 1

Sólo puede asumir valores reales, para que el proceso sea invertible
necesariamente se tiene que verificar que…
2. Procesos MA(1)
1 1
  1 
2 2
La condición de invertibilidad exige que 1  1 y, por lo tanto, hay una
única representación MA(1) invertible para cada función de
autocorrelaciones.
•Los coeficientes de autocorrelación parcial quedan definidos, en forma
general por:
1j  1  12 
 jj  Y   2 j 1
 j  1, 2,3,...
1 1

   j
De esta expresión se concluye que jj 1 y, por lo tanto, que la función
de autocorrelaciones parciales está dominada por una función
exponencialmente decreciente.
2. Procesos MA(1)
• Si el parámetro θ es negativo, entonces la FACP converge a cero
exponencialmente alternando en signo y empezando por un valor
positivo.

• Si en cambio el parámetro θ tiene signo positivo, entonces la


convergencia va a ser con todos los valores de la FACP tomando
signo negativo.

• Nótese entonces que un proceso MA(1) no puede generar nunca


una FACP que sea siempre positiva.
4. Procesos MA(1)
• Veamos el correlograma de una serie generada para ser un
MA(1)
5. Procesos MA(2)
• Un proceso de medias móviles de orden 2 (MA(2)) es un proceso
estocástico que sigue la ley:

Yt     t  1 t 1   2 t  2
• Siguiendo un proceso de inversión similar al que hicimos con el
proceso MA(1), se puede probar fácilmente que la FACP de este
proceso puede tener diversas formas, dependiendo de los signos y
los valores relativos de θ1 y θ2. En cambio, la función de
autocovarianza cumple:
 0     (1  1   2 ). 
2 2 2 2

 1  1.(1   2 ). 2
 2   2 . 2
3. Procesos MA(2)
Representación MA(2) de la forma:

Yt     t  1 t 1   2 t  2
Condición de invertibilidad: que las raíces de
  B   1  1 B   2 B  0
2

Sean, en módulo, mayores que la unidad. Es decir, que los


coeficientes sean tales que:
 2  1  1

 2  1  1
  1
 2
3. Procesos MA(2)
• De lo anterior se desprende que:  1  1   2 
 1  Y  
 1   1
2
  2
2
  2
 2 
 Y 
 1   1
2
  2
2
  Y   0  j  3
 j

Y los valores iniciales de los coeficientes pueden ser expresados como:
0 Y 
 
2

1  12   22
2 Y 
2  
 2
 1  Y  
1    2  1 2 
  
5. Procesos MA(2)
• Veamos el correlograma de una serie generada para ser un
MA(2).
6. Estacionariedad e Invertibilidad
• Las condiciones de estacionariedad e invertibilidad son
impuestas respectivamente a los procesos AR(p) y MA(q).

•Decíamos que es deseable que un proceso AR(p) sea estacionario


de modo que se pueda estimar uno y sólo un modelo y no uno que
contenga infinitos parámetros, por ejemplo, por el cambio a cada
momento del tiempo, de la esperanza del proceso.

•Las condiciones que se imponen a los AR buscan evitar que las


sumatorias que se desarrollan se vuelvan infinitas y no converjan a
0. Los procesos AR(p) siempre son invertibles.
6. Estacionariedad e Invertibilidad

• En el caso de procesos de medias móviles, las condiciones


similares a las de estacionariedad son las de invertibilidad.
• Cuando un proceso MA es invertible, entonces dicho proceso
admite una representación autorregresiva, donde los valores
pasados de la variable yt reciben una ponderación cada vez menor.
• Cuando presentamos los modelos autorregresivos supusimos que
los procesos bajo estudio eran estacionarios. Sin embargo, las
series de datos económicos que usualmente se analizan se
caracterizan por ser claramente no estacionarias, como ya vimos la
clase pasada.
•Cuando esto ocurre, lo usual es que las primeras o segundas
diferencias de la variable original sí sean estacionarias.
4. Procesos ARMA(p,q)
• Las representaciones de procesos estocásticas vistas hasta aquí
pueden ser llamadas formas “puras”. Sin embargo, en el análisis
empírico de series económicas es muy frecuente encontrar
representaciones que tienen una componente autorregresiva así
como una componente de medias móviles. Estos modelos se
denotan como modelos ARMA(p,q) donde p y q denotan las
órdenes de los componentes autorregresivo y de medias móviles.

•La estructura de un ARMA(p,q) es:


Yt  1Yt 1  ...   pYt 1   t  1 t 1  ...   q t  q
7. Procesos ARMA
• La FAC de un proceso ARMA(1,1) comienza del valor ρ1 que
acabamos de mostrar y a partir de él, decrece a una tasa Φ. Es
decir, que la FAC se comporta a partir de k=1 como la FAC de un
proceso AR(1). Generalizando: la FAC de un proceso ARMA(p,q)
se comporta como la FAC de un AR(p) para todo k>q.

• Esto hace que la identificación no sea tan sencilla, ya que la FAC


y la FACP de un ARMA(p,q) heredan características de sus dos
componentes.
7. Procesos ARMA
• Dado que no hay reglas claras como para la identificación de los
procesos por separado, lo más común es una “iteración” hasta que
se decide qué modelo es el que mejor ajusta. Por ejemplo, a la
hora de definir un proceso ARMA(2,1) se comenzará por
especificar un AR(2) y luego, al comprobar que los residuos
siguen una forma MA(1) se especificará un ARMA(2,1).

yt  1. yt 1  2 . yt  2  ut
uˆt   t  1. t 1
luego
yt  1. yt 1  2 . yt  2   t  1. t 1  ARMA(2,1)
4. Procesos ARMA(p,q)
Coeficiente de determinación y estimación 
de los órdenes p y q
 2
 2   i
2

R 2  1  2  1  
 i 1
  0  1
Y  
 2  i2  i2
i 0 i 0

2 p  q
AIC  p, q   ln ˆ 2
  ARMA  p, q     n
 p  q  ln  n 
BIC  p, q   ln ˆ   ARMA  p, q    
2

n
2 p  q
AICC  p, q   ln ˆ 2
  ARMA  p, q     n  p  q
Se seleccionará como modelo más adecuado aquél para el cual se
verifique que: AIC  pˆ , qˆ   min  AIC  p, q  ; p  p, q  q
BIC  pˆ , qˆ   min  BIC  p, q  ; p  p, q  q

También podría gustarte