Está en la página 1de 43

Estadística

2011

Maestría en Finanzas
Universidad del CEMA

Profesor: Alberto Landro


Asistente: Julián R. Siri
Clase 9
1. Procesos AR(1)
2. Procesos AR(1) no estacionarios
3. Procesos AR(2)
4. Procesos MA(1)
5. Procesos MA(2)
6. Estacionariedad e Invertibilidad
7. Procesos ARMA(p,q)
1. Procesos AR(1)
• Vamos a analizar los procesos autorregresivos, que son aquellos
procesos estocásticos que, en mayor medida, pueden ser
explicados por su propia historia.

• Decíamos que un proceso que “no tiene memoria” es un


proceso autorregresivo de orden 0. Teóricamente nuestro ruido
blanco será un proceso AR(0), ya que cada observación presente
no estará influida por ninguna observación del pasado.
1. Procesos AR(1)
Sea un proceso Yt  AR(1):

Yt    1Yt 1   t
Entonces, será condición necesaria y suficiente, para que el proceso

estocástico pueda ser considerado estacionario, que 1 sea, en valor
absoluto, menor que la unidad.
1. Procesos AR(1)
• En esta ecuación tenemos dos constantes  y 1 , y  t , que es
un ruido blanco.

•Si un modelo AR(1) es estacionario, entonces su esperanza y su


varianza son constantes en el tiempo y se tiene que:
     
a) E Yt    1 E Yt 1  E  t    1 E Yt 1  

Por lo que E Yt    y 
1  1
b) var(Yt )  1 var(Yt 1 )  var( t ). Ahora si el proceso AR(1) es
2

estacionario, entonces var(Yt )  var(Yt 1 ) y entonces


 2
 Y2   2
1  1
1. Procesos AR(1)
La función de autocovarianzas asume la forma:
 j Y   1j 0 Y   j  1, 2,...
Mientras que la FAC satisface la siguiente ecuación en-diferencias:
 j Y   1 j 1 Y   j  1, 2,3,...
Cuya solución es:
 j Y    Y 
1
j
 j  1, 2,3,...
La FACP será de la forma:
 1 Y  para j  1
 jj Y   
0 para j  1
1. Procesos AR(1)
Del sistema de ecuaciones de Yule-Walker obtenemos inmediatamente
que:

ˆ
1  ˆ1
YW

Recurriendo a la fórmula del coeficiente de determinación que se utilizan


en los modelos clásicos, se puede escribir:
   AR 1
2

R  1  1    
2 2 2
Y
1
Y
2 1
1. Procesos AR(1)

• Aunque el interes se centra generalmente en los procesos


estocáticos estacionarios, es util analizar algun proceso no
estacionario. El Random Walk o Caminata Aleatoria es uno
generalmente estudiado. A menudo se modela el precio de las
acciones y de tipos de cambio como un random walk.

• A continuación vamos a distinguir entre dos tipos de caminatas


aleatorias: sin variaciones (es decir sin término constante) y con
variaciones (con termino constante).
2. Procesos AR(1) no estacionarios

Caminata Aleatoria sin Variaciones:


• Supongamos que εt es una variación “ruido blanco”. Entonces
la serie de Yt es de caminata aleatoria si:

Yt  Yt 1   t

• Los sostenedores del a hipótesis de Mercado de Capitales


Eficienes argumentan que el precio de las acciones sigue ese
proceso estocástico ya que el cambio en el precio se deriva de
nueva información que es por definición impredecible y tiene las
propiedades de εt
2.2.Procesos
ProcesosAR(1)
AR(1)nonoestacionarios
estacionarios

Caminata Aleatoria sin Variaciones:


• La ecuación anterior se puede escribir de la siguiente forma:

Y1  Y0   1
Y2  Y1   2  Y0   1   2
Y3  Y2   3  Y0   1   2   3

• O bien, de la siguiente forma:

Yt  Y0    t
2.2.Procesos
ProcesosAR(1)
AR(1)nonoestacionarios
estacionarios

Caminata Aleatoria sin Variaciones:


• Por lo tanto, se puede demostrar que:

E (Yt )  Y0
Var (Yt )  t *  2

• Este proceso se dice de “memoria infinita” ya que los shocks


aletorios sobreviven infinitos periodos.
• Es interesante notar que la primer diferencia de este proceso si
es estacionaria ya que:

Yt  Yt 1  Yt   t
2.2.Procesos
ProcesosAR(1)
AR(1)nonoestacionarios
estacionarios

Caminata Aleatoria con Variaciones:


• Supongamos que εt es una variación “ruido blanco”. Entonces
la serie de Yt es de caminata aleatoria con variaciones si:

Yt    Yt 1   t

• Donde ρ es el parámetro de variación. En la formula notamos


que ρ determina si Yt varia hacia arriba o abajo dependiendo de si
es positivo o negativo.
2.2.Procesos
ProcesosAR(1)
AR(1)nonoestacionarios
estacionarios

Caminata Aleatoria con Variaciones:


• Ahora se puede demostrar que:

E (Yt )  Y0  t.
Var (Yt )  t *  2

• Aca las condiciones de estacionariedad se violan también.


Ahora no solo la varianza cambia en el tiempo sino que la media
depende del momento t.
2.2.Procesos
ProcesosAR(1)
AR(1)nonoestacionarios
estacionarios

• A continuación vamos a construir dos series Random Walk, una


con variaciones y otro sin.

• Para construir la serie sin variación se utilizó la formula


correspondiente, se generaron 200 valores de εt y se supuso un Y
inicial igual a 0.

• Luego, para generar la serie con variación se utilizó la formula


correspondiente, se tomaron los mismos 200 valores de εt , se
tomo un δ=2 y también se partió de un Y inicial igual a 0.
2.2.Procesos
ProcesosAR(1)
AR(1)nonoestacionarios
estacionarios

• Caminata Aleatoria sin variaciones

25

20

15

10

0
101

121
131
141
151
161
171
181
191
201
21
31
41
51
61
71
81
91
1
11

-5 111
-10
2.2.Procesos
ProcesosAR(1)
AR(1)nonoestacionarios
estacionarios

• Caminata Aleatoria con variaciones

45
40
35
30
25
20
15
10
5
0
1

21

31

41
51

61

71

81

91

101

121

131

141

151
161

171

181

191

201
11

-5
111
3. Procesos AR(2)
• Pasemos ahora a los procesos autorregresivos de orden 2, que
denotamos con AR(2), si responden a la siguiente formulación:

Yt    1Yt 1  2Yt  2   t
• En este caso lo que estamos suponiendo es que la influencia que
puede tener la historia en el comportamiento del proceso se
resume en su rezago de orden 2.

• La FAC de un AR(2) también converge exponencialmente a 0.


3. Procesos AR(2)
Siendo:
Yt    1Yt 1  2Yt 2   t
La representación del proceso estocástico, la condición de
estacionariedad se verifica cuando las raíces de su ecuación
característica:
  B   1  1B  2 B  0 2

Son, en módulo, mayores que la unidad. Esta condición implica las


siguientes relaciones sobre los coeficientes del proceso:
2  1  1
2  1  1
2  1
3. Procesos AR(2)
La FAC del AR(2), que satisface la ecuación en-diferencias:

 j Y   1 j 1 Y   2  j 2 Y   j  0
Queda determinada por los dos primeros valores de  j:
1
1 Y  
1  2
12
 2 Y    2
1  2
3. Procesos AR(2)
La varianza, definida por la relación:

 Y2   2 1  1 1 Y   2  2 Y 
Se puede descomponer en:
i) Una varianza debida a las innovaciones  ;   2

ii) Una varianza debida a las autocorrelaciones de primer orden del


 
proceso, 1  1 Y  ;
2 1

iii) Una varianza debida a la autocorrelación parcial de segundo orden



del proceso,  2   .
1   2
Y 
1
3. Procesos AR(2)
En lo que hace a la expresión de las condiciones de estacionariedad en
función de los coeficientes de autocorrelación, teniendo en cuenta
que:
 2 Y   12 Y 
2  1
1  1 Y 
2

Se obtienen las siguientes desigualdades:

1 Y   1
 2 Y   1
 2 Y   2  Y   1
2
1
3. Procesos AR(2)
 2
Teniendo en cuenta la expresión correspondiente a  dada
anteriormente, y recurriendo nuevamente al coeficiente de
determinación, se puede escribir:

   AR  2  
2

R2  1 
2
 1 Y 1   2 Y 2
Y
2
2.
3. Procesos AR(2)
Resolviendo el correspondiente sistema de ecuaciones de Yule-Walker:
 1 Y   1  2 1 Y 

  2 Y   11 Y   2
Resultan los estimadores:
ˆ ˆ1 Y   ˆ1 Y  ˆ 2 Y 
1 
YW

1  ˆ12 Y 
ˆ 2 Y   ˆ12 Y 
ˆ2YW 
1  ˆ12 Y 

Y la FACP del proceso AR(2) está definida por las expresiones:


 2 Y   12 Y 
00 Y   1 22 Y    2
1  1 Y 
2


11 Y   1 Y   1  jj Y   0  j  2
1  2
4. Procesos MA(1)

• Se llama proceso de medias móviles de orden uno (MA(1), por


moving average), que se denota como

Yt     t   . t 1
•En esta ecuación tenemos dos constantes (θ y δ) y εt, que es un
ruido blanco.

•Como primeras propiedades de este proceso se tiene


inmediatamente que Eyt= δ y también que Var yt= (1+θ2).σ2ε
4.3.Procesos
ProcesosMA(1)
MA(1)
Representación MA(1) de la forma:

yt   t  1 t 1  1  1 B   t

(donde: i) yt denota una variable centrada y ii)  t : WN-débil), se


verifica que:
 0 Y    2 1  12 
 1 Y   1  2

 j Y   0  j  2
4.3.Procesos
ProcesosMA(1)
MA(1)
• Su función de autocorrelaciones será de la forma:
 1
 j 1
 j Y    1  12
0 j2

•Así podemos obtener fácilmente que la autocorrelación de primer orden
obedece a una ecuación de segundo grado de la forma:
112  1  1  0
Y como:
1  1  4 12
1 
2 1

Sólo puede asumir valores reales, para que el proceso sea invertible
necesariamente se tiene que verificar que…
4.3.Procesos
ProcesosMA(1)
MA(1)
1 1
  1 
2 2
La condición de invertibilidad exige que 1  1 y, por lo tanto, hay una
única representación MA(1) invertible para cada función de
autocorrelaciones.
•Los coeficientes de autocorrelación parcial quedan definidos, en forma
general por:
1j 1  12 
 jj Y   2  j 1
 j  1, 2,3,...
1 1

   j
De esta expresión se concluye que jj 1 y, por lo tanto, que la función
de autocorrelaciones parciales está dominada por una función
exponencialmente decreciente.
4.3.Procesos
ProcesosMA(1)
MA(1)
• Si el parámetro θ es negativo, entonces la FACP converge a cero
exponencialmente alternando en signo y empezando por un valor
positivo.

• Si en cambio el parámetro θ tiene signo positivo, entonces la


convergencia va a ser con todos los valores de la FACP tomando
signo negativo.

• Nótese entonces que un proceso MA(1) no puede generar nunca


una FACP que sea siempre positiva.
4.3.Procesos
ProcesosMA(1)
MA(1)
• Veamos el correlograma de una serie generada para ser un
MA(1)
5.4.Procesos
ProcesosMA(2)
MA(2)
• Un proceso de medias móviles de orden 2 (MA(2)) es un proceso
estocástico que sigue la ley:

Yt     t  1 t 1   2 t  2
• Siguiendo un proceso de inversión similar al que hicimos con el
proceso MA(1), se puede probar fácilmente que la FACP de este
proceso puede tener diversas formas, dependiendo de los signos y
los valores relativos de θ1 y θ2. En cambio, la función de
autocovarianza cumple:
 0     (1  1   2 ). 
2 2 2 2

 1  1.(1   2 ). 2
 2   2 . 2
5.4.Procesos
ProcesosMA(2)
MA(2)
Representación MA(2) de la forma:

Yt     t  1 t 1   2 t  2
Condición de invertibilidad: que las raíces de
  B   1  1 B   2 B  0
2

Sean, en módulo, mayores que la unidad. Es decir, que los


coeficientes sean tales que:
 2  1  1

 2  1  1
  1
 2
5.4.Procesos
ProcesosMA(2)
MA(2)
• De lo anterior se desprende que:  1 1   2 
 1 Y  
 1  1
2
  2
2
  2
 2 
 Y 
 1  1
2
  2
2
  Y   0  j  3
 j

Y los valores iniciales de los coeficientes pueden ser expresados como:
 0 Y 
 
2

1  12   22
 2 Y 
2   2

  1 Y  
1    2  1 2 
  
5.4.Procesos
ProcesosMA(2)
MA(2)
• Veamos el correlograma de una serie generada para ser un
MA(2).
6. Estacionariedad e Invertibilidad
• Las condiciones de estacionariedad e invertibilidad son
impuestas respectivamente a los procesos AR(p) y MA(q).

•Decíamos que es deseable que un proceso AR(p) sea estacionario


de modo que se pueda estimar uno y sólo un modelo y no uno que
contenga infinitos parámetros, por ejemplo, por el cambio a cada
momento del tiempo, de la esperanza del proceso.

•Las condiciones que se imponen a los AR buscan evitar que las


sumatorias que se desarrollan se vuelvan infinitas y no converjan a
0. Los procesos AR(p) siempre son invertibles.
6.5.Estacionariedad
Estacionariedade eInvertibilidad
Invertibilidad

• En el caso de procesos de medias móviles, las condiciones


similares a las de estacionariedad son las de invertibilidad.
• Cuando un proceso MA es invertible, entonces dicho proceso
admite una representación autorregresiva, donde los valores
pasados de la variable yt reciben una ponderación cada vez menor.
• Cuando presentamos los modelos autorregresivos supusimos que
los procesos bajo estudio eran estacionarios. Sin embargo, las
series de datos económicos que usualmente se analizan se
caracterizan por ser claramente no estacionarias, como ya vimos la
clase pasada.
•Cuando esto ocurre, lo usual es que las primeras o segundas
diferencias de la variable original sí sean estacionarias.
6. Estacionariedad e Invertibilidad
• Recordamos el caso del precio de una acción:
6.6.Estacionariedad
Estacionariedade eInvertibilidad
Invertibilidad
• Pero la primer diferencia arroja el siguiente correlograma:
6.6.Estacionariedad
Estacionariedade eInvertibilidad
Invertibilidad
• Por lo tanto, los procesos que pueden trasformarse en
estacionarios mediante sus diferencias de orden d, se conocen
como procesos integrados de orden d.

• Un proceso integrado de orden 1 es el proceso de random walk


visto anteriormente, cuya varianza era creciente con el tiempo. Sin
embargo, su primer diferencia correspondía al término ε t , el que si
es estacionario o integrado de orden 0.
7. Procesos ARMA(p,q)
• Las representaciones de procesos estocásticas vistas hasta aquí
pueden ser llamadas formas “puras”. Sin embargo, en el análisis
empírico de series económicas es muy frecuente encontrar
representaciones que tienen una componente autorregresiva así
como una componente de medias móviles. Estos modelos se
denotan como modelos ARMA(p,q) donde p y q denotan las
órdenes de los componentes autorregresivo y de medias móviles.

•La estructura de un ARMA(p,q) es:


Yt  1Yt 1  ...   pYt 1   t  1 t 1  ...   q  t  q
7.6.Procesos
ProcesosARMA(p,q)
ARMA
• La FAC de un proceso ARMA(1,1) comienza del valor ρ1 que
acabamos de mostrar y a partir de él, decrece a una tasa Φ. Es
decir, que la FAC se comporta a partir de k=1 como la FAC de un
proceso AR(1). Generalizando: la FAC de un proceso ARMA(p,q)
se comporta como la FAC de un AR(p) para todo k>q.

• Esto hace que la identificación no sea tan sencilla, ya que la FAC


y la FACP de un ARMA(p,q) heredan características de sus dos
componentes.
7.6.Procesos
ProcesosARMA(p,q)
ARMA
• Dado que no hay reglas claras como para la identificación de los
procesos por separado, lo más común es una “iteración” hasta que
se decide qué modelo es el que mejor ajusta. Por ejemplo, a la
hora de definir un proceso ARMA(2,1) se comenzará por
especificar un AR(2) y luego, al comprobar que los residuos
siguen una forma MA(1) se especificará un ARMA(2,1).

yt  1. yt 1  2 . yt  2  ut
uˆt   t  1. t 1
luego
yt  1. yt 1  2 . yt  2   t  1. t 1  ARMA(2,1)
7. Procesos ARMA(p,q)
Coeficiente de determinación y estimación

de los órdenes p y q
2
 2   i2
R  1 2  1
2
 i 1
 0  1
Y  
 2  i2  i2
i 0 i 0

2 p  q
AIC  p, q   ln ˆ   ARMA  p, q  
2

n
 p  q  ln  n 
BIC  p, q   ln ˆ   ARMA  p, q  
2

n
2 p  q
AICC  p, q   ln ˆ   ARMA  p, q  
2

n pq

Se seleccionará como modelo más adecuado aquél para el cual se verifique que:
AIC  pˆ , qˆ   min  AIC  p, q  ; p  p, q  q
BIC  pˆ , qˆ   min BIC  p, q  ; p  p, q  q
FIN

Me pueden escribir a:
jrs06@cema.edu.ar

Las presentaciones estarán colgadas en:


www.cema.edu.ar/u/jrs06

También podría gustarte