Está en la página 1de 29

TEMA-2.

pdf

Marinamariina

ECONOMETRÍA II.

3º Grado en Economía

Facultad de Ciencias Económicas y Empresariales


Universidad Autónoma de Madrid

Reservados todos los derechos.


No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Distribución de contenidos

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
TEMA 2: MODELOS ESTACIONARIOS DE SERIES TEMPORALES .................................................................................. 1
2.1. EL TEOREMA DE WOLD ............................................................................................................................................. 1
2.2. EL PROCESO LINEAL GENERAL ............................................................................................................................. 1
2.2.1. CONDICIONES DE ESTACIONARIEDAD ........................................................................................................ 1
2.2.2. CONDICIONES DE INVERTIBILIDAD ............................................................................................................... 1
2.3. PROCESOS AUTORREGRESIVOS, AR(p) .............................................................................................................. 2
2.3.1. EL PROCESO AUTORREGRESIVO DE PRIMER ORDEN, AR(1) .............................................................. 2
A) CONDICIÓN DE INVERTIBILIDAD .................................................................................................................... 3
B) CONDICIÓN DE ESTACIONARIEDAD ............................................................................................................. 3
C) ESPERANZA Y VARIANZA ................................................................................................................................ 4
D) FUNCIÓN DE AUTOCOVARIANZAS Y AUTOCORRELACIÓN .................................................................. 4
2.3.2. EL PROCESO AR(2) ............................................................................................................................................ 4
A) CONDICIONES DE INVERTIBILIDAD Y DE ESTACIONARIEDAD............................................................. 5

Reservados todos los derechos.


B) ESPERANZA.......................................................................................................................................................... 5
C) VARIANZA Y FUNCIÓN DE AUTOCOVARIANZAS ....................................................................................... 5
D) FUNCIÓN DE AUTOCORRELACIÓN (FAC) .................................................................................................... 5
2.3.3. AR(2) EXPRESADO COMO SUMA DE INNOVACIONES, MA() ............................................................... 7
2.3.4. EL PROCESO AUTORREGRESIVO GENERAL, AR(p) ................................................................................ 8
A) FUNCIÓN DE AUTOCORRELACIÓN SIMPLE ................................................................................................ 8
B) ECUACIONES DE YULE-WALKER................................................................................................................... 8
2.3.5. LA FUNCIÓN DE AUTOCORRELACIÓN PARCIAL (FACP) ........................................................................ 9
2.4. PROCESOS DE MEDIAS MÓVILES, MA(q) ........................................................................................................... 10
2.4.1. EL PROCESO DE MEDIAS MÓVILES DE PRIMER ORDEN, MA(1) ........................................................ 10
A) CONDICIÓN DE ESTACIONARIEDAD E INVERTIBILIDAD ...................................................................... 11
B) ESPERANZA Y VARIANZA .............................................................................................................................. 11
C) FUNCIÓN DE AUTOCOVARIANZAS Y AUTOCORRELACIÓN (FAC) .................................................... 11
2.4.2. MA(1) EXPRESADO COMO SUMA DE LOS VALORES PASADOS, AR() .......................................... 11
A) CONDICIÓN DE INVERTIBILIDAD DE UN AR() ........................................................................................ 12
B) LA FUNCIÓN DE AUTOCORRELACIÓN PARCIAL (FACP) ...................................................................... 12
2.4.3. EL PROCESO MA(2) .......................................................................................................................................... 12
A) ESTACIONARIEDAD E INVERITIBILIDAD .................................................................................................... 12
B) VARIANZA............................................................................................................................................................ 12
C) LA FUNCIÓN DE AUTOCOVARIANZAS Y AUTOCORRELACIÓN .......................................................... 13
2.4.4. MA(2) EXPRESADO COMO SUMA DE LOS VALORES PASADOS, AR() .......................................... 13
2.5. MODELOS MIXTOS AUTORREGRESIVOS Y MEDIAS MÓVILES, ARMA(p,q) ............................................. 15
2.5.1. EL PROCESO ARMA(1,1) ................................................................................................................................. 15
A) ESPERANZA Y VARIANZA .............................................................................................................................. 16
B) CONDICIÓN DE ESTACIONARIEDAD E INVERTIBILIDAD ...................................................................... 16
C) FUNCIONES DE AUTOCOVARIANZAS Y AUTOCORRELACIÓN ........................................................... 16
2.5.2. ARMA(1,1) EXPRESADO COMO MA() ........................................................................................................ 17
2.5.3. ARMA(1,1) EXPRESADO COMO AR() ........................................................................................................ 17
2.5.4. AJUSTE BOX Y JENKINS ................................................................................................................................. 18
A) IDENTIFICACIÓN DE LOS POSIBLES MODELOS ARMA ......................................................................... 18
B) ESTIMACIÓN ....................................................................................................................................................... 20
C) DIAGNOSIS .......................................................................................................................................................... 21
D) PREDICCIÓN ....................................................................................................................................................... 23
*SIMBOLOGÍA ........................................................................................................................................................................... 27

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
TEMA 2: MODELOS ESTACIONARIOS DE SERIES TEMPORALES
2.1. EL TEOREMA DE WOLD
El Teorema de Wold establece que todo proceso estocástico en sentido débil con media finita (𝐸(𝑋𝑡 ) = 𝜇 < ∞) y que
no tenga componentes deterministas, se puede escribir como una combinación lineal de variables aleatorias
procedentes de un ruido blanco. Esto significa que:

𝑋𝑡 = 𝜇 + 𝑎𝑡 + 𝜓1 𝑎𝑡−1 + 𝜓2 𝑎𝑡−2 + ⋯ = 𝜇 + ∑ 𝜓𝑖 𝑎𝑡−𝑖 , 𝜓0 = 1


𝑖=0
2
donde 𝐸(𝑎𝑡 ) = 0, 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 , 𝐶𝑜𝑣(𝑎𝑡 , 𝑎𝑡−𝑘 ) = 0 y ∑∞ 2
𝑖=0 𝜓𝑖 < ∞. Si utilizamos el operador de retardo, podemos escribir:
𝑋𝑡 = 𝜇 + 𝜓(B)𝑎𝑡
donde 𝜓(B) es un polinomio indefinido en el operador de retardo B: 𝜓(B) = 1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + 𝜓3 𝐵3 + ⋯
Cuando el proceso estocástico 𝑋𝑡 sigue este modelo se dice que es un proceso estocástico de medias móviles de
orden infinito: 𝑋𝑡 ~𝑀𝐴(∞) (infinito porque el orden del polinomio es indefinido).

2.2. EL PROCESO LINEAL GENERAL


Si definimos 𝑍𝑡 = 𝑋𝑡 − 𝜇, según el Teorema de Wold, podremos expresar este proceso así: 𝑍𝑡 = 𝜓(B)𝑎𝑡 Entonces,
cuando se cumple que 𝜓(B) = 1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + 𝜓3 𝐵3 + ⋯ y que 𝑎𝑡 ~ 𝑟. 𝑏., a este proceso se le conoce como proceso
lineal general de un proceso estocástico. Esto nos garantiza que todo proceso estocástico estacionario se puede
representar de forma lineal.
Y si ocurre que la distribución de 𝒂𝒕 , que hemos dicho que es ruido blanco, es Normal, tendremos que 𝑎𝑡 𝑖𝑖𝑑 𝑁(0, 𝜎 2 ),
por lo que 𝑍𝑡 ~ 𝑁(0, 𝛾0 ), de forma que se garantiza la estacionariedad en sentido estricto.

2.2.1. CONDICIONES DE ESTACIONARIEDAD


Por las condiciones del Teorema de Wold sabemos que el proceso 𝑋𝑡 es estacionario en media (𝐸(𝑋𝑡 ) = 𝜇). En
cambio, todavía no tenemos la varianza de este proceso:
∞ ∞

𝛾0 = 𝑉(𝑋𝑡 ) = 𝐸[(𝑋𝑡 − 𝜇)2 ] = 𝐸(𝑍𝑡2 ) = 𝜎 2 ∑ 𝜓𝑖2 = 𝑐𝑡𝑒 → ∑ 𝜓𝑖2 < ∞


𝑖=0 𝑖=0

La condición de estacionariedad es que la suma de los cuadrados de los coeficientes de la representación lineal
general sea finita. Calculamos ahora la función de autocovarianzas:

2
𝛾𝑘 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡+𝑘 ) = 𝐸(𝑍𝑡 𝑍𝑡−𝑘 ) = 𝜎 ∑ 𝜓𝑖 𝜓𝑖+𝑘
𝑖=0
Y la función de autocorrelaciones:
𝛾𝑘 ∑∞𝑖=0 𝜓𝑖 𝜓𝑖+𝑘
𝜌𝑘 = =
𝛾0 ∑∞
𝑖=0 𝜓𝑖
2

La condición de estacionariedad es que la suma de los cuadrados de los coeficientes del polinomio en
función del operador de retardo sea finita (∑∞ 2
𝑖=0 𝜓𝑖 < ∞). Si no se garantiza esta condición, la varianza crecería
hasta el infinito y, por tanto, no se podría calcular la función de autocorrelación.

2.2.2. CONDICIONES DE INVERTIBILIDAD


Una consecuencia del Teorema de Wold es que todo proceso estocástico estacionario admite una representación
autorregresiva que puede ser de orden infinito, lo cual significa que el proceso estocástico estacionario 𝑋𝑡 ~𝐴𝑅(∞).
Al hacer depender el valor actual 𝑋𝑡 de los valores anteriores (𝑋𝑡 = 𝑔(𝑋𝑡−𝑘 , 𝑘 ≥ 1)), el Teorema de Wold nos
garantiza que podemos realizar lo contrario, obtener su dual (el dual de 𝑀𝐴(∞) sería 𝐴𝑅(∞)). Por lo tanto, tenemos
la representación inversa de Wold:
𝑍𝑡 + 𝜋1 𝑍𝑡−1 + 𝜋2 𝑍𝑡−2 + ⋯ = 𝑎𝑡
De esta forma, en lugar de que la variable aleatoria de estudio dependa o sea una combinación de variables
aleatorias que proceden de un ruido blanco, ahora tenemos que el ruido blanco es una combinación lineal de
variables aleatorias que proceden de un proceso estocástico estacionario. Utilizando el operador de retardo, 𝜋(𝐵) =
1 + π1 𝐵 + π2 𝐵2 + π3 𝐵3 + ⋯ tenemos que 𝜋(𝐵)𝑍𝑡 = 𝑎𝑡 .

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Pero para que un proceso sea invertible se debe cumplir que la influencia de 𝒁𝒕−𝒌 sobre 𝒁𝒕 (el instante actual)
disminuya al aumentar k o, dicho de otra manera, a medida que k aumenta, 1 > π1 > π2 …, y que ∑∞ 𝟐
𝒊=𝟎 𝛑𝒊 < ∞.
Cuando se den estas dos condiciones, podremos decir que el proceso es invertible y podremos obtener un proceso
autorregresivo (AR) a partir de un proceso de medias móviles (MA).
Como ya sabemos, el proceso 𝐴𝑅(∞) es el proceso dual del 𝑀𝐴(∞) y vamos a poder verificar la condición de que
el producto de ambos polinomios en función del operador de retardo es la unidad (π(B)𝜓(B) = 1):
𝑍𝑡
𝑀𝐴(∞): 𝑍𝑡 = 𝜓(B)𝑎𝑡 → 𝑎𝑡 =
𝜓(B)
𝐴𝑅(∞): π(B)𝑍𝑡 = 𝑎𝑡
𝑍𝑡
π(B)𝑍𝑡 =
𝜓(B)
π(B)𝜓(B) = 1
Como consecuencia del Teorema de Wold, todo proceso autorregresivo (AR) de orden finito es invertible y, por su
dual, todo proceso de medias móviles (MA) de orden finito es estacionario.

Ejemplo 1: ∑∞ 2
𝜓0 = 1
𝑖=0 𝜓𝑖 < ∞

∑∞ 2
𝑖=0 π𝑖 <∞ π0 = 1

En un proceso autorregresivo de orden 1:


𝑍𝑡 − 0,7𝑍𝑡−1 = 𝑎𝑡 → (1 − 0,7𝐵)𝑍𝑡 = 𝑎𝑡 → π(B) = 1 − 0,7𝐵 + 0 · 𝐵2 + 0 · 𝐵3 …

∑ π2𝑖 = π20 + π12 = 1 + 0,49 = 1,49 < ∞


𝑖=0

Este proceso es invertible dado que cumple con la condición de invertibilidad (1,49 es un resultado finito). También,
dado que se verifica que π(B)𝜓(B) = 1 → (1 − 0,7𝐵)(1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ ) = 1

Para procesos AR de orden más alto resulta más cómodo obtener los coeficientes de la representación 𝑀𝐴(∞)
imponiendo la condición de que, al ser resultado de invertir un proceso AR, el producto de ambos operadores debe ser
la unidad:
π(B)𝜓(B) = 1

2.3. PROCESOS AUTORREGRESIVOS, AR(p)


Los procesos autorregresivos son los modelos estacionarios más simples que son útiles en la práctica para representar
la dependencia de los valores de una serie temporal de su pasado. Generalizan la idea de regresión para representar
la dependencia lineal entre dos variables aleatorias. Recordemos que el modelo de regresión simple explica la
evolución de una variable, 𝑋𝑡 , como función lineal de otra variable, 𝑋𝑡−1 , mediante la ecuación
𝑋𝑡 = 𝑐 + 𝑏𝑋𝑡−1 + 𝑎𝑡
Esto es lo que conocemos como proceso autorregresivo de primer orden, un proceso de Markov donde el valor presente
de la serie sólo depende de forma lineal del último valor observado. Esta dependencia lineal puede generalizarse
haciendo que el valor actual de la serie, 𝑋𝑡 , dependa no sólo de 𝑋𝑡−1 , sino también de los p retardos anteriores
𝑋𝑡−2 , … , 𝑋𝑡−𝑝 . Entonces se obtiene un proceso autorregresivo de orden p (𝑋𝑡 ~𝐴𝑅(𝑝)):
𝑋𝑡 = 𝛿 + 𝜙1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + ⋯ + 𝜙𝑝 𝑋𝑡−𝑝 + 𝑎𝑡
Y si el proceso tuviera media nula (𝜇 = 𝐸(𝑍𝑡 ) = 0), tendríamos el proceso sin constante: 𝑍𝑡 = 𝜙1 𝑍𝑡−1 + ⋯ + 𝜙𝑝 𝑍𝑡−𝑝 + 𝑎𝑡

2.3.1. EL PROCESO AUTORREGRESIVO DE PRIMER ORDEN, AR(1)


Diremos que un proceso estocástico 𝑋𝑡 sigue un modelo autorregresivo de orden 1 si es generado por la siguiente
ecuación:
𝑋𝑡 = 𝛿 + 𝜙1 𝑋𝑡−1 + 𝑎𝑡
siendo 𝑎𝑡 ~ 𝑟. 𝑏. con varianza 𝜎 2 y donde 𝛿 y 𝜙1 son constantes a determinar. El esquema de dependencia de las
variables tiene la siguiente forma:
𝑋𝑡−2 𝑋𝑡−1 𝑋𝑡 𝑋𝑡+1

𝑎𝑡−2 𝑎𝑡−1 𝑎𝑡 𝑎𝑡+1

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Como ejemplo de una situación donde es esperable la aparición de este proceso, consideramos que 𝑋𝑡 es la
cantidad de agua a fin de mes en un embalse. Durante el mes llega al embalse una cantidad 𝛿 + 𝑎𝑡 , donde 𝛿 es el
valor medio de la cantidad que entra y 𝑎𝑡 es la innovación, una variable aleatoria de media cero y varianza constante
que hace que la entrada varíe de unos periodos a otros. Si cada mes se gasta una proporción fija de las existencias
iniciales, (1 − 𝜙)𝑋𝑡−1 , y se mantiene la proporción 𝜙𝑋𝑡−1 , la cantidad de agua en el embalse a final de mes seguirá
el proceso que hemos definido.
En función del operador de retardo, escribimos:
𝑋𝑡 − 𝜙1 𝐵𝑋𝑡 = 𝛿 + 𝑎𝑡
(1 − 𝜙1 𝐵)𝑋𝑡 = 𝛿 + 𝑎𝑡
Diciendo que el polinomio autorregresivo es 𝜙(𝐵) = 1 − 𝜙1 𝐵 y estableciendo que 𝑍𝑡 = 𝑋𝑡 − 𝜇,
(1 − 𝜙1 𝐵)𝑍𝑡 = 𝑎𝑡

A) CONDICIÓN DE INVERTIBILIDAD
Teniendo en cuenta el Teorema de Wold, este proceso es invertible si ocurre que ∑∞ 2
𝑖=0 π𝑖 < ∞. Con el polinomio
π(B) = 1 − 𝜙1 𝐵, esta suma será de la forma ∑∞ 2 2 2
𝑖=0 π𝑖 = 1 + (−𝜙1 ) = 1 + 𝜙1 < ∞. Con lo cual, tenemos que los
procesos autorregresivos de orden 1 siempre son invertibles.
Si queremos calcular el dual de un 𝐴𝑅(1) y, así, obtener un proceso 𝑴𝑨(∞) usaremos la relación π(B)𝜓(B) =
1, donde 𝜓(B) = 1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ y donde π(B) = 1 − 𝜙1 𝐵.
𝐵0 : 1 = 1
1 = π(B)𝜓(B) = (1 − 𝜙1 𝐵)(1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ ) 𝐵1 : 𝜓1 − 𝜙1 = 0 → 𝜓1 = 𝜙1
= 1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ − 𝜙1 𝐵 − 𝜙1 𝜓1 𝐵2 𝐵2 : 𝜓2 − 𝜙1 𝜓1 = 0 → 𝜓2 = 𝜙1 𝜓1 = 𝜙12
− 𝜙1 𝜓2 𝐵3 − ⋯ 𝐵3 : 𝜓3 − 𝜙1 𝜓2 = 0 → 𝜓3 = 𝜙1 𝜓2 = 𝜙13

𝜓𝑖 = 𝜙1𝑖 𝑐𝑜𝑛 𝑖 ≥ 0
Así, (1 − 𝜙1 𝐵)𝑍𝑡 = 𝑎𝑡 → 𝑍𝑡 = (1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ ) 𝑎𝑡 = 𝑎𝑡 + 𝜓1 𝐵𝑎𝑡 + 𝜓1 𝐵2 𝑎𝑡 + ⋯
= 𝑎𝑡 + 𝜙1 𝑎𝑡−1 + 𝜙12 𝑎𝑡−2 + ⋯

B) CONDICIÓN DE ESTACIONARIEDAD
Para saber cuándo los procesos autorregresivos de orden 1 son estacionarios se debe verificar, como ya
sabemos, que ∑∞ 2
𝑖=0 𝜓𝑖 < ∞:
∞ ∞ ∞
𝜙1∞ − 1
∑ 𝜓𝑖2 = ∑ 𝜙12𝑖 = ∑(𝜙12 )𝑖 = <∞ 𝑠𝑖 − 1 < 𝜙1 < 1
𝜙12 − 1
𝑖=0 𝑖=0 𝑖=0

Por lo tanto, el proceso AR(1) será estacionario si −𝟏 < 𝝓𝟏 < 𝟏. Esta forma de averiguar si un proceso AR(1)
es estacionario es bastante laborioso, aunque nos sirve para aprender a expresar el autorregresivo de orden 1
como un proceso de medias móviles de orden infinito, y existe otra forma más sencilla de calcularlo. También
podemos analizar la estacionariedad con las raíces del polinomio autorregresivo, con las soluciones que lo
anulan:
𝜙(𝜆) = 1 − 𝜙1 𝜆
1
1 − 𝜙1 𝜆 = 0 → 𝜆 =
𝜙1
|𝜙1 | < 1 → |𝜆| > 1
Dado que la condición de estacionariedad es que |𝜙1 | < 1, esto implica que el módulo de las raíces del polinomio,
|𝜆| > 1. Con un ejemplo, dado un proceso 𝑋𝑡 − 0,8𝑋𝑡−1 = 2 + 𝑎𝑡 , podemos afirmar que es estacionario dado que
1 1
𝜙1 = 0,8 < 1 y dado que 𝜆 = = = 1,25 > 1.
𝜙1 0,8

Ejemplo 2: Dado el siguiente proceso, analizar su estacionariedad:


𝑋𝑡 + 1,3𝑋𝑡−1 = 1 + 𝑎𝑡
Aquí, 𝜙1 = −1,3 (porque el retardo tiene signo negativo), |𝜙1 | > 1, por lo que el proceso no es estacionario.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
C) ESPERANZA Y VARIANZA
La esperanza se obtiene tomando esperanzas en 𝑋𝑡 = 𝛿 + 𝜙1 𝑋𝑡−1 + 𝑎𝑡 para 𝑎𝑡 ~ 𝑟. 𝑏. y supuesto |𝜙1 | < 1 (de
manera que 𝐸(𝑋𝑡 ) = 𝐸(𝑋𝑡−1 ) = 𝜇), con lo cual:

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
𝛿
𝜇 = 𝐸(𝑋𝑡 ) = 𝐸(𝛿 + 𝜙1 𝑋𝑡 + 𝑎𝑡 ) = 𝛿 + 𝜙1 𝐸(𝑋𝑡−1 ) + 𝐸(𝑎𝑡 ) = 𝛿 + 𝜙1 𝜇 + 0 → 𝜇 =
𝜙1
Sabiendo que 𝑍𝑡 = 𝑋𝑡 − 𝜇 = 𝜙1 𝑍𝑡−1 + 𝑎𝑡 , la varianza del proceso se obtiene:

𝛾0 = 𝑉(𝑋𝑡 ) = 𝐸(𝑍𝑡2 ) = 𝐸[(𝜙1 𝑋𝑡−1 + 𝑎𝑡 )2 ] = 𝐸(𝜙12 𝑍𝑡−1


2
+ 𝑎𝑡2 + 2𝜙1 𝑍𝑡−1 𝑎𝑡 ) = 𝜙12 𝐸(𝑍𝑡−1
2 )
+ 𝐸(𝑎𝑡2 ) + 2𝜙1 𝐸(𝑍𝑡−1 𝑎𝑡 )1
= 𝜙12 𝛾0 + 𝜎 2 2
𝜎2
𝛾0 =
1 − 𝜙2

D) FUNCIÓN DE AUTOCOVARIANZAS Y AUTOCORRELACIÓN


La información sobre la dependencia lineal entre las variables de una serie temporal generada por un proceso
estacionario se encuentra, como ya hemos visto, en la función de autocovarianzas.
𝛾𝑘 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡−𝑘 ) = 𝐸[(𝑋𝑡 − 𝜇)(𝑋𝑡−𝑘 − 𝜇)] = 𝐸(𝑍𝑡 𝑍𝑡−𝑘 ) = 𝐸[(𝜙1 𝑍𝑡−1 + 𝑎𝑡 )𝑍𝑡−𝑘 ] = 𝐸(𝜙1 𝑍𝑡−1 𝑍𝑡−𝑘 + 𝑎𝑡 𝑍𝑡−𝑘 )
= 𝜙1 𝐸(𝑍𝑡−1 𝑍𝑡−𝑘 ) + 𝐸(𝑎𝑡 𝑍𝑡−𝑘 ) = 𝜙1 𝛾𝑘−1

Reservados todos los derechos.


𝜙1 𝜎 2
𝛾1 = 𝜙1 𝛾0 =
1 − 𝜙21
𝛾2 = 𝜙1 𝛾1 = 𝜙21 𝛾0
𝛾3 = 𝜙1 𝛾2 = 𝜙31 𝛾0

𝛾𝑘 = 𝜙𝑘1 𝛾0
Las autocorrelaciones contienen la misma información que las autocovarianzas, con la ventaja de no depender
de las unidades de medida. Sea 𝜌𝑘 la correlación entre observaciones separadas por k periodos, la función de
autocorrelación está definida por:
𝛾𝑘 𝜙𝑘1 𝛾0
𝜌𝑘 = = = 𝜙𝑘1
𝛾0 𝛾0
Para que se de la condición de estacionariedad débil, necesitamos que 𝜌𝑘 → 0 (con una rapidez que depende
𝑘→∞
de 𝜙), lo cual sí se verifica. Así pues, si calculamos la sucesión de los coeficientes de autocorrelación, podremos
dibujarlos en un correlograma.
FAC: AR(1)
0 < 𝜙1 < 1 −1 < 𝜙1 < 0

2.3.2. EL PROCESO AR(2)


La dependencia entre los valores presentes y los pasados que establece un proceso AR(1) puede generalizarse
permitiendo que 𝑋𝑡 dependa linealmente no sólo de 𝑋𝑡−1 , sino también de 𝑋𝑡−2 . Se obtiene entonces el proceso
autorregresivo de segundo orden, o proceso AR(2):
𝑋𝑡 = 𝛿 + 𝜙1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + 𝑎𝑡
donde ahora 𝛿, 𝜙1 y 𝜙2 son constantes a determinar y 𝑎𝑡 un proceso de ruido blanco con varianza 𝜎 2 . Esta ecuación
es válida cuando la media marginal del proceso ≠ 0. Si proseguimos con un cambio de variable tal que 𝑍𝑡 = 𝑋𝑡 − 𝜇,
entonces el proceso no tendría constante y la media marginal del proceso ≠ 0:

1
𝐸(𝑍𝑡−1 𝑎𝑡 ) = 0 ya que la innovación del futuro no influye en las variables del pasado.
2
𝐸(𝑎𝑡2 ) = 𝜎 2 porque, al ser r.b. y, por lo tanto, tener media = 0, la esperanza del cuadrado de la variable es su varianza.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
𝑍𝑡 = 𝜙1 𝑍𝑡−1 + 𝜙2 𝑍𝑡−2 + 𝑎𝑡
𝑍𝑡 − 𝜙1 𝑍𝑡−1 − 𝜙2 𝑍𝑡−2 = 𝑎𝑡
(1 − 𝜙1 𝐵 + 𝜙2 𝐵2 )𝑍𝑡 = 𝑎𝑡 ; 𝜙(𝐵) = 1 − 𝜙1 𝐵 + 𝜙2 𝐵2

A) CONDICIONES DE INVERTIBILIDAD Y DE ESTACIONARIEDAD


Por el Teorema de Wold, el proceso AR(2) es invertible (y todo proceso autorregresivo de orden finito), y será
estacionario si las raíces del polinomio autorregresivo están fuera del círculo unidad, es decir, su módulo es
mayor que 1 (en módulo, y no en valor absoluto, porque nos podemos encontrar con raíces complejas):
𝜙(𝜆) = 0 → 1 − 𝜙1 𝜆 − 𝜙1 𝜆2 = 0 → 𝜆1 , 𝜆2

B) ESPERANZA
Suponiendo que el proceso es estacionario y sabiendo que es invertible, para 𝑎𝑡 ~ 𝑟. 𝑏., supuesto |𝜙1 | < 1 (de
manera que 𝐸(𝑋𝑡 ) = 𝐸(𝑋𝑡−1 ) = 𝜇), calculamos la esperanza:
𝜇 = 𝐸(𝑋𝑡 ) = 𝐸(𝛿 + 𝜙1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + 𝑎𝑡 ) = 𝛿 + 𝜙1 𝐸(𝑋𝑡−1 ) + 𝜙2 𝐸(𝑋𝑡−2 ) + 𝐸(𝑎𝑡 )
𝛿
𝜇 = 𝛿 + 𝜙1 𝜇 + 𝜙2 𝜇 → 𝜇 =
1 − 𝜙1 − 𝜙2

C) VARIANZA Y FUNCIÓN DE AUTOCOVARIANZAS


Sabiendo que 𝑍𝑡 = 𝑋𝑡 − 𝜇 = 𝜙1 𝑍𝑡−1 + 𝑎𝑡 y que su media es cero, la varianza del proceso se obtiene:
𝛾0 = 𝑉(𝑋𝑡 ) = 𝐸(𝑍𝑡2 ) = 𝐸[(𝜙1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + 𝑎𝑡 )2 ]
= 𝐸(𝜙12 𝑍𝑡−1
2
+ 𝜙22 𝑍𝑡−2
2
+ 𝑎𝑡2 + 2𝜙1 𝜙2 𝑍𝑡−1 𝑍𝑡−2 + 2𝜙1 𝑍𝑡−1 𝑎𝑡 + 2𝜙2 𝑍𝑡−2 𝑎𝑡 )
2 2 ) 2 2 )
= 𝜙1 𝐸(𝑍𝑡−1 + 𝜙2 𝐸(𝑍𝑡−2 + 𝐸(𝑎𝑡2 ) + 2𝜙1 𝜙2 𝐸(𝑍𝑡−1 𝑍𝑡−2 )3 + 2𝜙1 𝐸(𝑎𝑡 𝑍𝑡−1 ) + 2𝜙2 𝐸(𝑎𝑡 𝑍𝑡−2 )
(1 − 𝜙2 )𝜎 2
= 𝜙12 𝛾0 + 𝜙22 𝛾0 4 + 𝜎 2 + 2𝜙1 𝜙2 𝛾1 =
(1 + 𝜙2 )(1 − 𝜙1 − 𝜙2 )(1 + 𝜙1 − 𝜙2 )
Para lo cual hemos tenido que calcular la función de autocovarianzas:
𝛾𝑘 = 𝐶𝑜𝑣(𝑍𝑡 , 𝑍𝑡−𝑘 ) = 𝐸(𝑍𝑡 𝑍𝑡−𝑘 ) = 𝐸[(𝜙1 𝑍𝑡−1 + 𝜙2 𝑍𝑡−2 + 𝑎𝑡 )𝑍𝑡−𝑘 ] = 𝜙1 𝐸(𝑍𝑡−1 𝑍𝑡−𝑘 ) + 𝜙2 𝐸(𝑍𝑡−2 𝑍𝑡−𝑘 ) + 𝐸(𝑎𝑡 𝑍𝑡−𝑘 )
= 𝜙1 𝛾𝑘−1 + 𝜙2 𝛾𝑘−2
𝜙1 𝛾0
𝛾1 = 𝜙1 𝛾0 + 𝜙2 𝛾−1 5 = 𝜙1 𝛾0 + 𝜙2 𝛾1 =
1 − 𝜙2

D) FUNCIÓN DE AUTOCORRELACIÓN (FAC)


Dividiendo por la varianza la función de autocovarianzas que acabamos de calcular, se obtiene la relación entre
los coeficientes de autocorrelación (la ecuación en diferencias homogénea de orden 2):
𝛾𝑘
𝜌𝑘 = = 𝜙1 𝜌𝑘−1 + 𝜙2 𝜌𝑘−2 con 𝑘 ≥ 1
𝛾0
particularizándola para 𝑘 = 1, como en un proceso y particularizándola para 𝑘 = 2 y utilizando la que
estacionario 𝜌1 = 𝜌−1, obtenemos que: acabamos de obtener:
𝜙1 𝜙12
𝜌1 = 𝜙1 𝜌𝑜 + 𝜙2 𝜌1 = 𝜙1 + 𝜙2 𝜌1 = , 𝜌2 = + 𝜙2
1 − 𝜙2 1 − 𝜙2

Para 𝑘 ≥ 3 los coeficientes de autocorrelación pueden obtenerse recursivamente a partir de la primera ecuación.
Se demuestra que la solución general de esta ecuación es:
𝜌𝑘 = 𝐴1 𝜏1𝑘 + 𝐴2 𝜏2𝑘 ,

3
𝐸(𝑍𝑡−1 𝑍𝑡−2 ) es la esperanza del producto de dos variables aleatorias con media cero, por lo que = 𝐶𝑜𝑣(𝑍𝑡−1 , 𝑍𝑡−2 ), que como
tiene retardo 1, = 𝛾1 .
4 Hemos calculado 𝐸(𝑍 2 ) = 𝛾 porque como es un proceso estacionario y la media es cero, la esperanza del cuadrado coincide
𝑡−2 0
con la varianza.
5 Como en los procesos estacionarios la función de autocovarianzas es simétrica, 𝛾
−1 = 𝛾1

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
donde 𝜏1 = 1/𝜆1 y 𝜏2 = 1/𝜆2 son los factores del polinomio característico del proceso y 𝐴1 y 𝐴2 son constantes a
determinar:

𝜌𝑜 = 𝐴1 + 𝐴2 = 16 Esto es un sistema de ecuaciones en el que las incógnitas son


𝐴1 y 𝐴2 . Y una vez que las tengamos calculadas, podremos
𝜙1
𝜌1 = 𝜏1 𝐴1 + 𝜏2 𝐴2 = calcular 𝜌𝑘 , ya que 𝜏1 = 1/𝜆1 y 𝜏2 = 1/𝜆2 .
1 − 𝜙2

La función de autocorrelación va a tener la siguiente forma que se muestra en los correlogramas:


FAC: AR(2)
Las raíces de 𝜙(𝐵) tienen el mismo signo Las raíces de 𝜙(𝐵) tienen distinto signo

Las raíces de 𝜙(𝐵) son complejas

Ejemplo 3: Tenemos el siguiente proceso autorregresivo de orden 2 el cual, por el Teorema de Wold, es
invertible:
𝑍𝑡 = 0,3𝑍𝑡−1 + 0,4𝑍𝑡−2 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑦 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2
El polinomio autorregresivo 𝜙(𝐵) = 1 − 0,3𝐵 − 0,4𝐵2 . Sabiendo que 𝜙(𝜆) = 0 y que sus raíces son en módulo
>1, se pide calcular 𝝆𝟏𝟏 . Para ello, despejamos 𝜆:
0,3 ± √0,32 + 4 · 0,4 0,3 ± 1,3
1 − 0,3𝜆 − 0,4𝜆2 = 0 → 𝜆 = =
2 · (−0,4) −0,8
𝜆1 = −2 𝜆2 = 5/4
|𝜆1 | = 2 > 1 |𝜆2 | = 5/4 > 1
Por lo teanto, el proceso estocástico es estacionario. Factorizando 𝜙(𝐵), obtendremos el valor de 𝜏1 y 𝜏2 :
1 1
𝜙(𝐵) = (1 − 𝜏1 𝐵)(1 − 𝜏2 𝐵) = (1 − 𝐵) (1 − 𝐵) = (1 + 0,5𝐵)(1 − 0,8𝐵) = 1 + 0,5𝐵 − 0,8𝐵 − 0,4𝐵2
𝜆1 𝜆2
= 1 − 0,3𝐵 − 0,4𝐵2
Calculamos la solución de la función de autocorrelación en diferencias (𝜌𝑘 = 𝜙1 𝜌𝑘−1 + 𝜙2 𝜌𝑘−2 ):
𝜌𝑘 = 𝐴1 𝜏1𝑘 + 𝐴2 𝜏2𝑘 = 𝐴1 (−1/2) + 𝐴2 · (4/5) = (−0,5)𝑘 𝐴1 + 0,8𝑘 𝐴2

Dando valores a k, 𝑘 = 0: 1 = 𝐴1 + 𝐴2
𝜙1 0,3
obtendremos un sistema 𝑘 = 1: = −0,5𝐴1 + 0,8𝐴2 → = 0,5 = −0,5𝐴1 + 0,8𝐴2
1−𝜙2 1−0,4

Resolviendo este sistema obtenemos que 𝐴1 = 3/13 y que 𝐴2 = 10/13. De forma que nos queda:
3 10
𝜌𝑘 = (−0,5)𝑘 + (0,8)𝑘
13 13
3 10
𝜌11 = (−0,5)11 + (0,8)11 = 0,06596
13 13

6 Sabemos que 𝜌𝑜 = 1.

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Ejemplo 4: Dado el siguiente proceso autorregresivo de orden 2 el cual, por Teorema de Wold, es invertible,
se pide analizar su estacionariedad:
𝑍𝑡 − 0,8𝑍𝑡−1 + 0,25𝑍𝑡−2 = 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑦 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2
El polinomio autorregresivo es 𝜙(𝐵) = 1 − 0,8 + 0,25𝐵2 . Resolviendo sus raíces (𝜙(𝜆) = 0) tendremos:
0,8 ± √0,64 − 1 0,8 ± √−0,36 0,8 ± 0,6𝑖
1 − 0,8𝜆 + 0,25𝜆2 = 0 → 𝜆 = = = 7 con 𝑖 = √−1
0,5 0,5 0,5
𝜆1 = 1,6 + 1,2𝑖
𝜆2 = 1,6 − 1,2𝑖
|𝜆1 | = |𝜆2 | = √1,62 + 1,22 = √2,56 + 1,44 = √4 = 2 > 1 → proceso estacionario

2.3.3. AR(2) EXPRESADO COMO SUMA DE INNOVACIONES, MA()


El proceso AR(2) puede representarse, de forma análoga al AR(1), como combinación lineal de las innovaciones
pasadas. Podemos escribir el modelo con el polinomio autorregresivo
1
𝜙(𝐵)𝑍𝑡 = 𝑎𝑡 → 𝑍𝑡 = 𝑎.
𝜙(𝐵) 𝑡
Como MA(), 𝑍𝑡 = 𝜓(B)𝑎𝑡 , donde 𝜓(B) = 1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯, tenemos que
1
= 𝜓(B) → 1 = 𝜙(𝐵)𝜓(B)
𝜙(𝐵)
1 = (1 − 𝜙1 𝐵 − 𝜙2 𝐵2 )(1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ )
1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + 𝜓3 𝐵3 + ⋯
−𝜙1 𝐵 − 𝜙1 𝜓1 𝐵 − 𝜙1 𝜓2 𝐵3 − ⋯
2

−𝜙2 𝐵2 − 𝜙2 𝜓1 𝐵3 − ⋯

Sumamos los factores que hemos colocado en orden y obtenemos la ecuación en diferencias de orden dos:

𝐵0 : 1 = 1
𝐵1 : 𝜓1 − 𝜙1 = 0 → 𝜓1 = 𝜙1
𝐵2 : 𝜓2 − 𝜙1 𝜓1 − 𝜙2 = 0 → 𝜓2 = 𝜙1 𝜓1 + 𝜙2 𝜓0
𝐵3 : 𝜓3 − 𝜙1 𝜓2 − 𝜙2 𝜓1 = 0 → 𝜓3 = 𝜙1 𝜓2 + 𝜙2 𝜓1

𝜓𝑘 = 𝜙1 𝜓𝑘−1 + 𝜙2 𝜓𝑘−2
De nuevo, conviene obtener la solución general de esta ecuación en diferencias:
𝜓𝑘 = 𝐶1 𝜏1𝑘 + 𝐶2 𝜏2𝑘 = 𝐶1 (1/𝜆1 )𝑘 + 𝐶2 (1/𝜆2 )𝑘
Para resolver esta ecuación, de la que conocemos 𝜆1 y 𝜆2 (son las raíces del polinomio autorregresivo, que
conocemos por haber estudiado la estacionariedad), necesitamos calcular 𝐶1 y 𝐶2 :
𝜓0 = 𝐶1 𝜏10 + 𝐶2 𝜏10 = 𝐶1 + 𝐶2 = 1
𝜓1 = 𝐶1 𝜏11 + 𝐶2 𝜏21 = 𝜙1
Obtenemos ya un sistema de dos ecuaciones con dos incógnitas que, una vez solucionado, nos dará la solución
general para 𝜓𝑘 .
Ejemplo 5: 𝑍𝑡 − 0,8𝑍𝑡−1 + 0,25𝑍𝑡−2 = 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑦 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2

𝐶1 + 𝐶2 = 1 𝐶1 + 𝐶2 = 1 𝐶1 = 5/13
𝜏11 𝐶1 + 𝜏21 𝐶2 = 𝜙1 −0,5𝐶1 + 0,8𝐶2 = 0,3 𝐶2 = 8/13

Por lo tanto, la solución general es:


5 8
𝜓𝑘 = (−0,5)𝑘 + 0,8𝑘
13 13
k 0 1 2 3 ...
Le damos valores:
𝝍𝒌 1 0,3 0,49 0,267 ...

7
√−0,36 = √0,36 · (−1) = √0,36 · √−1 = 0,6𝑖

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Expresar un autorregresivo de orden dos como suma de innovaciones, como un proceso de medias móviles de
orden infinito, sirve para calcular la covarianza o la correlación del proceso en el instante t con la innovación
retardada:
2
𝐶𝑜𝑣(𝑍𝑡 , 𝑎𝑡−𝑚 ) = 𝐸(𝑍𝑡 𝑎𝑡−𝑚 )8 = 𝐸[(𝑎𝑡 + 𝜓1 𝑎𝑡−1 + 𝜓2 𝑎𝑡−2 + ⋯ + 𝜓𝑚 𝑎𝑡−𝑚 + 𝜓𝑚+1 𝑎𝑡−𝑚+1 + ⋯ )𝑎𝑡−𝑚 ] = 𝐸(𝜓𝑚 𝑎𝑡−𝑚 )

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
2 2
= 𝜓𝑚 𝐸(𝑎𝑡−𝑚 ) = 𝜓𝑚 𝜎
𝐶𝑜𝑣(𝑍𝑡 , 𝑎𝑡−3 ) = 𝐸(𝑍𝑡 𝑎𝑡−3 ) = 𝐸[(𝑎𝑡 + 𝜓1 𝑎𝑡−1 + 𝜓2 𝑎𝑡−2 + 𝜓3 𝑎𝑡−3 + ⋯ )𝑎𝑡−3 ]
2 ) 2 )9
= 𝐸(𝑎𝑡 𝑎𝑡−3 ) + 𝜓1 𝐸(𝑎𝑡−1 𝑎𝑡−3 ) + 𝜓2 𝐸(𝑎𝑡−2 𝑎𝑡−3 ) + 𝜓3 𝐸(𝑎𝑡−3 + 𝜓4 𝐸(𝑎𝑡−4 𝑎𝑡−3 ) + ⋯ = 𝜓3 𝐸(𝑎𝑡−3
2
= 𝜓3 𝜎

2.3.4. EL PROCESO AUTORREGRESIVO GENERAL, AR(p)


Diremos que una serie temporal 𝑋𝑡 estacionaria sigue un proceso autorregresivo de orden p si
𝑋𝑡 = 𝛿 + 𝜙1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + ⋯ + 𝜙𝑝 𝑋𝑡−𝑝 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑉(𝑎𝑡 ) = 𝜎 2
𝑍𝑡 = 𝜙1 𝑍𝑡−1 + 𝜙2 𝑍𝑡−2 + ⋯ + 𝜙𝑝 𝑍𝑡−𝑝 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏.
𝑍𝑡 − 𝜙1 𝑍𝑡−1 − 𝜙2 𝑍𝑡−2 − ⋯ − 𝜙𝑝 𝑍𝑡−𝑝 = 𝑎𝑡
Por lo tanto, el polinomio autorregresivo sería 𝜙(𝐵) = 1 − 𝜙1 𝐵 − 𝜙2 𝐵2 − ⋯ − 𝜙𝑝 𝐵𝑝
𝛿
La media de este proceso, si tuviera constante, sería 𝜇 = 𝐸(𝑋𝑡 ) =
1−𝜙1 −𝜙2 −⋯−𝜙𝑝

Reservados todos los derechos.


El proceso será estacionario cuando las raíces del polinomio autorregresivo (𝜙(𝜆) = 0), están fuera del círculo
unidad: |𝜆𝑖 | > 1 ∀𝑖 = 1, 2, … , 𝑝. Y siempre será invertible ya que, por Teorema de Wold, un proceso autorregresivo
de orden finito es siempre invertible.
Llamaremos ecuación característica del proceso a la ecuación 𝜙(𝐵) = 0, considerada como función de B y que
tendrá p raíces 𝐺1−1 , … , 𝐺𝑝−1 . Podemos factorizar el polinomio autorregresivo de la siguiente manera:
𝑝

𝜙(𝐵) = (1 − 𝜏1 𝐵)(1 − 𝜏2 𝐵) … (1 − 𝜏𝑝 𝐵) = ∏(1 − 𝜏𝑖 𝐵) 𝑐𝑜𝑛 𝜏𝑖 = 1/𝜆𝑖


𝑖=1

de manera que los coeficientes 𝝉𝒊 son los factores de la ecuación característica.

A) FUNCIÓN DE AUTOCORRELACIÓN SIMPLE


La expresión para el autorregresivo de orden 2 se puede particularizar para el de orden p:
𝛾𝑘
𝜌𝑘 = = 𝜙1 𝜌𝑘−1 + 𝜙2 𝜌𝑘−2 + ⋯ + 𝜙𝑝 𝜌𝑘−𝑝 con 𝑘 ≥ 1
𝛾0

B) ECUACIONES DE YULE-WALKER
Particularizando la función de autocorrelación del autorregresivo obtendremos un sistema de p ecuaciones que
relacionan las p primeras autocorrelaciones con los parámetros del proceso. Llamaremos ecuaciones de Yule-
Walker al sistema:

𝜌1 = 𝜙1 + 𝜙2 𝜌1 + ⋯ + 𝜙𝑝 𝜌𝑝−1 10 𝜌1 1 𝜌1 … 𝜌𝑝−1 𝜙1
𝜌2 = 𝜙1 𝜌1 + 𝜙2 + ⋯ + 𝜙𝑝 𝜌𝑝−2 𝜌2 𝜌1 1 … 𝜌𝑝−2 𝜙2
(…) = ( )(…)
... … … … …
𝜌𝑝 𝜌𝑝−1 𝜌𝑝−2 … 1 𝜙𝑝
𝜌𝑝 = 𝜙1 𝜌𝑝−1 + 𝜙2 𝜌𝑝−2 + ⋯ + 𝜙𝑝
Ρ = 𝑅 · Φ
̃ = R−1 Ρ. Según esto, tendríamos que:
De tal forma que Φ
para el AR(1): 𝜌1 = 𝜙1 ,
𝜌1 1 𝜌1 𝜙1
para el AR(2): (𝜌 ) = ( ) ( ),
2 𝜌1 1 𝜙2
𝜌1 1 𝜌1 𝜌2 𝜙1
y para el AR(3): (𝜌2 ) = (𝜌1 1 𝜌1 ) (𝜙2 )
𝜌3 𝜌2 𝜌1 1 𝜙3
Las ecuaciones de Yule-Walker nos permiten estimar los coeficientes de autocorrelación y los coeficientes
del polinomio autorregresivo, además de obtener la función de autocorrelación parcial.

8
Porque ambas tienen media nula (𝑎𝑡 ~ 𝑟. 𝑏.).
9
Como la autocovarianza para el r.b. = 0, 𝐸(𝑎𝑡 𝑎𝑡−3 ) = 0, 𝜓1 𝐸(𝑎𝑡−1 𝑎𝑡−3 ) = 0, 𝜓2 𝐸(𝑎𝑡−2 𝑎𝑡−3 ) = 0, 𝜓4 𝐸(𝑎𝑡−4 𝑎𝑡−3 ) = 0
10
Como, dado que se supone que 𝑝 > 1, y que 1 − 𝑝 < 0, por la condición de simetría, podemos decir que 1 − 𝑝 = 𝑝 − 1.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
2.3.5. LA FUNCIÓN DE AUTOCORRELACIÓN PARCIAL (FACP)
Determinar el orden de un proceso autorregresivo a partir de su función de autocorrelación simple es difícil. Sabemos
que es una mezcla de decrecimientos exponenciales y sinusoidales que se amortiguan al avanzar el retardo y no
presenta rasgos fácilmente identificables. Para resolver este problema se introduce la función de autocorrelación
parcial.
Si comparamos un AR(1) y un AR(2) vemos que, aunque en ambos procesos cada observación está relacionada
con las anteriores, el tipo de relación entre observaciones separadas por más de un retardo es distinto en ambos
procesos. En el AR(1) el efecto de 𝑋𝑡−2 sobre 𝑋𝑡 es siempre a través de 𝑋𝑡−1 , y dado 𝑋𝑡−1 , el valor de 𝑋𝑡−2 es
irrelevante para prever 𝑋𝑡 . En general, un AR(p) presenta efectos directos de observaciones separadas por 1, 2, ...,
p retardos y los efectos directos de las observaciones separadas por más de p retardos son nulos. Esta idea es la
clave para la utilización de la función de autocorrelación parcial.
Para un AR(1): 𝜙̃
11
Para un AR(2): 𝜙̃ ̃ ̃
11 ; 𝜙21 , 𝜙22
Para un AR(3): 𝜙11 ; 𝜙21 , 𝜙̃
̃ ̃ ̃ ̃ ̃
22 ; 𝜙31 , 𝜙32 , 𝜙33
...
Para un AR(p): 𝜙̃ ̃ ̃ ̃ ̃ ̃ ̃ ̃ ̃
11 ; 𝜙21 , 𝜙22 ; 𝜙31 , 𝜙32 , 𝜙33 ; ...; 𝜙𝑝1 , 𝜙𝑝2 , … , 𝜙𝑝𝑝 . Este último resultado coincidiría con 𝜙1 , 𝜙2 , … , 𝜙𝑝 .

Aunque el autorregresivo sea de orden p, calculamos la ecuación de Yules-Walker para orden 1, obteniendo la
función de autocorrelación parcial (FACP):
𝜙̃ ̃ ̃ ̃ 11
11 , 𝜙22 , 𝜙33 , … , 𝜙𝑝𝑝

̃𝑖𝑖 }𝑝 , 𝜙̃𝑗𝑗 = 0 𝑗 > 𝑝


FACP: {𝜙 𝑖=1

Esto significa que para un AR(3) podemos calcular 𝜙̃ ̃ ̃ ̃


11 , 𝜙22 , 𝜙33 , pero un 𝜙44 = 0. O para un AR(1) solo podríamos
̃ ̃
calcular un 𝜙11 porque un 𝜙𝑗𝑗 = 0 𝑐𝑜𝑛 𝑗 ≥ 2.
AR(1)
FAC FACP
𝟎 < 𝝓𝟏 < 𝟏 𝟎 < 𝝓𝟏 < 𝟏

−𝟏 < 𝝓𝟏 < 𝟎 −𝟏 < 𝝓𝟏 < 𝟎

11 ̃ =0
Para un proceso de orden p, 𝜙𝑝+1𝑝+1

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
AR(2)
FAC FACP
Las raíces de 𝜙(𝐵) tienen distinto signo Las raíces de 𝜙(𝐵) tienen distinto signo

Las raíces de 𝜙(𝐵) son complejas Las raíces de 𝜙(𝐵) son complejas

2.4. PROCESOS DE MEDIAS MÓVILES, MA(q)


Una vez vistos los procesos autorregresivos, que son una clase de procesos estacionarios lineales, que se caracterizan
por tener muchos coeficientes de autocorrelación distintos de cero y que decrecen con el retardo. Estos procesos tienen
memoria relativamente larga, ya que el valor actual está correlado con todos los (infinitos) anteriores, aunque con
coeficientes decrecientes. Esta propiedad se traduce en que podemos escribir un proceso AR como una función lineal
de todas las innovaciones que le han generado. Una familia de procesos que tienen la propiedad de «memoria corta»
(el valor actual de la serie está correlacionado con pocos valores anteriores de la innovación, o que los impactos en la
innovación se absorben rápidamente) son los procesos de medias móviles, o procesos MA. Estos son función de un
número finito, y generalmente pequeño, de las innovaciones pasadas. Un MA(q) lo vamos a expresar de la siguiente
manera:
𝑋𝑡 = 𝛿 + 𝑎𝑡 + 𝜃1 𝑎𝑡−1 + 𝜃2 𝑎𝑡−2 + ⋯ + 𝜃𝑞 𝑎𝑡−𝑞 donde 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉(𝑎𝑡 ) = 𝜎 2
𝑋𝑡 = 𝛿 + (1 − 𝜃1 𝐵 − 𝜃2 𝐵2 − ⋯ − 𝜃𝑞 𝐵𝑞 )𝑎𝑡
Obtenemos de esta última ecuación el polinomio de medias móviles: 𝜃(𝐵) = 1 + 𝜃1 𝐵 + 𝜃2 𝐵2 + ⋯ + 𝜃𝑞 𝐵𝑞 .
Suponiendo que el proceso es estacionario, su media será 𝜇 = 𝐸(𝑋𝑡 ) = 𝛿12. Y si el proceso tuviera media nula (𝜇 =
𝐸(𝑍𝑡 ) = 0), tendríamos el proceso sin constante:
𝑍𝑡 = 𝜃(𝐵)𝑎𝑡 = 𝑎𝑡 + 𝜃1 𝑎𝑡−1 + 𝜃2 𝑎𝑡−2 + ⋯ + 𝜃𝑞 𝑎𝑡−𝑞

2.4.1. EL PROCESO DE MEDIAS MÓVILES DE PRIMER ORDEN, MA(1)


Se define el proceso de media móvil de orden uno, MA(1), añadiendo a un proceso de ruido blanco una dependencia
del valor actual de la serie de la última innovación ocurrida. De esta manera, el proceso será una combinación lineal
de las dos últimas innovaciones, de acuerdo con la ecuación:
𝑍𝑡 = 𝑎𝑡 − 𝜃1 𝑎𝑡−1 donde 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉(𝑎𝑡 ) = 𝜎 2
𝑍𝑡 = 𝛿 + (1 − 𝜃1 𝐵)𝑎𝑡 ⇔ 𝑍𝑡 = 𝜃(𝐵)𝑎𝑡 donde 𝜃(𝐵) = 1 − 𝜃1 𝐵
El esquema de dependencia de las variables en este caso tiene la siguiente forma:
𝑍𝑡−2 𝑍𝑡−1 𝑍𝑡 𝑍𝑡+1

𝑎𝑡−2 𝑎𝑡−1 𝑎𝑡 𝑎𝑡+1

12
Como 𝑎𝑡 ~ 𝑟. 𝑏., la suma de las esperanzas de MA(q) es cero.

10

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
A) CONDICIÓN DE ESTACIONARIEDAD E INVERTIBILIDAD
Según el Teorema de Wold, un proceso es estacionario si ∑∞ 2
𝑖=0 𝜓𝑖 < ∞. Entonces, para el MA(1) tendríamos que
∞ 2 2 2 2
∑𝑖=0 𝜓𝑖 = 𝜓0 + 𝜓1 = 1 + 𝜃1 < ∞. Por lo tanto, podemos decir que los MA(1) son siempre estacionarios.
Los MA(1) serán invertibles cuando la raíz del polinomio de medias móviles 𝜃(𝐵), o lo que es lo mismo, la
solución de la ecuación 𝜃(𝜆) = 0, esté fuera del círculo unidad: |𝜆| > 1.
1
𝜃(𝜆) = 1 − 𝜃1 𝜆 = 0 → 𝜆 =
𝜃1
1
De forma análoga, para que un proceso MA(1) sea invertible, como |𝜆| > 1, se debe cumplir que |𝜃1 | = < 1.
𝜆

B) ESPERANZA Y VARIANZA
La media o esperanza del proceso MA(1) es, como anteriormente se hizo, 𝜇 = 𝐸(𝑋𝑡 ) = 𝛿, o 𝜇 = 𝐸(𝑍𝑡 ) = 0 en
caso de no tener constante. Y la varianza del proceso será:
𝛾0 = 𝑉(𝑋𝑡 ) = 𝑉(𝑍𝑡 ) = 𝐸(𝑍𝑡2 ) = 𝐸[(𝑎𝑡 − 𝜃1 𝑎𝑡−1 )2 ] = 𝐸(𝑎𝑡2 + 𝜃1 𝑎𝑡−1
2
− 2𝜃1 𝑎𝑡 𝑎𝑡−1 )
2) 2 2 )
= 𝐸(𝑎𝑡 + 𝜃1 𝐸(𝑎𝑡−1 − 2𝜃1 𝐸(𝑎𝑡 𝑎𝑡−1 ) = 𝜎 + 𝜃12 𝜎 2 13 = (1 + 𝜃12 )𝜎 2
2

C) FUNCIÓN DE AUTOCOVARIANZAS Y AUTOCORRELACIÓN (FAC)


La función de autocorrelación (FAC) del proceso la construiremos a partir de la función de autocovarianzas:
𝛾𝑘 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡−𝑘 ) = 𝐶𝑜𝑣(𝑍𝑡 , 𝑍𝑡−𝑘 ) = 𝐸(𝑍𝑡 𝑍𝑡−𝑘 ) = 𝐸[(𝑎𝑡 − 𝜃1 𝑎𝑡−1 )𝑍𝑡−𝑘 ] = 𝐸(𝑎𝑡 𝑍𝑡−𝑘 ) − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−𝑘 ) =
2 )
Para 𝒌 = 𝟏, 𝛾1 = 0 − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−1 ) = −𝜃1 𝐸[𝑎𝑡−1 (𝑎𝑡−1 − 𝜃1 𝑎𝑡−2 )]14 = −𝜃1 𝐸(𝑎𝑡−1 = −𝜃1 𝜎 2
Para 𝒌 ≥ 𝟐, 𝛾𝑘 = 0
Ahora ya podemos calcular la función de autocorrelación (FAC), que solamente tiene no nulo el primer valor,
de ahí el correlograma siguiente:
−𝜃1
𝛾𝑘 𝑘=1
𝜌𝑘 = = { 1 + 𝜃12
𝛾0
0 𝑘≥2
FAC MA(1)
𝜽𝟏 > 𝟎 𝜽𝟏 < 𝟎

2.4.2. MA(1) EXPRESADO COMO SUMA DE LOS VALORES PASADOS, AR()


𝑍𝑡 𝑍𝑡
Tenemos que 𝑀𝐴(1): 𝑍𝑡 = (1 − 𝜃1 𝐵)𝑎𝑡 → = = 𝑎𝑡 y que 𝐴𝑅(): (1 + π1 𝐵 + π2 𝐵2 + ⋯ )𝑍𝑡 = π(B)𝑍𝑡 = 𝑎𝑡
1−𝜃1 𝐵 𝜃(𝐵)

1
Igualando estas dos ecuaciones, = π(B) → 1 = 𝜃(𝐵)π(B) = (1 − 𝜃1 𝐵)(1 + π1 𝐵 + π2 𝐵2 + ⋯ ) =
𝜃(𝐵)

𝐵0 : 1 = 1
1 + π1 𝐵 + π2 𝐵2 + ⋯ 𝐵1 : π1 − 𝜃1 = 0 → π1 = 𝜃1
−𝜃1 𝐵 − 𝜃1 π1 𝐵2 + ⋯ 𝐵2 : π2 − 𝜃1 π1 = 0 → π2 = 𝜃1 π1 = 𝜃12

π𝑘 = 𝜃1𝑘 con 𝑘 ≥ 0

Sumamos los factores que hemos colocado en orden y obtenemos la ecuación en diferencias de orden dos.

13
𝑉(𝑎𝑡 ) = 𝜎 2 ∀𝑡, lo cual es también aplicable para 𝑎𝑡−1 . Además, 𝐸(𝑎𝑡 𝑎𝑡−1 ) = 0, ya que 𝐶𝑜𝑣(𝑎𝑡 , 𝑎𝑡−1 ) = 0.
14
Cuando pasamos un AR a MA() podíamos calcular las covarianzas entre 𝑎𝑡 y 𝑍𝑡 .

11

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
A) CONDICIÓN DE INVERTIBILIDAD DE UN AR()
Por el Teorema de Wold, decimos que un proceso es invertible si la suma infinita de los cuadrados de los
coeficientes de los autorregresivos es finita (∑∞ 2
𝑖=0 π𝑖 < ∞):

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
∞ ∞ ∞ |𝜃1 | > 1
𝜃∞ − 1
∑ π2𝑖 = ∑ 𝜃12𝑘 15 = ={ 1
𝜃2 − 1 |𝜃1 | < 1
𝑖=0 𝑖=0 1 − 𝜃12
Para un valor dado de zeta (𝜃) el denominador es constante, pero el numerador será  si |𝜃1 | > 1 y 1 si |𝜃1 | < 1.
Por lo tanto, como el Teorema de Wold nos exige que ∑∞ 2
𝑖=0 π𝑖 < ∞, el proceso será invertible cuando |𝜽𝟏 | < 𝟏.

B) LA FUNCIÓN DE AUTOCORRELACIÓN PARCIAL (FACP)


La función de autocorrelación parcial es la sucesión del coeficiente de mayor retardo y estaría formada por los
coeficientes del AR(): 𝜋̃
11 , 𝜋̃
22 , 𝜋̃
33 , y sería decreciente de forma geométrica para un MA(1) tanto cuando 𝜃1 >
0 (primer gráfico) y como cuando 𝜃1 < 0 (segundo):

Reservados todos los derechos.


Como ya sabemos, el AR() es el dual o, dicho de otro modo, el inverso o contrario del MA(), y viceversa, y,
por ello, para un AR(1) su FAC se asemeja
̃ a FACP de un MA(1) y su FACP ~ FAC de un MA(1).

2.4.3. EL PROCESO MA(2)


Generalizando la idea de un MA(1), podemos escribir procesos cuyo valor actual dependa no sólo de la última
innovación, sino de las 2 últimas. Se obtiene entonces el proceso MA(2), con representación general:
𝑍𝑡 = 𝑎𝑡 − 𝜃1 𝑎𝑡−1 − 𝜃2 𝑎𝑡−2 donde 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉(𝑎𝑡 ) = 𝜎 2

A) ESTACIONARIEDAD E INVERITIBILIDAD
Según el Teorema de Wold, un proceso es estacionario si ∑∞ 2
𝑖=0 𝜓𝑖 < ∞. Como para un MA(2) tenemos que
∞ 2 2 2 2
∑𝑖=0 𝜓𝑖 = 𝜓0 + 𝜓1 = 1 + 𝜃1 < ∞, podemos decir que los procesos MA(2) son siempre estacionarios. Como
también lo eran los de orden 1, se puede generalizar que para MA(q), siendo q un orden finito, todos los
procesos de medias móviles de orden finito son estacionarios.
Y este tipo de procesos será invertible, siendo el polinomio característico 𝜃(𝐵) = 1 − 𝜃1 𝐵 − 𝜃2 𝐵2 , cuando las
raíces de dicho polinomio (𝜃(𝜆) = 0) estén fuera del círculo unidad (|𝜆1 | > 1 y |𝜆2 | > 1). Cuando tenemos esta
situación, podremos factorizar el polinomio característico:
1 1
𝜃(𝐵) = (1 − 𝜏1 𝐵)(1 − 𝜏2 𝐵) = (1 − 𝐵) (1 − 𝐵)
𝜆1 𝜆2

B) VARIANZA
La varianza del proceso MA(2) será:
𝛾0 = 𝑉(𝑋𝑡 ) = 𝑉(𝑍𝑡 ) = 𝐸(𝑍𝑡2 ) = 𝐸[(𝑎𝑡 − 𝜃1 𝑎𝑡−1 − 𝜃2 𝑎𝑡−2 )2 ]
= 𝐸(𝑎𝑡2 + 𝜃12 𝑎𝑡−1 + 𝜃22 𝑎𝑡−2 − 2𝜃1 𝑎𝑡 𝑎𝑡−1 − 2𝜃2 𝑎𝑡 𝑎𝑡−2 + 2𝜃1 𝜃2 𝑎𝑡−1 𝑎𝑡−2 )
= 𝐸(𝑎𝑡2 ) + 𝜃12 𝐸(𝑎𝑡−1
2 )
+ 𝜃22 𝐸(𝑎𝑡−2
2 )
− 2𝜃1 𝐸(𝑎𝑡 𝑎𝑡−1 ) − 2𝜃2 𝐸(𝑎𝑡 𝑎𝑡−2 ) + 2𝜃1 𝜃2 𝐸(𝑎𝑡−1 𝑎𝑡−2 )
2 2 2 2 2 16
= 𝜎 + 𝜃1 𝜎 + 𝜃2 𝜎 = (1 + 𝜃12 + 𝜃22 )𝜎 2

15
Porque π𝑘 = 𝜃1𝑘 .
16
𝑉(𝑎𝑡 ) = 𝜎 2 ∀𝑡, lo cual es también aplicable para 𝑎𝑡−1 y 𝑎𝑡−2 . Además, 𝐸(𝑎𝑡 𝑎𝑡−1 ) = 0, 𝐸(𝑎𝑡 𝑎𝑡−2 ) = 0 y 𝐸(𝑎𝑡−1 𝑎𝑡−2 ) = 0 ya que
sus covarianzas = 0.

12

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
C) LA FUNCIÓN DE AUTOCOVARIANZAS Y AUTOCORRELACIÓN
Como siempre, a partir de la función de autocovarianzas construiremos la función de autocorrelación (FAC)
del proceso:
𝛾𝑘 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡−𝑘 ) = 𝐶𝑜𝑣(𝑍𝑡 , 𝑍𝑡−𝑘 ) = 𝐸(𝑍𝑡 𝑍𝑡−𝑘 ) = 𝐸[(𝑎𝑡 − 𝜃1 𝑎𝑡−1 − 𝜃2 𝑎𝑡−2 )𝑍𝑡−𝑘 ]
= 𝐸(𝑎𝑡 𝑍𝑡−𝑘 ) − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−𝑘 ) − 𝜃2 𝐸(𝑎𝑡−2 𝑍𝑡−𝑘 ) =
Para 𝒌 = 𝟏, 𝛾1 = 0 − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−1 ) − 𝜃2 𝐸(𝑎𝑡−2 𝑍𝑡−1 ) = −𝜃1 𝜎 2 − 𝜃2 𝐸[𝑎𝑡−2 (𝑎𝑡−1 − 𝜃1 𝑎𝑡−2 − 𝜃2 𝑎𝑡−3 )]
2 )
= −𝜃1 𝜎 2 + 𝜃2 𝐸(𝑎𝑡−2 𝑎𝑡−1 ) − 𝜃2 𝐸(𝑎𝑡−2 − 𝜃2 𝐸(𝑎𝑡−2 𝑎𝑡−3 ) = −𝜃1 𝜎 2 + 𝜃1 𝜃2 𝜎 2 17 = 𝜃1 (𝜃2 − 1)𝜎 2
Para 𝒌 = 𝟐, 𝛾2 = 0 − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−2 ) − 𝜃2 𝐸(𝑎𝑡−2 𝑍𝑡−2 ) = 0 − 0 − 𝜃1 𝜎 2 = −𝜃1 𝜎 2
Para 𝒌 ≥ 𝟑, 𝛾𝑘 = 0 − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−𝑘 ) − 𝜃2 𝐸(𝑎𝑡−2 𝑍𝑡−𝑘 ) = 0 − 0 − 0 = 0
Por lo tanto, teniendo esto, la función de función de autocorrelación (FAC):
𝜃1 (𝜃2 − 1)
𝑘=1
𝛾𝑘 1 + 𝜃12
𝜌𝑘 = = −𝜃2
𝛾0 𝑘=2
1 + 𝜃12 + 𝜃22
{ 0 𝑘≥3
FAC MA(2)
𝜃1 < 0 y 𝜃2 > 0 𝜃1 > 0 y 𝜃2 < 0

2.4.4. MA(2) EXPRESADO COMO SUMA DE LOS VALORES PASADOS, AR()


El proceso MA(2) puede transformarse en un proceso autorregresivo haciendo una serie de cálculos. Sabemos que
un MA(2) tiene la siguiente forma:
𝑍𝑡 = 𝑎𝑡 − 𝜃1 𝑎𝑡−1 − 𝜃2 𝑎𝑡−2 = (1 − 𝜃1 𝐵 − 𝜃2 𝐵2 )𝑎𝑡 = 𝜃(𝐵)𝑎𝑡
Para transformarlo en un AR() lo escribimos de la siguiente forma:
𝜋(𝐵)𝑍𝑡 = 𝑎𝑡 , donde 𝜋(𝐵) = 1 + 𝜋1 𝐵 + 𝜋2 𝐵2 + ⋯
𝑎𝑡 1
𝑍𝑡 = = 𝜃(𝐵)𝑎𝑡 → = 𝜃(𝐵) → 1 = 𝜃(𝐵)𝜋(𝐵)
𝜋(𝐵) 𝜋(𝐵)
1 = (1 − 𝜃1 𝐵 − 𝜃2 𝐵2 )(1 + 𝜋1 𝐵 + 𝜋2 𝐵2 + ⋯ )
𝐵0 : 1 = 1
1 + 𝜋1 𝐵 + 𝜋2 𝐵2 + 𝜋3 𝐵3 + ⋯ 𝐵1 : 𝜋1 − 𝜃1 = 0 → 𝜋1 = 𝜃1
−𝜃1 𝐵 − 𝜃1 𝜋1 𝐵2 − 𝜃1 𝜋2 𝐵3 − ⋯ 𝐵2 : 𝜋2 − 𝜃1 𝜋1 − 𝜃2 = 0 → 𝜋2 = 𝜃1 𝜋1 + 𝜃2 𝜋0
−𝜃2 𝐵2 − 𝜃2 𝜋1 𝐵3 − ⋯ 𝐵3 : 𝜋3 − 𝜃1 𝜋2 − 𝜃2 𝜋1 = 0 → 𝜋3 = 𝜃1 𝜋2 + 𝜃2 𝜋1

𝜋𝑘 = 𝜃1 𝜋𝑘−1 + 𝜃2 𝜋𝑘−2

Sumamos los coeficientes de B que hemos colocado en orden y obtenemos la ecuación en diferencias:
De nuevo, conviene obtener la solución general de esta ecuación en diferencias:
𝜋𝑘 = 𝐴1 𝜏1𝑘 + 𝐴2 𝜏2𝑘 = 𝐴1 (1/𝜆1 )𝑘 + 𝐴2 (1/𝜆2 )𝑘

2 2
𝑡−2 𝑍𝑡−1 ) = 𝐸[𝑎𝑡−2 (𝑎𝑡−1 − 𝜃1 𝑎𝑡−2 − 𝜃2 𝑎𝑡−3 )] = −𝜃1 𝐸(𝑎𝑡−2 ) = −𝜃1 𝜎 , pero luego hay que multiplicarlo por 𝜃2
17 𝐸(𝑎

(𝐸(𝑎𝑡−2 𝑎𝑡−1 )= 𝐸(𝑎𝑡−2 𝑎𝑡−3 ) = 0).

13

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Para resolver esta ecuación, de la que conocemos 𝜆1 y 𝜆2 (son las raíces del polinomio característico de medias
móviles, que conocemos por haber estudiado la estacionariedad), necesitamos calcular 𝐴1 y 𝐴2 :
𝜋0 = 𝐴1 𝜏10 + 𝐴2 𝜏10 = 𝐴1 + 𝐴2 = 1
𝜋1 = 𝐴1 𝜏11 + 𝐴2 𝜏21 = 𝜃1
Obtenemos ya un sistema de dos ecuaciones con dos incógnitas que, una vez solucionado, tendremos la solución
general para 𝜋𝑘 .
Ejemplo 6: Tenemos el proceso
𝑍𝑡 = 𝑎𝑡 − 𝑎𝑡−1 + 0,24𝑎𝑡−2 donde 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉(𝑎𝑡 ) = 𝜎 2
Por Tª de Wold, el proceso es estacionario (todo proceso de medias móviles finito es estacionario), y para ver si
es invertible:
𝑍𝑡 = (1 − 𝐵 + 0,24𝐵2 )𝑎𝑡 = 𝜃(𝐵)𝑎𝑡
Calculamos las soluciones del polinomio característico de MA(2):
1 ± √1 − 4 · 0,24 1 ± 0,2
𝜃(𝐵) = 0 → 1 − 𝜆 + 0,24𝜆2 = 0 → 𝜆 = =
2 · 0,24 0,48
𝜆1 = 5/2 𝜆2 = 5/3
|𝜆1 | = 5/2 > 1 |𝜆2 | = 5/3 > 1
Como se cumple que |𝜆1 | > 1 y |𝜆2 | > 1, el proceso es invertible. Y una vez calculadas las raíces, podemos
factorizar el polinomio característico de medias móviles:
1 1 2 3
𝜃(𝐵) = (1 − 𝐵) (1 − 𝐵) = (1 − 𝐵) (1 − 𝐵) = (1 − 0,4𝐵)(1 − 0,6𝐵)
𝜆1 𝜆2 5 5
Para expresarlo como un AR(),
𝑎𝑡
𝜋(𝐵)𝑍𝑡 = 𝑎𝑡 → 𝑍𝑡 = donde 𝜋(𝐵) = 1 + 𝜋1 𝐵 + 𝜋2 𝐵2 + ⋯
𝜋(𝐵)
𝑎𝑡
e igualamos las 𝑍𝑡 : = 𝜃(𝐵)𝑎𝑡 → 1 = 𝜃(𝐵) 𝜋(𝐵). En este caso,
𝜋(𝐵)

𝜋𝑘 = 𝐴1 𝜏1𝑘 + 𝐴2 𝜏2𝑘 = 𝐴1 (1/𝜆1 )𝑘 + 𝐴2 (1/𝜆2 )𝑘 = 𝐴1 0,4𝑘 + 𝐴2 0,6𝑘


Para 𝑘 = 0: 118 = 𝐴1 + 𝐴2
Para 𝑘 = 1: 119 = 0,4𝐴1 + 0,6𝐴2
Si resolvemos este sistema, obtenemos que 𝐴1 = −2 y 𝐴2 = 3. Por lo tanto, la solución general tendrá la forma:
𝜋𝑘 = 3 · 0,6𝑘 − 2 · 0,4𝑘

MA(1)
FAC FACP
𝜽𝟏 > 𝟎 𝜽𝟏 > 𝟎

𝜽𝟏 < 𝟎 𝜽𝟏 < 𝟎

18 𝜋0 = 1
19 𝜋1 = 𝜃1 = 1

14

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
MA(2)
FAC FACP
Las raíces de 𝜃(𝐵) tienen distinto signo Las raíces de 𝜃(𝐵) tienen distinto signo

Las raíces de 𝜃(𝐵) son complejas Las raíces de 𝜃(𝐵) son complejas

Como podemos observar, las FAC del MA(1) se corresponden con las FACP del AR(1) y las FACP del MA(1)
coinciden con las FAC del AR(1). Y para los MA(2), sus FAC se corresponden con las FACP del AR(2) pero
cambiadas de signo, como también pasa con sus FACP y las FAC del AR(2).

2.5. MODELOS MIXTOS AUTORREGRESIVOS Y MEDIAS MÓVILES, ARMA(p,q)


Los procesos ARMA intentan combinar las propiedades de los AR y los MA y permiten representar de forma escueta
(utilizando pocos parámetros) procesos cuyos primeros q coeficientes son cualesquiera, mientras que los siguientes
decrecen según leyes simples. De esta forma, la parte de MA se encarga de modelizar la absorción del impacto de
la innovación desde el momento hasta un retardo q, mientras que la parte AR se encarga de modelizar el efecto
residual, es decir, la forma en la que se comportan los valores pasados de la variable desde el momento actual
hasta el retardo p.
Matemáticamente, los procesos ARMA resultan de añadir estructura MA a un proceso AR o viceversa. En un
ARMA(p,q), p determina el orden de la parte autorregresiva y q determina el orden de la parte de medias móviles.
Vamos a representarlo de la siguiente forma:
𝑍𝑡 − 𝜙1 𝑍𝑡−1 − 𝜙2 𝑍𝑡−2 − ⋯ − 𝜙𝑝 𝑍𝑡−𝑝 = 𝑎𝑡 − 𝜃1 𝑎𝑡−1 − 𝜃2 𝑎𝑡−2 − ⋯ − 𝜃𝑞 𝑎𝑡−𝑞 donde 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉(𝑎𝑡 ) = 𝜎2

Podemos expresar el proceso añadiéndole también una constante, ya que 𝑍𝑡 = 𝑋𝑡 − 𝜇. Y con los polinomios
característicos, tendremos:
(1 − 𝜙1 𝐵 − 𝜙2 𝐵2 − ⋯ − 𝜙𝑝 𝐵𝑝 ) 𝑍𝑡 = (1 − 𝜃1 𝐵 − 𝜃2 𝐵2 − ⋯ − 𝜃𝑞 𝐵𝑞 )𝑎𝑡
𝜙(𝐵)𝑍𝑡 = 𝜃(𝐵)𝑎𝑡

2.5.1. EL PROCESO ARMA(1,1)


Un proceso sigue un modelo ARMA(1,1) cuando su ecuación está expresada de la siguiente forma:
𝑋𝑡 = 𝛿 + 𝜙1 𝑋𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 donde 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉(𝑎𝑡 ) = 𝜎2 ,

donde |𝜙1 | < 1 para que el proceso sea estacionario, y |𝜃1 | < 1 para que sea invertible. Supondremos que
𝜙1 ≠ 𝜃1 por lo siguiente:
𝑋𝑡 − 𝜙1 𝑋𝑡−1 = 𝛿 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1
(1 − 𝜙1 𝐵)𝑋𝑡 = 𝛿 + (1 − 𝜃1 𝐵)𝑎𝑡
(1 − 𝜙1 𝐵)𝑍𝑡 = (1 − 𝜃1 𝐵)𝑎𝑡 con 𝑍𝑡 = 𝑋𝑡 − 𝜇
Si 𝜙1 = 𝜃1 tendríamos el mismo polinomio multiplicando a 𝑍𝑡 y a 𝑎𝑡 , por lo que se simplificaría y nos quedaría que
𝑍𝑡 = 𝑎𝑡 ~ 𝑟. 𝑏., de forma que no podríamos saber su comportamiento modelizándolo.

15

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
El esquema de dependencia de las variables en este caso tiene la siguiente forma:
𝑍𝑡−2 𝑍𝑡−1 𝑍𝑡 𝑍𝑡+1

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
𝑎𝑡−2 𝑎𝑡−1 𝑎𝑡 𝑎𝑡+1

A) ESPERANZA Y VARIANZA
La media del proceso ARMA(1,1) será:
𝜇 = 𝐸(𝑋𝑡 ) = 𝐸(𝛿 + 𝜙1 𝑋𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 ) = 𝛿 + 𝜙1 𝐸(𝑋𝑡−1 ) + 𝐸(𝑎𝑡 ) − 𝜃1 𝐸(𝑎𝑡−1 ) = 𝛿 + 𝜙1 𝜇
𝛿
𝜇=
1 − 𝜙1
La varianza del proceso se obtiene:

𝛾0 = 𝑉(𝑋𝑡 ) = 𝑉(𝑍𝑡 ) = 𝐸(𝑍2𝑡 ) = 𝐸[(𝜙1 𝑍𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 )2 ]


= 𝐸(𝜙21 𝑍2𝑡−1 + 𝑎2𝑡 + 𝜃21 𝑎2𝑡−1 + 2𝜙1 𝑎𝑡 𝑍𝑡−1 − 2𝜙1 𝜃1 𝑍𝑡−1 𝑎𝑡−1 − 2𝜃1 𝑎𝑡 𝑎𝑡−1 )
= 𝜙21 𝐸(𝑍2𝑡−1 ) + 𝐸(𝑎2𝑡 ) + 𝜃21 𝐸(𝑎2𝑡−1 ) + 2𝜙1 𝐸(𝑎𝑡 𝑍𝑡−1 ) − 2𝜙1 𝜃1 𝐸(𝑍𝑡−1 𝑎𝑡−1 ) − 2𝜃1 𝐸(𝑎𝑡 𝑎𝑡−1 )
= 𝜙21 𝛾0 + 𝜎2 + 𝜃21 𝜎2 − 2𝜙1 𝜃1 𝜎2

Reservados todos los derechos.


1 − 2𝜙1 𝜃1 + 𝜃21
𝛾0 = 𝜎2
1 − 𝜙21

B) CONDICIÓN DE ESTACIONARIEDAD E INVERTIBILIDAD


Dado que el proceso ARMA(1,1) cuenta con una parte autorregresiva (que no siempre es estacionaria) y otra de
medias móviles (que siempre es estacionaria), el proceso será estacionario en función de las raíces del polinomio
autorregresivo de orden 1 (𝜙(𝐵)):
1 − 𝜙1 𝐵 = 0
1
1 − 𝜙1 𝜆 = 0 → 𝜆 =
𝜙1
El proceso ARMA(1,1) será estacionario cuando la raíz del polinomio autorregresivo característico sea |𝜆| > 1,
o cuando el coeficiente de la parte autorregresiva (que es la que impone la restricción) entre dentro del círculo
unidad: |𝜙1 | < 1.

Y dado que el proceso ARMA(1,1) cuenta con una parte autorregresiva (que siempre es invertible) y otra de
medias móviles (que no siempre es invertible), el proceso será invertible cuando la solución de 1 − 𝜃1 𝐵 = 0 > 1:
1 − 𝜃1 𝐵 = 0
1
1 − 𝜃1 𝜆 = 0 → 𝜆 =
𝜃1
El proceso ARMA(1,1) será invertible cuando la raíz del polinomio de medias móviles característico sea |𝜆| > 1,
o cuando el coeficiente de la parte de medias móviles (que es la que impone la restricción) entre dentro del
círculo unidad: |𝜃1 | < 1.

C) FUNCIONES DE AUTOCOVARIANZAS Y AUTOCORRELACIÓN


A partir de la función de autocovarianzas construiremos la función de autocorrelación del proceso:

𝛾1 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡−1 ) = 𝐶𝑜𝑣(𝑍𝑡 , 𝑍𝑡−1 ) = 𝐸(𝑍𝑡 𝑍𝑡−1 ) = 𝐸[(𝜙1 𝑍𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 )𝑍𝑡−1 ]
= 𝜙1 𝐸(𝑍2𝑡−1 ) − 𝐸(𝑎𝑡 𝑍𝑡−1 ) − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−1 ) = 𝜙1 𝛾0 − 𝜃1 𝜎2

𝛾2 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡−2 ) = 𝐶𝑜𝑣(𝑍𝑡 , 𝑍𝑡−2 ) = 𝐸(𝑍𝑡 𝑍𝑡−2 ) = 𝐸[(𝜙1 𝑍𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 )𝑍𝑡−2 ]
= 𝜙1 𝐸(𝑍𝑡−1 𝑍𝑡−2 ) − 𝐸(𝑎𝑡 𝑍𝑡−2 ) − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−2 ) = 𝜙1 𝛾1 20

𝛾𝑘 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡−𝑘 ) = 𝐶𝑜𝑣(𝑍𝑡 , 𝑍𝑡−𝑘 ) = 𝐸(𝑍𝑡 𝑍𝑡−𝑘 ) = 𝐸[(𝜙1 𝑍𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 )𝑍𝑡−𝑘 ] = 𝜙1 𝛾𝑘−1 = 𝜙1 𝜙1 𝛾𝑘−2
= 𝜙21 𝛾𝑘−2 = ⋯ = 𝜙𝑘−1
1
𝛾1 cuando 𝑘 ≥ 2

20
𝐸(𝑎𝑡 𝑍𝑡−2 ) = 0 y 𝐸(𝑎𝑡−1 𝑍𝑡−2 ) = 0.

16

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
La función de autocorrelación en un proceso MA(1) solamente tiene no nulo el primer coeficiente, mientras que
la de un AR(1) decrece. Un ARMA(1,1) incorporará ambos comportamientos de forma mixta, por lo que el
primer coeficiente tendrá un valor 𝜙1 𝛾0 − 𝜃1 𝜎2 y los siguientes irán disminuyendo (como 𝜙1 < 1, entonces 𝛾𝑘
disminuirá a medida que avanzamos en k). Teniendo esto en cuenta, la función de función de autocorrelación
(FAC) será:
𝜃1 (1 − 𝜙21 )
𝛾𝑘 𝜙1 𝑘=1
𝜌𝑘 = = { 1 − 2𝜙1 𝜃1 + 𝜃21
𝛾0
𝜙𝑘−1
1
𝜌1 𝑘≥2

2.5.2. ARMA(1,1) EXPRESADO COMO MA()


Cuando teníamos un proceso autorregresivo, lo podíamos expresar como suma de las innovaciones, es decir, como
un MA(). Cuando teníamos un modelo de medias móviles de orden finito, lo podíamos expresar como suma de los
valores pasados de la variable, es decir, como un AR(). Ahora, cuando tenemos un modelo mixto autorregresivo
de medias móviles, lo podemos expresar tanto como suma de las innovaciones (MA()) como suma de los valores
pasados de la variable (AR()).
𝜃(𝐵)
Si lo queremos expresar como un MA(), entonces 𝜙(𝐵)𝑍𝑡 = 𝜃(𝐵)𝑎𝑡 → 𝑍𝑡 = 𝑎𝑡 . Lo escribimos también de la
𝜙(𝐵)
siguiente forma e igualamos:
𝑍𝑡 = 𝜓(𝐵)𝑎𝑡 donde 𝜓(𝐵) = 1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯

𝜃(𝐵)
= 𝜓(𝐵) → 𝜃(𝐵) = 𝜙(𝐵)𝜓(𝐵)
𝜙(𝐵)
Esta expresión es válida para cualquier orden; para el caso de un ARMA(1,1) colocamos en orden los coeficientes
de B y sumamos para obtener la ecuación en diferencias:
𝐵0 : 1 = 1
2
1 − 𝜃1 𝐵 = (1 − 𝜙1 𝐵)(1 + 𝜓1 𝐵 + 𝜓𝐵 + ⋯ ) 𝐵1 : 𝜓1 − 𝜙1 = −𝜃1 = 0 → 𝜓1 = 𝜙1 − 𝜃1
1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + 𝜓3 𝐵3 + ⋯ 𝐵2 : 𝜓2 − 𝜙1 𝜓1 = 0 → 𝜓2 = 𝜙1 𝜓1 = 𝜙1 (𝜙1 − 𝜃1 )
𝜙1 𝐵 − 𝜙1 𝜓1 𝐵2 − 𝜙1 𝜓2 𝐵3 + ⋯ 𝐵3 : 𝜓3 − 𝜙1 𝜓2 = 0 → 𝜓3 = 𝜙1 𝜓2 = 𝜙21 (𝜙1 − 𝜃1 )

𝜓𝑘 = 𝜙𝑘−1
1
(𝜙1 − 𝜃1 ) con 𝑘 ≥ 1

2.5.3. ARMA(1,1) EXPRESADO COMO AR()


𝜙(𝐵)
Y si queremos expresar el modelo como un AR(), entonces 𝜙(𝐵)𝑍𝑡 = 𝜃(𝐵)𝑎𝑡 → 𝑎𝑡 = 𝑍𝑡 . Lo escribimos también
𝜃(𝐵)
de la siguiente forma e igualamos:
𝜋(𝐵)𝑍𝑡 = 𝑎𝑡 , donde 𝜋(𝐵) = 1 + 𝜋1 𝐵 + 𝜋2 𝐵2 + ⋯
𝜙(𝐵)
= 𝜋(𝐵) → 𝜙(𝐵) = 𝜃(𝐵)𝜋(𝐵)
𝜃(𝐵)
Esta expresión es válida para cualquier orden; para el caso de un ARMA(1,1) colocamos en orden los coeficientes
de B y sumamos para obtener la ecuación en diferencias:
𝐵0 : 1 = 1
1 − 𝜙1 𝐵 = (1 − 𝜃1 𝐵)(1 + 𝜋1 𝐵 + 𝜋2 𝐵2 + ⋯ ) 𝐵1 : 𝜋1 − 𝜃1 = −𝜙1 → 𝜋1 = 𝜃1 − 𝜙1
1 + 𝜋1 𝐵 + 𝜋2 𝐵2 + 𝜋3 𝐵3 + ⋯ 𝐵2 : 𝜋2 − 𝜃1 𝜋1 = 0 → 𝜋2 = 𝜃1 𝜋1 = 𝜃1 (𝜃1 − 𝜙1 )
−𝜃1 𝐵 − 𝜃1 𝜋1 𝐵2 − 𝜃1 𝜋2 𝐵3 − ⋯ 𝐵3 : 𝜋3 − 𝜃1 𝜋2 = 0 → 𝜋3 = 𝜃1 𝜋2 = 𝜃21 (𝜃1 − 𝜙1 )

𝜋𝑘 = 𝜃𝑘−1
1 (𝜃1 − 𝜙1 ) con 𝑘 ≥ 1

17

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
2.5.4. AJUSTE BOX Y JENKINS
Hasta ahora hemos estudiado las propiedades teóricas de los diferentes procesos AR, MA y ARMA; a partir de
ahora vamos a analizar cómo ajustar estos modelos a series reales. Box y Jenkins propusieron realizar este ajuste
en cuatro etapas.

A) IDENTIFICACIÓN DE LOS POSIBLES MODELOS ARMA


La primera etapa consiste en identificar el posible modelo de la serie, lo que requiere seguir una serie de pasos:

I. ESTIMAR LA FACP
A partir de nuestra serie 𝑍𝑡 podemos construir y estimar los coeficientes de la FACP para un AR(1), un
AR(2), ..., AR(k):
𝑍𝑡 = 𝛼𝑘1 𝑍𝑡−1 + 𝛼𝑘2 𝑍𝑡−2 + ⋯ + 𝛼𝑘𝑘 𝑍𝑡−𝑘 + 𝑎𝑡
Para 𝑘 = 1: 𝛼11
Para 𝑘 = 2: 𝛼21 , 𝛼22
Para 𝑘 = 3: 𝛼31 , 𝛼32 , 𝛼33
...
𝛼11 , 𝛼22 , 𝛼33 , … son FACP estimada
El coeficiente 𝛼𝑘𝑘 va a estimar a la función de autocorrelación parcial: 𝛼𝑘𝑘 → 𝜌̃.
𝑘 Calculamos la FACP
estimada mediante matrices y, según le vayamos dando valores a k, vamos obteniendo resultados de 𝛼.
Tenemos el vector 𝛼, los coeficientes de autocorrelación Ρ y la matriz 𝑅 tales que:
𝛼 = (𝛼𝑘1 , 𝛼𝑘2 , 𝛼𝑘3 , … , 𝛼𝑘𝑘 )𝑡
Ρ = (𝜌1 , 𝜌2 , … , 𝜌𝑘 )
1 𝜌1 … 𝜌𝑘−1
𝜌1 1 … 𝜌𝑘−2
𝑅=( )
… … … …
𝜌𝑘−1 𝜌𝑘−2 … 1
𝛼 = 𝑅 −1 Ρ

II. ESTIMAR LA FAC


También debemos estimar los FAC de la serie temporal para obtener los coeficientes de autocorrelación
Ρ. Lo hacemos con el coeficiente de autocorrelación muestral:
∑𝑇−𝑘
𝑡=1 (𝑋𝑡 − 𝑥̅ )(𝑋𝑡−𝑘 − 𝑥̅ )
𝑟𝑘 = donde 𝑇 ≡ longitud de la serie 𝑋𝑡
∑𝑇𝑡=1(𝑋𝑡 − 𝑥̅ )2
Mediante esta ecuación podemos calcular 𝑟1 , 𝑟2 , 𝑟3 , … y ya tendríamos con esta sucesión la función de
autocorrelación (FAC) estimada.

III. CORRELOGRAMA DE FAC Y FACP ESTIMADAS


En estos gráficos podremos analizar su comportamiento (decrecimiento geométrico o alterno) y el número
de coeficientes no nulos. Tanto la función de autocorrelación parcial estimada (𝛼𝑘𝑘 ) como la función de
autocorrelación estimada (𝑟𝑘 ) se distribuyen de la siguiente manera:
1 𝜌𝑘 = 0
𝛼𝑘𝑘 , 𝑟𝑘 ~ 𝑁 (0, ) bajo la 𝐻0 :
√𝑇 𝜌
̃𝑘 = 0

Bajo estas condiciones, dibujamos las bandas de confianza al 95% (con un nivel de significación 𝛼 = 5%
±2
o una confianza 1 − 𝛼 = 95%): . Gracias a estas bandas sabremos decir si algún coeficiente es
√𝑇
2 2
significativo: |𝛼𝑘𝑘 | > ̃𝑘 ≠ 0 ó |𝑟𝑘 | >
→ 𝜌 → 𝜌
̃𝑘 ≠ 0 (se rechaza 𝐻0 , por lo que las FAC y FACP no
√𝑇 √𝑇
se distribuyen de la forma que hemos dicho).

18

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
IV. IDENTIFICAR LA ESTRUCTURA
Compararemos los dos correlogramas obtenidos de las FAC y FACP estimadas con sus correspondientes
correlogramas teóricos:

FAC FACP

AR(p) Decrecimiento rápido


Se anula para k>p
Muchos coeficientes no nulos

MA(q) Decrecimiento rápido


Se anula para k>q
Muchos coeficientes no nulos
Los primeros q valores no tienen un Los primeros p valores no tienen un
ARMA(p,q) patrón fijo y, a continuación, hay un patrón fijo y, a continuación, hay un
decrecimiento asociado al MA() decrecimiento asociado al AR()

El decrecimiento puede ser puro, alterno, o sinusoidal. Tras haber realizado estos cuatro pasos, podremos
identificar con qué tipo de serie estamos tratando.
ARMA(1,1)
FAC FACP
𝜽𝟏 > 𝟎 𝜽𝟏 > 𝟎

𝜽𝟏 < 𝟎 𝜽𝟏 < 𝟎

ARMA(1,2)
FAC FACP
Las raíces de 𝜃(𝐵) tienen distinto signo Las raíces de 𝜃(𝐵) tienen distinto signo

ARMA(2,1)
FAC FACP
Las raíces de 𝜃(𝐵) son complejas Las raíces de 𝜃(𝐵) son complejas

19

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
V. CONSTANTE
Debemos determinar si nuestro modelo tiene constante (esto significa que si 𝛿 ≠ 0, entonces 𝜇 = 𝐸(𝑋𝑡 ) ≠
0) y, en caso de no tenerla, determinar si debemos incluirla. Para ello, calculamos la media muestral.

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Ejemplo 7: De forma general, a un nivel de significación 1 − 𝛼 = 95%,
𝑇
1
𝑥̅ = ∑ 𝑋𝑡
𝑇
𝑡=1
𝛿𝑥
𝐻0 : 𝜇 = 0 → 𝑥̅ ~ 𝑁 (0, )
√𝑇
𝑆𝑥
|𝑥̅ | > 2 → 𝜇 ≠ 0 → 𝛿 ≠ 0 donde 𝑆𝑥 ≡ desviación típica de 𝑋𝑡
√𝑇
Rechazamos 𝐻0 con una confianza del 95%, por lo que 𝛿 ≠ 0. Así pues, debemos incluir una constante
en nuestro modelo.

B) ESTIMACIÓN
Una vez identificado y seleccionado provisionalmente un modelo para la serie estacionaria (determinado p y q),
y determinado si hay que incluir constante, pasamos a la segunda etapa de estimación, donde los parámetros

Reservados todos los derechos.


AR y MA del modelo se estiman por máxima verosimilitud y se obtienen sus errores estándar y los residuos del
modelo. Vamos a distinguir dos casos: los procesos AR y los MA; y ver qué criterios debemos seguir para
seleccionar un modelo estimado.

I. PROCESOS AR
Dado un proceso autorregresivo, dado p, podremos estimar los coeficientes a través de las ecuaciones
de Yule-Walker:
Φ̂ = 𝑅̂ ̂
−1 Ρ

̂1
𝜙 1 𝑟1 … 𝑟𝑝−1 −1 𝑟1
̂2
𝜙 𝑟1 1 … 𝑟𝑝−2 𝑟2
=( ) (…)
… … … … …
̂𝑝
𝜙 𝑟𝑝−1 𝑟𝑝−2 … 1 𝑟𝑝
( )
Para los procesos MA y ARMA, si utilizásemos este sistema, estimaríamos un AR().

II. PROCESOS MA Y ARMA


Como si utilizásemos las ecuaciones de Yule-Walker para los procesos de medias móviles y ARMA nos
iríamos a un AR(), para este tipo de procesos debemos utilizar la función de verosimilitud:
𝑋𝑡 → 𝐹(𝑥1 , … , 𝑥𝑇 ) → 𝑙𝑛𝐹(𝑥1 , … , 𝑥𝑇 ) = ℒ ≡ verosimilitud
Queremos maximizar ℒ y, para ello, vamos a utilizar el procedimiento de máxima verosimilitud, MV.
Existen dos formas de proceder:
• Máxima verosimilitud condicional. A la hora de escribir las ecuaciones tenemos que hacer el
supuesto de que los primeros r valores de las innovaciones son cero: 𝑎1 = ⋯ = 𝑎𝑟 = 0, 𝑟 =
max(𝑝, 𝑞).
• Máxima verosimilitud exacta. Ya no es necesario hacer ningún supuesto, no se establece
ninguna restricción sobre las innovaciones, y lo que se usa ahora es el llamado Filtro de Kalman.

III. SELECCIÓN DE MODELOS


Una vez estimado el modelo, tendremos que seleccionar el modelo más conveniente. A la hora de elegir
un modelo va a primar el número de parámetros (queremos modelos con el menor número de
parámetros) y el error de estimación (queremos modelos con el menor error de estimación). Existen
dos criterios para llegar a una conclusión:

20

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
• CRITERIO DE AKAIKE - AIC
Este criterio asigna un valor a cada modelo estimado:
̂2 + 2𝐾
𝐴𝐼𝐶 = 𝑇 · 𝑙𝑛𝜎
̂2 ≡ varianza estimada de 𝑎𝑟 , y 𝐾 ≡ nº de parámetros estimados. Por
donde T ≡ longitud de la serie, 𝜎
ejemplo, en un ARMA(1,2) K= 3 si no hay constante, y K= 4 si hay constante. Según este criterio,
debemos elegir el modelo que tenga el menor valor AIC. Este criterio requiere que todos los modelos
se estimen con el mismo número de observaciones, por lo que el método de estimación que
debemos usar para utilizarlo es el de máxima verosimilitud exacta. Esto es porque la longitud de la
serie será distinta según el modelo que utilicemos y, con la MV exacta, evitamos este problema.
Se dice que el criterio AIC es eficiente en el sentido de que seleccionará el modelo que tenga el menor
error de predicción, pero permitiendo que el número de parámetros pueda aumentar con el tamaño
muestral.

• CRITERIO DE SCHWARZ - BIC


Este criterio también asigna un valor a cada modelo estimado:
̂2 + 𝐾 · 𝑙𝑛𝑇
𝐵𝐼𝐶 = 𝑇 · 𝑙𝑛𝜎
De igual forma, según este criterio, debemos elegir el modelo que tenga el menor valor BIC. De la
misma forma y por la misma razón que con el criterio de Akaike, el método de estimación que debemos
usar para llevarlo a cabo es el de máxima verosimilitud exacta.
Puede ocurrir que, una vez estimados, por ejemplo, 3 modelos, el criterio de Akaike nos diga que el
que debemos elegir sea el segundo y el criterio de Schwarz nos diga que el tercero (que no coincidan).
En esta situación, nos guiaremos por el criterio BIC, ya que penaliza más que el AIC la introducción
de parámetros, selecciona los modelos con menos parámetros (usualmente 𝑙𝑛𝑇 > 2). Si decíamos
que el criterio BIC era uno eficiente, este es un criterio consistente, ya que seleccionará el orden más
probable.

C) DIAGNOSIS
La tercera etapa es la de diagnosis, donde se comprueba que el modelo es válido; que los residuos no tienen
estructura de dependencia y siguen un proceso de ruido blanco. Si los residuos no contienen información,
aceptamos el modelo como adecuado y lo utilizaremos para la previsión o la toma de decisiones. Si los residuos
muestran estructura, modificaremos el modelo para incorporarla y repetiremos las dos etapas anteriores hasta
obtener un modelo adecuado.
Vamos a efectuar la comprobación de varias hipótesis sobre los coeficientes y sobre los residuos o innovaciones
estimadas. Efectuaremos esta etapa en varios pasos:

I. COEFICIENTES Y CONSTANTE
Debemos estudiar si los coeficientes y la constante que hemos estimado son significativos. Suponemos que
las innovaciones son normales idénticamente distribuidas: 𝑎𝑡 𝑖𝑖𝑑 𝑁(0, 𝜎 2 ). Bajo este supuesto (que luego
tendremos que verificar también), cualquier coeficiente o parámetro 𝛽̂𝑖 ~ 𝑁 (𝛽𝑖 , 𝑉(𝛽̂𝑖 )), donde 𝛽 es un conjunto
de parámetros: 𝛽 = ( 𝛿, 𝜙1 , … , 𝜙𝑝 , 𝜃1 , … , 𝜃𝑞 , 𝜎 2 ) con una distribución 𝑁(0, 𝜎 2 ).

a) Contraste de significatividad

Realizamos un contraste donde 𝐻0 : 𝛽𝑖 = 0. Si este se cumple, 𝛽̂𝑖 ~ 𝑁 (0, 𝑉(𝛽̂𝑖 )) y diremos que 𝛽𝑖 no es

̂𝑖 |
|𝛽
significativo. En cambio, para un nivel de significación 𝛼, si 𝑝 = 𝑃𝑟𝑜𝑏 (𝑍 > ) < 𝛼 o si
̂𝑖 )
̂ (𝛽
√𝑉

̂̂), lo rechazaremos y diremos que 𝛽𝑖 es significativo. Podemos también, supuesto que


|𝛽̂𝑖 | > 𝑍1−𝛼 √𝑉(𝛽 𝑖
1/2
𝑎𝑡 𝑖𝑖𝑑 𝑁(0, 𝜎 2 ), calcular el intervalo de confianza de cualquier parámetro 𝛽𝑖 : 𝛽𝑖 ∈ (𝛽̂𝑖 ± 𝑍1−𝛼 𝑉̂ (𝛽̂𝑖 ) ).

21

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
b) Raíces de los polinomios
No debe haber raíces de los polinomios que, en módulo, tanto en la parte autorregresiva 𝜙(𝐵) como en la
parte de medias móviles 𝜃(𝐵), estén próximas a la unidad: |𝜆𝑖 | ≈ 1. Si esto ocurriera en la parte AR,
sabríamos que el modelo no es estacionario y, por lo tanto, deberíamos trabajar con la serie de primera
diferencia: 𝑥𝑡 , 𝑦𝑡 = (1 − 𝐵)𝑥𝑡 = 𝑥𝑡 − 𝑥𝑡−1 . Si ocurriera en la parte MA, sabríamos que el modelo no es
invertible y, por lo tanto, deberíamos estimar otro modelo.

c) Factores comunes
No deben existir factores comunes en ninguna de las partes para que no se simplifiquen o cancelen. Para
comprobar que no existen factores comunes, tanto en los ejercicios teóricos como en la parte práctica, es
recomendable calcular las raíces y factorizar los polinomios.
Dado un ARMA(2,1): (1 − 0,8𝐵)(1 − 0,5𝐵)𝑋𝑡 = (1 − 0,49𝐵)𝑎𝑡 → 0,5 ≈ 0,49, por lo que realmente
tendríamos un AR(1): (1 − 0,8𝐵)𝑋𝑡 = 𝑎𝑡

d) Estimación con constante


Si estimamos el modelo con constante (𝛿 ≠ 0), si cuando realicemos el contraste 𝐻0 : 𝛿 = 0 resulta que se
acepta (𝑝 > 𝛼), entonces se deberá estimar otro modelo o el mismo modelo sin constante.

II. RESIDUOS / INNOVACIONES ESTIMADAS


Si a las innovaciones de un proceso de ruido blanco (del cual debe demostrarse que tiene varianza constante
y media y autocorrelaciones nulas) le añadimos el supuesto de normalidad también tendremos que estudiar
si los residuos provienen de una distribución normal. Dadas las innovaciones estimadas 𝑎̂𝑡 de un proceso,
debemos hacer una serie de pasos:

a) Residuos no correlacionados
Estudiamos la función de autocorrelación estimada calculando la autocorrelación muestral:
∑𝑇𝑡=𝑘(𝑎̂𝑡 − 𝑎̅)(𝑎
̂𝑡−𝑘 − 𝑎
̅)
𝑟𝑘 =
∑𝑇𝑡=1(𝑎̂𝑡 − 𝑎̅)
Y una vez calculada, disponemos de dos elementos para decidir si los residuos no están correlacionados:
el correlograma y el estadístico Q de Ljung -Box. El correlograma nos dirá que los residuos no están
correlacionados si ninguno de los coeficientes es significativo (todos están dentro de las bandas de
confianza). Pero, si algún coeficiente de correlación es significativo (lo cual no siempre quiere decir que
los residuos tengan correlación), podemos usar el estadístico Q de Ljung-Box. Bajo la hipótesis nula de
(𝑎)
que los coeficientes de correlación para las innovaciones son nulos (𝐻0 : 𝜌𝑘 = 0 para 𝑘 = 1,2, … , ℎ), el
estadístico Q para los primeros h coeficientes será de la forma:

𝑟𝑗2 2
𝑄(ℎ) = 𝑇(𝑇 + 2) ∑ ~ 𝜒ℎ−𝑛 donde 𝑛 = 𝑝 + 𝑞 + (1| 0) según se introduzca o no una constante
𝑇−𝑗
𝑗=1

2
Si resulta que 𝑄(ℎ) > 𝜒ℎ−𝑛,1−𝛼 , entonces rechazaremos 𝑯𝟎 , lo que significará que los residuos están
correlacionados y, por lo tanto, que deberíamos estimar otro modelo. Podemos también llegar a la misma
2
conclusión con el p-valor: si 𝑝 = (𝜒ℎ−𝑛 > 𝑄(ℎ)) < 𝛼, entonces rechazaremos 𝑯𝟎 .

b) Residuos con media cero


Debemos comprobar que los residuos tienen media cero. Para ello, construimos la hipótesis nula
𝐻0 : 𝐸(𝑎𝑡 ) = 0, para lo cual tenemos que calcular la media y la varianza del proceso:
𝑇 𝑇
1 1
𝑎̅ = ∑ 𝑎̂𝑡 ̂2 =
𝜎 ∑(𝑎̂𝑡 − 𝑎̅)2
𝑇 𝑇
𝑡=1 𝑡=1

𝜎̂2 |𝑎̅|
Bajo el supuesto de normalidad en el que 𝑎̅~𝑁 (0, ), si > 𝑍1−𝛼 , rechazaremos 𝐻0 donde 𝑍~𝑁(0,1).
𝑇 𝜎
̂ /√𝑟
Podemos también llegar a la misma conclusión con el p-valor: si 𝑝 < 𝛼, entonces rechazaremos 𝐻0 y
tendremos que volver a repetirlo pero incluyendo la constante.

22

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
c) Homocedasticidad
Debemos comprobar que la varianza marginal de los residuos sea estable, lo cual lo haremos con el
gráfico de los residuos frente al tiempo. Solamente diremos que es estable cuando los residuos se
dispersan de forma constante, en contraposición con una variabilidad aumenta o disminuye en el tiempo.

Varianza estable Varianza inestable

d) Normalidad de los residuos


∑𝑇
𝑡=1(𝑎
̂−𝑎
𝑡 ̅)
3
Tras construir o estimar el coeficiente de asimetría muestral 𝛼1 = y el coeficiente de curtosis
𝜎̂3
∑𝑇
𝑡=1(𝑎
̂−𝑎
𝑡 ̅)
4
muestral 𝛼1 = , establecemos que 𝐻0 : 𝑎𝑡 ~ 𝑁(0, 𝜎 2 ) y construimos el estadístico Jarque-Bera:
𝜎̂4
𝑇𝛼12 𝑇(𝛼2 − 3)3
𝐽𝐵 = + ~𝜒22
6 24
Bajo el supuesto de que los residuos son normales, diremos que 𝐽𝐵~𝜒22 . Y si 𝐽𝐵 > 𝜒2,1−𝛼
2
, entonces
rechazaremos 𝑯𝟎 21. De otra forma, con el p-valor, si 𝑝 = 𝑃𝑟𝑜𝑏(𝜒22 > 𝐽𝐵) < 𝛼 también rechazaremos 𝐻0 .

e) Valores atípicos
Para comprobar si el modelo tiene valores atípicos, lo que deberemos hacer es graficar los residuos o
las innovaciones estimadas frente al tiempo con unas bandas con valor de |𝟑𝝈 ̂| ó |𝟐𝝈
̂ |. Si algún valor
sobresaliera claramente de las bandas, tendríamos un valor atípico, lo cual se correspondería con la
existencia de un valor atípico en la variable original.

D) PREDICCIÓN
Dada una realización de longitud T de un proceso estocástico 𝑧𝑡 ARMA
{zt }: zt , zt , … , zt y 𝜙𝑝 (𝐵)𝑧𝑡 = 𝛿 + 𝜃𝑞 (𝐵) 𝑎𝑡 donde 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉(𝑎𝑡 ) = 𝜎 2 ,

se desea realizar una predicción de un valor futuro m periodos hacia adelante, es decir, conocer el valor de
𝑧𝑇+𝑚 donde 𝑚 > 0. Si se conoce la serie temporal, se podrán calcular los valores de las innovaciones 𝑎1 , 𝑎2 , … , 𝑎 𝑇
estableciendo el estimador o predictor en el instante T+m a partir del instante T: 𝑧𝑇+𝑚|𝑇
̂ = 𝑧̂(𝑚).
𝑇 Este predictor
será una combinación lineal de los valores de la variable y de las innovaciones con origen en el instante T. A
esto se le conoce como predicción en T con horizonte m. El error de predicción de este predictor es:
𝑒𝑇+𝑚|𝑇
̂ = 𝑒̂(𝑚)
𝑇 = 𝑧𝑇+𝑚 − 𝑧̂(𝑚)
𝑇

Vamos a suponer también que el modelo ARMA es conocido, lo cual significa que conocemos los coeficientes
𝜙𝑖 y 𝜃𝑗 , además de la varianza de la innovación: 𝑉(𝑎𝑡 ) = 𝜎 2. El modelo debe estar escrito de la forma MA():
𝑧𝑡 = 𝑎𝑡 + 𝜓1 𝑎𝑡−1 + 𝜓2 𝑎𝑡−2 + ⋯
𝑧𝑡 = (1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ )𝑎𝑡

I. PREDICTOR ÓPTIMO
El predictor óptimo es aquel que hace mínimo el error cuadrático medio del predictor: 𝑚í𝑛 𝐸𝐶𝑀[𝑧̂
𝑇 (𝑚)],
siendo:
𝐸𝐶𝑀[𝑧̂(𝑚)]
𝑇 = 𝐸𝑇 [𝑒𝑇2 (𝑚)] = 𝐸𝑇 [(𝑧𝑇+𝑚 − 𝑧̂(𝑚))
𝑇
2]

𝐸𝐶𝑀[𝑧̂(𝑚)]
𝑇 = 𝐸[𝑒𝑇2 (𝑚)|𝑧𝑡 ]22 = 𝐸[(𝑧𝑇+𝑚 − 𝑧̂(𝑚))
𝑇
2
|𝑧𝑡 ]
Entonces, el predictor óptimo m periodos hacia delante a partir del instante T es 𝑧̂
𝑇 (𝑚) = 𝐸[𝑧𝑇+𝑚 |𝑧𝑡 ].

2
21
El percentil para 𝜒2,0.95 = 5,99
22
|𝑧𝑡 significa que está condicionado al último valor; conocidos los valores hasta el instante T.

23

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
II. CÁLCULO DE PREDICCIONES
Hacemos el supuesto simple de que la innovación inicial es cero: 𝑎1 = 𝐸(𝑎1 ) = 0. Así, podremos calcular el
predictor óptimo con horizonte m a partir del último valor observado: 𝑧̂
𝑇 (𝑚) = 𝐸𝑇 (𝑧𝑇+𝑚 ) = 𝐸(𝑧𝑇+𝑚 |𝑧𝑇 ). De
igual manera, podemos obtener el predictor para la innovación: 𝑎̂(𝑚) = 𝐸𝑇 (𝑎 𝑇+𝑚 ) = 𝐸(𝑎 𝑇+𝑚 |𝑧𝑇 ). De forma

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
𝑇
general, un proceso ARMA(p,q) se puede escribir como
𝑧𝑡 = 𝛿 + 𝜙1 𝑧𝑡−1 + ⋯ + 𝜙𝑝 𝑧𝑡−𝑝 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 − ⋯ − 𝜃𝑞 𝑎𝑡−𝑞
Para el instante T+m, el valor de la variable que queremos calcular tendrá la siguiente forma:
𝑧𝑇+𝑚 = 𝛿 + 𝜙1 𝑧𝑇+𝑚−1 + ⋯ + 𝜙𝑝 𝑧𝑇+𝑚−𝑝 + 𝑎 𝑇+𝑚 − 𝜃1 𝑎 𝑇+𝑚−1 − ⋯ − 𝜃𝑞 𝑎 𝑇+𝑚−𝑞
Y el predictor óptimo en ese instante T+m será:
𝑧̂(𝑚)
𝑇 = 𝐸𝑇 (𝑧𝑇+𝑚 ) = 𝛿 + 𝜙1 𝑧̂(𝑚
𝑇 − 1) + ⋯ + 𝜙𝑝 𝑧̂(𝑚
𝑇 − 𝑝) + 𝑎̂(𝑚)
𝑇 − 𝜃1 𝑎̂(𝑚
𝑇 − 1) − ⋯ − 𝜃𝑞 𝑎̂(𝑚
𝑇 − 𝑞)
Entonces, cada una de estas predicciones para cada instante (𝑚 − 1, 𝑚 − 2, . . . , 𝑚 − 𝑝), tanto de la variable
como de la innovación, será:
𝑧𝑇+𝑚−𝑗 si 𝑚 ≤ 𝑗 23
𝑧̂(𝑚
𝑇 − 𝑗) = 𝐸𝑇 (𝑧𝑇+𝑚−𝑗 ) = {
𝑧̂ 𝑇 (𝑚 − 𝑗) si 𝑚 > 𝑗 24
Y el predictor para las innovaciones para cada instante será:

Reservados todos los derechos.


𝑎 𝑇+𝑚−𝑗 si 𝑚 ≤ 𝑗
𝑎̂(𝑚
𝑇 − 𝑗) = 𝐸𝑇 (𝑎 𝑇+𝑚−𝑗 ) = {
0 si 𝑚 > 𝑗 25
Podemos interpretar siempre las innovaciones como los errores de predicción un periodo por delante.
Con un ejemplo, cuando 𝑚 = 1, la innovación en el instante T+1 sería el valor de la variable en el instante
T+1 menos el predictor: 𝑎 𝑇+1 = 𝑧𝑇+1 − 𝑧̂(1)
𝑇

III. TEOREMA
Para cualquier proceso estacionario ARMA(p,q), cuando el horizonte de predicción tiende hacia infinito, el
límite de la predicción es la media marginal del proceso será 𝑧̂(1)
𝑇 → 𝐸(𝑧𝑡 ).
𝑚→∞

Ejemplo 8: Dado un AR(1): 𝑧𝑡 = 𝛿 + 𝜙1 𝑧𝑡−1 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2 estacionario (|𝜙1 | < 1),
calcular la predicción m periodos hacia adelante.
Para 𝑚 = 1, el valor de la variable es 𝑧𝑇+1 = 𝛿 + 𝜙1 𝑧𝑇 + 𝑎 𝑇+1 y el predictor con horizonte uno será la
esperanza condicionada a los valores observados:
𝑧̂(1)
𝑇 = 𝐸𝑇 (𝑧𝑇 (1)) = 𝐸𝑇 (𝑧𝑇+1 ) = 𝛿 + 𝜙1 𝑧𝑇 + 026
Para 𝑚 = 2, el valor de la variable es 𝑧𝑇+2 = 𝛿 + 𝜙1 𝑧𝑇+1 + 𝑎 𝑇+2 y el predictor será:
𝑧̂(2) = 𝐸𝑇 (𝑧𝑇 (2)) = 𝐸𝑇 (𝑧𝑇+2 ) = 𝛿 + 𝜙1 𝑧̂(1) 27 + 0 = 𝛿 + 𝜙 ( 𝛿 + 𝜙 𝑧 ) = (1 + 𝜙 ) 𝛿 + 𝜙 2 𝑧
𝑇 𝑇 1 1 𝑇 1 1 𝑇

Para 𝑚 = 3, el valor de la variable es 𝑧𝑇+3 = 𝛿 + 𝜙1 𝑧𝑇+2 + 𝑎 𝑇+3 y el predictor será:


𝑧̂(3)
𝑇 = 𝐸𝑇 (𝑧𝑇+3 ) = 𝛿 + 𝜙1 𝑧̂(2)
𝑇 + 0 = (1 + 𝜙1 + 𝜙12 ) 𝛿 + 𝜙13 𝑧𝑇
𝑗
Para 𝑚 𝑔𝑒𝑛𝑒𝑟𝑎𝑙, el predictor será 𝑧̂(𝑚)
𝑇 = 𝛿 ∑𝑚−1 𝑚
𝑗=0 𝜙1 + 𝜙1 𝑧𝑇

El límite del predictor cuando 𝑚 → ∞ es:



𝑗 1 − 𝜙1∞ 𝛿
lim 𝑧̂(𝑚)
𝑇 = 𝛿 ∑ 𝜙1 + 𝑧𝑇 lim 𝜙1𝑚 = 𝛿 + 𝑧𝑇 𝜙1∞ = 28 = 𝐸(𝑧 )
𝑡
𝑚→∞ 𝑚→∞ 1 − 𝜙1 1 − 𝜙1
𝑗=0

Entonces, para procesos estacionarios, el límite de la predicción cuando el horizonte tiende a infinito es la
esperanza marginal del proceso.

23
Conocemos los valores anteriores a la predicción, ya que 𝑚 ≤ 𝑗 (están entre los instantes 1 y T) y, por lo tanto, solo hay que
sustituir, el predictor es el valor observado.
24
No conocemos los valores anteriores a la predicción, ya que 𝑚 > 𝑗 y, por lo tanto, hay que sustituirlos por la predicción.
25
No conocemos los valores anteriores a la predicción, ya que 𝑚 > 𝑗 y, por lo tanto, hay que sustituirlos por la predicción pero, por
ser ruido blanco, no depende de los valores pasados y la predicción óptima de las innovaciones es cero.
26
La esperanza condicionada de la innovación (𝑎 𝑇+1 ) es cero.
27
Como no conocemos la esperanza condicionada en T+1, lo sustituimos por su predicción (𝑍 ̂𝑇 (1)).
28
Como |𝜙1 | < 1 porque el proceso es estacionario, 𝜙1∞ = 0.

24

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Ejemplo 9: Dado un AR(1): 𝑧𝑡 = 𝛿 + 𝑧𝑡−1 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑦 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2 no estacionario (|𝜙1 | = 1),
calcular la predicción m periodos hacia adelante.
Para 𝑚 = 1, 𝑧̂(1) 𝑇 = 𝛿 + 𝑧𝑇
Para 𝑚 = 2, 𝑧̂(2) 𝑇 = 2 𝛿 + 𝑧𝑇
Para 𝑚 = 3, 𝑧̂(3) 𝑇 = 3 𝛿 + 𝑧𝑇
Para 𝑚 𝑔𝑒𝑛𝑒𝑟𝑎𝑙, el predictor será 𝑧̂(𝑚)
𝑇 = 𝑚 𝛿 + 𝑧𝑇 → ∞
𝑚→∞

Este proceso, conocido como paseo aleatorio con deriva, es un proceso no estacionario con esperanza
𝐸(𝑧𝑇 ) = 𝑡 𝛿. Así pues, cuando 𝑡 = ∞, su esperanza es también ∞.

Hemos comprobado que el límite del predictor de horizonte m cuando dicho horizonte tiende a ∞ siempre es
la media marginal del proceso. Cuando el proceso es estacionario, su media marginal es constante, y
cuando no lo es, su media marginal es infinita.

Ejemplo 10: Dada la primera diferencia de una serie que sigue un MA(1), calcular su predicción m
periodos hacia adelante.
∆𝑧𝑡 = (1 − 𝜃1 𝐵)𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2
Podemos calcular las predicciones de 𝑦𝑡 = ∆𝑧𝑡 : 𝑦𝑡 = 𝑎𝑡 − 𝜃1 𝑎𝑡−1
Para 𝑚 = 1, el valor de la variable es 𝑦𝑇+1 = 𝑎 𝑇+1 − 𝜃1 𝑎 𝑇 y el predictor será 𝑦̂(1)
𝑇 = 𝐸𝑇 (𝑦𝑇+1 ) = 0 − 𝜃1 𝑎 𝑇
Para 𝑚 = 2, el valor de la variable es 𝑦𝑇+2 = 𝑎 𝑇+2 − 𝜃1 𝑎 𝑇+1 y el predictor será 𝑦̂(2)
𝑇 = 𝐸𝑇 (𝑦𝑇+2 ) = 0
Para un MA(1), con horizonte 1, la predicción es ≠ 0, una porción de la última innovación conocida, y para
un horizonte ≥ 2, la predicción es = 0.
Si quisiéramos calcular la predicción para 𝒛𝑻 (𝑧̂(𝑚))
𝑇 y no para su primera diferencia,
𝑧𝑡 − 𝑧𝑡−1 = 𝑎𝑡 − 𝜃1 𝑎𝑡−1
𝑧𝑡 = 𝑧𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 → ARMA(1,1)29
Para 𝑚 = 1, el valor de la variable es 𝑧𝑇+1 = 𝑧𝑇 + 𝑎 𝑇+1 − 𝜃1 𝑎 𝑇 y el predictor será:
𝑧̂(1)
𝑇 = 𝐸𝑇 (𝑧𝑇+1 ) = 𝑧𝑇 + 0 − 𝜃1 𝑎 𝑇
Si nos fijamos, la predicción para la primera diferencia con 𝑚 = 1,
𝑦̂(1)
𝑇 = 𝑧̂(1)
𝑇 − 𝑧𝑇 = −𝜃1 𝑎 𝑇 → 𝑧̂(1)
𝑇 = 𝑧𝑇 − 𝜃1 𝑎 𝑇
Para 𝑚 = 2, el valor de la variable es 𝑧𝑇+2 = 𝑧𝑇+1 + 𝑎 𝑇+2 − 𝜃1 𝑎 𝑇+1 y el predictor será:
𝑧̂(2)
𝑇 = 𝐸𝑇 (𝑧𝑇+2 ) = 𝑧̂(1)
𝑇 + 0 − 0 = 𝑧𝑇 − 𝜃1 𝑎 𝑇
Para 𝑚 𝑔𝑒𝑛𝑒𝑟𝑎𝑙, 𝑧̂(𝑚)
𝑇 = 𝑧𝑇 − 𝜃1 𝑎 𝑇
Podemos ver que, mientras que para la primera diferencia la predicción con horizonte 1 es 𝑦̂(1)
𝑇 = −𝜃1 𝑎 𝑇 ,
y con horizonte 𝑚 ≥ 2 es 𝑦̂(𝑚)
𝑇 = 0 (porque los dos sumandos tienen el mismo valor: 𝑦̂(2) 𝑇 = 𝑧̂(2)
𝑇 −
𝑧̂(1)
𝑇 = 𝑧̂(1)
𝑇 − 𝑧̂(1)
𝑇 = 0), para 𝑧𝑇 no estacionaria sin diferenciar tenemos que 𝑧̂(𝑚)
𝑇 = 𝑧𝑇 − 𝜃1 𝑎 𝑇 para
todo m.

Ejemplo 11: Dado un MA(2): 𝑧𝑡 = 𝛿 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 − 𝜃2 𝑎𝑡−2 con 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2 estacionario,


calcular la predicción un periodo hacia adelante.
Para 𝑚 = 1, el valor de la variable es 𝑧𝑇+1 = 𝛿 + 𝑎 𝑇+1 − 𝜃1 𝑎 𝑇 − 𝜃2 𝑎 𝑇−1 y el predictor será:
𝑧̂(1)
𝑇 = 𝐸𝑇 (𝑧𝑇+1 ) = 𝛿 + 𝑎̂(1)
𝑇 − 𝜃1 𝑎 𝑇 − 𝜃2 𝑎 𝑇−1 = 𝛿 − 𝜃1 𝑎 𝑇 − 𝜃2 𝑎 𝑇−1
Para 𝑚 = 2, el valor de la variable es 𝑧𝑇+2 = 𝛿 + 𝑎 𝑇+2 − 𝜃1 𝑎 𝑇+1 − 𝜃2 𝑎 𝑇 y el predictor será:
𝑧̂(2)
𝑇 = 𝐸𝑇 (𝑧𝑇+2 ) = 𝛿 + 𝑎̂(2)
𝑇 − 𝜃1 𝑎̂(1)
𝑇 − 𝜃2 𝑎 𝑇 = 𝛿 − 𝜃2 𝑎 𝑇
Para 𝑚 = 3, el valor de la variable es 𝑧𝑇+3 = 𝛿 + 𝑎 𝑇+3 − 𝜃1 𝑎 𝑇+2 − 𝜃2 𝑎 𝑇+1 y el predictor será:
𝑧̂(3)
𝑇 = 𝐸𝑇 (𝑧𝑇+3 ) = 𝛿 + 𝑎̂(3)
𝑇 − 𝜃1 𝑎̂(2)
𝑇 − 𝜃2 𝑎̂(1)
𝑇 = 𝛿
Así pues, para 𝑚 ≥ 3, el predictor será 𝑧̂(𝑚)
𝑇 + 𝐸𝑇 (𝑧𝑇+𝑚 ) = 𝛿
Con lo cual, el límite del predictor cuando 𝑚 → ∞ es: lim 𝑧̂(𝑚)
𝑇 = 𝛿 = 𝐸(𝑧𝑡 )
𝑚→∞

29
Como el coeficiente de la parte autorregresiva es uno, el proceso sigue sin ser estacionario.

25

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
IV. VARIANZA DE LAS PREDICCIONES
Calcular la varianza de las predicciones nos servirá para calcular el error de predicción o esperado, lo cual
nos permitirá calcular intervalos de confianza. Dado un proceso {𝑍𝑡 } y una realización 𝑍1 , … , 𝑍𝑇 y conocido el
modelo (ARMA(p,q)), debemos expresar el modelo de la forma MA(): 𝑍𝑡 = 𝜓(𝐵)𝑎𝑡 donde 𝜓(𝐵) = 1 + 𝜓1 𝐵 +
𝜓2 𝐵2 + ⋯. Como siempre, calculamos el valor de la variable en T+m: 𝑍𝑇+𝑚 = ∑∞ 𝑗=0 𝜓𝑗 𝑎 𝑇+𝑚−𝑗 donde 𝜓0 = 1.
A continuación, calculamos el predictor:

𝑧̂(𝑚)
𝑇 = 𝐸𝑇 (𝑧𝑇+𝑚 ) = 𝐸𝑇 (𝑎 𝑇+𝑚 + 𝜓1 𝑎 𝑇+𝑚−1 + ⋯ + 𝜓𝑚 𝑎 𝑇 30 + 𝜓𝑚+1 𝑎 𝑇−1 + ⋯ + 𝜓 𝑇+𝑚−1 𝑎1 ) = ∑ 𝜓𝑗 𝑎 𝑇+𝑚−𝑗
𝑗=𝑚
Y tras esto, podemos calcular el error de predicción. Para el horizonte m será:
∞ ∞

𝑒𝑇 (𝑚) = 𝑧𝑇+𝑚 − 𝑧̂(𝑚)


𝑇 = ∑ 𝜓𝑗 𝑎 𝑇+𝑚−𝑗 − ∑ 𝜓𝑗 𝑎 𝑇+𝑚−𝑗 = 𝑎 𝑇+𝑚 + 𝜓1 𝑎 𝑇+𝑚−1 + 𝜓2 𝑎 𝑇+𝑚−2 + ⋯ + 𝜓𝑚−1 𝑎 𝑇+1
𝑗=0 𝑗=𝑚

Una vez calculado el error de predicción, que es una combinación lineal de variables aleatorias, podremos
calcular su varianza:
2
𝑉[𝑒𝑇 (𝑚)] = 𝐸[𝑒𝑇2 (𝑚)] = 𝐸(𝑎2𝑇+𝑚 ) + 𝜓12 𝐸(𝑎2𝑇+𝑚−1 ) + ⋯ + 𝜓𝑚−1 𝐸(𝑎2𝑇+𝑚−1 ) + 2𝜓1 𝐸(𝑎 𝑇+𝑚 𝑎 𝑇+𝑚−1 ) + ⋯
= 𝜎 + 𝜓1 𝜎 + ⋯ + 𝜓𝑚−1 𝜎 + 2𝜓1 · 0 + ⋯ = (1 + 𝜓12 + ⋯ + 𝜓𝑚−1
2 2 2 2 2 2 )𝜎 2

Cuando el modelo es estacionario, los coeficientes 𝜓𝑘 → 0, por lo que la varianza del error de predicción
𝑘→∞
tiende a la varianza marginal del proceso cuando 𝑚 → ∞: 𝑉[𝑒𝑇 (𝑚)] → 𝛾0 = 𝑉(𝑧𝑇 ). Y cuando el modelo no
𝑚→∞
es estacionario, puesto que no convergen (la suma de la sucesión de los coeficientes 𝜓𝑘 es infinito:
∑∞ 2
𝑘=0 𝜓𝑘 = ∞), entonces 𝑉[𝑒𝑇 (𝑚)] → ∞.
𝑚→∞

V. INTERVALOS DE CONFIANZA
Para calcular los intervalos de confianza de la variable con horizonte m, supondremos que 𝑎𝑡 𝑖𝑖𝑑 𝑁(0, 𝜎 2 ).
Entonces, dado que las innovaciones siguen una distribución normal, 𝑍 ̂𝑇 (𝑚)~ 𝑁(𝑍𝑇+𝑚 , 𝑉[𝑒𝑇 (𝑚)]). Así,
podremos expresar intervalos de confianza para la variable con horizonte m:
̂𝑇 (𝑚) ± 𝑍1−𝛼/2 · √𝑉[𝑒𝑇 (𝑚)]],
𝑍𝑇+𝑚 ∈ [𝑍

siendo 𝑍1−𝛼/2 el valor que deja 1 − 𝛼/2 de 𝑁(0,1) de probabilidad por encima y donde 𝛼 es el nivel de
significación.
Ejemplo 12: Dada la primera diferencia de una serie 𝑧𝑡 que sigue un MA(1) invertible (|𝜃1 | < 1) y no
estacionario (|𝜙1 | = 1), calcular la varianza de los errores de predicción con horizonte m del modelo.
𝑦𝑡 = ∆𝑧𝑡 = (1 − 𝜃1 𝐵)𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑦 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2
1 − 𝜃1 𝐵
(1 − 𝐵)𝑧𝑡 = (1 − 𝜃1 𝐵)𝑎𝑡 → 𝑧𝑡 = 𝑎
1−𝐵 𝑡
Para calcular la varianza de los errores de predicción, que son los intervalos de confianza de la predicción,
debemos expresar el modelo como un MA():
𝑧𝑡 = 𝜓(𝐵)𝑎𝑡 , donde 𝜓(𝐵) = 1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯
1−𝜃 𝐵
Igualamos las ecuaciones y obtenemos que 1
= 𝜓(𝐵) → 1 − 𝜃1 𝐵 = (1 − 𝐵)(1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ ).
1−𝐵
Después, sumamos los factores y obtenemos la ecuación en diferencias.
𝐵0 : 1 = 1
𝐵1 : 𝜓1 − 1 = −𝜃1 → 𝜓1 = 1 − 𝜃1
1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + 𝜓3 𝐵3 + ⋯
𝐵2 : 𝜓2 − 𝜓1 = 0 → 𝜓2 = 𝜓1 = 1 − 𝜃1
−𝐵 − 𝜓1 𝐵2 − 𝜓2 𝐵3 − ⋯ 𝐵3 : 𝜓3 − 𝜓2 = 0 → 𝜓3 = 𝜓2 = 1 − 𝜃1

𝜓𝑘 = 1 − 𝜃1 ∀𝑘 ≥ 1
Con lo cual, la varianza del error de predicción con horizonte m es:
𝑉[𝑒𝑇 (𝑚)] = (1 + 𝜓12 + ⋯ + 𝜓𝑚−1
2 )𝜎 2 = [1 + (𝑚 − 1)(1 − 𝜃1 )2 ]𝜎 2 31,
y, como lim 𝑉[𝑒𝑇 (𝑚)] = ∞, sabemos que el proceso 𝑧𝑡 no es estacionario, lo cual ya sabíamos (|𝜙1 | = 1).
𝑚→∞

30
𝑎 𝑇+𝑚−𝑚 = 𝑎 𝑇
31
Tenemos una suma de (m-1) cuadrados de psi (𝜓).

26

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
VI. ADAPTACIÓN DE LA PREDICCIÓN
Dada una serie 𝑧1 , … , 𝑧𝑇 y realizadas las predicciones para los periodos 𝑇 + 1, … , 𝑇 + 𝑗, es decir, calculado su
̂𝑇 (𝑚) con 𝑚 = 1, … , 𝑗, resulta que después conocemos la variable 𝑍𝑇+1 , lo cual modificaría el valor
predictor 𝑍
de nuestra predicción. Para adaptar nuestra predicción, como la serie conocida ahora es 𝑍1 , … , 𝑍𝑇 , 𝑍𝑇+1 ,
calcularemos la predicción con horizonte m-1, conocidos los valores hasta T+1:
𝑍̂ ̂ ̂
𝑇+1 (𝑚 − 1) = 𝜓𝑚−1 𝑎 𝑇+1 + 𝜓𝑚 𝑎 𝑇 + 𝜓𝑚+1 𝑎 𝑇+1 + ⋯ = 𝜓𝑚−1 𝑎 𝑇+1 + 𝑍𝑇 (𝑚) = 𝑍𝑇 (𝑚) + 𝜓𝑚−1 𝑒𝑇 (1)
32

ESQUEMA
𝑧1 , … , 𝑧𝑇 → 𝑀𝐴(∞)
𝑍𝑇+𝑚 = 𝑎 𝑇+𝑚 + 𝜓1 𝑎 𝑇+𝑚−1 + ⋯ + 𝜓𝑚 𝑎 𝑇 + 𝜓𝑚+1 𝑎 𝑇−1 + ⋯
𝒎: 𝑍̂ ̂
𝑇+𝑚 = 𝑍𝑇 (𝑚) = 𝐸𝑇 (𝑍𝑇+𝑚 ) = 𝜓𝑚 𝑎 𝑇 + 𝜓𝑚+1 𝑎 𝑇−1 + ⋯

𝑧1 , … , 𝑧𝑇 , 𝑧𝑇+1
A partir del valor 𝑧𝑇+1 → 𝑎 𝑇+1 = 𝑧𝑇+1 − 𝑍̂ ̂
𝑇+1 = 𝑧𝑇+1 − 𝑍𝑇 (1)

𝒎 → 𝒎 − 𝟏: 𝑍̂ ̂
𝑇+1 (𝑚 − 1) = 𝐸𝑇+1 (𝑍𝑇+𝑚 ) = 𝜓𝑚−1 𝑎 𝑇+1 + 𝜓𝑚 𝑎 𝑇 + 𝜓𝑚+1 𝑎 𝑇−1 + ⋯ = 𝜓𝑚−1 𝑎 𝑇+1 + 𝑍𝑇 (𝑚)

𝑍̂ ̂
𝑇+1 (𝑚 − 1) = 𝑍𝑇 (𝑚) + 𝜓𝑚−1 𝑎 𝑇+1

*SIMBOLOGÍA
• Retardo: k. Es la distancia o número de periodos que hay entre los respectivos instantes temporales de
dos variables aleatorias.
• Proceso estocástico: 𝑿𝒕
• Longitud de la serie temporal: T.
• Media o esperanza: 𝜇
• Varianza: 𝜎 2
• (Auto)covarianza: 𝛾𝑘
• Función de autocorrelación (FAC): 𝜌𝑘
• Función de autocorrelación estimada (fas): 𝜌 ̂𝑘
• Ruido blanco: r.b.
• Constante: 𝛿
• Coeficiente de autocorrelación muestral: 𝑟
• Nivel de significación: 𝛼
• Confianza
• Percentil 𝟏 − 𝜶 de N(0,1): 𝑍1−𝛼
̂𝑖 |
|𝛽
• P-valor: 𝑃 = 𝑃𝑟𝑜𝑏 (𝑍 >
̂𝑖 ) 1/2 ) , donde 𝑍~𝑁(0,1)
̂ (𝛽
𝑉

32
𝑇 1) = 𝑎 𝑇+1 .
La innovación en el instante T+1 es igual al error de predicción en dicho instante: 𝑒𝑇 (1) = 𝑧𝑇+1 − 𝑧̂(

27

Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278

También podría gustarte