Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Marinamariina
ECONOMETRÍA II.
3º Grado en Economía
No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
TEMA 2: MODELOS ESTACIONARIOS DE SERIES TEMPORALES .................................................................................. 1
2.1. EL TEOREMA DE WOLD ............................................................................................................................................. 1
2.2. EL PROCESO LINEAL GENERAL ............................................................................................................................. 1
2.2.1. CONDICIONES DE ESTACIONARIEDAD ........................................................................................................ 1
2.2.2. CONDICIONES DE INVERTIBILIDAD ............................................................................................................... 1
2.3. PROCESOS AUTORREGRESIVOS, AR(p) .............................................................................................................. 2
2.3.1. EL PROCESO AUTORREGRESIVO DE PRIMER ORDEN, AR(1) .............................................................. 2
A) CONDICIÓN DE INVERTIBILIDAD .................................................................................................................... 3
B) CONDICIÓN DE ESTACIONARIEDAD ............................................................................................................. 3
C) ESPERANZA Y VARIANZA ................................................................................................................................ 4
D) FUNCIÓN DE AUTOCOVARIANZAS Y AUTOCORRELACIÓN .................................................................. 4
2.3.2. EL PROCESO AR(2) ............................................................................................................................................ 4
A) CONDICIONES DE INVERTIBILIDAD Y DE ESTACIONARIEDAD............................................................. 5
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
TEMA 2: MODELOS ESTACIONARIOS DE SERIES TEMPORALES
2.1. EL TEOREMA DE WOLD
El Teorema de Wold establece que todo proceso estocástico en sentido débil con media finita (𝐸(𝑋𝑡 ) = 𝜇 < ∞) y que
no tenga componentes deterministas, se puede escribir como una combinación lineal de variables aleatorias
procedentes de un ruido blanco. Esto significa que:
∞
La condición de estacionariedad es que la suma de los cuadrados de los coeficientes de la representación lineal
general sea finita. Calculamos ahora la función de autocovarianzas:
∞
2
𝛾𝑘 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡+𝑘 ) = 𝐸(𝑍𝑡 𝑍𝑡−𝑘 ) = 𝜎 ∑ 𝜓𝑖 𝜓𝑖+𝑘
𝑖=0
Y la función de autocorrelaciones:
𝛾𝑘 ∑∞𝑖=0 𝜓𝑖 𝜓𝑖+𝑘
𝜌𝑘 = =
𝛾0 ∑∞
𝑖=0 𝜓𝑖
2
La condición de estacionariedad es que la suma de los cuadrados de los coeficientes del polinomio en
función del operador de retardo sea finita (∑∞ 2
𝑖=0 𝜓𝑖 < ∞). Si no se garantiza esta condición, la varianza crecería
hasta el infinito y, por tanto, no se podría calcular la función de autocorrelación.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Pero para que un proceso sea invertible se debe cumplir que la influencia de 𝒁𝒕−𝒌 sobre 𝒁𝒕 (el instante actual)
disminuya al aumentar k o, dicho de otra manera, a medida que k aumenta, 1 > π1 > π2 …, y que ∑∞ 𝟐
𝒊=𝟎 𝛑𝒊 < ∞.
Cuando se den estas dos condiciones, podremos decir que el proceso es invertible y podremos obtener un proceso
autorregresivo (AR) a partir de un proceso de medias móviles (MA).
Como ya sabemos, el proceso 𝐴𝑅(∞) es el proceso dual del 𝑀𝐴(∞) y vamos a poder verificar la condición de que
el producto de ambos polinomios en función del operador de retardo es la unidad (π(B)𝜓(B) = 1):
𝑍𝑡
𝑀𝐴(∞): 𝑍𝑡 = 𝜓(B)𝑎𝑡 → 𝑎𝑡 =
𝜓(B)
𝐴𝑅(∞): π(B)𝑍𝑡 = 𝑎𝑡
𝑍𝑡
π(B)𝑍𝑡 =
𝜓(B)
π(B)𝜓(B) = 1
Como consecuencia del Teorema de Wold, todo proceso autorregresivo (AR) de orden finito es invertible y, por su
dual, todo proceso de medias móviles (MA) de orden finito es estacionario.
Ejemplo 1: ∑∞ 2
𝜓0 = 1
𝑖=0 𝜓𝑖 < ∞
∑∞ 2
𝑖=0 π𝑖 <∞ π0 = 1
Este proceso es invertible dado que cumple con la condición de invertibilidad (1,49 es un resultado finito). También,
dado que se verifica que π(B)𝜓(B) = 1 → (1 − 0,7𝐵)(1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ ) = 1
Para procesos AR de orden más alto resulta más cómodo obtener los coeficientes de la representación 𝑀𝐴(∞)
imponiendo la condición de que, al ser resultado de invertir un proceso AR, el producto de ambos operadores debe ser
la unidad:
π(B)𝜓(B) = 1
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Como ejemplo de una situación donde es esperable la aparición de este proceso, consideramos que 𝑋𝑡 es la
cantidad de agua a fin de mes en un embalse. Durante el mes llega al embalse una cantidad 𝛿 + 𝑎𝑡 , donde 𝛿 es el
valor medio de la cantidad que entra y 𝑎𝑡 es la innovación, una variable aleatoria de media cero y varianza constante
que hace que la entrada varíe de unos periodos a otros. Si cada mes se gasta una proporción fija de las existencias
iniciales, (1 − 𝜙)𝑋𝑡−1 , y se mantiene la proporción 𝜙𝑋𝑡−1 , la cantidad de agua en el embalse a final de mes seguirá
el proceso que hemos definido.
En función del operador de retardo, escribimos:
𝑋𝑡 − 𝜙1 𝐵𝑋𝑡 = 𝛿 + 𝑎𝑡
(1 − 𝜙1 𝐵)𝑋𝑡 = 𝛿 + 𝑎𝑡
Diciendo que el polinomio autorregresivo es 𝜙(𝐵) = 1 − 𝜙1 𝐵 y estableciendo que 𝑍𝑡 = 𝑋𝑡 − 𝜇,
(1 − 𝜙1 𝐵)𝑍𝑡 = 𝑎𝑡
A) CONDICIÓN DE INVERTIBILIDAD
Teniendo en cuenta el Teorema de Wold, este proceso es invertible si ocurre que ∑∞ 2
𝑖=0 π𝑖 < ∞. Con el polinomio
π(B) = 1 − 𝜙1 𝐵, esta suma será de la forma ∑∞ 2 2 2
𝑖=0 π𝑖 = 1 + (−𝜙1 ) = 1 + 𝜙1 < ∞. Con lo cual, tenemos que los
procesos autorregresivos de orden 1 siempre son invertibles.
Si queremos calcular el dual de un 𝐴𝑅(1) y, así, obtener un proceso 𝑴𝑨(∞) usaremos la relación π(B)𝜓(B) =
1, donde 𝜓(B) = 1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ y donde π(B) = 1 − 𝜙1 𝐵.
𝐵0 : 1 = 1
1 = π(B)𝜓(B) = (1 − 𝜙1 𝐵)(1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ ) 𝐵1 : 𝜓1 − 𝜙1 = 0 → 𝜓1 = 𝜙1
= 1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ − 𝜙1 𝐵 − 𝜙1 𝜓1 𝐵2 𝐵2 : 𝜓2 − 𝜙1 𝜓1 = 0 → 𝜓2 = 𝜙1 𝜓1 = 𝜙12
− 𝜙1 𝜓2 𝐵3 − ⋯ 𝐵3 : 𝜓3 − 𝜙1 𝜓2 = 0 → 𝜓3 = 𝜙1 𝜓2 = 𝜙13
…
𝜓𝑖 = 𝜙1𝑖 𝑐𝑜𝑛 𝑖 ≥ 0
Así, (1 − 𝜙1 𝐵)𝑍𝑡 = 𝑎𝑡 → 𝑍𝑡 = (1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ ) 𝑎𝑡 = 𝑎𝑡 + 𝜓1 𝐵𝑎𝑡 + 𝜓1 𝐵2 𝑎𝑡 + ⋯
= 𝑎𝑡 + 𝜙1 𝑎𝑡−1 + 𝜙12 𝑎𝑡−2 + ⋯
B) CONDICIÓN DE ESTACIONARIEDAD
Para saber cuándo los procesos autorregresivos de orden 1 son estacionarios se debe verificar, como ya
sabemos, que ∑∞ 2
𝑖=0 𝜓𝑖 < ∞:
∞ ∞ ∞
𝜙1∞ − 1
∑ 𝜓𝑖2 = ∑ 𝜙12𝑖 = ∑(𝜙12 )𝑖 = <∞ 𝑠𝑖 − 1 < 𝜙1 < 1
𝜙12 − 1
𝑖=0 𝑖=0 𝑖=0
Por lo tanto, el proceso AR(1) será estacionario si −𝟏 < 𝝓𝟏 < 𝟏. Esta forma de averiguar si un proceso AR(1)
es estacionario es bastante laborioso, aunque nos sirve para aprender a expresar el autorregresivo de orden 1
como un proceso de medias móviles de orden infinito, y existe otra forma más sencilla de calcularlo. También
podemos analizar la estacionariedad con las raíces del polinomio autorregresivo, con las soluciones que lo
anulan:
𝜙(𝜆) = 1 − 𝜙1 𝜆
1
1 − 𝜙1 𝜆 = 0 → 𝜆 =
𝜙1
|𝜙1 | < 1 → |𝜆| > 1
Dado que la condición de estacionariedad es que |𝜙1 | < 1, esto implica que el módulo de las raíces del polinomio,
|𝜆| > 1. Con un ejemplo, dado un proceso 𝑋𝑡 − 0,8𝑋𝑡−1 = 2 + 𝑎𝑡 , podemos afirmar que es estacionario dado que
1 1
𝜙1 = 0,8 < 1 y dado que 𝜆 = = = 1,25 > 1.
𝜙1 0,8
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
C) ESPERANZA Y VARIANZA
La esperanza se obtiene tomando esperanzas en 𝑋𝑡 = 𝛿 + 𝜙1 𝑋𝑡−1 + 𝑎𝑡 para 𝑎𝑡 ~ 𝑟. 𝑏. y supuesto |𝜙1 | < 1 (de
manera que 𝐸(𝑋𝑡 ) = 𝐸(𝑋𝑡−1 ) = 𝜇), con lo cual:
No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
𝛿
𝜇 = 𝐸(𝑋𝑡 ) = 𝐸(𝛿 + 𝜙1 𝑋𝑡 + 𝑎𝑡 ) = 𝛿 + 𝜙1 𝐸(𝑋𝑡−1 ) + 𝐸(𝑎𝑡 ) = 𝛿 + 𝜙1 𝜇 + 0 → 𝜇 =
𝜙1
Sabiendo que 𝑍𝑡 = 𝑋𝑡 − 𝜇 = 𝜙1 𝑍𝑡−1 + 𝑎𝑡 , la varianza del proceso se obtiene:
1
𝐸(𝑍𝑡−1 𝑎𝑡 ) = 0 ya que la innovación del futuro no influye en las variables del pasado.
2
𝐸(𝑎𝑡2 ) = 𝜎 2 porque, al ser r.b. y, por lo tanto, tener media = 0, la esperanza del cuadrado de la variable es su varianza.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
𝑍𝑡 = 𝜙1 𝑍𝑡−1 + 𝜙2 𝑍𝑡−2 + 𝑎𝑡
𝑍𝑡 − 𝜙1 𝑍𝑡−1 − 𝜙2 𝑍𝑡−2 = 𝑎𝑡
(1 − 𝜙1 𝐵 + 𝜙2 𝐵2 )𝑍𝑡 = 𝑎𝑡 ; 𝜙(𝐵) = 1 − 𝜙1 𝐵 + 𝜙2 𝐵2
B) ESPERANZA
Suponiendo que el proceso es estacionario y sabiendo que es invertible, para 𝑎𝑡 ~ 𝑟. 𝑏., supuesto |𝜙1 | < 1 (de
manera que 𝐸(𝑋𝑡 ) = 𝐸(𝑋𝑡−1 ) = 𝜇), calculamos la esperanza:
𝜇 = 𝐸(𝑋𝑡 ) = 𝐸(𝛿 + 𝜙1 𝑋𝑡−1 + 𝜙2 𝑋𝑡−2 + 𝑎𝑡 ) = 𝛿 + 𝜙1 𝐸(𝑋𝑡−1 ) + 𝜙2 𝐸(𝑋𝑡−2 ) + 𝐸(𝑎𝑡 )
𝛿
𝜇 = 𝛿 + 𝜙1 𝜇 + 𝜙2 𝜇 → 𝜇 =
1 − 𝜙1 − 𝜙2
Para 𝑘 ≥ 3 los coeficientes de autocorrelación pueden obtenerse recursivamente a partir de la primera ecuación.
Se demuestra que la solución general de esta ecuación es:
𝜌𝑘 = 𝐴1 𝜏1𝑘 + 𝐴2 𝜏2𝑘 ,
3
𝐸(𝑍𝑡−1 𝑍𝑡−2 ) es la esperanza del producto de dos variables aleatorias con media cero, por lo que = 𝐶𝑜𝑣(𝑍𝑡−1 , 𝑍𝑡−2 ), que como
tiene retardo 1, = 𝛾1 .
4 Hemos calculado 𝐸(𝑍 2 ) = 𝛾 porque como es un proceso estacionario y la media es cero, la esperanza del cuadrado coincide
𝑡−2 0
con la varianza.
5 Como en los procesos estacionarios la función de autocovarianzas es simétrica, 𝛾
−1 = 𝛾1
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
donde 𝜏1 = 1/𝜆1 y 𝜏2 = 1/𝜆2 son los factores del polinomio característico del proceso y 𝐴1 y 𝐴2 son constantes a
determinar:
Ejemplo 3: Tenemos el siguiente proceso autorregresivo de orden 2 el cual, por el Teorema de Wold, es
invertible:
𝑍𝑡 = 0,3𝑍𝑡−1 + 0,4𝑍𝑡−2 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑦 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2
El polinomio autorregresivo 𝜙(𝐵) = 1 − 0,3𝐵 − 0,4𝐵2 . Sabiendo que 𝜙(𝜆) = 0 y que sus raíces son en módulo
>1, se pide calcular 𝝆𝟏𝟏 . Para ello, despejamos 𝜆:
0,3 ± √0,32 + 4 · 0,4 0,3 ± 1,3
1 − 0,3𝜆 − 0,4𝜆2 = 0 → 𝜆 = =
2 · (−0,4) −0,8
𝜆1 = −2 𝜆2 = 5/4
|𝜆1 | = 2 > 1 |𝜆2 | = 5/4 > 1
Por lo teanto, el proceso estocástico es estacionario. Factorizando 𝜙(𝐵), obtendremos el valor de 𝜏1 y 𝜏2 :
1 1
𝜙(𝐵) = (1 − 𝜏1 𝐵)(1 − 𝜏2 𝐵) = (1 − 𝐵) (1 − 𝐵) = (1 + 0,5𝐵)(1 − 0,8𝐵) = 1 + 0,5𝐵 − 0,8𝐵 − 0,4𝐵2
𝜆1 𝜆2
= 1 − 0,3𝐵 − 0,4𝐵2
Calculamos la solución de la función de autocorrelación en diferencias (𝜌𝑘 = 𝜙1 𝜌𝑘−1 + 𝜙2 𝜌𝑘−2 ):
𝜌𝑘 = 𝐴1 𝜏1𝑘 + 𝐴2 𝜏2𝑘 = 𝐴1 (−1/2) + 𝐴2 · (4/5) = (−0,5)𝑘 𝐴1 + 0,8𝑘 𝐴2
Dando valores a k, 𝑘 = 0: 1 = 𝐴1 + 𝐴2
𝜙1 0,3
obtendremos un sistema 𝑘 = 1: = −0,5𝐴1 + 0,8𝐴2 → = 0,5 = −0,5𝐴1 + 0,8𝐴2
1−𝜙2 1−0,4
Resolviendo este sistema obtenemos que 𝐴1 = 3/13 y que 𝐴2 = 10/13. De forma que nos queda:
3 10
𝜌𝑘 = (−0,5)𝑘 + (0,8)𝑘
13 13
3 10
𝜌11 = (−0,5)11 + (0,8)11 = 0,06596
13 13
6 Sabemos que 𝜌𝑜 = 1.
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Ejemplo 4: Dado el siguiente proceso autorregresivo de orden 2 el cual, por Teorema de Wold, es invertible,
se pide analizar su estacionariedad:
𝑍𝑡 − 0,8𝑍𝑡−1 + 0,25𝑍𝑡−2 = 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑦 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2
El polinomio autorregresivo es 𝜙(𝐵) = 1 − 0,8 + 0,25𝐵2 . Resolviendo sus raíces (𝜙(𝜆) = 0) tendremos:
0,8 ± √0,64 − 1 0,8 ± √−0,36 0,8 ± 0,6𝑖
1 − 0,8𝜆 + 0,25𝜆2 = 0 → 𝜆 = = = 7 con 𝑖 = √−1
0,5 0,5 0,5
𝜆1 = 1,6 + 1,2𝑖
𝜆2 = 1,6 − 1,2𝑖
|𝜆1 | = |𝜆2 | = √1,62 + 1,22 = √2,56 + 1,44 = √4 = 2 > 1 → proceso estacionario
−𝜙2 𝐵2 − 𝜙2 𝜓1 𝐵3 − ⋯
Sumamos los factores que hemos colocado en orden y obtenemos la ecuación en diferencias de orden dos:
𝐵0 : 1 = 1
𝐵1 : 𝜓1 − 𝜙1 = 0 → 𝜓1 = 𝜙1
𝐵2 : 𝜓2 − 𝜙1 𝜓1 − 𝜙2 = 0 → 𝜓2 = 𝜙1 𝜓1 + 𝜙2 𝜓0
𝐵3 : 𝜓3 − 𝜙1 𝜓2 − 𝜙2 𝜓1 = 0 → 𝜓3 = 𝜙1 𝜓2 + 𝜙2 𝜓1
…
𝜓𝑘 = 𝜙1 𝜓𝑘−1 + 𝜙2 𝜓𝑘−2
De nuevo, conviene obtener la solución general de esta ecuación en diferencias:
𝜓𝑘 = 𝐶1 𝜏1𝑘 + 𝐶2 𝜏2𝑘 = 𝐶1 (1/𝜆1 )𝑘 + 𝐶2 (1/𝜆2 )𝑘
Para resolver esta ecuación, de la que conocemos 𝜆1 y 𝜆2 (son las raíces del polinomio autorregresivo, que
conocemos por haber estudiado la estacionariedad), necesitamos calcular 𝐶1 y 𝐶2 :
𝜓0 = 𝐶1 𝜏10 + 𝐶2 𝜏10 = 𝐶1 + 𝐶2 = 1
𝜓1 = 𝐶1 𝜏11 + 𝐶2 𝜏21 = 𝜙1
Obtenemos ya un sistema de dos ecuaciones con dos incógnitas que, una vez solucionado, nos dará la solución
general para 𝜓𝑘 .
Ejemplo 5: 𝑍𝑡 − 0,8𝑍𝑡−1 + 0,25𝑍𝑡−2 = 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑦 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2
𝐶1 + 𝐶2 = 1 𝐶1 + 𝐶2 = 1 𝐶1 = 5/13
𝜏11 𝐶1 + 𝜏21 𝐶2 = 𝜙1 −0,5𝐶1 + 0,8𝐶2 = 0,3 𝐶2 = 8/13
7
√−0,36 = √0,36 · (−1) = √0,36 · √−1 = 0,6𝑖
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Expresar un autorregresivo de orden dos como suma de innovaciones, como un proceso de medias móviles de
orden infinito, sirve para calcular la covarianza o la correlación del proceso en el instante t con la innovación
retardada:
2
𝐶𝑜𝑣(𝑍𝑡 , 𝑎𝑡−𝑚 ) = 𝐸(𝑍𝑡 𝑎𝑡−𝑚 )8 = 𝐸[(𝑎𝑡 + 𝜓1 𝑎𝑡−1 + 𝜓2 𝑎𝑡−2 + ⋯ + 𝜓𝑚 𝑎𝑡−𝑚 + 𝜓𝑚+1 𝑎𝑡−𝑚+1 + ⋯ )𝑎𝑡−𝑚 ] = 𝐸(𝜓𝑚 𝑎𝑡−𝑚 )
No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
2 2
= 𝜓𝑚 𝐸(𝑎𝑡−𝑚 ) = 𝜓𝑚 𝜎
𝐶𝑜𝑣(𝑍𝑡 , 𝑎𝑡−3 ) = 𝐸(𝑍𝑡 𝑎𝑡−3 ) = 𝐸[(𝑎𝑡 + 𝜓1 𝑎𝑡−1 + 𝜓2 𝑎𝑡−2 + 𝜓3 𝑎𝑡−3 + ⋯ )𝑎𝑡−3 ]
2 ) 2 )9
= 𝐸(𝑎𝑡 𝑎𝑡−3 ) + 𝜓1 𝐸(𝑎𝑡−1 𝑎𝑡−3 ) + 𝜓2 𝐸(𝑎𝑡−2 𝑎𝑡−3 ) + 𝜓3 𝐸(𝑎𝑡−3 + 𝜓4 𝐸(𝑎𝑡−4 𝑎𝑡−3 ) + ⋯ = 𝜓3 𝐸(𝑎𝑡−3
2
= 𝜓3 𝜎
B) ECUACIONES DE YULE-WALKER
Particularizando la función de autocorrelación del autorregresivo obtendremos un sistema de p ecuaciones que
relacionan las p primeras autocorrelaciones con los parámetros del proceso. Llamaremos ecuaciones de Yule-
Walker al sistema:
𝜌1 = 𝜙1 + 𝜙2 𝜌1 + ⋯ + 𝜙𝑝 𝜌𝑝−1 10 𝜌1 1 𝜌1 … 𝜌𝑝−1 𝜙1
𝜌2 = 𝜙1 𝜌1 + 𝜙2 + ⋯ + 𝜙𝑝 𝜌𝑝−2 𝜌2 𝜌1 1 … 𝜌𝑝−2 𝜙2
(…) = ( )(…)
... … … … …
𝜌𝑝 𝜌𝑝−1 𝜌𝑝−2 … 1 𝜙𝑝
𝜌𝑝 = 𝜙1 𝜌𝑝−1 + 𝜙2 𝜌𝑝−2 + ⋯ + 𝜙𝑝
Ρ = 𝑅 · Φ
̃ = R−1 Ρ. Según esto, tendríamos que:
De tal forma que Φ
para el AR(1): 𝜌1 = 𝜙1 ,
𝜌1 1 𝜌1 𝜙1
para el AR(2): (𝜌 ) = ( ) ( ),
2 𝜌1 1 𝜙2
𝜌1 1 𝜌1 𝜌2 𝜙1
y para el AR(3): (𝜌2 ) = (𝜌1 1 𝜌1 ) (𝜙2 )
𝜌3 𝜌2 𝜌1 1 𝜙3
Las ecuaciones de Yule-Walker nos permiten estimar los coeficientes de autocorrelación y los coeficientes
del polinomio autorregresivo, además de obtener la función de autocorrelación parcial.
8
Porque ambas tienen media nula (𝑎𝑡 ~ 𝑟. 𝑏.).
9
Como la autocovarianza para el r.b. = 0, 𝐸(𝑎𝑡 𝑎𝑡−3 ) = 0, 𝜓1 𝐸(𝑎𝑡−1 𝑎𝑡−3 ) = 0, 𝜓2 𝐸(𝑎𝑡−2 𝑎𝑡−3 ) = 0, 𝜓4 𝐸(𝑎𝑡−4 𝑎𝑡−3 ) = 0
10
Como, dado que se supone que 𝑝 > 1, y que 1 − 𝑝 < 0, por la condición de simetría, podemos decir que 1 − 𝑝 = 𝑝 − 1.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
2.3.5. LA FUNCIÓN DE AUTOCORRELACIÓN PARCIAL (FACP)
Determinar el orden de un proceso autorregresivo a partir de su función de autocorrelación simple es difícil. Sabemos
que es una mezcla de decrecimientos exponenciales y sinusoidales que se amortiguan al avanzar el retardo y no
presenta rasgos fácilmente identificables. Para resolver este problema se introduce la función de autocorrelación
parcial.
Si comparamos un AR(1) y un AR(2) vemos que, aunque en ambos procesos cada observación está relacionada
con las anteriores, el tipo de relación entre observaciones separadas por más de un retardo es distinto en ambos
procesos. En el AR(1) el efecto de 𝑋𝑡−2 sobre 𝑋𝑡 es siempre a través de 𝑋𝑡−1 , y dado 𝑋𝑡−1 , el valor de 𝑋𝑡−2 es
irrelevante para prever 𝑋𝑡 . En general, un AR(p) presenta efectos directos de observaciones separadas por 1, 2, ...,
p retardos y los efectos directos de las observaciones separadas por más de p retardos son nulos. Esta idea es la
clave para la utilización de la función de autocorrelación parcial.
Para un AR(1): 𝜙̃
11
Para un AR(2): 𝜙̃ ̃ ̃
11 ; 𝜙21 , 𝜙22
Para un AR(3): 𝜙11 ; 𝜙21 , 𝜙̃
̃ ̃ ̃ ̃ ̃
22 ; 𝜙31 , 𝜙32 , 𝜙33
...
Para un AR(p): 𝜙̃ ̃ ̃ ̃ ̃ ̃ ̃ ̃ ̃
11 ; 𝜙21 , 𝜙22 ; 𝜙31 , 𝜙32 , 𝜙33 ; ...; 𝜙𝑝1 , 𝜙𝑝2 , … , 𝜙𝑝𝑝 . Este último resultado coincidiría con 𝜙1 , 𝜙2 , … , 𝜙𝑝 .
Aunque el autorregresivo sea de orden p, calculamos la ecuación de Yules-Walker para orden 1, obteniendo la
función de autocorrelación parcial (FACP):
𝜙̃ ̃ ̃ ̃ 11
11 , 𝜙22 , 𝜙33 , … , 𝜙𝑝𝑝
11 ̃ =0
Para un proceso de orden p, 𝜙𝑝+1𝑝+1
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
AR(2)
FAC FACP
Las raíces de 𝜙(𝐵) tienen distinto signo Las raíces de 𝜙(𝐵) tienen distinto signo
Las raíces de 𝜙(𝐵) son complejas Las raíces de 𝜙(𝐵) son complejas
12
Como 𝑎𝑡 ~ 𝑟. 𝑏., la suma de las esperanzas de MA(q) es cero.
10
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
A) CONDICIÓN DE ESTACIONARIEDAD E INVERTIBILIDAD
Según el Teorema de Wold, un proceso es estacionario si ∑∞ 2
𝑖=0 𝜓𝑖 < ∞. Entonces, para el MA(1) tendríamos que
∞ 2 2 2 2
∑𝑖=0 𝜓𝑖 = 𝜓0 + 𝜓1 = 1 + 𝜃1 < ∞. Por lo tanto, podemos decir que los MA(1) son siempre estacionarios.
Los MA(1) serán invertibles cuando la raíz del polinomio de medias móviles 𝜃(𝐵), o lo que es lo mismo, la
solución de la ecuación 𝜃(𝜆) = 0, esté fuera del círculo unidad: |𝜆| > 1.
1
𝜃(𝜆) = 1 − 𝜃1 𝜆 = 0 → 𝜆 =
𝜃1
1
De forma análoga, para que un proceso MA(1) sea invertible, como |𝜆| > 1, se debe cumplir que |𝜃1 | = < 1.
𝜆
B) ESPERANZA Y VARIANZA
La media o esperanza del proceso MA(1) es, como anteriormente se hizo, 𝜇 = 𝐸(𝑋𝑡 ) = 𝛿, o 𝜇 = 𝐸(𝑍𝑡 ) = 0 en
caso de no tener constante. Y la varianza del proceso será:
𝛾0 = 𝑉(𝑋𝑡 ) = 𝑉(𝑍𝑡 ) = 𝐸(𝑍𝑡2 ) = 𝐸[(𝑎𝑡 − 𝜃1 𝑎𝑡−1 )2 ] = 𝐸(𝑎𝑡2 + 𝜃1 𝑎𝑡−1
2
− 2𝜃1 𝑎𝑡 𝑎𝑡−1 )
2) 2 2 )
= 𝐸(𝑎𝑡 + 𝜃1 𝐸(𝑎𝑡−1 − 2𝜃1 𝐸(𝑎𝑡 𝑎𝑡−1 ) = 𝜎 + 𝜃12 𝜎 2 13 = (1 + 𝜃12 )𝜎 2
2
1
Igualando estas dos ecuaciones, = π(B) → 1 = 𝜃(𝐵)π(B) = (1 − 𝜃1 𝐵)(1 + π1 𝐵 + π2 𝐵2 + ⋯ ) =
𝜃(𝐵)
𝐵0 : 1 = 1
1 + π1 𝐵 + π2 𝐵2 + ⋯ 𝐵1 : π1 − 𝜃1 = 0 → π1 = 𝜃1
−𝜃1 𝐵 − 𝜃1 π1 𝐵2 + ⋯ 𝐵2 : π2 − 𝜃1 π1 = 0 → π2 = 𝜃1 π1 = 𝜃12
…
π𝑘 = 𝜃1𝑘 con 𝑘 ≥ 0
Sumamos los factores que hemos colocado en orden y obtenemos la ecuación en diferencias de orden dos.
13
𝑉(𝑎𝑡 ) = 𝜎 2 ∀𝑡, lo cual es también aplicable para 𝑎𝑡−1 . Además, 𝐸(𝑎𝑡 𝑎𝑡−1 ) = 0, ya que 𝐶𝑜𝑣(𝑎𝑡 , 𝑎𝑡−1 ) = 0.
14
Cuando pasamos un AR a MA() podíamos calcular las covarianzas entre 𝑎𝑡 y 𝑍𝑡 .
11
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
A) CONDICIÓN DE INVERTIBILIDAD DE UN AR()
Por el Teorema de Wold, decimos que un proceso es invertible si la suma infinita de los cuadrados de los
coeficientes de los autorregresivos es finita (∑∞ 2
𝑖=0 π𝑖 < ∞):
No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
∞ ∞ ∞ |𝜃1 | > 1
𝜃∞ − 1
∑ π2𝑖 = ∑ 𝜃12𝑘 15 = ={ 1
𝜃2 − 1 |𝜃1 | < 1
𝑖=0 𝑖=0 1 − 𝜃12
Para un valor dado de zeta (𝜃) el denominador es constante, pero el numerador será si |𝜃1 | > 1 y 1 si |𝜃1 | < 1.
Por lo tanto, como el Teorema de Wold nos exige que ∑∞ 2
𝑖=0 π𝑖 < ∞, el proceso será invertible cuando |𝜽𝟏 | < 𝟏.
A) ESTACIONARIEDAD E INVERITIBILIDAD
Según el Teorema de Wold, un proceso es estacionario si ∑∞ 2
𝑖=0 𝜓𝑖 < ∞. Como para un MA(2) tenemos que
∞ 2 2 2 2
∑𝑖=0 𝜓𝑖 = 𝜓0 + 𝜓1 = 1 + 𝜃1 < ∞, podemos decir que los procesos MA(2) son siempre estacionarios. Como
también lo eran los de orden 1, se puede generalizar que para MA(q), siendo q un orden finito, todos los
procesos de medias móviles de orden finito son estacionarios.
Y este tipo de procesos será invertible, siendo el polinomio característico 𝜃(𝐵) = 1 − 𝜃1 𝐵 − 𝜃2 𝐵2 , cuando las
raíces de dicho polinomio (𝜃(𝜆) = 0) estén fuera del círculo unidad (|𝜆1 | > 1 y |𝜆2 | > 1). Cuando tenemos esta
situación, podremos factorizar el polinomio característico:
1 1
𝜃(𝐵) = (1 − 𝜏1 𝐵)(1 − 𝜏2 𝐵) = (1 − 𝐵) (1 − 𝐵)
𝜆1 𝜆2
B) VARIANZA
La varianza del proceso MA(2) será:
𝛾0 = 𝑉(𝑋𝑡 ) = 𝑉(𝑍𝑡 ) = 𝐸(𝑍𝑡2 ) = 𝐸[(𝑎𝑡 − 𝜃1 𝑎𝑡−1 − 𝜃2 𝑎𝑡−2 )2 ]
= 𝐸(𝑎𝑡2 + 𝜃12 𝑎𝑡−1 + 𝜃22 𝑎𝑡−2 − 2𝜃1 𝑎𝑡 𝑎𝑡−1 − 2𝜃2 𝑎𝑡 𝑎𝑡−2 + 2𝜃1 𝜃2 𝑎𝑡−1 𝑎𝑡−2 )
= 𝐸(𝑎𝑡2 ) + 𝜃12 𝐸(𝑎𝑡−1
2 )
+ 𝜃22 𝐸(𝑎𝑡−2
2 )
− 2𝜃1 𝐸(𝑎𝑡 𝑎𝑡−1 ) − 2𝜃2 𝐸(𝑎𝑡 𝑎𝑡−2 ) + 2𝜃1 𝜃2 𝐸(𝑎𝑡−1 𝑎𝑡−2 )
2 2 2 2 2 16
= 𝜎 + 𝜃1 𝜎 + 𝜃2 𝜎 = (1 + 𝜃12 + 𝜃22 )𝜎 2
15
Porque π𝑘 = 𝜃1𝑘 .
16
𝑉(𝑎𝑡 ) = 𝜎 2 ∀𝑡, lo cual es también aplicable para 𝑎𝑡−1 y 𝑎𝑡−2 . Además, 𝐸(𝑎𝑡 𝑎𝑡−1 ) = 0, 𝐸(𝑎𝑡 𝑎𝑡−2 ) = 0 y 𝐸(𝑎𝑡−1 𝑎𝑡−2 ) = 0 ya que
sus covarianzas = 0.
12
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
C) LA FUNCIÓN DE AUTOCOVARIANZAS Y AUTOCORRELACIÓN
Como siempre, a partir de la función de autocovarianzas construiremos la función de autocorrelación (FAC)
del proceso:
𝛾𝑘 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡−𝑘 ) = 𝐶𝑜𝑣(𝑍𝑡 , 𝑍𝑡−𝑘 ) = 𝐸(𝑍𝑡 𝑍𝑡−𝑘 ) = 𝐸[(𝑎𝑡 − 𝜃1 𝑎𝑡−1 − 𝜃2 𝑎𝑡−2 )𝑍𝑡−𝑘 ]
= 𝐸(𝑎𝑡 𝑍𝑡−𝑘 ) − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−𝑘 ) − 𝜃2 𝐸(𝑎𝑡−2 𝑍𝑡−𝑘 ) =
Para 𝒌 = 𝟏, 𝛾1 = 0 − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−1 ) − 𝜃2 𝐸(𝑎𝑡−2 𝑍𝑡−1 ) = −𝜃1 𝜎 2 − 𝜃2 𝐸[𝑎𝑡−2 (𝑎𝑡−1 − 𝜃1 𝑎𝑡−2 − 𝜃2 𝑎𝑡−3 )]
2 )
= −𝜃1 𝜎 2 + 𝜃2 𝐸(𝑎𝑡−2 𝑎𝑡−1 ) − 𝜃2 𝐸(𝑎𝑡−2 − 𝜃2 𝐸(𝑎𝑡−2 𝑎𝑡−3 ) = −𝜃1 𝜎 2 + 𝜃1 𝜃2 𝜎 2 17 = 𝜃1 (𝜃2 − 1)𝜎 2
Para 𝒌 = 𝟐, 𝛾2 = 0 − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−2 ) − 𝜃2 𝐸(𝑎𝑡−2 𝑍𝑡−2 ) = 0 − 0 − 𝜃1 𝜎 2 = −𝜃1 𝜎 2
Para 𝒌 ≥ 𝟑, 𝛾𝑘 = 0 − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−𝑘 ) − 𝜃2 𝐸(𝑎𝑡−2 𝑍𝑡−𝑘 ) = 0 − 0 − 0 = 0
Por lo tanto, teniendo esto, la función de función de autocorrelación (FAC):
𝜃1 (𝜃2 − 1)
𝑘=1
𝛾𝑘 1 + 𝜃12
𝜌𝑘 = = −𝜃2
𝛾0 𝑘=2
1 + 𝜃12 + 𝜃22
{ 0 𝑘≥3
FAC MA(2)
𝜃1 < 0 y 𝜃2 > 0 𝜃1 > 0 y 𝜃2 < 0
Sumamos los coeficientes de B que hemos colocado en orden y obtenemos la ecuación en diferencias:
De nuevo, conviene obtener la solución general de esta ecuación en diferencias:
𝜋𝑘 = 𝐴1 𝜏1𝑘 + 𝐴2 𝜏2𝑘 = 𝐴1 (1/𝜆1 )𝑘 + 𝐴2 (1/𝜆2 )𝑘
2 2
𝑡−2 𝑍𝑡−1 ) = 𝐸[𝑎𝑡−2 (𝑎𝑡−1 − 𝜃1 𝑎𝑡−2 − 𝜃2 𝑎𝑡−3 )] = −𝜃1 𝐸(𝑎𝑡−2 ) = −𝜃1 𝜎 , pero luego hay que multiplicarlo por 𝜃2
17 𝐸(𝑎
13
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Para resolver esta ecuación, de la que conocemos 𝜆1 y 𝜆2 (son las raíces del polinomio característico de medias
móviles, que conocemos por haber estudiado la estacionariedad), necesitamos calcular 𝐴1 y 𝐴2 :
𝜋0 = 𝐴1 𝜏10 + 𝐴2 𝜏10 = 𝐴1 + 𝐴2 = 1
𝜋1 = 𝐴1 𝜏11 + 𝐴2 𝜏21 = 𝜃1
Obtenemos ya un sistema de dos ecuaciones con dos incógnitas que, una vez solucionado, tendremos la solución
general para 𝜋𝑘 .
Ejemplo 6: Tenemos el proceso
𝑍𝑡 = 𝑎𝑡 − 𝑎𝑡−1 + 0,24𝑎𝑡−2 donde 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉(𝑎𝑡 ) = 𝜎 2
Por Tª de Wold, el proceso es estacionario (todo proceso de medias móviles finito es estacionario), y para ver si
es invertible:
𝑍𝑡 = (1 − 𝐵 + 0,24𝐵2 )𝑎𝑡 = 𝜃(𝐵)𝑎𝑡
Calculamos las soluciones del polinomio característico de MA(2):
1 ± √1 − 4 · 0,24 1 ± 0,2
𝜃(𝐵) = 0 → 1 − 𝜆 + 0,24𝜆2 = 0 → 𝜆 = =
2 · 0,24 0,48
𝜆1 = 5/2 𝜆2 = 5/3
|𝜆1 | = 5/2 > 1 |𝜆2 | = 5/3 > 1
Como se cumple que |𝜆1 | > 1 y |𝜆2 | > 1, el proceso es invertible. Y una vez calculadas las raíces, podemos
factorizar el polinomio característico de medias móviles:
1 1 2 3
𝜃(𝐵) = (1 − 𝐵) (1 − 𝐵) = (1 − 𝐵) (1 − 𝐵) = (1 − 0,4𝐵)(1 − 0,6𝐵)
𝜆1 𝜆2 5 5
Para expresarlo como un AR(),
𝑎𝑡
𝜋(𝐵)𝑍𝑡 = 𝑎𝑡 → 𝑍𝑡 = donde 𝜋(𝐵) = 1 + 𝜋1 𝐵 + 𝜋2 𝐵2 + ⋯
𝜋(𝐵)
𝑎𝑡
e igualamos las 𝑍𝑡 : = 𝜃(𝐵)𝑎𝑡 → 1 = 𝜃(𝐵) 𝜋(𝐵). En este caso,
𝜋(𝐵)
MA(1)
FAC FACP
𝜽𝟏 > 𝟎 𝜽𝟏 > 𝟎
𝜽𝟏 < 𝟎 𝜽𝟏 < 𝟎
18 𝜋0 = 1
19 𝜋1 = 𝜃1 = 1
14
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
MA(2)
FAC FACP
Las raíces de 𝜃(𝐵) tienen distinto signo Las raíces de 𝜃(𝐵) tienen distinto signo
Las raíces de 𝜃(𝐵) son complejas Las raíces de 𝜃(𝐵) son complejas
Como podemos observar, las FAC del MA(1) se corresponden con las FACP del AR(1) y las FACP del MA(1)
coinciden con las FAC del AR(1). Y para los MA(2), sus FAC se corresponden con las FACP del AR(2) pero
cambiadas de signo, como también pasa con sus FACP y las FAC del AR(2).
Podemos expresar el proceso añadiéndole también una constante, ya que 𝑍𝑡 = 𝑋𝑡 − 𝜇. Y con los polinomios
característicos, tendremos:
(1 − 𝜙1 𝐵 − 𝜙2 𝐵2 − ⋯ − 𝜙𝑝 𝐵𝑝 ) 𝑍𝑡 = (1 − 𝜃1 𝐵 − 𝜃2 𝐵2 − ⋯ − 𝜃𝑞 𝐵𝑞 )𝑎𝑡
𝜙(𝐵)𝑍𝑡 = 𝜃(𝐵)𝑎𝑡
donde |𝜙1 | < 1 para que el proceso sea estacionario, y |𝜃1 | < 1 para que sea invertible. Supondremos que
𝜙1 ≠ 𝜃1 por lo siguiente:
𝑋𝑡 − 𝜙1 𝑋𝑡−1 = 𝛿 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1
(1 − 𝜙1 𝐵)𝑋𝑡 = 𝛿 + (1 − 𝜃1 𝐵)𝑎𝑡
(1 − 𝜙1 𝐵)𝑍𝑡 = (1 − 𝜃1 𝐵)𝑎𝑡 con 𝑍𝑡 = 𝑋𝑡 − 𝜇
Si 𝜙1 = 𝜃1 tendríamos el mismo polinomio multiplicando a 𝑍𝑡 y a 𝑎𝑡 , por lo que se simplificaría y nos quedaría que
𝑍𝑡 = 𝑎𝑡 ~ 𝑟. 𝑏., de forma que no podríamos saber su comportamiento modelizándolo.
15
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
El esquema de dependencia de las variables en este caso tiene la siguiente forma:
𝑍𝑡−2 𝑍𝑡−1 𝑍𝑡 𝑍𝑡+1
No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
𝑎𝑡−2 𝑎𝑡−1 𝑎𝑡 𝑎𝑡+1
A) ESPERANZA Y VARIANZA
La media del proceso ARMA(1,1) será:
𝜇 = 𝐸(𝑋𝑡 ) = 𝐸(𝛿 + 𝜙1 𝑋𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 ) = 𝛿 + 𝜙1 𝐸(𝑋𝑡−1 ) + 𝐸(𝑎𝑡 ) − 𝜃1 𝐸(𝑎𝑡−1 ) = 𝛿 + 𝜙1 𝜇
𝛿
𝜇=
1 − 𝜙1
La varianza del proceso se obtiene:
Y dado que el proceso ARMA(1,1) cuenta con una parte autorregresiva (que siempre es invertible) y otra de
medias móviles (que no siempre es invertible), el proceso será invertible cuando la solución de 1 − 𝜃1 𝐵 = 0 > 1:
1 − 𝜃1 𝐵 = 0
1
1 − 𝜃1 𝜆 = 0 → 𝜆 =
𝜃1
El proceso ARMA(1,1) será invertible cuando la raíz del polinomio de medias móviles característico sea |𝜆| > 1,
o cuando el coeficiente de la parte de medias móviles (que es la que impone la restricción) entre dentro del
círculo unidad: |𝜃1 | < 1.
𝛾1 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡−1 ) = 𝐶𝑜𝑣(𝑍𝑡 , 𝑍𝑡−1 ) = 𝐸(𝑍𝑡 𝑍𝑡−1 ) = 𝐸[(𝜙1 𝑍𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 )𝑍𝑡−1 ]
= 𝜙1 𝐸(𝑍2𝑡−1 ) − 𝐸(𝑎𝑡 𝑍𝑡−1 ) − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−1 ) = 𝜙1 𝛾0 − 𝜃1 𝜎2
𝛾2 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡−2 ) = 𝐶𝑜𝑣(𝑍𝑡 , 𝑍𝑡−2 ) = 𝐸(𝑍𝑡 𝑍𝑡−2 ) = 𝐸[(𝜙1 𝑍𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 )𝑍𝑡−2 ]
= 𝜙1 𝐸(𝑍𝑡−1 𝑍𝑡−2 ) − 𝐸(𝑎𝑡 𝑍𝑡−2 ) − 𝜃1 𝐸(𝑎𝑡−1 𝑍𝑡−2 ) = 𝜙1 𝛾1 20
𝛾𝑘 = 𝐶𝑜𝑣(𝑋𝑡 , 𝑋𝑡−𝑘 ) = 𝐶𝑜𝑣(𝑍𝑡 , 𝑍𝑡−𝑘 ) = 𝐸(𝑍𝑡 𝑍𝑡−𝑘 ) = 𝐸[(𝜙1 𝑍𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 )𝑍𝑡−𝑘 ] = 𝜙1 𝛾𝑘−1 = 𝜙1 𝜙1 𝛾𝑘−2
= 𝜙21 𝛾𝑘−2 = ⋯ = 𝜙𝑘−1
1
𝛾1 cuando 𝑘 ≥ 2
20
𝐸(𝑎𝑡 𝑍𝑡−2 ) = 0 y 𝐸(𝑎𝑡−1 𝑍𝑡−2 ) = 0.
16
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
La función de autocorrelación en un proceso MA(1) solamente tiene no nulo el primer coeficiente, mientras que
la de un AR(1) decrece. Un ARMA(1,1) incorporará ambos comportamientos de forma mixta, por lo que el
primer coeficiente tendrá un valor 𝜙1 𝛾0 − 𝜃1 𝜎2 y los siguientes irán disminuyendo (como 𝜙1 < 1, entonces 𝛾𝑘
disminuirá a medida que avanzamos en k). Teniendo esto en cuenta, la función de función de autocorrelación
(FAC) será:
𝜃1 (1 − 𝜙21 )
𝛾𝑘 𝜙1 𝑘=1
𝜌𝑘 = = { 1 − 2𝜙1 𝜃1 + 𝜃21
𝛾0
𝜙𝑘−1
1
𝜌1 𝑘≥2
𝜃(𝐵)
= 𝜓(𝐵) → 𝜃(𝐵) = 𝜙(𝐵)𝜓(𝐵)
𝜙(𝐵)
Esta expresión es válida para cualquier orden; para el caso de un ARMA(1,1) colocamos en orden los coeficientes
de B y sumamos para obtener la ecuación en diferencias:
𝐵0 : 1 = 1
2
1 − 𝜃1 𝐵 = (1 − 𝜙1 𝐵)(1 + 𝜓1 𝐵 + 𝜓𝐵 + ⋯ ) 𝐵1 : 𝜓1 − 𝜙1 = −𝜃1 = 0 → 𝜓1 = 𝜙1 − 𝜃1
1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + 𝜓3 𝐵3 + ⋯ 𝐵2 : 𝜓2 − 𝜙1 𝜓1 = 0 → 𝜓2 = 𝜙1 𝜓1 = 𝜙1 (𝜙1 − 𝜃1 )
𝜙1 𝐵 − 𝜙1 𝜓1 𝐵2 − 𝜙1 𝜓2 𝐵3 + ⋯ 𝐵3 : 𝜓3 − 𝜙1 𝜓2 = 0 → 𝜓3 = 𝜙1 𝜓2 = 𝜙21 (𝜙1 − 𝜃1 )
…
𝜓𝑘 = 𝜙𝑘−1
1
(𝜙1 − 𝜃1 ) con 𝑘 ≥ 1
17
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
2.5.4. AJUSTE BOX Y JENKINS
Hasta ahora hemos estudiado las propiedades teóricas de los diferentes procesos AR, MA y ARMA; a partir de
ahora vamos a analizar cómo ajustar estos modelos a series reales. Box y Jenkins propusieron realizar este ajuste
en cuatro etapas.
I. ESTIMAR LA FACP
A partir de nuestra serie 𝑍𝑡 podemos construir y estimar los coeficientes de la FACP para un AR(1), un
AR(2), ..., AR(k):
𝑍𝑡 = 𝛼𝑘1 𝑍𝑡−1 + 𝛼𝑘2 𝑍𝑡−2 + ⋯ + 𝛼𝑘𝑘 𝑍𝑡−𝑘 + 𝑎𝑡
Para 𝑘 = 1: 𝛼11
Para 𝑘 = 2: 𝛼21 , 𝛼22
Para 𝑘 = 3: 𝛼31 , 𝛼32 , 𝛼33
...
𝛼11 , 𝛼22 , 𝛼33 , … son FACP estimada
El coeficiente 𝛼𝑘𝑘 va a estimar a la función de autocorrelación parcial: 𝛼𝑘𝑘 → 𝜌̃.
𝑘 Calculamos la FACP
estimada mediante matrices y, según le vayamos dando valores a k, vamos obteniendo resultados de 𝛼.
Tenemos el vector 𝛼, los coeficientes de autocorrelación Ρ y la matriz 𝑅 tales que:
𝛼 = (𝛼𝑘1 , 𝛼𝑘2 , 𝛼𝑘3 , … , 𝛼𝑘𝑘 )𝑡
Ρ = (𝜌1 , 𝜌2 , … , 𝜌𝑘 )
1 𝜌1 … 𝜌𝑘−1
𝜌1 1 … 𝜌𝑘−2
𝑅=( )
… … … …
𝜌𝑘−1 𝜌𝑘−2 … 1
𝛼 = 𝑅 −1 Ρ
Bajo estas condiciones, dibujamos las bandas de confianza al 95% (con un nivel de significación 𝛼 = 5%
±2
o una confianza 1 − 𝛼 = 95%): . Gracias a estas bandas sabremos decir si algún coeficiente es
√𝑇
2 2
significativo: |𝛼𝑘𝑘 | > ̃𝑘 ≠ 0 ó |𝑟𝑘 | >
→ 𝜌 → 𝜌
̃𝑘 ≠ 0 (se rechaza 𝐻0 , por lo que las FAC y FACP no
√𝑇 √𝑇
se distribuyen de la forma que hemos dicho).
18
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
IV. IDENTIFICAR LA ESTRUCTURA
Compararemos los dos correlogramas obtenidos de las FAC y FACP estimadas con sus correspondientes
correlogramas teóricos:
FAC FACP
El decrecimiento puede ser puro, alterno, o sinusoidal. Tras haber realizado estos cuatro pasos, podremos
identificar con qué tipo de serie estamos tratando.
ARMA(1,1)
FAC FACP
𝜽𝟏 > 𝟎 𝜽𝟏 > 𝟎
𝜽𝟏 < 𝟎 𝜽𝟏 < 𝟎
ARMA(1,2)
FAC FACP
Las raíces de 𝜃(𝐵) tienen distinto signo Las raíces de 𝜃(𝐵) tienen distinto signo
ARMA(2,1)
FAC FACP
Las raíces de 𝜃(𝐵) son complejas Las raíces de 𝜃(𝐵) son complejas
19
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
V. CONSTANTE
Debemos determinar si nuestro modelo tiene constante (esto significa que si 𝛿 ≠ 0, entonces 𝜇 = 𝐸(𝑋𝑡 ) ≠
0) y, en caso de no tenerla, determinar si debemos incluirla. Para ello, calculamos la media muestral.
No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Ejemplo 7: De forma general, a un nivel de significación 1 − 𝛼 = 95%,
𝑇
1
𝑥̅ = ∑ 𝑋𝑡
𝑇
𝑡=1
𝛿𝑥
𝐻0 : 𝜇 = 0 → 𝑥̅ ~ 𝑁 (0, )
√𝑇
𝑆𝑥
|𝑥̅ | > 2 → 𝜇 ≠ 0 → 𝛿 ≠ 0 donde 𝑆𝑥 ≡ desviación típica de 𝑋𝑡
√𝑇
Rechazamos 𝐻0 con una confianza del 95%, por lo que 𝛿 ≠ 0. Así pues, debemos incluir una constante
en nuestro modelo.
B) ESTIMACIÓN
Una vez identificado y seleccionado provisionalmente un modelo para la serie estacionaria (determinado p y q),
y determinado si hay que incluir constante, pasamos a la segunda etapa de estimación, donde los parámetros
I. PROCESOS AR
Dado un proceso autorregresivo, dado p, podremos estimar los coeficientes a través de las ecuaciones
de Yule-Walker:
Φ̂ = 𝑅̂ ̂
−1 Ρ
̂1
𝜙 1 𝑟1 … 𝑟𝑝−1 −1 𝑟1
̂2
𝜙 𝑟1 1 … 𝑟𝑝−2 𝑟2
=( ) (…)
… … … … …
̂𝑝
𝜙 𝑟𝑝−1 𝑟𝑝−2 … 1 𝑟𝑝
( )
Para los procesos MA y ARMA, si utilizásemos este sistema, estimaríamos un AR().
20
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
• CRITERIO DE AKAIKE - AIC
Este criterio asigna un valor a cada modelo estimado:
̂2 + 2𝐾
𝐴𝐼𝐶 = 𝑇 · 𝑙𝑛𝜎
̂2 ≡ varianza estimada de 𝑎𝑟 , y 𝐾 ≡ nº de parámetros estimados. Por
donde T ≡ longitud de la serie, 𝜎
ejemplo, en un ARMA(1,2) K= 3 si no hay constante, y K= 4 si hay constante. Según este criterio,
debemos elegir el modelo que tenga el menor valor AIC. Este criterio requiere que todos los modelos
se estimen con el mismo número de observaciones, por lo que el método de estimación que
debemos usar para utilizarlo es el de máxima verosimilitud exacta. Esto es porque la longitud de la
serie será distinta según el modelo que utilicemos y, con la MV exacta, evitamos este problema.
Se dice que el criterio AIC es eficiente en el sentido de que seleccionará el modelo que tenga el menor
error de predicción, pero permitiendo que el número de parámetros pueda aumentar con el tamaño
muestral.
C) DIAGNOSIS
La tercera etapa es la de diagnosis, donde se comprueba que el modelo es válido; que los residuos no tienen
estructura de dependencia y siguen un proceso de ruido blanco. Si los residuos no contienen información,
aceptamos el modelo como adecuado y lo utilizaremos para la previsión o la toma de decisiones. Si los residuos
muestran estructura, modificaremos el modelo para incorporarla y repetiremos las dos etapas anteriores hasta
obtener un modelo adecuado.
Vamos a efectuar la comprobación de varias hipótesis sobre los coeficientes y sobre los residuos o innovaciones
estimadas. Efectuaremos esta etapa en varios pasos:
I. COEFICIENTES Y CONSTANTE
Debemos estudiar si los coeficientes y la constante que hemos estimado son significativos. Suponemos que
las innovaciones son normales idénticamente distribuidas: 𝑎𝑡 𝑖𝑖𝑑 𝑁(0, 𝜎 2 ). Bajo este supuesto (que luego
tendremos que verificar también), cualquier coeficiente o parámetro 𝛽̂𝑖 ~ 𝑁 (𝛽𝑖 , 𝑉(𝛽̂𝑖 )), donde 𝛽 es un conjunto
de parámetros: 𝛽 = ( 𝛿, 𝜙1 , … , 𝜙𝑝 , 𝜃1 , … , 𝜃𝑞 , 𝜎 2 ) con una distribución 𝑁(0, 𝜎 2 ).
a) Contraste de significatividad
Realizamos un contraste donde 𝐻0 : 𝛽𝑖 = 0. Si este se cumple, 𝛽̂𝑖 ~ 𝑁 (0, 𝑉(𝛽̂𝑖 )) y diremos que 𝛽𝑖 no es
̂𝑖 |
|𝛽
significativo. En cambio, para un nivel de significación 𝛼, si 𝑝 = 𝑃𝑟𝑜𝑏 (𝑍 > ) < 𝛼 o si
̂𝑖 )
̂ (𝛽
√𝑉
21
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
b) Raíces de los polinomios
No debe haber raíces de los polinomios que, en módulo, tanto en la parte autorregresiva 𝜙(𝐵) como en la
parte de medias móviles 𝜃(𝐵), estén próximas a la unidad: |𝜆𝑖 | ≈ 1. Si esto ocurriera en la parte AR,
sabríamos que el modelo no es estacionario y, por lo tanto, deberíamos trabajar con la serie de primera
diferencia: 𝑥𝑡 , 𝑦𝑡 = (1 − 𝐵)𝑥𝑡 = 𝑥𝑡 − 𝑥𝑡−1 . Si ocurriera en la parte MA, sabríamos que el modelo no es
invertible y, por lo tanto, deberíamos estimar otro modelo.
c) Factores comunes
No deben existir factores comunes en ninguna de las partes para que no se simplifiquen o cancelen. Para
comprobar que no existen factores comunes, tanto en los ejercicios teóricos como en la parte práctica, es
recomendable calcular las raíces y factorizar los polinomios.
Dado un ARMA(2,1): (1 − 0,8𝐵)(1 − 0,5𝐵)𝑋𝑡 = (1 − 0,49𝐵)𝑎𝑡 → 0,5 ≈ 0,49, por lo que realmente
tendríamos un AR(1): (1 − 0,8𝐵)𝑋𝑡 = 𝑎𝑡
a) Residuos no correlacionados
Estudiamos la función de autocorrelación estimada calculando la autocorrelación muestral:
∑𝑇𝑡=𝑘(𝑎̂𝑡 − 𝑎̅)(𝑎
̂𝑡−𝑘 − 𝑎
̅)
𝑟𝑘 =
∑𝑇𝑡=1(𝑎̂𝑡 − 𝑎̅)
Y una vez calculada, disponemos de dos elementos para decidir si los residuos no están correlacionados:
el correlograma y el estadístico Q de Ljung -Box. El correlograma nos dirá que los residuos no están
correlacionados si ninguno de los coeficientes es significativo (todos están dentro de las bandas de
confianza). Pero, si algún coeficiente de correlación es significativo (lo cual no siempre quiere decir que
los residuos tengan correlación), podemos usar el estadístico Q de Ljung-Box. Bajo la hipótesis nula de
(𝑎)
que los coeficientes de correlación para las innovaciones son nulos (𝐻0 : 𝜌𝑘 = 0 para 𝑘 = 1,2, … , ℎ), el
estadístico Q para los primeros h coeficientes será de la forma:
ℎ
𝑟𝑗2 2
𝑄(ℎ) = 𝑇(𝑇 + 2) ∑ ~ 𝜒ℎ−𝑛 donde 𝑛 = 𝑝 + 𝑞 + (1| 0) según se introduzca o no una constante
𝑇−𝑗
𝑗=1
2
Si resulta que 𝑄(ℎ) > 𝜒ℎ−𝑛,1−𝛼 , entonces rechazaremos 𝑯𝟎 , lo que significará que los residuos están
correlacionados y, por lo tanto, que deberíamos estimar otro modelo. Podemos también llegar a la misma
2
conclusión con el p-valor: si 𝑝 = (𝜒ℎ−𝑛 > 𝑄(ℎ)) < 𝛼, entonces rechazaremos 𝑯𝟎 .
𝜎̂2 |𝑎̅|
Bajo el supuesto de normalidad en el que 𝑎̅~𝑁 (0, ), si > 𝑍1−𝛼 , rechazaremos 𝐻0 donde 𝑍~𝑁(0,1).
𝑇 𝜎
̂ /√𝑟
Podemos también llegar a la misma conclusión con el p-valor: si 𝑝 < 𝛼, entonces rechazaremos 𝐻0 y
tendremos que volver a repetirlo pero incluyendo la constante.
22
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
c) Homocedasticidad
Debemos comprobar que la varianza marginal de los residuos sea estable, lo cual lo haremos con el
gráfico de los residuos frente al tiempo. Solamente diremos que es estable cuando los residuos se
dispersan de forma constante, en contraposición con una variabilidad aumenta o disminuye en el tiempo.
e) Valores atípicos
Para comprobar si el modelo tiene valores atípicos, lo que deberemos hacer es graficar los residuos o
las innovaciones estimadas frente al tiempo con unas bandas con valor de |𝟑𝝈 ̂| ó |𝟐𝝈
̂ |. Si algún valor
sobresaliera claramente de las bandas, tendríamos un valor atípico, lo cual se correspondería con la
existencia de un valor atípico en la variable original.
D) PREDICCIÓN
Dada una realización de longitud T de un proceso estocástico 𝑧𝑡 ARMA
{zt }: zt , zt , … , zt y 𝜙𝑝 (𝐵)𝑧𝑡 = 𝛿 + 𝜃𝑞 (𝐵) 𝑎𝑡 donde 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉(𝑎𝑡 ) = 𝜎 2 ,
se desea realizar una predicción de un valor futuro m periodos hacia adelante, es decir, conocer el valor de
𝑧𝑇+𝑚 donde 𝑚 > 0. Si se conoce la serie temporal, se podrán calcular los valores de las innovaciones 𝑎1 , 𝑎2 , … , 𝑎 𝑇
estableciendo el estimador o predictor en el instante T+m a partir del instante T: 𝑧𝑇+𝑚|𝑇
̂ = 𝑧̂(𝑚).
𝑇 Este predictor
será una combinación lineal de los valores de la variable y de las innovaciones con origen en el instante T. A
esto se le conoce como predicción en T con horizonte m. El error de predicción de este predictor es:
𝑒𝑇+𝑚|𝑇
̂ = 𝑒̂(𝑚)
𝑇 = 𝑧𝑇+𝑚 − 𝑧̂(𝑚)
𝑇
Vamos a suponer también que el modelo ARMA es conocido, lo cual significa que conocemos los coeficientes
𝜙𝑖 y 𝜃𝑗 , además de la varianza de la innovación: 𝑉(𝑎𝑡 ) = 𝜎 2. El modelo debe estar escrito de la forma MA():
𝑧𝑡 = 𝑎𝑡 + 𝜓1 𝑎𝑡−1 + 𝜓2 𝑎𝑡−2 + ⋯
𝑧𝑡 = (1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ )𝑎𝑡
I. PREDICTOR ÓPTIMO
El predictor óptimo es aquel que hace mínimo el error cuadrático medio del predictor: 𝑚í𝑛 𝐸𝐶𝑀[𝑧̂
𝑇 (𝑚)],
siendo:
𝐸𝐶𝑀[𝑧̂(𝑚)]
𝑇 = 𝐸𝑇 [𝑒𝑇2 (𝑚)] = 𝐸𝑇 [(𝑧𝑇+𝑚 − 𝑧̂(𝑚))
𝑇
2]
𝐸𝐶𝑀[𝑧̂(𝑚)]
𝑇 = 𝐸[𝑒𝑇2 (𝑚)|𝑧𝑡 ]22 = 𝐸[(𝑧𝑇+𝑚 − 𝑧̂(𝑚))
𝑇
2
|𝑧𝑡 ]
Entonces, el predictor óptimo m periodos hacia delante a partir del instante T es 𝑧̂
𝑇 (𝑚) = 𝐸[𝑧𝑇+𝑚 |𝑧𝑡 ].
2
21
El percentil para 𝜒2,0.95 = 5,99
22
|𝑧𝑡 significa que está condicionado al último valor; conocidos los valores hasta el instante T.
23
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
II. CÁLCULO DE PREDICCIONES
Hacemos el supuesto simple de que la innovación inicial es cero: 𝑎1 = 𝐸(𝑎1 ) = 0. Así, podremos calcular el
predictor óptimo con horizonte m a partir del último valor observado: 𝑧̂
𝑇 (𝑚) = 𝐸𝑇 (𝑧𝑇+𝑚 ) = 𝐸(𝑧𝑇+𝑚 |𝑧𝑇 ). De
igual manera, podemos obtener el predictor para la innovación: 𝑎̂(𝑚) = 𝐸𝑇 (𝑎 𝑇+𝑚 ) = 𝐸(𝑎 𝑇+𝑚 |𝑧𝑇 ). De forma
No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
𝑇
general, un proceso ARMA(p,q) se puede escribir como
𝑧𝑡 = 𝛿 + 𝜙1 𝑧𝑡−1 + ⋯ + 𝜙𝑝 𝑧𝑡−𝑝 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 − ⋯ − 𝜃𝑞 𝑎𝑡−𝑞
Para el instante T+m, el valor de la variable que queremos calcular tendrá la siguiente forma:
𝑧𝑇+𝑚 = 𝛿 + 𝜙1 𝑧𝑇+𝑚−1 + ⋯ + 𝜙𝑝 𝑧𝑇+𝑚−𝑝 + 𝑎 𝑇+𝑚 − 𝜃1 𝑎 𝑇+𝑚−1 − ⋯ − 𝜃𝑞 𝑎 𝑇+𝑚−𝑞
Y el predictor óptimo en ese instante T+m será:
𝑧̂(𝑚)
𝑇 = 𝐸𝑇 (𝑧𝑇+𝑚 ) = 𝛿 + 𝜙1 𝑧̂(𝑚
𝑇 − 1) + ⋯ + 𝜙𝑝 𝑧̂(𝑚
𝑇 − 𝑝) + 𝑎̂(𝑚)
𝑇 − 𝜃1 𝑎̂(𝑚
𝑇 − 1) − ⋯ − 𝜃𝑞 𝑎̂(𝑚
𝑇 − 𝑞)
Entonces, cada una de estas predicciones para cada instante (𝑚 − 1, 𝑚 − 2, . . . , 𝑚 − 𝑝), tanto de la variable
como de la innovación, será:
𝑧𝑇+𝑚−𝑗 si 𝑚 ≤ 𝑗 23
𝑧̂(𝑚
𝑇 − 𝑗) = 𝐸𝑇 (𝑧𝑇+𝑚−𝑗 ) = {
𝑧̂ 𝑇 (𝑚 − 𝑗) si 𝑚 > 𝑗 24
Y el predictor para las innovaciones para cada instante será:
III. TEOREMA
Para cualquier proceso estacionario ARMA(p,q), cuando el horizonte de predicción tiende hacia infinito, el
límite de la predicción es la media marginal del proceso será 𝑧̂(1)
𝑇 → 𝐸(𝑧𝑡 ).
𝑚→∞
Ejemplo 8: Dado un AR(1): 𝑧𝑡 = 𝛿 + 𝜙1 𝑧𝑡−1 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2 estacionario (|𝜙1 | < 1),
calcular la predicción m periodos hacia adelante.
Para 𝑚 = 1, el valor de la variable es 𝑧𝑇+1 = 𝛿 + 𝜙1 𝑧𝑇 + 𝑎 𝑇+1 y el predictor con horizonte uno será la
esperanza condicionada a los valores observados:
𝑧̂(1)
𝑇 = 𝐸𝑇 (𝑧𝑇 (1)) = 𝐸𝑇 (𝑧𝑇+1 ) = 𝛿 + 𝜙1 𝑧𝑇 + 026
Para 𝑚 = 2, el valor de la variable es 𝑧𝑇+2 = 𝛿 + 𝜙1 𝑧𝑇+1 + 𝑎 𝑇+2 y el predictor será:
𝑧̂(2) = 𝐸𝑇 (𝑧𝑇 (2)) = 𝐸𝑇 (𝑧𝑇+2 ) = 𝛿 + 𝜙1 𝑧̂(1) 27 + 0 = 𝛿 + 𝜙 ( 𝛿 + 𝜙 𝑧 ) = (1 + 𝜙 ) 𝛿 + 𝜙 2 𝑧
𝑇 𝑇 1 1 𝑇 1 1 𝑇
Entonces, para procesos estacionarios, el límite de la predicción cuando el horizonte tiende a infinito es la
esperanza marginal del proceso.
23
Conocemos los valores anteriores a la predicción, ya que 𝑚 ≤ 𝑗 (están entre los instantes 1 y T) y, por lo tanto, solo hay que
sustituir, el predictor es el valor observado.
24
No conocemos los valores anteriores a la predicción, ya que 𝑚 > 𝑗 y, por lo tanto, hay que sustituirlos por la predicción.
25
No conocemos los valores anteriores a la predicción, ya que 𝑚 > 𝑗 y, por lo tanto, hay que sustituirlos por la predicción pero, por
ser ruido blanco, no depende de los valores pasados y la predicción óptima de las innovaciones es cero.
26
La esperanza condicionada de la innovación (𝑎 𝑇+1 ) es cero.
27
Como no conocemos la esperanza condicionada en T+1, lo sustituimos por su predicción (𝑍 ̂𝑇 (1)).
28
Como |𝜙1 | < 1 porque el proceso es estacionario, 𝜙1∞ = 0.
24
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
Ejemplo 9: Dado un AR(1): 𝑧𝑡 = 𝛿 + 𝑧𝑡−1 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑦 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2 no estacionario (|𝜙1 | = 1),
calcular la predicción m periodos hacia adelante.
Para 𝑚 = 1, 𝑧̂(1) 𝑇 = 𝛿 + 𝑧𝑇
Para 𝑚 = 2, 𝑧̂(2) 𝑇 = 2 𝛿 + 𝑧𝑇
Para 𝑚 = 3, 𝑧̂(3) 𝑇 = 3 𝛿 + 𝑧𝑇
Para 𝑚 𝑔𝑒𝑛𝑒𝑟𝑎𝑙, el predictor será 𝑧̂(𝑚)
𝑇 = 𝑚 𝛿 + 𝑧𝑇 → ∞
𝑚→∞
Este proceso, conocido como paseo aleatorio con deriva, es un proceso no estacionario con esperanza
𝐸(𝑧𝑇 ) = 𝑡 𝛿. Así pues, cuando 𝑡 = ∞, su esperanza es también ∞.
Hemos comprobado que el límite del predictor de horizonte m cuando dicho horizonte tiende a ∞ siempre es
la media marginal del proceso. Cuando el proceso es estacionario, su media marginal es constante, y
cuando no lo es, su media marginal es infinita.
Ejemplo 10: Dada la primera diferencia de una serie que sigue un MA(1), calcular su predicción m
periodos hacia adelante.
∆𝑧𝑡 = (1 − 𝜃1 𝐵)𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. y 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2
Podemos calcular las predicciones de 𝑦𝑡 = ∆𝑧𝑡 : 𝑦𝑡 = 𝑎𝑡 − 𝜃1 𝑎𝑡−1
Para 𝑚 = 1, el valor de la variable es 𝑦𝑇+1 = 𝑎 𝑇+1 − 𝜃1 𝑎 𝑇 y el predictor será 𝑦̂(1)
𝑇 = 𝐸𝑇 (𝑦𝑇+1 ) = 0 − 𝜃1 𝑎 𝑇
Para 𝑚 = 2, el valor de la variable es 𝑦𝑇+2 = 𝑎 𝑇+2 − 𝜃1 𝑎 𝑇+1 y el predictor será 𝑦̂(2)
𝑇 = 𝐸𝑇 (𝑦𝑇+2 ) = 0
Para un MA(1), con horizonte 1, la predicción es ≠ 0, una porción de la última innovación conocida, y para
un horizonte ≥ 2, la predicción es = 0.
Si quisiéramos calcular la predicción para 𝒛𝑻 (𝑧̂(𝑚))
𝑇 y no para su primera diferencia,
𝑧𝑡 − 𝑧𝑡−1 = 𝑎𝑡 − 𝜃1 𝑎𝑡−1
𝑧𝑡 = 𝑧𝑡−1 + 𝑎𝑡 − 𝜃1 𝑎𝑡−1 → ARMA(1,1)29
Para 𝑚 = 1, el valor de la variable es 𝑧𝑇+1 = 𝑧𝑇 + 𝑎 𝑇+1 − 𝜃1 𝑎 𝑇 y el predictor será:
𝑧̂(1)
𝑇 = 𝐸𝑇 (𝑧𝑇+1 ) = 𝑧𝑇 + 0 − 𝜃1 𝑎 𝑇
Si nos fijamos, la predicción para la primera diferencia con 𝑚 = 1,
𝑦̂(1)
𝑇 = 𝑧̂(1)
𝑇 − 𝑧𝑇 = −𝜃1 𝑎 𝑇 → 𝑧̂(1)
𝑇 = 𝑧𝑇 − 𝜃1 𝑎 𝑇
Para 𝑚 = 2, el valor de la variable es 𝑧𝑇+2 = 𝑧𝑇+1 + 𝑎 𝑇+2 − 𝜃1 𝑎 𝑇+1 y el predictor será:
𝑧̂(2)
𝑇 = 𝐸𝑇 (𝑧𝑇+2 ) = 𝑧̂(1)
𝑇 + 0 − 0 = 𝑧𝑇 − 𝜃1 𝑎 𝑇
Para 𝑚 𝑔𝑒𝑛𝑒𝑟𝑎𝑙, 𝑧̂(𝑚)
𝑇 = 𝑧𝑇 − 𝜃1 𝑎 𝑇
Podemos ver que, mientras que para la primera diferencia la predicción con horizonte 1 es 𝑦̂(1)
𝑇 = −𝜃1 𝑎 𝑇 ,
y con horizonte 𝑚 ≥ 2 es 𝑦̂(𝑚)
𝑇 = 0 (porque los dos sumandos tienen el mismo valor: 𝑦̂(2) 𝑇 = 𝑧̂(2)
𝑇 −
𝑧̂(1)
𝑇 = 𝑧̂(1)
𝑇 − 𝑧̂(1)
𝑇 = 0), para 𝑧𝑇 no estacionaria sin diferenciar tenemos que 𝑧̂(𝑚)
𝑇 = 𝑧𝑇 − 𝜃1 𝑎 𝑇 para
todo m.
29
Como el coeficiente de la parte autorregresiva es uno, el proceso sigue sin ser estacionario.
25
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
IV. VARIANZA DE LAS PREDICCIONES
Calcular la varianza de las predicciones nos servirá para calcular el error de predicción o esperado, lo cual
nos permitirá calcular intervalos de confianza. Dado un proceso {𝑍𝑡 } y una realización 𝑍1 , … , 𝑍𝑇 y conocido el
modelo (ARMA(p,q)), debemos expresar el modelo de la forma MA(): 𝑍𝑡 = 𝜓(𝐵)𝑎𝑡 donde 𝜓(𝐵) = 1 + 𝜓1 𝐵 +
𝜓2 𝐵2 + ⋯. Como siempre, calculamos el valor de la variable en T+m: 𝑍𝑇+𝑚 = ∑∞ 𝑗=0 𝜓𝑗 𝑎 𝑇+𝑚−𝑗 donde 𝜓0 = 1.
A continuación, calculamos el predictor:
∞
𝑧̂(𝑚)
𝑇 = 𝐸𝑇 (𝑧𝑇+𝑚 ) = 𝐸𝑇 (𝑎 𝑇+𝑚 + 𝜓1 𝑎 𝑇+𝑚−1 + ⋯ + 𝜓𝑚 𝑎 𝑇 30 + 𝜓𝑚+1 𝑎 𝑇−1 + ⋯ + 𝜓 𝑇+𝑚−1 𝑎1 ) = ∑ 𝜓𝑗 𝑎 𝑇+𝑚−𝑗
𝑗=𝑚
Y tras esto, podemos calcular el error de predicción. Para el horizonte m será:
∞ ∞
Una vez calculado el error de predicción, que es una combinación lineal de variables aleatorias, podremos
calcular su varianza:
2
𝑉[𝑒𝑇 (𝑚)] = 𝐸[𝑒𝑇2 (𝑚)] = 𝐸(𝑎2𝑇+𝑚 ) + 𝜓12 𝐸(𝑎2𝑇+𝑚−1 ) + ⋯ + 𝜓𝑚−1 𝐸(𝑎2𝑇+𝑚−1 ) + 2𝜓1 𝐸(𝑎 𝑇+𝑚 𝑎 𝑇+𝑚−1 ) + ⋯
= 𝜎 + 𝜓1 𝜎 + ⋯ + 𝜓𝑚−1 𝜎 + 2𝜓1 · 0 + ⋯ = (1 + 𝜓12 + ⋯ + 𝜓𝑚−1
2 2 2 2 2 2 )𝜎 2
Cuando el modelo es estacionario, los coeficientes 𝜓𝑘 → 0, por lo que la varianza del error de predicción
𝑘→∞
tiende a la varianza marginal del proceso cuando 𝑚 → ∞: 𝑉[𝑒𝑇 (𝑚)] → 𝛾0 = 𝑉(𝑧𝑇 ). Y cuando el modelo no
𝑚→∞
es estacionario, puesto que no convergen (la suma de la sucesión de los coeficientes 𝜓𝑘 es infinito:
∑∞ 2
𝑘=0 𝜓𝑘 = ∞), entonces 𝑉[𝑒𝑇 (𝑚)] → ∞.
𝑚→∞
V. INTERVALOS DE CONFIANZA
Para calcular los intervalos de confianza de la variable con horizonte m, supondremos que 𝑎𝑡 𝑖𝑖𝑑 𝑁(0, 𝜎 2 ).
Entonces, dado que las innovaciones siguen una distribución normal, 𝑍 ̂𝑇 (𝑚)~ 𝑁(𝑍𝑇+𝑚 , 𝑉[𝑒𝑇 (𝑚)]). Así,
podremos expresar intervalos de confianza para la variable con horizonte m:
̂𝑇 (𝑚) ± 𝑍1−𝛼/2 · √𝑉[𝑒𝑇 (𝑚)]],
𝑍𝑇+𝑚 ∈ [𝑍
siendo 𝑍1−𝛼/2 el valor que deja 1 − 𝛼/2 de 𝑁(0,1) de probabilidad por encima y donde 𝛼 es el nivel de
significación.
Ejemplo 12: Dada la primera diferencia de una serie 𝑧𝑡 que sigue un MA(1) invertible (|𝜃1 | < 1) y no
estacionario (|𝜙1 | = 1), calcular la varianza de los errores de predicción con horizonte m del modelo.
𝑦𝑡 = ∆𝑧𝑡 = (1 − 𝜃1 𝐵)𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑦 𝑉𝑎𝑟(𝑎𝑡 ) = 𝜎 2
1 − 𝜃1 𝐵
(1 − 𝐵)𝑧𝑡 = (1 − 𝜃1 𝐵)𝑎𝑡 → 𝑧𝑡 = 𝑎
1−𝐵 𝑡
Para calcular la varianza de los errores de predicción, que son los intervalos de confianza de la predicción,
debemos expresar el modelo como un MA():
𝑧𝑡 = 𝜓(𝐵)𝑎𝑡 , donde 𝜓(𝐵) = 1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯
1−𝜃 𝐵
Igualamos las ecuaciones y obtenemos que 1
= 𝜓(𝐵) → 1 − 𝜃1 𝐵 = (1 − 𝐵)(1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + ⋯ ).
1−𝐵
Después, sumamos los factores y obtenemos la ecuación en diferencias.
𝐵0 : 1 = 1
𝐵1 : 𝜓1 − 1 = −𝜃1 → 𝜓1 = 1 − 𝜃1
1 + 𝜓1 𝐵 + 𝜓2 𝐵2 + 𝜓3 𝐵3 + ⋯
𝐵2 : 𝜓2 − 𝜓1 = 0 → 𝜓2 = 𝜓1 = 1 − 𝜃1
−𝐵 − 𝜓1 𝐵2 − 𝜓2 𝐵3 − ⋯ 𝐵3 : 𝜓3 − 𝜓2 = 0 → 𝜓3 = 𝜓2 = 1 − 𝜃1
…
𝜓𝑘 = 1 − 𝜃1 ∀𝑘 ≥ 1
Con lo cual, la varianza del error de predicción con horizonte m es:
𝑉[𝑒𝑇 (𝑚)] = (1 + 𝜓12 + ⋯ + 𝜓𝑚−1
2 )𝜎 2 = [1 + (𝑚 − 1)(1 − 𝜃1 )2 ]𝜎 2 31,
y, como lim 𝑉[𝑒𝑇 (𝑚)] = ∞, sabemos que el proceso 𝑧𝑡 no es estacionario, lo cual ya sabíamos (|𝜙1 | = 1).
𝑚→∞
30
𝑎 𝑇+𝑚−𝑚 = 𝑎 𝑇
31
Tenemos una suma de (m-1) cuadrados de psi (𝜓).
26
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278
VI. ADAPTACIÓN DE LA PREDICCIÓN
Dada una serie 𝑧1 , … , 𝑧𝑇 y realizadas las predicciones para los periodos 𝑇 + 1, … , 𝑇 + 𝑗, es decir, calculado su
̂𝑇 (𝑚) con 𝑚 = 1, … , 𝑗, resulta que después conocemos la variable 𝑍𝑇+1 , lo cual modificaría el valor
predictor 𝑍
de nuestra predicción. Para adaptar nuestra predicción, como la serie conocida ahora es 𝑍1 , … , 𝑍𝑇 , 𝑍𝑇+1 ,
calcularemos la predicción con horizonte m-1, conocidos los valores hasta T+1:
𝑍̂ ̂ ̂
𝑇+1 (𝑚 − 1) = 𝜓𝑚−1 𝑎 𝑇+1 + 𝜓𝑚 𝑎 𝑇 + 𝜓𝑚+1 𝑎 𝑇+1 + ⋯ = 𝜓𝑚−1 𝑎 𝑇+1 + 𝑍𝑇 (𝑚) = 𝑍𝑇 (𝑚) + 𝜓𝑚−1 𝑒𝑇 (1)
32
ESQUEMA
𝑧1 , … , 𝑧𝑇 → 𝑀𝐴(∞)
𝑍𝑇+𝑚 = 𝑎 𝑇+𝑚 + 𝜓1 𝑎 𝑇+𝑚−1 + ⋯ + 𝜓𝑚 𝑎 𝑇 + 𝜓𝑚+1 𝑎 𝑇−1 + ⋯
𝒎: 𝑍̂ ̂
𝑇+𝑚 = 𝑍𝑇 (𝑚) = 𝐸𝑇 (𝑍𝑇+𝑚 ) = 𝜓𝑚 𝑎 𝑇 + 𝜓𝑚+1 𝑎 𝑇−1 + ⋯
𝑧1 , … , 𝑧𝑇 , 𝑧𝑇+1
A partir del valor 𝑧𝑇+1 → 𝑎 𝑇+1 = 𝑧𝑇+1 − 𝑍̂ ̂
𝑇+1 = 𝑧𝑇+1 − 𝑍𝑇 (1)
𝒎 → 𝒎 − 𝟏: 𝑍̂ ̂
𝑇+1 (𝑚 − 1) = 𝐸𝑇+1 (𝑍𝑇+𝑚 ) = 𝜓𝑚−1 𝑎 𝑇+1 + 𝜓𝑚 𝑎 𝑇 + 𝜓𝑚+1 𝑎 𝑇−1 + ⋯ = 𝜓𝑚−1 𝑎 𝑇+1 + 𝑍𝑇 (𝑚)
𝑍̂ ̂
𝑇+1 (𝑚 − 1) = 𝑍𝑇 (𝑚) + 𝜓𝑚−1 𝑎 𝑇+1
*SIMBOLOGÍA
• Retardo: k. Es la distancia o número de periodos que hay entre los respectivos instantes temporales de
dos variables aleatorias.
• Proceso estocástico: 𝑿𝒕
• Longitud de la serie temporal: T.
• Media o esperanza: 𝜇
• Varianza: 𝜎 2
• (Auto)covarianza: 𝛾𝑘
• Función de autocorrelación (FAC): 𝜌𝑘
• Función de autocorrelación estimada (fas): 𝜌 ̂𝑘
• Ruido blanco: r.b.
• Constante: 𝛿
• Coeficiente de autocorrelación muestral: 𝑟
• Nivel de significación: 𝛼
• Confianza
• Percentil 𝟏 − 𝜶 de N(0,1): 𝑍1−𝛼
̂𝑖 |
|𝛽
• P-valor: 𝑃 = 𝑃𝑟𝑜𝑏 (𝑍 >
̂𝑖 ) 1/2 ) , donde 𝑍~𝑁(0,1)
̂ (𝛽
𝑉
32
𝑇 1) = 𝑎 𝑇+1 .
La innovación en el instante T+1 es igual al error de predicción en dicho instante: 𝑒𝑇 (1) = 𝑧𝑇+1 − 𝑧̂(
27
Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4224278