Está en la página 1de 15

TEMA-3.

pdf

Marinamariina

ECONOMETRÍA II.

3º Grado en Economía

Facultad de Ciencias Económicas y Empresariales


Universidad Autónoma de Madrid

Reservados todos los derechos.


No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Distribución de contenidos

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
TEMA 3: MODELOS NO ESTACIONARIOS DE SERIES TEMPORALES ......................................................... 1
3.1. INTORDUCCIÓN A LOS PROCESOS LINEALES NO ESTACIONARIOS ........................................ 1
3.2. PROCESOS INTEGRADOS ........................................................................................................................ 1
3.3. TRANSFORMACIONES PARA ESTABILIZAR LA NO ESTACIONARIEDAD .................................. 2
3.3.1. TRANSFORMACIÓN PARA ESTABILIZAR LA VARIANZA ........................................................ 2
3.3.2. TRANSFORMACIÓN PARA ESTABILIZAR LA MEDIA ................................................................ 3
A) DIFERENCIA REGULAR ..................................................................................................................... 3
B) DIFERENCIA ESTACIONAL ............................................................................................................... 3
C) CONTRASTES DE RAÍZ UNITARIA .................................................................................................. 4

Reservados todos los derechos.


3.4. MODELOS CON TENDENCIA DETERMINISTA ..................................................................................... 5
3.4.1. GENERALIZACIÓN ............................................................................................................................... 6
3.4.2. FILTRO DE HODRICK-PRESCOTT ................................................................................................... 6
3.5. MODELOS DE PASEO ALEATORIO ........................................................................................................ 7
3.5.1. PASEO ALEATORIO ............................................................................................................................ 7
3.5.2. PASEO ALEATORIO SIN DERIVA .................................................................................................... 7
A) MEDIA Y VARIANZA ............................................................................................................................ 7
B) FUNCIÓN DE AUTOCOVARIANZA Y AUTOCORRELACIÓN ..................................................... 7
3.5.3. PASEO ALEATORIO CON DERIVA .................................................................................................. 7
A) MEDIA, VARIANZA Y AUTOCORRELACIÓN ................................................................................. 8
3.6. ESTACIONALIDAD ....................................................................................................................................... 8
3.6.1. TIPOS DE COMPORTAMIENTO ESTACIONAL ............................................................................. 9
A) ESTACIONALIDAD DETERMINISTA ................................................................................................ 9
B) ESTACIONALIDAD ESTOCÁSTICA ESTACIONARIA .................................................................. 9
C) ESTACIONALIDAD ESTOCÁSTICA NO ESTACIONARIA ........................................................... 9
3.7. MODELOS INTEGRADOS ARIMA............................................................................................................. 9
3.7.1. MODELOS ARIMA ESTACIONALES MULTIPLICATIVOS ......................................................... 10
A) FUNCIÓN DE AUTOCORRELACIÓN, FAC ................................................................................... 10
B) FUNCIÓN DE AUTOCORRELACIÓN PARCIAL, FACP .............................................................. 12

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
TEMA 3: MODELOS NO ESTACIONARIOS DE SERIES TEMPORALES
3.1. INTORDUCCIÓN A LOS PROCESOS LINEALES NO ESTACIONARIOS
Comenzamos el estudio de los procesos no estacionarios. Un proceso puede ser no estacionario en la media, en la
varianza, en las autocorrelaciones, o en otras características de la distribución de las variables. Cuando la serie no sea
estable en el tiempo, diremos que el proceso es no estacionario en media (presenta una tendencia creciente,
decreciente o mixta), será no estacionario en varianza cuando la variabilidad se modifique en el tiempo, será no
estacionario en covarianzas cuando las autocovarianzas no dependan del retardo entre variables, sino del momento
temporal, y será no estacionario en distribución cuando la distribución de la variable sea diferente para cada instante
del tiempo (esto se corresponde con lo contrario de la estacionariedad en sentido estricto y es muy difícil de verificar).
Los procesos no estacionarios más importantes son los integrados, que tienen la propiedad fundamental de que

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
al diferenciarlos se transforman en estacionarios. Una propiedad importante que diferencia a los procesos
integrados de los estacionarios es la forma en que desaparece la dependencia con el tiempo. En los procesos
estacionarios ARMA las autocorrelaciones disminuyen geométricamente, y se hacen prácticamente cero a los pocos
retardos. En los procesos integrados las autocorrelaciones disminuyen linealmente con el tiempo y es posible encontrar
coeficientes de autocorrelación distintos de cero hasta retardos muy altos.
Existe una clase de procesos estacionarios donde las autocorrelaciones disminuyen mucho más lentamente con el
tiempo que en el caso de los procesos ARMA, y también que en los procesos integrados. Estos procesos se conocen
como procesos de memoria larga, y son casos particulares de la representación de Wold para procesos estacionarios,
pero donde los coeficientes decrecen muy lentamente, lo que implica que las autocorrelaciones entre las observaciones
también decrecen muy lentamente.

3.2. PROCESOS INTEGRADOS

Reservados todos los derechos.


La mayoría de las series reales son no estacionarias en media, dado que su nivel medio varía con el tiempo. Si una
serie 𝑧𝑡 es no estacionaria en media, la serie 𝑦𝑡 primera diferencia de 𝑧𝑡 sí será, en la mayoría de los casos, estacionaria,
de forma que sus valores pasarán a oscilar alrededor de un valor constante (la media).
𝑦𝑡 = ∆𝑧𝑡 = (1 − 𝐵)𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−1

Integrado
𝑧𝑡 :

Estacionario
𝑦𝑡 = ∆𝑧𝑡 :

Aunque frecuentemente las series reales son no estacionarias en media, sus diferencias relativas sí suelen serlo. A
estos procesos los conocemos por el nombre de procesos integrados de orden uno: 𝑍𝑡 ~ 𝐼(1). La diferencia relativa,
o la diferencia cuando medimos la variable en logaritmos, suele hacerse cuando el proceso es no estacionario en media
y varianza:
𝑧𝑡 𝑧𝑡 − 𝑧𝑡−1 𝑧𝑡 − 𝑧𝑡−1 ∆𝑧𝑡
𝑦𝑡 = ∆ log 𝑧𝑡 = log 𝑧𝑡 − log 𝑧𝑡−1 = log = log (1 + )≈ =
𝑧𝑡−1 𝑧𝑡−1 𝑧𝑡−1 𝑧𝑡−1
Por ejemplo, si la serie 𝑧𝑡 fuera los precios de un activo financiero, la serie en diferencias 𝑦𝑡 = ∆𝑧𝑡 sería los rendimientos
de ese activo.
A veces es necesario diferenciar más de una vez una serie para obtener un proceso estacionario. Es decir, cuando
ocurra que 𝑧𝑡 es no estacionaria y que 𝑦𝑡 = ∆𝑧𝑡 es no estacionaria también, habrá que tomar una segunda diferencia
(una diferencia sobre la primera diferencia de 𝑧𝑡 ):
𝑤𝑡 = ∆𝑦𝑡 = ∆∆𝑧𝑡 = ∆2 𝑧𝑡 = (1 − 𝐵)2 𝑧𝑡 = (1 − 2𝐵 + 𝐵2 )𝑧𝑡 = 𝑧𝑡 − 2𝑧𝑡−1 + 𝑧𝑡−2

Abre tu cuenta N26 Smart con el código N26WUOLAH y disfruta de 12 meses gratis.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
A los procesos que se transforman en estacionarios al tomar dos diferencias los conoceremos como procesos
integrados de orden dos; la serie 𝑧𝑡 en este caso es 𝐼(2). Y, en general, diremos que un proceso 𝑧𝑡 es integrado de
orden h, 𝐼(ℎ) ∀ℎ ≥ 0 cuando al diferenciarlo h veces se transforma en estacionario:
𝑦𝑡 = ∆ℎ 𝑧𝑡 = (1 − 𝐵)ℎ 𝑧𝑡 es estacionario
En particular, cuando un proceso es estacionario originalmente, lo conoceremos como un proceso 𝐼(0), porque no hay
que tomar ninguna diferencia para convertirlo en estacionario.
Dada una serie 𝑧𝑡 no estacionaria (𝐼(1)) y una serie 𝑦𝑡 = ∆𝑧𝑡 estacionaria (𝐼(0)), las funciones de autocorrelación de
ambos procesos difieren gráficamente en varios términos. La FAC del proceso integrado se caracteriza por presentar
todos sus coeficientes positivos (𝑟𝑘 ≥ 0 con 𝑘 ≥ 1), decrecer lentamente y tener su primer coeficiente próximo a
uno (𝑟1 ≈ 1).

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
FAC proceso
integrado
𝑧𝑡 :

FAC proceso
estacionario
𝑦𝑡 = ∆𝑧𝑡 :

Reservados todos los derechos.


3.3. TRANSFORMACIONES PARA ESTABILIZAR LA NO ESTACIONARIEDAD
3.3.1. TRANSFORMACIÓN PARA ESTABILIZAR LA VARIANZA
Suponiendo una serie 𝑧𝑡 no estable en varianza (𝑉(𝑧𝑡 ) = 𝜎𝑡2, depende del tiempo), 𝑧𝑡 normalmente tampoco es
estacionaria en media (𝑧𝑡 = 𝜇𝑡 𝑎𝑡 donde 𝜇𝑡 = 𝐸(𝑧𝑡 ), la varianza depende de la media local: 𝑉(𝑧𝑡 ) = 𝐸(𝜇𝑡2 𝑎𝑡2 )).
Entonces, en esta situación, se demuestra que la desviación típica del proceso es de la forma
𝜎𝑡 = 𝐾 · 𝜇1−𝜆
𝑡
Si tomamos logaritmos,
log 𝜎𝑡 = log 𝐾 + (1 − 𝜆)1 log 𝜇𝑡
Tenemos una variable dependiente, la desviación típica 𝜎𝑡 , una ecuación lineal, log 𝐾 + (1 − 𝜆), y una variable
independiente, la media 𝜇𝑡 . Usaremos el gráfico rango-media, siendo el rango una medida de dispersión, para
determinar si un proceso es estacionario o no en varianza. Para ello, dividimos la serie en partes y sobre cada una
calculamos el rango o desviación típica y la media. Entonces podremos graficarlo obteniendo una nube de puntos.
También podremos calcular el coeficiente de regresión: 𝑏 = 1 − 𝜆 → 𝜆̂ = 1 − 𝑏̂ .
- Si 𝜆̂ = 0 (o 𝑏̂ = 1), la nube de puntos muestra una clara tendencia (obtendríamos la bisectriz del primer
cuadrante), lo cual significa que la serie es no estacionaria en varianza, por lo que tendríamos que tomar
logaritmos.
- Si 𝜆̂ ≠ 0 (o 𝑏̂ ≠ 1), la nube de puntos no muestra una tendencia, lo cual significa que la serie es estacionaria
en varianza, teniendo que realizar la transformación 𝑧𝑡𝜆 /𝜆.
En conjunto, tenemos la transformación de Box-Cox:

𝑧𝑡𝜆
𝑦𝑡 { 𝜆 𝜆≠0
log 𝑧𝑡 𝜆 = 0

1
El valor 𝑏 = 1 − 𝜆 es el coeficiente de regresión. Si es igual a cero, no existe relación alguna entre la medida de dispersión y la de
centralidad, no hay dependencia y, por lo tanto, el proceso es estacionario en varianza.

Abre tu cuenta N26 Smart con el código N26WUOLAH y disfruta de 12 meses gratis.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
3.3.2. TRANSFORMACIÓN PARA ESTABILIZAR LA MEDIA
Para transformar la serie con fin de estabilizar la media, deberemos también tomar diferencias. De nuevo, el número
de diferencias a tomar será todas las que se necesiten hasta que el proceso se convierta en estacionario en media.

A) DIFERENCIA REGULAR
Cuando la serie presenta una tendencia clara, es necesario tomar diferencias regulares. El número de diferencias
que tenemos que tomar en la serie original para que se transforme en estacionario en media es el orden del
proceso integrado.
𝑦𝑡 = ∆𝑑 𝑧𝑡 = (1 − 𝐵)𝑑 𝑧𝑡
Los procedimientos o herramientas de las que disponemos para obtener el valor d son:
- Gráfico de la serie. Una vez graficada la serie 𝑧𝑡 , podremos ver si esta presenta tendencia. Tomaremos

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
diferencias (∆𝑧𝑡 , ∆2 𝑧𝑡 , … , ∆𝑑 𝑧𝑡 ) y graficaremos la serie hasta que se vuelva estacionaria.
- FAC. La función de autocorrelación de una serie 𝑧𝑡 se caracteriza por presentar coeficientes positivos
(𝑟𝑘 ≥ 0 con 𝑘 ≥ 1), decrecer lentamente y tener el primer valor estimado próximo a uno (𝑟1 ≈ 1).
Tomaremos diferencias (∆𝑧𝑡 , ∆2 𝑧𝑡 , … , ∆𝑑 𝑧𝑡 ) y elaboraremos correlogramas hasta que la FAC del proceso
pierda estas características.
- Contrastes de raíces unitarias. Test aumentado de Dickey-Fuller (ADF).
Si existiera duda entre diferenciar y no diferenciar, siempre es mejor diferenciar, porque se comete menor
error en la sobrediferenciación que en la infradiferenciación.

Paseo aleatorio: 𝑧𝑡 = 𝑧𝑡−1 + 𝑎𝑡 Primera diferencia: ∆𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−1 = 𝑎𝑡

Reservados todos los derechos.


FAC FACP

B) DIFERENCIA ESTACIONAL
La presencia de un patrón estacional es causa de no estacionariedad en la media, por lo tanto, si existe una
estacionalidad de periodo s, siendo s el número de observaciones por año (12-mensual, 4-trimestral), es
necesario tomar una diferencia estacional para estabilizar la media.
𝑤𝑡 = ∆𝑠 𝑧𝑡 = (1 − 𝐵 𝑠 )2𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−𝑠
Para determinar si estamos ante una serie estacional disponemos de varios elementos o herramientas que nos
ayudan a identificar si la serie presenta características estacionales:
- Gráfico de la serie. Una vez graficada la serie 𝑧𝑡 , podremos ver si esta presenta un patrón o pauta que
se repite a lo largo del tiempo cada s observaciones (p.e., la producción industrial suele caer en agosto y
aumentar a finales de año).

2
(1 − 𝐵4 ) ≠ (1 − 𝐵)4 . La primera es una diferencia estacional, mientras que la segunda equivale a tomar 4 diferencias regulares.

Abre tu cuenta N26 Smart con el código N26WUOLAH y disfruta de 12 meses gratis.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
- FAC. Obtenido el correspondiente correlograma, analizaremos si en los retardos múltiplos de s
(𝑠, 2𝑠, 3𝑠, …) los coeficientes son positivos (𝑟𝑘 ≥ 0 con 𝑘 = 𝑠, 2𝑠, 3𝑠, …) y decrecen lentamente. Si esto
ocurre, podremos afirmar que la serie es estacional y, por tanto, deberemos tomar una diferencia
estacional.

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
AR(1) con retardo mensual
FAC FACP

C) CONTRASTES DE RAÍZ UNITARIA

Reservados todos los derechos.


Con estos contrastes analizamos si debemos tomar una diferencia adicional en una serie para convertirla en
estacionaria.

• CONTRASTE DE DICKEY-FULLER
El test de Dickey-Fuller se desarrolló porque el procedimiento tradicional de estimar dos modelos y elegir el
de menor varianza no es siempre válido. Generalmente, el modelo estacionario siempre proporciona un mejor
ajuste a los datos, por lo que concluiremos siempre que el modelo estacionario es el adecuado.
Este contraste surgió de suponer un proceso AR(1) tal que 𝑧𝑡 = 𝛿 + 𝑧𝑡−1 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑁(0, 𝜎 2 ) y analizar
si existe una raíz unitaria (si es no estacionario) mediante un contraste de hipótesis: 𝐻0 : 𝜙 = 1 ó 𝐻0 : ∃ raíz
unitaria. Esto significa que si restamos a ambos lados la variable 𝑧𝑡−1 , obtendremos:
𝑧𝑡 − 𝑧𝑡−1 = 𝜙𝑧𝑡−1 − 𝑧𝑡−1 + 𝑎𝑡
∆𝑧𝑡 = (𝜙 − 1)𝑧𝑡−1 + 𝑎𝑡 = 𝛽𝑧𝑡−1 + 𝑎𝑡 , donde 𝛽 = 𝜙 − 1
Con lo cual, si queremos saber si existe raíz unitaria, deberemos contrastar que 𝐻0 : 𝛽 = 0 siendo la hipótesis
alternativa 𝐻1 : 𝛽 < 0. El estadístico de Dickey-Fuller no tiene una distribución conocida, por lo que se rechaza
𝐻0 , lo que significa que no existe raíz unitaria cuando el estadístico es menor que el valor crítico de la
distribución para un nivel de significación 𝛼 dado: 𝐷𝐹 < 𝐷𝐹𝛼 . Tiene la siguiente forma:
𝛽̂
𝐷𝐹 =
√𝑉(𝛽̂ )

• CONTRASTE AUMENTADO DE DICKEY-FULLER


El contraste anterior analiza si existe una raíz unitaria en un AR(1), pero este contraste también se puede
generalizar para procesos ARMA, pudiéndose estos convertir en AR(). En los procesos AR() llega un
momento en el que los coeficientes son prácticamente nulos y se pueden aproximar a procesos AR(p). Por
ello, se supone y se puede decir que 𝑧𝑡 está generado por un AR(p) que se deriva a partir de un modelo mixto
ARMA con orden p elevado:
𝑧𝑡 = 𝜙1 𝑧𝑡−1 + ⋯ + 𝜙𝑝 𝑧𝑡−𝑝 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. 𝑁(0, 𝜎 2 )
Con este tipo de contraste podremos saber si la serie es estacionaria o no en media. Restamos a ambos
lados 𝑧𝑡−1 :
𝑧𝑡 − 𝑧𝑡−1 = 𝜙1 𝑧𝑡−1 − 𝑧𝑡−1 + ⋯ + 𝜙𝑝 𝑧𝑡−𝑝 + 𝑎𝑡
𝑝

∆𝑧𝑡 = 𝛽𝑧𝑡−1 + 𝛼1 ∆𝑧𝑡−1 + 𝛼2 ∆𝑧𝑡−2 + ⋯ + 𝛼𝑝 ∆𝑧𝑡−𝑝 + 𝑎𝑡 donde 𝛽 = ∑ 𝜙𝑖 − 1


𝑖=1

El contraste será entre 𝐻0 : 𝛽 = 0 (lo que significaría que existe una raíz unitaria) y 𝐻1 : 𝛽 < 0 y lo podremos
realizar de varias formas:

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
a) Estimando 𝛽 por mínimos cuadrados ordinarios sobre el modelo autorregresivo:
𝑝

∆𝑧𝑡 = 𝛽𝑧𝑡−1 + 𝛼1 ∆𝑧𝑡−1 + ⋯ + 𝛼𝑝 ∆𝑧𝑡−𝑝 + 𝑎𝑡 , sabiendo que 𝛽 = ∑ 𝜙𝑖 − 1


𝑖=1
b) Estimando 𝛽 por mínimos cuadrados ordinarios sobre el modelo autorregresivo con constante:
∆𝑧𝑡 = 𝛿 + 𝛽𝑧𝑡−1 + 𝛼1 ∆𝑧𝑡−1 + ⋯ + 𝛼𝑝 ∆𝑧𝑡−𝑝 + 𝑎𝑡
c) Estimando 𝛽 por mínimos cuadrados ordinarios sobre el modelo autorregresivo con tendencia lineal:
∆𝑧𝑡 = 𝛿 + 𝛾𝑡 + 𝛽𝑧𝑡−1 + 𝛼1 ∆𝑧𝑡−1 + ⋯ + 𝛼𝑝 ∆𝑧𝑡−𝑝 + 𝑎𝑡
Cuando el gráfico de la primera diferencia oscile alrededor de cero (esta vinculada no lo hace, sino que lo
hace en torno a uno), realizaremos el supuesto a, y si lo hace en torno a un valor distinto de cero, realizaremos
el b, aunque podemos realizar los tres o los dos primeros supuestos para comparar y comprobar si se rechaza

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
o no la 𝐻0 . Si se produce que el resultado es diferente en uno o dos de los contrastes que hemos realizado,
tendremos que comprobar si 𝛿 es significativa (𝛿 ≠ 0); si lo es, nos quedaremos con el resultado del supuesto
b antes que el a, y nos quedaremos con el del b si no lo es.
Si el coeficiente de p (𝛽) es significativo (rechazamos que 𝛽 = 0), ello significará que el modelo es válido para
realizar el contraste, pero si, en cambio, el coeficiente no lo es, entonces reduciremos el orden de p,
estimaremos un modelo de orden p-1 y examinaremos de nuevo el último coeficiente para ver si es
significativo.
Una vez estimada 𝛽 construimos el estadístico aumentado de Dickey-Fuller, el cual tampoco tiene distribución
conocida, por lo que habrá que ir a las tablas de su contraste. Se rechazará 𝐻0 cuando 𝐴𝐷𝐹 < 𝐴𝐷𝐹𝛼 3 y
podremos decir que el proceso es estacionario (no existen raíces unitarias). El estadístico es el siguiente:
𝛽̂
𝐴𝐷𝐹 =

Reservados todos los derechos.


√𝑉(𝛽̂ )

Iremos realizando el contraste sobre la diferencia de la serie anterior hasta que rechacemos 𝐻0 y, así,
podremos establecer el orden de integración:
𝐻0 …
𝐻0 → 𝐴𝐷𝐹 ∆2 𝑧𝑡 {
𝐻0 → 𝐴𝐷𝐹 ∆𝑧𝑡 { 𝐻1 → 𝐼(2)
𝐴𝐷𝐹 𝑧𝑡
𝐻1 → 𝐼(1)
{𝐻1 → 𝐼(0)

3.4. MODELOS CON TENDENCIA DETERMINISTA


Si bien los procesos integrados cubren una gran parte de los casos de modelos no estacionarios, no los cubren todos.
Cualquier proceso suma de un proceso estacionario y de una tendencia polinómica determinista (que dependa
del tiempo y que no sea variable aleatoria) será integrado de cualquier orden ≥ 1 (al tomar una o más diferencias se
convierte en estacionario). Además, el proceso resultante de su diferenciación será estacionario pero no
invertible.

tendencia polinómica determinista de orden 1 (lineal)4


Ejemplo 1: 𝑧𝑡 = 𝛼0 + 𝛼1 𝑡 + 𝑢𝑡 {proceso estacionario e invertible con tendencia estocástica
(puede ser r.b., AR(p), MA(q), ARMA(p,q))
Si calculamos la esperanza del proceso, 𝐸(𝑧𝑡 ) = 𝛼0 + 𝛼1 𝑡 + 𝜇𝑢 , vemos que la esperanza marginal del proceso
estacionario (𝜇𝑢 ) es constante, pero la del proceso 𝑧𝑡 no lo es y depende del instante. Por ello, podemos concluir
que todo proceso 𝑧𝑡 suma de una tendencia polinómica determinista y de un proceso estacionario es no
estacionario. Para corregirlo tomaremos una primera diferencia:
𝑦𝑡 = ∆𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−1 = 𝛼0 + 𝛼1 𝑡 + 𝑢𝑡 − 𝛼0 − 𝛼1 (𝑡 − 1) − 𝑢𝑡−1 = 𝛼0 + 𝛼1 𝑡 − 𝛼0 − 𝛼1 𝑡 + 𝛼1 + 𝑢𝑡 − 𝑢𝑡−1 = 𝛼1 + 𝑢𝑡 − 𝑢𝑡−1
= 𝛼1 + ∆𝑢𝑡 = 𝛼1 + (1 − 𝐵)𝑢𝑡

3
Obtendremos el valor crítico 𝐴𝐷𝐹𝛼 para un nivel de significación dado (5%) y el p-valor 𝐴𝐷𝐹 por medio del programa que estemos
usando.
4
Es determinista porque 𝛼0 y 𝛼1 y t es una variable no aleatoria.

Abre tu cuenta N26 Smart con el código N26WUOLAH y disfruta de 12 meses gratis.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
y calcularemos su esperanza para comprobarlo: 𝐸(𝑦𝑡 ) = 𝛼1 + 𝐸(𝑢𝑡 ) − 𝐸(𝑢𝑡−1 ) = 𝛼1 + 𝜇𝑢 − 𝜇𝑢 5 = 𝛼1 ≡ 𝑐𝑡𝑒. Podemos
ver numéricamente que, cuando tenemos un proceso de estas características no estacionario en inicio, al tomar una
diferencia lo convertimos en estacionario (su esperanza ya es estable, no depende del instante).
𝜃(𝐵)
Además, en el caso de que 𝑢𝑡 ~ 𝐴𝑅𝑀𝐴(𝑝, 𝑞), es decir, 𝑢𝑡 = 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏., 𝑦𝑡 = ∆𝑧𝑡 será:
𝜙(𝐵)

∆𝜃(𝐵)
𝑦𝑡 = 𝛼1 + 𝑎 → 𝜙(𝐵)𝑦𝑡 = 𝛿6 + ∆𝜃(𝐵)𝑎𝑡
𝜙(𝐵) 𝑡
Por lo tanto, tomando la primera diferencia de un proceso suma de una tendencia determinista polinómica y de un
proceso estacionario 𝑢𝑡 ~𝐴𝑅𝑀𝐴(𝑝, 𝑞) obtendremos un proceso 𝑨𝑹𝑴𝑨(𝒑, 𝒒 + 𝟏). Podemos observar que el orden de
la parte de medias móviles es q+1, y esto es porque su polinomio característico está multiplicado por ∆𝜃(𝐵) =
(1 − 𝐵)𝜃(𝐵), de forma que B se eleva a un número una unidad superior.
Además, el proceso 𝑦𝑡 resultante será no invertible, a pesar de que 𝑢𝑡 sí lo es. Esto significa que al menos una raíz

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
de su polinomio característico de medias móviles está dentro del círculo unidad. Y, en efecto, en este producto
(1 − 𝟏 · 𝐵)𝜃(𝐵), hay una raíz de valor uno.

Este resultado que hemos obtenido para un proceso con tendencia determinista lineal aplica también a todos los que
tengan tendencia polinómica de orden h: 𝑧𝑡 = 𝛼0 + 𝛼1 𝑡 + ⋯ + 𝛼ℎ 𝑡 ℎ + 𝑢𝑡 . El proceso resultante va a ser siempre
estacionario no invertible. El problema con que nos encontramos es que este tipo de procesos, con tendencia
polinómica determinista, son poco frecuentes en el día a día, por lo que este estudio no es útil a no ser que
generalicemos.

3.4.1. GENERALIZACIÓN
Se puede generalizar el modelo visto permitiendo que la pendiente pueda variar respecto al valor anterior.
nivel
Ejemplo 2: Tenemos ahora el proceso 𝑧𝑡 = 𝜇𝑡 + 𝑢𝑡 { , donde el nivel evoluciona como:

Reservados todos los derechos.


pendiente ~ 𝑟. 𝑏.
𝜇𝑡 = 𝜇𝑡−1 + 𝑐 + 𝑒𝑡 con 𝑒𝑡 ~ 𝑟. 𝑏.
El proceso tiene una tendencia determinista c, porque el nivel en el instante 𝜇𝑡 se obtiene a partir del instante
anterior sumando una constante c, que es la pendiente, más un pequeño componente aleatorio, 𝑒𝑡 . Precisamente
por la adición del componente aleatorio que es un ruido blanco, el polinomio deja de ser determinista para tener
tendencia estocástica. Si diferenciamos el proceso:
𝑦𝑡 = ∆𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−1 = 𝑐 + 𝑒𝑡 + ∆𝑢𝑡 = 𝑐 + 𝑒𝑡 + (1 − 𝐵)𝑢𝑡 7 → 𝑦𝑡 es no invertible
𝐸(𝑦𝑡 ) = 𝑐 → 𝑦𝑡 es estacionario
Este tipo de procesos se dan más en la realidad. Si ahora suponemos que 𝑢𝑡 ~ 𝐴𝑅𝑀𝐴(𝑝, 𝑞) estacionario, entonces
∆𝑢𝑡 ~ 𝐴𝑅𝑀𝐴(𝑝, 𝑞 + 1). Pero, sea cual sea el proceso, al hacer una diferencia estamos introduciendo una raíz
unitaria en la parte de medias móviles, es decir, estamos convirtiendo el proceso en no invertible.

El modelo anterior puede generalizarse un poco más haciendo que la pendiente determinista, c, cambie con el
tiempo, pero con cierta inercia. Pasamos de tener un paseo aleatorio con deriva a tener un paseo aleatorio
integrado: 𝜇𝑡 = 𝜇𝑡−1 + 𝑐𝑡 + 𝑒𝑡 . La conclusión va a ser, de todas formas, la misma: incluyendo diferencias,
incorporamos tendencias estocásticas.
Si, como en este caso, la tendencia es estocástica, el nivel o tendencia será un paseo aleatorio integrado en el que,
si 𝑉(𝑒𝑡 ) = 0, el proceso ya no sería estocástico, sino determinista (con tendencia lineal). Para convertir este tipo de
procesos en estacionarios, tomamos también diferencias:
𝑤𝑡 = ∆𝑢𝑡 ~ 𝐴𝑅𝑀𝐴(𝑝, 𝑞 + 1) estacionario y no invertible
∆𝑧𝑡 = ∆𝜇𝑡 + ∆𝑢𝑡 = 𝑐 + 𝑒𝑡 + ∆𝑢𝑡 , donde 𝑒𝑡 ~ 𝑟. 𝑏.

El resultado de esta primera diferencia será un 𝑦𝑡 = ∆𝑧𝑡 ~ 𝐴𝑅𝑀𝐴(𝑝, 𝑞 + 1) estacionario e invertible.

3.4.2. FILTRO DE HODRICK-PRESCOTT


Este filtro extrae o elimina la tendencia de la serie.

5
Como el proceso u es estacionario, para ∆𝑢𝑡 , las medias de 𝑢𝑡 y 𝑢𝑡−1 , que son iguales, se anulan.
6
Al multiplicar 𝜙(𝐵) por la constante 𝛼1 nos queda otra constante: 𝛿.
7
∆𝑢𝑡 ~ 𝑀𝐴(1) con una primera raíz unitaria, por lo que ∆𝑢𝑡 es no invertible.

Abre tu cuenta N26 Smart con el código N26WUOLAH y disfruta de 12 meses gratis.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
3.5. MODELOS DE PASEO ALEATORIO
3.5.1. PASEO ALEATORIO
Hemos visto que los procesos MA finitos son siempre estacionarios y que los AR lo son si las raíces de 𝜙(𝐵) están
fuera del círculo unidad. Consideremos el AR(1):
𝑧𝑡 = 𝑧0 + 𝜙1 𝑧𝑡−1 + 𝑎𝑡
Cuando 𝜙1 = 1, será no estacionario integrado de orden uno. En efecto, es inmediato que su primera diferencia
𝑦𝑡 = ∆𝑧𝑡 = 𝑧0 + 𝑎𝑡 sí es estacionario. Este proceso se denomina paseo aleatorio.

3.5.2. PASEO ALEATORIO SIN DERIVA

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
El paseo aleatorio sin deriva está dado por 𝑧𝑡 − 𝜙1 𝑧𝑡−1 = 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. y, dado que tiene la forma de un AR(1)
donde 𝜙1 = 1, este tipo de modelos es no estacionario. Podemos convertirlo en estacionario tomando una primera
diferencia: 𝑦𝑡 = ∆𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−1 = 𝑎𝑡 . Como hemos convertido el proceso en estacionario tomando una sola
diferencia, estamos ante un proceso integrado de orden uno: 𝑧𝑡 ~𝐼(1).
Suponemos que el proceso empieza en 𝑧0 = 0, de forma que 𝑧𝑡 = 𝑧𝑡−1 + 𝑎𝑡 = 𝑧𝑡−2 + 𝑎𝑡−1 + 𝑎𝑡 = 𝑧𝑡−3 + 𝑎𝑡−2 +
𝑎𝑡−1 + 𝑎𝑡 = 𝑎𝑡 + 𝑎𝑡−1 + 𝑎𝑡−2 + ⋯ + 𝑎1 .

A) MEDIA Y VARIANZA
La media será 𝐸(𝑧𝑡 ) = 𝐸(∑𝑡𝑠=1 𝑎𝑠 ) = ∑𝑡𝑠=1 𝐸(𝑎𝑠 ) = 0, pero su varianza será 𝑉(𝑧𝑡 ) = ∑𝑡𝑠=1 𝑉(𝑎𝑠 ) = ∑𝑡𝑠=1 𝐸(𝑎𝑠2 ) =
∑𝑡𝑠=1 𝜎 2 = 𝑡𝜎 2 , por tanto, aunque este proceso sí sea estacionario en media, el paseo aleatorio sin deriva es un
proceso no estacionario en sentido débil debido a que la varianza no es constante, depende del instante.

Reservados todos los derechos.


B) FUNCIÓN DE AUTOCOVARIANZA Y AUTOCORRELACIÓN
La propiedad de simetría en la función de autocovarianzas sólo se da cuando el proceso es estacionario. La
demostración:
𝑡

𝛾−𝑘 = 𝑐𝑜𝑣(𝑧𝑡 , 𝑧𝑡+𝑘 ) = 𝐸[(𝑎𝑡 + ⋯ + 𝑎1 )(𝑎𝑡+𝑘 + ⋯ + 𝑎𝑡 + ⋯ + 𝑎1 )] = ∑ 𝐸(𝑎𝑠2 ) = 𝑡𝜎 2


𝑠=1
𝑡−𝑘

𝛾𝑘 = 𝑐𝑜𝑣(𝑧𝑡 , 𝑧𝑡−𝑘 ) = 𝐸[(𝑎𝑡−𝑘 + ⋯ + 𝑎1 )(𝑎𝑡 + ⋯ + 𝑎𝑡−𝑘 + ⋯ + 𝑎1 )] = ∑ 𝐸(𝑎𝑠2 ) = (𝑡 − 𝑘)𝜎 2


𝑠=1

Podemos ver que 𝛾−𝑘 ≠ 𝛾𝑘 y que las autocovarianzas también aumentan con el tiempo y dependen del instante
en el que se calculan. La función de autocorrelación se obtiene dividiendo la función de autocovarianzas por
las desviaciones típicas de las variables que se obtienen de la expresión de la varianza.
𝑐𝑜𝑣(𝑧𝑡 , 𝑧𝑡+𝑘 ) 𝑡𝜎 2 𝑡 1/2
𝜌−𝑘 = = =( )
√𝑉(𝑧𝑡 )√𝑉 (𝑧𝑡+𝑘 ) √𝑡𝜎√𝑡 + 𝑘𝜎 𝑡+𝑘

𝑐𝑜𝑣(𝑧𝑡 , 𝑧𝑡−𝑘 ) (𝑡 − 𝑘)𝜎 2 8 𝑘 1/2 𝑘


𝜌𝑘 = = = (1 − ) ≈ 1 −
√𝑉(𝑧𝑡 )√𝑉(𝑧𝑡−𝑘 ) √𝑡𝜎√𝑡 − 𝑘𝜎 𝑡 2𝑡

Como vemos, el coeficiente de autocorrelación de orden k depende del retardo y del instante, por lo tanto, no es
estacionario en autocovarianzas o autocorrelaciones. Cuando t tiende a infinito la autocorrelación tiende a uno,
y este es el motivo de que el primer coeficiente de la FAC de los procesos no estacionarios es próximo a uno.

3.5.3. PASEO ALEATORIO CON DERIVA


Al contrario que el paseo aleatorio sin deriva, este sí incorpora constante. En este caso, el modelo viene dado por
un AR(1) con constante y con un coeficiente autorregresivo con valor uno:
𝑧𝑡 = 𝛿 + 𝑧𝑡−1 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏.
Si tomamos una diferencia, 𝑦𝑡 = ∆𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−1 = 𝛿 + 𝑎𝑡 , veremos que el proceso resultante será un proceso
estacionario (una constante más un r.b.) integrado de orden uno: 𝑧𝑡 ~𝐼(1). Hacemos de nevo el supuesto de que
𝑧0 = 0, obteniendo que 𝑧𝑡 = 𝛿 + 𝛿 + 𝑧𝑡−2 + 𝑎𝑡−1 + 𝑎𝑡 = 2𝛿 + 𝛿 + 𝑧𝑡−3 + 𝑎𝑡−2 + 𝑎𝑡−1 + 𝑎𝑡 = ⋯ = 𝑡𝛿 + 𝑎𝑡 + ⋯ + 𝑎1 .

8
Estamos cogiendo el mínimo de los dos instantes: de entre 𝑧𝑡 y 𝑧𝑡+𝑘 para 𝜌−𝑘 cogemos 𝑧𝑡 , y de entre 𝑧𝑡 y 𝑧𝑡−𝑘 para 𝜌𝑘 cogeremos
𝑧𝑡−𝑘 .

Abre tu cuenta N26 Smart con el código N26WUOLAH y disfruta de 12 meses gratis.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
Paseo aleatorio con deriva: 𝑧𝑡 = 𝑧𝑡−1 + 𝛿 + 𝑎𝑡 Primera diferencia: ∆𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−1 = 𝛿 + 𝑎𝑡

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
FAC FACP

Reservados todos los derechos.


A) MEDIA, VARIANZA Y AUTOCORRELACIÓN
La media será 𝐸(𝑧𝑡 ) = 𝑡𝛿 + ∑𝑡𝑠=1 𝐸(𝑎𝑠 ) = 𝑡𝛿9 y su varianza será la misma: 𝑉(𝑧𝑡 ) = ∑𝑡𝑠=1 𝑉(𝑎𝑠 ) = 𝑡𝜎 2 . Por tanto,
el paseo aleatorio con deriva es un proceso no estacionario ni en media ni en varianza. La función de
autocorrelación de este tipo de paseo aleatorio es la misma que en el paseo aleatorio sin deriva (así que será
no estacionaria en autocorrelación):
𝑘 1/2
𝜌𝑘 = (1 − )
𝑡
Por todo ello, este tipo de procesos no es estacionario en sentido débil.

3.6. ESTACIONALIDAD
Otra causa de la no estacionariedad de una serie es la presencia de estacionalidad. Diremos que una serie es estacional
o presenta estacionalidad cuando su valor esperado no es constante porque varía según una pauta cíclica de
periodo s, es decir, 𝐸(𝑧𝑡 ) = 𝐸(𝑧𝑡+𝑠 ). En una serie mensual, 𝑠 = 12, en una trimestral, 𝑠 = 4, y en una diaria pueden
ocurrir varias cosas, como que 𝑠 = 7 (patrón semanal), o que 𝑠 = 30 (patrón mensual), o que 𝑠 = 365 (patrón anual).
Supondremos una serie 𝑧𝑡 en la que la única causa de no estacionariedad es la estacionalidad, 𝑠𝑡 . Entonces, la
serie se puede escribir como suma de un componente estacional y un proceso estacionario 𝑥𝑡 con media 𝜇𝑥 = 𝐸(𝑥𝑡 ):
𝑧𝑡 = 𝑠𝑡 + 𝑥𝑡
𝐸(𝑧𝑡 ) = 𝐸(𝑧𝑡 ) + 𝐸(𝑥𝑡 ) = 𝐸(𝑠𝑡−𝑠 ) + 𝜇𝑥 = 𝐸(𝑧𝑡−𝑠 )
Este patrón cíclico de periodo s puede ser hacia adelante o hacia atrás, y se puede eliminar tomando una diferencia
estacional a través del operador diferencia estacional, ∆𝑠 = 1 − 𝐵 𝑠 ≠ ∆ 𝑠 = (1 − 𝐵) 𝑠 10. Este operador se aplica sobre
la serie:
∆𝑠 𝑧𝑡 = (1 − 𝐵 𝑠 )𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−𝑠
La esperanza de esta diferencia estacional será 𝐸(∆𝑠 𝑧𝑡 ) = 𝐸(𝑧𝑡 ) − 𝐸(𝑧𝑡−𝑠 ) = 𝐸(𝑧𝑡−𝑠 ) − 𝐸(𝑧𝑡−𝑠 ) = 0

9 ∑𝑡𝑠=1 𝐸(𝑎𝑠 ) = 0.
10
∆ 𝑠 = (1 − 𝐵) 𝑠 es la primera diferencia, mientras que ∆𝑠 = 1 − 𝐵 𝑠 es la diferencia estacional.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
3.6.1. TIPOS DE COMPORTAMIENTO ESTACIONAL

A) ESTACIONALIDAD DETERMINISTA
El valor de la componente estacional, 𝑠𝑡 , se repite cada s periodos para todo instante. La media o esperanza,
por tanto, no es constante, sino periódica: 𝐸(𝑠𝑡 ) = 𝐸(𝑠𝑡−𝑠 ). En el caso de una estacionalidad determinista, si la
serie fuera trimestral, 𝑠5 = 𝑠1 , 𝑠6 = 𝑠2 , 𝑠9 = 𝑠5 = 𝑠1 … Además, se cumple que
𝑦𝑡 = ∆𝑠 𝑧𝑡 = (1 − 𝐵 𝑠 )𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−𝑠 = 𝑠𝑡 + 𝑥𝑡 − 𝑠𝑡−𝑠 − 𝑥𝑡−𝑠 = 𝑥𝑡 − 𝑥𝑡−𝑠
El proceso resultante es estacionario, ya que es producto de una combinación de procesos estacionarios, y
además es un MA(s), donde 𝜃1 = 𝜃2 = ⋯ = 𝜃𝑠−1 = 0 y 𝜃𝑠 = 1. Así pues, cuando la estacionalidad es determinista,
con la primera diferencia estacional se obtiene un proceso MA(s) estacionario pero no invertible.

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
B) ESTACIONALIDAD ESTOCÁSTICA ESTACIONARIA
Tenemos que 𝑧𝑡 = 𝑠𝑡 + 𝑥𝑡 y que 𝑠𝑡 = 𝜇 + 𝑦𝑡 , donde 𝑦𝑡 es un proceso estacionario. Tomamos una diferencia
estacional:
𝑤𝑡 = ∆𝑠 𝑧𝑡 = (1 − 𝐵 𝑠 )𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−𝑠 = 𝑠𝑡 + 𝑥𝑡 − 𝑠𝑡−𝑠 − 𝑥𝑡−𝑠 = 𝜇 + 𝑦𝑡 + 𝑥𝑡 − 𝜇 − 𝑦𝑡−𝑠 − 𝑥𝑡−𝑠 = 𝑦𝑡 − 𝑦𝑡−𝑠 + 𝑥𝑡 − 𝑥𝑡−𝑠
y obtenemos como resultado la diferencia estacional de dos procesos estacionarios 𝑦𝑡 y 𝑥𝑡 , por lo que el proceso
𝑤𝑡 es también estacionario no invertible, porque tenemos dos MA(s) con un único coeficiente no nulo (igual a
uno): el de orden s.

C) ESTACIONALIDAD ESTOCÁSTICA NO ESTACIONARIA


Sin embargo, si 𝑠𝑡 está compuesto por un 𝑎𝑡 ~ 𝑟. 𝑏., pasamos a aplicar la diferencia estacional sobre un proceso
estocástico no estacionario. Entonces, el paseo aleatorio estacional es 𝑠𝑡 = 𝑠𝑡−𝑠 + 𝑎𝑡 con 𝑎𝑡 ~ 𝑟. 𝑏. cuya
diferencia estacional, sabiendo que 𝑧𝑡 = 𝑠𝑡 + 𝑥𝑡 con 𝑥𝑡 estacionaria, es:

Reservados todos los derechos.


𝑦𝑡 = ∆𝑠 𝑧𝑡 = (1 − 𝐵 𝑠 )𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−𝑠 = 𝑠𝑡 + 𝑥𝑡 − 𝑠𝑡−𝑠 − 𝑥𝑡−𝑠 = 𝑠𝑡 − 𝑠𝑡−𝑠 + 𝑥𝑡 − 𝑥𝑡−𝑠 = 𝑎𝑡 + 𝑥𝑡 − 𝑥𝑡−𝑠 ,
Como el ruido blanco 𝑎𝑡 y 𝑥𝑡 (que es además un MA(s) no invertible) son procesos estacionarios, la diferencia
estacional 𝑦𝑡 será un 𝑀𝐴(𝑠 + 1) estacionaria, pero además, invertible.
En las tres situaciones, tomando una diferencia estacional, convertimos el proceso en estacionario, y en no invertible
cuando es determinista y estocástico estacionario o en invertible cuando es estocástico no estacionario.

3.7. MODELOS INTEGRADOS ARIMA


Los modelos ARIMA son procesos estacionarios que inicialmente no lo son y que nos permiten saber cuántas
diferencias hay que tomar sobre la serie para convertirla en estacionaria. Su forma general es la siguiente:

(1 − 𝜙1 𝐵 − ⋯ − 𝜙𝑝 𝐵𝑝 ) (1 − 𝐵)𝑑 11𝑧𝑡 = 𝛿 + (1 − 𝜃1 𝐵 − ⋯ − 𝜃𝑞 𝐵𝑞 )𝑎𝑡 donde 𝑎𝑡 ~ 𝑟. 𝑏.

y se expresan de la forma ARIMA(p,d,q). De manera más simplificada, 𝜙(𝐵)∆𝑑 𝑧𝑡 = 𝛿 + 𝜃(𝐵)𝑎𝑡 . A este tipo de proceso
se le denomina integrado porque si 𝑥𝑡 = ∆𝑑 𝑧𝑡 , 𝑧𝑡 se puede obtener como suma o integración de 𝑥𝑡 . Por ejemplo:
Para 𝑑 = 1, 𝑥𝑡 = ∆𝑧𝑡 = 𝑧𝑡 − 𝑧𝑡−1
𝑧𝑡 = 𝑧𝑡−1 + ∆𝑧𝑡 = 𝑧𝑡−1 + 𝑥𝑡 = 𝑧𝑡−2 + ∆𝑧𝑡−1 + 𝑥𝑡 = 𝑧𝑡−2 + 𝑥𝑡−1 + 𝑥𝑡 = ⋯
Y así, 𝑧𝑡 sería la integración o suma de todas las diferencias anteriores: 𝑧𝑡 = ∑𝑡𝑠=−∞ 𝑥𝑠 :

t 𝑧𝑡 (𝑧0 = 0) ∆𝑧𝑡 ∑ ∆𝑧𝑡


𝑧1 = ∆𝑧1 = 4
1 4 4 4 𝑧2 = ∆𝑧2 + ∆𝑧1 = 5
2 5 1 5 𝑧3 = ∆𝑧3 + ∆𝑧2 + ∆𝑧1 = 8
3 8 3 8 𝑧1 = ∆𝑧4 + ∆𝑧3 + ∆𝑧2 + ∆𝑧1 = 10
4 10 2 10

Para el paseo aleatorio 𝑧𝑡 = 𝑧𝑡−1 + 𝑎𝑡 → ∆𝑧𝑡 = 𝑎𝑡 , con deriva o no, el orden de p y de q será cero, porque los modelos
ARIMA están estimados sobre procesos integrados: ARIMA(0,1,0).

11
d es el orden de integración.

Abre tu cuenta N26 Smart con el código N26WUOLAH y disfruta de 12 meses gratis.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
3.7.1. MODELOS ARIMA ESTACIONALES MULTIPLICATIVOS
Sabemos que una serie no estacionaria en media se puede convertir en estacionaria tomando diferencias regulares
(primeras y segundas diferencias) y que un proceso estacional se puede convertir en estacionario tomando
diferencias estacionales. Cuando se combinan las dos situaciones (𝑧𝑡 no es estacionaria en media –tiene raíz
unitaria– y tiene estacionalidad), conseguimos una nueva serie:
𝑥𝑡 = ∆𝑑 ∆𝐷 𝑑 2 𝐷
𝑠 𝑧𝑡 = (1 − 𝐵) (1 − 𝐵 ) 𝑧𝑡 , donde 𝑑 = 0, 1, 2 y 𝐷 = 0, 1

Lo primero que haríamos es tomar una o dos diferencias regulares y, después, sobre ello, tomar la diferencia
estacional.
Hasta ahora hemos tenido únicamente una dependencia regular, sobre los valores inmediatamente anteriores, pero
ahora incorporamos también una dependencia actual en la que los valores actuales están asociados a valores en
intervalos de s observaciones, de forma que tendremos que modelar las dos situaciones conjuntamente. Pero si

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
hacemos esto, si tomamos la primera diferencia sobre un modelo estacional, convertimos el proceso en un MA(s)
con los primeros coeficientes con valor cero, que se caracteriza por ser un modelo muy extenso (con órdenes muy
elevados) y poco manejable. Para hacer frente a esto, lo que haremos es modelar por separado la parte regular de
la estacional y construiremos el modelo incorporando ambos de forma multiplicativa. Al final tendremos un modelo
de esta forma:
Φ(𝐵 𝑠 ) 𝜙(𝐵)∆𝑑 ∆𝐷 𝑠
𝑠 𝑧𝑡 = Θ(𝐵 ) 𝜃(𝐵)𝑎𝑡

donde el polinomio autorregresivo regular es 𝜙(𝐵) = 1 − 𝜙1 𝐵 − ⋯ − 𝜙𝑝 𝐵𝑝 , el polinomio de medias móviles regular


es 𝜃(𝐵) = 1 − 𝜃1 𝐵 − ⋯ − 𝜃𝑞 𝐵𝑞 , el polinomio autorregresivo estacional es Φ(𝐵 𝑠 ) = 1 − Φ1 𝐵 𝑠 − Φ2 𝐵2𝑠 − ⋯ − Φ𝑃 𝐵𝑃𝑠 12,
el polinomio de medias móviles estacional es Θ(𝐵 𝑠 ) = 1 − Θ1 𝐵 𝑠 − Θ2 𝐵2𝑠 − ⋯ − Θ𝑄 𝐵𝑄𝑠 13 (hemos pasado de tener dos
polinomios a tener cuatro), y ∆𝑑 ∆𝐷 𝑑 𝑑
𝑠 𝑧𝑡 = 𝑥𝑡 , donde la diferencia regular es ∆ = (1 − 𝐵) y la diferencia estacional es
𝐷 𝑠 𝐷
∆𝑠 = (1 − 𝐵 ) . Determinar el orden de p y q sabemos hacerlo, y ahora lo que nos queda determinar es el orden de
P y Q.

Reservados todos los derechos.


Los modelos ARIMA estacionales multiplicativos se denotan de la siguiente forma: 𝐴𝑅𝐼𝑀𝐴(𝑃, 𝐷, 𝑄)𝑠 · (𝑝, 𝑑, 𝑞). Esta
notación se caracteriza porque contiene una parte ARIMA estacional que está modelando la dependencia
estacional, es decir, está asociada a observaciones separadas por s periodos (𝑧𝑡 con 𝑧𝑡−12 , 𝑧𝑡−24 , … y 𝑎𝑡 con
𝑎𝑡−12 , 𝑎𝑡−24 , …): 𝐴𝑅𝐼𝑀𝐴(𝑃, 𝐷, 𝑄)𝑠 ; y además, porque contiene una parte ARIMA regular que está modelando la
dependencia regular, es decir, está asociada a las observaciones consecutivas (𝑧𝑡 con 𝑧𝑡−1 , 𝑧𝑡−2 , … y 𝑎𝑡 con
𝑎𝑡−1 , 𝑎𝑡−2 , …): 𝐴𝑅𝐼𝑀𝐴(𝑝, 𝑑, 𝑞).
La hipótesis básica para construir los modelos ARIMA estacionales multiplicativos es que la dependencia
estacional es la misma para todas las observaciones separadas por s periodos, una vez que se ha eliminado la no
estacionariedad tomando diferencias estacionales. Esto significa que estamos suponiendo que los periodos siguen
el mismo modelo estacional, es decir, todos los eneros tienen el mismo modelo 𝐴𝑅𝐼𝑀𝐴(𝑃, 𝐷, 𝑄)𝑠 que los febreros,
que los marzos, etc.
Un modelo muy utilizado es el llamado el modelo de líneas aéreas: dado un 𝑧𝑡 no estacionario y con estacionalidad,
𝐴𝑅𝐼𝑀𝐴(0,1,1)𝑠 · (0,1,1) → ∆∆1 𝑍𝑡 = (1 − 𝜃𝐵)(1 − Θ𝐵 𝑠 )𝑎𝑡
Si definimos 𝑋𝑡 = ∆∆1 𝑍𝑡 donde 𝑋𝑡 ~𝐴𝑅𝑀𝐴(0,1)𝑠 · (0,1), tendremos que 𝑋𝑡 = (1 − 𝜃𝐵)(1 − Θ𝐵 𝑠 )𝑎𝑡 .

A) FUNCIÓN DE AUTOCORRELACIÓN, FAC


La función de autocorrelación de los modelos estacionales multiplicativos se construye sobre dos partes: la parte
regular y la estacional. Como estamos tratando con modelos ARIMA estacionales multiplicativos, obtendremos
la FAC multiplicando también.
Vamos a suponer un proceso estocástico 𝑧𝑡 no estacionario y con estacionalidad que vamos a modelar por su
parte estacional y por su parte regular. Los coeficientes de autocorrelación del proceso regular ARMA(p,q)
(𝑟)
(lo calculamos sobre 𝑥𝑡 = ∆𝑑 𝑧𝑡 ) son 𝜌𝑘 . Y los coeficientes de autocorrelación del proceso estacional
(𝑠)
ARMA(P,Q) (lo calculamos sobre 𝑦𝑡 = ∆𝐷𝑠 𝑧𝑡 ) son 𝜌𝑗𝑠 . Pero lo que queremos calcular son los coeficientes de
autocorrelación generales (del proceso completo: 𝐴𝑅𝑀𝐴(𝑃, 𝑄)𝑠 · (𝑝, 𝑞), donde la transformación estacionaria
ya es 𝑤𝑡 = ∆𝑑 ∆𝐷
𝑠 𝑧𝑡 ), 𝜌𝑘 .

12
En el caso particular de un 𝐴𝑅(2)12 en el que 𝑃 = 2 y 𝑠 = 12, tendríamos que Φ(𝐵 𝑠 ) = 1 − Φ1 𝐵12 − Φ2 𝐵24 .
13
En el caso particular de un 𝑀𝐴(2)4 en el que 𝑄 = 2 y 𝑠 = 4, tendríamos que Θ(𝐵𝑠 ) = 1 − Θ1 𝐵4 − Θ2 𝐵8 .

10

Abre tu cuenta N26 Smart con el código N26WUOLAH y disfruta de 12 meses gratis.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
Vamos a suponer también que los coeficientes de autocorrelación de la parte regular son cero para retardos
(𝑟)
altos: 𝜌𝑘 ≈ 0. Por lo tanto, la función de autocorrelación del proceso completo será:

𝜌(𝑘𝑟) para 𝑘 = 1,2, … , ⌊𝑠/2⌋


(𝑠)
𝜌𝑘 para 𝑘 = 𝑠, 2𝑠, 3𝑠, …
𝜌𝑘 = (𝑠) (𝑟)
𝜌𝑗𝑠 𝜌𝑚 para 𝑘 = 𝑗𝑠 + 𝑚, siendo 𝑚 = 1,2, . . . , ⌊𝑠/2⌋ y 𝑗 = 1,2, . . .
𝜌(𝑠) 𝜌(𝑟) para 𝑘 = 𝑗𝑠 + 𝑚, siendo 𝑚 = −1, −2, . . . , −⌊𝑠/2⌋ y 𝑗 = 1,2, . . .
{ 𝑗𝑠 𝑚

El correlograma de un proceso AR(1) estacional multiplicativo de la forma 𝐴𝑅𝑀𝐴(1,0)12 · (1,0) nos mostraría que
los retardos estacionales se corresponden con la función de autocorrelación del proceso estacional puro, y a su
derecha y su izquierda la FAC de la estructura autorregresiva regular decrece. Los primeros retardos
corresponderían a la FAC del AR regular:

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
En el caso de un proceso de la forma 𝐴𝑅𝑀𝐴(1,0)12 · (0,1), su correlograma nos mostraría un primer retardo (es
una MA(1)) y unos retardos estacionales decrecientes (la estacionalidad es autorregresiva), y a su derecha y a
su izquierda tenemos tantos elementos no nulos como es el orden de la FAC de la parte regular:

Reservados todos los derechos.


En el caso de un proceso de la forma 𝐴𝑅𝑀𝐴(0,1)12 · (1,0), su correlograma nos mostraría unos primeros retardos
decrecientes que se corresponden con el autorregresivo de la parte regular, y un único retardo estacional no
nulo a cuyos lados tendríamos un decrecimientos correspondiente al mismo de la FAC de la parte regular:

Y en el caso de un proceso de la forma 𝐴𝑅𝑀𝐴(0,1)12 · (0,1), su correlograma nos mostraría un primer retardo
regular no nulo, un único retardo estacional no nulo, y a su izquierda y su derecha un único coeficiente no nulo
dado por el único coeficiente no nulo de la FAC del medias móviles regular:

11

Abre tu cuenta N26 Smart con el código N26WUOLAH y disfruta de 12 meses gratis.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
B) FUNCIÓN DE AUTOCORRELACIÓN PARCIAL, FACP
La función de autocorrelación parcial de procesos ARIMA estacionales multiplicativos se calcula también con las
ecuaciones de Yule-Walker, pero con este tipo de modelos el tamaño se dispara. Cuando hay estacionalidad,

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
hay que calcular la FACP en los retardos estacionales: s, 2s, 3s, etc. y, si bien en modelos ARMA se necesitan
tan solo los primeros retardos (los 5 o los 6 primeros) para determinar el tipo de modelo, en series estacionales
mensuales tendríamos que escoger los 5 o 6 primeros retardos estacionales. Así pues, la FACP de un modelo
como este va a ser compleja, porque no sólo superpondrá la FAC de la parte regular y estacional, sino que
además habrá una interacción alrededor de los retardos estacionales, de forma que a ambos lados aparecerá la
estructura de la FAC de la parte regular. En general, suelen compartir cuatro características:
- en los primeros retardos aparece la FACP de la parte regular,
- en los retardos estacionales aparece la FACP de la parte estacional,
- a la derecha de los retardos estacionales aparece la FACP de la parte regular, pero invertida respecto al
signo del coeficiente estacional,
- y a la izquierda de los retardos estacionales aparece la estructura de la FAC de la parte regular.
El correlograma de la FACP de un proceso estacional multiplicativo de la forma 𝐴𝑅𝑀𝐴(1,0)12 · (1,0) nos mostraría
un solo coeficiente no nulo (el primero) asociado a la parte regular, que es un AR(1); un solo coeficiente estacional
no nulo asociado a la parte estacional, que es un AR(1) (el último de los coeficientes crecientes); a la derecha
del retardo estacional, la FACP de la parte regular, pero invertida respecto al signo del coeficiente estacional (el

Reservados todos los derechos.


último coeficiente negativo); y a la izquierda de los retardos estacionales, la estructura de la FAC de la parte
regular, que es un AR(1) (el resto de coeficientes más pequeños, decrecientes).

El correlograma de la FACP de un proceso estacional multiplicativo de la forma 𝐴𝑅𝑀𝐴(0,1)12 · (1,0) nos mostraría
un primer coeficiente significativo asociado a la parte regular, que es un AR(1); una serie de retardos estacionales
negativos asociados a la parte estacional, que es un MA(1) (los coeficientes estacionales 12, 24, 36...); a la
derecha de los retardos estacionales, la FACP de la parte regular, pero invertida respecto al signo del coeficiente
estacional (los coeficientes negativos número 13, 25, 37...); y a la izquierda de los retardos estacionales, la
estructura de la FAC de la parte regular, que es un AR(1) (el resto de coeficientes más pequeños, decrecientes).

El correlograma de la FACP de un proceso estacional multiplicativo de la forma 𝐴𝑅𝑀𝐴(0,1)12 · (0,1) nos mostraría
un primer coeficiente significativo asociado a la parte regular, que es un MA(1); una serie de retardos estacionales
negativos asociados a la parte estacional, que es un MA(1) (los coeficientes estacionales 12, 24, 36...); a la
derecha de los retardos estacionales, la FACP de la parte regular, que es un MA(1) (los coeficientes decrecientes
de forma alterna); y a la izquierda de los retardos estacionales, la estructura de la FAC de la parte regular, que
es un MA(1) (una serie de coeficientes negativos decrecientes que ocupan los retardos 11, 23, 35...).

12

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874
El correlograma de la FACP de un proceso estacional multiplicativo de la forma 𝐴𝑅𝑀𝐴(1,0)12 · (0,1) nos mostraría
un primer coeficiente significativo asociado a la parte regular, que es un AR(1); un único retardo estacional
positivo (el 12) asociado a la parte estacional, que es un AR(1) (el resto de coeficientes estacionales son nulos);
a la derecha del retardo estacional, la FACP de la parte regular, que es un MA(1) (los coeficientes decrecientes
de forma alterna); y a la izquierda de los retardos estacionales, la estructura de la FAC de la parte regular, que
es un MA(1) (un único coeficientes no nulo y positivo que ocupa el retardo 11, y el resto negativos).

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Debido a la complejidad de identificación, por simplificar, se recomienda fijarse en los retardos iniciales para
identificar la estructura regular, y en los retardos estacionales para identificar la estructura estacional, sin tener
en cuenta lo que hay a la izquierda y a la derecha de los retardos estacionales, tanto en la FAC como en la
FACP.
Ejemplo 3: Dado un 𝐴𝑅(1)𝑠 estacionario o, de otra forma, un 𝐴𝑅𝑀𝐴(1,0)𝑠 · (0,0) estacionario, el proceso sería:
(1 − Φ1 𝐵 𝑠 )𝑍𝑡 = 𝑎𝑡 → 𝑍𝑡 = Φ1 𝑍𝑡−𝑠 + 𝑎𝑡
La función de autocovarianza será:
(𝑠) (𝑠) (𝑠) 𝜎2
𝛾0 = 𝑉(𝑍𝑡 ) = 𝐸(𝑍𝑡2 ) = 𝐸(Φ1 𝑍𝑡−𝑠 + 𝑎𝑡 )2 = 𝐸(Φ12 𝑍𝑡−𝑠
2
+ 𝑎𝑡2 + 2Φ1 𝑍𝑡−𝑠 𝑎𝑡 14) = Φ12 𝛾0 + 𝜎 2 → 𝛾0 =
1 − Φ12
(𝑠)

Reservados todos los derechos.


𝛾1= 𝐸(𝑍𝑡−1 · 𝑍𝑡 ) = 015
...
(𝑠) 2 2 ) (𝑠)
𝛾𝑠 = 𝐸(𝑍𝑡 · 𝑍𝑡−𝑠 ) = 𝐸(Φ1 𝑍𝑡−𝑠 + 𝑍𝑡−𝑠 𝑎𝑡 ) = Φ1 𝐸(𝑍𝑡−𝑠 + 𝐸(𝑍𝑡−𝑠 𝑎𝑡 ) = Φ1 𝛾0
(𝑠) (𝑠) (𝑠)
𝛾2𝑠 = 𝐸(𝑍𝑡 · 𝑍𝑡−2𝑠 ) = 𝐸(Φ1 𝑍𝑡−𝑠 𝑍𝑡−2𝑠 + 𝑍𝑡−2𝑠 𝑎𝑡 ) = Φ1 𝐸(𝑍𝑡−𝑠 𝑍𝑡−2𝑠 ) + 𝐸(𝑍𝑡−2𝑠 𝑎𝑡 ) = Φ1 𝛾𝑠 = Φ12 𝛾0
...
(𝑠) 𝑗 (𝑠)
𝛾𝑗𝑠 = Φ1 𝛾0
(𝑠)
𝛾𝑗𝑠 𝑗
Y la función de autocorrelación: 𝜌𝑗𝑠 = (𝑠) = Φ1 con 𝑗 = 1,2, …
𝛾0

Ejemplo 4: Dado un 𝑀𝐴(1)𝑠 o, de otra forma, un 𝐴𝑅𝑀𝐴(0,1)𝑠 · (0,0) estacionario, el proceso sería:
𝑍𝑡 = (1 − Θ1 𝐵 𝑠 )𝑎𝑡 = 𝑎𝑡 − Θ1 𝑎𝑡−𝑠
La función de autocovarianza será:
(𝑠)
𝛾0 = 𝑉(𝑍𝑡 ) = 𝐸(𝑍𝑡2 ) = 𝐸(𝑎𝑡 − Θ1 𝑎𝑡−𝑠 )2 = 𝐸(𝑎𝑡2 + Θ12 𝑎𝑡−𝑠
2
+ 2Θ1 𝑎𝑡 𝑎𝑡−𝑠 16) = 𝜎 2 + Θ12 𝜎 2 = (1 + Θ12 )𝜎 2
(𝑠)
=0 𝛾1
...
(𝑠)
𝛾𝑠 = 𝐸(𝑍𝑡 · 𝑍𝑡−𝑠 ) = 𝐸(𝑎𝑡 𝑍𝑡−𝑠 − Θ1 𝑎𝑡−𝑠 𝑍𝑡−𝑠 ) = 𝐸(𝑎𝑡 𝑍𝑡−𝑠 )17 − Θ1 𝐸(𝑎𝑡−𝑠 𝑍𝑡−𝑠 )18 = −Θ1 𝜎 2
(𝑠)
𝛾2𝑠 = 𝐸(𝑍𝑡 · 𝑍𝑡−2𝑠 ) = 𝐸(𝑎𝑡 𝑍𝑡−2𝑠 − Θ1 𝑎𝑡−𝑠 𝑍𝑡−2𝑠 ) = 𝐸(𝑎𝑡 𝑍𝑡−2𝑠 ) − Θ1 𝐸(𝑎𝑡−𝑠 𝑍𝑡−2𝑠 ) = 0
...
(𝑠)
𝛾𝑗𝑠 = 0 ∀𝑗 ≥ 2
Dicho de otra forma, la función de autocorrelación será:
(𝑠) −Θ1
𝛾𝑗𝑠 𝑗=1
𝜌𝑗𝑠 = (𝑠)
= {1 + Θ12
𝛾0 0 𝑗≥2

14
𝐸(2Φ1 𝑍𝑡−𝑠 𝑎𝑡 ) = 0, dado que la innovación (futuro) no puede influir sobre el pasado.
15
Fuera de los retardos estacionales, tanto la autocovarianza como la autocorrelación son cero, por ser un proceso estacional puro.
16
𝐸(𝑎𝑡 𝑎𝑡−𝑠 ) = 0, dado que estamos tratando con ruidos blancos.
17
𝐸(𝑎𝑡 𝑍𝑡−𝑠 ) = 𝐶𝑜𝑣(𝑎𝑡 , 𝑍𝑡−𝑠 ) = 0, dado que estamos tratando distintos instantes, uno de ellos en el futuro.
18
Cuando los instantes coinciden, tenemos la esperanza de la innovación: 𝐸(𝑎𝑡−𝑠 𝑍𝑡−𝑠 ) = 𝐸(𝑎𝑚 𝑍𝑚 ) = 𝜎 2 .

13

Abre tu cuenta N26 Smart con el código N26WUOLAH y disfruta de 12 meses gratis.
a64b0469ff35958ef4ab887a898bd50bdfbbe91a-4137874

También podría gustarte