Está en la página 1de 20

Series de tiempo

Introducción

Una serie de tiempo es una colección de observaciones realizadas de forma secuencial a lo


largo del tiempo.

Una caracterı́stica intrı́nseca muy importante de las series de tiempo, es que, generalmente,
hay dependencia entre observaciones adyacentes. La naturaleza de esta dependencia entre
las observaciones, es de gran interés práctico. El análisis de series de tiempo consiste en
el uso de técnicas estadı́sticas para analizar esta dependencia, que requiere el desarrollo de
modelos estocásticos y dinámicos para los datos de series de tiempo y su uso en diversas
áreas de aplicación.

Ejemplos reales de series de tiempo

• IPC, PIB, inflación, precio del petróleo, precio de una acción bursátil, precipitación pluvial,
niveles diarios de algún contaminante, nivel de exportaciones de un paı́s, número de robos di-
arios, consumo de un producto, nivel de agua de un rı́o o presa, y un larguı́simo etc., etc., etc.

• Series de tiempo discretas. Una serie de tiempo se considera discreta cuando las observa-
ciones se toman en un conjunto de tiempos discretos, generalmente, igualmente espaciados.
El término “discreta” se usa para series con esta caracterı́stica, no obstante que la variable
medida sea continua.

• Series de tiempo continua. Una serie de tiempo se considera continua cuando las obser-
vaciones se hacen de manera continua a lo largo de un intervalo de tiempo. El adjetivo
“continua” se usa para este tipo de series, no obstante que la variable medida sólo tome
valores en un conjunto discreto.

Objetivos del análisis de series de tiempo

• Descripción de los datos

• Interpretación de los datos

• Pronóstico (Uno de los objetivos usualmente más importantes)

1
• Control

• Modelación / Pruebas de hipótesis

Conceptos asociados a una serie de tiempo

• Sea {Xt , t = 0, ±1, ±2, ...} una serie de tiempo. La función media de Xt , se define como

µX (t) = E(Xt )

• La función de covarianza de Xt , se define como

γX (r, s) = covX (Xr , Xt ) = E [(Xr − µr )(Xs − µs )]

Estacionariedad : Hablando vagamente, una serie de tiempo {Xt , t = 0, ±1, ±2, ...} se dice
que es estacionaria, si no tiene cambios sistemáticos en la media (no hay tendencia de la
serie), si no tiene cambios sistemáticos en la varianza (la varianza es constante a lo largo
del tiempo) y si no hay variaciones periódicas (no tiene ciclos). En otras palabras, las car-
acterı́sticas de un segmento de los datos, son similares a las de cualquier otro segmento.
Mucha de la teorı́a de series de tiempo es sobre series estacionarias, por esta razón el análisis
de series de tiempo algunas veces requiere de transformaciones de series no estacionarias a
estacionarias, para hacer uso de esta teorı́a.

• Estacionariedad estricta Una serie de tiempo {Xt , t = 0, ±1, ±2, ...} se dice que es estricta-
mente estacionaria si la distribución conjunta de X1 , X2 , ..., Xk es la misma que X1+τ , X2+τ , ..., Xk+τ
para todo entero k > 0,τ > 0.

Esta propiedad es complicada de verificar, por lo que no es usual en la práctica. Una manera
más simple y útil es caracterizar una serie a través de sus momentos, en particular, los dos
primeros.

• Estacionariedad débil Una serie de tiempo {Xt , t = 0, ±1, ±2, ...} se dice que es débilmente
estacionaria o estacionaria de segundo orden si

• µX (t) es independiente de t.

2
• γX (τ ) = γX (t + τ, t) es independiente de t

esto significa que media y varianza son constantes y la función de autocovarianza sólo de-
pende del retrazo(lag) de la serie.

• Estrictamente estacionaria ⇒ Débilmente estacionaria

• Si X1 , X2 , ..., Xn es normal multivariada ∀i = 1, ..., n y ∀n > 0, entonces Débilmente esta-


cionaria ⇒ Estrictamente estacionaria

Los valores de la función de autocovarianza dependen de las unidades de Xt , por lo que es


más conveniente considerar la función de autocorrelación definida como

γX (τ )
ρX (τ ) =
γX (0)

2
con γX (0) = σX , la varianza de la serie.

Propiedades de la función de autocorrelación

• ρX (0) = 1

• ρX (τ ) = ρX (−τ )

• |ρ(τ )| ≤ 1

Algunas operadores aplicables a las series de tiempo

• Operador de retrazo: Definimos el operador de retrazo B, como

Bj Xt = Xt−j ∀j ∈ Z

• Operador diferencia: Definimos el operador diferencia ∇, como

∇Xt = Xt − Xt−1 = (1 − B)Xt

Estimación de las funciones asociadas a una serie de tiempo

3
Estimación de los coeficientes de autocorrelación

Dadas las observaciones de una serie de tiempo Xt , la estimación de los coeficientes de au-
tocorrelación son

n−k
P
(Xt − X̄)(Xt+k − X̄)/(n − k)
t=1
rk = n
P , k = 1, 2, ...
(Xt − X̄)2 /n
t=1

con la correspondiente estimación de los coeficientes de autocovarianza dados por

n−k
1 X
ck = (Xt − X̄)(Xt+k − X̄)
n − k t=1

El correlograma

Una interpretación usual del conjunto de coeficientes de autocorrelación, se hace a través


del correlograma, en el que se grafican los coeficientes estimados rk vs. su correspondiente
retrazo k, k=0,1,2,...,M, con M usualmente mucho menor que n. Por supuesto, r0 es uno,
ya que es la correlación de la serie con ella misma. Una inspección visual del correlograma,
puede ser útil para apreciar el grado de asociación que guarda una observación con sus adya-
centes, además de su orden (cuántas observaciones atrás se tiene una correlación importante).
También ayuda a percibir si la serie tiene ciclos. Para determinar cuántos coeficientes de
correlación pueden considerarse importantes, es necesario realizar las pruebas de hipótesis
correspondientes

H 0 : ρk = 0 vs. Ha : ρ 6= 0

La forma usual de saber qué correlaciones son estadı́sticamente significativas, es graficar las
bandas de confianza en el correlograma. Las correlaciones que sobrepasen estas bandas, se
considerarán significativamente distintas de cero.

El correlograma con correlaciones parciales

4
En muchas ocaciones la correlación entre dos variables se debe a que están correlacionadas
con una tercera, y no necesariamente entre sı́. La correlación parcial, es una medida de aso-
ciación que remueve la correlación que puede existir entre las variables de interés, con otras
variables coleccionadas, para mostrar sólo la correlación entre estas variables, sin considerar
la que tienen con el resto del conjunto. El correlograma con correlaciones parciales, es útil
para determinar el orden de la serie de tiempo considerada.

Series de tiempo vistas como procesos estocásticos

La idea de usar modelos matemáticos para describir las caracterı́sticas de un fenómeno fı́sico,
es muy común. Algunas veces es posible derivar un modelo con base en alguna ley fı́sica, que
permite calcular el valor de alguna caracterı́stica, independiente del tiempo, casi de forma
exacta en algún instante de tiempo. Este cálculo es posible, si el modelo es enteramente
determinista.

Probablemente el fenómeno fı́sico no sea totalmente determinista porque, por ejemplo, de-
sconocemos algunos factores que pueden afectarlo a lo largo del tiempo. En estos casos,
es posible derivar modelos que puedan utilizarse para calcular la probabilidad de que un
valor futuro esté entre algunos lı́mites especı́ficos. Tales modelos se conocen como modelos
de probabilidad o modelos estcásticos. Entonces, una serie de tiempo X1 , X2 , ..., Xn de n
sucesivas observaciones, se puede ver como una realización muestral de un población infinita
de tales series de tiempo que han sido generadas por el proceso estocástico subyacente.

No unicidad de la función de autocorrelación La función de autocorrelación no identifica de


manera única el modelo subyacente. Aunque un proceso estocástico dado tiene una única
estructura de covarianza, el reverso no es cierto en general. Es posible encontrar muchos
procesos normales y no normales con la misma función de autocorrelación, lo que genera
dificultades para interpretar la correspondiente función de autocorrelación muestral.

Modelos comunes para series de tiempo

Existen varios procesos estocásticos que pueden ser apropiados como modelos para una serie
de tiempo.

Proceso puramente aleatorio

Un proceso a tiempo discreto es puramente aleatorio si consiste en una secuencia de variables

5
aleatorias, {Xt }, que son mutuamente independientes e idénticamente distribuidas. General-
2
mente asumimos que las variables tienen distribución normal con media cero y varianza σX .
Estas caracterı́sicas implican que el proceso tiene media y varianza constante. Además, el
supuesto de independencia significa que

 2
 σX , si k = 0
γ(τ ) = Cov(Xt , Xt+τ ) =

0, si k = ±1, ±2, ...

que significa que no existe corelación entre los diferentes valores de la serie, y la función de
autocorrelación esta dada por


 1, si τ = 0
ρ(τ ) = Cov(Xt , Xt+τ ) =

0, si τ = ±1, ±2, ...

ya que la media y la función de autocorrelación no dependen del tiempo, el proceso es


estacionario de segundo orden. De hecho, el supuesto de independencia implica que es estri-
catamente estacionario. Los procesos puramente aleatorios son útiles en muchas situaciones,
particularmente para construir procesos más complejos. Los procesos puramente aleatorios
reciben también el nombre de ruido blanco, particularmente en ingenierı́a.

Caminata aleatoria

Suponga que {Zt } es un proceso a tiempo discreto, puramente aleatorio con media µ y var-
ianza σZ2 . Un proceso Xt se dice que es una caminata aleatoria, si

Xt = Xt−1 + Zt , X0 = 0 ⇒ X1 = Z1 y
t
X
Xt = Zi
i=1

Entonces E(Xt ) = tµ y V ar(Xt ) = tσZ2 , por lo tanto, este proceso no es estacionario. No


obstante, es interesante notar que el proceso dado por las diferencias

∇Xt = Xt − Xt−1 = Zt

6
sı́ es estacionario.

Ejemplos que pueden ser modelados a través de una caminata aleatoria, son fenómenos que
cuyo valor actual depende del valor inmediato anterior más alguna perturbación aleatoria.
Por ejemplo, los precios diarios de algún insumo.

Proceso de medias móviles

Suponga que {Zt } es un proceso puramente aleatorio con media µ y varianza σZ2 . Un proceso
Xt se dice que es un proceso de medias móviles de orden q (denotado como MA(q)) , si

Xt = β0 Zt + β1 Zt−1 + · · · + βq Zt−q


con {βi } constantes. Las Z s, usualmente se escalan para tener β0 = 1. De esta definición
se desprende que

E(Xt ) = 0
q
X
V ar(Xt ) = σZ2 βi2
i=0


 0, si τ > q





 q−τ
X
2
γ(τ ) = σZ βi βi+τ , si τ = 0, 1, ..., q


 i=0





γ(−τ ) si τ < 0

Como γ(k) no depende de t, y además la media es constante, el proceso es estacionario de


′ ′
segundo orden. Si las Z s se distribuyen normal, entonces las X s también lo son, y tenemos
un proceso normal estrictamente estacionario. La función de autocorrelación del modelo
MA(q) está dada por

7

 1, si τ = 0





 q−τ

 P


 βi βi+τ
 i=0

 q , si τ = 0, 1, ..., q
P
ρ(τ ) = βi2

 i=0







 0, si τ > q





ρ(−τ ) si τ < 0

No es necesario hacer ninguna restricción de las {βi } para un modelo MA de orden finito,
pero generalmente es deseable imponer restricciones sobre estos coeficientes para asegurar
que el procso satisface la condición llamada invertibilidad, condición que discutiremos pos-
teriormente.

Procesos autorregresivos

Suponga que {Zt } es un proceso puramente aleatorio con media cero y varianza σZ2 . Un
proceso Xt se dice que es un proceso autorregresivo de orden p (denotado como AR(p)) , si

Xt = α1 Xt−1 + α2 Xt−2 + · · · + αp Xp + Zt

similar al modelo de regressión lineal múltiple, sólo que Xt tiene como regresores valores
anteriores de ella misma, y no variables de otra naturaleza. Esto explica el prefijo auto.
Para deducir las caracterı́sticas de este proceso, consideremos el modelo AR(1), también
conocido como proceso de Markov.

Xt = αXt−1 + Zt

Si realizamos sustituciones sucesivas en la expresión anterior, tenemos

Xt = α(αXt−1 + Zt−1 ) + Zt
= α2 (αXt−3 + Zt−2 ) + αZt−1 + Zt

que, eventualmente, puede escribirse como un proceso de medias móviles de orden infinito,
de la forma

8
Xt = Zt + αZt−1 + α2 Zt−2 + · · ·

con −1 < α < 1 para garantizar que la suma converge.


La posibilidad de que un proceso AR pueda escribirse como un MA y viceversa, significa
que existe una dualidad entre procesos AR y MA, que es útil para diversos propósitos. En
lugar de las sustituciones sucesivas, podemos utilizar el operador de retrazo B. Entonces,
podemos escribir el AR(1) como

(1 − αB)Xt = Zt

de donde tenemos que

Zt
Xt =
(1 − αB)
= (1 + αB + α2 B2 + · · · )Zt
= Zt + αZt−1 + α2 Zt−2 + · · ·

Dada esta expresión es claro que

E(Xt ) = 0
V ar(Xt ) = σZ2 (1 + α2 + α4 + · · · )

Entonces, la varianza será finita, si |α| < 1, en cuyo caso

2 σZ2
σX = V ar(Xt ) =
1 − α2

La función de autocovarianza está dada por

γ(τ ) = E [Xt Xt+τ ]

" ∞
! ∞
!#
X X
=E αi Zt−i αj Zt+τ −j
i=0 j=0


X
= σZ2 αi ατ +i para τ ≥ 0
i=0

9
ατ σZ2
= para |α| < 1
(1 − α2 )

2
= ατ σX

para τ < 0, tenemos γ(τ ) = γ(−τ ). Como γ(τ ), no depende de t, un AR(1) es estacionario
de segundo orden, si |α| < 1, y su función de autocorrelación está dada por

ρ(τ ) = ατ τ = 0, 1, 2, ...

que es una función par, entonces

ρ(τ ) = α|τ |

Doble representación de un AR(1)

Representamos el proceso AR(1) de dos maneras, a saber

(1 − αB)Xt = φ(B)Xt = Zt y
Zt
Xt = = ψ(B)Zt
(1 − αB)

con ψ(B) = 1 + αB + α2 B2 + · · ·

En el caso general de un proceso AR(p), de la misma forma como se hizo para el AR(1), se
puede escribir como un proceso de medias móviles de orden infinito, a través de las sustitu-
ciones sucesivas, o, más fácil, utilizando el operador de retrazo.

Xt = α1 BXt + α2 B2 Xt + · · · + αp Bp Xt + Zt ⇒

(1 − α1 B − α2 B2 − · · · − αp Bp )Xt = Zt

Entonces, al igual que el AR(1), un AR(p) puede escribirse de las formas

φ(B)Xt = Zt y
Xt = ψ(B)Zt

10
con φ(B) un polinomio de orden p en B, dado por

φ(B) = 1 − α1 B − α2 B2 − · · · − αp Bp

ψ(B) = ψ0 + ψ1 B + ψ2 B2 + · · ·

En el caso del AR(1) la relación entre los coeficientes de estas dos expresiones del proceso,
fue que los coeficientes de ψ(B) resultaron potencias del coeficiente α en φ(B). Pero no es
claro cómo se da, en general, la relación entre los coeficientes de ambas expresiones.

Ejemplo simple: AR(2)

Consideremos el modelo AR(2), dado por

Xt = 1.3Xt−1 − 0.4Xt−2 + Zt

entonces φ(B) = 1 − 1.3B + 0.4B2 . Nos preguntamos si es posible tratar la parte derecha
de φ(B) como si tratara de un AR(1) para obtener la relación entre las representaciones?.
Sabemos que el modelo se puede escribir además como

Zt
Xt =
1 − 1.3B + 0.4B2

Si factorizamos el polinomio de segundo orden en B, tenemos

φ(B) = 1 − 1.3B + 0.4B2

= (1 − 0.5B)(1 − 0.8B)

note que las raices de φ(B), son los inversos de los coeficientes de B en la factorización del
polinomio. Podemos ver que

1 − 35 8
3
= +
1 − 1.3B + 0.4B2 1 − 0.5B 1 − 0.8B

11
entonces

 
− 53 8
3
Xt = + Zt
1 − 0.5B 1 − 0.8B
∞  
X 5 i 8 i
= − (0.5) + (0.8) Zt−i
i=0
3 3

entonces, concluimos que para la representación en términos de ψ(B)

 
5 8
ψk = − (0.5)k + (0.8)k
3 3

Y para un AR(p) en general?

Supongamos que Xt es AR(p). Entonces

Xt = ψ(B)Zt

y además como φ(B)Xt = Zt , tenemos

φ(B)Xt = Zt = φ(B)ψ(B)Zt

entonces

φ(B)ψ(B) = 1

equivalentemente

φ(B)ψ(B) = 1 + 0B + 0B2 + 0B3 + · · ·

es decir

(1 − φ1 B − φ2 B2 − · · · − αp Bp )(ψ0 + ψ1 B + ψ2 B2 + · · · ) = 1 + 0B + 0B2 + 0B3 + · · ·

Igualando los coeficientes de ambos desarrollos, tenemos

12
ψ0 = 1

para los coeficientes asociados a B1 , tenemos

(ψ1 − φ1 ψ0 )B1 = 0B1 ⇒ ψ1 − φ1 ψ0 = 0 y, ya que


ψ0 = 1 ⇒ ψ1 = φ1

para los coeficientes de B2 , tenemos

(ψ2 − φ1 ψ1 − φ2 ψ0 )B2 = 0B2 ⇒ ψ2 − φ1 ψ1 − φ2 ψ0 = 0 ⇒ ψ2 = φ1 ψ1 + φ2 ψ0 = φ21 + φ2

En general, para los coeficientes asociados a Bk , tenemos

(ψk − φ1 ψk−1 − φ2 ψk−2 − · · · − φp ψk−p )Bk = 0Bk

de donde obtenemos el siguiente resultado. Para un proceso estacionario AR(p),


φ(B)Xt = Zt , su representación de la forma Xt = ψ(B)Zt , está dada por la forma recursiva
de los coeficientes ψk

ψk = φ1 ψk−1 + φ2 ψk−2 + · · · + φp ψk−p

con los valores iniciales

ψ0 = 1, ψk = 0 ∀ k < 0

En nuestro ejemplo

Xt = 1.3Xt−1 − 0.4Xt−2 + Zt

φ1 = 1.3, φ2 = −0.4 ⇒ ψk = 1.3ψk−1 − 0.4ψk−2 , con ψ0 = 1, ψ−1 = 0

Los primeros valores calculados con esta fórmula recursiva son

1.30000000 1.29000000 1.15700000 0.98810000 0.82173000 0.67300900 0.54621970 0.44088201


0.35465873 0.28470355 0.22825112 0.18284504 0.14639810 0.11717952 0.09377413 0.07503456
0.06003528 0.04803204

mismos que se obtienen evaluando la expresión

13
 
5 8
ψk = − (0.5)k + (0.8)k
3 3

para k=1,2,... Observemos que estos coeficientes decrecen a cero, condición necesaria pero
no suficiente para que el proceso sea estacionario.

Funciones de autocovarianza y autocorrelación de un proceso AR(p)

Ahora calcularemos la función de autocorrelación de un AR(p) general. Primero, recordar


que γ(k), puede calcularse como

γ(k) = ρ(k)γ(0)

Entonces, del modelo AR(p), tenemos

Xt = φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xp + Zt

Si multiplicamos el modelo por Xt en ambos lados de la igualdad, tenemos

γ(0) = E [Xt2 ] = φ1 E [Xt Xt−1 ] +φ2 E [Xt Xt−2 ] + · · · + φp E [Xt Xt−p ] + E [Xt Zt ]
| {z } | {z } | {z } | {z }
γ(1) γ(2) γ(p) 2
σZ

sustituyendo el valor de γ(k) = ρ(k)γ(0), y despejando γ(0), se tiene

σZ2
γ(0) =
1 − φ1 ρ(1) − φ2 ρ(2) − · · · − φp ρ(p)

Para calcular la función de autocorrelación, multipliquemos el modelo por Xt−k , y tomemos


la esperanza de esa expresión

E [Xt Xt−k ] = φ1 E [Xt−1 Xt−k ] +φ2 E [Xt−2 Xt−k ] + · · · + φp E [Xt−p Xt−k ] + E [Zt Xt−k ]
| {z } | {z } | {z } | {z } | {z }
γ(k) γ(k−1) γ(k−2) γ(k−p) =0

si dividimos por γ(0), obtenemos la forma recursiva para calcular ρ(k)

ρ(k) = φ1 ρ(k − 1) + φ2 ρ(k − 2) + · · · + φp ρ(k − p)

14
con ρ(0) = 1 y ρ(−k) = ρ(k).

Procesos ARMA(p,q)

Los modelos AR(p) son una clase general de procesos estocásticos que son prácticamente
suficientes para las aplicaciones reales. No obstante, una forma de ampliar esta clase de
modelos para series de tiempo, es incluir un proceso de medias móviles MA(q), para generar
el proceso mixto conocido como proceso auto regresivo de medias móviles ARMA(p,q).

Entonces, se dice que Xt es un proceso autoregresivo de medias móviles (denotado como


ARMA(p,q)) si

Xt = φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xt−p + Zt + θ1 Zt−1 + θ2 Zt−2 + · · · θq Zt−q

equivalentemente

p q
X X
Xt = φi Xt−i + Zt + θi Zt−i
i=1 i=1

φ(B)Xt = θ(B)Zt

Representación como un proceso de medias móviles

Antes de hacer la representación general, la ilustraremos con el modelo ARMA(1,1). En-


tonces, el proceso ARMA(1,1) es

Xt = φXt−1 + Zt + θZt−1

que podemos escribir como

Xt = (1 − φB)−1 (1 + θB)Zt = (1 + φB + φ2 B2 + · · · )(1 + θB)Zt


!
X
= φi Bi (1 + θB) Zt
i=0

15
∞ ∞
!
X X
= 1+ φi+1 Bi+1 + θφi Bi+1 Zt
i=1 i=0


X
= Zt + (φ + θ) φi−1 Zt−i
i=0

Ahora, desarrollemos las funciones de autocovariaza y de autocorrelación para este proceso


particular. Del proceso original

Xt = φXt−1 + Zt + θZt−1

multiplicando en ambos lados de la igualdad por Xt y tomando esperanzas

γ0 = φE [Xt Xt−1 ] + E [Xt Zt ] + θE [Xt Zt−1 ]

Por otro lado, multiplicando la misma igualdad pero ahora por Zt , y tomando esperanzas,
tenemos

E [Xt Zt ] = φE [Xt−1 Zt ] + E [Zt2 ] + θE [Zt−1 Zt ] = σZ2


ya que Zt−1 depende las Z s hasta el tiempo t-1, pero no depende de Zt . Además

 2 
E [Xt Zt−1 ] = φE [Xt−1 Zt−1 ] + E [Zt Zt−1 ] + θE Zt−1 = φσZ2 + θσZ2

De estas igualdades tenemos que

γ(0) = φγ(1) + [1 + θ(φ + θ)] σZ2

Ahora, para la función de autocovarianza en general, siguiendo el mismo proceso pero mul-
tiplicando por Xt−k , tenemos que

γk = φE [Xt−k Xt−1 ] + E [Xt−k Zt ] + θE [Xt−k Zt−1 ]




 φγ(0) + θσz2 , si k = 1

=

 φγ(k − 1), si k ≥ 2

16
Puede observarse que conocidas las dos primeras autocovarianzas, γ(0) y γ(1), el resto pueden
encontrarse fácilmente. Para obtener estas dos primeras, es necesario resolver el sistema

γ(0) = φγ(1) + [1 + θ(φ + θ)] σZ2


γ(1) = φγ(0) + θσz2

cuya solución es

(1 + 2φθ + θ2 )σZ2
γ(0) =
1 − φ2
(1 + φθ)(φ + θ)σZ2
γ(1) =
1 − φ2

por lo tanto

φk−1 (1 + φθ)(φ + θ)σZ2


γ(k) = , k = 1, 2, ...
1 − φ2

y la correspondiente función de autocorrelación está dada por

φk−1 (1 + φθ)(φ + θ)
ρ(k) = , k = 1, 2, ...
1 + 2φθ + θ2

Representación de un ARMA(p,q) como un proceso de medias móviles

Ahora hagamos la representación de un proceso general ARMA(p,q) como su correspondi-


ente proceso de medias móviles. De la representación del ARMA(p,q) en términos de los
operadores de retrazo, se tiene

θ(B)
Xt = Zt = ψ(B)θ(B)Zt = χ(B)Zt ⇒ θ(B)Zt = φ(B)χ(B)Zt
φ(B)

entonces, igualando los polinomios en B

1 + θ1 B + θ2 B2 + · · · + θq Bq = (1 − φ1 B − φ2 B2 − · · · − φp Bp )(χ0 + χ1 B + χ2 B2 + · · · )

17
de donde se desprende que

χ0 = 1

χ1 − χ0 φ1 = θ1

χ2 − χ1 φ1 − χ0 φ2 = θ2

..
.

y, de forma general

p
X
χj − φk χj−k = θj , j = 0, 1, 2, ...
k=1

con θ0 = 1, θj = 0 para j > q y χj = 0 si j < 0.


Funciones de autocovarianza y autocorrelación de un ARMA(p,q)

Ya que es posible escribir el proceso AR(p,q) como uno de medias móviles infinito, entonces
E(Xt ) = 0. Ahora, para deducir las funciones de autocovarianza y autocorrelación, consid-
eremos la expresión del proceso

Xt − φ1 Xt−1 − φ2 Xt−2 − · · · − φp Xt−p = Zt + θ1 Zt−1 + · · · + θq Zt−q

multiplicando en ambos lados de la igualdad por Xt−k , k = 0, 1, 2... y tomando esperanzas,


tenemos

q
X
γ(k) − φ1 γ(k − 1) − φ2 γ(k − 2) − · · · − φp γ(k − p) = σZ2 θj ψj−k , 0 ≤ k < max(p, q + 1)
j=0

de donde obtenemos

 Pq


 θj ψj−k

 j=0
 φ ρ(k − 1) − φ2 ρ(k − 2) − · · · − φp ρ(k − p) + P , 0≤k≤q
 1

 ∞
2
ψj
ρ(k) = j=0






 φ1 ρ(k − 1) − φ2 ρ(k − 2) − · · · − φp ρ(k − p), si k > q

18
el resultado del lado derecho de esta igualdad inicial, se desprende del hecho que podemos
escribir el proceso Xt como uno de medias móviles infinito y después aplicamos el operador
esperanza.

Modelos ARIMA(p,d,q)

En la introducción del modelo de caminata aleatoria, vimos que no era estacionario, porque
tanto su media como su varianza eran funciones de t; sin embargo, el proceso definido por las
diferencias ∇Xt = Xt − Xt−1 , sı́ es estacionario. Muchas series presentan dos componentes:
un componente de tendencia no estacionario y otro componente de media cero estacionario.
Por ejemplo

Xt = µt + Zt

con µt = β0 + β1 t y Zt un proceso estacionario. Pero, diferenciando este proceso obtenemos


uno estacionario

∇Xt = Xt − Xt−1 = β0 + β1 t + Zt − (β0 + β1 (t − 1) + Zt−1 = β1 + Zt − Zt−1

Si el componente de tendencia no estacionaria µt fuera un polinomio de grado k, por ejem-


P
plo, i.e. µt = kj=0 βj tj , entonces necesitarı́amos diferenciar k veces la serie (∇k Xt ) para
que fuera estacionaria. El modelo ARMA integrado mejor conocido como ARIMA permite
ampliar la clase de modelos ARMA para incluir diferenciación.

Modelo ARIMA(p,d,q)

Se dice que el proceso Xt es ARIMA(p,d,q), si

∇d Xt = (1 − B)d Xt

es un modelo ARMA(p,q). Escribiremos de forma general estos modelos como

φ(B)(1 − B)d Xt = θ(B)Zt

Por supuesto, si d = 0, entonces el proceso es estacionario, de hecho, es un ARMA(p,q).


Los modelos ARIMA son apropiados para modelar datos con tendencia. Estos modelos

19
pueden extenderse para incluir términos estacionales (ciclos), proporcionando un ARIMA
no estacionario estacional, conocido como SARIMA. Un modelo ARIMA estacional, utiliza
diferencias iguales al periodo de retrazo (ciclo) que se quiere remover. Una serie puede ser
no estacionaria también por cambios en la varianza, conocida como heteroscedasticidad, que
usualmente da como resultado periodos de volatilidad, en los que hay un claro cambio en la
varianza de la serie. Este comportamiento es común en series financieras, pero puede ocurrir
también en otras como las series climáticas.

Transformaciones Box-Cox

Algunas veces la no estacionariedad de la series se debe a que ésta es intrı́nsecamente no


lineal. En estos casos, es necesario necesario transformar la serie para lograr que la variabili-
dad se estabilice. Una transformación particularmente útil para estos fines es la de Box-Cox,
definida como


(Xtλ − 1)


 , λ 6= 0
 λ
Yt =

 log(Xt ), si λ = 0

Existen diversos métodos para estimar el valor de λ en un caso particular. Algunas veces,
esta transformación no sólo estabiliza la varianza, sino también hace que la serie sea lineal
y se distribuya normal.

20

También podría gustarte