Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
Una caracterı́stica intrı́nseca muy importante de las series de tiempo, es que, generalmente,
hay dependencia entre observaciones adyacentes. La naturaleza de esta dependencia entre
las observaciones, es de gran interés práctico. El análisis de series de tiempo consiste en
el uso de técnicas estadı́sticas para analizar esta dependencia, que requiere el desarrollo de
modelos estocásticos y dinámicos para los datos de series de tiempo y su uso en diversas
áreas de aplicación.
• IPC, PIB, inflación, precio del petróleo, precio de una acción bursátil, precipitación pluvial,
niveles diarios de algún contaminante, nivel de exportaciones de un paı́s, número de robos di-
arios, consumo de un producto, nivel de agua de un rı́o o presa, y un larguı́simo etc., etc., etc.
• Series de tiempo discretas. Una serie de tiempo se considera discreta cuando las observa-
ciones se toman en un conjunto de tiempos discretos, generalmente, igualmente espaciados.
El término “discreta” se usa para series con esta caracterı́stica, no obstante que la variable
medida sea continua.
• Series de tiempo continua. Una serie de tiempo se considera continua cuando las obser-
vaciones se hacen de manera continua a lo largo de un intervalo de tiempo. El adjetivo
“continua” se usa para este tipo de series, no obstante que la variable medida sólo tome
valores en un conjunto discreto.
1
• Control
• Sea {Xt , t = 0, ±1, ±2, ...} una serie de tiempo. La función media de Xt , se define como
µX (t) = E(Xt )
Estacionariedad : Hablando vagamente, una serie de tiempo {Xt , t = 0, ±1, ±2, ...} se dice
que es estacionaria, si no tiene cambios sistemáticos en la media (no hay tendencia de la
serie), si no tiene cambios sistemáticos en la varianza (la varianza es constante a lo largo
del tiempo) y si no hay variaciones periódicas (no tiene ciclos). En otras palabras, las car-
acterı́sticas de un segmento de los datos, son similares a las de cualquier otro segmento.
Mucha de la teorı́a de series de tiempo es sobre series estacionarias, por esta razón el análisis
de series de tiempo algunas veces requiere de transformaciones de series no estacionarias a
estacionarias, para hacer uso de esta teorı́a.
• Estacionariedad estricta Una serie de tiempo {Xt , t = 0, ±1, ±2, ...} se dice que es estricta-
mente estacionaria si la distribución conjunta de X1 , X2 , ..., Xk es la misma que X1+τ , X2+τ , ..., Xk+τ
para todo entero k > 0,τ > 0.
Esta propiedad es complicada de verificar, por lo que no es usual en la práctica. Una manera
más simple y útil es caracterizar una serie a través de sus momentos, en particular, los dos
primeros.
• Estacionariedad débil Una serie de tiempo {Xt , t = 0, ±1, ±2, ...} se dice que es débilmente
estacionaria o estacionaria de segundo orden si
• µX (t) es independiente de t.
2
• γX (τ ) = γX (t + τ, t) es independiente de t
esto significa que media y varianza son constantes y la función de autocovarianza sólo de-
pende del retrazo(lag) de la serie.
γX (τ )
ρX (τ ) =
γX (0)
2
con γX (0) = σX , la varianza de la serie.
• ρX (0) = 1
• ρX (τ ) = ρX (−τ )
• |ρ(τ )| ≤ 1
Bj Xt = Xt−j ∀j ∈ Z
3
Estimación de los coeficientes de autocorrelación
Dadas las observaciones de una serie de tiempo Xt , la estimación de los coeficientes de au-
tocorrelación son
n−k
P
(Xt − X̄)(Xt+k − X̄)/(n − k)
t=1
rk = n
P , k = 1, 2, ...
(Xt − X̄)2 /n
t=1
n−k
1 X
ck = (Xt − X̄)(Xt+k − X̄)
n − k t=1
El correlograma
H 0 : ρk = 0 vs. Ha : ρ 6= 0
La forma usual de saber qué correlaciones son estadı́sticamente significativas, es graficar las
bandas de confianza en el correlograma. Las correlaciones que sobrepasen estas bandas, se
considerarán significativamente distintas de cero.
4
En muchas ocaciones la correlación entre dos variables se debe a que están correlacionadas
con una tercera, y no necesariamente entre sı́. La correlación parcial, es una medida de aso-
ciación que remueve la correlación que puede existir entre las variables de interés, con otras
variables coleccionadas, para mostrar sólo la correlación entre estas variables, sin considerar
la que tienen con el resto del conjunto. El correlograma con correlaciones parciales, es útil
para determinar el orden de la serie de tiempo considerada.
La idea de usar modelos matemáticos para describir las caracterı́sticas de un fenómeno fı́sico,
es muy común. Algunas veces es posible derivar un modelo con base en alguna ley fı́sica, que
permite calcular el valor de alguna caracterı́stica, independiente del tiempo, casi de forma
exacta en algún instante de tiempo. Este cálculo es posible, si el modelo es enteramente
determinista.
Probablemente el fenómeno fı́sico no sea totalmente determinista porque, por ejemplo, de-
sconocemos algunos factores que pueden afectarlo a lo largo del tiempo. En estos casos,
es posible derivar modelos que puedan utilizarse para calcular la probabilidad de que un
valor futuro esté entre algunos lı́mites especı́ficos. Tales modelos se conocen como modelos
de probabilidad o modelos estcásticos. Entonces, una serie de tiempo X1 , X2 , ..., Xn de n
sucesivas observaciones, se puede ver como una realización muestral de un población infinita
de tales series de tiempo que han sido generadas por el proceso estocástico subyacente.
Existen varios procesos estocásticos que pueden ser apropiados como modelos para una serie
de tiempo.
5
aleatorias, {Xt }, que son mutuamente independientes e idénticamente distribuidas. General-
2
mente asumimos que las variables tienen distribución normal con media cero y varianza σX .
Estas caracterı́sicas implican que el proceso tiene media y varianza constante. Además, el
supuesto de independencia significa que
2
σX , si k = 0
γ(τ ) = Cov(Xt , Xt+τ ) =
0, si k = ±1, ±2, ...
que significa que no existe corelación entre los diferentes valores de la serie, y la función de
autocorrelación esta dada por
1, si τ = 0
ρ(τ ) = Cov(Xt , Xt+τ ) =
0, si τ = ±1, ±2, ...
Caminata aleatoria
Suponga que {Zt } es un proceso a tiempo discreto, puramente aleatorio con media µ y var-
ianza σZ2 . Un proceso Xt se dice que es una caminata aleatoria, si
Xt = Xt−1 + Zt , X0 = 0 ⇒ X1 = Z1 y
t
X
Xt = Zi
i=1
∇Xt = Xt − Xt−1 = Zt
6
sı́ es estacionario.
Ejemplos que pueden ser modelados a través de una caminata aleatoria, son fenómenos que
cuyo valor actual depende del valor inmediato anterior más alguna perturbación aleatoria.
Por ejemplo, los precios diarios de algún insumo.
Suponga que {Zt } es un proceso puramente aleatorio con media µ y varianza σZ2 . Un proceso
Xt se dice que es un proceso de medias móviles de orden q (denotado como MA(q)) , si
Xt = β0 Zt + β1 Zt−1 + · · · + βq Zt−q
′
con {βi } constantes. Las Z s, usualmente se escalan para tener β0 = 1. De esta definición
se desprende que
E(Xt ) = 0
q
X
V ar(Xt ) = σZ2 βi2
i=0
0, si τ > q
q−τ
X
2
γ(τ ) = σZ βi βi+τ , si τ = 0, 1, ..., q
i=0
γ(−τ ) si τ < 0
7
1, si τ = 0
q−τ
P
βi βi+τ
i=0
q , si τ = 0, 1, ..., q
P
ρ(τ ) = βi2
i=0
0, si τ > q
ρ(−τ ) si τ < 0
No es necesario hacer ninguna restricción de las {βi } para un modelo MA de orden finito,
pero generalmente es deseable imponer restricciones sobre estos coeficientes para asegurar
que el procso satisface la condición llamada invertibilidad, condición que discutiremos pos-
teriormente.
Procesos autorregresivos
Suponga que {Zt } es un proceso puramente aleatorio con media cero y varianza σZ2 . Un
proceso Xt se dice que es un proceso autorregresivo de orden p (denotado como AR(p)) , si
Xt = α1 Xt−1 + α2 Xt−2 + · · · + αp Xp + Zt
similar al modelo de regressión lineal múltiple, sólo que Xt tiene como regresores valores
anteriores de ella misma, y no variables de otra naturaleza. Esto explica el prefijo auto.
Para deducir las caracterı́sticas de este proceso, consideremos el modelo AR(1), también
conocido como proceso de Markov.
Xt = αXt−1 + Zt
Xt = α(αXt−1 + Zt−1 ) + Zt
= α2 (αXt−3 + Zt−2 ) + αZt−1 + Zt
que, eventualmente, puede escribirse como un proceso de medias móviles de orden infinito,
de la forma
8
Xt = Zt + αZt−1 + α2 Zt−2 + · · ·
(1 − αB)Xt = Zt
Zt
Xt =
(1 − αB)
= (1 + αB + α2 B2 + · · · )Zt
= Zt + αZt−1 + α2 Zt−2 + · · ·
E(Xt ) = 0
V ar(Xt ) = σZ2 (1 + α2 + α4 + · · · )
2 σZ2
σX = V ar(Xt ) =
1 − α2
" ∞
! ∞
!#
X X
=E αi Zt−i αj Zt+τ −j
i=0 j=0
∞
X
= σZ2 αi ατ +i para τ ≥ 0
i=0
9
ατ σZ2
= para |α| < 1
(1 − α2 )
2
= ατ σX
para τ < 0, tenemos γ(τ ) = γ(−τ ). Como γ(τ ), no depende de t, un AR(1) es estacionario
de segundo orden, si |α| < 1, y su función de autocorrelación está dada por
ρ(τ ) = ατ τ = 0, 1, 2, ...
ρ(τ ) = α|τ |
(1 − αB)Xt = φ(B)Xt = Zt y
Zt
Xt = = ψ(B)Zt
(1 − αB)
con ψ(B) = 1 + αB + α2 B2 + · · ·
En el caso general de un proceso AR(p), de la misma forma como se hizo para el AR(1), se
puede escribir como un proceso de medias móviles de orden infinito, a través de las sustitu-
ciones sucesivas, o, más fácil, utilizando el operador de retrazo.
Xt = α1 BXt + α2 B2 Xt + · · · + αp Bp Xt + Zt ⇒
(1 − α1 B − α2 B2 − · · · − αp Bp )Xt = Zt
φ(B)Xt = Zt y
Xt = ψ(B)Zt
10
con φ(B) un polinomio de orden p en B, dado por
φ(B) = 1 − α1 B − α2 B2 − · · · − αp Bp
ψ(B) = ψ0 + ψ1 B + ψ2 B2 + · · ·
En el caso del AR(1) la relación entre los coeficientes de estas dos expresiones del proceso,
fue que los coeficientes de ψ(B) resultaron potencias del coeficiente α en φ(B). Pero no es
claro cómo se da, en general, la relación entre los coeficientes de ambas expresiones.
Xt = 1.3Xt−1 − 0.4Xt−2 + Zt
entonces φ(B) = 1 − 1.3B + 0.4B2 . Nos preguntamos si es posible tratar la parte derecha
de φ(B) como si tratara de un AR(1) para obtener la relación entre las representaciones?.
Sabemos que el modelo se puede escribir además como
Zt
Xt =
1 − 1.3B + 0.4B2
= (1 − 0.5B)(1 − 0.8B)
note que las raices de φ(B), son los inversos de los coeficientes de B en la factorización del
polinomio. Podemos ver que
1 − 35 8
3
= +
1 − 1.3B + 0.4B2 1 − 0.5B 1 − 0.8B
11
entonces
− 53 8
3
Xt = + Zt
1 − 0.5B 1 − 0.8B
∞
X 5 i 8 i
= − (0.5) + (0.8) Zt−i
i=0
3 3
5 8
ψk = − (0.5)k + (0.8)k
3 3
Xt = ψ(B)Zt
φ(B)Xt = Zt = φ(B)ψ(B)Zt
entonces
φ(B)ψ(B) = 1
equivalentemente
es decir
12
ψ0 = 1
ψ0 = 1, ψk = 0 ∀ k < 0
En nuestro ejemplo
Xt = 1.3Xt−1 − 0.4Xt−2 + Zt
13
5 8
ψk = − (0.5)k + (0.8)k
3 3
para k=1,2,... Observemos que estos coeficientes decrecen a cero, condición necesaria pero
no suficiente para que el proceso sea estacionario.
γ(k) = ρ(k)γ(0)
Xt = φ1 Xt−1 + φ2 Xt−2 + · · · + φp Xp + Zt
γ(0) = E [Xt2 ] = φ1 E [Xt Xt−1 ] +φ2 E [Xt Xt−2 ] + · · · + φp E [Xt Xt−p ] + E [Xt Zt ]
| {z } | {z } | {z } | {z }
γ(1) γ(2) γ(p) 2
σZ
σZ2
γ(0) =
1 − φ1 ρ(1) − φ2 ρ(2) − · · · − φp ρ(p)
E [Xt Xt−k ] = φ1 E [Xt−1 Xt−k ] +φ2 E [Xt−2 Xt−k ] + · · · + φp E [Xt−p Xt−k ] + E [Zt Xt−k ]
| {z } | {z } | {z } | {z } | {z }
γ(k) γ(k−1) γ(k−2) γ(k−p) =0
14
con ρ(0) = 1 y ρ(−k) = ρ(k).
Procesos ARMA(p,q)
Los modelos AR(p) son una clase general de procesos estocásticos que son prácticamente
suficientes para las aplicaciones reales. No obstante, una forma de ampliar esta clase de
modelos para series de tiempo, es incluir un proceso de medias móviles MA(q), para generar
el proceso mixto conocido como proceso auto regresivo de medias móviles ARMA(p,q).
equivalentemente
p q
X X
Xt = φi Xt−i + Zt + θi Zt−i
i=1 i=1
φ(B)Xt = θ(B)Zt
Xt = φXt−1 + Zt + θZt−1
∞
!
X
= φi Bi (1 + θB) Zt
i=0
15
∞ ∞
!
X X
= 1+ φi+1 Bi+1 + θφi Bi+1 Zt
i=1 i=0
∞
X
= Zt + (φ + θ) φi−1 Zt−i
i=0
Xt = φXt−1 + Zt + θZt−1
Por otro lado, multiplicando la misma igualdad pero ahora por Zt , y tomando esperanzas,
tenemos
′
ya que Zt−1 depende las Z s hasta el tiempo t-1, pero no depende de Zt . Además
2
E [Xt Zt−1 ] = φE [Xt−1 Zt−1 ] + E [Zt Zt−1 ] + θE Zt−1 = φσZ2 + θσZ2
Ahora, para la función de autocovarianza en general, siguiendo el mismo proceso pero mul-
tiplicando por Xt−k , tenemos que
16
Puede observarse que conocidas las dos primeras autocovarianzas, γ(0) y γ(1), el resto pueden
encontrarse fácilmente. Para obtener estas dos primeras, es necesario resolver el sistema
cuya solución es
(1 + 2φθ + θ2 )σZ2
γ(0) =
1 − φ2
(1 + φθ)(φ + θ)σZ2
γ(1) =
1 − φ2
por lo tanto
φk−1 (1 + φθ)(φ + θ)
ρ(k) = , k = 1, 2, ...
1 + 2φθ + θ2
θ(B)
Xt = Zt = ψ(B)θ(B)Zt = χ(B)Zt ⇒ θ(B)Zt = φ(B)χ(B)Zt
φ(B)
1 + θ1 B + θ2 B2 + · · · + θq Bq = (1 − φ1 B − φ2 B2 − · · · − φp Bp )(χ0 + χ1 B + χ2 B2 + · · · )
17
de donde se desprende que
χ0 = 1
χ1 − χ0 φ1 = θ1
χ2 − χ1 φ1 − χ0 φ2 = θ2
..
.
y, de forma general
p
X
χj − φk χj−k = θj , j = 0, 1, 2, ...
k=1
Ya que es posible escribir el proceso AR(p,q) como uno de medias móviles infinito, entonces
E(Xt ) = 0. Ahora, para deducir las funciones de autocovarianza y autocorrelación, consid-
eremos la expresión del proceso
q
X
γ(k) − φ1 γ(k − 1) − φ2 γ(k − 2) − · · · − φp γ(k − p) = σZ2 θj ψj−k , 0 ≤ k < max(p, q + 1)
j=0
de donde obtenemos
Pq
θj ψj−k
j=0
φ ρ(k − 1) − φ2 ρ(k − 2) − · · · − φp ρ(k − p) + P , 0≤k≤q
1
∞
2
ψj
ρ(k) = j=0
φ1 ρ(k − 1) − φ2 ρ(k − 2) − · · · − φp ρ(k − p), si k > q
18
el resultado del lado derecho de esta igualdad inicial, se desprende del hecho que podemos
escribir el proceso Xt como uno de medias móviles infinito y después aplicamos el operador
esperanza.
Modelos ARIMA(p,d,q)
En la introducción del modelo de caminata aleatoria, vimos que no era estacionario, porque
tanto su media como su varianza eran funciones de t; sin embargo, el proceso definido por las
diferencias ∇Xt = Xt − Xt−1 , sı́ es estacionario. Muchas series presentan dos componentes:
un componente de tendencia no estacionario y otro componente de media cero estacionario.
Por ejemplo
Xt = µt + Zt
Modelo ARIMA(p,d,q)
∇d Xt = (1 − B)d Xt
19
pueden extenderse para incluir términos estacionales (ciclos), proporcionando un ARIMA
no estacionario estacional, conocido como SARIMA. Un modelo ARIMA estacional, utiliza
diferencias iguales al periodo de retrazo (ciclo) que se quiere remover. Una serie puede ser
no estacionaria también por cambios en la varianza, conocida como heteroscedasticidad, que
usualmente da como resultado periodos de volatilidad, en los que hay un claro cambio en la
varianza de la serie. Este comportamiento es común en series financieras, pero puede ocurrir
también en otras como las series climáticas.
Transformaciones Box-Cox
(Xtλ − 1)
, λ 6= 0
λ
Yt =
log(Xt ), si λ = 0
Existen diversos métodos para estimar el valor de λ en un caso particular. Algunas veces,
esta transformación no sólo estabiliza la varianza, sino también hace que la serie sea lineal
y se distribuya normal.
20