Está en la página 1de 131

TALLER:

Análisis de Series de Tiempo


ESPOCH
Sergio Francisco Juárez Cerrillo
Universidad Veracruzana

Abril, 2023
Agradezco a mi amigo el Dr.
Fernando Romero la invitación para
estar aquí con ustedes.
Contenido del taller
1. Introducción a las series de tiempo
1. Enfoque clásico
2. Descomposición con lst
3. Pronóstico con el filtro de Holt-Winters
2. Series de tiempo estacionarias
1. Procesos estocásticos
2. Estacionariedad
3. Análisis exploratorio de series de tiempo
3. Modelos para series de tiempo
1. Modelos AR
2. Modelos MA
3. Modelos ARMA
4. Modelos ARIMA
5. Modelos SARIMA
4. Pronóstico para series de tiempo
1. Introducción a las Series de
Tiempo
¿Qué es una series de tiempo?
• Una serie de tiempo (discreta) es un objeto que resulta de observar una
variable 𝑌 en 𝑛 puntos del tiempo 𝑡1 , 𝑡2 , … , 𝑡𝑛 .
• Si los puntos del tiempo en los que se observa a la variable están
espaciados igualmente, por ejemplo observaciones diarias, la serie de
tiempo se denotará por 𝑌1 , 𝑌2 , … , 𝑌𝑛 o 𝑌𝑡 .
• Por ejemplo, la siguiente gráfica muestra la producción total mensual en
México de energía hidroeléctrica en GW h. (giga watts/hora), a partir de
enero del 2000 a mayo del 2017. Los datos están en el archivo
hidro.txt.
Producción bruta mensual de energía hidroeléctrica en México de
enero 2000 a mayo 2017.
Fuente:
http://egob2.energia.gob.mx/portal/electricidad.html

Los comandos de R que producen


la gráfica anterior son:

hidro <-
read.table("hidro.txt",he
ader=T)
hidroGWh <- ts(hidro$GWh,
start=c(2000, 1),
end=c(2017,5),
frequency=12)
plot(hidroGWh,
xlab="mes",ylab="GW.
h",col="red")
Objetivo del análisis de series de
tiempo

• Describir estas variables


• Encontrar modelos útiles
para expresar relaciones
estructuradas en el tiempo
entre estas variables
• Pronosticar los valores que
tomarán estas variables
Análisis de series de tiempo: Enfoque clásico

Una serie de tiempo 𝑌𝑡 está conformada por:

𝑌𝑡 = 𝑓 𝑇𝑡 , 𝑆𝑡 , 𝑍𝑡 , 𝑡 = 1, … , 𝑛,
donde
• 𝑌𝑡 es la variable en el tiempo 𝑡, la cual se considera variable aleatoria.
• 𝑓 es una función que puede ser conocida o desconocida.
• 𝑇𝑡 se llama tendencia-ciclo y se entiende como los movimientos determinísticos a
largo plazo que hace la serie de tiempo, los cuales pueden incluir ciclos.
• 𝑆𝑡 se llama variación estacional, la cual consiste de fluctuaciones aleatorias de la
serie de tiempo en períodos de tiempo conocidos, por ejemplo períodos
cuatrimestrales.
• 𝑍𝑡 son variables aleatorias con media cero que pueden estar correlacionadas entre
ellas. Se llama error a este componente.
Dos formas del modelo anterior

• Modelo aditivo:

𝑌𝑡 = 𝑇𝑡 + 𝑆𝑡 + 𝑍𝑡

• Modelo multiplicativo:

𝑌𝑡 = 𝑇𝑡 × 𝑆𝑡 × 𝑍𝑡
Análisis automático con stl
• Existen muchos métodos estadísticos para extraer estos
componentes de una serie de tiempo.
• La función stl de R realiza esta extracción de estos componentes
bajo el modelo aditivo con un método (avanzado) que se llama loess.
• Este método fue propuesto por Cleveland et al. (1990).
• Los comandos

ajuste <- stl(hidroGWh,s.window="period")


plot(ajuste)

producen la siguiente salida de la función stl aplicado a la serie de


tiempo de producción bruta de energía hidroeléctrica.
Descomposición aditiva con loess de la producción bruta mensual de energía
hidroeléctrica en México de enero 2000 a mayo 2017.
Interpretación
• La gráfica superior es la serie de tiempo original.
• La segunda gráfica muestra el componente estacional el cual se
estableció como “period”.
• Vemos que se identifica una clara fluctuación anual que aumenta a
partir de enero y alcanza un valor máximo a mediados del año, y de
ahí baja hasta diciembre.
• La tercera gráfica muestra la tendencia.
Interpretación (continuación)
• Vemos que las fluctuaciones de la producción bajo durante los
primeros cuatro años del período de observación, es decir del 2000 al
2003.
• En el 2004 y el 2005 subió para volver a bajar en el 2006 y el 2007 y
subir en el 2008. En el 2009 vuelve a bajar, lo cual coincide con la
crisis financiera global de ese año. Sube en el 2010, baja en el 2011 y
el 2012. Sube en el 2013 y a partir de ese año baja en el 2014, 2015,
2016 y 2017.
• La última gráfica es la variación aleatoria.
Pronóstico automático: Filtro de Holt-Winters
Dada una serie de tiempo 𝑦1 , 𝑦2 , … , 𝑦𝑇 , a partir del tiempo 𝑡, la ecuación del
pronóstico para ℎ períodos de tiempo en el futuro, está dada por:

𝑦𝑡+ℎ = 𝑙𝑡 + ℎ𝑏𝑡 + 𝑠𝑡+ℎ−𝑚(𝑘+1)


donde:
𝑙𝑡 = 𝛼 𝑦𝑡 − 𝑠𝑡−𝑚 + 1 − 𝛼 𝑙𝑡−1 + 𝑏𝑡−1
𝑏𝑡 = 𝛽 𝑙𝑡 − 𝑙𝑡−1 + 1 − 𝛽 𝑏𝑡−1
𝑠𝑡 = 𝛾 𝑦𝑡 − 𝑙𝑡−1 − 𝑏𝑡−1 + (1 − 𝛾)𝑠𝑡−𝑚

y 𝑘 es la parte entera de (ℎ − 1)/𝑚. Las constantes 𝛼, 𝛽, y 𝛾 son parámetros


que se estiman usando los datos.
Producción bruta mensual de
energía hidroeléctrica en
México de enero 2000 a
mayo 2017, con pronóstico a
4 años.
CÓDIGO R
hidro <- read.table("hidro.txt",header=T)
hidroGWh <- ts(hidro$GWh, start=c(2000,
1), end=c(2017,5), frequency=12)
plot(hidroGWh, xlab="mes",ylab="GW.
h",col="red")

hidro.pred <- HoltWinters(hidroGWh)


plot(hidro.pred)
hidro.pro <- predict(hidro.pred,n.ahead =
4*12)
ts.plot(hidroGWh,hidro.pro,xlab="Tiempo",y
lab="GWh",lty = 1:2)
Producción bruta mensual de energía hidroeléctrica en México de
enero 2000 a mayo 2017, con pronóstico a 4 años e intervalos de
predicción al 95% nivel de confianza.
2. Series de Tiempo Estacionarias
Procesos estocásticos discretos
Un proceso estocástico es una sucesión de variables aleatorias

{𝑌𝑡 : 𝑡 = 0, ±1, ±2, ±3, … }

Es el objeto fundamental que se usa como para una serie de tiempo. La


estructura probabilística de este objeto está determinada por el
conjunto de todas las distribuciones de colecciones finitas de las
variables aleatorias 𝑌𝑡 .
Medias, varianzas y covarianzas
Primeros y segundos momentos de las 𝑌s:

• Función media 𝜇𝑡 = 𝐸 𝑌𝑡 , 𝑡 = 0, ±1, ±2, ±3, …

• Función de autocovarianza 𝛾𝑡,𝑠


𝛾𝑡,𝑠 = Cov 𝑌𝑡 , 𝑌𝑠 = E 𝑌𝑡 − 𝜇𝑡 𝑌𝑠 − 𝜇𝑠 = E 𝑌𝑠 𝑌𝑡 − 𝜇𝑡 𝜇𝑠 , 𝑡, 𝑠 = 0, ±1, ±2, ±3, …

Cuando 𝑡 = 𝑠 tenemos la varianza 𝜎 2 = 𝛾𝑡,𝑡 = Var 𝑌𝑡

• Función de autocorrelación 𝜌𝑡,𝑠


Cov 𝑌𝑡 , 𝑌𝑠 𝛾𝑡,𝑠
𝜌𝑡,𝑠 = =
Var 𝑌𝑡 Var(𝑌𝑠 ) 𝛾𝑡,𝑡 𝛾𝑠,𝑠
Comentarios
• Cuando 𝑡 = 𝑠 tenemos a la varianza:
𝛾0 ≡ 𝛾𝑡,𝑡 = Cov 𝑌𝑡 , 𝑌𝑡 = E 𝑌𝑡 − 𝜇𝑡 2 = Var 𝑌𝑡 .
• Valores de |𝜌𝑡,𝑠 | cercanos a 1, indican una fuerte dependencia lineal entre 𝑌𝑡
y 𝑌𝑠 , mientras que valores cercanos a 0 indican dependencia lineal débil.
• Si 𝜌𝑡,𝑠 = 0, decimos que 𝑌𝑡 y 𝑌𝑠 están incorrelacionadas.
• Si 𝑌𝑡 y 𝑌𝑠 son independientes, entonces 𝛾𝑡,𝑠 = 𝜌𝑡,𝑠 = 0.
Estacionariedad de segundo orden

Una serie de tiempo 𝑌𝑡 se dice que es estacionaria de segundo orden o


estacionaria débil cuando satisface lo siguiente:

• Tiene función media constante, digamos igual a 𝜇, es decir, es de la forma

𝑌𝑡 = 𝜇 + 𝑍𝑡 , 𝑡 = 1, … , 𝑛,

• Las varianzas de las 𝑍𝑡 son constantes, digamos igual a 𝜎 2 .


• Las correlaciones entre 𝑍𝑡 y 𝑍𝑠 solo dependen de ℎ = |𝑡 − 𝑠| , para
cualesquiera tiempos 𝑡 y 𝑠.
Series de tiempo estacionarias

Una serie de tiempo es estacionaria si:

• Su tendencia es constante
• No presenta variación estacional
• No presenta homocedasticidad
Dicho de otra forma:

Una serie de tiempo no es estacionaria si


i) tiene tendencia o
ii) tiene estacionalidad o
iii) Tiene homocedasticidad
iv) tiene una combinación de i), ii) y iii).
Importancia de la estacionariedad
Hay otra definición de estacionariedad: estacionariedad fuerte

La serie de tiempo 𝑌𝑡 es fuertemente estacionaria si las distribuciones de


probabilidad conjunta de 𝑌𝑡 , 𝑌𝑡+1 , … , 𝑌𝑡+𝑛 y 𝑌𝑡+𝑘 , 𝑌𝑡+𝑘+1 , … , 𝑌𝑡+𝑘+𝑛 son
iguales.

Estacionariedad fuerte establece que las distribuciones de probabilidad que


gobiernan al proceso estocástico no cambian en el tiempo. Es decir, el
proceso está en equilibrio estadístico.
Importancia de la estacionariedad

• La predicción de valores futuros de una serie de


tiempo se conoce como pronóstico.

• La estacionariedad (ya sea débil o fuerte) es la


característica que debe tener una serie de tiempo
para que se puedan pronosticar valores futuros de
ésta.
Análisis de Series de Tiempo
• Usaremos procesos estocásticos discretos con 𝑇 = {0,1,2, … } ó 𝑇 = {1,2, … }
como modelos probabilísticos para describir la clase de fenómenos que
evolucionan en el tiempo conocidos como series de tiempo.
• Una realización del proceso estocástico discreto 𝑌𝑡 : 𝑡 = 1,2, … es una
realización de cada una de las 𝑌𝑡 . A las realizaciones las denotamos con letras
minúsculas.
• Una serie de tiempo observada es una realización del proceso estocástico,
entonces la denotamos 𝑦1 , 𝑦2 , … . A esta realización se le conoce como
trayectoria. Al conjunto de todas las posibles realizaciones del proceso
estocástico se le llama ensamble.
Análisis de Series de Tiempo (continuación)
• Una serie de tiempo discreta es un objeto que resulta de observar a la variable 𝑌 en 𝑇 puntos del
tiempo 𝑡1 , 𝑡2 , … , 𝑡𝑇 . Denotaremos a las observaciones de la serie de tiempo por 𝑦𝑡1 , 𝑦𝑡2 , … , 𝑦𝑡𝑇 .

• Dada una serie de tiempo, consideraremos que fue generada por algún proceso estocástico
discreto. Es decir, consideraremos que la serie de tiempo es una observación de algún proceso
estocástico 𝑌𝑡 : 𝑡 = 0,1,2, … . La serie de tiempo observada es una muestra de tamaño 1
proveniente del proceso estocástico.

• En teoría podemos observar varias realizaciones del proceso estocástico (experimentos de


simulación Monte Carlo en la computadora). En la práctica, dado que no podemos viajar al
pasado, sólo observamos una muestra de tamaño 1 del proceso estocástico.

• Nos enfocaremos en las series de tiempo que tienen los puntos del tiempo espaciados
igualmente. A estas series de tiempo las denotaremos con la notación 𝑦1 , 𝑦2 , … , 𝑦𝑇 o bien con la
notación abreviada 𝑦𝑡 .
¿Es estacionaria la producción bruta mensual de energía hidroeléctrica en México de
enero 2000 a mayo 2017?
Descomposición aditiva con lts de la producción bruta mensual de
energía hidroeléctrica en México de enero 2000 a mayo 2017
Interpretación

• Vemos que se identifica con claridad un componente de variación


estacional.

• Con esto basta para considerar sin temor a equivocación que la


producción bruta mensual de energía hidroeléctrica en México de
enero 2000 a mayo 2017 no es estacionaria.
¿Es estacionaria la serie de tiempo de temperatura en Riobamba?
Análisis con stl
¿Es estacionaria la serie de tiempo de temperatura en Riobamba?

Respuesta
Media y varianza de una serie de tiempo estacionaria

Sea 𝑌𝑡 = 𝜇 + 𝑍𝑡 , 𝑡 = 1, … , 𝑛, una serie de tiempo estacionaria (débil).


Las siguientes estadísticas descriptivas de son herramientas que
usaremos para analizarla:

• La media de la serie
1 𝑛
𝑌ത = ෍ 𝑌𝑡
𝑛 𝑡=1
• La varianza de la serie

1 𝑛
𝑆2 = ത 2
෍ (𝑌𝑡 − 𝑌)
𝑛 − 1 𝑡=1
Autocorrelaciones de una serie de tiempo estacionaria

• La autocovarianza muestral de orden 𝑑 = 0,1,2, …

1 𝑛
𝐶𝑑 = ෍ ത 𝑡−𝑠 − 𝑌)
(𝑌𝑡 − 𝑌)(𝑌 ത
𝑛 𝑡=𝑑+1

• La autocorrelación muestral de orden 𝑑 = 0,1,2, …

ത 𝑡−𝑠 − 𝑌)
σ𝑛𝑡=𝑑+1(𝑌𝑡 − 𝑌)(𝑌 ത
𝑟𝑑 =
ത 2
σ𝑛𝑡=1(𝑌𝑡 − 𝑌)
Función de autocorrelación
El conjunto de autocorrelaciones {𝑟0 , 𝑟1 , 𝑟2 , … } se llama función de
autocorrelación muestral (facm). Notemos que:

𝑆 2 = 𝐶0 ,
𝑟0 = 1
𝐶𝑑
𝑟𝑑 = , 𝑑 = 0,1,2, …
𝐶0

La gráfica de los puntos (𝑑, 𝑟𝑑 ) se llama correlograma.


Autocorrelación
• La autocorrelación de orden 𝑑 es la correlación de la variable
consigo misma. Sus propias observaciones separadas por un
período de tiempo 𝑑, de ahí el nombre de autocorrelación.
• La autocorrelación de orden 𝑑 nos indica la fuerza de la relación
lineal entre todos los pares observaciones separadas por 𝑑
período de tiempo.
• La autocorrelación de orden 0 siempre vale 1.
• Después de la gráfica de la serie de tiempo, usaremos el
correlograma.
Estimación de las características básicas de las series
de tiempo estacionarias
• La media 𝑌ത es un estimador de la constante 𝜇.
• La varianza 𝑆 2 es un estimador de la varianza de 𝑌.
• La función de autocorrelación muestral es un estimador de la función de
autocorrelación.
• La facm proporciona elementos analíticos para entender cómo se
correlacionan entre sí los valores de la serie de tiempo.
• Por ejemplo, la autorrelación de orden 1 no es otra cosa más que el
coeficiente de correlación de Pearson entre las mismas observaciones 𝑌1 ,
𝑌2 , … 𝑌𝑛 pero separadas un período de tiempo, es decir es la correlación
entre los pares (𝑌𝑡−1 , 𝑌𝑡 ), 𝑡 = 1,2, … , 𝑛 − 1, los cuales se muestran en la
Tabla 1.
Autocorrelación de orden 1
• Tabla 1. La autocorrelación de orden 𝑑 = 1, 𝑟1 , es el coeficiente de
correlación entre las siguientes dos columnas.

Observación en 𝑡 − 1 Observación en 𝑡
𝑌1 𝑌2
𝑌2 𝑌3
𝑌3 𝑌4
𝑌4 𝑌5
⋮ ⋮
𝑌𝑛−1 𝑌𝑛
Autocorrelación de orden 2
• Tabla 1. La autocorrelación de orden 𝑑 = 2, 𝑟2 , es el coeficiente de
correlación entre las siguientes dos columnas.

Observación en 𝑡 − 2 Observación en 𝑡
𝑌1 𝑌3
𝑌2 𝑌4
𝑌3 𝑌5
𝑌4 𝑌6
⋮ ⋮
𝑌𝑛−2 𝑌𝑛
Autocorrelaciones parciales
La autocorrelación parcial de orden 𝑑 es la correlación entre las
observaciones separadas por 𝑑 períodos dada toda la información
entre estas observaciones.
# Generamos una onda senoidal
x <- seq(1,60,1)
Serie senoidal y <- sin(x)
par(mfrow=c(1,1))
plot(y,type="b",col="blue")
# Calculamos la fac y la facp
FAC y FACP de la onda par(mfrow=c(1,2))

senoidal acf(y,lag.max=30)
pacf(y,lag.max=30)
FAC vs FACP

• La FAC se repite cada T veces, T es el período de la serie


de tiempo.
• La FAC no identifica a las correlaciones redundantes.
• La FACP revela cuales son las correlaciones
verdaderamente informativas para retrasos específicos.
• Veamos otro ejemplo:
Una serie senoidal y una cosenoidal
Suma de las ondas senoidal y cosenoidal, su FAC y su FACP
Comentarios
• La FAC de la suma de las dos series periódicas es la suma de las respectivas
FACs.
• La FACP no es la suma de las FACPs.
• La FACP indica que las correlación parcial es mayor en la suma de las series
que en las series individuales.
• La correlación entre las observaciones separadas por cierto retraso es más
informativa que en la suma de las series que en las series individuales.
• Esto está relacionado con los dos períodos de las series: Cualquier
observación está menos “determinada” por las observaciones vecinas
puesto que la localización dentro del ciclo de los dos períodos es menos fijo
ya que las oscilaciones continuan a diferentes frecuencias.
FAC y FACP de una tendencia lineal determinística
Comentarios

• La FAC decae lentamente, lo que implica que las observaciones


separadas 𝑑 periodos están correlacionadas.
• La FACP nos dice que la única autocorrelación parcial significativa es
cuando 𝑑 = 1.
• Lo anterior se debe a que una vez que conocemos el valor de 𝑌𝑡 = 𝑡
sabemos que 𝑌𝑡+1 = 𝑌𝑡 + 1 = t + 1.
Análisis exploratorio de series de tiempo

• Las estadísticas descriptivas presentadas proporcionan información sobre


la serie de tiempo cuando ésta es estacionaria.
• La media, la varianza y la FAC no tienen sentido en series de tiempo no
estacionarias.
• Sin embargo, es útil calcular la FAC y FACP para explorar series de tiempo.
• Bajo estacionariedad fuerte es válido usar histogramas de la serie de
tiempo.
• En este taller se estudia un enfoque de análisis de series de tiempo que se
basa en modelos para series de tiempo estacionarias.
• Estos modelos se eligen con base a la inspección de la FAC y la FACP.
Ejemplo: Producción bruta mensual de energía hidroeléctrica en México de
enero 2000 a mayo 2017
FAC y FACP de producción bruta mensual de energía hidroeléctrica en
México de enero 2000 a mayo 2017
Interpretación
• La inspección de la FAC nos indica que las autocorrelaciones decaen
lentamente conforme aumenta el retraso 𝑑.
• En la parte inferior de la gráfica, los números 1,2, 3, y 4 indican que
con 𝑑 = 48 retrasos se abarcan 4 años del período de observación.
• Vemos que observaciones que están separadas 48 meses, o sea 4
años, están correlacionadas positivamente con un valor de un poco
más de 0.2 (la altura de la última línea del correlograma).
• El valor exacto de esta autocorrelación los vemos de la lista de
autocorrelaciones mostradas arriba, vemos que 𝑟48 = 0.24259698.
Interpretación (continuación)

• Vemos que la correlación entre las mismas observaciones persiste


aun para cuando están separadas 4 años.
• Por ejemplo, la producción bruta mensual de energía hidroeléctrica
entre enero 2000 está correlacionada con la de enero 2004, la de
febrero 2000, con la de febrero 2004, y así la de enero 2001 con la de
enero 2005, la de febrero 2001 con la de febrero 2005, y en general la
de todos los pares de observaciones separadas 4 años. La intensidad
de esta correlación es precisamente 𝑟48 = 0.24259698.
Interpretación (continuación)

• Una FAC que decae lentamente es un indicio de que la serie de


tiempo no es estacionaria.
• En el caso de la producción bruta mensual de energía hidroeléctrica
ya habíamos determinado de antemano con lts que la serie de
tiempo no es estacionaria.
• En este caso, la FAC es sólo otro indicio de evidencia empírica que
refuerza el hallazgo de que la serie de tiempo no es estacionaria.
Ejemplo: Ruido blanco

La serie de tiempo 𝑍𝑇 se llama un ruido blanco discreto si las variables son


independientes e idénticamente distribuidas con media 0 y varianza 𝜎 2 . Esto
implica Cov 𝑍𝑖 , 𝑍𝑗 = 0 , para 𝑖 ≠ 𝑗 y por lo tanto la función de
autocorrelación del ruido blanco es

1, 𝑡=0
𝜌𝑡 = ቊ
0, 𝑡≠0

Es evidente que un ruido blanco es un proceso estacionario.


Si las variables se distribuyen normal, es decir 𝑍𝑡 ~𝑁(0, 𝜎 2 ), entonces se
llama un ruido blanco discreto Gaussiano.
Ruido blanco generado con R
FAC y FACP del ruido blanco anterior
Ejemplo: Caminata aleatoria

El proceso 𝑌𝑡 se llama una caminata aleatoria si tiene la forma

𝑌𝑡 = 𝑌𝑡−1 + 𝑍𝑡

donde la serie de tiempo 𝑍𝑡 es un ruido blanco con varianza 𝜎 2 .


Media y Autocorrelación de la Caminata Aleatoria

Consideremos a la caminata aleatoria 𝑌𝑡


Notemos que 𝑌𝑡−1 = 𝑌𝑡−2 + 𝑍𝑡−1 , de modo que 𝑌𝑡 = 𝑌𝑡−2 + 𝑍𝑡−1 + 𝑍𝑡
Repetimos con 𝑌𝑡−2 = 𝑌𝑡−3 + 𝑍𝑡−2 , tenemos 𝑌𝑡 = 𝑌𝑡−3 + 𝑍𝑡−2 + 𝑍𝑡−1 + 𝑍𝑡
Continuamos hasta llegar a 𝑡 = 1, tenemos

𝑌𝑡 = 𝑍1 + 𝑍2 + ⋯ + 𝑍𝑡−1 + 𝑍𝑡 .

Entonces

E 𝑌𝑡 = E 𝑍1 + 𝑍2 + ⋯ + 𝑍𝑡 = E 𝑍1 ) + E(𝑍2 ) + ⋯ + E(𝑍𝑡 = 0

Var 𝑌𝑡 = Var 𝑍1 + 𝑍2 + ⋯ + 𝑍𝑡 = Var 𝑍1 ) + Var(𝑍2 ) + ⋯ + Var(𝑍𝑡 = 𝑡𝜎 2


Covarianza de orden 𝑑

Calculamos Cov 𝑌𝑡 , 𝑌𝑡+𝑑 , notemos que

𝑌𝑡 = 𝑍1 + 𝑍2 + ⋯ + 𝑍𝑡−1 + 𝑍𝑡 ,

𝑌𝑡+𝑑 = 𝑍1 + 𝑍2 + ⋯ + 𝑍𝑡−1 + 𝑍𝑡 + 𝑍𝑡+1 + ⋯ + 𝑍𝑡+𝑑 ,

entonces
𝑡 𝑡+𝑑
𝛾𝑑 𝑡 = Cov 𝑌𝑡 , 𝑌𝑡+𝑑 = Cov ෍ 𝑍𝑖 , ෍ 𝑍𝑗
𝑖=1 𝑗=1
𝑡 𝑡+𝑑 𝑡
=෍ ෍ Cov 𝑍𝑖 , 𝑍𝑗 = ෍ Var 𝑍𝑖 = 𝑡𝜎 2
𝑖=1 𝑗=1 𝑖=1
Nota:

En el cálculo de la función de autocovarianza usamos el siguiente


resultado:

Sean 𝑋1 , … , 𝑋𝑛 y 𝑌1 , … , 𝑌𝑚 variables aleatorias, entonces

𝑛 𝑚 𝑛 𝑚
Cov ෍ 𝑋𝑖 , ෍ 𝑌𝑗 = ෍ ෍ Cov(𝑋𝑖 , 𝑌𝑗 )
𝑖=1 𝑗=1 𝑖=1 𝑗=1
Función de autocorrelación del ruido blanco

De modo que la función de autocorrelación está dada por

Cov 𝑌𝑡 , 𝑌𝑡+𝑑 𝑡𝜎 2 1
𝜌𝑑 𝑡 = = =
Var 𝑌𝑡 Var 𝑌𝑡+𝑑 𝑡𝜎 2 (𝑡 + 𝑑)𝜎 2 1 + 𝑑/𝑡
Propiedades de la caminata aleatoria

• Tiene media 0.
• La varianza se incrementa linealmente sin límite conforme 𝑡 aumenta.
Por lo tanto, la caminata aleatoria no es estacionaria.
• La función de autocovarianza depende del tiempo 𝑡, por lo que una
caminata aleatoria no es estacionaria.
• Las autocorrelaciones son positivas.
• Para valores grandes de 𝑡 y valores relativamente pequeños de 𝑑,
𝑑/𝑡 ≈ 0, por lo que 𝜌𝑑 (𝑡) ≈ 1. Así que la función de autocorrelación
decae lentamente a partir del 1.
Caminata aleatoria generada con R, ruido blanco Gaussiano y
varianza 1
FAC y FACP de la caminata aleatoria anterior
Varianza de la caminata aleatoria
Comentarios
Vemos que la caminata aleatoria simulada:
• Exhibe una tendencia decreciente. Sin embargo, este
comportamiento de tendencia es estocástico. y se debe a la
fuerte autocorrelación de la serie de tiempo, la cual, como
hemos visto en la Figura 2, decae lentamente.
• Tiene varianza que crece linealmente con el tiempo.
• La no estacionariedad de la caminata aleatoria es evidente.
Ensamble: 100 caminatas aleatorias con ruido blanco Gaussiano
con varianza 1
Modelos para Series de Tiempo

AR
MA
ARMA
ARIMA
SARIMA
Todos los
modelos son
incorrectos pero
algunos son
útiles
George E. P. Box.
El proceso autorregresivo de orden 1, AR(1)

El proceso estocástico 𝑌𝑡 : 𝑡 = 1,2, … se dice que es un proceso autorregresivo de


orden 1, denotado AR(1), si tiene la siguiente forma

𝑌𝑡 = 𝛿 + 𝜙1 𝑌𝑡−1 + 𝑍𝑡

donde 𝑍𝑡 : 𝑡 = 1,2, … es un ruido blanco con varianza 𝜎 2 .


El proceso AR(1) es una regresión sobre sí mismo, de ahí el término autorregresivo.
Propiedad Markoviana: El proceso AR(1) tiene la propiedad de que la observación
en el tiempo 𝑡 depende linealmente de la observación en el tiempo 𝑡 − 1, es decir
de la observación anterior. Esta propiedad se llama propiedad Markoviana.
Si δ = 0 y 𝜙1 = 1, tenemos que el proceso AR(1) es una caminata aleatoria.
Media del AR(1)

El proceso AR(1) no siempre es estacionario. La condición suficiente y


necesaria para que el proceso AR(1) sea estacionario es −1 < 𝜙1 < 1.

Suponiendo que −1 < 𝜙1 < 1, calculemos el valor esperado del AR(1)

E(𝑌𝑡 ) = E 𝛿 + 𝜙1 𝑌𝑡−1 + 𝑍𝑡 = 𝛿 + 𝜙1 E(𝑌𝑡−1 )

Por estacionariedad, tenemos que E(𝑌𝑡 ) = E(𝑌𝑡−1 ) = 𝜇, entonces

𝛿
𝜇=
1 − 𝜙1
Varianza del AR(1)

La varianza Var(𝑌𝑡 ) = 𝜑0 está dada por

Var 𝑌𝑡 = Var 𝛿 + 𝜙1 𝑌𝑡−1 + 𝑍𝑡 = 𝜙12 Var 𝑌𝑡−1 ) + Var(𝑍𝑡

Una vez más, por estacionariedad, Var 𝑌𝑡 = Var 𝑌𝑡−1 , además


Var(𝑍𝑡 ) = 𝜎 2 , por lo que tenemos

𝜎2
𝜑0 =
1 − 𝜙12
Función de autocorrelación de un AR(1)

Se puede demostrar que la función de autocorrelación de un AR(1)

𝑌𝑡 = 𝛿 + 𝜙1 𝑌𝑡−1 + 𝑍𝑡

está dada por

𝜌𝑑 = 𝜙1𝑑 , 𝑑 = 0,1,2, …
Ejemplo:

𝑌𝑡 = 0.7𝑌𝑡−1 + 𝑍𝑡 ,
con Var 𝑍𝑡 = 1

Función de autocorrelación:
𝜌𝑑 = 0.7𝑑 , 𝑑 = 0,1,2, …
Ejemplo:

𝑌𝑡 = −0.7𝑌𝑡−1 + 𝑍𝑡 ,
con Var 𝑍𝑡 = 1

Función de autocorrelación:
𝜌𝑑 = (−0.7)𝑑 , 𝑑 = 0,1,2, …
El proceso autorregresivo de orden 2, AR(2)

El proceso estocástico 𝑌𝑡 : 𝑡 = 1,2, … se dice que es un proceso autorregresivo de


orden 2, denotado AR(2), si tiene la siguiente forma

𝑌𝑡 = 𝛿 + 𝜙1 𝑌𝑡−1 + 𝜙2 𝑌𝑡−2 + 𝑍𝑡

donde 𝑍𝑡 : 𝑡 = 1,2, … es un ruido blanco con varianza 𝜎 2 .

Se puede demostrar que el AR(2) es estacionario si y solo si

𝜙1 + 𝜙2 < 1
𝜙2 − 𝜙1 < 1
−1 < 𝜙2 < 1
Media y varianza de un AR(2)

La media de un AR(2) es

𝛿
𝜇=
1 − 𝜙1 − 𝜙2

La varianza de un AR(2) es

1 − 𝜙2 𝜎2
𝛾0 =
1 + 𝜙2 (1 − 𝜙2 )2 −𝜙12
Función de autocorrelación de un AR(2): Ecuaciones de Yule-Walker

𝜙1
𝜌1 =
1 − 𝜙2

𝜙2 1 − 𝜙2 + 𝜙12
𝜌2 =
1 − 𝜙2

𝜌𝑗 = 𝜙1 𝜌𝑗−1 + 𝜙2 𝜌𝑗−2 , 𝑗 = 3,4, …


El proceso autorregresivo de orden 𝑝, AR(𝑝)

El proceso estocástico 𝑌𝑡 : 𝑡 = 1,2, … se dice que es un proceso


autorregresivo de orden 𝑝, denotado AR(𝑝), si tiene la siguiente forma

𝑌𝑡 = 𝛿 + 𝜙1 𝑌𝑡−1 + 𝜙2 𝑌𝑡−2 + ⋯ + 𝜙𝑝 𝑌𝑡−𝑝 + 𝑍𝑡

donde 𝑍𝑡 : 𝑡 = 1,2, … es un ruido blanco con varianza 𝜎 2 .


Estacionariedad del
AR(𝑝)

Se puede demostrar que el AR(𝑝)


es estacionario si y solo si las
soluciones del polinomio

1 − 𝜙1 𝑥 −𝜙2 𝑥 2 − ⋯ − 𝜙𝑝 𝑥 𝑝 = 0

caen fuera del circulo unitario


Función de autocorrelación de un AR(𝑝)
Ecuaciones de Yule-Walker
Son 𝑝 ecuaciones lineales en 𝑝 incógnitas 𝜌1 , … , 𝜌𝑝

𝜌1 = 𝜙1 + 𝜙2 𝜌1 + ⋯ + 𝜙𝑝 𝜌𝑝−1

𝜌𝑝 = 𝜙1 𝜌𝑝−1 + 𝜙2 𝜌𝑝−2 + ⋯ + 𝜙𝑝 𝜌𝑗−𝑝

Dados los valores de los 𝑝 parámetros 𝜙1 , 𝜙2 , … , 𝜙𝑝 , las ecuaciones se resuelven en


las 𝑝 incógnitas. Las autocovarianzas de orden 𝑝 + 1, 𝑝 + 2, … se calculan
recursivamente con

𝜌𝑗 = 𝜙1 𝜌𝑗−1 + ⋯ + 𝜙𝑝 𝜌𝑗−𝑝 , 𝑗 = 𝑝 + 1, 𝑝 + 2, …
El Proceso de medias móviles de orden 1, MA(1)

El proceso estocástico 𝑌𝑡 : 𝑡 = 1,2, … es un proceso de


medias móviles de orden 1, denotado MA(1), si tiene la
siguiente forma

𝑌𝑡 = 𝜇 + 𝑍𝑡 + 𝜃1 𝑍𝑡−1

donde 𝑍𝑡 : 𝑡 = 1,2, … es un ruido blanco con varianza 𝜎 2 .


Media, varianza y función de autocorrelación de un MA(1)

Media: E 𝑌𝑡 = 𝜇
Varianza: Var 𝑌𝑡 = (1 + 𝜃12 )𝜎 2
Función de autocorrelación:

𝜃1
2 𝑑=1
𝜌𝑑 = ቐ1 + 𝜃1
0 𝑑>1

El proceso MA(1) siempre es estacionario y −1/2 ≤ 𝜌1 ≤ 1/2.


Realización de longitud 100 del proceso 𝑌𝑡 = 𝑍𝑡 + (1/2)𝑍𝑡−1 y 𝜎 2 = 1.
Función de autocorrelación de la realización del proceso 𝑌𝑡 = 𝑍𝑡 + (1/2)𝑍𝑡−1 con 𝜎 2 = 1.
El proceso de medias móviles de orden 2, MA(2)

MA(2): 𝑌𝑡 = 𝜇 + 𝑍𝑡 + 𝜃1 𝑍𝑡−1 + 𝜃2 𝑍𝑡−2


Media: E 𝑌𝑡 = 𝜇
Varianza: Var 𝑌𝑡 = (1 + 𝜃12 + 𝜃22 )𝜎 2
Función de autocorrelación:
𝜃1 + 𝜃1 𝜃2
2 2 𝑑 =1
1 + 𝜃1 + 𝜃2
𝜌𝑑 = 𝜃2
2 2 𝑑 =2
1 + 𝜃1 +𝜃2
0 𝑑>2

Notemos que sólo dos autocorrelaciones son diferentes de cero en el proceso MA(2).
Realización de longitud 200 del proceso 𝑌𝑡 = 𝑍𝑡 − 𝑍𝑡−1 + 0.6𝑍𝑡−2 con 𝜎 2 = 1.
Autocorrelaciones teóricas

Autocorrelaciones de 𝑌𝑡 = 𝑍𝑡 − 𝑍𝑡−1 + 0.6𝑍𝑡−2

−1 + (−1)(0.6)
𝜌1 = 2 2
= −0.678
1 + (−1) +(0.6)

0.6
𝜌2 = 2 2
= 0.254
1 + (−1) +(0.6)
Función de autocorrelación de una realización de longitud 200 del proceso
𝑌𝑡 = 𝑍𝑡 − 𝑍𝑡−1 + 0.6𝑍𝑡−2 con 𝜎 2 = 1.
Función de autocorrelación del proceso MA(𝑞)

La función de autocorrelación del proceso MA(𝑞) es

𝜃𝑑 + 𝜃1 𝜃𝑑+1 + 𝜃2 𝜃𝑑+2 + ⋯ + 𝜃𝑞−𝑑 𝜃𝑞


𝜌𝑑 = 𝑑 = 1, 2, … , 𝑞
1 + 𝜃12 + 𝜃22 + ⋯+ 𝜃𝑞2
0 𝑑>𝑞

De manera que la función de autocorrelación se hace 0 para 𝑑 > 𝑞.


Realización de longitud 200 de un MA(3) con 𝜇 = 0, 𝜎 2 = 1, y 𝜃1 = 1, 𝜃2 = −0.6 y
𝜃3 = 0.5.
Función de autocorrelación de una realización de longitud 200 de un MA(3) con
𝜇 = 0, 𝜎 2 = 1, y 𝜃1 = 1, 𝜃2 = −0.6 y 𝜃3 = 0.5.
El proceso de medias móviles de orden 𝑞, MA(𝑞)

• El proceso estocástico 𝑌𝑡 : 𝑡 = 1,2, … se dice que es un proceso de


medias móviles de orden 𝑞, denotado MA(𝑞), si tiene la siguiente
forma

𝑌𝑡 = 𝜇 + 𝑍𝑡 + 𝜃1 𝑍𝑡−1 + 𝜃2 𝑍𝑡−2 + ⋯ + 𝜃𝑞 𝑍𝑡−𝑞

donde 𝑍𝑡 : 𝑡 = 1,2, … es un ruido blanco con varianza 𝜎 2 .


Comentarios sobre estos procesos
• En un proceso autorregresivo el pasado predice al futuro. El valor de
la variable en el tiempo 𝑡 es una función de los valores de la variable
en tiempos pasados.
• En un proceso de medias móviles el valor de la variable en cada punto
del tiempo es una función de los recientes pasados términos de error.
Los economistas le llaman a estos errores shocks.
• Un proceso ARMA mezcla los dos puntos anteriores.
• Al diferenciar una serie de tiempo la convertimos a una serie de
tiempo de cambios en sus valores. Un modelo ARIMA es un modelo
ARMA en la serie de tiempo diferenciada.
El proceso mixto autorregresivo de medias móviles, ARMA(𝑝, 𝑞)
La combinación de procesos AR y MA da lugar a los procesos ARMA. Un proceso {𝑌𝑡 } es un proceso mixto auto
regresivo de medias móviles ARMA(𝑝, 𝑞) si está dado por

𝑌𝑡 = 𝜙1 𝑌𝑡−1 + 𝜙2 𝑌𝑡−2 + ⋯ + 𝜙𝑝 𝑌𝑡−𝑝 − 𝑍𝑡 − 𝜃1 𝑍𝑡−1 − 𝜃2 𝑍𝑡−2 − ⋯ 𝜃𝑞 𝑍𝑡−𝑞

donde {𝑍𝑡 } es un ruido blanco. Un proceso ARMA(𝑝, 𝑞) tiene un componente AR(𝑝) y un componente MA(𝑞).
El proceso ARMA(𝑝, 𝑞) es estacionario si y solo si las raíces del polinomio

1 − 𝜙1 𝑥 −𝜙2 𝑥 2 − ⋯ − 𝜙𝑝 𝑥 𝑝 = 0

caen fuera del circulo unitario y es invertible si las raíces del polinomio

1 + 𝜃1 𝑥 +𝜃2 𝑥 2 + ⋯ + 𝜃𝑞 𝑥 𝑞 = 0
caen fuera del circulo unitario.
El proceso ARMA(1,1)

𝑌𝑡 = 𝜙1 𝑌𝑡−1 − 𝑍𝑡 − 𝜃1 𝑍𝑡−1
Identificación de Modelos ARMA
RESUMEN:

Proceso FAC FACP


𝑀𝐴(𝑞) Corte brusco después Decaimiento
de 𝑞 retrasos exponencialmente y/o
senoidal amortiguado
𝐴𝑅(𝑝) Decaimiento Corte brusco después
exponencialmente y/o de 𝑝 retrasos
senoidal amortiguado
𝐴𝑅𝑀𝐴(𝑝, 𝑞) Decaimiento Decaimiento
exponencialmente y/o exponencialmente y/o
senoidal amortiguado senoidal amortiguado
Metodología de Box-Jenkins

1. Identificación Tentativa: Se inspeccionan las funciones de autocorrelación y autocorrelación


parcial para identificar tentativamente un modelo apropiado.

2. Estimación: Se usa máxima verosimilitud para estimar los parámetros del modelo identificado
tentativamente.

3. Diagnóstico: Se usan diversos diagnós

4. ticos para checar lo adecuado del modelo identificado y estimado. Si es necesario el modelo se
modifica.

5. Pronóstico: Una vez que se obtiene un modelo final, se usa para pronosticar valores futuros de
la serie de tiempo.
Ejemplos
Ejemplo: Serie de tiempo observada
FAC y FACP
Identificación: Un proceso MA(2)
# Elegimos un MA(2)
# Ajuste del modelo
ajuste = arima(y,order=c(0,0,2))
ajuste
Call:
arima(x = y, order = c(0, 0, 2))

Coefficients:
ma1 ma2 intercept
0.8063 -0.1243 -0.0792
s.e. 0.0672 0.0667 0.1144

sigma^2 estimated as 0.9286: log likelihood = -277.33, aic = 562.66


Diagnóstico: Ruido blanco
Pronóstico
Modelos ARIMA y SARIMA
Series no estacionarias

Las series de tiempo ambientales (meteorológicas, climatológicas, contaminantes,


etc.) rara vez son estacionarias. Exhiben:

• Tendencia
• Estacionalidad
• Heterocedasticidad
• Variación de ciclos
• Combinación de los elementos anteriores
La serie de tiempo de temperatura en Riobamba no es estacionaria
Tendencia
No estacionariedad debido a tendencia: Transformar con primeras diferencias

𝑊𝑡 = ∇𝑌𝑡 = 𝑌𝑡 − 𝑌𝑡−1

No estacionariedad debido a tendencia y cambio en pendiente: Transformar con


segundas diferencias:

𝑍𝑡 = ∇2 𝑌𝑡 = ∇𝑊𝑡 = 𝑊𝑡 − 𝑊𝑡−1 = 𝑌𝑡 − 𝑌𝑡−1 − 𝑌𝑡−1 − 𝑌𝑡−2

= 𝑌𝑡 − 2𝑌𝑡−1 + 𝑌𝑡−2
Heterocedasticidad
• Si hay homocedasticidad (cambio en la varianza): Transformar con
logaritmo

𝑈𝑡 = log(𝑌𝑡 )

También se puede usar la transformación de Box-Cox

𝑌𝑡𝜆 − 1
𝑋𝑡 = ,λ ≠ 0
𝜆
Estacionalidad
No estacionariedad debido a estacionalidad: Diferencias estacionales, si
el período estacional es 𝑠, la diferencia estacional es

∇𝑠 𝑌𝑡 = 𝑌𝑡 − 𝑌𝑡−𝑠

Por ejemplo, si tenemos observaciones mensuales y hay estacionalidad


mensual, entonces 𝑠 = 12, y

𝑊𝑡 = ∇12 𝑌𝑡 = 𝑌𝑡 − 𝑌𝑡−12
Tendencia y Estacionalidad
No estacionariedad debido a tendencia y estacionalidad: Combinamos
primera diferencia con diferencia estacional, por ejemplo:
Primera diferencia
𝑊𝑡 = ∇𝑌𝑡 = 𝑌𝑡 − 𝑌𝑡−1
Diferencia estacional

∇12 𝑊𝑡 = ∇12 ∇𝑌𝑡 = 𝑊𝑡 − 𝑊𝑡−12 = 𝑌𝑡 − 𝑌𝑡−1 − 𝑌𝑡−12 − 𝑌𝑡−13

= 𝑌𝑡 − 𝑌𝑡−1 − 𝑌𝑡−12 + 𝑌𝑡−13


Modelos ARIMA y SARIMA
• Un modelo 𝐴𝑅𝐼𝑀𝐴(𝑝, 𝑑, 𝑞) es un modelo ARMA en la serie de
tiempo diferenciada d veces.

• Un modelo 𝑆𝐴𝑅𝐼𝑀𝐴(𝑝, 𝑑, 𝑞)(𝑃, 𝐷, 𝑄)𝑠 es un modelo ARMA en la


serie de tiempo diferencias 𝑑 veces en la parte de tendencia, con una
diferencia estacional 𝑠 y una diferenciada 𝐷 veces en la parte
estacional.
Ejemplo: Producción total de energía eléctrica en
México, 2000-2017
Componentes identificados

• Tendencia creciente
• Estacionalidad
• Heterocedasticidad de la varianza, pues la varianza
tiende a aumentar a lo largo del tiempo
Logaritmo de la producción total
Componentes de la serie transformada

• Tendencia creciente persiste


• Estacionalidad persiste
• Se removió la heterocedasticidad de la varianza
Corroboramos estacionalidad: FAC muestral de la serie de log(GWh)
Remoción de la tendencia: Serie de tiempo de primeras diferencias
FAC y FACP de la serie de primeras diferencias
Componentes de la serie de primeras diferencias

• Tendencia fue removida


• Estacionalidad persiste
• Se procede a calcular la serie de diferencias estacionales
con período 𝑠 = 12 , ya que las observaciones son
mensuales.
Serie de diferencias estacionales 𝑠 = 12
FAC y FACP de la serie de diferencias estacionales
Modelo identificado

• Parte estacionaria: p = 0, d = 1, q = 1
• Parte estacional: P = 0, D = 0, Q = 2, s = 12

Modelo:
𝑆𝐴𝑅𝐼𝑀𝐴(0,1,1)(0,0,2)𝑠=12
Modelo ajustado

Call:
arima(x = logEnerg, order = c(0, 1, 1), seasonal = list(order =
c(0, 0, 2),
period = 12))

Coefficients:
ma1 sma1 sma2
-0.2215 0.7180 0.5582
s.e. 0.0598 0.0679 0.0865

sigma^2 estimated as 0.001515: log likelihood = 374.14, aic = -


742.28
Serie de tiempo de residuos del modelo 𝑆𝐴𝑅𝐼𝑀𝐴(0,1,1)(0,0,2)𝑠=12
Pronóstico a un año, escala log
Pronóstico a un año, GWh
Ahora

Prácticas con R

También podría gustarte