Está en la página 1de 30

MODELOS ESTADISTICOS DE SERIES DE TIEMPO

Jorge A. Méndez F

26 de julio de 2016

1.5 Modelos Estadísticos de Series de Tiempo

Una parte importante del análisis de series de tiempo consiste en la selección de un


apropiado modelo (o clase de modelos) para los datos. Debido a la naturaleza
posiblemente impredecible de las observaciones futuras, es natural suponer que cada
observación es un valor realizado u observado de cierta variable aleatoria .

Definición 1.2 Un modelo de series de tiempo para los datos observados consiste
en una especificación de las distribuciones conjuntas (de dimensión finita) o
posiblemente de sus momentos de segundo orden (media y covarianzas) de una
sucesión de variables aleatorias de la cual se ha especificado que es una
realización.

Comentario. Con frecuencia utilizaremos el término serie de tiempo (o serie


temporal) para especificar a ambos, los datos y el proceso del cual ésta es una
realización.

Un modelo probabilístico para la sucesión de variables aleatorias , especifica


todas las distribuciones conjuntas de los vectores aleatorios
o equivalentemente todas las probabilidades

Esta especificación es raramente utilizada en el análisis de series de tiempo (a menos


que los datos sean generados por un mecanismo sencillo y bien entendido), ya que en
general tendrá demasiados parámetros a ser estimados de los datos disponibles. En su
lugar, se especifican solo los momentos de primer y segundo orden de las
distribuciones conjuntas, por ejemplo, los valores esperados y los valores
esperados conjuntos enfocándonos en las
propiedades de la sucesión que dependen solamente de estos momentos y que
son denominadas las propiedades de segundo orden. En el caso particular donde todas
las distribuciones conjuntas son normales multivariantes se tiene una caracterización
probabilística completa de la sucesión . En general, perdemos cierta cantidad de
información mediante el análisis de la serie de tiempo a través de las propiedades de
segundo orden, sin embargo, como estudiaremos en el Capitulo 2, la teoría de las
predicciones lineales por error cuadrático medio depende solamente estas
propiedades de segundo orden, de esta manera, se dan justificaciones adicionales para
el uso de la caracterización de segundo orden de los modelos de series de tiempo.

La mayoría de los problemas prácticos involucran solamente una realización, pero


imaginamos que es una de muchas sucesiones que podrían haber ocurrido. En los
siguientes ejemplos, introducimos (o exponemos) algunos modelos de series de
tiempo sencillos. Uno de los objetivos es expandir este repertorio de manera de tener
a nuestra disposición un amplio rango de modelos con los cuales podamos emparejar
el comportamiento observado de un conjunto de datos dado (o serie de tiempo
observada).

1.5.1 Algunos Modelos de Media Nula

Ejemplo 1.22 Ruido blanco

Quizás el modelo más sencillo para una serie de tiempo es aquel en el cual no hay
componentes de tendencia ni variación estacional y en la que las observaciones son
simplemente variables aleatorias incorrelacionadas con media cero y varianza finita
. Esta serie de tiempo generada de variables aleatorias incorrelacionadas se utiliza
como modelo para el ruido en aplicaciones de ingeniería, donde se le denomina ruido
blanco. Vamos a referirnos a esta sucesión de variables aleatorias en forma
condensada como .

Algunas veces vamos a requerir que el ruido blanco este formado por variables
aleatorias independientes e idénticamente distribuidas (iid) con media cero y
varianza . Vamos distinguir este caso denominandolo ruido blanco independiente o
simplemente, .

Recordemos que por definición de independencia podemos escribir, para cualquier


número entero positivo y números reales ,

donde es la función de distribución acumulada de cada una de las variables


aleatorias En este modelo no hay dependencia entre las observaciones. En
particular, para todo y todos los números reales se cumple

mostrándonos que el conocimiento de no nos permite predecir .


Dados los valores de , la función que minimiza el error cuadrático
medio es de hecho idénticamente cero. Aunque esto
significa que el ruido iid no es un proceso interesante de pronosticar, éste juega un
importante papel como un bloque para construir modelos de series de tiempo mas
complicados.

Un caso particularmente importante del proceso de ruido blanco es cuando las


variables aleatorias tienen distribución normal con media 0 y varianza , en
forma condensada .

La Figura 1.27 muestra una realización de 500 variables aleatorias independientes y


normales con graficadas en el orden en que fueron generadas.
El gráfico tiende a mostrar una mezcla de diferentes tipos de oscilaciones en la serie
de ruido blanco.

Si el comportamiento estocástico de todas las series de tiempo pudiera explicarse en


términos del modelo de ruido blanco, los métodos de la estadística clásica serían
suficientes. En los próximos ejemplos se introducirán estructuras de dependencia más
complejas.

Ejemplo 1.23 Camino (o recorrido) aleatorio

El camino aleatorio (comenzando en cero se obtiene a través de la


adicción (o "integración") de variables aleatorias iid. De esta manera un camino
aleatorio se obtiene mediante:

(1.1)

donde por definición y es un ruido iid.


En la Figura 1.28 muestra una realización de donde es la sucesión
de variables aleatorias especificada en el Ejemplo 1.22.

Ejemplo 1.24 Promedios Móviles

La serie de ruido blanco se puede sustituir por un promedio movil que suavice la
serie. Por ejemplo, consideremos sustituir en el Ejemplo 1.22 por un promedio del
valor presente y sus vecinos inmediatos en el pasado y futuro. Sea

(1.2)

lo que resulta en la serie mostrada en la Figura 1.29. Inspeccionando la serie nos


damos cuenta que es una versión más suavizada de la primera serie, reflejando el
hecho de que las oscilaciones pequeñas son más aparente y que algunas oscilaciones
más pronunciadas se han removido. Podemos observar que hay una similitud con la
serie SOI en la Figura 1.23. Una combinación lineal de valores en una serie de tiempo
como la de (1.2) usualmente se denomina un filtro.
La serie speech en la Figura 1.17 y la serie Recruiment en la Figura 1.23, difieren de la
serie de promedios móviles debido al comportamiento oscilatorio muy particular, que
parece predominante, y que produce un comportamiento de tipo senosoidal. Existe un
gran número de métodos para generar series con comportamiento casi periódico,
vamos a ilustrar uno muy popular basado en el modelo autorregresivo considerado en
el Capítulo 3.

Ejemplo 1.25 Autorregresiones

Consideremos la serie de ruido blanco del Ejemplo 1.22 como entrada y calculemos
la salida utilizando una ecuación de segundo orden

(1.3)

sucesivamente para . La Ecuación (1.3) representa una regresión o


predicción del valor actual o presente de una serie de tiempo como una función de
dos valores rezagados de la serie, y de ahí el término autorregresivo sugerido para
este modelo. Existe un problema con los valores iniciales porque (1.3) también
depende de las condiciones iniciales y , pero por ahora, vamos a asumir que esos
valores están dados y generamos los valores sucesivos a través de la sustitución en
(1.3). La serie resultante se muestra en la Figura 1.30 y nótese el comportamiento
periódico de la serie, es cual es similar al que presenta la serie speech en la Figura
1.17. El modelo autorregresivo (1.3) y sus generalizaciones pueden utilizarse como un
modelo fundamental para muchas series observadas y será expuesto en detalle en el
Capítulo 3.

Ejemplo 1.26 Camino Aleatorio con Desplazamiento (drift)

Un modelo para analizar tendencia como la que se observa en los datos de


temperatura global en la Figura 1.16, es modelo de camino aleatorio con
desplazamiento dado por

(1.4)

para con la condición inicial , y donde es un ruido blanco. La constante


se denomina desplazamiento, y cuando , (1.4) es simplemente un camino
aleatorio. El término camino aleatorio proviene del hecho de que, cuando , el
valor de la serie en el tiempo es el valor de la serie en el tiempo mas un
movimiento completamente aleatorio determinado por . Nótese que podemos
reescribir (1.4) como una suma acumulativa de variables de un ruido blanco. Esto es,

(1.5) ∑
para ; podemos utilizar inducción, o simplemente sustituir (1.5) en (1.4)
para verificar esta afirmación. La Figura 1.10 muestra 200 observaciones generadas
por el modelo con y .2, con Para comparar también se grafica la recta
.

En los ejemplos anteriores, hemos tratado de motivar el uso de varias combinaciones


de variables aleatorias que simulan datos de series de tiempo en el mundo real. Las
características suavizadoras de las series de tiempo observadas fueron introducías al
combinar variables aleatorias en diferentes maneras. Promediando variables
aleatorias independientes en puntos adyacentes en el tiempo, como en el Ejemplo
1.24, o buscando una solución de una ecuación de diferencias que responde a entradas
de ruido blanco, como en el ejemplo 1.25, son las maneras más comunes de generar
datos correlacionados.

En la próxima sección, vamos a introducir diferentes medidas teóricas que se utilizan


para describir cómo se comportan las series de tiempo. Como es usual en estadística,
la descripción completa involucra la función de distribución conjunta multivariada de
los valores mientras que descripciones mas condensadas pueden lograrse en
términos de la funciones media y de autocorrelaciones, respectivamente. Debido a que
la correlación es una característica esencial del análisis de series de tiempo, la
mayoría de las medidas descriptivas útiles son aquellas expresadas en términos de las
funciones de covarianzas y autocorrelaciones.

1.6 Medidas de Dependencia: Autocorrelación y Correlación-


Cruzada

Una descripción completa de una serie de tiempo observada como una colección de
variables aleatorias en puntos de tiempo , para cualquier entero positivo , se
obtiene a través de la función de distribución conjunta, definida como la probabilidad
de que los valores de la serie son conjuntamente menores que las constantes ,
esto es,

(1.6)

Desafortunadamente, la función de distribución conjunta multivariante no puede


especificarse fácilmente, a menos que las variables aleatorias se distribuyan
normalmente, en cuyo caso la fdp conjunta tiene una forma bien conocida tal como se
muestra en (1.31).

Aunque la función de distribución conjunta describe a los datos de manera completa,


es una herramienta pesada y difícil de manejar para efectos de graficar y analizar los
datos de serie de tiempo. La función de distribución (1.6) debe evaluarse como una
función de argumentos, de manera que graficar las correspondientes fdp
multivariantes es virtualmente imposible. Las funciones de distribución marginales

o las correspondientes funciones de densidad marginales

cuando ellas existen, son con frecuencia más informativas para examinar el
comportamiento marginal de una serie de tiempo. Otra medida informativa marginal
es la función media.

Definición 1.3 La función media de una serie de tiempo se define como

(1.7) ∫
siempre que la esperanza exista, donde denota el operador esperanza. Cuando no
exista confusión acerca de la serie de tiempo que nos estamos refiriendo podemos
eliminar el subíndice y escribir como .

Ejemplo 1.27 Función media de un Promedio Móvil

Si denota una serie ruido blanco, entonces para todo . La Figura


1.27 refleja el hecho de que la serie fluctúa alrededor de una media cero. La expresión
(1.2) Suaviz la serie pero no cambia la media porque

Ejemplo 1.28 Función media de un Camino Aleatorio con Desplazamiento

Considere el camino aleatorio con desplazamiento dado en (1.4)

Como para todo , y constante, se tiene que

la cual es una recta con pendiente .

Ejemplo 1.29 Función media de la serie Señal más Ruido

Una gran cantidad de aplicaciones prácticas dependen de la suposición de que los


datos observados han sido generados por una señal fija en forma de onda superpuesta
sobre un proceso de ruido de media cero, llevando a un modelo de señal aditivo de la
forma (1.5). Es claro, porque la señal en (1.5) es una función de tiempo fija, se tiene
que
y la función media es solo la onda coseno.

Definición 1.4 La función varianza de una serie de tiempo se define como

(1.8)

siempre que la esperanza exista.

Ejemplo 1.30 Función varianza de un Promedio Móvil

Ejemplo 1.31 Función varianza de un Camino Aleatorio con Desplazamiento


La falta de independencia entre dos valores adyacentes y puede especificarse de
forma numérica, al igual que en la estadística clásica, utilizando nociones de
covarianza y correlación. Asumiendo que la varianza de es finita, se tiene la
siguiente definición.

Definición 1.5 La función de Autocovarianzas se define como el segundo momento


conjunto

(1.9)

para todo y . Cuando no exista confusión acerca de cual serie de tiempo nos
estamos refiriendo, vamos a escribir ) como .

Nótese que para todos los puntos de tiempo . La función de


autocovarianzas mide la dependencia lineal entre dos puntos en la misma serie
observada en diferentes puntos de tiempo. Las series muy suavizadas muestran
funciones de autocovarianzas que permanecen altas aun cuando están alejadas,
mientras que series muy agitadas tienden a tener funciones de autocovarianzas que
son casi nulas para valores muy separados.

La función de autocovarianzas (1.9) esta formada por el promedio de productos


cruzados relativos a la función de distribución . Recordemos de la estadística
clásica que si , y no están linealmente relacionados, pero aun así
podría existir algún tipo de estructura de dependencia entre ellas. Si, sin embargo, y
se distribuyen normal bivariante, asegura la independencia. Es claro,
que para , la autocovarianza se reduce a la varianza (asumiendo que es finita),
porque

(1.10)

Ejemplo 1.32 Función de autocovarianzas de un Ruido Blanco

La serie de ruido blanco tiene y


(1.11) {

Ejemplo 1.33 Función de autocovarianzas de un Promedio Movil

Consideremos aplicar un promedio movil de tres valores a la serie de ruido blanco


del ejemplo anterior como en el Ejemplo 1.24. En este caso,

Cuando se tiene,

Cuando ,

utilizando (1.11). Cálculos similares dan ,

, y cuando , Vamos a resumir los valores para todo y como

(1.12)

{
El Ejemplo 1.24 muestra claramente que la operación de suavización (el promedio
móvil) resulta en una función de autocovarianzas que decrece a medida que se
incrementa la separación entre los puntos de tiempo y desaparece completamente
cuando los puntos de tiempo estan separados por una distancia de tres o más puntos.
Esta función de autocovarianzas en particular es interesante porque depende
solamente de la separación o rezago de tiempo y de la ubicación de los puntos de
tiempo a lo largo de la serie. Más tarde veremos que esta dependencia sugiere un
modelo matemático para el concepto de estacionariedad débil.

Ejemplo 1.34 Función de autocovarianzas de un Camino Aleatorio

Para el modelo de camino aleatorio ∑ , tenemos

∑ ∑

Debido a que los son variables aleatorias incorrelacionadas. Nótese que, en


oposición a los ejemplos anteriores, la función de autocovarianzas de un camino
aleatorio depende de los valores particulares y , y no de la separación o rezago (o
distancia). También, nótese que la varianza de un camino aleatorio,
, se incrementa sin limite a medida que se incrementa. El efecto de esta
varianza creciente puede observarse en la Figura 1.10 donde el proceso comienza a
alejarse de su función media (nótese que en ese ejemplo) Al igual que en
la estadística clásica, es más conveniente tratar con una medida de asociación entre -1
y 1, y esto nos lleva a la definición siguiente.

Definición 1.6 La función de autocorrelación (ACF por sus siglas en inglés) está
definida como

(1.13)

La ACF mide la predictibilidad linear de la serie en el tiempo , digamos, , usando


solo el valor . Puede demostrarse fácilmente que utilizando la
desigualdad de Cauchy-Schwarz. Si podemos predecir a perfectamente a partir de
a través de la relación lineal , entonces la correlación será +1 cuando
, y -1 cuando . De donde, tenemos una medida cruda de la habilidad de
pronosticar a la serie en el tiempo a partir del valor de la serie en el tiempo .

Con frecuencia, nos gustaría tener una medida de la predictibilidad de otra serie a
partir de . Asumiendo que ambas series tienen varianza finita, tenemos la siguiente
definición.

Definición 1.7 La función de covarianza-cruzada entre dos series, y, esta


definida como

(1.14)

Existe una versión escalada de la función de covarianza-cruzada.

Definición 1.8 La función de correlación-cruzada (CCF por sus siglas en inglés) esta
dada por

(1.15)

Fácilmente podemos extender las ideas anteriores al caso de más de dos series,
digamos ; esto es, se tiene una serie de tiempo multivariante con
componentes. Por ejemplo, por extensión de (1.11) en este caso es

(1.16)

En las definiciones anteriores, las funciones de autocovarianzas y covarianza-cruzada


pueden cambiar a medida que nos desplazamos a lo largo de la serie porque los
valores dependen de ambos, y , las localizaciones en el tiempo. En el Ejemplo 1.17,
la función de autocovarianzas depende de la separación de y , digamos
, y no de donde están ubicados los puntos en el tiempo. Mientras que los puntos
están separados por unidades, la localización de los puntos no interesa. Esta noción,
denominada estacionariedad débil, cuando la media es constante, es fundamental en el
análisis de series de tiempo cuando solo se tiene una serie de tiempo.
1.7 Series de Tiempo Estacionarias

Las definiciones anteriores de las funciones media y autocovarianza son


completamente generales. Aunque no se hicieron supuestos especiales acerca del
comportamiento de la serie, muchos de los ejemplos precedentes han sugerido que
puede existir algún tipo de regularidad en el tiempo con respecto al comportamiento
de la serie de tiempo. Vamos a introducir la noción de regularidad utilizando un
concepto denominado estacionariedad.

Definición 1.9 Una serie de tiempo estrictamente estacionaria es aquella para la cual
el comportamiento probabilístico de toda colección de valores es
idéntico al de la serie de tiempo desplazada

Esto es,

(1.17)

para todo todos los puntos de tiempo todos los números


y todos los valores (shift)

Si una serie de tiempo es estrictamente estacionaria, entonces todas las funciones de


distribución multivariantes para subconjuntos de variables son idénticas con sus
contrapartes desplazadas en el conjunto de todos los valores de . Por ejemplo,
cuando , (1.6) implica que

(1.18)

para cualesquiera puntos de tiempo y . Esta afirmación implica, por ejemplo, que la
probabilidad de que el valor de la serie de tiempo, muestreada por hora, sea negativo
a la 1 AM será la misma a las 10 AM. Además, la función media, , de la serie de
tiempo existe, (1.18) implica que para todo y , y por tanto, debe ser
constante. Nótese que por ejemplo, un proceso de camino aleatorio con
desplazamiento no es estrictamente estacionario porque su función media cambia en
el tiempo (en realidad es proporcional), ver Ejemplo 1.14 en la página 18.
Cuando podemos escribir (1.18) como

(1.19)

para cualesquiera puntos de tiempo y y desplazamiento . De esta manera, si la


funcion varianza existe, (1.18) implica que la funcion de autocovarianzas de la serie
satisface

para todo , y Podemos interpretar este resultado diciendo que la función de


autocovarianzas del proceso depende solamente de la diferencia entre los puntos de
tiempo y , y no de donde estan ubicados.

La versión de estacionariedad en la Definición 1.9 es demasiado fuerte para la


mayoría de las aplicaciones. Además, es difícil afirmar la existencia de estacionariedad
estricta a partir de la serie de tiempo observada. En lugar de imponer condiciones
sobre todas las posibles distribuciones de una serie de tiempo, vamos a utilizar una
versión menos severa que impone condiciones solamente sobre los primeros
momentos de la serie de tiempo.

Definición 1.10 Una serie de tiempo, , débilmente estacionaria, es un proceso de


varianza finita tal que:

(i). El valor de la función media, , definido en (1.7) es constante y no depende de , y


(ii). La función de autocovarianzas, , definida en (1.11) depende de y a través
de su diferencia

A partir de ahora, al referirnos a estacionariedad, en realidad significa que es


estacionariedad débil; si un proceso es estacionario en el sentido estricto, utilizaremos
el término estrictamente estacionario.

Debería quedar entendido que una serie de tiempo estrictamente estacionaria


también es débilmente estacionaria o estacionaria. El reciproco no siempre es
verdadero a menos que se establezcan condiciones adicionales. Un caso importante
donde la estacionariedad implica estacionariedad estricta es cuando la serie de
tiempo es un proceso Gaussiano, esto quiere decir, que todas las distribuciones finitas
(1.6) de la serie son Gaussianas. Este concepto se expondrá al final de esta sección.

Debido a que la función media , de una serie de tiempo estacionaria es


independiente del tiempo , podemos escribir

(1.20)

También, debido a que la función de autocovarianzas, , de una serie de tiempo


estacionaria , solo depende de y a través de la diferencia podemos
simplificar la notación. Sea , donde representa la distancia en el tiempo
(hacia el pasado o el futuro). Entonces,

porque la diferencia de tiempo entre los tiempos y es la misma diferencia entre


los tiempo y 0. De esta manera, la función autocovarianza de una serie estacionaria
no depende del argumento . Por tanto, podemos remover el segundo argumento de
).

Definición 1.11 La función de autocovarianzas de una serie de tiempo estacionaria


será escrita como

(1.21)

Definición 1.12 La función de autocorrelación de una serie de tiempo estacionaria


será escrita utilizando (1.14) como

(1.22)

La desigualdad de Cauchy-Schwarz demuestra una vez más que para


todo , permitiendo evaluar la importancia relativa de un valor de autocorrelación
dado a través de las comparaciones con estos valores extremos -1 y 1.
Ejemplo 1.35 Estacionariedad de un Ruido Blanco

Las funciones media y de autocovarianzas de la serie de ruido blanco se obtienen


fácilmente porque y

De esta manera, el proceso de ruido blanco satisface las condiciones de la Definicion


1.7 y es débilmente estacionario o simplemente estacionario. Si las variables en el
ruido blanco se distribuyen normalmente, la serie también es estrictamente
estacionaria, como puede demostrarse evaluando (1.6) utilizando el hecho de que las
variables aleatorias del ruido blanco serian iid.

Ejemplo 1.36 Estacionariedad de un Promedio Móvil

El proceso de promedio móvil de tres puntos del Ejemplo 1.9 es estacionario porque a
partir de los Ejemplos 1.13 y 1.17, las funciones media y de autocovarianzas, se tiene
que ,y

son independientes del tiempo , y satisfacen las condiciones de la Definición 1.7. La


Figura 1.12 muestra un gráfico de la función autocovarianza como función de , con
. Es interesante observar que esta función es simétrica con respecto al rezago
cero y que decrece a medida que aumenta el valor de .

La función de autocovarianzas de un proceso estacionario tiene propiedades útiles.


Primero, el valor en , esto es,

(1.23)

es la varianza de la serie; nótese que la desigualdad de Cauchy-Schwarz implica que


De acuerdo con el ejemplo previo, hay otra propiedad de utilidad, y es que la función
autocovarianza de una serie estacionaria es simétrica con respecto al origen, esto es,

(1.24)

para todo . Esta propiedad es porque en el rezago , se tiene que

lo que demuestra (1.24).

Cuando hay más de una serie de tiempo el concepto de estacionariedad sigue


cumpliéndose, pero con condiciones adicionales.

Definición 1.13 Dos series de tiempo y , se dice que son conjuntamente


estacionarias si cada una de ellas es estacionaria, y además la función de covarianza-
cruzada,

(1.25)

es función solo del rezago .

Definición 1.14 La función de Correlación Cruzada (CCF por sus siglas en inglés) de
dos series y conjuntamente estacionarias, está definida como

(1.26)

De nuevo, se tiene que - , lo cual nos permite comparaciones con los


valores extremos -1 y 1 cuando buscamos la relación entre y . Generalmente, la
función de correlación cruzada no es simétrica con respecto a cero, esto es
, sin embargo, se cumple que
(1.27)

lo que puede demostrarse que a través de manipulaciones algebraicas similares a las


utilizadas para demostrar (1.24).

Ejemplo 1.37 Estacionariedad conjunta

Considérese dos series y , formadas por la suma y diferencia de los valores


sucesivos de un proceso ruido blanco, esto es, y , donde
son variables aleatorias independientes con media cero y varianza . Es fácil
demostrar que y , y
. También

porque solo hay un término no nulo. Similarmente, , . De


donde,


{

Las funciones de autocovarianzas y covarianza-cruzada dependen solo del rezago ,


de manera que las series son conjuntamente estacionarias.

Ejemplo 1.38 Predicción utilizando correlación-cruzada

Considere el problema de determinar las posibles relaciones de guía (o adelanto) o de


rezago entre las series y . Si el modelo es adecuado, se dice que la
serie guía a para y que retarda a para . De donde, el análisis de
adelanto o rezago podría ser importante para el pronóstico de a partir de .
Asumiendo por conveniencia que ambas series tienen media cero, y que el ruido
esta incorrelacionado con la serie , la función autocovarianza cruzada puede
calcularse como
La función de covarianza-cruzada se mostrara como la función de autocovarianzas de
la serie , con un pico en el lado positivo si guía a y con un pico en el lado
negativo si retarda a .

El concepto de estacionariedad débil forma la base para la mayoría del análisis


realizado con series de tiempo. Las propiedades fundamentales de las funciones
media (1.7) y autocovarianza se cumplen para muchos modelos teóricos que parecen
generar realizaciones muestrales plausibles. En los Ejemplo 1.23 y 1.24 se generaron
dos series que parecen realizaciones estacionarias, y en el Ejemplo 1.29,
demostramos, que de hecho, es débilmente estacionaria. Ambos ejemplos son casos
especiales del denominado Proceso (Estocástico) Lineal.

Definición 1.15 Un proceso lineal, , se define como una combinación lineal de


variables aleatorias de un ruido blanco, , y esta dado por

(1.28) ∑ ∑

Para el proceso lineal, , se puede demostrar que su función de autocovarianzas esta


dada por

(1.29) ∑

para ; recordemos que . A través de este método la función de


autocovarianzas del proceso se expresa en términos de productos de coeficientes
rezagados. Nótese que, para el Ejemplo 1.23, ⁄ y el resultado en
el Ejemplo 1.34 es inmediato. La serie autorregresiva en el Ejemplo 1.24 también
puede expresarse de esta manera, asi como el proceso autorregresivo y de promedios
móviles considerado en el Capítulo 3.

Finalmente, como mencionamos previamente, un caso importante en el cual una serie


de tiempo débilmente estacionaria es también estrictamente estacionaria es la serie
de tiempo Gaussiana.
Definición 1.16 Un proceso , se dice que es un proceso Gaussiano si los vectores
de dimensión , , para cualquier colección de puntos de tiempo
, y todo entero positivo , tiene distribución normal multivariante.

Sean el vector de medias de dimensión y


la matriz de covarianzas de dimensión y
que se asume definida positiva, respectivamente, entonces la función de densidad
normal multivariante puede ser escrita como

⁄ ⁄
(1.30)

donde denota el determinante. Esta distribución forma la base para la solución de


problemas que involucran inferencia estadística para series de tiempo. Si una serie de
tiempo Gaussiana, , es debílmente estacionaria, entonces y
de manera que el vector y la matriz son independientes del tiempo.
Estos hechos implican que todas las distribuciones finita, (1.30), de la serie
dependen solamente del tiempo de rezago y no de donde están ubicados los tiempos,
y por tanto, la serie debe ser estrictamente estacionaria.

1.8 Estimación de las funciones de Autocovarianza y


Autocorrelación

Aunque las funciones media, varianza, autocovarianzas, autocorrelación y correlación-


cruzada son útiles para describir las propiedades de algunos modelos hipotéticos o
teóricos, en la práctica no se comienza con un modelo especifico sino que el análisis se
desarrolla utilizando la serie de tiempo observada. Esto quiere decir que la única
información disponible para estimar las funciones media, varianza, autocovarianzas, y
autocorrelacion son los datos muestrales . Desde el punto de vista de la
estadística clásica, hay un problema porque no hay información replicada para
estimar las funciones autocovarianzas y autocorrelación. De alguna manera debemos
promediar sobre esta única realización para estimar la media poblacional y las
funciones autocovarianzas y autocorrelación. Si una serie de tiempo es estacionaria, la
función media (1.7) es constante, esto es, , asi que podemos estimarla a traves
de la media muestral

(1.31) ∑

El error estándar del estimador es la raíz cuadrada de , la puede puede


calcularse utilizando algunas propiedades de la covarianza, y esta dada por

∑ ∑ ∑

(1.32)

Si el proceso es ruido blanco, (1.31) se reduce a ⁄ recordando que .


Nótese que, en este caso de dependencia, el error estándar de puede ser más
pequeño o mayor que el ruido blanco dependiendo de la estructura de dependencia
(ver Problema 1.19).

La función de autocovarianzas teórica (1.11), se estima a través de la función de


autocovarianzas muestral, la cual se define a continuación.

Definición 1.17 La función de autocovarianzas muestrales está definida como

(1.33) ˆ ∑

con ˆ ˆ

La suma en (1.33) tiene rango restringido porque no esta disponible para


. El estimador en (1.33) se prefiere a aquel que se obtendría dividendo por
porque (1.33) es una función definida no negativa. La función autocovarianza,
, de un proceso estacionario es definida no negativa (ver Problema 1.25)
asegurando que las varianzas de combinaciones lineales de variables nunca serán
negativas. Y, porque nunca es negativa, el estimador de esta
varianza también deberia ser no negativo. El estimador en (1.34) garantiza este
resultado, pero no garantiza que exista si dividimos por ; esto se explora en el
Problema 1.25. Nótese que dividiendo por o en (1.33) resulta en un estimador
insesgado de .

Definición 1.18 La función de autocorrelación muestral esta definida, de manera


análoga a (1.14), como

ˆ
(1.34) ˆ ˆ

La función de autocorrelación muestral tiene distribución muestral que nos permite


evaluar si los datos provienen de una serie completamente aleatoria o si las
correlaciones son estadísticamente significativas en algunos rezagos.

Propiedad 1.1 Distribución de la ACF para muestras grandes

Bajo condiciones generales, si es un ruido blanco, entonces para grande, la ACF


muestral, ˆ , para , donde es un valor fijo pero arbitrario, se distribuye
aproximadamente normal con media cero y desviación estándar dada por

(1.35) ˆ

Basado en los resultado previos, tenemos un método crudo de evaluar o especificar si


los picos en ˆ son significativos determinando si los coeficientes observados están
fuera del intervalo ⁄√ (o mas o menos dos errores estándares); para una
sucesión ruido blanco, aproximadamente el 95% de los coeficientes muestrales
deberían estar dentro de los limites. Las aplicaciones de esta propiedad están en que
muchos procedimientos de modelaje estadístico dependen de la reducción de una
serie de tiempo a una serie de ruido blanco utilizando diferentes tipos de
transformaciones. Luego de que tales procedimientos son aplicados, se grafican los
ACF de los residuales que deberían estar en su mayoría dentro de los limites dados
anteriormente.
Definición 1.19 Los estimadores de la función de covarianza-cruzada, , en
(1.15) y la función de correlacion-cruzada, , en (1.16) esta dados,
respectivamente, por la función de covarianza-cruzada muestral

(1.36) ˆ ∑

donde ˆ ˆ determina la función para rezagos negativos, y la función


de correlación-cruzada muestral

ˆ
(1.37) ˆ
√ˆ ˆ

La función de correlación-cruzada muestral puede examinarse gráficamente, como


una función del rezago para buscar relaciones de adelanto o retardo en los datos
utilizando la propiedad mencionada en el Ejemplo 1.22 para la función de covarianza-
cruzada teórica. Debido a que ˆ , la importancia practica de los
coeficientes muestrales puede evaluarse comparando sus magnitudes con sus valores
máximo teóricos. Además, y son procesos lineales de la forma (1.29) e
independientes que tienen la siguiente propiedad.

Propiedad 1.2 Distribución de la función de correlación-cruzada muestral bajo


independencia

La distribución para muestras grandes de ˆ es normal con media cero y

(1.38) ˆ

si al menos uno de los procesos es ruido blanco independiente.

Ejemplo 1.39 Una Serie de Tiempo Simulada

Para dar un ejemplo del procedimiento para cálculo numérico de las funciones de
autocovarianza y covarianza-cruzada, considérese la serie de datos generada por el
lanzamiento de una moneda, sea cuando se obtiene cara y cuando se
obtiene sello. Se define como
(1.39)

(Insertar Tabla 1.1)

En la Tabla 1.1 se muestran realizaciones del proceso apropiado con y


. Los coeficientes de autocorrelación muestral para la serie pueden calcularse
utilizando (1.33) y (1.34) para . No será necesario calcular los para valores
negativos de debido a la simetria de la función de autocorrelación para procesos
estacionarios. Por ejemplo, para , el coeficiente de autocorrelación muestral se
calcula como

ˆ ∑

con

de manera que

La función de autocorrelación teórica puede obtenerse a partir del modelo (1.39)


utilizando el hecho de que la media de es cero y su varianza es uno. Se puede
demostrar que

con para (Problema 1.24). En la tabla 1.2 se comparan los


coeficientes de autocorrelación teóricos y muestrales para una realización cuando
y otra realización donde ; notese el incremento en la variabilidad en la
muestra de menor tamaño.
(Insertar Tabla 1.2)

Ejemplo 1.40 Función de autocorrelación (ACF) para la señal de reconocimiento


de voz

El cálculo de la función muestral ACF en el ejemplo anterior puede pensarse como un


emparejamiento de la serie de tiempo con unidades de adelanto, digamos con la
serie de tiempo original . La Figura 1.13 muestra la función muestral ACF para la
serie de reconocimiento de voz de la Figura 1.3. La serie original contiene una
sucesión de cortas señales repetidas. La ACF muestral nos confirma este
comportamiento, mostrando picos repetidos espaciados alrededor de 106-109
puntos. Las funciones de autocorrelacion de las señales cortas parecen, espaciadas en
los intervalos mencionados. La distancia entre las señales repetidas es conocida como
el periodo pitch y un parámetro de interés fundamental en los sistemas que codifican
y decodifican señales. Como se trata de una serie muestreada en 10000 puntos por
segundo, el periodo pitch parece estar entre .0106 y .0109 segundos.

Ejemplo 1.41 Análisis de Correlación de las series SOI y Recruiment


Las funciones de autocorrelación y correlación-cruzada muestrales son útiles para
analizar el comportamiento conjunto de dos series estacionarias cuyo
comportamiento podria estar relacionado de alguna manera no especificada. EN el
Ejemplo 1.5 (ver Figura 1.5), hemos considerado simultaneamente las lecturas
mensuales del SOI y el número de capturas de peces (Recruiment). La Figura 1.14
muestra las funciones de autocorrelación y correlación-cruzada (ACF y CCF) para esas
dos series. Las funciones ACF muestran periodicidades correspondientes a la
correlación de valores separados por 12 unidades. Las observaciones que están
separadas por 12 meses o más están fuertemente correlacionadas positivamente, esto
es, aquellas observaciones que se encuentran en los rezagos 24, 36, 48. Las
observaciones que están separadas por seis meses son negativamente
correlacionadas. El patrón de autocorrelaciones que se observa es similar a aquel que
produciría un componente senosoidal con periodo de 12 meses. La función de
correlación-cruzada muestral tiene una correlación significativa en
mostrandoq que las mediciones del SOI en el tiempo meses esta asociado con la
serie Recruiment en el tiempo . Podriamos decir que la serie SOI guia o precede a la
serie Recruiment por seis meses. Los signos negativos en las ACF llevan a la
conclusión de que las dos series se mueven en direcciones contrarias, es decir, un
incremento en el SOI lleva una reducción en el Recruiment y viceversa. De nuevo,
notese la periodicidad de 12 meses en la CCF. Las rectas horizontales en los gráficos
indican los valores ⁄√ , de manera que las autocorrelación serán significativas
alrededor del 2.5% del tiempo si la serie fuese ruido blanco.

También podría gustarte