P. 1
Analisis de Series de Tiempo

Analisis de Series de Tiempo

|Views: 2.021|Likes:

More info:

Published by: Meyer Ben-Schmuel van Ortiz on Nov 16, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

01/17/2013

pdf

text

original

Sections

  • Error cuadrático medio
  • MEDIAS MOVILES Y METODOS DE SUAVIZAMIENTO
  • Medias Móviles
  • Suavizamiento Exponencial Simple
  • Suavizamiento Exponencial de Brown
  • Suavizamiento Exponencial de Holt
  • Suavizamiento Exponencial de Winter
  • METODOS DE DESCOMPOSICIÓN
  • Método Aditivo
  • Ejemplo:
  • Eliminación de la Tendencia
  • Eliminación de la componente estacional
  • Predicción
  • Método Multiplicativo
  • MODELOS AUTORREGRESIVOS INTEGRADOS DE MEDIAS MOVILES (ARIMA)
  • Procesos Estocásticos y Series de Tiempo
  • Operadores
  • Operador de retraso
  • Operador de diferencia
  • Operador de retraso y polinomios
  • Filtros lineales
  • Procesos Estacionarios
  • Estimaciones de momentos
  • Ejemplo
  • Modelos Autorregresivos AR(p)
  • Modelo AR(1)
  • Modelo AR(2)
  • Modelo AR(p)
  • Modelo MA (1)
  • Invertibilidad
  • Modelo MA (2)
  • Modelo MA (q)
  • Modelo ARMA (p,q)
  • Modelo ARMA (1,1)
  • Identificación
  • Estacionarización
  • Estabilizacióin del nivel de la serie
  • Autocorrelaciones parciales
  • Diagnóstico

112

6 ANALISIS DE SERIES DE TIEMPO

Introducción.
Una particularidad del ser humano es la de ser conciente del tiempo. La sucesión
de eventos que se dan en su vida personal o en el ambiente que le rodea y la
forma como estos se relacionan le ha permitido desarrollar los conceptos de
presente, pasado y futuro, pero también otras sutilezas como el que hubiera
pasado ante la presencia o ausencia de un factor influyente. No sólo eso, sino que
lo que puede pasar en el futuro ante la presencia o ausencia de un factor. Explicar
el pasado y predecir el futuro es motivo de constante reflexión y estudio desde los
orígenes de la humanidad. Esta preocupación dio lugar al pensamiento mágico y
en las comunidades primitivas los sacerdotes o sacerdotisas ocupaban un papel
preponderante en la interpretación de eventos que asociaban a favor o en contra
del futuro de los gobernantes. Oráculos como el de la ciudad de Delfos en la
antigua Grecia tienen un importante papel en la historia. Hay que admitir que en la
actualidad los astrólogos y adivinos no han perdido su status y personas de todos
los niveles económicos y culturales recurren frecuentemente a las más diversas
formas de adivinación, desde las cartas del Tarot y los mapas astrales hasta los
residuos de café. La incertidumbre se asocia tanto a problemas muy íntimos como
a situaciones más mundanas. Es motivo de preocupación del hombre de la calle
tanto como de los equipos de estrategia y planeación de empresas y gobiernos.

La ciencia enfrenta a las formas subjetivas de predecir el futuro con técnicas
estadísticas unas muy sencillas y otras muy complejas. Algunas técnicas se
pueden ubicar en el plano descriptivo y otras en el plano inferencial al considerar
la presencia de una distribución de probabilidad. Todas desde luego pretenden
minimizar los errores en los pronósticos y todas se apoyan en algunos principios
fundamentales:

• Disponer de información acerca del pasado.

• La información debe ser cuantificable en alguna forma de datos asociados a
intervalos en el tiempo.

• Se supone que existe cierta inercia en los fenómenos estudiados que se
traduce en patrones que se repiten al menos parcialmente en el futuro.

Al analizar un grupo de datos referidos intervalos de tiempo en forma ordenada, lo
cual constituye una serie de tiempo, es posible identificar algunos elementos o
componentes en el patrón de una serie de tiempo:

• Tendencia
• Variaciones cíclicas
• Variaciones estacionales
• Variaciones irregulares o al azar.
113


Tendencia (T). Se asocia a la dirección general que presenta la gráfica de una
serie de tiempo. La tendencia puede manifestarse en forma de una recta o de una
función más compleja.

Variaciones cíclicas(C). Se refiere a las oscilaciones de larga duración,
usualmente años, alrededor de la tendencia. Los ciclos en economía se asocian a
períodos de prosperidad o de depresión. Usualmente requieren de muchas
observaciones para identificar su presencia.

Variaciones estacionales (E). Son oscilaciones de corta duración (meses,
semanas o días) que suelen presentar fenómenos como las ventas de artículos
deportivos o el consumo de energía eléctrica.

Variaciones irregulares o aleatorias (I). Son debidas a la presencia de factores
no cuantificados o desconocidos que influyen en el comportamiento del fenómeno.
Serie de Tiempo
99
100
101
102
103
104
105
106
0 10 20 30 40 50 60 70
Tiempo
V
a
l
o
r

Error cuadrático medio
Una forma de evaluar la bondad de ajuste del modelo es a través del error
cuadrático medio. Este se calcula como el promedio de los cuadrados de los
residuales.

( )
n
Y Y
t t ∑
=

=
n
1 t
2
ˆ
ECM

114
MEDIAS MOVILES Y METODOS DE SUAVIZAMIENTO

Medias Móviles.
Uno de los procedimientos más simples de pronóstico consiste en tomar el
promedio k períodos atrás y considerarlo como la mejor opción de pronóstico para
el siguiente período. Transcurrido un período se incorpora la última observación al
promedio y se desecha la última para calcular nuevamente la media. Si
particularmente k=1, entonces la última observación se considera el mejor
pronóstico para el subsiguiente.


k
Y Y Y
Y
k t t t
t
) 1 ( 1
1
.....
ˆ
− − −
+
+ + +
=

k
Y
Y
i t
K
i
t


=
+ ∑
=
1
0
1
ˆ


Una forma alternativa de cálculo, en función de la media móvil anterior consiste en
sumar la diferencia entre la más reciente observación y la última del cálculo
anterior dividida entre el número de períodos considerados en la media móvil.

k
Y
k
Y
Y Y
k t t
t t

+
− + =
ˆ ˆ
1

Si se calculan las medias móviles en forma consecutiva se observa un alisamiento
de la serie. Entre mayor sea el valor de k, mayor efecto de alisamiento. Esta
práctica se alisamiento o suavizamiento de series se usa con frecuencia a manera
de filtro de las variaciones aleatorias.

Las medias móviles simples otorgan el mismo peso a todas las observaciones
pasadas, pero también existe la posibilidad de otorgar una ponderación a las
observaciones de modo que tienen mayor peso las observaciones más recientes.
El problema para el investigador es la selección de los ponderadores.



=
− +
=
1
0
1
ˆ
K
i
i t i t
Y W Y
con 1
1
0
=


=
K
i
i
W

En el campo bursátil, el análisis técnico se orienta al estudio y predicción de las
acciones del mercado, tales como movimientos de precios y tendencias. Entre sus
principales herramientas se incluyen indicadores y diversos tipos de gráficas que
incorporan las medias móviles en diferentes formas. Las gráficas de medias
móviles son utilizadas para definir estrategias de mercado como las siguientes:

1.- Si la media móvil cruza al gráfico de precios de abajo a arriba es señal de
venta.

2.- Si la media móvil cruza al gráfico de precios de arriba a abajo es señal de
compra.
115

Una buena media móvil es la que actúa como soporte y resistencia del gráfico.
Cuanto mayor sea el número de contactos entre la media y el gráfico, mejor será
la media móvil elegida.

Considérese la serie de tiempo del Indice de Precios y Cotizaciones (IPC) de la
Bolsa Mexicana de Valores ( BMV) con el valor al cierre del día y las medias
móviles de 10 y 20 días del 3 de enero al 8 de diciembre de 2006.



(fuente: http//yahoo.finace.com/)

Suavizamiento Exponencial Simple.
Para comprender mejor como opera el suavizamiento exponencial simple,
partamos de la fórmula de medias móviles en una serie estacionaria.

k
Y
k
Y
Y Y
k t t
t t

+
− + =
ˆ ˆ
1


Ahora supóngase que por alguna razón
k t
Y

no está disponible y que en su lugar
se utiliza como aproximación
t
Y
ˆ
. Entonces la fórmula anterior quedaría
expresada:

k
Y
k
Y
Y Y
t t
t t
ˆ
ˆ ˆ
1
− + =
+

Si se factoriza el pronóstico al tiempo t, la siguiente fórmula equivalente permite
ver que el pronóstico al tiempo t+1 otorga un peso de 1/k y al pronóstico del
período anterior (1-(1/K)).

t t t
Y
k
Y
k
Y
ˆ
1
1
1
ˆ
1
|
.
|

\
|
− + =
+


116
Ahora supóngase que la más reciente observación recibe una ponderación α,
donde α está en el intervalo (0,1) y el pronóstico más reciente recibe una
ponderación (1- α). El resultado es la fórmula de suavizamiento exponencial
simple.

( )
t t t
Y Y Y
ˆ
1
ˆ
1
α α − + =
+


Si se sustituye en forma iterativa hacia atrás en esta fórmula se observa la forma
como participan las ponderaciones para las observaciones anteriores.

( ) ( ) ( )
1 1 1
ˆ
1 1
ˆ
− − +
− + − + =
t t t t
Y Y Y Y α α α α



( ) ( )
1
2
1
ˆ
1 1
− −
− + − + =
t t t
Y Y Y α α α α



( ) ( ) ( )
2 2
2
1
ˆ
) 1 ( 1 1
− − −
− + − + − + =
t t t t
Y Y Y Y α α α α α α



( ) ( )
2 2
2
1
ˆ
) 1 ( 1 1
− − −
− + − + − + =
t t t t
Y Y Y Y α α α α α α


La observación más reciente tiene una ponderación α y la anterior se reduce en
una proporción (1- α), para formar una sucesión de valores decrecientes. Otra
forma alternativa de expresar la fórmula de suavizamiento exponencial simple es
la siguiente:

)
ˆ
(
ˆ ˆ
1 t t t t
Y Y Y Y − + =
+
α


En esta fórmula se puede apreciar el coeficiente α otorga mayor o menor
importancia a la diferencia entre el pronóstico anterior y el valor observado. El
coeficiente tiene un efecto análogo, pero en sentido inverso a la inclusión de más
o menos observaciones en una media móvil. En la media móvil a medida que se
incluyen más observaciones se obtiene mayor suavizamiento. En el suavizamiento
exponencial simple, a menor valor del coeficiente α, corresponde mayor
suavizamiento. En este sentido Makridakis plantea que un valor de α=2/(k+1) es la
mejor aproximación para hacer equivalente el suavizamiento exponencial simple a
un procedimiento de medias móviles.

117



Suavizamiento Exponencial de Brown.

El suavizamiento exponencial simple adolece del problema de subestimar
sensiblemente la serie si ésta presenta una tendencia creciente. El método de
Brown utiliza un doble suavizamiento exponencial con el objeto de incorporar la
presencia de la tendencia. La diferencia entre las dos series suavizadas es
ponderada por dos coeficientes identificados como a
t
y b
t
. La predicción adopta la
forma de una recta con a
t
como ordenada al origen y b
t
como la pendiente
aplicada al número del período que se pretende pronosticar.

'
1
'
) 1 (

− + =
t t t
S Y S α α Suavizamiento exponencial simple

' '
1
' ' '
) 1 (

− + =
t t t
S S S α α Doble suavizamiento exponencial simple

' ' '
2
t t t
S S a − = Ordenada al origen del pronóstico

) (
1
' ' '
t t t
S S b −

=
α
α
Pendiente del pronóstico

m b a Y
t t t
− =
ˆ
Pronóstico m períodos adelante

A continuación se presentan los cálculos para la serie utilizada en el
suavizamiento exponencial simple. En este caso se aplicó el parámetro Alfa =
118
0.20. Como valores iniciales para el suavizamiento simple y el doble se tomó la
primera observación de la serie.

Alfa = 0.2
Período t Y
t
S'
t
S''
t
a
t
b
t
a
(t-1)
+b
(t-1)
Yt Yt estimada
1 101.068 101.068 101.068
2 101.096 101.074 101.069 101.078 0.00112
3 101.184 101.096 101.074 101.117 0.00529 101.079
4 102.143 101.305 101.121 101.490 0.04613 101.122
5 100.664 101.177 101.132 101.222 0.01125 101.536
6 99.827 100.907 101.087 100.727 -0.04498 101.233
7 99.390 100.604 100.990 100.217 -0.09665 100.682
8 98.809 100.245 100.841 99.648 -0.14909 100.120
9 98.776 99.951 100.663 99.239 -0.17803 99.499
10 98.244 99.610 100.452 98.767 -0.21071 99.061
11 98.837 99.455 100.253 98.657 -0.19947 98.556
12 99.041 99.372 100.077 98.668 -0.17615 98.458


A continuación se presenta la gráfica de la serie completa, así como de los
pronósticos.





119
Suavizamiento Exponencial de Holt .
Es un procedimiento usual en los medios de análisis financieros, es similar al de
Brown, excepto que no aplica la fórmula de doble suavizamiento, sino un
suavizamiento simple con el parámetro α y la tendencia se suaviza a partir de un
parámetro adicional β. Ambos parámetros se asignan en forma externa sin
depender de los datos de la serie, con lo cual se tiene mayor flexibilidad en el
modelo. Para el cálculo utiliza tres ecuaciones:










Donde

t
Y
Es el valor de la serie original al tiempo t
t
L
Es el valor suavizado de la serie.
α
Es el parámetro de suavizamiento de la serie.
t
T
Es la componente de tendencia suavizada.
β
Es el parámetro de suavizamiento de la tendencia.
p Es el período de pronóstico.

Considérese como ejemplo de aplicación la siguiente serie que presenta un
comportamiento estacional que parece repetirse cada 10 períodos y una clara
tendencia al alza.

1 92.2 13 99.9 25 113.6 37 110.5 49 110.6
2 93.1 14 109.1 26 109.8 38 109.2 50 107.3
3 98.7 15 111.5 27 112.1 39 106.4 51 111.9
4 98.9 16 108.5 28 108.3 40 106.1 52 118.7
5 105.5 17 107.8 29 103.3 41 110.2 53 118.7
6 101.1 18 104.3 30 106.5 42 112.5 54 117.7
7 107.1 19 102.2 31 100.3 43 118.1
8 106.9 20 101.1 32 106.5 44 116.5
9 105.0 21 100.3 33 113.6 45 119.1
10 96.3 22 105.0 34 118.5 46 115.6
11 100.8 23 108.3 35 111.5 47 115.8
12 101.5 24 115.1 36 114.5 48 111.2



) )( 1 (
1 1 − −
+ − + =
t t t t
T L Y L α α
1 1
) 1 ( ) (
− −
− + − =
t t t t
T L L T β β
t t p t
pT L Y + =
+
ˆ
120


Para el arranque del procedimiento se asigna el valor de la primera observación a
L
1
= 92.2 como consecuencia Y
1
estimada coincide con la observación. Un
aspecto importante es la selección de los valores de los parámetros de
suavizamiento. En este caso los valores utilizados son α = 0.7 y β = 0.2. Para las
observaciones subsiguientes se aplican las fórmulas iterativas referidas
anteriormente. A continuación se reproducen los cálculos asociados a las primeras
10 observaciones.

Período t Yt Lt Tt Y t est e2 Residual
1 92.2 92.2000 0.0000 92.2 0.00000
2 93.1 92.8300 0.1260 93.0 0.02074
3 98.7 96.9768 0.9302 97.9 0.62891
4 98.9 98.6021 1.0692 99.7 0.59486
5 105.5 103.7514 1.8852 105.6 0.01866
6 101.1 102.4610 1.2501 103.7 6.81764
7 107.1 106.0833 1.7245 107.8 0.50106
8 106.9 107.1724 1.5974 108.8 3.49613
9 105.0 106.1309 1.0697 107.2 4.84266
10 96.3 99.5702 -0.4564 99.1 7.91726


El error cuadrático medio alcanza el valor 1.8777 y el grado de ajuste se puede
observar en la siguiente gráfica. Para fines de pronóstico en nuestra experiencia
funciona mejor una ligera modificación de la fórmula de Holt al desplazar la
componente de tendencia pues así se preserva cierto efecto de la estacionalidad.


p S t t p t
pT L Y
+ − +
+ =
ˆ
121
Suavizamiento Exponencial de Holt
80
90
100
110
120
130
1 11 21 31 41 51 61
Período


Suavizamiento Exponencial de Winter .
El procedimiento de suavizamiento de Holt fue refinado por Winter con la inclusión
de un parámetro adicional para la estacionalidad. Su procedimiento incluye 3
parámetros se suavizamiento α, β, γ para la serie, la tendencia y la estacionalidad.
Para el cálculo se emplean cuatro ecuaciones que reflejan los suavizamientos y el
pronóstico.












En este caso también se plantea una ligera modificación al desplazar la
componente de tendencia.




Al aplicar el procedimiento a la serie anterior con valores α = 0.75, β=0.20 , γ=0.75
se obtienen los siguientes resultados para las primeras 10 observaciones.

) )( 1 (
1 1 − −

+ − + =
t t
s t
t
t
T L
S
Y
L α α
1 1
) 1 ( ) (
− −
− + − =
t t t t
T L L T β β
s t
t
t
t
S
L
Y
S

− + = ) 1 ( γ γ
( )
p s t t t p t
S pT L Y
+ − +
+ =
ˆ
( )
p s t p s t t p t
S pT L Y
+ − + − +
+ =
ˆ
122
Período t Yt Lt Tt St Y t est e2 Residual
1 92.2 100.59167 0.68357 0.91658 92.8 0.39255
2 93.1 101.49899 0.72832 0.91708 93.7 0.35904
3 98.7 106.27479 1.53781 0.92581 98.9 0.02993
4 98.9 107.07185 1.38966 0.92421 100.4 2.29574
5 105.5 112.72880 2.24312 0.93296 106.3 0.57531
6 101.1 110.01665 1.25207 0.92245 103.8 7.33948
7 107.1 114.89473 1.97727 0.92973 107.8 0.50268
8 106.9 115.45256 1.69338 0.92687 108.9 4.05736
9 105.0 114.24949 1.11409 0.92100 106.9 3.71527
10 96.3 107.26114 -0.50640 0.90361 98.3 4.08467


La suma de cuadrados de los residuales alcanza 1.3258. En la siguiente gráfica
se muestra el ajuste y los pronósticos para los siguientes 10 períodos.

Suavizamiento Exponencial de Winter
80
90
100
110
120
130
1 6 11 16 21 26 31 36 41 46 51 56 61 66
Período


METODOS DE DESCOMPOSICIÓN

Método Aditivo
En el método aditivo se considera que los componentes de la serie se tiempo Y,
tendencia, cíclico, estacional y aleatorio suman sus efectos. Lo que se pretende
entonces es aislar los efectos bajo el supuesto de aditividad.

Y = T+C+E+I


123
El método consiste en identificar cada componente y restarla de la serie original.
Se empieza con la tendencia, se sigue con el componente estacional y se
concluye con el componente cíclico. El resto corresponde a la componente
aleatoria.

Ejemplo:
Considere la siguiente serie de tiempo correspondiente a 8 años de observaciones
mensuales de 1990 a 1997.

Mes 1990 1991 1992 1993 1994 1995 1996 1997
Ene 169 351 457 277 212 410 502 342
Feb 127 310 403 216 167 363 448 264
Mar 235 434 519 292 295 478 554 336
Abr 314 517 579 357 380 561 634 395
May 343 523 571 349 391 565 629 387
Jun 345 535 563 327 406 575 609 390
Jul 377 549 550 335 422 596 601 378
Ago 346 510 485 290 404 561 549 330
Sep 348 503 448 262 400 538 496 316
Oct 442 574 493 331 475 613 546 374
Nov 440 567 447 315 486 626 494 372
Dic 674 777 646 544 721 831 690 578


La gráfica de la serie de tiempo presenta evidencia de cierta tendencia
ascendente, un efecto estacional mensual que repite el patrón anualmente y ciclos
largos de 4 años de duración.
Serie de Tiempo Original
0
100
200
300
400
500
600
700
800
900
E
n
e
-
9
0
M
a
y
-
9
0
S
e
p
-
9
0
E
n
e
-
9
1
M
a
y
-
9
1
S
e
p
-
9
1
E
n
e
-
9
2
M
a
y
-
9
2
S
e
p
-
9
2
E
n
e
-
9
3
M
a
y
-
9
3
S
e
p
-
9
3
E
n
e
-
9
4
M
a
y
-
9
4
S
e
p
-
9
4
E
n
e
-
9
5
M
a
y
-
9
5
S
e
p
-
9
5
E
n
e
-
9
6
M
a
y
-
9
6
S
e
p
-
9
6
E
n
e
-
9
7
M
a
y
-
9
7
S
e
p
-
9
7


Eliminación de la Tendencia.
Se procede a ajustar un modelo de regresión simple a toda la serie de datos,
considerando como variable independiente el período. Por comodidad a enero de
1990 se le asigna el t=1 y se concluye con t=96 para diciembre de 1997. El
modelo ajustado es el siguiente:

124
t Y
t
957528 . 0 101535 . 403
ˆ
+ =

Tendencia
0
50
100
150
200
250
300
350
400
450
500
550
0 10 20 30 40 50 60 70 80 90 100 110
Período t


Se estima Yt para las 96 observaciones y a la serie original se le resta la serie
estimada por el modelo:

Una vez restada la componente de tendencia, la gráfica de la serie de diferencias
permite apreciar un ligero efecto estabilizador en la serie, si se la comprara con la
serie original.

Serie Restada la Tendencia
-450
-350
-250
-150
-50
50
150
250
350
450
- 10 20 30 40 50 60 70 80 90 100
Período t


Eliminación de la componente estacional.
Como se observa un patrón estacional mensual, se parte de la serie de diferencias
y se calcula el promedio de las observaciones correspondientes a cada mes.
Estos promedios se restan de la serie original en los meses respectivos.

125
Mes Promedio
Ene -104.275
Feb -157.983
Mar -53.315
Abr 19.977
May 21.645
Jun 19.687
Jul 25.980
Ago -16.603
Sep -38.060
Oct 28.107
Nov 14.524
Dic 227.817



El efecto resultante de restar los promedios mensuales es una serie que presenta
solamente por la componente cíclica y por la componente aleatoria. Ello se
observa en la siguiente gráfica:

Serie con Componente Cíclica y Aleatoria
-200
-150
-100
-50
0
50
100
150
200
- 10 20 30 40 50 60 70 80 90 100
Período t

En la gráfica se puede observar que los ciclos cubren 48 períodos. Entonces se
procede a calcular el promedio de las observaciones separadas en esa magnitud.
Así la 1ª observación se promedia con la 49ª y se procede en forma sucesiva. Se
procede entonces con el mismo procedimiento aplicado a la componente
estaciona, esto es, se restan los promedios calculados período a período. La
diferencia resultante corresponde únicamente a la parte aleatoria.





Componente Estacional Mensual
-200
-150
-100
-50
0
50
100
150
200
250
- 10 20 30 40 50 60 70 80 90 100
Período t
126
Serie de Componente Aleatoria
-15
-10
-5
0
5
10
15
- 10 20 30 40 50 60 70 80 90 100
Período t

Como resultado final cada valor de la serie se puede expresar como la suma de
sus cuatro componentes. En la siguiente tabla se reproduce la descomposición de
los primeros doce meses de la serie.

Período t Mes Valor Tendencia Estacional Cíclico Residual
1 Ene-90 169.0 404.059 -104.275 -132.264 1.481
2 Feb-90 127.0 405.017 -157.983 -123.014 2.981
3 Mar-90 235.0 405.974 -53.315 -110.639 -7.019
4 Abr-90 314.0 406.932 19.977 -102.889 -10.019
5 May-90 343.0 407.889 21.645 -85.514 -1.019
6 Jun-90 345.0 408.847 19.687 -76.014 -7.519
7 Jul-90 377.0 409.804 25.980 -59.264 0.481
8 Ago-90 346.0 410.762 -16.603 -42.139 -6.019
9 Sep-90 348.0 411.719 -25.560 -35.139 -3.019
10 Oct-90 442.0 412.677 28.107 -5.264 6.481
11 Nov-90 440.0 413.634 14.524 11.861 -0.019
12 Dic-90 674.0 414.592 227.817 32.111 -0.519



En el ejemplo el error cuadrático medio es igual a 20.110. Su raíz cuadrada se
considera como el error estándar de la estimación y en este caso es 4.484. Un
valor muy pequeño si se considera que el valor promedio de la serie es de 448,
representa un error relativo de 1%.

Predicción.
Se procede en forma inversa, esto es primero se toma la tendencia estimada para
el período observado y para los períodos adicionales que se pretende pronosticar.
A los valores estimados por la tendencia se les suma en forma congruente la
componenete estacional y la componente cíclica. En la siguiente gráfica se
presentan los valores observados y pronosticados para las 96 observaciones
originales, más 24 correspondientes a 2 años de pronóstico. En la estimación de
127
los meses observados no se considera la componente residual con objeto de ver
como se ajusta la serie al considerar los componentes sistemáticos, esto es
tendencia, estacional y cíclico y poder calcular el ECM.
Serie Original y Serie Pronosticada
0
100
200
300
400
500
600
700
800
900
1000
- 10 20 30 40 50 60 70 80 90 100 110 120 130
Período t
VALOR
ESTIMADO


Método Multiplicativo
En el método multiplicativo se considera que los componentes de la serie se
tiempo Y, tendencia, cíclico, estacional y aleatorio multiplican sus efectos. El
procedimiento de cálculo es similar al utilizado para el método aditivo, excepto que
en lugar de restar en forma sucesiva, la serie se divide secuencialmente entre
cada componente.

Y = T*C*E*I















128
MODELOS AUTORREGRESIVOS INTEGRADOS DE MEDIAS MOVILES
(ARIMA)

En 1970 George E.P. Box y Gwilym M. Jenkins publican su ahora famoso libro
“Time Series análisis forecasting and control” en donde presentan una
metodología para identificar, estimar y diagnosticar modelos dinámicos de series
temporales con la idea de que las estructuras subyacentes conduzcan al
investigador a construir un modelo en el que la variable exógena está constituida
por valores retrasados de la misma variable. Se argumenta como ventaja el que el
investigador se ahorra el esfuerzo de especificación de variables y relaciones
adicionales, pero por otra parte se renuncia a la presencia de otras variables
relacionadas con el fenómeno que se estudia y la riqueza interpretativa que la
acompaña.

Procesos Estocásticos y Series de Tiempo
Un proceso estocástico es sucesión ordenada de variables aleatorias Zt asociadas
a un conjunto índice de números reales. { } T ε t ;
t
Z . Si T es un conjunto finito o
infinito pero numerable se doce que el proceso es discreto.

Una serie de tiempo se concibe como una sucesión de observaciones generadas
por un proceso estocástico cuyo conjunto índice es el tiempo. Entonces Z
1,
Z
2
Z
3….

Z
n
denota valores sucesivos de la serie a intervalos equidistantes. El proceso
estocástico quedará plenamente caracterizado si se exhibe la función de densidad
conjunta ) ,....., , (
2 1 n
Z Z Z f .

Una clase importante de modelos estocásticos para describir series de tiempo son
los llamados modelos estacionarios, los cuales suponen que el proceso
permanece en equilibrio en torno a una media constante. Más adelante se
analizará su definición formal. Sin embargo, la mayoría de las series de interés
económico se representan mejor por modelos no estacionarios, ello motivó los
métodos de suavizamiento exponencial revisados en la sección anterior de Brown,
Holt y Winter entre otros.

Box y Jenkins mencionan que los modelos de suavizamiento exponencial óptimos
corresponden a los llamados modelos autorregresivos integrados y de medias
móviles (ARiMA) que se revisarán con mayor detalle.

Operadores

Operador de retraso
Se identifica por la letra B y se define como el valor retrasado de la serie indicado
por el exponente del operador:

k t t
k
Z Z B

=
para k =1,2,…..

129
En particular

t t
Z Z B =
0


El operador se puede aplicar en forma sucesiva

k t t
k
t
k
Z Z B B Z B


= = ) (
1


Operador de diferencia
Se identifica por la letra delta invertida y se define como el la diferencia entre el
valor correspondiente al período t y valor retrasado k períodos.

1 −
− =
t t t
Z Z Z

Ambos operadores, el de diferencia y el de retraso se relacionan de la siguiente
forma:

t t t t t t
Z B BZ Z Z Z Z ) 1 (
1
− = − = − =



= ) 1 ( B −

Al aplicar el operador diferencia en forma sucesiva se tiene:

k k
B) 1 ( − =

k t
k
k
j
t
k
Z
k k
k
Z

=


=

) 1 (
)! 1 ( !
!
0


Ejemplo:
La siguiente serie de tiempo corresponde a consumo de energía eléctrica en USA
durante el período enero de 1951 a diciembre de 1958. En la gráfica se presenta
la serie original y las series generadas por los operadores Diferencia y Hacia Atrás
aplicados para k=1.

130
Mes 1951 1952 1953 1954 1955 1956 1957 1958
Ene 318 342 367 392 420 453 487 529
Feb 281 309 328 349 378 412 440 477
Mar 278 299 320 342 370 398 429 463
Abr 250 268 287 311 334 362 393 423
May 231 249 269 290 314 341 370 398
Jun 216 236 251 273 296 322 347 380
Jul 223 242 259 282 305 335 357 389
Ago 245 262 284 305 330 359 388 419
Sep 269 288 309 328 356 392 415 448
Oct 302 321 345 364 396 427 457 493
Nov 325 342 367 389 422 454 491 526
Dic 347 364 394 417 452 483 516 560


Como se puede ver en la gráfica, la tendencia creciente de la serie original se
elimina en la serie de primera diferencia.


Serie de consumo de energía eléctrica USA
Serie original y operadores Hacia Atrás y Diferencia
-100
0
100
200
300
400
500
600
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96
Período t
Zt
BZt
∆Zt


Operador de retraso y polinomios.

Una combinación lineal de la forma:


=
− − − −
− = − − − −
k
j
j t j t k t k t t t
Z g Z Z g Z g Z g Z
1
2 2 1 1
........

Donde Zt es el valor de la serie en el período t y gt es un ponderador para el valor
del mismo período. La serie se puede considerar como un polinomio de retraso:

131

=
− = − − − − =
k
j
t
j
j t t
k
k t t t t
Z B g Z Z B g Z B g BZ g Z Z B G
1
2
2 1
........ ) (

De donde

=
− = − − − − =
k
j
j
j
k
k
B g B g B g B g B G
1
2
2 1
1 ........ 1 ) (

Un ejemplo de polinomio de retraso es la serie geométrica:

....... 1 ) (
3 3
3
2 2
2 1
+ + + + = B g B g B g B G con IgI<1

En forma alternativa

gB
B G

=
1
1
) ( con IgI<1

La representación de un modelo para una serie de tiempo mediante polinomios de
retraso proporciona una forma resumida del modelo. Así un modelo de medias
móviles puro MA(k), el cual se detallará más adelante, se puede representar de la
siguiente forma:

( )
t
k
k t
a B B B Z θ θ θ µ − − − − = − ...... 1
2
2 1


En donde µ representa la media de la serie, θj un conjunto de parámetros del
modelo y { }
t
a un sucesión de variables aleatorias. En notación de polinomio de
retraso, el modelo se puede representar entonces:

( )
t t
a B Z θ µ = −

De manera análoga un modelo autorregresivo puro de orden k AR(k) se define
como sigue, en donde
t
φ representa los parámetros autorregresivos.

t t
k
k
a Z B B B = − − − − − ) )( ........ 1 (
2
2 1
µ φ φ φ

En notación de polinomio de retraso queda

t t
a Z B = − ) )( ( µ φ

Desde luego se pueden plantear modelos que combinen parámetros
autorregresivos y de medias móviles (ARMA):

t t
a B Z B ) ( ) )( ( θ µ φ = −

132
Es factible incorporar operadores de retraso y de diferencia que constituyen los
llamados modelos integrados autorregresivos y de medias móviles (ARIMA):

) (B φ
t t
d
a B Z ) ( θ =

Filtros lineales.
Los modelos que se emplearán se basan en la idea propuesta por Yule (1924) de
que una serie de tiempo se expresa como una sucesión de valores altamente
dependientes y que se consideran generados por una serie de choques
independientes at. Estos choques son variables aleatorias de una distribución que
usualmente se supone normal con media cero y varianza σ2 . La secuencia de
valores at,at-1,at-2,….. es llamada ruido blanco por alusión al campo de las
comunicaciones electrónicas.

El proceso de ruido blanco at es transformado al proceso Zt por un filtro lineal.


El filtro lineal consiste en una suma ponderada de los valores del ruido blanco.

..........
2 2 1 1
+ + + + =
− − t t t t
a a a Z ψ ψ µ

( )
t
a B ψ µ + =

El operador lineal o polinomio que transforma la sucesión de ruido blanco en la
serie de tiempo se conoce también como función de transferencia.

( ) .......... 1
2
2 1
+ + + = B B B ψ ψ ψ

La sucesión ,..... ,
2 1
ψ ψ formada por los ponderadores, teóricamente puede ser
finita o infinita. Si la sucesión es finita o infinita y convergente, se dice que el filtro
es estable y el proceso resultante es estacionario y varía en torno a la media. De
otra forma se dice que el proceso es no estacionario y la media es solamente un
punto de referencia de la serie.

Procesos Estacionarios.
Un proceso estocástico se caracteriza completamente si se exhibe la función de
distribución conjunta de todas las variables aleatorias que lo constituyen. En la
133
práctica es difícil que esto se pueda tener. Se recurre entonces a los momentos de
primero y segundo orden (medias, varianzas y covarianzas).

( )
t t
Z E µ =

En otros términos se tiene la esperanza de la suma ponderada, pero si la serie es
infinita, no es tan simple como distribuir el operador esperanza.

( ) .....
2 2 1 1
+ + + + =
− − t t t t
a a a E ψ ψ µ µ

A menos que la suma de ponderadores converja.
<∝ +


=
i
i
ψ
1
1

Entonces la media de la serie no depende del tiempo

( ) µ =
t
Z E

La serie eventualmente se puede alejar del valor medio, pero siempre volverá. En
la siguiente gráfica se observan des realizaciones del mismo proceso estacionario,
cuya media es cero.
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1

La varianza del proceso se obtiene a partir de la definición

( )
2
0
µ γ − =
t
Z E

( )
2
2 2 1 1
..... + + + =
− − t t t
a a a E ψ ψ

( ) .......) 2 .... 2 2 ( .....
2 2 1 1 2 2 1 1
2
2
2
2
1
2
1
2 2
+ + + + − + + + =
− − − −
− −
t t t t t t
t t t a a a a a a E a a a E ψ ψ ψ ψ ψ ψ
134
por independencia y considerando que las a
t
tienen la misma varianza.



=
=
1
2 2
j
j
ψ σ adopta un valor real si


=
<∝
1
2
j
j
ψ
La varianza no depende del tiempo.

La covarianza se define

( )( ) [ ] µ µ γ − − =
+k t t k
Z Z E

( )( ) [ ] ..... .....
2 2 1 1 2 2 1 1
+ + + + + + =
− + − + + − − k t k t k t t t t
a a a a a a E ψ ψ ψ ψ

( ) .....
2 2 1 1
2
+ + + − =
+ + k k k
ψ ψ ψ ψ ψ σ

k
j
k i i
ψ ψ ψ σ − =


=
+
1
2
también se debe cumplir la condición de convergencia.

Se observa que la covarianza tampoco depende del tiempo.

Cuando los momentos de primero y segundo orden de un proceso no dependen
del tiempo se les designa como estacionarios de segundo orden.

Un proceso se define estrictamente estacionario si la función de densidad para
un conjunto arbitrario de variables
n t t t t
Z Z Z Z
+ + +
,........ , ,
2 1
no cambia respecto a
desplazamientos en el tiempo.

) ,........ , , ( ) ,........ , , (
2 1 2 1 m n t m t m t m t n t t t t
Z Z Z Z f Z Z Z Z f
+ + + + + + + + + +
+ =

Si un proceso es estrictamente estacionario cumple la estacionariedad de segundo
orden y en consecuencia

Media ( ) ( ) µ = =
+k t t
Z E Z E

Varianza ( ) ( )
2
σ = =
+k t t
Z V Z V

Autocovarianza ( )( ) ( )( )
k k m t m t k t t
Z Z Z Z E γ µ µ µ µ = − − = − −
+ + + +


En el supuesto de normalidad basta conocer los momentos de primero y segundo
orden para considerar que una serie está completamente determinada. Para evitar
la influencia de las unidades, en lugar de las autocovarianzas se consideran los
coeficientes de autocorrelación.


135
( )( )
( )
0
2
γ
γ
µ
µ µ
ρ
k
t
k t t
k
Z E
Z Z E
=

− −
=
+
para k=0,1,2,……

La serie de coeficientes de autocorrelación forma la función de autocorrelación.

Estimaciones de momentos.
En la práctica estos valores parametrales se desconcen y solamente se cuenta
con una realización que se supone suficientemente larga a partir de la cual se
calculan estimaciones de media, varianza y función de autocorrelación. Si se
considera que el proceso que generó la serie es ergódica en el segundo momento,
esto es que es estacionario y que las autocovarianzas se anulan al incrementar la
distancia, entonces basta calcular una serie relativamente corta de coeficientes de
autocorrelación para tener caracterizado el proceso. Algunos autores recomiendan
a lo más n/4 donde n es el tamaño de la serie.

Estimación de la media


=
=
n
t
t
Z
n
Z
1
1
~


Estimación de las autocovarianzas

( )( )


=
+
− − =
k n
t
k t t k
Z Z Z Z
n
C
1
~ ~
1
k=0,1,2,3……….

Estimación de los coeficientes de autocorrelación.

( )( )
( )


=

=
+

− −
= =
n
t
t
k n
t
k t t
k
k
Z Z
Z Z Z Z
C
C
r
1
2
1
0
~
~ ~


Ejemplo
Considérese la serie de tasas de inflación anualizadas y referidas mensualmente
para el período enero de 2000 a noviembre de 2006 calculadas a partir de datos
proporcionados por Banxico. En la siguiente página se presenta la serie, las
estimaciones de los momentos, así como el los coeficientes de autocorrelación y
gráficos.

Observe que las autocorrelaciones muestran una lenta caída característica de las
series no estacionarias, que de hecho son las más frecuentes en la práctica.
136
Mes 2000 2001 2002 2003 2004 2005 2006
Ene 11.0% 8.1% 4.8% 5.2% 4.2% 4.5% 3.9%
Feb 10.5% 7.1% 4.8% 5.5% 4.5% 4.3% 3.7%
Mar 10.1% 7.2% 4.7% 5.6% 4.2% 4.4% 3.4%
Abr 9.7% 7.1% 4.7% 5.2% 4.2% 4.6% 3.2%
May 9.5% 7.0% 4.7% 4.7% 4.3% 4.6% 3.0%
Jun 9.4% 6.6% 4.9% 4.3% 4.4% 4.3% 3.2%
Jul 9.1% 5.9% 5.5% 4.1% 4.5% 4.5% 3.1%
Ago 9.1% 5.9% 5.3% 4.0% 4.8% 3.9% 3.5%
Sep 8.8% 6.1% 4.9% 4.0% 5.1% 3.5% 4.1%
Oct 8.9% 5.9% 4.9% 4.0% 5.4% 3.1% 4.3%
Nov 8.9% 5.4% 5.4% 4.0% 5.4% 2.9% 4.1%
Dic 9.0% 4.4% 5.7% 4.0% 5.2% 3.3%


Tasa de Inflación Anualizada Mesual
Enero 200 a Noviembre 2006
0.0%
2.0%
4.0%
6.0%
8.0%
10.0%
12.0%
24/07/1998 06/12/1999 19/04/2001 01/09/2002 14/01/2004 28/05/2005 10/10/2006 22/02/2008


Media aritmética de la serie 5.4%
Autocovarianzas y coeficientes de autocorrelación de los primeros 12 órdenes.













Co 0.00039225
C
1 0.00036595 r
1
0.932946
C
2 0.00034355 r
2
0.875833
C
3 0.00032402 r
3
0.826041
C
4 0.00030686 r
4
0.782309
C
5 0.00028986 r
5
0.738968
C
6 0.00027061 r
6
0.689893
C
7 0.00025268 r
7
0.644180
C
8 0.00023519 r
8
0.599598
C
9 0.00021751 r
9
0.554511
C
10 0.00019578 r
10
0.499116
C
11 0.00017085 r
11
0.435573
C
12 0.0001452 r
12
0.370170
Función de Autocorrelación Muestral
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
1 2 3 4 5 6 7 8 9 10 11 12
Coeficiente de autocorrelación
137
La falta de estacionariedad de la serie no es un problema muy serio, pues en
general las series presentan una tendencia polinomial adaptativa que es factible
de eliminar mediante la aplicación del operador de diferencias .

Por ejemplo considere un proceso definido por
t t
a t Z + + = 3 . 0 5 con a
t
distribuida
normalmente con media cero y varianza 1.

Serie con tendencia lineal
0.0
5.0
10.0
15.0
20.0
25.0
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49


Si a la serie anterior se le aplica la primera diferencia Zt quedará una serie
estacionaria en cuanto a su nivel.

Zt= ( ) ( )
1 1 1
3 . 0 ) 1 ( 3 . 0 5 3 . 0 5
− − −
− + = + − + − + + = −
t t t t t t
a a a t a t Z Z

Serie de primeras diferencias
-5.0
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
5.0


138
De manera análoga la aplicación sucesiva de diferencias eliminará la tendencia
cuadrática, cúbica, etc. Hay que tener cuidado de no sobrediferenciar una serie,
pues al diferenciar una serie estacionaria se incrementa la varianza de la serie y
en cada paso de diferenciación se pierde una observación.

Modelos Autorregresivos AR(p)
Considérese un modelo en el cual la variable dependiente depende de p valores
retrasados de la misma variable en la siguiente forma:

t p t p t t t
a Z Z Z Z + + + + =
− − −
~
.......
~ ~ ~
2 2 1 1
φ φ φ

Expresado en forma equivalente en términos del operador de retraso.

( )
t t
p
p
a Z B B B = − − − −
~
..... 1
2
2 1
φ φ φ

t t
a Z B =
~
) ( φ
Modelo AR(1)
Se revisará inicialmente el modelo más sencillo AR(1):

t t t
a Z Z + =
−1 1
~ ~
φ

( )
t t
a Z B = −
~
1
1
φ

Para que la serie generada por este modelo sea estacionaria, se requiere que la
raíz de la siguiente ecuación se ubique dentro del círculo unitario.

0 1 = − x φ
Por tanto debe cumplir 1
1
< φ y en forma alternativa se tiene la siguiente
expresión cuyos términos convergen a cero.

( ) .......... 1
~
2
2
1 1 1
1
1
+ + + = − =
− −

t t t t t
a a a a B Z φ φ φ

Entonces el valor esperado y la varianza de la serie es:

( ) ( ) 0 .......... ) ( ) ( ) ( ..........
~
2
2
1 1 1 2
2
1 1 1
= + + + = + + + =
− − − − t t t t t t t
a E a E a E a a a E Z E φ φ φ φ


( ) ( ) .......... ) ( ) ( ) (
~
2
4
1 1
2
1
+ + + =
− − t t t t
a V a V a V Z V φ φ

( )
) 1 (
.......... 1
2
1
2
4
1
2
1
2
φ
σ
γ φ φ σ

= = + + + =
o


139
De manera análoga las autocovarianzas se expresan
1 1
2
1
1
2
) 1 (

=

=
k
k
k
γ φ
φ
φ σ
γ
para k=1,2,3………..

Puesto que
k k −
= γ γ se sigue:

) 1 (
2
1
1
2
φ
φ σ
γ

=
k
k
paa k = 0,±1. ±2, ±3…….

Las autocorrelaciones quedan entonces definidas como sigue:

k
k
o
k
k 1
2
1
2
2
1
1
2
) 1 (
/
) 1 (
φ
φ
σ
φ
φ σ
γ
γ
ρ =
|
|
.
|

\
|
− −
= =


Se nota que las autocorrelaciones tenderán a cero conforme k se incrementa y
que una estimación del parámetro
1
φ se obtiene mediante el coeficiente de
autocorrelacion de primer orden.

Ejemplo
Se tiene una realización de 156 observaciones generadas por Montecarlo de un
modelo AR(1) que tiene los siguientes parámetros y cuyo error se distribuye
normal con media 0 y varianza 0.7. Se han calculado las autocorrelaciones
teóricas y empíricas. Obsérvese la lenta caída de las autocorrelaciones.

= 0.8
= 0
= 0.7
µ
2
σ
φ
















Modelor Autorregresivo de Primer Orden AR(1)
-3.00
-2.00
-1.00
0.00
1.00
2.00
3.00
4.00
5.00
6.00
Empírica Teórica
1 0.8429854 0.80000
2 0.6935108 0.64000
3 0.5665632 0.51200
4 0.4398562 0.40960
5 0.3472216 0.32768
6 0.2575783 0.26214
Autocorrelaciones
-1.00
-0.90
-0.80
-0.70
-0.60
-0.50
-0.40
-0.30
-0.20
-0.10
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
1 2 3 4 5 6
140
Ahora se cambia únicamente el parámetro
1
φ = -0.8 . Se observa el
comportamiento muy cortado de la serie y la caída alternada de las
autocorrelaciones.


Modelo AR(2)
De manera natural se sigue con el análisis del modelo AR(2).

t t t t
a Z Z Z + + =
− − 2 2 1 1
~ ~ ~
φ φ

( )
t t
a Z B B = − −
~
1
2
2 1
φ φ

Para que la serie generada por este modelo sea estacionaria, se requiere que las
raíces de la siguiente ecuación se ubiquen fuera del círculo unitario

0 1
2
2 1
= − − x x φ φ

Esta condición es equivalente a las siguientes restricciones:

1
1
< φ , 1
2 1
< +φ φ y 1
2 1
< −φ φ

Estas restricciones definen una zona de combinaciones factibles en el plano
cartesiano en forma de triángulo dentro de los intervalos (-2,2) y (-1.1)

Modelor Autorregresivo de Primer Orden AR(1)
-6.00
-4.00
-2.00
0.00
2.00
4.00
6.00
Autocorrelaciones
-1.00
-0.90
-0.80
-0.70
-0.60
-0.50
-0.40
-0.30
-0.20
-0.10
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
1 2 3 4 5 6
Empírica Teórica
1 -0.8794083 -0.80000
2 0.7603542 0.64000
3 -0.6485430 -0.51200
4 0.5239865 0.40960
5 -0.4232558 -0.32768
6 0.3288337 0.26214
141
Región para Estacionariedad de AR(2)
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
-
2.00
-
1.80
-
1.60
-
1.40
-
1.20
-
1.00
-
0.80
-
0.60
-
0.40
-
0.20
-
0.20 0.40 0.60 0.80 1.00 1.20 1.40 1.60 1.80 2.00
Phi 1
P
h
i

2


Ahora se establecen los primeros dos momentos del modelo para completar su
definición.

0 )
~
( = Z E
2 2 1 1
2
1
)
~
(
φ ρ φ ρ
σ
− −
= Z V

¹
´
¦
> +
= + +
=
− −
0 k si
0 k si
2 2 1 1
2
2 2 1 1
k k
k
γ φ γ φ
σ γ φ γ φ
γ

Considérese
1
γ y
2
γ


1 2 0 1 1 −
+ = γ φ γ φ γ que por simetría equivale a
1 2 0 1 1
γ φ γ φ γ + = y por otra parte

0 2 1 1 2
γ φ γ φ γ + =

Si estas dos últimas ecuaciones se dividen entre
0
γ se obtienen las ecuaciones de
Yule Walter, las cuales permiten obtener los valores de las primeras dos
autocorrelaciones en función de
1
φ y
2
φ


1 2 1 1
ρ φ φ ρ + =

2 1 1 2
φ ρ φ ρ + =



142
De la primera ecuación ) 1 /(
2 1 1
φ φ ρ − = y al sustituir en la segunda ecuación se
obtiene
2 2
2
1 2
) 1 /( φ φ φ ρ + − = y las siguientes autocorrelaciones por la ecuación
recurrente:

3 k para
2 2 1 1
≥ + =
− − k k k
ρ φ ρ φ ρ

También es factible establecer condiciones de estacionariedad para el modelo
AR(2) en función de los dos primeros coeficientes de autocorrelación y definen
una superficie delimitada por una parábola.





1 1
1
< < − ρ

1 1
2
< < − ρ

) 1 (
2
1
1
2
2
1
+ < − ρ ρ








Las autocorrelaciones decaerán exponencialmente hacia cero y serán positivas si
la primera lo es. Si la primera es negativa, entonces presentarán signos
alternados.

Al utilizar las ecuaciones de Yule Walter y resolverlas para
1
φ y
2
φ se tienen
expresiones en función de las autocorrelaciones que al ser sustituidas por su
cálculos empíricos dan estimaciones de los parámetros.

) 1 /( ) 1 ( 1
2
2 1 1
ρ ρ ρ φ − − =

) 1 /( ) ( 1
2 2
1 2 2
ρ ρ ρ φ − − =





143
Ejemplo:
Se tiene una realización de 156 observaciones del modelo AR(2) con los
siguientes parámetros:
1
φ = 0.40 ,
2
φ = 0.20, 50 . 0
2
= σ . Rápidamente se verifica
que es estacionario y la lenta caída de los valores de las autocorrelaciones.




Modelo AR(p)

El caso general de los modelos autorregresivos puros considera p parámetros.

t p t p t t t
a Z Z Z Z + + + + =
− − −
~
....
~ ~ ~
2 2 1 1
φ φ φ
µ − =
t t
Z Z
~ ~

En términos del operador de retraso ( )
t t
p
p
a Z B B B = + + − −
~
..... 1
2
2 1
φ φ φ

Para que el proceso AR(p) sea estacionario se requiere que las raíces del
polinomio se encuentren fuera del círculo unitario.

0 ....... 1
2
2 1
= + + − −
p
p
x x x φ φ φ


Una forma alterntiva de verificar ello es que los siguientes determinantes que
involucran a los parámetros autorregresivos sean positivos. Estas condiciones son
una consecuencia de la aplicación del llamado Teorema de Schur.

Modelor Autorregresivo de Segundo Orden
AR(2)
-2.00
-1.50
-1.00
-0.50
0.00
0.50
1.00
1.50
Autocorrelaciones
-1.00
-0.90
-0.80
-0.70
-0.60
-0.50
-0.40
-0.30
-0.20
-0.10
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
1 2 3 4 5 6
k Empírica Teórica
1 0.5035914 0.50000
2 0.3890243 0.40000
3 0.3544912 0.26000
4 0.2364115 0.18400
5 0.2004238 0.12560
6 0.1008896 0.08704
144
1
1
1


=
p
p
D
φ
φ

1 0
1 0
0 1
0 1
1
1
1
1
2




=


p p
p
p
p p
D
φ φ
φ φ
φ φ
φ φ
…….
1
...

... 0
...
...

0 ...
... ... ... ...
0 0 1... -
... 0 ... 0 1
2
1 1
2 1
1


=

φ
φ
φ
φ
φ φ φ
φ
φ
p
p
p
p
p
D

Una forma alternativa de verificar el supuesto de estacionariedad es mediante el
sistema de ecuaciones de Yule Walter asociadas al proceso AR(p) que
proporcionan las primeras p autocorrelaciones.

......
1 - p p 1 2 1 1
ρ φ ρ φ φ ρ + + + =
......
2 - p p 2 1 1 2
ρ φ φ ρ φ ρ + + + =
………………
......
p 2 1 - p 1
φ φ ρ φ ρ + + + =
− p p


Las restantes son obtenidas a través de una relación recursiva

p k para ......
p - k p 2 - k 2 1 - k 1
> + + + = ρ φ ρ φ ρ φ ρ
k


Considérese ahora la matriz de coeficientes de autocorrelación para toda la
muestra.


1
... ... ... ...
... 1
... 1
3 2 1
2 1 1
1 2 1
− − −


=
n n n
n
n
n
P
ρ ρ ρ
ρ ρ ρ
ρ ρ ρ

1
1
1
ρ
ρ
= P
1
1
1
1 2
1 1
2 1
2
ρ ρ
ρ ρ
ρ ρ
= P ……….

Para que la serie sea estacionaria se requiere que esta matriz así como sus
menores sean positivos.

Modelos de Medias Móviles AM(q)
Los modelos de medias móviles, introducidos por Yule y Slutzky, representan un
proceso como una suma finita de choques aleatorios independientes a
t

ponderados por una serie de parámetros en la siguiente forma:

q t q t t t t
a a a a Z
− − −
− − − − = θ θ θ ......
~
2 2 1 1


En forma equivalente se representa:

t
q
q t
a B B B Z ) ...... 1 (
~ 2
2 1
θ θ θ − − − − = o bien
t t
a B Z ) (
~
θ =

145
Los parámetros θ que constituyen los coeficientes no definen una media móvil
ponderada en el sentido estricto, pues éstos pueden ser negativos y su suma no
necesariamente es igual a 1 como sucede en un promedio móvil.

Dado que la suma de los valores absolutos de los parámetros

=
p
i
i
1
θ involucra un
número finito de elementos finitos, entonces todo proceso de medias móviles es
estacionario.

Modelo MA (1)
De forma semejante a lo que se hizo con los modelos autorregresivos, iniciamos el
análisis de los procesos de MA con el caso más sencillo.

1 1
~

− =
t t t
a a Z θ o en términos del operador de retraso
t t
a B Z ) 1 (
~
1
θ − =

En forma inmediata se tiene el valor esperado y la varianza del proceso.

0 ) ( ) ( ) ( )
~
(
1 1 1 1
= − = − =
− − t t t t t
a E a E a a E Z E θ θ

) 1 ( ) ( ) ( ) ( )
~
(
2 2
1 1 1 1 0
θ σ θ θ γ + = + = − = =
− − t t t t t
a V a E a a V Z V

Las autocovarianzas se obtienen:

[ ]
¹
´
¦
>
= −
= − = − − =
− − − −
1 0
1
) ( ) ( ) )( (
2
1
1 1 1 1 1
k
k
a E a E a a a a E
t t k t k t t t k
σ θ
θ θ θ γ

Las autocorrelaciones quedan definidas entonces

¦
¹
¦
´
¦
>
=
+

=
1 0
1
1
2
1
1
k
k
k θ
θ
ρ

Al tener autocorrelaciones nulas más allá de 1 implica que el proceso MA(1) tenga
memoria de un solo período. Por otro lado la única autocorrelación no puede tener
valores muy elevados, pues de ser así implicaría una fuerte relación con valores
anteriores y daría lugar a un proceso autorregresivo, de hecho se debe cumplir
5 . 0
1
≤ ρ .






146
Ejemplo
A continuación se presenta una realización del proceso
1
θ = -0.4 y con media del
error cero y varianza del
2
σ =1 . Obsérvese que la primera autocorrelación
coincide en gran medida con el valor teórico esperado y aunque teóricamente las
autocorrelaciones son nulas para k>1, se observan valores empíricos superiores a
0.1 para k= 4,5



Invertibilidad
Cuando un proceso puede expresarse mediante un modelo AR, se dice que el
proceso es invertible, esto es que se puede representar por un polinomio de
retraso de la siguiente forma:

t t
a Z B =
~
) ( π donde ....... 1 ) (
2
2 1
− − − = B B B π π π es un polinomio de retraso que
cumple con que la siguiente suma converja dentro del círculo unitario.



=
− =
1
1 ) (
i
i
i
x x π π

Todo proceso MA es estacionario y todo proceso AR es invertible. Las conciciones
de invertibilidad de un proceso MA se obtienen de manera similar a las
estacionariedad de un proceso AR.

La invertibilidad de un proceso es importante porque todo proceso invertible está
determinado de manera única por su función de autocorrelación.

El proceso MA(1) es invertible si θ < 1 lo que implica que 5 . 0
1
< ρ
Proceso de Meadias Móviles MA(1)
-3
-2
-1
0
1
2
3
FAC Autocorrelaciones
-1.00
-0.80
-0.60
-0.40
-0.20
0.00
0.20
0.40
0.60
0.80
1.00
1 2 3 4 5 6
k Empírica Teórica
1 0.355437 0.34482759
2 0.014641 0
3 0.057497 0
4 0.137842 0
5 0.116645 0
6 0.070403 0
147
Modelo MA (2)
Ahora se analiza el modelo de medias móviles que involucra dos parámetros.

2 2 1 1
~
− −
− − =
t t t t
a a a Z θ θ o su equivalente
t t
a B B Z ) 1 (
~ 2
2 1
θ θ − − =

Su media y varianza están dadas por

0 )
~
( =
t
Z E

) 1 ( )
~
(
2
2
2
1
2
0
θ θ σ γ + + = =
t
Z V

Su función de autocovarianza y función de autocorrelación tienen las siguientes
expresiones:

¦
¹
¦
´
¦

= −
= + −
=
3 0
2
1 ) (
2
2
2
2 1 1
k
k
k
k
σ θ
σ θ θ θ
γ


La forma de su función de autocorrelación determina que la memoria del proceso
se limita a dos períodos. Para que el proceso MA(2) sea invertible se requiere que
las raíces de la siguiente ecuación se encuentren fuera del círculo unitario.

0 1
2
2 1
= − − x x θ θ

De donde se deducen condiciones alternativas de invertibilidad.

1
2
< θ , 1
1 2
< +θ θ , 1
1 2
< −θ θ
















¦
¦
¦
¹
¦
¦
¦
´
¦

=
+ +

=
+ +
− −
=
3 0
2
1
1
1
) 1 (
2
2
2
1
2
2
2
2
1
2 1
k
k
k
k
θ θ
θ
θ θ
θ θ
ρ
Región de Invertibilidad para
MA(2)
-1.0
-0.8
-0.6
-0.4
-0.2
0.0
0.2
0.4
0.6
0.8
1.0
-2.0 -1.8 -1.6 -1.4 -1.2 -1.0 -0.8 -0.6 -0.4 -0.2 0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0
Theta 1
T
h
e
t
a

2
148

En forma equivalente se establecen restricciones con referencia a los coeficientes
de autocorrelación

5 . 0
2
1
≤ ρ y 5 . 0
2
≤ ρ

Ejemplo
A continuación se presenta una realización del proceso
1
θ = 0.6 ,
2
θ = -0.4 y con
media del error cero y varianza del
2
σ =0.7. Las primeras dos autocorrelaciones
coinciden en gran medida con los valores teóricos esperados, pero las
subsiguientes no se anulan.

Modelo MA (q)
Se ha referido la forma general del modelo de medias móviles de q parámetros.

q t q t t t t
a a a a Z
− − −
− − − − = θ θ θ ......
~
2 2 1 1


Cuyos momentos de segundo orden y función de autocorrelación son los
siguientes:

0 )
~
( =
t
Z E

( )
2 2 2
2
2
1 0
...... 1 )
~
( σ θ θ θ γ
q t
Z V + + + + = =

FAC Autocorrelaciones
-1.00
-0.80
-0.60
-0.40
-0.20
0.00
0.20
0.40
0.60
0.80
1.00
1 2 3 4 5 6
k Empírica Teórica
1 -0.519674 -0.552632
2 0.249800 0.263158
3 0.073804 0
4 -0.106106 0
5 0.175084 0
6 -0.127639 0
Medias Móviles MA(2)
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
149
¹
´
¦
+ ≥
= + + + −
=
− +
1 0
.... 2 , 1 ......
1 1
q k
q k
q k q k k
k
θ θ θ θ θ
γ

¦
¹
¦
´
¦
+ ≥
=
+ + + +
+ + + −
=
− +
1 0
.... 2 , 1
......... 1
......
2 2
2
2
1
1 1
q k
q k
q
q k q k k
k
θ θ θ
θ θ θ θ θ
ρ
De manera análoga a lo observado en los procesos MA(1) y MA(2), la memoria del
proceso MA(q) se limita a q períodos. Para que el proceso sea invertible se
requiere que los q determinantes definidos en la siguiente forma sean positivos.

1
1
1


=
q
q
D
θ
θ

1 0
1 0
0 1
0 1
1
1
1
1
2




=


q q
q
q
q q
D
θ θ
θ θ
θ θ
θ θ
…….
1
...

... 0
...
...
...

0 ..
... ... ... ...
0 0 1... -
... 0 ... 0 1
2
1 1
2 1
1


=

θ
θ
θ
θ
θ θ θ
θ
θ
q
q
q
q
p
D


Modelo ARMA (p,q)
Constituyen una unión y generalización de los modelos autorregresivos y de
medias móviles. En términos de polinomios de retraso de grados p y q se
expresan de la siguiente forma:

q t q t t t p t p t t t
a a a a Z Z Z Z
− − − − − −
− − − − + + + + = θ θ θ φ φ φ ......
~
.......
~ ~ ~
2 2 1 1 2 2 1 1


t
q
q t
p
p
a B B B Z B B B ) ...... 1 (
~
) ....... 1 (
2
2 1
2
2 1
θ θ θ φ φ φ − − − − = − − − −

t t
a B Z B ) (
~
) ( θ φ =

El proceso ARMA(p,q) se puede referir como un proceso autorregresivo de orden
P

t t
e Z B =
~
) ( φ donde
t t
a B e ) ( θ =

También como un proceso de medias móviles de orden q.

t t
b B Z ) (
~
θ = con b siguiendo un proceso autorregresivo de orden p
t t
a b B = ) ( φ de
forma que
t t t
a B b B B Z B ) ( ) ( ) (
~
) ( θ φ θ θ = =






150
Modelo ARMA (1,1)
El más sencilo modelo ARMA involucra un modelo autorregresivo y uno de
medias móviles, ambos de primer orden.

1 1 1 1
~ ~
− −
− + =
t t t t
a a Z Z θ φ

Cuyos primeros momentos son:

0 )
~
( =
t
Z E

¦
¹
¦
´
¦

= −
= − − +

2
1
0 )) ( 1 (
1
2
1 0 1
2
1 1 1 1
k
k
k
k
k
φγ
σ θ γ φ
σ θ φ θ γ φ
γ

Los valores de
0
γ y
1
γ se pueden obtener en función de los parámetros
autorregresivo y de medias móviles a partir del siguiente sistema de ecuaciones:

2
1 1 1 1 1 0
)) ( 1 ( σ θ φ θ γ φ γ − − + =
2
1 0 1 1
σ θ γ φ γ + =

Cuya solución es

2
1
2 2
1 1 1
0
1
) 2 1 (
φ
σ θ θ φ
γ

+ −
=

2
1
2
1 1 1 1
1
1
) )( 1 (
φ
σ θ φ θ φ
γ

− −
=

De donde se deduce que l función de autocovarianza se puede expresar:

2
1
2
1 1 1 1
1
1
1
1
) )( 1 (
φ
σ θ φ θ φ φ
γ

− −
=
− k
para k=1,2,3,……
De donde la función de autocorrelación está dada por:


2
1 1 1
1 1 1 1
1
1
2 1
) )( 1 (
θ θ φ
θ φ θ φ φ
ρ
+ −
− −
=
− k
k
para k=1,2,3,……

Si se cumple la condición de estacionalidad 1
1
< φ entonces la función de
autocorrelación experimenta un decaimiento exponencial.

151
Ejemplo
A continuación se presenta una realización del proceso
1
φ = 0.6 ,
1
θ = 0.4 y con
media del error cero y varianza del
2
σ =1.0. Obsérvese la caida exponencial de
las autocorrelaciones empíricas y teóricas que presentan una elevada
coincidencia.


Modelo ARIMA (p,d,q)
Los modelos revisados plantean que los procesos son estacionarios, sin embargo
para el caso de ciertos procesos no estacionarios, es posible lograr la
estacionariedad con la aplicación de diferencias a la serie original. Se ha visto que
al aplicar el operador diferencia
d
en forma sucesiva se logra eliminar
tendencias de tipo polinomial y a la serie resultante ya estacionaria se le puede
ajustar un modelo de tipo ARMA.

=
t
W
d
t
Z
~
con d 1 ≥

Así un modelo ARIMA(p,d,q) queda definido en términos de los operadores de
diferencia y retraso de la siguiente forma:

) (B φ
d
t
Z =
t
a B) ( θ

Al sustituir se tiene un ARMA(p,q) para Wt

) (B φ
t
W =
t
a B) ( θ



MODELO ARMA(1,1)
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
5.0
Función de Autocorrelación
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1 2 3 4 5 6
Empí r i ca
Teór i ca
k Empírica Teórica
1 0.782512 0.756098
2 0.499953 0.453659
3 0.288123 0.272195
4 0.211708 0.163317
5 0.174255 0.097990
6 0.108911 0.058794
152
El adjetivo integrado hace alusión a que Zt se obtiene al despejar de Wt e invertir
el operador
d
y da como resultado una suma infinita o una integración de
términos Wt.

t
Z
~
=
d −
t
W con d 1 ≥

Por ejemplo, para d=1

1 −
= .......... 1 ) 1 (
3 2 1
+ + + + = −

B B B B

Para que el modelo sea estacionario e invertible se requiere que las raíces de
0 ) ( = x φ y 0 ) ( = x θ se encuentren fuera del círculo unitario.

La no estacionariedad de la serie de tiempo se puede deber a que la varianza no
sea constante esto es se tenga
2
t
σ asociada a cada período como función de su
media
t
µ . La estabilización de la varianza se logra a través de una función
potencia (The use of transformations, Biométrika, Bartlett ,3,39,1947) del tipo:


) 1 ( 2
) (
λ
µ µ


t
f


de donde
¹
´
¦
=


0 si ) log(
0 si
) (
t
λ µ
λ µ
µ
λ
t
t
T


Se sugiere entonces aplicar transformaciones del tipo

¹
´
¦
=

= =
0 si ) log(Z
0 si
) (
t
λ
λ
λ
t
t t
Z
Z T W


La forma de elegir la mejor transformación se discutirá más adelante con mayor
detalle.


Construccion de Modelos ARIMA

Los modelos de la clase ARIMA, como se ha visto, incluyen varios tipos de
parámetros cuyos valores son desconocidos. La forma específica del modelo más
conveniente dentro de la clase ARIMA es una incógnita. En consecuencia se
tienen que aplicar herramientas y procedimientos adicionales para reducir las
alternativas y seleccionar el mejor modelo para una serie dada. La primera
153
recomendación que se hace es la de reducir el número de parámetros tanto como
sea posible, esto es la parsimonia es la primera regla que hay que tomar en
cuenta.

Otro aspecto esencial es que estos modelos requieren un mínimo de 50
observaciones para obtener resultados satisfactorios. De hecho Box y Jenkins
recomiendan 100 ó más observaciones. Los mismos autores proponen una serie
de etapas que constituyen un proceso iterativo para alcanzar un buen modelo,
pues es usual que no se tenga una respuesta satisfactoria al primer intento. Estas
etapas son Identificación, Estimación y Diagnóstico, las cuales aplicadas
secuencialmente y con ayuda de herramientas auxiliares para cada etapa llevan a
un proceso convergente hacia la mejor solución. En la siguiente sección se
comentará cada etapa, así como sus herramientas auxiliares.

PROCEDIMIENTO ITERARIVO
PARA CONSTRUIR MODELOS
Identificación del
Modelo
Estimación de
Parámetros
Validación y
Diagnóstico
Uso del Modelo
Adecuado

Identificación.
En esta etapa se efectuarán pruebas de estacionariedad para determinar las
necesidades de transformación y diferenciación de la serie y los órdenes de los
parámetros autorregresivos y de medias móviles que se necesitarán.

154
Estacionarización.
La estrategia de análisis sugiere que en primer término se estabilice la varianza.
En su caso la búsqueda de una transformación adecuada es el primer objetivo. Se
pretende encontrar un exponente λ de manera que el siguiente cociente sea
constante:
1,2,.....n t para
1
= =

Cte
t
λ
µ
σ


La serie transformada como se mencionó, será:

¹
´
¦
=

= =
0 si ) log(Z
0 si
) (
t
λ
λ
λ
t
t t
Z
Z T W


En donde µ y
t
σ representan la media y la dsesviación estándar de la variable Zt
y n es el número de observaciones. Como se dispone de una sola realización del
modelo, una alternativa propuesta por Víctor Guerrero es dividir la serie en H
grupos contiguos del mismo tamaño y calcular estimaciones de la media y
desviación estándar para cada grupo (
h h
Z S , ) y construir una tabla para evaluar
cada valor del exponente.

Ejemplo
Considere la serie de valores del Indice Nacional de Precios al Consumidor de
enero de 1969 a agosto de 1976.

Año 1969 1970 1971 1972 1973 1974 1975 1976
Enero 30.210 31.780 33.349 34.814 37.117 45.996 54.237 60.759
Febrero 30.321 31.777 33.487 34.923 37.425 47.033 54.537 61.894
Marzo 30.349 31.872 33.614 35.113 37.754 47.396 54.880 62.502
Abril 30.430 31.914 33.786 35.335 38.352 48.041 55.344 62.939
Mayo 30.433 31.979 33.856 35.403 38.761 48.417 56.084 63.380
Junio 30.538 32.173 34.011 35.666 39.076 48.896 57.036 63.633
Julio 30.656 32.330 33.984 35.800 40.078 49.603 57.494 64.170
Agosto 30.690 32.481 34.294 36.037 40.722 50.128 57.992 64.787
Septiembre 30.978 32.561 34.407 36.200 41.691 50.696 58.413
Octubre 31.301 32.568 34.441 36.226 42.224 51.702 58.713
Noviembre 31.305 32.744 34.498 36.462 42.744 53.137 59.124
Diciembre 31.541 33.021 34.660 36.586 44.405 53.552 59.606
INDICE NACIONAL DE PRECIOS AL CONSUMIDOR INPC


En la siguiente gráfica se observa la serie de datos y lo que se pretende es buscar
el mejor valor del exponente Lamda para homogenizar la varianza. Se toman
grupos de 12 meses y se excluye 1976 por tener menos de 12 observaciones.



155
En los siguientes cuadros se resumen los cálculos correspondientes a λ = -1 . En
la hoja de Excel: INPC 1969 1976 PARTICIPANTES.XLS se pueden efectuar los
cálculos para otros valores del exponente.

Mes 1969 1970 1971 1972 1973 1974 1975
Enero 30.210 31.780 33.349 34.814 37.117 45.996 54.237
Febrero 30.321 31.777 33.487 34.923 37.425 47.033 54.537
Marzo 30.349 31.872 33.614 35.113 37.754 47.396 54.880
Abril 30.430 31.914 33.786 35.335 38.352 48.041 55.344
Mayo 30.433 31.979 33.856 35.403 38.761 48.417 56.084
Junio 30.538 32.173 34.011 35.666 39.076 48.896 57.036
Julio 30.656 32.330 33.984 35.800 40.078 49.603 57.494
Agosto 30.690 32.481 34.294 36.037 40.722 50.128 57.992
Septiembre 30.978 32.561 34.407 36.200 41.691 50.696 58.413
Octubre 31.301 32.568 34.441 36.226 42.224 51.702 58.713
Noviembre 31.305 32.744 34.498 36.462 42.744 53.137 59.124
Diciembre 31.541 33.021 34.660 36.586 44.405 53.552 59.606
30.729333 32.266667 34.032250 35.713750 40.029083 49.549750 56.955000
0.445266 0.412589 0.428588 0.600719 2.342261 2.388577 1.888120
SERIE TRANSFORMADA Lamda = -1.000 Exponente 2.000
Año 1969 1970 1971 1972 1973 1974 1975
Enero 912.644 1009.968 1112.156 1212.015 1377.672 2115.632 2941.652
Febrero 919.363 1009.778 1121.379 1219.616 1400.631 2212.103 2974.284
Marzo 921.062 1015.824 1129.901 1232.923 1425.365 2246.381 3011.814
Abril 925.985 1018.503 1141.494 1248.562 1470.876 2307.938 3062.958
Mayo 926.167 1022.656 1146.229 1253.372 1502.415 2344.206 3145.415
Junio 932.569 1035.102 1156.748 1272.064 1526.934 2390.819 3253.105
Julio 939.790 1045.229 1154.912 1281.640 1606.246 2460.458 3305.560
Agosto 941.876 1055.015 1176.078 1298.665 1658.281 2512.816 3363.072
Septiembre 959.636 1060.219 1183.842 1310.440 1738.139 2570.084 3412.079
Octubre 979.753 1060.675 1186.182 1312.323 1782.866 2673.097 3447.216
Noviembre 980.003 1072.170 1190.112 1329.477 1827.050 2823.541 3495.647
Diciembre 994.835 1090.386 1201.316 1338.535 1971.804 2867.817 3552.875
Media 944.47367 1041.29382 1158.36242 1275.80273 1607.35652 2460.40758 3247.13994
0.00047144 0.00039623 0.00036999 0.000470856 0.00145721 0.000970805 0.000581472
Media 0.0006740
Desv Est 0.0004004
CV 0.59407324
INDICE NACIONAL DE PRECIOS AL CONSUMIDOR INPC
h
S
λ − 1
h
h
Z
S
h
Z


Al ensayar diferentes valores de Lamda, se puede ver que
para -1.00 se obtiene el coeficiente de variación más
pequeño y se puede concluir que una transformación
recíproca puede funcionar bien en este caso.

t t
Z Z T / 1 ) ( =


Lamda CV
-1.0000 0.59407324
-0.5000 0.63026232
0.0000 0.67289961
0.5000 0.72160722
1.0000 0.74551917
156
Estabilizacióin del nivel de la serie.
Una vez que se ha seleccionado la transformación apropiada para estabilizar la
varianza, se procede a estabilizar el nivel de la serie mediante la aplicación iterada
del operador diferencias un número adecuado de veces. El elemento de
diagnóstico para determinar el grado de diferenciación de la serie es la función de
autocorrelación, ya que un decaimiento rápido de las autocorrelaciones de la serie
es un indicativo de que la serie es estacionaria. Sin embargo, en términos
empíricos es importante contar con un criterio que permita considerar cuando el
valor de un coeficiente de autocorrelación no es significativamente diferente de
cero. En general se utilizan las siguientes aproximaciones de la varianza de las
autocorrelaciones propuestas por Bartlett.

[ ]


∝ − =
− − +
+ − + =
v
k v k v v k k v k v v k
n
r V
2 2 2
2 4
1
) ( ρ ρ ρ ρ ρ ρ ρ ρ


Para la varianza de una autocorrelación estimada de orden k mayor que un valor
q, correspondiente a un proceso MA (q) atrás del cual la autocorrelación teórica es
cero, la aproximación de Bartlett se reduce a:

)
`
¹
¹
´
¦
+ =

=
q
v
v k
n
r V
1
2
2 1
1
) ( ρ
para k>q
Para el supuesto de que la serie es ruido blanco esto es q=0 entonces

|
.
|

\
|
+

=
2
1
) (
n
k n
n
r V
k

Para n>50 se considera la aproximación a la distribución normal con media cero y
varianza dada por la expresión anterior.

La función de autocorrelación para la serie transformada de INPC sin
diferenciación tiene un comportamiento característico de una serie no estacionaria
de caída muy lenta.











FAC TZt sin diferenciar
-1.000
-0.800
-0.600
-0.400
-0.200
0.000
0.200
0.400
0.600
0.800
1.000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Autocorrelaciones
k r
k
1 0.973
2 0.946
3 0.918
4 0.889
5 0.859
6 0.828
7 0.797
8 0.765
9 0.735
10 0.704
11 0.672
12 0.640
13 0.608
14 0.575
15 0.542
16 0.509
17 0.476
18 0.443
19 0.409
20 0.375
157
Al aplicar en operador diferencia a la serie transformada y calcular la FAC se
observa todavía una caída lenta de las autocorrelaciones lo que sugiere una
mayor diferenciación.















Después de tomar una segunda diferencia, la FAC se presenta la primera
autocorrelación como dominante, lo que puede sugerir un modelo de medias
móviles.
















Autocorrelaciones parciales.
La identificación de un proceso de medias móviles se puede llevar a efecto
mediante la función de autocorrelación y de los intervalos de confianza, pero la
identificación de un proceso autorregresivo con la sola ayuda de la FAC puede
presentar serias dificultades. Las autocorrelaciones parciales cubren esta
limitante. Como se sabe, la autocorrelación parcial entre dos variables mide la
relación lineal existente entre ellas manteniendo constante la presencia de otras
variables. Así, si se considera una proceso autorregresivo de primer orden AR(1),
se sabe que la función de autocorrelación adopta la forma:
k
k
φ ρ = , esto es una
k r
k
1 0.5250
2 0.3630
3 0.3490
4 0.2720
5 0.3320
6 0.2810
7 0.2470
8 0.2350
9 0.2210
10 0.2070
11 0.1740
12 0.0880
13 0.0500
14 -0.0120
15 0.0620
16 0.0390
17 0.0010
18 -0.0250
19 -0.0990
20 -0.1230
FAC TZt Primera Diferencia
-1.0000
-0.8000
-0.6000
-0.4000
-0.2000
0.0000
0.2000
0.4000
0.6000
0.8000
1.0000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Autocorrelaciones
FAC TZt Segunda Diferencia
-1.000
-0.800
-0.600
-0.400
-0.200
0.000
0.200
0.400
0.600
0.800
1.000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Autocorrelaciones
k r
k
1 -0.334
2 -0.156
3 0.065
4 -0.141
5 0.119
6 -0.018
7 -0.015
8 0.000
9 -0.013
10 0.029
11 0.056
12 -0.058
13 0.029
14 -0.142
15 0.101
16 0.019
17 -0.015
18 0.049
19 -0.051
20 0.013
158
lenta caída exponencial, en tanto que un proceso de medias móviles corta
abruptamente su función de autocorrelación.

Considérese que se desea calcular la autocorrelación lineal de segundo orden
excluyendo la influencia de la autocorrelación de primer orden en un modelo
AR(1). El coeficiente correlación parcial de segundo orden se calcula en función
de los coeficientes de autocorrelación simples de la siguiente forma:

) 1 )( 1 (
2
12
2
01
12 01 02
1 . 02
ρ ρ
ρ ρ ρ
ρ
− −

=

Sabemos que φ ρ ρ = =
12 01
y que
2
02
φ ρ = , entonces el numerador es cero y
todas las demás también lo son.

Las autocorrelaciones parciales
kj
φ son calculadas en forma empírica mediante las
siguientes expresiones secuenciales:

1 11
ˆ
r = φ

) 1 /( ) (
ˆ
2
1
2
1 2 22
r r r − − = φ

j k k kk j k kj − − −
− =
, 1 , 1
ˆ ˆ ˆ ˆ
φ φ φ φ k=2,…. J=1,2,…..,k-1

|
|
.
|

\
|

|
|
.
|

\
|

=



=


=
− −
1
1
1
1
1
1
ˆ
1
ˆ
ˆ
k
j
j k
k
j
j k k k
kk
r
r r
φ
φ
φ k=3,4,……


Quenouille (1949) demostró que bajo el supuesto de un modelo AR(p) y con
1 − ≤ k p entonces
kk
φ
ˆ
se distribuye normal con media cero y varianza 1/n. En
consecuencia es muy fácil calcular intervalos de confianza para los coeficientes de
autocorrelación al sumar y restar la raiz cuadrada de 1/n multilicada por el
coeficiente de confianza (usualmente 1.96, para 95% de confianza).








159
Los comportamientos característicos de los diferentes procesos se refieren a
continuación en forma resumida en el siguiente cuadro y que ayudan al
investigador a identificar el tipo de proceso que conviene a la serie en estudio.

AR(p) Converge a 0 con k>p
Solamente las primeras k
autocorrelaciones
parciales son distintas de
0
MA(q)
Solamente las primeras q
autocorrelaciones son distintas de
0
Sucesión infinita que
converge a 0
ARMA(p,q)
Comportamiento irregular de las
primeras q autocorrelaciones y
después convergencia a 0
Sucesión infinita que
converge a 0


Si se vuelve a la serie transformada y tomadas las segundas diferencias del INPC
se obtiene el reporte de autocorrelaciones simples y parciales mediante el SPSS.
Por nuestra cuenta calculamos errores estándares e intervalos.

k r
k
ee r
k
1.96(ee r
k) ee 1.96(ee
1 -0.334 0.104 0.204 -0.334 0.105 0.207
2 -0.156 0.104 0.203 -0.301 0.105 0.207
3 0.065 0.103 0.202 -0.128 0.105 0.207
4 -0.141 0.102 0.201 -0.263 0.105 0.207
5 0.119 0.102 0.200 -0.068 0.105 0.207
6 -0.018 0.101 0.198 -0.099 0.105 0.207
7 -0.015 0.101 0.197 -0.053 0.105 0.207
8 0.000 0.100 0.196 -0.077 0.105 0.207
9 -0.013 0.099 0.195 -0.047 0.105 0.207
10 0.029 0.099 0.194 -0.024 0.105 0.207
11 0.056 0.098 0.192 0.071 0.105 0.207
12 -0.058 0.098 0.191 0.004 0.105 0.207
13 0.029 0.097 0.190 0.064 0.105 0.207
14 -0.142 0.096 0.189 -0.148 0.105 0.207
15 0.101 0.096 0.187 0.005 0.105 0.207
16 0.019 0.095 0.186 -0.046 0.105 0.207
17 -0.015 0.094 0.185 0.014 0.105 0.207
18 0.049 0.094 0.184 0.016 0.105 0.207
19 -0.051 0.093 0.182 0.031 0.105 0.207
20 0.013 0.092 0.181 0.015 0.105 0.207
kk
φ
kk
φ
kk
φ


A continuación se presentan las gráficas correspondientes. Se puede observar
que solamente la primera autocorrelación simple (-0.334) cae fuera del intervalo
definido por 1.96 veces el error estándar y como consecuencia se pueden
considerar estadísticamente significativas. Las autocorrelaciones parciales
160
presentan una lenta caída, donde las primeras dos autocorrelaciones parciales y la
cuarta son significativamente diferentes de cero. Ello sugiere un modelo medias
móviles apoyado en segundas diferencias de la serie transformada original
MA(2,1).

FAC TZt Segunda Diferencia
-1.000
-0.800
-0.600
-0.400
-0.200
0.000
0.200
0.400
0.600
0.800
1.000
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
Autocorrelaciones


Estimación de parámetros.

El siguiente paso consiste en la estimación de los parámetros del modelo. El
método utilizado es el de máxima verosimilitud. El paquete SPSS utiliza el
algoritmo de Melard para series que no presentan valores perdidos.
Alternativamente utiliza el algoritmo de Kalman cuando existen observaciones
perdidas.

El proceso de ajuste del
modelo mediante SPSS se
realiza mediante el
procedimiento ARIMA que
se localiza en la opción
Time series del menú de
análisis. En la ventana de
diálogo se indica la
variable tzt que identifica a
la variable transformada
como el reciproco. Se
marca 2 en el parámetro
de diferencias y 1 en el
parámetros de medias
móviles.

En la opción de save se solicita que el pronóstico se extienda hasta la observación
98 para tener 6 pronósticos adicionales a las 92 observaciones que tiene la serie
original transformada.



FACP TZt segunda diferencia
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
1 3 5 7 9 11 13 15 17 19
Autocorrelaciones
161
Al ejecutar el procedimiento inmediatamente se presenta el reporte.

Se observa que el proceso iterativo, apoyado en el algoritmo de Marquard y la
secuencia de valores desde los iniciales hasta los finales alcanzados después de
5 iteraciones.



El valor estimado por SPSS para el parámetro de medias móviles θ es
0.68144755 y lo acompaña de su error estándar y el cociente del estimador
puntual del parámetro entre el error estándar, para así tener la estadística T, que
resulta ser significativamente distinta de 0.



Si ponemos atención a la tabla de datos, se puede observar que SPSS ha incluido
nuevas variables. La estimación puntual correspondiente a cada período, el
residual, los límites de un intervalo de 95% de para el pronóstico y el error
estándar del pronóstico.


162
En la parte baja de la tabla se puede observar que los pronósticos se extienden
hasta la observación 98, como se solicitó, lo mismo sucede con los intervalos de
confianza. En las siguientes gráficas se observa la serie transformada y la serie en
su escala original. Los pronósticos e intervalos de confianza han sido sometidos a
la transformación inversa.

INPC Serie transformada
Doce últimas Observaciones, Pronósticos e Intervalos de Confianza
0.0120
0.0130
0.0140
0.0150
0.0160
0.0170
0.0180
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
Período

INPC Serie original modelo MA(1)
Ultimas 12 Observaciones, Pronósticos e Intervalos de 95% de confianza
55
60
65
70
75
80
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18
Período


163
Diagnóstico.

Como criterios de diagnóstico de la bondad del modelo se presentan varias
estadísticas. En primer término se tiene la suma de cuadrados de los residuales.
En este caso 0.00000165

( )
2
1
ˆ

=
− =
n
t
t t
Z Z SSQ


Otra estadística que reporta SPSS es el logaritmo de la función de verosimilitud
que se supone alcanza el valor máximo con los estimadores calculados. Para este
caso 673.9

( )
2
) 2 (
ˆ
2
'
ˆ
2
π
σ
σ
nLn SSQ
nLn L
a
a
− − =




También reporta el criterio de información de Akaike que se calcula en función del
logaritmo de la verosimilitud y el número de parámetros.

m L AIC 2 2 + − =


Donde m es el número de parámetros del modelo

Otra estadística adicional es el Criterio Bayesiano de Schwartz que SPSS calcula
de la siguiente forma:

m n Ln L SBC ) ( 2 − − =


Tendencia (T). Se asocia a la dirección general que presenta la gráfica de una serie de tiempo. La tendencia puede manifestarse en forma de una recta o de una función más compleja. Variaciones cíclicas(C). Se refiere a las oscilaciones de larga duración, usualmente años, alrededor de la tendencia. Los ciclos en economía se asocian a períodos de prosperidad o de depresión. Usualmente requieren de muchas observaciones para identificar su presencia. Variaciones estacionales (E). Son oscilaciones de corta duración (meses, semanas o días) que suelen presentar fenómenos como las ventas de artículos deportivos o el consumo de energía eléctrica. Variaciones irregulares o aleatorias (I). Son debidas a la presencia de factores no cuantificados o desconocidos que influyen en el comportamiento del fenómeno.
Serie de Tiempo
106 105 104 Valor 103 102 101 100 99 0 10 20 30 40 50 60 70 Tiempo

Error cuadrático medio Una forma de evaluar la bondad de ajuste del modelo es a través del error cuadrático medio. Este se calcula como el promedio de los cuadrados de los residuales.

ECM =

∑ (Y
t =1

n

t

ˆ − Yt ) n

2

113

MEDIAS MOVILES Y METODOS DE SUAVIZAMIENTO Medias Móviles. Uno de los procedimientos más simples de pronóstico consiste en tomar el promedio k períodos atrás y considerarlo como la mejor opción de pronóstico para el siguiente período. Transcurrido un período se incorpora la última observación al promedio y se desecha la última para calcular nuevamente la media. Si particularmente k=1, entonces la última observación se considera el mejor pronóstico para el subsiguiente.

ˆ Yt +1 =

Yt + Yt −1 + ..... + Yt −( k −1) k

ˆ Yt +1 = ∑
i =0

K −1

Yt −i k

Una forma alternativa de cálculo, en función de la media móvil anterior consiste en sumar la diferencia entre la más reciente observación y la última del cálculo anterior dividida entre el número de períodos considerados en la media móvil.

ˆ ˆ Yt +1 = Yt +

Yt Yt −k − k k

Si se calculan las medias móviles en forma consecutiva se observa un alisamiento de la serie. Entre mayor sea el valor de k, mayor efecto de alisamiento. Esta práctica se alisamiento o suavizamiento de series se usa con frecuencia a manera de filtro de las variaciones aleatorias. Las medias móviles simples otorgan el mismo peso a todas las observaciones pasadas, pero también existe la posibilidad de otorgar una ponderación a las observaciones de modo que tienen mayor peso las observaciones más recientes. El problema para el investigador es la selección de los ponderadores.

ˆ Yt +1 = ∑WiYt −i
i =0

K −1

con

∑W
i =0

K −1

i

=1

En el campo bursátil, el análisis técnico se orienta al estudio y predicción de las acciones del mercado, tales como movimientos de precios y tendencias. Entre sus principales herramientas se incluyen indicadores y diversos tipos de gráficas que incorporan las medias móviles en diferentes formas. Las gráficas de medias móviles son utilizadas para definir estrategias de mercado como las siguientes: 1.- Si la media móvil cruza al gráfico de precios de abajo a arriba es señal de venta. 2.- Si la media móvil cruza al gráfico de precios de arriba a abajo es señal de compra.

114

Una buena media móvil es la que actúa como soporte y resistencia del gráfico. Cuanto mayor sea el número de contactos entre la media y el gráfico, mejor será la media móvil elegida. Considérese la serie de tiempo del Indice de Precios y Cotizaciones (IPC) de la Bolsa Mexicana de Valores ( BMV) con el valor al cierre del día y las medias móviles de 10 y 20 días del 3 de enero al 8 de diciembre de 2006.

(fuente: http//yahoo.finace.com/)

Suavizamiento Exponencial Simple. Para comprender mejor como opera el suavizamiento exponencial simple, partamos de la fórmula de medias móviles en una serie estacionaria.

ˆ ˆ Yt +1 = Yt +

Yt Yt −k − k k

Ahora supóngase que por alguna razón Yt − k no está disponible y que en su lugar ˆ se utiliza como aproximación Yt . Entonces la fórmula anterior quedaría expresada:

ˆ ˆ Yt +1 = Yt +

ˆ Yt Yt − k k

Si se factoriza el pronóstico al tiempo t, la siguiente fórmula equivalente permite ver que el pronóstico al tiempo t+1 otorga un peso de 1/k y al pronóstico del período anterior (1-(1/K)).

1  1ˆ ˆ Yt +1 = Yt + 1 − Yt k  k

115

Ahora supóngase que la más reciente observación recibe una ponderación α, donde α está en el intervalo (0,1) y el pronóstico más reciente recibe una ponderación (1- α). El resultado es la fórmula de suavizamiento exponencial simple.

ˆ ˆ Yt +1 = αYt + (1 − α )Yt
Si se sustituye en forma iterativa hacia atrás en esta fórmula se observa la forma como participan las ponderaciones para las observaciones anteriores.

ˆ ˆ Yt +1 = αYt + (1 − α )(αYt −1 + (1 − α )Yt −1 )
2 ˆ = αYt + (1 − α )αYt −1 + (1 − α ) Yt −1 2 ˆ = αYt + (1 − α )αYt −1 + (1 − α ) (αYt −2 + (1 − α )Yt −2 )

ˆ = αYt + (1 − α )αYt −1 + (1 − α ) αYt −2 + (1 − α )Yt −2
2

La observación más reciente tiene una ponderación α y la anterior se reduce en una proporción (1- α), para formar una sucesión de valores decrecientes. Otra forma alternativa de expresar la fórmula de suavizamiento exponencial simple es la siguiente:

ˆ ˆ ˆ Yt +1 = Yt + α (Yt − Yt )
En esta fórmula se puede apreciar el coeficiente α otorga mayor o menor importancia a la diferencia entre el pronóstico anterior y el valor observado. El coeficiente tiene un efecto análogo, pero en sentido inverso a la inclusión de más o menos observaciones en una media móvil. En la media móvil a medida que se incluyen más observaciones se obtiene mayor suavizamiento. En el suavizamiento exponencial simple, a menor valor del coeficiente α, corresponde mayor suavizamiento. En este sentido Makridakis plantea que un valor de α=2/(k+1) es la mejor aproximación para hacer equivalente el suavizamiento exponencial simple a un procedimiento de medias móviles.

116

S t' = αYt + (1 − α ) S t'−1 S t'' = αS t' + (1 − α ) S t''−1 at = 2S t' − S t'' bt = Suavizamiento exponencial simple Doble suavizamiento exponencial simple Ordenada al origen del pronóstico Pendiente del pronóstico Pronóstico m períodos adelante α ( S t' − S t'' ) 1−α ˆ Yt = at − bt m A continuación se presentan los cálculos para la serie utilizada en el suavizamiento exponencial simple.Suavizamiento Exponencial de Brown. El suavizamiento exponencial simple adolece del problema de subestimar sensiblemente la serie si ésta presenta una tendencia creciente. En este caso se aplicó el parámetro Alfa = 117 . La predicción adopta la forma de una recta con at como ordenada al origen y bt como la pendiente aplicada al número del período que se pretende pronosticar. El método de Brown utiliza un doble suavizamiento exponencial con el objeto de incorporar la presencia de la tendencia. La diferencia entre las dos series suavizadas es ponderada por dos coeficientes identificados como at y bt .

19947 -0.0.455 99.245 99.117 101.184 102.079 101.536 101.990 100.305 101. Como valores iniciales para el suavizamiento simple y el doble se tomó la primera observación de la serie.120 99.087 100.809 98.20.069 101.01125 -0.077 at 101.177 100.452 100.499 99.068 101.04498 -0.610 99.068 101.239 98.078 101.372 S''t 101.727 100.776 98.00529 0.253 100.14909 -0.682 100.068 101.907 100.132 101.21071 -0.17615 a(t-1)+b(t-1) Yt estimada 101.827 99.122 101.604 100.041 S't 101.244 98.490 101. así como de los pronósticos.663 100.458 A continuación se presenta la gráfica de la serie completa.841 100.657 98.2 Período t Yt 1 2 3 4 5 6 7 8 9 10 11 12 Yt 101.074 101.217 99.233 100.556 98. 118 .096 101. Alfa = 0.00112 0.121 101.767 98.096 101.061 98.17803 -0.648 99.664 99.09665 -0.390 98.668 bt 0.951 99.222 100.074 101.04613 0.143 100.837 99.

1 2 3 4 5 6 7 8 9 10 11 12 92.2 49 50 51 52 53 54 110.3 111.5 118.5 114.3 102.8 112. Ambos parámetros se asignan en forma externa sin depender de los datos de la serie.1 115.6 109.9 109.5 13 14 15 16 17 18 19 20 21 22 23 24 99. excepto que no aplica la fórmula de doble suavizamiento. Para el cálculo utiliza tres ecuaciones: Lt = αYt + (1 − α )( Lt −1 + Tt −1 ) Tt = β ( Lt − Lt −1 ) + (1 − β )Tt −1 ˆ Yt + p = Lt + pTt Donde Yt Es el valor de la serie original al tiempo t Es el valor suavizado de la serie.3 106.1 106.9 105.5 108.0 96. Es la componente de tendencia suavizada. Es el parámetro de suavizamiento de la serie.3 115.1 116.5 111.2 106. α Lt Tt β p Es el período de pronóstico.5 107. Es un procedimiento usual en los medios de análisis financieros.5 101.5 113.2 101.1 110.3 106.8 104. es similar al de Brown.5 37 38 39 40 41 42 43 44 45 46 47 48 110.6 118.1 108.7 98. Es el parámetro de suavizamiento de la tendencia.7 117.3 100.0 108.6 107.2 112.3 103.1 111.9 118.7 118.2 93.5 100.Suavizamiento Exponencial de Holt .3 105.1 107.4 106.1 98. Considérese como ejemplo de aplicación la siguiente serie que presenta un comportamiento estacional que parece repetirse cada 10 períodos y una clara tendencia al alza.1 25 26 27 28 29 30 31 32 33 34 35 36 113.1 100.5 119.6 115. con lo cual se tiene mayor flexibilidad en el modelo.5 109. sino un suavizamiento simple con el parámetro α y la tendencia se suaviza a partir de un parámetro adicional β.8 101.9 105.7 119 .8 111.

9302 1.3 Lt 92.8852 1.7245 1.1 98.62891 0.1724 106.4610 106. Para fines de pronóstico en nuestra experiencia funciona mejor una ligera modificación de la fórmula de Holt al desplazar la componente de tendencia pues así se preserva cierto efecto de la estacionalidad.9 105.8300 96.81764 0.0 96.5 101.8 107.1 107.50106 3.1 e2 Residual 0.5702 Tt 0.7514 102. En este caso los valores utilizados son α = 0.Para el arranque del procedimiento se asigna el valor de la primera observación a L1 = 92. A continuación se reproducen los cálculos asociados a las primeras 10 observaciones.6021 103.2000 92.02074 0.0 97.8 108.7 107.84266 7.4564 Y t est 92.1260 0.9 105.1 106.2 99.0000 0.59486 0.1309 99.0697 -0.01866 6.49613 4. Para las observaciones subsiguientes se aplican las fórmulas iterativas referidas anteriormente.8777 y el grado de ajuste se puede observar en la siguiente gráfica.7 105.7 98.2501 1.6 103.9 99.0833 107.2 como consecuencia Y1 estimada coincide con la observación. Período t 1 2 3 4 5 6 7 8 9 10 Yt 92. ˆ Yt + p = Lt + pTt − S + p 120 .2. Un aspecto importante es la selección de los valores de los parámetros de suavizamiento.5974 1.7 y β = 0.2 93.2 93.91726 El error cuadrático medio alcanza el valor 1.00000 0.0692 1.9768 98.

γ=0.Suavizamiento Exponencial de Holt 130 120 110 100 90 80 1 11 21 31 41 51 61 Período Suavizamiento Exponencial de Winter . El procedimiento de suavizamiento de Holt fue refinado por Winter con la inclusión de un parámetro adicional para la estacionalidad. Su procedimiento incluye 3 parámetros se suavizamiento α. β=0.75 se obtienen los siguientes resultados para las primeras 10 observaciones. β.20 . ˆ Yt + p = (Lt + pTt − s + p )St − s + p Al aplicar el procedimiento a la serie anterior con valores α = 0. Para el cálculo se emplean cuatro ecuaciones que reflejan los suavizamientos y el pronóstico. γ para la serie.75. la tendencia y la estacionalidad. Lt = α Yt + (1 − α )( Lt −1 + Tt −1 ) St − s Tt = β ( Lt − Lt −1 ) + (1 − β )Tt −1 St = γ Yt + (1 − γ ) S t − s Lt ˆ Yt + p = (Lt + pTt )St − s + p En este caso también se plantea una ligera modificación al desplazar la componente de tendencia. 121 .

9 105.8 108.59167 0.29574 0. tendencia.97727 115.7 98.07185 1.3258. Y = T+C+E+I 122 .45256 1.72832 106.71527 4.05736 3. estacional y aleatorio suman sus efectos.1 98.72880 2.08467 100.35904 0.11409 107.92973 0.2 93.25207 114.92245 0.9 106.92100 0.3 e2 Residual 0.38966 112.50640 La suma de cuadrados de los residuales alcanza 1.90361 Y t est 92.27479 1.26114 -0.39255 0.7 98.91658 0.57531 7.02993 2.4 106. Lo que se pretende entonces es aislar los efectos bajo el supuesto de aditividad.01665 1.24312 110.Período t 1 2 3 4 5 6 7 8 9 10 Yt 92.9 105. Suavizamiento Exponencial de Winter 130 120 110 100 90 80 1 6 11 16 21 26 31 36 41 46 51 56 61 66 Período METODOS DE DESCOMPOSICIÓN Método Aditivo En el método aditivo se considera que los componentes de la serie se tiempo Y.91708 0.8 107.92687 0.53781 107.9 100.93296 0.92581 0.33948 0.8 93.1 107.92421 0.49899 0.1 106.89473 1. En la siguiente gráfica se muestra el ajuste y los pronósticos para los siguientes 10 períodos. cíclico.0 96.3 Lt Tt St 0.9 98.3 103.68357 101.5 101.50268 4.24949 1.69338 114.

Se empieza con la tendencia. considerando como variable independiente el período.El método consiste en identificar cada componente y restarla de la serie original. se sigue con el componente estacional y se concluye con el componente cíclico. Serie de Tiempo Original 900 800 700 600 500 400 300 200 100 0 May-90 May-91 May-92 May-93 May-94 May-95 May-96 May-97 Ene-90 Sep-90 Ene-91 Sep-91 Ene-92 Sep-92 Ene-93 Sep-93 Ene-94 Sep-94 Ene-95 Sep-95 Ene-96 Sep-96 Ene-97 Sep-97 Eliminación de la Tendencia. Por comodidad a enero de 1990 se le asigna el t=1 y se concluye con t=96 para diciembre de 1997. El resto corresponde a la componente aleatoria. Mes Ene Feb Mar Abr May Jun Jul Ago Sep Oct Nov Dic 1990 169 127 235 314 343 345 377 346 348 442 440 674 1991 351 310 434 517 523 535 549 510 503 574 567 777 1992 457 403 519 579 571 563 550 485 448 493 447 646 1993 277 216 292 357 349 327 335 290 262 331 315 544 1994 212 167 295 380 391 406 422 404 400 475 486 721 1995 410 363 478 561 565 575 596 561 538 613 626 831 1996 502 448 554 634 629 609 601 549 496 546 494 690 1997 342 264 336 395 387 390 378 330 316 374 372 578 La gráfica de la serie de tiempo presenta evidencia de cierta tendencia ascendente. Se procede a ajustar un modelo de regresión simple a toda la serie de datos. Ejemplo: Considere la siguiente serie de tiempo correspondiente a 8 años de observaciones mensuales de 1990 a 1997. un efecto estacional mensual que repite el patrón anualmente y ciclos largos de 4 años de duración. El modelo ajustado es el siguiente: 123 .

se parte de la serie de diferencias y se calcula el promedio de las observaciones correspondientes a cada mes. la gráfica de la serie de diferencias permite apreciar un ligero efecto estabilizador en la serie. si se la comprara con la serie original.101535 + 0. 124 .957528t Tendencia 550 500 450 400 350 300 250 200 150 100 50 0 0 10 20 30 40 50 Período t 60 70 80 90 100 110 Se estima Yt para las 96 observaciones y a la serie original se le resta la serie estimada por el modelo: Una vez restada la componente de tendencia. Como se observa un patrón estacional mensual.ˆ Yt = 403. Serie Restada la Tendencia 450 350 250 150 50 -50 -150 -250 -350 -450 10 20 30 40 50 Período t 60 70 80 90 100 Eliminación de la componente estacional. Estos promedios se restan de la serie original en los meses respectivos.

107 14. se restan los promedios calculados período a período. Así la 1ª observación se promedia con la 49ª y se procede en forma sucesiva.977 21.687 25.315 19. 125 . esto es.603 -38. Entonces se procede a calcular el promedio de las observaciones separadas en esa magnitud.817 250 200 150 100 50 0 -50 -100 -150 -200 10 20 30 40 50 Período t 60 70 80 90 100 El efecto resultante de restar los promedios mensuales es una serie que presenta solamente por la componente cíclica y por la componente aleatoria.Componente Estacional Mensual Mes Ene Feb Mar Abr May Jun Jul Ago Sep Oct Nov Dic Promedio -104.524 227.983 -53. Ello se observa en la siguiente gráfica: Serie con Componente Cíclica y Aleatoria 200 150 100 50 0 -50 -100 -150 -200 10 20 30 40 50 Período t 60 70 80 90 100 En la gráfica se puede observar que los ciclos cubren 48 períodos. Se procede entonces con el mismo procedimiento aplicado a la componente estaciona.645 19.275 -157.980 -16. La diferencia resultante corresponde únicamente a la parte aleatoria.060 28.

977 21.264 -123.861 32.974 406.983 -53.019 -1.0 377.014 -59.762 411.932 407. En la estimación de 126 .111 Residual 1.519 0.0 Tendencia 404.107 14.0 346.804 410.519 En el ejemplo el error cuadrático medio es igual a 20.560 28. Se procede en forma inversa.0 343.0 314.889 -85.139 -35.0 235.019 -0. más 24 correspondientes a 2 años de pronóstico.Serie de Componente Aleatoria 15 10 5 0 -5 -10 -15 10 20 30 40 50 Período t 60 70 80 90 100 Como resultado final cada valor de la serie se puede expresar como la suma de sus cuatro componentes.019 6.645 19.110.514 -76.980 -16.592 Estacional -104.484.017 405.603 -25.481 -0. En la siguiente tabla se reproduce la descomposición de los primeros doce meses de la serie.524 227. En la siguiente gráfica se presentan los valores observados y pronosticados para las 96 observaciones originales.0 345.0 442.634 414.0 127.264 -42. Un valor muy pequeño si se considera que el valor promedio de la serie es de 448.275 -157. esto es primero se toma la tendencia estimada para el período observado y para los períodos adicionales que se pretende pronosticar.981 -7.677 413. Su raíz cuadrada se considera como el error estándar de la estimación y en este caso es 4.847 409.0 440.264 11. Período t 1 2 3 4 5 6 7 8 9 10 11 12 Mes Ene-90 Feb-90 Mar-90 Abr-90 May-90 Jun-90 Jul-90 Ago-90 Sep-90 Oct-90 Nov-90 Dic-90 Valor 169.019 -3. A los valores estimados por la tendencia se les suma en forma congruente la componenete estacional y la componente cíclica.059 405.139 -5.014 -110.481 2.687 25.0 348. Predicción.315 19.889 408.0 674.481 -6.019 -7.817 Cíclico -132.639 -102.719 412.019 -10. representa un error relativo de 1%.

Y = T*C*E*I 127 . excepto que en lugar de restar en forma sucesiva. esto es tendencia. tendencia. estacional y cíclico y poder calcular el ECM. cíclico. El procedimiento de cálculo es similar al utilizado para el método aditivo. Serie Original y Serie Pronosticada 1000 900 800 700 600 500 400 300 200 100 0 10 20 30 40 50 60 70 Período t 80 90 100 110 120 130 VALOR ESTIMADO Método Multiplicativo En el método multiplicativo se considera que los componentes de la serie se tiempo Y. la serie se divide secuencialmente entre cada componente. estacional y aleatorio multiplican sus efectos.los meses observados no se considera la componente residual con objeto de ver como se ajusta la serie al considerar los componentes sistemáticos.

{Z t .. El proceso estocástico quedará plenamente caracterizado si se exhibe la función de densidad conjunta f ( Z 1 . Holt y Winter entre otros. Z 2 . estimar y diagnosticar modelos dinámicos de series temporales con la idea de que las estructuras subyacentes conduzcan al investigador a construir un modelo en el que la variable exógena está constituida por valores retrasados de la misma variable.. Entonces Z1. la mayoría de las series de interés económico se representan mejor por modelos no estacionarios.. Una serie de tiempo se concibe como una sucesión de observaciones generadas por un proceso estocástico cuyo conjunto índice es el tiempo..P. Jenkins publican su ahora famoso libro “Time Series análisis forecasting and control” en donde presentan una metodología para identificar. Operadores Operador de retraso Se identifica por la letra B y se define como el valor retrasado de la serie indicado por el exponente del operador: B k Z t = Z t −k para k =1.. Una clase importante de modelos estocásticos para describir series de tiempo son los llamados modelos estacionarios. Si T es un conjunto finito o infinito pero numerable se doce que el proceso es discreto.. Z2 Z3…. Procesos Estocásticos y Series de Tiempo Un proceso estocástico es sucesión ordenada de variables aleatorias Zt asociadas a un conjunto índice de números reales. Zn denota valores sucesivos de la serie a intervalos equidistantes. Box y Gwilym M. los cuales suponen que el proceso permanece en equilibrio en torno a una media constante. Se argumenta como ventaja el que el investigador se ahorra el esfuerzo de especificación de variables y relaciones adicionales.2. t ε T} .MODELOS AUTORREGRESIVOS INTEGRADOS DE MEDIAS MOVILES (ARIMA) En 1970 George E. ello motivó los métodos de suavizamiento exponencial revisados en la sección anterior de Brown.. pero por otra parte se renuncia a la presencia de otras variables relacionadas con el fenómeno que se estudia y la riqueza interpretativa que la acompaña.…. Z n ) . Más adelante se analizará su definición formal. 128 . Sin embargo. Box y Jenkins mencionan que los modelos de suavizamiento exponencial óptimos corresponden a los llamados modelos autorregresivos integrados y de medias móviles (ARiMA) que se revisarán con mayor detalle.

el de diferencia y el de retraso se relacionan de la siguiente forma: Z t = Z t − Z t −1 = Z t − BZ t = (1 − B) Z t = (1 − B) Al aplicar el operador diferencia en forma sucesiva se tiene: k = (1 − B) k Zt = ∑ k! (−1) k Z t − k j = 0 k!( k − 1)! k k Ejemplo: La siguiente serie de tiempo corresponde a consumo de energía eléctrica en USA durante el período enero de 1951 a diciembre de 1958. 129 .En particular B0 Zt = Zt El operador se puede aplicar en forma sucesiva B k Z t = B ( B k −1Z t ) = Z t − k Operador de diferencia Se identifica por la letra delta invertida y se define como el la diferencia entre el valor correspondiente al período t y valor retrasado k períodos. Z t = Z t − Z t −1 Ambos operadores. En la gráfica se presenta la serie original y las series generadas por los operadores Diferencia y Hacia Atrás aplicados para k=1.

− g k Z t − k = Z t − ∑ g j Z t − j j =1 k Donde Zt es el valor de la serie en el período t y gt es un ponderador para el valor del mismo período.. la tendencia creciente de la serie original se elimina en la serie de primera diferencia...Mes Ene Feb Mar Abr May Jun Jul Ago Sep Oct Nov Dic 1951 318 281 278 250 231 216 223 245 269 302 325 347 1952 342 309 299 268 249 236 242 262 288 321 342 364 1953 367 328 320 287 269 251 259 284 309 345 367 394 1954 392 349 342 311 290 273 282 305 328 364 389 417 1955 420 378 370 334 314 296 305 330 356 396 422 452 1956 453 412 398 362 341 322 335 359 392 427 454 483 1957 487 440 429 393 370 347 357 388 415 457 491 516 1958 529 477 463 423 398 380 389 419 448 493 526 560 Como se puede ver en la gráfica. Una combinación lineal de la forma: Z t − g 1 Z t −1 − g 2 Z t − 2 − ... Serie de consumo de energía eléctrica USA Serie original y operadores Hacia Atrás y Diferencia 600 500 400 300 200 100 0 -100 1 6 11 16 21 26 31 36 41 46 51 56 Período t 61 66 71 76 81 86 91 96 Zt BZt ∆Zt Operador de retraso y polinomios.. La serie se puede considerar como un polinomio de retraso: 130 ..

... el modelo se puede representar entonces: ( ) Z t − µ = θ (B )at De manera análoga un modelo autorregresivo puro de orden k AR(k) se define como sigue.... se puede representar de la siguiente forma: Z t − µ = 1 − θ1 B − θ 2 B 2 − .. en donde φt representa los parámetros autorregresivos... con IgI<1 En forma alternativa G ( B) = 1 con IgI<1 1 − gB La representación de un modelo para una serie de tiempo mediante polinomios de retraso proporciona una forma resumida del modelo... − g k B k = 1 − ∑ g j B j j =1 k Un ejemplo de polinomio de retraso es la serie geométrica: 2 3 G ( B) = 1 + g1 B + g 2 B 2 + g 3 B 3 + ...... el cual se detallará más adelante. En notación de polinomio de retraso...G ( B) Z t = Z t − g1 BZ t − g 2 B 2 Z t − ........ Así un modelo de medias móviles puro MA(k). θj un conjunto de parámetros del modelo y {at }un sucesión de variables aleatorias. − g k B k Z t = Z t − ∑ g j B j Z t j =1 k De donde G ( B) = 1 − g1 B − g 2 B 2 − ... (1 − φ1 B − φ 2 B 2 − . − θ k B k at En donde µ representa la media de la serie..... − φ k B k )( Z t − µ ) = at En notación de polinomio de retraso queda φ ( B)( Z t − µ ) = at Desde luego se pueden plantear modelos que combinen parámetros autorregresivos y de medias móviles (ARMA): φ ( B)( Z t − µ ) = θ ( B )at 131 ..

. = µ + ψ (B )at El operador lineal o polinomio que transforma la sucesión de ruido blanco en la serie de tiempo se conoce también como función de transferencia.. teóricamente puede ser finita o infinita.. Estos choques son variables aleatorias de una distribución que usualmente se supone normal con media cero y varianza σ2 . Los modelos que se emplearán se basan en la idea propuesta por Yule (1924) de que una serie de tiempo se expresa como una sucesión de valores altamente dependientes y que se consideran generados por una serie de choques independientes at.ψ 2 ..... La sucesión ψ 1 .at-1.. formada por los ponderadores....... Z t = µ + at + ψ 1 at −1 + ψ 2 at − 2 + . Un proceso estocástico se caracteriza completamente si se exhibe la función de distribución conjunta de todas las variables aleatorias que lo constituyen.Es factible incorporar operadores de retraso y de diferencia que constituyen los llamados modelos integrados autorregresivos y de medias móviles (ARIMA): φ (B) d Z t = θ ( B )at Filtros lineales.. es llamada ruido blanco por alusión al campo de las comunicaciones electrónicas. El filtro lineal consiste en una suma ponderada de los valores del ruido blanco...…. Procesos Estacionarios.. De otra forma se dice que el proceso es no estacionario y la media es solamente un punto de referencia de la serie.at-2.... El proceso de ruido blanco at es transformado al proceso Zt por un filtro lineal. La secuencia de valores at. se dice que el filtro es estable y el proceso resultante es estacionario y varía en torno a la media. En la 132 .. ψ (B ) = 1 + ψ 1 B + ψ 2 B 2 + . Si la sucesión es finita o infinita y convergente...

1 0...... En la siguiente gráfica se observan des realizaciones del mismo proceso estacionario. + 2ψ 1 at −1ψ 2 at − 2 + ..6 0.) ( ) 133 .. − E (2atψ 1 at −1 + 2atψ 2 at − 2 + ...8 -1 La varianza del proceso se obtiene a partir de la definición γ 0 = E (Z t − µ ) 2 = E (a t + ψ 1 at −1 + ψ 2 a t − 2 + .. varianzas y covarianzas)..2 -0...8 0.6 -0.... no es tan simple como distribuir el operador esperanza. µ t = µ + E (at +ψ 1at −1 +ψ 2 at −2 + ..) A menos que la suma de ponderadores converja. cuya media es cero. pero siempre volverá.práctica es difícil que esto se pueda tener. Se recurre entonces a los momentos de primero y segundo orden (medias.4 0.... pero si la serie es infinita. 1 + ∑ ψ i <∝ i =1 ∝ Entonces la media de la serie no depende del tiempo E (Z t ) = µ La serie eventualmente se puede alejar del valor medio. E (Z t ) = µ t En otros términos se tiene la esperanza de la suma ponderada.4 -0..) 2 = E a 2 t + ψ 21 a 2 t −1 + ψ 2 2 a 2 t − 2 + .2 0 -0.

Para evitar la influencia de las unidades..... Z t + 2+ m +.....Z t + n no cambia respecto a desplazamientos en el tiempo.... Z t +1+ m . Z t +1 . Z t + 2 .......)] = σ 2 (− ψ k + ψ 1ψ k +1 + ψ 2ψ k + 2 + ... Un proceso se define estrictamente estacionario si la función de densidad para un conjunto arbitrario de variables Z t ...por independencia y considerando que las at tienen la misma varianza....Z t + n + m ) Si un proceso es estrictamente estacionario cumple la estacionariedad de segundo orden y en consecuencia Media Varianza Autocovarianza E (Z t ) = E (Z t +k ) = µ V (Z t ) = V (Z t +k ) = σ 2 E (Z t − µ )(Z t + k − µ ) = (Z t + m − µ )(Z t + m + k − µ ) = γ k En el supuesto de normalidad basta conocer los momentos de primero y segundo orden para considerar que una serie está completamente determinada.... 134 .)(at + k + ψ 1 at + k −1 + ψ 2 at + k − 2 + ...) = σ 2 ∑ψ iψ i + k − ψ k también se debe cumplir la condición de convergencia... La covarianza se define γ k = E [(Z t − µ )(Z t +k − µ )] = E [(at + ψ 1 at −1 + ψ 2 at − 2 + . = σ 2 ∑ψ 2 j j =1 ∝ adopta un valor real si ∑ψ j =1 ∝ 2 j <∝ La varianza no depende del tiempo..Z t + n ) = f ( Z t + m . en lugar de las autocovarianzas se consideran los coeficientes de autocorrelación. f ( Z t . j =1 ∝ Se observa que la covarianza tampoco depende del tiempo.... Z t +1 . Z t + 2 .. Cuando los momentos de primero y segundo orden de un proceso no dependen del tiempo se les designa como estacionarios de segundo orden.

ρk = E (Z t − µ )(Z t + k − µ ) E (Z t − µ ) 2 = γk γ0 para k=0. Estimaciones de momentos. 135 . así como el los coeficientes de autocorrelación y gráficos. rk = Ck = C0 ∑ (Z t =1 n−k t n ~ ~ − Z )(Z t + k − Z ) t ∑ (Z t =1 ~2 −Z) Ejemplo Considérese la serie de tasas de inflación anualizadas y referidas mensualmente para el período enero de 2000 a noviembre de 2006 calculadas a partir de datos proporcionados por Banxico.…… La serie de coeficientes de autocorrelación forma la función de autocorrelación.2. que de hecho son las más frecuentes en la práctica. Estimación de la media n ~ 1 Z = ∑ Zt n t =1 Estimación de las autocovarianzas Ck = 1 n−k ~ ~ ∑ (Z t − Z )(Z t + k − Z ) k=0.1. En la práctica estos valores parametrales se desconcen y solamente se cuenta con una realización que se supone suficientemente larga a partir de la cual se calculan estimaciones de media.1.3………. varianza y función de autocorrelación. n t =1 Estimación de los coeficientes de autocorrelación. esto es que es estacionario y que las autocovarianzas se anulan al incrementar la distancia. las estimaciones de los momentos.2. entonces basta calcular una serie relativamente corta de coeficientes de autocorrelación para tener caracterizado el proceso. Observe que las autocorrelaciones muestran una lenta caída característica de las series no estacionarias. Si se considera que el proceso que generó la serie es ergódica en el segundo momento. En la siguiente página se presenta la serie. Algunos autores recomiendan a lo más n/4 donde n es el tamaño de la serie.

2% 2005 4.1% 8.0% 4.0% 10.9% 5.0% 3.1% 7.1% 4.932946 0.644180 0.1% 4.0% 4.370170 1.5% 10.00023519 r8 0.00017085 r11 0.9% 6.5% 9.4% Autocovarianzas y coeficientes de autocorrelación de los primeros 12 órdenes.826041 0.00039225 0. Co C1 C2 C3 C4 C5 C6 C7 C8 C9 C10 C11 C12 0.8% 5.1% 5.1% 7.4% 5.7% 3.554511 0.4% 5.3% 4.4% 4.00025268 r7 0.738968 0.0% 4.3% 4.7% 4.Mes Ene Feb Mar Abr May Jun Jul Ago Sep Oct Nov Dic 2000 11.782309 0.2% 7.5% 3.0% 0.9% 9.1% 9.0% 6.9% 3.0% 8.0001452 r12 0.2% 3.3% 2006 3.0% 2004 4.00036595 r1 0.5% 4.0% 2.00034355 r2 0.9% 8.5% 4.6% 4.5% 4.0% 4.8% 8.9% 4.0% 10.1% 3.50 0.5% 3.9% 3.00 1 2 3 4 5 6 7 8 9 10 11 12 Coeficiente de autocorrelación Función de Autocorrelación Muestral 136 .8% 4.4% 3.5% 5.875833 0.9% 3.10 0.00019578 r10 0.2% 5.4% 4.20 0.499116 0.30 0.0% 2001 8.3% 4.7% 4.0% 4.2% 3.00027061 r6 0.4% 4.00 0.435573 0.6% 5.0% 6.5% 5.00028986 r5 0.6% 4.7% 2003 5.3% 4.60 0.1% 7.0% 24/07/1998 06/12/1999 19/04/2001 01/09/2002 14/01/2004 28/05/2005 10/10/2006 22/02/2008 Media aritmética de la serie 5.3% 4.8% 4.2% 4.7% 4.00030686 r4 0.1% 9.80 0.1% 5.1% Tasa de Inflación Anualizada Mesual Enero 200 a Noviembre 2006 12.1% 2.70 0.9% 5.9% 5.689893 0.40 0.00032402 r3 0.4% 5.6% 5.3% 4.9% 5.599598 0.5% 4.7% 9.2% 4.2% 4.2% 4.90 0.7% 4.4% 9.00021751 r9 0.4% 2002 4.

0 -4.0 137 .0 1.0 20.0 10. Por ejemplo considere un proceso definido por Z t = 5 + 0.0 0.0 -5.0 -1.0 3.0 -2.3(t − 1) + at −1 ) = 0.0 15.3 + at − at −1 Serie de primeras diferencias 5.La falta de estacionariedad de la serie no es un problema muy serio. pues en general las series presentan una tendencia polinomial adaptativa que es factible de eliminar mediante la aplicación del operador de diferencias .0 1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49 Si a la serie anterior se le aplica la primera diferencia estacionaria en cuanto a su nivel.3t + at con at distribuida normalmente con media cero y varianza 1.0 -3.0 4. Serie con tendencia lineal 25.3t + at ) − (5 + 0.0 2.0 5.0 0. Zt quedará una serie Zt= Z t − Z t −1 = (5 + 0.

. ( ) ( ) = σ 2 1 + φ12 + φ14 + .. = γ o = ( ) σ2 (1 − φ12 ) 138 ..... − φ p B p Z t = at ) ~ φ ( B ) Z t = at Modelo AR(1) Se revisará inicialmente el modelo más sencillo AR(1): ~ ~ Z t = φ1 Z t −1 + at ~ (1 − φ1 B )Z t = at Para que la serie generada por este modelo sea estacionaria.. se requiere que la raíz de la siguiente ecuación se ubique dentro del círculo unitario.. etc.. cúbica...... = 0 ~ V (Z t ) = V (at ) + φ12V (at −1 ) + φ14V (at − 2 ) + ..... −1 ~ Z t = (1 − φ1 B ) at = at + φ1 at −1 + φ12 at − 2 + ... (1 − φ B − φ B 1 2 2 ~ − . = E ( at ) + φ1 E ( at −1 ) + φ12 E (at − 2 ) + .. + φ p Z t − p + a t Expresado en forma equivalente en términos del operador de retraso.............De manera análoga la aplicación sucesiva de diferencias eliminará la tendencia cuadrática. Hay que tener cuidado de no sobrediferenciar una serie... 1 − φx = 0 Por tanto debe cumplir φ1 < 1 y en forma alternativa se tiene la siguiente expresión cuyos términos convergen a cero.................. Entonces el valor esperado y la varianza de la serie es: ~ E (Z t ) = E at + φ1 at −1 + φ12 at − 2 + . Modelos Autorregresivos AR(p) Considérese un modelo en el cual la variable dependiente depende de p valores retrasados de la misma variable en la siguiente forma: ~ ~ ~ ~ Z t = φ1 Z t −1 + φ 2 Z t − 2 + ... pues al diferenciar una serie estacionaria se incrementa la varianza de la serie y en cada paso de diferenciación se pierde una observación..

±3…….00 -2.2.4398562 0.80000 0.64000 0.90 0.2575783 0.00 -3.40 -0.50 -0.00 1 2 3 4 5 6 139 .26214 Autocorrelaciones 1.00 -0.3……….8 0 0.7 1 2 3 4 5 6 Empírica Teórica 0.00 0.30 -0.60 0.40960 0.De manera análoga las autocovarianzas se expresan σ 2φ1 k γk = = φ1γ k −1 para k=1.10 0.00 1. Se han calculado las autocorrelaciones teóricas y empíricas.5665632 0..70 0.30 0.6935108 0.3472216 0.00 5.00 -1.32768 0.70 -0.00 3. (1 − φ12 ) Las autocorrelaciones quedan entonces definidas como sigue: γk σ 2φ1 k  σ 2  k ρk = = / 2   (1 − φ 2 )  = φ1 γ o (1 − φ1 )  1  Se nota que las autocorrelaciones tenderán a cero conforme k se incrementa y que una estimación del parámetro φ1 se obtiene mediante el coeficiente de autocorrelacion de primer orden.80 0.20 0.8429854 0. µ = σ2= φ = 0. Obsérvese la lenta caída de las autocorrelaciones.51200 0. Ejemplo Se tiene una realización de 156 observaciones generadas por Montecarlo de un modelo AR(1) que tiene los siguientes parámetros y cuyo error se distribuye normal con media 0 y varianza 0. (1 − φ12 ) Puesto que γ k = γ − k se sigue: γk = σ 2φ1 k paa k = 0.00 4.90 -1.60 -0.7. ±2.40 0.00 0.00 Modelor Autorregresivo de Primer Orden AR(1) 6.10 -0.80 -0.±1.00 2.50 0.20 -0.

10 -0.00 0.32768 0.30 -0.80 -0. Modelor Autorregresivo de Primer Orden AR(1) 6. φ1 + φ 2 < 1 y φ1 − φ 2 < 1 Estas restricciones definen una zona de combinaciones factibles en el plano cartesiano en forma de triángulo dentro de los intervalos (-2.7603542 0.00 -6.60 -0.60 0.00 1.40 -0.90 0.2) y (-1.8 .70 -0.6485430 -0. Se observa el comportamiento muy cortado de la serie y la caída alternada de las autocorrelaciones.00 -0.00 4.3288337 0.40960 -0.00 0. ~ ~ ~ Z t = φ1 Z t −1 + φ 2 Z t − 2 + at ~ (1 − φ B − φ B )Z 2 1 2 t = at Para que la serie generada por este modelo sea estacionaria.00 2.20 0.64000 -0.10 0.26214 Autocorrelaciones 1 2 3 4 5 6 Modelo AR(2) De manera natural se sigue con el análisis del modelo AR(2).1) 140 . se requiere que las raíces de la siguiente ecuación se ubiquen fuera del círculo unitario 1 − φ1 x − φ2 x 2 = 0 Esta condición es equivalente a las siguientes restricciones: φ1 < 1 .00 -4.80000 0.00 1 2 3 4 5 6 Empírica Teórica -0.40 0.4232558 -0.51200 0.5239865 0.30 0.80 0.20 -0.8794083 -0.Ahora se cambia únicamente el parámetro φ1 = -0.50 -0.50 0.90 -1.00 -2.70 0.

60 0.8 -1 Phi 1 0.80 0.20 0.40 1.20 -0.6 0.00 Ahora se establecen los primeros dos momentos del modelo para completar su definición.Región para Estacionariedad de AR(2) 1 0.2 Phi 2 0 2.4 0.6 -0.40 0. las cuales permiten obtener los valores de las primeras dos autocorrelaciones en función de φ1 y φ 2 ρ1 = φ1 + φ 2 ρ1 ρ 2 = φ1 ρ1 + φ 2 141 .4 -0.80 2.60 1.20 1.80 1.40 0.40 1.00 1. ~ E (Z ) = 0 ~ V (Z ) = σ2 1 − ρ1φ1 − ρ 2φ 2 φ γ + φ γ + σ 2 si k = 0 γk =  1 1 2 2 φ1γ k −1 + φ 2γ k −2 si k > 0 Considérese γ 1 y γ 2 γ 1 = φ1γ 0 + φ 2 γ −1 que por simetría equivale a γ 1 = φ1γ 0 + φ 2 γ 1 y por otra parte γ 2 = φ1γ 1 + φ 2 γ 0 Si estas dos últimas ecuaciones se dividen entre γ 0 se obtienen las ecuaciones de Yule Walter.8 0.60 1.60 0.80 1.00 0.20 1.00 1.2 -0.

Si la primera es negativa.De la primera ecuación ρ1 = φ1 /(1 − φ 2 ) y al sustituir en la segunda ecuación se obtiene ρ 2 = φ12 /(1 − φ 2 ) + φ 2 y las siguientes autocorrelaciones por la ecuación recurrente: ρ k = φ1 ρ k −1 + φ 2 ρ k − 2 para k ≥ 3 También es factible establecer condiciones de estacionariedad para el modelo AR(2) en función de los dos primeros coeficientes de autocorrelación y definen una superficie delimitada por una parábola. Al utilizar las ecuaciones de Yule Walter y resolverlas para φ1 y φ 2 se tienen expresiones en función de las autocorrelaciones que al ser sustituidas por su cálculos empíricos dan estimaciones de los parámetros. entonces presentarán signos alternados. − 1 < ρ1 < 1 −1 < ρ2 < 1 ρ12 − 1 < ( ρ 2 + 1) 1 2 Las autocorrelaciones decaerán exponencialmente hacia cero y serán positivas si la primera lo es. φ1 = ρ1 (1 − ρ 2 ) /(1 − ρ 21 ) φ 2 = ( ρ 2 − ρ12 ) /(1 − ρ 21 ) 142 .

60 0.00 0..40000 0.26000 0. φ 2 = 0.00 Autocorrelaciones 1..08704 Modelo AR(p) El caso general de los modelos autorregresivos puros considera p parámetros.. σ 2 = 0.40 .1008896 Teórica 0. Rápidamente se verifica que es estacionario y la lenta caída de los valores de las autocorrelaciones.80 0.50000 0.70 -0.30 0.20 0.00 1 2 3 4 5 6 k 1 2 3 4 5 6 Empírica 0.40 0.90 0.5035914 0. 143 .10 -0.Ejemplo: Se tiene una realización de 156 observaciones del modelo AR(2) con los siguientes parámetros: φ1 = 0.00 -1.2004238 0.50 -2..60 -0.50 -0..3890243 0..18400 0. Estas condiciones son una consecuencia de la aplicación del llamado Teorema de Schur.20. + φ p B Z t = at ( )~ Para que el proceso AR(p) sea estacionario se requiere que las raíces del polinomio se encuentren fuera del círculo unitario. 1 − φ1 x − φ2 x 2 + .50 0..10 0.30 -0.00 -0. Modelor Autorregresivo de Segundo Orden AR(2) 1. + φ p Z t − p + at ~ ~ Zt = Zt − µ p 2 En términos del operador de retraso 1 − φ1 B − φ 2 B + .2364115 0.50 1....00 0. + φ p x p = 0 Una forma alterntiva de verificar ello es que los siguientes determinantes que involucran a los parámetros autorregresivos sean positivos.50 0.50 -1.40 -0..12560 0...00 -0.80 -0.20 -0.3544912 0.90 -1. ~ ~ ~ ~ Z t = φ1 Z t −1 + φ 2 Z t − 2 + .50 .70 0.

+ φ p ρ k -p para k > p Considérese ahora la matriz de coeficientes de autocorrelación para toda la muestra. D p = 0 − 1 φ1 . Modelos de Medias Móviles AM(q) Los modelos de medias móviles. 0 0 φ p −1 0 φ p ……. φ p φ p −1 ......... + φ p ρ p-1 ρ 2 = φ1 ρ1 + φ 2 + .1.. ρ n −1 ρ 1....... ρ1 . .... φp 0 −1 0 φ1 φ2 ... − θ q B q )at ~ o bien Z t = θ ( B)at 144 .... introducidos por Yule y Slutzky........ ρ n −1 ρ n−2 ρ n −3 .. φ p φ p −1 φ1 ....... representan un proceso como una suma finita de choques aleatorios independientes at ponderados por una serie de parámetros en la siguiente forma: ~ Z t = at − θ1 at −1 − θ 2 at − 2 − .. ρ 2 .. ... φ p 0 0. ρ n − 2 ..... φ1 φ 2 .. .−1 D1 = −1 φ p φp −1 D2 = φ1 φp φ p −1 − 1 0. − θ q at − q En forma equivalente se representa: ~ Z t = (1 − θ1 B − θ 2 B 2 − ... 0. ρ1 = φ1 + φ 2 ρ1 + ... 1 Pn = ρ1 1 ... 1 ρ2 ρ1 Para que la serie sea estacionaria se requiere que esta matriz así como sus menores sean positivos......... . + φ p Las restantes son obtenidas a través de una relación recursiva ρ k = φ1 ρ k -1 + φ 2 ρ k -2 + .. + φ p ρ p-2 ……………… ρ p = φ1 ρ p-1 + φ p − 2 + ...... −1 Una forma alternativa de verificar el supuesto de estacionariedad es mediante el sistema de ecuaciones de Yule Walter asociadas al proceso AR(p) que proporcionan las primeras p autocorrelaciones. 1 P1 = 1 ρ 1 1 P2 = ρ 1 ρ1 1 ρ ρ2 ρ 1 ……….

5 . 145 . pues de ser así implicaría una fuerte relación con valores anteriores y daría lugar a un proceso autorregresivo. pues éstos pueden ser negativos y su suma no necesariamente es igual a 1 como sucede en un promedio móvil. ~ ~ Z t = at − θ1 at −1 o en términos del operador de retraso Z t = (1 − θ1 B)at En forma inmediata se tiene el valor esperado y la varianza del proceso. Modelo MA (1) De forma semejante a lo que se hizo con los modelos autorregresivos.Los parámetros θ que constituyen los coeficientes no definen una media móvil ponderada en el sentido estricto. ~ E ( Z t ) = E (at − θ1 at −1 ) = E (at ) − θ1 E (at −1 ) = 0 ~ V ( Z t ) = γ 0 = V (at − θ1 at −1 ) = E (at ) + V (θ1 at −1 ) = σ 2 (1 + θ 2 ) Las autocovarianzas se obtienen: γ k = E [(at − θ1 at −1 )(at − k − θ1 at − k ) = E (at ) − θ1 E (at −1 )] =   − θ 1σ 2 0 k =1 k >1 Las autocorrelaciones quedan definidas entonces  − θ1  ρ k = 1 + θ1 2  0  k =1 k >1 Al tener autocorrelaciones nulas más allá de 1 implica que el proceso MA(1) tenga memoria de un solo período. iniciamos el análisis de los procesos de MA con el caso más sencillo. entonces todo proceso de medias móviles es estacionario. Dado que la suma de los valores absolutos de los parámetros ∑θ i =1 p i involucra un número finito de elementos finitos. Por otro lado la única autocorrelación no puede tener valores muy elevados. de hecho se debe cumplir ρ 1 ≤ 0 .

Obsérvese que la primera autocorrelación coincide en gran medida con el valor teórico esperado y aunque teóricamente las autocorrelaciones son nulas para k>1.60 0. se observan valores empíricos superiores a 0.014641 0. Las conciciones de invertibilidad de un proceso MA se obtienen de manera similar a las estacionariedad de un proceso AR.00 0..00 -0...5 146 . esto es que se puede representar por un polinomio de retraso de la siguiente forma: donde π ( B) = 1 − π 1 B − π 2 B 2 − .1 para k= 4. La invertibilidad de un proceso es importante porque todo proceso invertible está determinado de manera única por su función de autocorrelación.60 -0.40 -0.40 0..00 1 2 3 4 5 6 FAC Autocorrelacione s k 1 2 3 4 5 6 Empírica 0.057497 0.355437 0.20 0.20 -0. se dice que el proceso es invertible.34482759 0 0 0 0 0 Invertibilidad Cuando un proceso puede expresarse mediante un modelo AR.137842 0.116645 0.80 -1.80 0.Ejemplo A continuación se presenta una realización del proceso θ 1 = -0. ~ π ( B) Z t = at π ( x) = 1 − ∑ π i x i i =1 ∝ Todo proceso MA es estacionario y todo proceso AR es invertible. El proceso MA(1) es invertible si θ < 1 lo que implica que ρ1 < 0.5 Proceso de Meadias Móviles MA(1) 3 2 1 0 -1 -2 -3 1..4 y con media del error cero y varianza del σ 2 =1 .070403 Teórica 0. es un polinomio de retraso que cumple con que la siguiente suma converja dentro del círculo unitario..

θ 2 − θ1 < 1 Región de Invertibilidad para MA(2) 1.0 0.4 0.8 -1. θ 2 + θ1 < 1 .0 1.8 2.2 0.0 0.6 0.6 1. 1 − θ1 x − θ 2 x 2 = 0 De donde se deducen condiciones alternativas de invertibilidad.2 -1.2 1.4 -0.2 -0.8 -0.2 Theta 2 0.0 -2.0 Theta 1 147 .6 -0.4 0.4 -0. Para que el proceso MA(2) sea invertible se requiere que las raíces de la siguiente ecuación se encuentren fuera del círculo unitario.Modelo MA (2) Ahora se analiza el modelo de medias móviles que involucra dos parámetros. ~ ~ Z t = at − θ1 at −1 − θ 2 at − 2 o su equivalente Z t = (1 − θ1 B − θ 2 B 2 )at Su media y varianza están dadas por ~ E (Z t ) = 0 ~ V ( Z t ) = γ 0 = σ 2 (1 + θ12 + θ 22 ) Su función de autocovarianza y función de autocorrelación tienen las siguientes expresiones:  − θ1 (1 − θ 2 ) 2 1+ θ 2 + θ 2 k = 1 (−θ1 + θ1θ 2 )σ k =1 1 2    −θ2 − θ 2σ 2 γk =  k=2 ρk =  k =2 2 2  0 k ≥3  1 + θ1 + θ 2  0 k ≥3    La forma de su función de autocorrelación determina que la memoria del proceso se limita a dos períodos.0 0.6 0. θ 2 < 1 .8 0.6 -1.0 -1.8 1.4 -1.0 -0.2 -0.4 1.8 -1.6 -0.

263158 0 0 0 0 Modelo MA (q) Se ha referido la forma general del modelo de medias móviles de q parámetros.0 1.20 -0.40 -0.7.00 0.0 -2.20 0. θ 2 = -0..519674 0.073804 -0. Medias Móviles MA(2) 3. Las primeras dos autocorrelaciones coinciden en gran medida con los valores teóricos esperados.0 -4.40 0.80 0. ~ Z t = at − θ1 at −1 − θ 2 at − 2 − ...175084 -0.0 -1.00 1 2 3 4 5 6 FAC Autocorrelaciones k 1 2 3 4 5 6 Empírica -0. pero las subsiguientes no se anulan.00 -0.60 0..60 -0.249800 0..4 y con media del error cero y varianza del σ 2 =0.0 1.0 2. + θ q2 )σ 2 148 ..0 0.En forma equivalente se establecen restricciones con referencia a los coeficientes de autocorrelación ρ12 ≤ 0.5 Ejemplo A continuación se presenta una realización del proceso θ 1 = 0.106106 0..552632 0.127639 Teórica -0.6 ...0 -3.80 -1. − θ q at − q Cuyos momentos de segundo orden y función de autocorrelación son los siguientes: ~ E (Z t ) = 0 ~ V ( Z t ) = γ 0 = (1 + θ12 + θ 22 + .5 y ρ 2 ≤ 0 ..

...... −1 D1 = −1 θq θq −1 D2 = θ1 θq θq θ q θ q −1 − 1 0............2. . Para que el proceso sea invertible se requiere que los q determinantes definidos en la siguiente forma sean positivos.. 0 0 θ q .γk =  − θ k + θ1θ k +1 + ........2.. ....... 0. D p = . .... θ 2 …….... la memoria del proceso MA(q) se limita a q períodos......q) se puede referir como un proceso autorregresivo de orden P ~ φ ( B) Z t = et donde et = θ ( B)at También como un proceso de medias móviles de orden q... + θ q − k θ q k = 1. θ q θ q −1 ... . − θ q at − q ~ (1 − φ1 B − φ 2 B 2 − . ..... − 1 0 Modelo ARMA (p. + φ p Z t − p + at − θ1 at −1 − θ 2 at − 2 − . En términos de polinomios de retraso de grados p y q se expresan de la siguiente forma: ~ ~ ~ ~ Z t = φ1 Z t −1 + φ 2 Z t − 2 + ..1.... − θ q B q )at ~ φ ( B) Z t = θ ( B)at El proceso ARMA(p.. + θ q2  0 k ≥ q +1  De manera análoga a lo observado en los procesos MA(1) y MA(2)...q) Constituyen una unión y generalización de los modelos autorregresivos y de medias móviles.. θ q 0 0... θ1 −1 0 θq θ1 ..... 0 − 1 θ1 θ q −1 0 − 1 θ1 θ 2 .q  ρ k =  1 + θ12 + θ 22 + ... − φ p B p ) Z t = (1 − θ1 B − θ 2 B 2 − .q k ≥ q +1  − θ k + θ1θ k +1 + . + θ q − k θ q 0  k = 1... ~ Z t = θ ( B)bt con b siguiendo un proceso autorregresivo de orden p φ ( B)bt = at de ~ forma que θ ( B) Z t = θ ( B )φ ( B)bt = θ ( B)at 149 ...

ambos de primer orden.1) El más sencilo modelo ARMA involucra un modelo autorregresivo medias móviles.3.…… 1 − φ12 De donde la función de autocorrelación está dada por: ρk = φ1k −1 (1 − φ1θ1 )(φ1 − θ1 ) para k=1.3.…… 1 − 2φ1 θ1 + θ12 Si se cumple la condición de estacionalidad φ1 < 1 entonces la función de autocorrelación experimenta un decaimiento exponencial.2. 150 .2. y uno de ~ ~ Z t = φ1 Z t −1 + at − θ1 at −1 Cuyos primeros momentos son: ~ E (Z t ) = 0 φ1γ 1 + (1 − θ1 (φ − θ1 ))σ 2  γk φ1γ 0 − θ1σ 2  φγ k −1  k =0 k =1 k≥2 Los valores de γ 0 y γ 1 se pueden obtener en función de los parámetros autorregresivo y de medias móviles a partir del siguiente sistema de ecuaciones: γ 0 = φ1γ 1 + (1 − θ1 (φ1 − θ1 ))σ 2 γ 1 = φ1γ 0 + θ1σ 2 Cuya solución es γ0 = (1 − 2φ1θ1 + θ12 )σ 2 1 − φ12 (1 − φ1θ1 )(φ1 − θ1 )σ 2 γ1 = 1 − φ12 De donde se deduce que l función de autocovarianza se puede expresar: γ1 = φ1k −1 (1 − φ1θ1 )(φ1 − θ1 )σ 2 para k=1.Modelo ARMA (1.

499953 0.60 0.80 0.Ejemplo A continuación se presenta una realización del proceso φ1 = 0.174255 0.453659 0.0 -1.782512 0.211708 0.0 2.272195 0.756098 0. Obsérvese la caida exponencial de las autocorrelaciones empíricas y teóricas que presentan una elevada coincidencia.0.0 -4.0 -3. MODELO ARMA(1. es posible lograr la estacionariedad con la aplicación de diferencias a la serie original.1) 0.6 .0 0.d.058794 Modelo ARIMA (p. sin embargo para el caso de ciertos procesos no estacionarios.70 0.50 0.q) Los modelos revisados plantean que los procesos son estacionarios.163317 0.00 1 2 3 4 5 Empí r ica Teór ica 6 k 1 2 3 4 5 6 Empírica 0.0 4.10 0.q) queda definido en términos de los operadores de diferencia y retraso de la siguiente forma: φ (B) d Z t = θ ( B)at Al sustituir se tiene un ARMA(p.0 -2.90 Función de Autocorrelación 5.0 3.20 0.0 0.q) para Wt φ (B) Wt = θ ( B)at 151 .108911 Teórica 0.d.40 0.288123 0. Wt = d ~ Z t con d ≥ 1 Así un modelo ARIMA(p.30 0.097990 0.0 1.4 y con media del error cero y varianza del σ 2 =1. Se ha visto que d al aplicar el operador diferencia en forma sucesiva se logra eliminar tendencias de tipo polinomial y a la serie resultante ya estacionaria se le puede ajustar un modelo de tipo ARMA. θ 1 = 0.

. ~ Zt = Por ejemplo. La no estacionariedad de la serie de tiempo se puede deber a que la varianza no sea constante esto es se tenga σ t2 asociada a cada período como función de su media µ t . La forma específica del modelo más conveniente dentro de la clase ARIMA es una incógnita. Bartlett . para d=1 −1 −d Wt con d ≥ 1 = (1 − B) −1 = 1 + B + B 2 + B 3 + .1947) del tipo: f ( µ t ) ∝ µ 2 (1−λ ) de donde  µ tλ si λ ≠ 0 T (µt ) ∝  log(µ t ) si λ = 0 Se sugiere entonces aplicar transformaciones del tipo  Z tλ si λ ≠ 0 Wt = T ( Z t ) =  log(Zt ) si λ = 0 La forma de elegir la mejor transformación se discutirá más adelante con mayor detalle.. como se ha visto. Biométrika..3..El adjetivo integrado hace alusión a que Zt se obtiene al despejar de Wt e invertir d el operador y da como resultado una suma infinita o una integración de términos Wt. Para que el modelo sea estacionario e invertible se requiere que las raíces de φ ( x) = 0 y θ ( x) = 0 se encuentren fuera del círculo unitario.. Construccion de Modelos ARIMA Los modelos de la clase ARIMA.. En consecuencia se tienen que aplicar herramientas y procedimientos adicionales para reducir las alternativas y seleccionar el mejor modelo para una serie dada. La primera 152 . incluyen varios tipos de parámetros cuyos valores son desconocidos.39. La estabilización de la varianza se logra a través de una función potencia (The use of transformations....

Estimación y Diagnóstico. las cuales aplicadas secuencialmente y con ayuda de herramientas auxiliares para cada etapa llevan a un proceso convergente hacia la mejor solución. En la siguiente sección se comentará cada etapa. Los mismos autores proponen una serie de etapas que constituyen un proceso iterativo para alcanzar un buen modelo. En esta etapa se efectuarán pruebas de estacionariedad para determinar las necesidades de transformación y diferenciación de la serie y los órdenes de los parámetros autorregresivos y de medias móviles que se necesitarán. Estas etapas son Identificación.recomendación que se hace es la de reducir el número de parámetros tanto como sea posible. De hecho Box y Jenkins recomiendan 100 ó más observaciones. esto es la parsimonia es la primera regla que hay que tomar en cuenta. pues es usual que no se tenga una respuesta satisfactoria al primer intento. PROCEDIMIENTO ITERARIVO PARA CONSTRUIR MODELOS Identificación del Modelo Estimación de Parámetros Validación y Diagnóstico Adecuado Uso del Modelo Identificación. Otro aspecto esencial es que estos modelos requieren un mínimo de 50 observaciones para obtener resultados satisfactorios. así como sus herramientas auxiliares. 153 .

154 .078 49.430 31.037 40.380 63.744 34.696 31. Como se dispone de una sola realización del modelo.033 30.754 47.226 42.433 31.405 53. una alternativa propuesta por Víctor Guerrero es dividir la serie en H grupos contiguos del mismo tamaño y calcular estimaciones de la media y desviación estándar para cada grupo ( S h .780 33.117 45.352 48.481 34.335 38.744 53.349 34.856 35. En su caso la búsqueda de una transformación adecuada es el primer objetivo.541 33.462 42.537 54.502 62.614 35.321 31.722 50.923 37.210 31.761 48.. será:  Z tλ si λ ≠ 0 Wt = T ( Z t ) =  log(Zt ) si λ = 0 En donde µ y σ t representan la media y la dsesviación estándar de la variable Zt y n es el número de observaciones.124 59. Año Enero Febrero Marzo Abril Mayo Junio Julio Agosto Septiembre Octubre Noviembre Diciembre INDICE NACIONAL DE PRECIOS AL CONSUMIDOR INPC 1969 1970 1971 1972 1973 1974 30. Se pretende encontrar un exponente λ de manera que el siguiente cociente sea constante: σt = Cte para t = 1.777 33.603 30.978 32.407 36.349 31.441 36.021 34.759 61.691 50.606 1976 60.894 62.633 64.137 31. Ejemplo Considere la serie de valores del Indice Nacional de Precios al Consumidor de enero de 1969 a agosto de 1976.076 48.494 57.n µ 1−λ La serie transformada como se mencionó.786 35.498 36.996 30.396 30.979 33.173 34.170 64.814 37.301 32.487 34.939 63.417 30.237 54.538 32.344 56.872 33. La estrategia de análisis sugiere que en primer término se estabilice la varianza.896 30.2.305 32.330 33.666 39.787 En la siguiente gráfica se observa la serie de datos y lo que se pretende es buscar el mejor valor del exponente Lamda para homogenizar la varianza.561 34.036 57.294 36.914 33.128 30.586 44.041 30.552 1975 54..800 40.200 41..713 59.568 34.Estacionarización.880 55.656 32.984 35.113 37.011 35.425 47.992 58..413 58.660 36.403 38. Z h ) y construir una tabla para evaluar cada valor del exponente.224 51..084 57.690 32.702 31. Se toman grupos de 12 meses y se excluye 1976 por tener menos de 12 observaciones.

062 925.440 1312.562 1253.535 1275.790 941.819 2460.011 33.330 32.40758 1971 1112.0004004 0.0000 -0.102 1045.494 57.691 42.246 1658.386 -1.445266 1970 31.955000 1.541 30.702 53.541 2867.206 2390.644 919.647 3552.301 31. INDICE NACIONAL DE PRECIOS AL CONSUMIDOR INPC Mes Enero Febrero Marzo Abril Mayo Junio Julio Agosto Septiembre Octubre Noviembre Diciembre 1969 30.079 3447.5000 0.000470856 2.349 30.816 2570.63026232 0.003 994.064 1281.112 1201.665 1310.352 38.229 1055.117 37.754 38.748 1154.786 33.349 33.896 49.477 1338.835 Lamda = 1970 1009.80273 0.656 1035.713750 0.29382 1158.992 58.021 32.128 50.666 35.59407324 0.413 58.365 1470.323 1329.237 54.778 1015.979 32.660 34.00145721 1975 2941.200 36.En los siguientes cuadros se resumen los cálculos correspondientes a λ = -1 .462 36.037 36.824 1018.690 30.875 3247.568 32.656 30.777 31.35652 0.761 39.137 53.428588 1972 34.968 1009.050 1971.67289961 0.713 59.912 1176.614 33.266667 0.958 3145.000581472 Lamda CV Al ensayar diferentes valores de Lamda.316 1973 1377.226 36.170 1090.139 1782.872 31.372 1272.814 34.5000 1.015 1219.032250 0.866 1827.229 1156.182 1190.901 1141.029083 2.985 926.210 30.015 1060.0000 0.552 49.538 30.729333 0.744 33.498 34.00036999 0.388577 1975 54.363 921.433 30.938 2344.984 34.458 2512.804 1607.072 3412.224 42.033 47.675 1072.097 2823.494 1146.744 44.549750 2.284 3011.842 1186.00047144 0.405 40.156 1121.00 se obtiene el coeficiente de variación más pequeño y se puede concluir que una transformación recíproca puede funcionar bien en este caso.13994 944.800 36.636 979.631 1425.342261 1974 45.381 2307.560 3363.103 2246.084 2673.672 1400.000970805 0.923 35.880 55.0006740 0.000 1974 2115.72160722 0.603 50.425 37.335 35. -1.124 59.000 Exponente 1972 1212.078 40.281 1738.041 48.113 35.996 47.569 939.876 1502.652 2974.415 3253.856 34.379 1129.441 34.876 959.561 32.47367 1041.481 32.0000 0. se puede ver que para -1.487 33.606 56.036 57.105 3305.078 1183.415 1526.934 1606.616 1232.344 56.632 2212.396 48.321 30.780 31.696 51.722 41.814 3062.59407324 0.978 31.084 57.503 1022.173 32.407 34.914 31.640 1298.403 35.219 1060.417 48.817 2460.753 980.167 932.586 35.00039623 0.537 54.412589 1971 33.36242 Sh 1 Z h −λ Media Desv Est CV 0.305 31.216 3495.74551917 T (Z t ) = 1 / Z t 155 .076 40. En la hoja de Excel: INPC 1969 1976 PARTICIPANTES.600719 1973 37.923 1248.294 34.XLS se pueden efectuar los cálculos para otros valores del exponente.430 30.888120 Zh Sh Año Enero Febrero Marzo Abril Mayo Junio Julio Agosto Septiembre Octubre Noviembre Diciembre Media SERIE TRANSFORMADA 1969 912.

800 0. la aproximación de Bartlett se reduce a: q  1 V (rk ) = 1 + 2∑ ρ v2  n v =1  para k>q Para el supuesto de que la serie es ruido blanco esto es q=0 entonces V (rk ) = 1n−k   nn+2 Para n>50 se considera la aproximación a la distribución normal con media cero y varianza dada por la expresión anterior. ya que un decaimiento rápido de las autocorrelaciones de la serie es un indicativo de que la serie es estacionaria.000 -0.672 0. correspondiente a un proceso MA (q) atrás del cual la autocorrelación teórica es cero.443 0.476 0.600 0. Una vez que se ha seleccionado la transformación apropiada para estabilizar la varianza.918 0. Sin embargo.409 0.889 0.575 0.000 Autocorrelaciones 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 156 .797 0. La función de autocorrelación para la serie transformada de INPC sin diferenciación tiene un comportamiento característico de una serie no estacionaria de caída muy lenta. rk k 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 0.735 0.946 0.600 -0. En general se utilizan las siguientes aproximaciones de la varianza de las autocorrelaciones propuestas por Bartlett.765 0.200 0.375 FAC TZt sin diferenciar 1.704 0.542 0.000 0.400 -0.608 0. 1 ∝ 2 V (rk ) = ∑ ρ v + ρ v + k ρ v − k − 4 ρ k ρ v ρ v − k + 2 ρ v2 ρ k2 n v = −∝ [ ] Para la varianza de una autocorrelación estimada de orden k mayor que un valor q. se procede a estabilizar el nivel de la serie mediante la aplicación iterada del operador diferencias un número adecuado de veces.640 0.Estabilizacióin del nivel de la serie.973 0.509 0.828 0. El elemento de diagnóstico para determinar el grado de diferenciación de la serie es la función de autocorrelación.859 0.800 -1.200 -0. en términos empíricos es importante contar con un criterio que permita considerar cuando el valor de un coeficiente de autocorrelación no es significativamente diferente de cero.400 0.

lo que puede sugerir un modelo de medias móviles. Así. k 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 rk 0.3490 0. la FAC se presenta la primera autocorrelación como dominante.013 0.000 -0. La identificación de un proceso de medias móviles se puede llevar a efecto mediante la función de autocorrelación y de los intervalos de confianza.3320 0.000 -0.0000 1 2 3 FAC TZt Primera Diferencia 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Autocorrelaciones Después de tomar una segunda diferencia.5250 0.058 0.2720 0.049 -0.2350 0.018 -0.2000 0.4000 0.119 -0.015 0.800 0.1740 0.200 0.600 -0.334 -0. Las autocorrelaciones parciales cubren esta limitante.0880 0.400 0.200 -0. se sabe que la función de autocorrelación adopta la forma: ρ k = φ k .8000 0.3630 0.0120 0.000 0.051 0. Como se sabe.0250 -0.101 0.013 FAC TZt Segunda Diferencia 1.015 0.2210 0.141 0.156 0.000 Autocorrelaciones 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 Autocorrelaciones parciales. k 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 rk -0. si se considera una proceso autorregresivo de primer orden AR(1).0390 0.6000 0.4000 -0.0620 0.8000 -1.029 0.6000 -0. esto es una 157 .2000 -0.142 0.2070 0.056 -0.0990 -0.0000 -0.065 -0.0500 -0.400 -0.0000 0.2810 0.2470 0.Al aplicar en operador diferencia a la serie transformada y calcular la FAC se observa todavía una caída lenta de las autocorrelaciones lo que sugiere una mayor diferenciación.019 -0.029 -0.800 -1.1230 1.0010 -0. la autocorrelación parcial entre dos variables mide la relación lineal existente entre ellas manteniendo constante la presencia de otras variables.600 0. pero la identificación de un proceso autorregresivo con la sola ayuda de la FAC puede presentar serias dificultades.

….…… Quenouille (1949) demostró que bajo el supuesto de un modelo AR(p) y con ˆ p ≤ k − 1 entonces φ kk se distribuye normal con media cero y varianza 1/n. en tanto que un proceso de medias móviles corta abruptamente su función de autocorrelación. El coeficiente correlación parcial de segundo orden se calcula en función de los coeficientes de autocorrelación simples de la siguiente forma: ρ 02.96.….2.. J=1.1 = ρ 02 − ρ 01 ρ12 2 2 (1 − ρ 01 )(1 − ρ12 ) ρ 01 = ρ12 = φ y que ρ 02 = φ 2 . 158 . Considérese que se desea calcular la autocorrelación lineal de segundo orden excluyendo la influencia de la autocorrelación de primer orden en un modelo AR(1).. para 95% de confianza). entonces el numerador es cero y Sabemos que todas las demás también lo son.k − j k=2.k-1 k −1   ˆ  rk − ∑ φ k −1 rk − j    j =1  ˆ φ kk =   k −1  ˆ 1 − ∑ φ k −1 r j    j =1   k=3.lenta caída exponencial. Las autocorrelaciones parciales φ kj son calculadas en forma empírica mediante las siguientes expresiones secuenciales: ˆ φ11 = r1 ˆ φ 22 = (r2 − r12 ) /(1 − r12 ) ˆ ˆ ˆ ˆ φ kj = φ k −1. En consecuencia es muy fácil calcular intervalos de confianza para los coeficientes de autocorrelación al sumar y restar la raiz cuadrada de 1/n multilicada por el coeficiente de confianza (usualmente 1.4. j − φ kk φ k −1.

092 1.156 0.064 -0.013 ee rk 0.105 0.104 0.094 0.105 0.058 0.207 0.198 0.185 0.016 0.053 -0.105 0.097 0.004 0.207 0.019 -0.207 0.195 0.128 -0.202 0.014 0.047 -0.184 0.095 0.100 0.207 0.334) cae fuera del intervalo definido por 1.105 0.207 0.099 0.102 0.105 0.065 -0.101 0.Los comportamientos característicos de los diferentes procesos se refieren a continuación en forma resumida en el siguiente cuadro y que ayudan al investigador a identificar el tipo de proceso que conviene a la serie en estudio.119 -0.105 0.049 -0.207 0.148 0.191 0.192 0.207 0.046 0.056 -0.105 0.094 0.101 0.201 0.96 veces el error estándar y como consecuencia se pueden considerar estadísticamente significativas.105 0.200 0.190 0.141 0.207 0.105 0. Solamente las primeras k autocorrelaciones parciales son distintas de 0 Sucesión infinita que converge a 0 AR(p) Converge a 0 con k>p MA(q) Solamente las primeras q autocorrelaciones son distintas de 0 ARMA(p.207 0.029 -0.105 0.334 -0. Las autocorrelaciones parciales 159 .015 0.099 -0.207 0.101 0.068 -0.203 0.077 -0.207 0.207 A continuación se presentan las gráficas correspondientes.207 0.105 0.263 -0.029 0.071 0.186 0.000 -0.015 0.301 -0.207 0.098 0.105 1.187 0.196 0.051 0.207 0.018 -0.q) Comportamiento irregular de las primeras q autocorrelaciones y después convergencia a 0 Sucesión infinita que converge a 0 Si se vuelve a la serie transformada y tomadas las segundas diferencias del INPC se obtiene el reporte de autocorrelaciones simples y parciales mediante el SPSS.189 0.104 0.105 0.099 0.207 0.334 -0.204 0.031 0.096 0.098 0.015 ee φ kk 0.105 0.207 0.207 0.96(ee φ kk 0.105 0.102 0.194 0.207 0.093 0.105 0.103 0.181 φ kk -0.197 0.207 0. Por nuestra cuenta calculamos errores estándares e intervalos.096 0.005 -0.142 0.105 0.105 0. Se puede observar que solamente la primera autocorrelación simple (-0.024 0.013 0.105 0.96(ee rk) 0.182 0.105 0. k 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 rk -0.

400 -0.2 0 -0. En la ventana de diálogo se indica la variable tzt que identifica a la variable transformada como el reciproco. El método utilizado es el de máxima verosimilitud. 160 . En la opción de save se solicita que el pronóstico se extienda hasta la observación 98 para tener 6 pronósticos adicionales a las 92 observaciones que tiene la serie original transformada. El paquete SPSS utiliza el algoritmo de Melard para series que no presentan valores perdidos.600 0.6 -0.2 -0.800 -1.000 0.1).presentan una lenta caída.000 Autocorrelaciones 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 FACP TZt segunda diferencia 1 0.200 0.8 -1 1 3 5 7 9 11 13 15 17 19 Autocorrelaciones Estimación de parámetros.4 -0.200 -0. FAC TZt Segunda Diferencia 1. El siguiente paso consiste en la estimación de los parámetros del modelo.600 -0. donde las primeras dos autocorrelaciones parciales y la cuarta son significativamente diferentes de cero.800 0. Ello sugiere un modelo medias móviles apoyado en segundas diferencias de la serie transformada original MA(2.000 -0.4 0.6 0. Se marca 2 en el parámetro de diferencias y 1 en el parámetros de medias móviles.8 0. El proceso de ajuste del modelo mediante SPSS se realiza mediante el procedimiento ARIMA que se localiza en la opción Time series del menú de análisis.400 0. Alternativamente utiliza el algoritmo de Kalman cuando existen observaciones perdidas.

para así tener la estadística T. Se observa que el proceso iterativo.Al ejecutar el procedimiento inmediatamente se presenta el reporte. La estimación puntual correspondiente a cada período. Si ponemos atención a la tabla de datos. los límites de un intervalo de 95% de para el pronóstico y el error estándar del pronóstico. El valor estimado por SPSS para el parámetro de medias móviles θ es 0. se puede observar que SPSS ha incluido nuevas variables. que resulta ser significativamente distinta de 0. el residual.68144755 y lo acompaña de su error estándar y el cociente del estimador puntual del parámetro entre el error estándar. 161 . apoyado en el algoritmo de Marquard y la secuencia de valores desde los iniciales hasta los finales alcanzados después de 5 iteraciones.

0130 0. Los pronósticos e intervalos de confianza han sido sometidos a la transformación inversa. lo mismo sucede con los intervalos de confianza.0160 0. Pronósticos e Intervalos de Confianza 0.0170 0.0140 0.0150 0. Pronósticos e Intervalos de 95% de confianza 80 75 70 65 60 55 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Período 162 . En las siguientes gráficas se observa la serie transformada y la serie en su escala original.0180 0. como se solicitó.En la parte baja de la tabla se puede observar que los pronósticos se extienden hasta la observación 98.0120 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 Período INPC Serie original modelo MA(1) Ultimas 12 Observaciones. INPC Serie transformada Doce últimas Observaciones.

Como criterios de diagnóstico de la bondad del modelo se presentan varias estadísticas. En este caso 0. AIC = −2 L + 2m Donde m es el número de parámetros del modelo Otra estadística adicional es el Criterio Bayesiano de Schwartz que SPSS calcula de la siguiente forma: SBC = −2 L − Ln ( n) m 163 .9 L = nLn(σ a ) − ˆ SSQ' nLn(2π ) − 2 2σ 2 a ˆ También reporta el criterio de información de Akaike que se calcula en función del logaritmo de la verosimilitud y el número de parámetros. Para este caso 673.Diagnóstico.00000165 ˆ SSQ = ∑ (Z t − Z t ) t =1 n 2 Otra estadística que reporta SPSS es el logaritmo de la función de verosimilitud que se supone alcanza el valor máximo con los estimadores calculados. En primer término se tiene la suma de cuadrados de los residuales.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->