Está en la página 1de 79

Modelos de Series Temporales

María Cruz Valsero Blanco


Departamento de Estadística e Investigación Operativa
Universidad de Valladoli
Introducción:

Una serie de tiempo o serie temporal es una colección de observaciones tomadas a


lo largo del tiempo. Las observaciones están ordenadas respecto al tiempo y sucesivas
observaciones son generalmente dependientes. De hecho esta dependencia entre las
observaciones jugará un papel importante en el análisis de la serie.
DenotaremosXt, a la observación en el instante t.
Las series aparecen en diversos campos.

Economía
Precios de venta en días sucesivos.
Exportaciones totales en sucesivos años.
Beneficios de una empresa en sucesivos años

Física (Meteorología, Geofísica, etc...)


Lluvias en sucesivos días.
Temperatura en sucesivas horas.
Presión atmosférica en diversos días.
Demografía
Población de España medida anualmente.

Procesos de control
El problema consiste en detectar cambios en la ejecución de un proceso de
manufactura. Para ello se considera una variable que nos muestra la calidad del proceso.
Esta medida se representa frente al tiempo y cuando se aleja de un determinado valor
límite, entonces hemos de efectuar las correcciones oportunas sobre el proceso.

Procesos binarios
Son unas series temporales especiales, en las que las observaciones, sólo toman dos
valores (que usualmente se representan por 0 y 1), suelen darse en teoría de la
comunicación. Por ejemplo la posición de un enchufe, bien apagado o encendido puede ser
represetado como 0 y 1, respectivamente.

Clasificación
Clasificamos las series atendiendo a distintos puntos de vista.
Según la recogida de los datos tenemos:

Continua.
Una serie de tiempo es continua cuando las observaciones son tomadas
continuamente en el tiempo, aun cuando la variable medida sólo tome un número de
valores finitos.

Discreta.

2
Una serie temporal es discreta cuando las observaciones son tomadas en tiempos
específicos, normalmente igualmente espaciados. Éstas serán las que nosotros
estudiaremos; se supondrán los datos en intervalos regulares de tiempo (horas, días, meses,
años,..). El término discreto es usado aun cuando la variable medida sea continua. Las
series discretas pueden surgir de varias maneras:

Muestral.
Dada una serie de tipo continua es posible construir una serie de tipo
discreta, tomando los valores en intervalos de tiempo de igual longitud. Un ejemplo
de serie temporal de tipo continua es la temperatura en un lugar dado, considerando
la temperatura diaria a las tres de la tarde, obtenemos una serie temporal discreta
muestral.

Agregada o acumulada.
Este tipo de series ocurre cuando una variable no tiene valor en un instante
(sólo tiene sentido en algunos instantes de tiempo) pero podemos acumular los
valores en intervalos de tiempo igualmente espaciados. Ejemplos: las lluvias
torrenciales, los accidentes de tráfico mensualmente, el número de pasajeros
mensuales en las líneas aéreas españolas. De hecho los accidentes de tráfico
mensuales son una agregación de sucesos discretos. Los valores tomados no se
observan en cada instante sino que se vanacumulando en intervalos de tiempo.

Inherentes o discretas
Las que realmente los datos se obtienen en momentos discretos. Por ejemplo
el salario mensual.

Teniendo en cuenta el número de variables que observamos en cada tiempo.


Series temporales univariantes
Cuando interviene una sola variable.
Series temporales multivariantes
Cuando intervienen varias variables.

El primer paso a llevar a cabo en cualquier análisis de una serie de tiempo es


realizar la representación gráfica de la serie. En el eje horizontal se representa la escala del
tiempo, y en el eje vertical, los valores asignados a los tiempos. Es habitual observar que
los datos aparentemente fluctúan a lo largo del tiempo en torno a algún patrón.
Desde un punto de vista formal, este hecho responde al concepto de proceso
estocástico, concepto matemático que hay subyacente en una serie temporal.
La representación gráfica de una serie de tiempo es la representación de una
trayectoria del proceso estocástico subyacente. En dicha representación, podemos observar
las principales fuentes de variación.

3
Descomposición Clásica
Tradicionalmente se establecen cuatro tipos de variaciones: tendencia, efecto
estacional, cambios cíclicos y otras variaciones que podemos llamar irregulares.

Efecto estacional:
Muchas series temporales tales como por ejemplo: cifras de ventas, lecturas de
temperatura, etc..., presentan una variación que se va repitiendo a lo largo de la trayectoria.
Este tipo de variación, con periodicidad,en general, menor o igual a un año, se conoce con
el nombre de estacionalidad. Esta componente es debida al entorno en el que se recogen los
datos, ya que la mayoria de procesos varian según la estación del año (navidad, verano etc)
o el día de la semana, horario diurno o nocturno etc. Es fácil de comprender y se puede
calcular, eliminar o modelar.

Cambios cíclicos:
Además de los efectos estacionales algunas series presentan variaciones sin período
fijo, debido a algunas otras causas físicas. Un ejemplo es la variación diaria de la
temperatura. También se definen ciclos a las variaciones superiores a un año, debidas
generalmente a las fluctuaciones de la actividad económica y social. Muchas veces los
datos económicos quedan afectados por ciclos de negocios variando entre 5 y 7 años. En
Economía se suelen distinguir tres tipos de ciclos en cuánto a su periodicidad: los cortos o
de Kintchine que tienen lugar más o menos cada tres años, los medios o de Jutglar cuyo
período oscila entre cinco y diez años y los largos o de Kondratiev que aparecen cada
cuarenta o cincuenta años. El análisis de esta componente es díficil pues la duración de los
ciclos puede no ser constante, razón por la cual cualquier variación puede dar lugar a una
predicción errónea.
Otros ciclos son debidos al propio modelo que rige el proceso en estudio.

Tendencia:
Debe recoger el movimiento de la serie a lo largo del tiempo, se puede definir por
tanto como la variación a largo plazo, pero hemos de precisar lo que entendemos por a
largo plazo. Hay, por ejemplo, series de tiempo que presentan variaciones cíclicas, en un
período de 50 años o más, entonces si disponemos de pocos datos se puede confundir las
variaciones cíclicas con la tendencia, sin embargo si disponemos de datos suficientes esta
confusión no se dará. Así pues al hablar de tendencia hay que tener en cuenta el número de
observaciones de las que se dispone.

Otras variaciones irregulares:


Una vez que la tendencia-ciclo y estacionalidad han sido analizados y eliminadas de
nuestros datos, nos quedamos con una serie de residuos, que pueden ser o no aleatorios.
Veremos varias técnicas, para el análisis de series de este tipo, con el objeto de ver si
algunas de las variaciones aparentemente irregulares, pueden ser explicadas en término de
modelos probabilísticos, tales como los modelos ARIMA que introduciremos más adelante.

4
EJEMPLO: Número de desempleados mensuales en USA de enero de 1948 a diciembre
de 1978. (En unidades de 100.000)
Enero Febrero Marzo Abril Mayo Junio Julio Agosto Septiem Octubr Noviem Diciem
1948 235.1 280.7 264.6 240.7 201.4 240.8 241.1 223.8 206.1 174.7 203.3 220.5
1949 299.5 347.4 338.3 327.7 351.6 396.6 438.8 395.6 363.5 378.8 357 369
1950 464.8 479.1 431.3 366.5 326.3 355.1 331.6 261.3 249 205.5 235.6 240.9
1951 264.9 253.8 232.3 193.8 177 213.2 207.2 180.6 188.6 175.4 199 179.6
1952 225.8 234 200.2 183.6 178.2 203.2 208.5 191.8 172.8 148 159.4 154.5
1953 213.2 196.4 182.8 176.4 153.6 173.2 171 151.2 161.9 157.2 201.7 236.4
1954 356.1 398.3 403.7 384.6 365.8 368.1 367.9 347 343.3 292.9 311.5 300.9
1955 366.9 356.9 329.7 316.2 269 289.3 266.2 253.6 233.8 228.4 253.6 260.1
1956 306.6 309.2 309.5 271 279.9 317.9 298.4 246.7 227.3 209.1 259.9 266
1957 320.6 308.5 282.2 262.7 263.5 313.1 284.3 252.6 250.3 246.5 312.7 333.2
1958 446.4 511.6 515.5 506.4 483.2 522.3 509.8 460.7 405.8 375 378.5 406.8
1959 467.8 469.8 429.8 355.8 332.7 378 360.5 334.7 319.5 323.1 363.6 352.1
1960 411.9 388.6 416.4 360.7 338 417.2 388.4 371.1 331.5 353.7 396.7 447
1961 533.5 565.4 542.3 488.7 467.1 531.3 496.1 444 403.4 386.3 394.1 404.1
1962 462.1 448.1 432.3 386.3 395.2 421.9 382.9 384.2 345.5 323.4 372.6 376
1963 462.7 487 444.2 399.3 394.9 455.4 414 375.5 347 339.4 385.8 378.8
1964 451.8 446.1 422.5 383.1 352.8 445.3 367.5 355.1 326.2 319.8 331.8 340.9
1965 394.1 417.2 369.9 349.2 321.4 405.7 342.9 316.5 284.2 270.9 288.8 278.8
1966 324.4 310.9 299 273 279.3 359.2 305 282.1 250.3 246.5 257.9 266.5
1967 315.9 318.4 295.4 266.4 245.8 362.8 324.9 294.2 289.5 295.2 290.3 272
1968 307.4 328.7 292.9 249.1 230.4 361.5 321.7 277.2 260.7 251 257.6 241.8
1969 287.5 292.3 274.7 254.2 230 339 318.2 287 295.8 284 271 262.7
1970 340.6 379.4 373.3 355.2 338.4 466.9 451 422 429.2 425.9 460.7 463.6
1971 541.4 544.2 517.5 469.4 439.4 549 533 506.1 484 457 481.5 469.5
1972 544.7 541.2 521.5 469.7 434.4 542.6 517.3 485.7 465.8 447 426.6 411.6
1973 467.5 484.5 451.2 417.4 379.9 484.7 455 420.8 416.5 376.3 405.6 405.8
1974 500.8 514 475.5 430.1 414.4 538 526 488.5 520.2 504.4 568.5 610.6
1975 818 830.9 835.9 782 762.3 856.9 820.9 769.6 752.2 724.4 723.1 719.5
1976 817.4 803.3 752.5 689 630.4 765.5 757.7 732.2 702.6 683.3 709.5 702.2
1977 784.8 810.9 755.6 656.8 615.1 745.3 694.1 675.7 643.7 622.1 634.6 588
1978 689.7 673.9 647.9 568.8 545.7 632.6 643.8 593.1 579.7 546 562.9 572.5

5
Representación gráfica de la serie

6
7
Objetivos
Chatfield (1989) describe en su libro "The analysis of time series. An introduction'',
que los objetivos principales del análisis de una serie temporal son describir, explicar,
predecir y controlar.

Descripción.
Se trata de un estudio preliminar de la serie para analizar los tipos de variaciones y
ver cómo se comportan los datos. El primer paso, es representar los datos frente al tiempo,
lo cual nos dará una idea sobre las principales variaciones presentes en nuestra serie
temporal; y tener una primera idea sobre el modelo que podemos ajustar. Asimismo
podemos observar si existen también datos extraños, es decir, observaciones que no parecen
ser consistentes con el resto de los datos. El tratamiento de estas observaciones es muy
complejo y requiere tener cuidado, pues pueden ser observaciones válidas y entonces es
importante que el modelo al que ajustemos las tenga en cuenta; o por el contrario, pueden
ser observaciones fuera de lugar, por ejemplo pensemos en errores a la hora de la toma de
la observación. Otros rasgos que se pueden observar por medio del gráfico son los puntos
de cambio, donde por ejemplo hay un cambio de tendencia, de una tendencia creciente se
pasa una tendencia decreciente. En estos casos se suele ajustar modelos diferentes a cada
una de las partes o efectuar un análisis de intervención.

Explicación.
Construir un modelo para explicar el comportamiento de la serie de tiempo en
términos de otras variables o de ella misma. Cuando las observaciones son tomadas para
dos o más variables, es posible usar la variación en una de las series temporales, para
explicar las variaciones en las otras. Esto nos conduce a un mayor conocimiento sobre la
serie dada. Los modelos de regresión dinámica y función de transferencia pueden ser útiles
en estos casos. Por ejemplo es interesante ver cómo el nivel del mar es afectado por la
temperatura y la presión, y ver como las ventas están afectadas por los precios y las
condiciones económicas.

Predicción.
Dada una serie de tiempo, podemos estar interesados en la predicción de futuros
valores de la serie. La predicción está estrechamente relacionada con los problemas de
control, por ejemplo si podemos predecir que en un proceso de manufactura la variable que
mide la calidad va a estar muy desviada de un determinado valor límite, entonces podemos
realizar correcciones oportunas para evitarlo.
La predicción es uno de los objetivos de las series de tiempo. En general, los
métodos de predicción se pueden agrupar en métodos cualitativos o cuantitativos.

Métodos cualitativos
Los métodos cualitativos o también conocidos como subjetivos, dependen de
la intuición y no necesariamente dependen de las observaciones pasadas. A pesar de
su falta de rigor, en algunos casos pueden ser bastante apropiados e incluso el único
método de previsión. Como por ejemplo, en la aparición de nuevos productos en el
mercado, si estamos interesados en las ventas de un nuevo producto, no se puede
recurrir al volumen de ventas en años anteriores pues éste no existía. En este tipo de

8
métodos podemos destacar el método Delphi, la previsión está basada en la
utilización sistemática e iterativa de juicios de opinión de un grupo de expertos
hasta llegar a un acuerdo.

Métodos cuantitativos
En las previsiones de tipo cuantitativo, se parte del supuesto de que se tiene
registrada información sobre el pasado acerca del fenómeno que se quiere estudiar.
Generalmente, esta información sobre el pasado aparece en forma de series
temporales. En los métodos cuantitativos, la misión del estadístico es extraer toda la
información posible contenida en los datos, y en base al patrón de conducta seguida
en el pasado hacer conjeturas en el futuro.

Los métodos de alisado o suavizado


Se basan en separar el patrón de comportamiento de la serie de la
parte aleatoria.
Los métodos de descomposición
Tratan de identificar las componentes del patrón básico de la serie,
normalmente la tendencia (Tt), la estacionalidad (St) y ciclos (Ct), de manera
que una serie de observaciones(X1,X2, …,Xn), se puede expresar como
Xt = f(Tt,St,Ct) +It
La componente irregular, It representa la parte aleatoria de la serie, es decir,
la parte no explicada por las otras componentes que en general se modela
mediante un proceso estocático estacionario.

Para modelar el proceso estocástico en análisis de series temporales,


comúnmente, hay principalmente dos enfoques conocidos como análisis en el
dominio del tiempo y análisis en el dominio de la frecuencia.
El análisis en el dominio del tiempo
Se basa en la estructura de la correlación de los procesos estocásticos
estacionarios. Box y Jenkins (1970) desarrollaron una clase de modelos, los
modelos autorregresivos integrados de medias móviles (ARIMA) para tratar
de modelar y predecir series estacionarias o no estacionarias a las que se les
ha eliminado la tendencia y la estacionalidad.
Esta metodología también puede aplicarse a series multivariantes
definiendo los modelos ARIMA vectoriales. Casos especiales de esta
metodología son los modelos que relacionan una variable salida con una o
más variables entradas (Box y Jenkins (1976)), conocidos como modelos de
función de transferencia o de regresión dinámica, y como caso particular es
el análisis de intervención.
Otro tipo de modelos son los modelos de espacio-estado para el
tratamiento de series temporales. Un modelo de espacio-estado está formado
por dos ecuaciones: una ecuación de medida, que describe el estado del
proceso en el momento y una ecuación de transición que representa el vector
de estado en el momento t, en función del estado en “t-1”. Estos incluyen los
modelos de regresión tradicionales y los modelos ARIMA. Los modelos de
espacio-estado hacen uso del filtrado de Kalman para realizar estimaciones y
predicciones.

9
El análisis de las series en el dominio de la frecuencia,
Está basado en el teorema de descomposición espectral de un
proceso estacionario que nos asegura que la variabilidad de la serie es suma
de la variabilidad de ondas seno-coseno. Estas variaciones periódicas son
causadas a menudo por fenómenos biológicos, físicos o medioambientales
de interés. Por ejemplo, las temperaturas de la superficie del mar causadas
por las oscilaciones de El Niño puede afectar al número de peces en el
océano (Shumway, R. H. and Stoffer, D. S. (2000), pág. 6). El estudio de la
periodicidad se extiende también al campo de la Economía y de las Ciencias
Sociales, donde uno puede estar interesado en periodicidades anuales en
series como las tasas de desempleados mensuales o nacimientos mensuales.
Los métodos de regresión,
Se pueden considerar como un método más para realizar
predicciones de la variable dependiente en función de las independientes
(ver Shumway, R. H. and Stoffer, D. S. (2000), ejemplos: ventas trimestrales
de Johnson & Johnson y temperatura globales). En el caso de series
univariantes, regresiones de la serie Xt en función del índice t pueden servir
para modelar sus componentes.

Control.
Cuando una serie de tiempo está generada con una medida que nos indica la calidad
de un proceso de manufactura, entonces el objetivo del análisis de la serie de tiempo ha de
ser el control del proceso, mantener o cambiar distintos valores futuros de la serie, distintos
procedimientos de control se han estudiado.
Para predecir sucesos que ocurrirán en el futuro, un predictor debe confiar en la
información relativa a los sucesos que ocurrieron en el pasado. Esto es, para realizar una
predicción, el predictor debe analizar los datos pasados y predecir en función de ese
análisis.

10
En general el esquema seguido en el análisis de series temporales será

11
Métodos de descomposición

EJEMPLO: Los datos siguientes corresponden al número de muertos en accidentes


mensualmente en U.S.A. de 1973 a 1978 (fuente National Sadety Council)
1973 1974 1975 1976 1977 1978
Enero 9007 7750 8162 7717 7792 7836
Febrero 8106 6981 7306 7461 6957 6892
Marzo 8928 8038 8124 7776 7726 7791
Abril 9137 8422 7870 7925 8106 8129
Mayo 10017 8714 9387 8634 8890 9115
Junio 10826 9512 9556 8945 9299 9434
Julio 11317 10120 10093 10078 10625 10484
Agosto 10744 9823 9620 9179 9302 9827
Septiembre 9713 8743 8285 8037 8314 9110
Octubre 9938 9129 8433 8488 8850 9070
Noviembre 9161 8710 8160 7874 8265 8633
Diciembre 8927 8680 8034 8647 8796 9240

Serie número de muertos en accidentes mensualmente en USA 1973-1978


11800

10800

9800
serie

8800

7800

6800
0 20 40 60 80

media mensual
Enero 8044.0
Febrero 7283.83
Marzo 8063.83
Abril 8264.83
Mayo 9126.17
Junio 9595.33
Julio 10452.8
Agosto 9749.17
Septiembre 8700.33
Octubre 8984.67
Noviembre 8467.17
Diciembre 8720.67

12
Seasonal Subseries Plot for serie
11800

10800

9800
serie

8800

7800

6800
0 3 6 9 12 15
Season

Periodograma para la serie número de muertos en accidentes


(X 1.E7)
4

3
Ordinate

0
0 0.1 0.2 0.3 0.4 0.5 0.6
frequency
Procedimiento para tendencias pequeñas
Medias anuales
Año 1973 1974 1975 1976 1977 1978
Media 9651.75 8718.5 8585.83 8396.75 8576.83 8796.7
5

Medias anuales de la serie número de muertos en accidentes


9800

9500
media_anual

9200

8900

8600

8300
0 20 40 60 80

Serie menos media anual correspondiente


1973 1974 1975 1976 1977 1978

13
Enero -644.75 -968.5 -423.83 -679.75 -784.83 -960.75
Febrero -1545.75 -1737.5 -1279.83 -935.75 -1619.83 -1904.75
Marzo -723.75 -680.5 -461.83 -620.75 -850.83 -1005.75
Abril -514.75 -296.5 -715.83 -471.75 -470.83 -667.75
Mayo 365.25 -4.5 801.17 237.25 313.17 318.25
Junio 1174.25 793.5 970.17 548.25 722.17 637.25
Julio 1665.25 1401.5 1507.17 1681.25 2048.17 1687.25
Agosto 1092.25 1104.5 1034.17 782.25 725.17 1030.25
Septiembre 61.25 24.5 -300.83 -359.75 -262.83 313.25
Octubre 286.25 410.5 -152.83 91.25 273.17 273.25
Noviembre -490.75 -8.5 -425.83 -522.75 -311.83 -163.75
Diciembre -724.75 -38.5 -551.83 250.25 219.17 443.25

Serie - Medias anuales


(X 1000)
3

2
serie_mediaanual

-1

-2
0 20 40 60 80

Medias mensuales de los valores de la tabla anterior

Mes Sj (componente estacional)


Enero -743.735
Febrero -1503.9
Marzo -723.902
Abril -522.902
Mayo 338.432
Junio 807.598
Julio 1665.1
Agosto 961.432
Septiembre -87.4017
Octubre 196.932
Noviembre -320.568
Diciembre -67.0683

14
Componente estacional
3000
2400
1800
1200
600
0
-600
-1200
-1800
-2400
1 2 3 4 5 6 7 8 9 10 11 12

Residuos: (serie menos media anual correspondiente menos la componente estacional)


1973 1974 1975 1976 1977 1978
Enero 98.985 -224.765 319.905 63.985 -41.095 -217.015
Febrero -41.85 -233.6 224.07 568.15 -115.93 -400.85
Marzo 0.152 43.402 262.072 103.152 -126.928 -281.848
Abril 8.152 226.402 -192.928 51.152 52.072 -144.848
Mayo 26.818 -342.932 462.738 -101.182 -25.262 -20.182
Junio 366.652 -14.098 162.572 -259.348 -85.428 -170.348
Julio 0.15 -263.6 -157.93 16.15 383.07 22.15
Agosto 130.818 143.068 72.738 -179.182 -236.262 68.818
Septiembre 148.6517 111.9017 -213.4283 -272.3483 -175.4283 400.6517
Octubre 89.318 213.568 -349.762 -105.682 76.238 76.318
Noviembre -170.182 312.068 -105.262 -202.182 8.738 156.818
Diciembre -657.6817 28.5683 -484.7617 317.3183 286.2383 510.3183

residuos
800

400

-400

-800
0 20 40 60 80

Procedimiento general

15
La tendencia inicialmente la calculamos con la media móvil simétrica
1 1 1 
mt   X t 6  X t 5  ...  X t  X t 1  ...  X t 5  X t  6 
12  2 2 
1973 1974 1975 1976 1977 1978
Enero 9051.54 8799.71 8422.96 8445.54 8606.54
Febrero 8963.29 8790.13 8403.96 8473.46 8622.54
Marzo 8884.5 8762.58 8375.25 8490.13 8677.58
Abril 8810.38 8714.5 8367.21 8516.75 8719.92
Mayo 8757.88 8662.58 8357.58 8548.13 8744.42
Junio 8728.79 8612.75 8371.21 8570.63 8778.25
Julio 9599.38 8735.67 8567.29 8399.88 8578.67
Agosto 9500.13 8766.38 8555.21 8382.0 8577.79
Septiembre 9416.17 8783.5 8547.17 8358.92 8577.79
Octubre 9349.29 8764.08 8534.96 8364.38 8581.46
Noviembre 9265.21 8769.13 8505.88 8382.58 8591.79
Diciembre 9156.17 8799.0 8449.04 8408.0 8606.79

Gráfico de esta media móvil a lo largo de la serie


media móvil ( tendencia )
11800

10800

9800

8800

7800

6800
0 12 24 36 48 60 72

Comparémoslo con el procedimiento anterior

9800

9500

9200

8900

8600

8300
0 20 40 60 80

Si a la serie le restamos esta tendencia tendremos


1973 1974 1975 1976 1977 1978
Enero -1301.542 -637.708 -705.958 -653.542 -770.542

16
Febrero -1982.292 -1484.125 -942.958 -1516.458 -1730.542
Marzo -846.5 -638.583 -599.25 -764.125 -886.583
Abril -388.375 -844.5 -442.208 -410.75 -590.917
Mayo -43.875 724.417 276.417 341.875 370.583
Junio 783.208 943.25 573.792 728.375 655.75
Julio 1717.625 1384.333 1525.708 1678.125 2046.333
Agosto 1243.875 1056.625 1064.792 797 724.208
Septiembre 296.833 -40.5 -262.167 -321.917 -263.792
Octubre 588.708 364.917 -101.958 123.625 268.542
Noviembre -104.208 -59.125 -345.875 -508.583 -326.792
Diciembre -229.167 -119 -415.042 239 189.208

serie menos media móvil


2500

1500

500

-500

-1500

-2500
0 20 40 60 80

Medias mensuales de los valores de la tabla anterior y componente estacional

Mes Medias mensuales Sj (componente estacional)


Enero -813.858 -804.304033
Febrero -1531.28 -1521.726033
Marzo -747.008 -737.454033
Abril -535.35 -525.796033
Mayo 333.883 343.436967
Junio 736.875 746.428967
Julio 1670.42 1679.973967
Agosto 977.3 986.853967
Septiembre -118.308 -108.754033
Octubre 248.767 258.320967
Noviembre -268.917 -259.363033
Diciembre -67.0 -57.446033

17
componente estacional
3600
3000
2400
1800
1200
600
0
-600
-1200
-1800
-2400
1 2 3 4 5 6 7 8 9 10 11 12

Serie desestacionalizada Xt - St :
serie desestacionalizada
11800

10800

9800

8800

7800

6800
0 20 40 60 80

1973 1974 1975 1976 1977 1978


Enero 9811.304 8554.304 8966.304 8521.304 8596.304 8640.304
Febrero 9627.726 8502.726 8827.726 8982.726 8478.726 8413.726
Marzo 9665.454 8775.454 8861.454 8513.454 8463.454 8528.454
Abril 9662.796 8947.796 8395.796 8450.796 8631.796 8654.796
Mayo 9673.563 8370.563 9043.563 8290.563 8546.563 8771.563
Junio 10079.57 8765.571 8809.571 8198.571 8552.571 8687.571
Julio 9637.026 8440.026 8413.026 8398.026 8945.026 8804.026
Agosto 9757.146 8836.146 8633.146 8192.146 8315.146 8840.146
Septiembre 9821.754 8851.754 8393.754 8145.754 8422.754 9218.754
Octubre 9679.679 8870.679 8174.679 8229.679 8591.679 8811.679
Noviembre 9420.363 8969.363 8419.363 8133.363 8524.363 8892.363
Diciembre 8984.446 8737.446 8091.446 8704.446 8853.446 9297.446

18
Métodos de suavizado

Suavizado exponencial simple


.- Suprime las fluctuaciones a corto plazo y suaviza la serie.
.- Media ponderada de los valores previos con major peso para las observaciones
recientes.
.-No hay tendencia ni estacionalidad
Ft+1 = αYt + (1 − α)Ft, 0 < α < 1.
Así Ft+1 is la media ponderada de la observación anterior Yt, con la predicción
anterior Ft,
Iterando
t 1
Ft 1  (1   ) F1    (1   ) j Yt  j
t

j 0
Es decir la dependencia de las predicciones con observaciones anteriores decrece
exponencialmente con velocidad α. Cuanto mayor es α más deprisa decrece la
dependencia.
Si = 1, la predición coincide con la última observación . Si está próximo a 1,
entonces los valores recientes pesan más
Si está próximo a 0 entonces valores remotos tienen un peso comparable a los más
recientes. Está indicado cuando hay gran aleatoriedad en los datos.
El algoritmo necesita inicializarse F2 = Y1. Aunque otras inicializaciones son
posibles

Suavizado exponencial lineal de Holt


Es una extensión del suavizado exponencial.
.- Introduce un factor tendencia al método anterior
.- Hay tendencia lineal pero no estacionalidad.
F(t) = L(t) + b(t)
F(t+m) = L(t) + m*b(t)
Hay 2 constantes de suavizado α and β.
Las ecuaciones son:
Lt  Yt  (1   )( Lt 1  bt 1 )
bt   ( Lt  Lt 1 )  (1   )bt 1
Ft  m  Lt  bt m
Lt es un estimador de la media y bt estima la tendencia lineal de la serie en el instante t, y
Ft+m es la predicción.
Las ecuaciones se inicializan
L1 = Y1 and b1 = 0.Sin embargo inicializar la pendiente a 0 puede dar problemas y
en ocasiones hay que tomar cuidadosamente un estimador inicial.

19
Método de Holt-Winter
Es una extensión del método anterior que tiene en cuenta la estacionalidad
.- Introduce tendencia y estacionalidad
F(t) = (L(t) + b(t))*S(t-12)
F(t+m) = (L(t) + m*b(t))*S(t-12+m)
Método multiplicativo
Con ecuaciones
Yt
Lt    (1   )( Lt 1  bt 1 )
St  s
bt   ( Lt  Lt 1 )  (1   )bt 1
Yt
St    (1   ) St  s
Lt
Ft  m   Lt  bt m  St  s  m

Siendo s la estacionalidad o número de estaciones en un ciclo.


Para inicializar necesitamos un ciclo completo de datos, es decir los s
primeros valores.
1
Ls  (Y1  Y2  ...  Ys )
s
Para la tendencia s + k datos.
1 Y Y Y Y Y  Yk 
bs   s 1 1  s  2 2  ...  s  k 
k s s s .
Si hay suficientes datos k = s, es decir dos ciclos completos.
Sin embargo podemos tomar k = 1.
Los índices estacionales se inicializan
Yk
Sk  k  1, 2, ..., s
Ls
α, β, γ parámetros en (0, 1).
Método aditivo
Lt   (Yt  St  s )  (1   )( Lt 1  bt 1 )
bt   ( Lt  Lt 1 )  (1   )bt 1
St   (Yt  Lt )  (1   ) St  s
Ft  m  Lt  bt m  St  s  m
Los valores iniciales Ls y bs se eligen como en el caso multiplicativo
Los índices estacionales iniciales
Sk  Yk  Ls k  1, 2, ..., s .

20
Modelos de Box-Jenkins
Una característica esencial de las series temporales es la dependencia que existe
entre las observaciones.
A comienzo de los años 70, G.E.P. Box, profesor de Estadística de la Universidad de
Wisconsin, y G.M. Jenkins, profesor de Ingeniería de Sistemas de la Universidad de
Lancaster, introdujeron una pequeña revolución en el enfoque del análisis de series
temporales, en sus trabajos sobre el comportamiento de la contaminación en la bahía de San
Francisco, con el propósito de establecer mejores mecanismos de pronóstico y control. El
libro (1976) en el que describen la metodología, se convirtió rápidamente en un clásico, y
sus procedimientos se utilizan ampliamente desde entonces en diferentes ramas de la
ciencia, conociéndose como modelos ARIMA y también como modelos Box-Jenkins.
La metodología de Box-Jenkins modela esta dependencia utilizando la teoría
probabilística suministrada por los procesos estocásticos estacionarios y la metodología
estadística suministrada por la teoría de la estimación y contraste de hipótesis.
Un proceso estocástico es una colección de variables indexadas por el tiempo
 X (t ) tT
Un proceso es estacionario si su distribución no varia a lo largo del tiempo.

Definición. Proceso fuertemente estacionario.


Un proceso estocástico  X (t ) tT , se dice, fuertemente estacionario si la familia de
distribuciones finito-dimensionales Ft t ...t permanece invariante frente al tiempo.
1 2 n

La distribución finito-dimensional Ft1t 2 ...t n es la distribución conjunta de las


variables aleatorias  X (t1 ), X (t2 )... X (t n )  .
Así Ft1t 2 ...t n  A1... An   P ( X (t1 )  A1... X (tn )  An ) A1... An  
Y por permanecer invariante se verifica
Ft1t 2 ...t n  Ft1h t 2 ...t n h t1...tn  , h   en términos de distribución.
P X (t1 )  A1...X (tn )  An   P X (t1  h)  A1...X (tn  h)  An  .
Las distribuciónes finito-dimensionales sólo dependen de la posición relativa de las
coordenadas entre sí y no del instante del tiempo en que esten tomadas
En particular,
Todas las distribuciones unidimensionales son iguales, es decir, todas las
variables aleatorias X(t) están igualmente distribuidas.
Para las distribuciones bidimensionales se verifica:
d
 X (t1), X (t2 )   X (0), X (t2  t1)
Esta definición es bastante restrictiva y daremos la siguiente definición en términos
de los momentos de primer y segundo orden.

Definición. Proceso débilmente estacionario


Un proceso estocástico  X (t ) tT se dice débilmente estacionario si posee primer y
segundo momento y verifica:
E  X (t )   , t   Var  X (t )   2 , t  
Cov X (t ), X (t  s )  Cov X (0), X ( s )  K ( s )

21
A la función K que sólo depende de un parámetro se la denomina función de
covarianza y es una función simétrica y semidefinida positiva.
n n
t1 , t 2 ,...t n  T a1 , a 2 ,...a n  T  a K (t
i 1 j 1
i i  t j )a j  0

Los modelos de procesos estocásticos que utilizaremos para el modelado son :

Modelos autorregresivos AR(p) : Su expresión matemática es


( X t   )  1 ( X t 1   )   2 ( X t 2   )  ...   p ( X t  p   )  Z t
Se pone cada observación como combinación lineal de observaciones
pasadas.
1, 2, ... p son números reales ,  la media de la serie y Zt es una sucesión
de variables incorreladas.
Expresado en forma abreviada  ( B )( X t   )  Z t siendo (B) un
polinomio en B, donde B es el operador retardo definido B(Xt)=Xt-1
Las raices de (B) fuera del círculo unidad

Modelos de media móvil MA(q) : con expresión matemática


( X t   )   1 Z t 1   2 Z t 2  ...   p Z t  p  Z t
Cada observación es combinación lineal de errores pasados y presentes .
En forma abreviada ( X t   )  ( B ) Z t
Las raices de (B) fuera del círculo unidad

Modelos mixtos : ARMA(p,q)


 ( B )( X t   )   ( B ) Z t .
Cada observación es combinación lineal de observaciones pasadas y de
errores pasados y presentes.
Las raices de (B) y de (B) fuera del círculo unidad
Las series temporales presentan variaciones que pueden ser debidas al propio
modelo o al medio en el que se tomaron las observaciones o a las dos causas. Para
tener en cuenta los factores externos se introducen los modelo estacionales. Estos
modelos tienen en cuenta que las series presentan variaciones periódicas regulares o
aleatorias debidas al transcurrir del tiempo y a la sucesión de las estaciones. (meses,
trimestres, etc.)

Modelos estacionales autorregresivos SAR(p) : Su expresión matemática es


( X t   )  1 ( X t  s   )   2 ( X t 2 s   )  ...   p ( X t  ps   )  Z t
Con s la longitud del periodo ( 12 con datos mensuales, 4 si son datos
trimestrales)
1, 2, ... p son números reales ,  la media de la serie y Zt es una sucesión
de variables incorreladas.
Expresado en forma abreviada  ( B )( X t   )  Z t
s

Siendo  ( B s ) un polinomio en Bs y Bs es el operador retardo estacional


definido Bs(Xt)=Xt-s

22
Las raices de (Bs) fuera del círculo unidad

Modelos estacionales de media móvil SMA(q) : con expresión matemática


( X t   )   1 Z t  s   2 Z t 2 s  ...   p Z t  ps  Z t
En forma abreviada ( X t   )  ( B s ) Z t
Se pueden combinar los anteriores modelos para dar lugar a
Las raices de (Bs) fuera del círculo unidad

Modelos SARMA(p,q)(P,Q) multiplicativos con expresión matemática


 ( B ) ( B s )( X t   )   ( B )( B s ) Z t
Las raices de (Bs) y de (Bs) fuera del círculo unidad

Todos lo modelos anteriormente expuestos son modelos estacionarios en el


sentido amplio o débilmente estacionarios, es decir, su media permanece constante a
lo largo del tiempo y la función de correlación depende del retardo y no del
tiempo en el que se calcule es decir
E(Xt) =  t Corr(Xt, Xt+h) = corr(X0,Xh) = (h) t
Sin embargo las series temporales, además de variaciones aleatorias, cíclicas
y estacionales, presentan tendencia y componentes estacionales (la media varía a lo
largo del tiempo y de las estaciones) que hace que los procesos estacionarios
anteriormente citados no sean suficientes para su modelado. Por esta razón se
introducen los modelos integrados, mediante estos modelos retiramos la
componente tendencial y estacional.

Modelos SARIMA(p,d,q)(P,D,Q)s multiplicativos:


La expresión genérica del modelo es la siguiente:
 ( B) ( B s )(Wt   )   ( B )( B s ) Z t
Wt  (1  B ) d (1  B s ) D X t = dsD(Xt)
Los operadores introducidos en la fórmulas son:
Bs : operador de retardo estacional definido Bs(Xt) = Xt-s
 = (1-B) operador diferencia regular
s = (1-Bs) operador diferencia estacional.
Los operadores diferencia y diferencia estacional, en general quitan
tendencias y componentes estacionales de la serie respectivamente.
Wt es la serie desestacionalizada y sin tendencia, es decir, es estacionaria.
Xt: serie observada
B: Operador de retardos
(B): Polinomio autorregresivo de orden p, correspondiente a la parte
ordinaria de la serie
(B): Polinomio de medias móviles de orden q, correspondiente a la parte
ordinaria de la serie
(Bs): Polinomio autorregresivo de orden P, correspondiente a la parte
estacional de la serie
(Bs): Polinomio de medias móviles de orden Q, correspondiente a la parte
estacional de la serie

23
 :la media de la serie estacionaria
Zt: Perturbación del modelo
D,d: Número de veces que se han aplicado los operadores diferencia
estacional y diferencia regular a la serie original para convertirla en estacionaria.
Las raices de (B) ,(Bs) , (B) y de (Bs) fuera del círculo unidad

Identificación
¿Cómo identificamos el modelo?
Para identificar el modelo nos basamos ademas de la gráfica de los datos frente al
tiempo, de las gráficas de la función de autocorrelación y función de autocorrelación parcial
muestrales..
Estas gráficas se comparan con las gráficas de las correspondientes funciones
teóricas que tiene una forma característica para cada modelo.
Denotamos por
ACF la función de autocorrelación. Esta función está definida en el retardo k como
ρ(k) = Cov(xt, xt+h)/var(xt)
Mide la relación lineal entre estas variables.
PACF la función de autocorrelación parcial. En el retardo k mide la relación lineal
entre Xt y Xt+k pero quitando la dependencia entre las variables intermedias.
En general

Modelos AR(p)
ACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente.
PACF se anula a partir del retardo p

Modelos MA(q)
ACF se anula a partir del retardo q
PACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente.

Modelos ARMA(p,q)
p<q
ACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente; como en el modelo AR(p) pero a
partir del retardo q-p+1, es decir que los primeros q-p+1 retardos no tienen
pauta fija.

PACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con


amplitudes decreciendo exponencialmente, es decir como el modelo MA(q)

p>q
ACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente; como en el modelo AR(p)

24
PACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente, es decir como el modelo MA(q),
pero a partir del retardo p-q+1, es decir que los primeros p-q+1 retardos no
tienen pauta fija.
p=q
ACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente; como en el modelo AR(p) pero a
partir del retardo 1, es decir que el primer retardo no sigue este patrón

PACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con


amplitudes decreciendo exponencialmente, es decir como el modelo MA(q),
pero a partir del retardo 1, es decir el primer retardo no varia según este
patrón.

Modelos estacionales
En estos modelos hay que distinguir la parte regular, es decir los retardos
comprendidos entre los retardos estacionales y la parte estacional, es decir
los retardos estacionales.
Para la parte regular el comportamient de ACF y PACF como en los
modelos ARMA.
Para los retardos estacionales, la misma pauta que los modelos ARMA pero
en los retardos s, 2s,…
Los retardos vecinos de los retardos estacionales, dependiendo del orden
ARMA de la parte regular también se ven afectados.A continuación vemos
gráficas de estas funciones

ACF PACF

25
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2
0.2
0.0
0.0
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1.0
0 6 12 18 24 30 -1.0
0 6 12 18 24 30

1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0
0.0
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1.0
0 6 12 18 24 30 -1.0
0 6 12 18 24 30

1.0 1.0
0.8 0.8
0.6 0.6
0.4
0.4
0.2
0.2
0.0
0.0
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-1.0 -0.8
0 6 12 18 24 30
-1.0
0 6 12 18 24 30

ACF PACF

26
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30

1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2 0.2

0.0 0.0

-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30

1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30

1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
-0.2
-0.2
-0.4
-0.4
-0.6 -0.6

-0.8 -0.8

-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30

ACF PACF

27
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1.0
0 6 12 18 24 30 -1.0
0 6 12 18 24 30

1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30

1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30

1.0 1.0

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0.0 0.0

-0.2 -0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1.0
-1.0 0 6 12 18 24 30
0 6 12 18 24 30

ACF PACF

28
(0,1)(0,1)

(0,1)(1,1)

(0,1)(0,1)
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 12 24 36 48 60 0 12 24 36 48 60

(0,2)(0,1)

29
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 12 24 36 48 60 0 12 24 36 48 60
(0,0)(1,0)
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 12 24 36 48 60
0 12 24 36 48 60
(0,0)(1,1)
1.0 1.0
0.8 0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
-0.2
-0.4 -0.2

-0.6 -0.4
-0.8 -0.6
-1.0 -0.8
0 12 24 36 48 60
-1.0
(2,0)(1,0) 0 12 24 36 48 60

0.5
0.5
0.4
0.3
0.4
0.2 0.3
0.1 0.2
0 0.1
-0.1 0
-0.2 -0.1
-0.3 -0.2
-0.4 -0.3
-0.5 -0.4
0 12 24 36 48 60
-0.5
0 12 24 36 48 60

(o,1)(1,0)

30
Estimación:
Una vez identificado el modelo, se estiman los parámetros con los métodos
habituales.

validación
Hay que verificar las hipótesis del modelo.
.- Todos los parámetros son significativos.
.-Los residuos están incorrelados.
Se calcula para ello el estadístico de Ljung-Box:

Q1 = [N(N+2)]/(N-k) k r2a(h)
h=1
Bajo la hipótesis nula de que el modelo está bien ajustado, se distribuye
según una chi cuadrado con grados de libertad k-p-q
(r1, r2, ..., rk) las correlaciones correspondientes a los k primeros retardos.
.- El modelo es estacionario.

Ejemplo

Serie Número de Parados registrados en Castilla y León. El periodo estudiado comprende


datos desde enero de 1980 hasta mayo de 2001

Representación gráfica de la serie

paro total Castilla y León

200000

180000

160000

140000

120000

100000

80000

60000

40000

20000

A la vista del gráfico vemos que nuestra serie no es estacionaria, presenta una clara
tendencia que sigue los ciclos de la economía, también muestra componentes estacionales.
Este hecho también se pone de manifiesto en las gráficas de las funciones de
autocorrelación, autocorrelación parcial y periodograma de la serie.
En la función de autocorrelación observamos que hay un decrecimiento muy lento,
muy lejano del decrecimiento exponencial de los modelos estacionarios.

31
La gráfica de la función de autocorrelación parcial muestra una correlación muy alta
en el retardo 1 y muy baja en los demás retardos , indicativo de la existencia de una
tendencia en la serie o variación a largo plazo.
Por último la gráfica del periodograma muestra un pico muy pronunciado en las
bajas frecuencias que oculta cualquier otra variación de los datos.
De estas tres gráficas se deduce que la serie no es estacionaria y que las variaciones
a largo plazo o tendencia de la serie, ocultan la estructura de los datos. Por tanto
diferenciamos la serie de orden 1 para eliminar la tendencia.

Autocorrelación para el paro en Castilla y León


1
Autocorrelaciones

0.6

0.2

-0.2

-0.6

-1
0 10 20 30 40 50
lag

Autocorrelación parcial paro de Castilla y León


Autocorrelaciones Parciales

0.6

0.2

-0.2

-0.6

-1
0 10 20 30 40 50

lag

Periodograma Paro Castilla y León


(X 1.E10)
12
10

8
6
4

2
0
0 0.1 0.2 0.3 0.4 0.5
frecuencia

A continuación representamos las mismas gráficas correspondientes a la serie


diferenciada. En la función de autocorrelación se observa un comportamiento pseudo-
periódico de la serie con periodo 12 ya que los datos son mensuales.

32
Así nos encontramos con una serie estacional. Si nos fijamos en los retardos
estacionales (12, 24, 36, 48) el decrecimiento de la correlación puede o no puede ser
exponencial, necesitamos más gráficas para saber si la serie es estacionaria.
La función de autocorrelación parcial no muestra falta de estacionariedad, ni el
retardo 1 ni el primer retardo estacional son demasiado grandes frente a los demás.
La gráfica del periodograma muestra un pico muy pronunciado en la frecuencia 0.08
indicativo de estacionalidad de periodo 12 y otros picos menos pronunciados en los
armónicos siendo el siguiente en orden de magnitud el correspondiente a la frecuencia 0.25,
es decir periodo 4 indicativo de cierta periodicidad trimestral.
También observamos un pico de menor magnitud en una frecuencia próxima a cero
indicativo de una variación a largo plazo que todavía persiste en la serie y que la aleja de la
estacionariedad.
La diferencia de orden 1 no ha sido suficiente para quitar la tendencia.
Autocorrelación para el paro en Castilla y León diferenciada de orden 1
1
Autocorrelaciones

0.6

0.2

-0.2

-0.6

-1
0 10 20 30 40 50
lag

Autocorrelación parcial paro de Castilla y León diferenciada de orden 1


Autocorrelaciones Parciales

0.6

0.2

-0.2

-0.6

-1
0 10 20 30 40 50

lag

Periodograma Paro Castilla y León diferenciada de orden 1


(X 1.E8)
8

0
0 0.1 0.2 0.3 0.4 0.5
frecuencia

Aplicamos una diferencia estacional a la serie para comprobar si esta operación hace
a la serie estacionaria y analizamos nuevamente los gráficos.

33
La función de autocorrelación decrece muy lentamente. La función de
autocorrelación parcial no muestra falta de estacionariedad, ni el retardo 1 ni el primer
retardo estacional son demasiado grandes frente a los demás y el periodograma sigue
mostrando un pico muy superior a todo lo demás en las bajas frecuencias.
Es decir esta operación no nos convierte a la serie en estacionaria.

Autocorrelación para el paro en Castilla y León diferenciada de orden 12


1
Autocorrelaciones

0.6

0.2

-0.2

-0.6

-1
0 10 20 30 40 50
lag

Autocorrelación parcial paro de Castilla y León diferenciada de orden 12


Autocorrelaciones Parciales

0.6

0.2

-0.2

-0.6

-1
0 6 12 18 24 30 36 42 48

lag

Periodograma Paro Castilla y León diferenciada de orden 12


(X 1.E9)
15

12

0
0 0.1 0.2 0.3 0.4 0.5
frecuencia

Por tanto procedemos a aplicar una diferencia regular y una diferencia estacional a
la serie original. Las tres gráficas siguientes no muestran falta de estacionariedad, así
modelaremos esta serie.
Observamos en la función de autocorrelación que los primeros retardos decrecen
exponencialmente, indicativo de un polinomio autorregresivo de orden 1 y sólo hay un
retardo estacional que podamos considerar distinto de 0, indicativo de un polinomio de
media móvil estacional de orden 1.

34
La función de autocorrelación parcial está de acuerdo con esta identificación del
modelo ya que sólo hay un retardo regular , el primero, que podamos considerar distinto de
0 y en los retardos estacionales (12, 24, 36, 48) se observa decrecimiento exponencial.
En el periodograma se pueden entrever 6 ondas de amplitudes decrecientes
indicativo de que nos encontramos ante un modelo estacional multiplicativo.
Autocorrelación para el paro en Castilla y León diferenciada de orden 1 y 12
1
Autocorrelaciones

0.6

0.2

-0.2

-0.6

-1
0 10 20 30 40 50
lag

Autocorrelación parcial paro de Castilla y León diferenciada de orden 1 y12


Autocorrelaciones Parciales

0.6

0.2

-0.2

-0.6

-1
0 10 20 30 40 50

lag

Periodograma Paro Castilla y León diferenciada de orden 1 y 12


(X 1.E7)
8

0
0 0.1 0.2 0.3 0.4 0.5
frecuencia

Así hemos identificado un modelo SARIMA(1,1,0)(1,1,0)12 para la serie


diferenciada de orden 1 y 12 del paro total registrado durante el periodo comprendido entre
Enero de 1980 y Mayo de 2001.
ARIMA Procedure
Name of variable = CYL.
Period(s) of Differencing = 1,12.
Mean of working series = -93.3074
Standard deviation = 1899.651
Number of observations = 244
NOTE: The first 13 observations were eliminated by differencing.
ARIMA Procedure

Maximum Likelihood Estimation


Parameter Estimate Std Error T Ratio Lag
AR1,1 0.43581 0.05765 7.56 1

35
AR2,1 -0.28994 0.06283 -4.61 12
Variance Estimate = 2727641.33
Std Error Estimate = 1651.55725
AIC = 4311.52136
SBC = 4318.5157
Number of Residuals= 244

Correlations of the Estimates


Parameter AR1,1 AR2,1
AR1,1 1.000 -0.049
AR2,1 -0.049 1.000

Model for variable CYL


No mean term in this model.
Period(s) of Differencing = 1,12.
Autoregressive Factors
Factor 1: 1 - 0.43581 B**(1)
Factor 2: 1 + 0.28994 B**(12)
ARIMA Procedure
Name of variable = RESIDUAL.
Mean of working series = -69.8716
Standard deviation = 1648.301
Number of observations = 244
Autocorrelations
Lag Square DF Prob
6 12.13 6 0.059 -0.029 -0.006 0.114 0.141 -0.121 0.000
12 16.81 12 0.157 0.017 0.076 -0.068 -0.011 0.065 -0.057
18 19.06 18 0.388 -0.054 0.060 0.018 -0.042 -0.007 -0.001
24 33.17 24 0.101 -0.042 -0.045 -0.033 -0.020 0.008 -0.215
30 34.19 30 0.273 -0.012 -0.023 0.018 0.041 0.025 0.019
36 41.43 36 0.246 0.018 -0.046 0.007 0.037 -0.083 -0.120
Después de realizar los ajustes, el modelo elegido y su expresión matemática es la
siguiente:

(1  B)(1  B 12 )(1  0.43  B )(1  0.29  B 12 ) X t  Z t


En forma más expandida.
Para el incremento mensual
(Xt -Xt-1)=(Xt-12-Xt-13)+0.42(Xt-1-Xt-2)-0.3(Xt-12-Xt-13)-0.55(Xt-13-Xt-14)+
0.3(Xt-24-Xt-25)-0.13(Xt-25-Xt-26)+Zt
Para el incremento anual
(Xt -Xt-12)=(Xt-1-Xt-13)+0.42(Xt-1-Xt-13)-0.42(Xt-2-Xt-14)-0.3(Xt-12-Xt-24)+
0.17(Xt-13-Xt-25)+0.13(Xt-14-Xt-26)+Zt

Así vemos que el incremento del número de parados en un mes determinado


depende positivamente
-Del incremento del número de parados en el mes anterior (0.42)
-Del incremento del número de parados del mismo mes del año anterior (0.7)
- Del incremento del número de parados del mismo mes de dos años anteriores
(0.3)
Depende negativamente
-Del incremento del paro un mes anterior del año anterior (0.55)
-Del incremento del paro un mes anterior de dos años antes (0.13)
El incremento anual del número de varones parados crece
-Con el incremento anual del mes anterior (1.42)
-Con el incremento anual del mes anterior del año anterior (0.17)
-Con el incremento anual de dos meses anteriores del año anterior.(0.17)

36
Decrece
-Con el incremento anual de dos meses anteriores (0.42)
-Con el incremento anual del año anterior (0.3)

Paro total en la comunidad


/*Lectura de Datos: */
libname d 'c:\juntas\salidas';
data d.datos;
infile 'c:\juntas\ paro registrado total\paro registrado.txt' dlm='09'x;
input Av Bu CyL Le Pa Sa Se So Va Za;
date= intnx('month','31dec79'd,_n_);
format date monyy.;
run;
/*******************************/
/*Identificación de las series:*/
/*******************************/
/*Serie de la provincia de Ávila: */
title1 'Paro registrado en Ávila';
title2 '( Enero 1980 - Mayo 2001 )';
/*modelo SARIMA(0,1,1)(1,1,1)12 */
PROC ARIMA data= d.datos;
IDENTIFY var=Av(1,12) nlag=36 ;
ESTIMATE q=(1)(12) noconstant
method=ml
plot outcorr
outest=resul.test
outstat=resul.stat
outmodel=resul.model;
FORECAST out=b id=date interval=month noprint;
run;
PROC ARIMA data=b;
IDENTIFY var=residual nlag=36;
run;

Análisis de intervencióny funciòn de transferencia

Las series temporales a menudo se ven afectadas por cambios en el entorno donde
se producen. Estos cambios afectan a la evolución de la serie y deben ser incorporados al
modelo. Estos modelos se denominan modelos con intervención.

37
La intervención se define mediante una variable escalón

It*(t) = 1 si t  t* siendo t* el momento en el que se produjo la intervención


=0 si t < t*

Los efectos de la intervención pueden ser permanentes o transitorios.


Los efectos son permanentes si la intervención permanece desde el
momento en que se produjo
Son transitorios si el efecto solo dura mientras se produce la intervención.
En este caso la intervención tiene la forma (1-B) It*.

Una vez identificado el instante en el que se produce la intervención, ésta la


modelamos como una función de It*, cociente de dos polinomios
f(It*) = (W(B)/ It* en caso de efectos permanentes
f(It*) = (W(B)/ (1-B)It* para efectos transitorios.

El polinomio de numerador refleja el cambio en la serie postintervenida. El


polinomio del denominador indica la velocidad a la que la serie se aproxima al proceso
estacionario postintervenido. Generalmente un grado 0 ó 1 del polinomio numerador y un
grado 1 del denominador son suficientes para modelar la mayoría de las intervenciones.

Efectos permanentes Efectos transitorios

Instantáneo: f(It*) = w0 It* w0 = 1 f(It*) = w0(1- It* w0 = 1


1,2 1
1 0,8
0,8 0,6
0,6
0,4
0,4
0,2
0,2
0
0
1

13
11

1 3 5 7 9 11 13

Efectos permanentes Efectos transitorios

Gradual f(It*) = (w0/1- It* w0=1  f(It*) = (w0/1- It*

38
2 0,5

1,5 0,4
0,3
1
0,2
0,5 0,1
0 0
1

13

13
11

11
El modelo completo se escribe

Yt = f(It*) + Nt
Siendo f la función que modela la intervención y Nt un modelo estacionario.
Para construir el modelo, se parte de un modelo anterior para la serie Y t que nos
servirá para identificar el ruido Nt y la función f se construye pensando en los posibles
efectos de la intervención, bien por el conocimiento previo o por el comportamiento de los
datos.

Funciòn de transferencia

Los modelos vistos hasta ahora son modelos univariantes. Se modela la serie como
un filtro, es decir como una combinación lineal de valores pasados y presentes.
Ahora veremos un modelo que relaciona una serie con sus valores pasados y
presentes y con los valores pasados y presentes de otra serie.
Sean Xt e Yt dos series temporales estacionarias.
Xt representa el input o variable causa
Yt el output o variable respuesta.
Nt es un ruido incorrelado con la serie input Xt que será modelado como
ARMA.
El modelo final se expresa

Yt =  vj Xt-j + Nt

El operador V(B) =  vj Bj se llama función de transferencia


Los pesos vi son los pesos impulso-respuesta del sistema.

Si los parámetros v0 = v1 = . . . = vb-1, entonces las variaciones en el input se


manifiestan en el output b retardos después.

En la formulación del modelo, se supone que el presente y el pasado del input


influyen en el presente del output, pero no al revés, es decir, no existe retroalimentación o
“feed-back”.
La correlación entre Yt y Xt+k es 0. Los valores futuros de X no dependen de
los valores pasados y presentes de Y.

39
La correlación entre Xt y Yt+k es distinta de 0. Los valores futuros de Y
dependen de los valores pasados y presentes de X.

Los modelos de función de transferencia se diferencian de los modelos de regresión


principalmente en:
Permiten que los errores estén correlados.
La relación entre el regresor y la variable independiente es una relación
dinámica output-input.
Tanto la variable dependiente como la independiente presentan
autocorrelación.

Nos limitaremos a modelos en los que  vj Bj <  Si |B|  1, es decir cambios finitos
en el input producen cambios finitos en el output. Esto asegura la estacionalidad del output.

V(1) =  vj = g < .
A g se le denomina ganancia del sistema y representa el valor del output si el input
es constante e igual a 1 y no hay perturbación.

El modelo presenta un problema y es que tiene infinitos parámetros, una


alternativa sería truncar el polinomio V(B), es decir, Y t = v0 Xt + v1 Xt-1 + ... + vh Xt-h + Nt.
Donde h se elige de forma que el efecto de los retardos posteriores a h sea
despreciable, sin embargo es una decisión difícil y puede evitarse poniendo V(B) como
cociente de dos polinomios.

V(B)= W(B) Bb/ (B)


W(B) = w0 + w1B + ... + ws Bs
(B) = 1- 1B - 2 B2 - ... - r Br
De esta forma se reduce el número de parámetros y el modelo es

Yt = [W(B) Bb/ (B)] Xt + Nt

Si no existe perturbación, es decir Nt = 0 el modelo sería

( 1 - 1B - 2 B2 - ... - r Br) Yt = (w0 + w1B + ... + ws Bs)Bb Xt

Expresión análoga a la de un modelo ARMA(r, s). Es decir un modelo ARMA es un


caso particular de un modelo dinámico de función de transferencia en el que el input es un
ruido blanco, no existe perturbación y la función de transferencia es el cociente de dos
polinomios correspondientes a la parte de media móvil el numerador y a la parte
autorregresiva el denominador. Así las condiciones de estacionaridad e invertibilidad para
la función de transferencia son las mismas que para los modelos ARMA, es decir, las raíces
de los polinomios W(B) y (B) fuera del círculo unidad.

Identificación
Necesitamos calcular los órdenes de los polinomios W(B) y (B) y el retardo b

40
Para ello, calculamos los pesos vi impulso-respuesta en función de los coeficientes
de los polinomios numerador y denominador.

V(B)= W(B) Bb/ (B) multiplicando ambas partes de la igualdad por (B)

(B) V(B)= W(B) Bb Desarrollando

( 1- 1B - 2 B2 - ... - r Br)( v0 + v1B + ...) = (w0 + w1B + ... + ws Bs)Bb


Igualando coeficientes

v0 = v1 = ... = vb-1 = 0
vb = 1 vb-1 + 2 vb-2 + ... + r vb-r + w0
vj = 1 vj-1 + 2 vj-2 + + r vj-r + wj-b j = b+1, ...b+s
vj = 1 vj-1 + 2 vj-2 + ... + r vj-r j> b + s

Estas relaciones hay que tenerlas presentes ya que son muy útiles para identificar la
función de transferencia, lo que es equivalente a identificar

b, retardo a partir del cual una variación en el input se refleja en el output


s, orden del polinomio del numerador.
r, orden del polinomio del denominador.

En las ecuaciones que verifican los coeficientes se observa

- los b-1 primeros coeficientes son 0 v0 = v1 = ... = vb-1 = 0


- los siguientes s+1 no siguen ninguna pauta fija vb vb+1 ... vb+s
- a partir del coeficiente s+b+1 los vk verifican una ecuación en diferencias
análoga a la que verifica la función de autocorrelación de un modelo AR(r), es decir
decrecimiento suma de exponenciales y ondas seno coseno.

Para identificar la función de transferencia es importante una estimación inicial de


los pesos vj. Para ello necesitaremos la función de autocorrelación cruzada ya que como
veremos los vk son proporcionales a ella. Antes daremos algunas definiciones.

Definición:
Un proceso estocástico bivariante (Xt, Yt) se dice que es estacionario en el sentido
amplio si
Cada componente Xt Yt es estacionario. La función de autocovarianza solo depende
del retardo que separa las variables y no del tiempo en que se mide.

KX(h) = cov(Xt, Xt+h) KY(h) = cov(Yt, Yt+h) h = 0 , 1, 2, . . .

La función de covarianza cruzada entre las dos series solo depende del retardo que
las separa.

41
KX,Y (h) = cov(Xt, Yt+h) h = 0 ,  1,  2, . . .

Notar que la función de covarianza cruzada no es una función par y verifica la


relación
KX,Y (h) = KY,X (-h).

Se define la función de autocorrelación cruzada por la relación


X,Y (h) = KX,Y (h)/X Y h = 0 ,  1,  2, . . .

Si tenemos una muestra de tamaño N de una serie bivariante, los estimadores de la


correlación cruzada son los habituales
rX,Y (h) = CX,Y (h)/sX sY h = 0 ,  1,  2, . . .

(1/N) N-h Xt Yt+h h = 0, 1, 2, ...


t=1
CX,Y (h) =

(1/N) N-h Xt+h Yt h = 0, -1, -2, ...


t=1
En general las varianzas y covarianzas de estos estimadores son difíciles de calcular. En
algunos casos especiales disponemos de aproximaciones.

- Si Xt es ruido blanco e Yt y Xt son incorreladas la aproximación de Barlett (1955)


da como resultado
Var [rX,Y (h)]  (N-h)-1
Corr [rX,Y (h), rX,Y (h+1)]  Y(1).
Es decir, aunque los procesos sean incorrelados, los estimadores de la función de
correlación cruzada están correlados y reproducen la autocorrelación del output en
el primer retardo.

- Si Xt e Yt son los dos ruido blanco y están incorrelados entonces


Var [rX,Y (h)]  (N-h)-1
Corr [rX,Y (h), rX,Y (h+1)]  0.

Por analogía con los modelos ARMA, se puede intentar identificar la función de
transferencia a partir de las correlaciones cruzadas muestrales, pero las propiedades
muestrales no son fáciles de establecer, al estar estos estimadores correlados. Los cálculos
se simplificarían sobremanera si el input fuera un ruido blanco, ya que en este caso
disponemos de la aproximación de Barlett. Por lo que vamos a utilizar la técnica de
“preblanqueo” para conseguirlo.
Técnica de preblanqueo:
Se realiza en dos etapas
1. - Ajustamos un modelo ARMA a la serie input Xt X(B) Xt = X(B)t.

42
La serie t de los residuos es un ruido blanco t = X(B) -1X(B) Xt

2. - Aplicamos el mismo filtro a la serie output t = X(B) -1X(B) Xt


La correlación cruzada entre t y t juega un papel importante a la hora de
identificar la función de transferencia como se ve a continuación después de establecer los
resultados

Las funciones de transferencia que relacionan Yt con Xt y  t con  t son iguales.


Sea el modelo Yt = V(B) Xt + Nt con Y, X y N procesos estacionarios.

Aplicando el filtro X(B) -1X(B) a ambos lados de la igualdad anterior

t = V(B) t + t con t = X(B) -1X(B) Nt

La función de covarianza cruzada entre  y  es proporcional a V(B)


Calculemos esta covarianza cruzada

Cov(t , t+h) = E(t t+h) = E[t ( V(B) t+h + t+h] =


v0 E(t, t+h) + v1 E(t, t+h-1) + . . . + vh E(t, t) + ... + E(t, t+h) = vh 2
ya que t es ruido blanco y está incorrelado con t.

Despejando
vh = K, (h) / 2 = ( / )( K, (h) /  ) = ( / )  (h) h = 0,1,2,

Con lo que vh es proporcional a la correlación cruzada entre el input y el output


preblanqueados en el retardo h.

Identificación de los órdenes b, s y r


vh puede ser estimada por (s  / s) r(h). Estos estimadores en general son
no eficientes, pero sirven de base para una primera modelación de la función de
transferencia.
Mediante la aproximación de Barlett podemos comparar r(h) con su
desviación típica (N-h)-1/2. También hay que comprobar que r (h) = 0 si h < 0, es
decir que no hay retroalimentación.

b es el primer retardo positivo tal que r(h)  0.


Los órdenes s y r de los polinomios W(B) y (B) se pueden determinar por la
forma de la función de correlación cruzada entre  y  a partir del retardo b, ya que
r, (b) . . . r (b+s) no presentan ninguna pauta de comportamiento
A partir del retardo b+s r(h) se comporta como la función de
autocorrelación de un modelo AR(r).
Identificación del modelo para Nt.
Una vez elegidos los ordenes b, r y s, la función de transferencia se estima
  
V (B)   
  W    b

43
y se calculan los residuos
   
N t  Yt - V(B)X t  Yt      W    b

Nt es un proceso estacionario y por los métodos habituales de

identificación, identificamos un modelo ARMA(p, q) para N t


N (B) N t = N(B)at con at ruido blanco.

Finalmente el modelo identificado es

Yt = [W(B)/(B)]Bb Xt + [N(B)/ N (B)]at o también

(B) N Yt = W(B) N (B) Xt-b + (B) N(B) at que en forma desarrollada

Yt = d1 Yt-1 + . . . +dp+r Yt-r-p + c0 Xt-b + c1 Xt-b-1 +... + cp+sXt-b-p-s + at + b1 at-1 +... + bq+r a t-q-r

Aquí finaliza la etapa de identificación que nos da un modelo base que debe ser
estimado. El modelo identificado puede ser modificado para eliminar parámetros superfluos
una vez superada la etapa de estimación.
El orden de los polinomios en general no será muy grande (2 suele ser suficiente) y
si encontramos factores comunes, deben ser simplificados ya que en caso contrario, los
resultados serian erróneos.

Estimación
Los métodos de estimación son los mismos que en las series univariantes.
Si W(B) y (B) son polinomios de orden 0, se obtienen estimadores mínimo
cuadrados con expresión exacta, en caso contrario los estimadores se obtienen por
aproximaciones sucesivas.
Debemos estimar los coeficientes de los polinomios (B) W(B) N(B) N(B).
Sea  el parámetro a estimar ´ = ( ´, W´ , N´, N´).
Para cualquier elección de b´ se pueden calcular los errores at a partir de t > m
siendo m = max ( p+r, b+p+s ) + 1 mediante la expresión

(B) N Yt = W(B) N (B) Xt-b + (B) N(B) at que en forma desarrollada

at = Yt - d1 Yt-1 - . . . -dp+r Yt-r-p - c0 Xt-b - c1 Xt-b-1 -... - cp+sXt-b-p-s - b1 at-1 -... - bq+r a t-q-r
nos permite calcular la suma de los cuadrados de los residuos.
Si suponemos a0 = a1 = . . . = am = 0 obtenemos mínimos cuadrados condicionados.
Si estimamos por el método de máxima verosimilitud y suponemos normalidad,
como los residuos at son incorrelados también serán independientes.

L(,2/X, Y)  -n exp[(-1/2)2 N at2()].


t=m+1

44
La verosimilitud se aproxima por la suma de cuadrados de los residuos, que hay que
minimizar.

Validación

Es la etapa siguiente a la estimación. El modelo ajustado puede no ser válido por

.- El modelo para el ruido Nt no es el adecuado.


En este caso los residuos son correlados y a(h)  0 para algún h > 0,
Pero como la función de transferencia está bien ajustada, el input
preblanqueado y los residuos están incorrelados, es decir, ,a (h) = 0  h.
En este supuesto hay que buscar un nuevo modelo para el ruido, sin
modificar la función de transferencia.

.- El modelo para la función de transferencia no es el adecuado.


El input preblanqueado y los residuos están correlados, es decir
,a (h)  0 para algún h. En este caso hay que modificar la función de
transferencia lo que llevará consigo también una modificación del modelo
para el ruido o perturbación.

.- Ninguno de los dos modelos es adecuado.


Este caso se comporta como el anterior.

A continuación vamos a probar estas afirmaciones.


Supongamos el modelo

Yt = -1(B)W(B) Xt-b + N-1 (B) N(B) at = V(B) Xt + (B) at


y que hemos seleccionado el modelo

Yt = V0(B) Xt + 0(B) a0t


Despejando
aot = 0-1(B) [Yt - V0(B)Xt] = 0-1(B) [V(B) - V0(B)]Xt + 0-1(B) (B) at.

Si la función de transferencia es correcta


aot = 0-1(B) (B) at.
{a0t} no es un ruido blanco, presenta autocorrelación a0(h)  0 para algún h
Pero {a0t} y {t}son incorrelados ya que {t} y {at} lo son.

Si la función de transferencia no es correcta


{a0t} presenta correlación cruzada con la serie {Xt}
por tanto también presenta autocorrelación y correlación con la serie {t}, es
decir, ,a0 (h)  0 para algún h.

45
Independientemente de sí el modelo para la perturbación está bien o mal modelado,
el cálculo de la correlación cruzada de los residuos, resultado del ajuste de la función de
transferencia, con el input preblanqueado puede informarnos acerca de los cambios que hay
que hacer en la función de transferencia.
Consideremos el modelo preblanqueado

t = V(B) t + t con t = X(B) -1X(B) Nt , t = X(B) -1X(B) Xt


Los residuos del modelo erróneo son

0t = t - V0(B) t = (V(B) -V0(B)) t + t


Ahora calculamos la correlación cruzada entre 0t y t.
Esta correlación en el retardo h mide la discrepancia que existe entre vh y v0h
E(t 0t+h) = E{t [(V(B) -V0(B)) t+h + t+h]} =
(vh-vh0) E(t2) + E(t t+h) = (vh-vh0) E(t2)
por estar las series t y t incorreladas. Despejando

(vh-vh0) =  (h) ()

Es decir una correlación cruzada alta en un retardo entre el ruido y el input


preblanqueado es debido a una diferencia grande entre el valor de la función impulso
respuesta estimada y la real en ese mismo retardo.

En resumen para la validación del modelo utilizaremos las pruebas de correlación


.- Autocorrelación de los residuos.
Si esta función da señales de que los residuos no son aleatorios, esto puede
ser debido a que la función de transferencia no es correcta, o a que la perturbación
está mal modelada, o las dos causas a la vez.
. - Correlación cruzada entre el input preblanqueado y los residuos.
Si la correlación cruzada entre el input preblanqueado y los residuos es
distinta de cero para algún retardo, hay que modificar la función de transferencia.
Si la correlación cruzada no da muestras de que el error está en la función de
transferencia, si los residuos siguen presentando autocorrelación hay que modificar
el modelo para el ruido.
Es necesario comprobar las dos funciones de correlación.

Debido a que las autocorrelaciones y las correlaciones cruzadas están correladas


entre sí, el comprobar que estos valores son 0, puede llevar a errores, sobre todo en los
retardos bajos. Por esta razón se utilizan los estadísticos

Q1 = [N(N+2)]/(N-k) k r2a(h)
h=1
r2a(h) es la autocorrelación en el retardo h de los residuos

Q2 = [N(N+2)]/(N-k) k r2 ,a(h)

46
h=1
2
r , a(h) correlación cruzada en el retardo h del input preblanqueado y los residuos
Bajo la hipótesis nula de que el modelo está bien ajustado, estos estadísticos se
distribuyen según una chi cuadrado con grados de libertad k-p-q y k-r-s respectivamente.
Siendo p y q los ordenes autorregresivo y de media móvil de la perturbación y r y s
los ordenes del numerador y denominador de la función de transferencia.
Necesitamos los dos estadísticos para asegurarnos de la bondad del modelo. Estos
dos estadísticos son muy conservadores, por lo que además es conveniente estudiar la
aleatoriedad de los residuos at por los métodos habituales.

Predicción

Las técnicas utilizadas para la predicción son las mismas que en el caso univariante.
Partiendo del modelo ajustado

Yt = -1(B)W(B) BbXt + N-1 (B) N(B) at .


Dejando libre el error obtenemos

N (B) N-1(B)Yt = N(B) N-1(B) -1(B)W(B)Bb Xt + at.


Desarrollando ambos miembros

N (B) N-1(B) = 1-1B-2B2 - . . .


N(B) N-1(B) -1(B)W(B)Bb = v0* + v1*B + v2*B2 + ...

De donde
Yt = (1Yt-1 + 2Yt-2 + ... ) + (v0*Xt + v1*Xt-1 + v2*Xt-2 + ... ) + at.

Ecuación que puede ser usada para obtener la predicción de Y N+s como combinación
lineal de valores pasados de Xt e Yt hasta el instante N, de forma que el error cuadrático
medio sea mínimo.
En caso de normalidad YN(s) = E(YN+s/ YN, YN-1,... XN, XN-1 ,...).

También puede ponerse la predicción como combinación lineal de los errores y del
input preblanqueado, ya que por ser estas series ruido blanco e incorreladas entre sí, nos
facilitará el cálculo de la varianza del error de predicción.

Errores de predicción
Partiendo de la misma ecuación Yt = -1(B)W(B) BbXt + N-1 (B) N(B) at

como Xt = X-1 (B) X(B) t llegamos a la ecuación

Yt = -1(B)W(B) Bb X-1 (B) X(B) t + N-1 (B) N(B) at = u(B) t + (B) at

47
Con u(B) = -1(B)W(B) Bb X-1 (B) X(B)
(B) = N-1 (B) N(B)
Que desarrollada da lugar a
YN+s = u0  N+s + u1  N+s-1 + . . . + us  N + . . . + aN+s + 1aN+s-1 + . . . + saN + . . .

Si expresamos la predicción de la forma

YN(s) = (0(1) aN + 1(1) aN-1 + . . . ) + (0(2) N + 1(2) N-1 + . . . )

Elegiremos los i(j) de forma que el error cuadrático E(|YN+s - YN(s)|2 )sea mínimo.
E(|YN+s - YN(s)|2 ) =
E{( u0  N+s + u1  N+s-1 + . . . + us-1  N+l + aN+s + 1aN+s-1 + . . . + s-1aN )+

[(us-0(2))N + (us-1-1(2))N-1 + . . . ] +[(s-0(1))aN + (s-1-1(1))aN-1 + . . . ]}2

El mínimo de esta función se alcanza para

0(2)= us , 1(2) = us-1 , . . . 0(1) = s , 1(1) = s-1, ...

El valor de la predicción es

YN(s) = (us N + us+1  N-1 + . . . ) + ( saN +  s+1aN-1 + . . .)

Con error de predicción

eN(s) = u0  N+s + u1  N+s-1 + . . . + us-1  N+l + aN+s +  1aN+s-1 + . . . +  s-1aN+1


y varianza del error de predicción

V(eN(s)) = ( u02 + u12 + . . . + us-12 )  + (1 +  12+ . . . +  s-12 ) 2a

Sentencias SAS para intervención y función de transferencia


intervenciones parados total
data enero80;
infile "datosluis\transfer\enero80.txt" dlm='09'x firstobs=2;
input ano mes $ total sinemple servicio agric indtotal x2;
date= intnx('month','31dec79'd,_n_);
format date monyy.;
year = year( date );

48
month =month( date );
x1 = (year >= 1987);
proc print;
run;
Proc arima data=enero80;
Identify var=total(1,12) crosscorr=( x1(1,12) x2(1,12)) nlag=36 noprint;
estimate p=(1)(12) noconstant input=( (0)/(1)x2 ) method=ml outcov outcorr;
forecast lead=12 out=prueba id=date noprint;
run;
proc gplot data=prueba gout=prueba2;
plot residual*date;
run;
title2 'residuos';
Proc arima data=prueba;
Identify var=residual nlag=36;
run;
title2;
Transferencia mujeres paradas
libname i 'c:\dataluis\ipc';
title1 'IPC paro';
data i.paroipc;
infile "datosluis\paroipc2.txt" dlm='09'x firstobs=2;
input ipc totalpar hombres mujeres;
/* date= intnx('month','31dec77'd,_n_); */
/* format date monyy.; */
proc print;
run;
proc arima data=i.paroipc;
/*--- identifica el input---------*/
identify var=ipc(1,12) nlags=48;
run;
/*--- ajusta el input --------*/
estimate q=(12) noconstant;
run;
/*--- correlación cruzada entre el input y el output preblanqueados */
identify var=mujeres(1,12) crosscorr=(ipc(1,12)) nlags=48;
run;
/*--- ajusta function transferencia,identifica residuos */
estimate noconstant input=( (0)/(1) ipc ) ;
forecast lead=12 out=prueba id=date noprint;
proc arima data=prueba;
identify var=residual nlag=36;
run;
/*--- modelo completo -----------*/
proc arima data=i.paroipc;
identify var=ipc(1,12) nlags=48;
estimate q=(12) noconstant;

49
identify var=mujeres(1,12) crosscorr=(ipc(1,12)) nlags=48;
estimate p=(1)(12) noconstant input=( (0)/(1) ipc );
run;

Ejemplo anális intervención

Trabajamos con los datos de parados que buscan primer empleo en la comunidad de
Castilla y León . Los datos son mensuales y van desde enero de 1980 hasta mayo de 2001
En el año 1987 se produce un cambio en la forma de registrar el paro para poder
equipararlo con el resto de países europeos. Hubo un cambio menor en el año 92.

50
En el año 1995, se aprueba la reforma del Derecho del Trabajo RD.LEG. 1/1995 de
24 de marzo.

Gráfico de la serie
parados según actividad

70000

60000

50000

40000 sin empleo anterior


sevcios
agricultura
30000 total indust

20000

10000

Parados sin empleo anterior


Maximum Likelihood Estimation

Parameter Estimate Std Error T Ratio Lag Variable Shift


AR1,1 0.32447 0.05873 5.53 1 SINEMPLE 0
AR1,2 0.13201 0.05919 2.23 3 SINEMPLE 0
AR2,1 0.61911 0.04904 12.62 12 SINEMPLE 0
NUM1 -344.48175 181.62336 -1.90 0 X1 0

Variance Estimate = 371282.535


Std Error Estimate = 609.329579
AIC = 3956.93215
SBC = 3971.04986
Number of Residuals= 252

Correlations of the Estimates


SINEMPLE SINEMPLE SINEMPLE X1
Variable Parameter AR1,1 AR1,2 AR2,1 NUM1
SINEMPLE AR1,1 1.000 -0.120 -0.035 0.007
SINEMPLE AR1,2 -0.120 1.000 0.021 -0.076
SINEMPLE AR2,1 -0.035 0.021 1.000 -0.126
X1 NUM1 0.007 -0.076 -0.126 1.000

Model for variable SINEMPLE


No mean term in this model.
Period(s) of Differencing = 1.
Autoregressive Factors
Factor 1: 1 - 0.32447 B**(1) - 0.13201 B**(3)

51
Factor 2: 1 - 0.61911 B**(12)

Input Number 1 is X1.


Overall Regression Factor = -344.482

Name of variable = RESIDUAL.


Mean of working series = 50.15968
Standard deviation = 618.3341
Number of observations = 252
Autocorrelation Check for White Noise
To Chi Autocorrelations
Lag Square DF Prob
6 3.83 6 0.700 -0.009 -0.074 -0.038 0.050 -0.054 -0.050
12 22.16 12 0.036 0.169 0.125 -0.037 -0.045 0.053 -0.138
18 25.96 18 0.101 -0.081 -0.006 0.058 0.047 -0.042 0.011
24 31.69 24 0.135 -0.039 -0.128 -0.044 -0.008 -0.007 0.027
30 37.19 30 0.172 -0.098 0.000 0.014 -0.062 0.038 -0.066
36 42.98 36 0.197 0.064 0.020 -0.026 -0.048 -0.055 0.096

Población sin empleo anterior.


El modelo encontrado es un SARIMA (3,1,0)(1,0,0)12 y tiene la fórmula

(1 - B)(1 - 0.32B - 0.13B3)(1 - 0.61B12)Xt = -344.82X1 + Zt


Este modelo incorpora las componentes estacionales ya que puede observarse que
no ha hecho falta una diferencia estacional. Del desarrollo de la fórmula se desprende:
-El incremento mensual del número de parados sin empleo anterior de cualquier
mes anterior a enero de 1988 se puede obtener como 0.32 veces el incremento mensual del
mes anterior más 0.13 veces el incremento mensual de tres meses anteriores más el
incremento mensual del mismo mes del año anterior menos 0.2 veces el incremento
mensual de un mes anterior del año anterior menos 0.08 veces el incremento mensual de de
tres meses anteriores del año anterior.
- El incremento mensual del número de parados sin empleo anterior de cualquier
mes posterior a enero de 1988 se puede obtener de la anterior manera restándole
El cambio en la forma de contabilizar el paro introducido en el año 87 tuvo influencia en
este colectivo reduciendo el incremento mensual del número deparados sin empleo anterior
en 345.
-La nueva ley no tiene ningún efecto en este colectivo

Ejemplo de función de transferencia


Relación del paro de las mujeres de la comunidad con el IPC
Hemos tomado como variable input el IPC y como variable output el para femenino.
Los datos son mensuales y el periodo de tiempo estudiado es el mismo que en el
ejemplo anterior
Las salidas de sas son
Ajuste del input
Name of variable = IPC.
Period(s) of Differencing = 1,12.
Mean of working series = 0.005112
Standard deviation = 0.335187
Number of observations = 268
NOTE: The first 13 observations were eliminated by differencing
ARIMA Procedure
Conditional Least Squares Estimation
Parameter Estimate Std Error T Ratio Lag
MA1,1 0.58550 0.05161 11.34 12

52
Variance Estimate = 0.08922208
Std Error Estimate = 0.29870066
AIC = 113.893229*
SBC = 117.484216*
Number of Residuals= 268
Autocorrelation Check of Residuals
To Chi Autocorrelations
Lag Square DF Prob
6 3.59 5 0.610 0.114 0.003 0.004 -0.000 -0.017 -0.001
12 12.98 11 0.294 0.059 0.086 0.092 0.055 0.094 0.049
18 16.85 17 0.465 0.028 0.044 0.057 0.068 -0.008 0.053
24 20.64 23 0.603 -0.009 -0.007 -0.090 -0.049 0.047 0.011
30 25.12 29 0.672 0.066 0.012 -0.039 -0.053 -0.055 -0.055
36 32.58 35 0.586 0.069 -0.127 -0.025 0.011 0.015 -0.050
42 38.00 41 0.605 -0.045 -0.070 -0.048 -0.054 -0.069 -0.017
48 43.51 47 0.618 -0.053 -0.014 -0.034 -0.061 -0.058 -0.076
Model for variable IPC
No mean term in this model.
Period(s) of Differencing = 1,12.
Moving Average Factors
Factor 1: 1 - 0.5855 B**(12)
Ajuste de la función de transferencia

Name of variable = MUJERES.


Period(s) of Differencing = 1,12.
Mean of working series = -63.4133
Standard deviation = 917.1056
Number of observations = 196
NOTE: The first 13 observations were eliminated by differencing.
Both variables have been prewhitened by the following filter:

Prewhitening Filter
Moving Average Factors
Factor 1: 1 - 0.5855 B**(12)
Conditional Least Squares Estimation
Parameter Estimate Std Error T Ratio Lag Variable Shift
NUM1 -96.03385 136.77718 -0.70 0 IPC 0
DEN1,1 -0.86075 0.34807 -2.47 1 IPC 0
Variance Estimate = 851037.549
Std Error Estimate = 922.516964
AIC = 3234.43909*
SBC = 3240.99532*
Number of Residuals= 196
Correlations of the Estimates
IPC IPC
Variable Parameter NUM1 DEN1,1
IPC NUM1 1.000 -0.470
IPC DEN1,1 -0.470 1.000

Ajuste del ruido


Conditional Least Squares Estimation.
Parameter Estimate Std Error T Ratio Lag Variable Shift
AR1,1 0.38683 0.06734 5.74 1 MUJERES 0
AR2,1 -0.33426 0.07410 -4.51 12 MUJERES 0
NUM1 -112.84190 95.75468 -1.18 0 IPC 0
DEN1,1 -0.88856 0.14475 -6.14 1 IPC 0
Variance Estimate = 671232.373
Std Error Estimate = 819.287723
AIC = 3189.88917*
SBC = 3203.00163*
Number of Residuals= 196
Correlations of the Estimates
MUJERES MUJERES IPC IPC
Variable Parameter AR1,1 AR2,1 NUM1 DEN1,1
MUJERES AR1,1 1.000 -0.147 0.013 -0.015
MUJERES AR2,1 -0.147 1.000 0.009 0.031
IPC NUM1 0.013 0.009 1.000 -0.598
IPC DEN1,1 -0.015 0.031 -0.598 1.000

53
Validación

Crosscorrelation Check of Residuals with Input IPC


To Chi Crosscorrelations
Lag Square DF Prob
5 2.53 4 0.639 -0.050 0.007 -0.002 -0.072 -0.013 -0.071
11 7.22 10 0.705 -0.052 0.032 0.051 0.072 0.108 0.027
17 16.01 16 0.452 -0.105 0.060 -0.014 -0.022 0.130 0.113
23 19.56 22 0.611 0.044 0.058 0.054 -0.015 -0.062 0.076
29 22.34 28 0.765 0.038 -0.007 0.046 0.041 -0.081 0.049
35 25.38 34 0.857 0.023 -0.001 0.115 -0.031 0.021 -0.016
41 28.41 40 0.915 0.021 0.018 -0.103 -0.015 0.044 0.043
47 30.69 46 0.960 -0.003 -0.059 -0.036 0.017 0.057 0.058

Autocorrelation Check of Residuals


To Chi Autocorrelations
Lag Square DF Prob
6 6.78 4 0.148 -0.020 0.024 0.070 0.120 -0.112 -0.027
12 12.11 10 0.277 -0.002 0.084 -0.054 0.101 0.072 -0.017
18 19.65 16 0.236 0.133 0.067 0.005 -0.079 0.068 -0.046
24 27.66 22 0.187 -0.030 -0.068 0.078 -0.122 -0.044 -0.086
30 32.59 28 0.251 0.013 -0.054 0.008 0.115 -0.009 0.069
36 43.72 34 0.123 0.007 -0.061 -0.082 0.067 -0.108 -0.139
42 49.87 40 0.136 -0.001 0.053 -0.140 0.044 0.018 0.016

modelo ajustado
Model for variable MUJERES
No mean term in this model.
Period(s) of Differencing = 1,12.
Autoregressive Factors
Factor 1: 1 - 0.38683 B**(1)
Factor 2: 1 + 0.33426 B**(12)
Input Number 1 is IPC.
Period(s) of Differencing = 1,12.
Overall Regression Factor = -112.842
The Denominator Factors are
Factor 1: 1 + 0.88856 B**(1)

El modelo encontrado tiene la fórmula

 112.84
(1  B )(1  B 12 )Yt  (1  B )(1  B 12 ) X t  (1  0.39 B)(1  0.33B 12 ) Z t
(1  0.89 B)

La ganancia de la función de transferencia es -59,70.


Esto es, una variación del incremento mensual del incremento anual de una unidad
en el IPC hace que el incremento mensual del incremento anual en el número de mujeres
paradas el mismo mes sea de 60 desempleadas menos.
Aparte de este efecto, la serie del paro femenino sigue evolucionando según un
modelo estacional SARIMA(1,1,0)(1,1,0)12.
Un incremento en el IPC produce ese mismo mes un descenso en el paro femenino

54
Modelos multivariantes
Modelos ARIMA
Se definen igual que en el caso univariante, solo que los coeficientes en lugar de ser
números serán matrices.
AR(p)
X t  1 X t 1    2 X t  2  ...   p X t  p  Z t
MA(q)
X t   1 Z t 1   2 Z t  2  ...   pq Z t  q  Z t
Con
Xt =(X1,t; X2,t;…Xk,t)´

Ф1,Ф2, …Фp, Ө1 ,Ө2,…Өq matrices kxk

Zt =(Z1,t; Z2,t;…Zk,t)´ vector ruido verificando


E(Zt, Zs’) = 0
E(Zt, Zt’) =Σ
Las componentes de Zt son procesos de ruido blanco univariantes, incorrelados con
los demás en distintos tiempos, pero posiblemente correlados en el mismo tiempo, es decir
Σ no es una matriz diagonal.
Para que exista una solución estacionaria del modelo es necesario que las raices de |
α(z)| esten fuera del círculo unidad. Para que el modelo sea identificable, es necesario que
las raices de | β (z)| esten fuera del círculo unidad.
Siendo
α(z) = Σu=0, k Ф u Zu β (z) = Σu=0, k Ө u Zu

Para ajustar estos modelos usamos la sentencia SAS proc statespace que utiliza el
modelo de espacio de estados que es una representación mediante un proceso de markov de
las series multivariantes.

55
Modelos de espacio de estados
Sea Xt un vector rx1 que representa el vector de observaciones.
Zt un vector sx1 con s>r que representa el vector de estados.
Denotamos por Xt+k|t la predicción de Xt+k cuando se tienen observaciones hasta el
instante t.
Las últimas componentes de Zt son de la forma Xt+k|t
El modelo se expresa
Zt+1 = F Zt + G et+1, ecuación de transición o ecuación de estado.
Con F matriz sxs o matriz de transición, determina las propiedades dinámicas del
modelo
G matriz sxr o matriz de innovación, Determina la estructura de la varianza
de la ecuación de transición. Las primeras r filas y columnas es la matriz
identidad
Et vector rxr o vector de innovación , formado por variables incorreladas en
distintos tiempos.
La ecuación de medida se obtiene Xt =[Ir, 0] Zt
Ejemplo
libname d 'c:\datos';
title1 'Castilla y Leon';
data d.cyl;
infile "datos\cyl.txt" dlm='09'x firstobs=2;
input Paro Hombres Mujeres Sinempleo Cregistrados Cindefinidos Colocaciones
Demandas men25 de20a24 de25a29 de30a34 mayo25 meno20 de35a39 de40a44 de45a49
de50a54 de55a59 mayo59 EmpresaE empCyL TI3M ILP ipc12 ipc13 ipc14 ipc15 ipc16
ipc17 ipc18 ipc19 ipc20 ;
date= intnx('month','31dec79'd,_n_);
format date monyy.;
/*proc print; */
run;

proc statespace data=d.cyl out= cylfuera lead=12;


var Mujeres(1,12) Sinempleo(1,12) Colocaciones (1,12) ILP(1);
id date;
form Mujeres 4 Sinempleo 1 Colocaciones 1 ILP 1;
restrict F(2,1)=0 F(2,4)=0 F(3,2)=0 F(3,5)=0 F(4,1)=0 F(4,2)=0 F(4,3)=0
F(4,5)=0F(7,1)=0 F(7,3)=0 F(7,4)=0 F(7,7)=0 G(5,3)=0 G(6,1)=0G(6,2)=0 G(6,3)=0
G(6,4)=0 G(7,4)=0 F(2,3)=0 F(3,1)=0F(3,4)=0 F(4,4)=0 F(7,6)=0 G(5,2)=0 F(7,5)=0
G(5,4)=0 G(7,2)=0 G(5,1)=0 G(7,1)=0 G(7,3)=0;
run;

56
Ajuste de un un modelo bivariante a las series de variación interanual de
España y de la comunidad.

Standard
Variable Mean Error
__CastillayLeon 9.273182 4.311289
Espana 9.740455 3.402027

The STATESPACE Procedure

57
Selected Statespace Form and Preliminary Estimates

State Vector
__CastillayLeon(T;T) Espana(T;T)

Maximum likelihood estimation has converged.


Estimate of Transition Matrix
-0.34349 1.103079
-0.1863 0.820067

Input Matrix for Innovation


1 0
0 1

Variance Matrix for Innovation


12.04467 7.44271
7.44271 7.069811

Parameter Estimates
Standard
Parameter Estimate Error t Value
F(1,1) -0.34349 0.347871 -0.99
F(1,2) 1.103079 0.440728 2.50
F(2,1) -0.18630 0.266635 -0.70
F(2,2) 0.820067 0.337817 2.43

Name of Variable = RES1


Mean of Working Series -0.10864
Standard Deviation 3.35048
Number of Observations 22

Autocorrelation Check for White Noise


To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations--------------------
6 1.35 6 0.9689 0.134 0.038 0.038 0.023 -0.153 -0.051

Name of Variable = RES2


Mean of Working Series -0.09089
Standard Deviation 2.56095
Number of Observations 22
To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations--------------------
6 2.72 6 0.8429 0.034 -0.100 0.179 0.069 0.186 0.099

Correlation of RES1 and RES2


Crosscorrelations
Lag Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
-10 -1.043939 -.12167 | . **| .
-9 0.576598 0.06720 | . |* .
-8 -0.558740 -.06512 | . *| .
-7 -1.361354 -.15866 | . ***| .
-6 0.844707 0.09845 | . |** .
-5 0.075422 0.00879 | . | .

58
-4 1.947410 0.22696 | . |***** .
-3 1.095254 0.12765 | . |*** .
-2 0.600521 0.06999 | . |* .
-1 0.397556 0.04633 | . |* .
0 6.877300 0.80151 | . |****************
1 1.071854 0.12492 | . |** .
2 -1.613803 -.18808 | . ****| .
3 0.925098 0.10782 | . |** .
4 0.213451 0.02488 | . | .
5 1.050565 0.12244 | . |** .
6 0.150554 0.01755 | . | .
7 -1.266643 -.14762 | . ***| .
8 -0.733530 -.08549 | . **| .

Como puede apreciarse hemos ajustado un modelo VARMA(1). Los coeficientes


correspondientes a la serie de Castilla y León son poco significativos, aún así los hemos
dejado por el mejor ajuste del modelo y posterior predicción. También se observa que los
residuos de cada serie son incorrelados, así como que las dos series de residuos no
presentan correlación cruzada.

En el siguiente gráfico se representa las dos series conjuntamente con sus


predicciones. Se observa como las series predichas son más suaves, presentan menos
oscilaciones, que las series originales. También como a partir del año 1990 las serie de
Castilla y León siempre está por debajo de la serie de España , signo de el menor
crecimiento económico de nuestra comunidad que el crecimiento medio a nivel nacional.

59
Ávila

Se ha ajustado un modelo trivariante a las series de la variación interanual del PIB


en Castilla y León, España y Avila. Los datos procesados muestran

60
The STATESPACE Procedure
Number of Observations 22
Standard
Variable Mean Error
__CastillayLeon 9.273182 4.311289
Espana 9.740455 3.402027
Avila 8.842273 4.401761
The STATESPACE Procedure
Selected Statespace Form and Preliminary Estimates

State Vector
__CastillayLeon(T;T) Espana(T;T) Avila(T;T)
Maximum likelihood estimation has converged.

Estimate of Transition Matrix


0 0.861068 -0.20253
0 0.590153 0
0.597553 0 0

Input Matrix for Innovation


1 0 0
0 1 0
0 0 1

Variance Matrix for Innovation


11.73739 7.56436 4.860158
7.56436 7.226412 4.662947
4.860158 4.662947 13.1272

Parameter Estimates
Standard
Parameter Estimate Error t Value
F(1,2) 0.861068 0.231554 3.72
F(1,3) -0.20253 0.121041 -1.67
F(2,2) 0.590153 0.162895 3.62
F(3,1) 0.597553 0.173264 3.45

Name of Variable = RES1


Mean of Working Series -0.05042
Standard Deviation 3.338473
Number of Observations 22

Autocorrelation Check for White Noise


To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations--------------------
6 0.69 6 0.9947 -0.069 0.048 0.012 0.123 -0.041 0.010

Correlation of RES1 and RES2


Variance of input = 6.731576
Number of Observations 22

Crosscorrelations
Lag Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
-10 -0.716465 -.08272 | . **| . |
-9 0.289003 0.03337 | . |* . |
-8 -0.109605 -.01265 | . | . |

61
-7 -1.408363 -.16260 | . ***| . |
-6 0.652823 0.07537 | . |** .
-5 0.730121 0.08429 | . |** .
-4 2.208398 0.25496 | . |***** .
-3 0.446340 0.05153 | . |* .
-2 0.720759 0.08321 | . |** .
-1 -0.585625 -.06761 | . *| .
0 7.121899 0.82222 | . |****************
1 0.478219 0.05521 | . |* .
2 -1.650747 -.19058 | ****| .
3 1.439995 0.16625 | . |*** .
4 1.188948 0.13726 | . |*** .
5 1.264630 0.14600 | . |*** .
6 0.487752 0.05631 | . |* .
7 -0.863886 -.09974 | . **| .
8 -0.523020 -.06038 | . *| .
9 1.406699 0.16240 | . |*** .
10 -2.336863 -.26979 | . *****| .

Name of Variable = RES2


Mean of Working Series -0.08505
Standard Deviation 2.594528
Number of Observations 22

Autocorrelation Check for White Noise


To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations--------------------
6 2.69 6 0.8469 0.025 -0.094 0.162 0.112 0.186 0.090

Correlation of RES2 and RES3


Variance of input = 12.35423
Number of Observations 22

Crosscorrelations
Lag Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
-10 -1.910090 -.20945 | . ****| .
-9 2.688432 0.29480 | . |****** .
-8 -1.149504 -.12605 | . ***| .
-7 -0.982808 -.10777 | . **| .
-6 2.439418 0.26750 | . |***** .
-5 2.245745 0.24626 | . |***** .
-4 0.739302 0.08107 | . |** .
-3 3.344567 0.36675 | . |***** .
-2 -0.552505 -.06059 | . *| .
-1 -0.351285 -.03852 | . *| .
0 4.279745 0.46930 | . |*********
1 -1.179240 -.12931 | . ***| .
2 -0.398727 -.04372 | . *| .
3 -0.669390 -.07340 | . *| .
4 -0.103661 -.01137 | . | .
5 -0.699936 -.07675 | . **| .
6 1.902586 0.20863 | . |**** .
7 -2.075009 -.22754 | . *****| .
8 -1.963786 -.21534 | . ****| .
9 1.031299 0.11309 | . |** .
10 -1.227639 -.13462 | . ***| .

62
Name of Variable = RES3
Mean of Working Series -0.08755
Standard Deviation 3.514858
Number of Observations 22

Autocorrelation Check for White Noise


To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations--------------------
6 2.06 6 0.9137 -0.095 0.024 0.065 -0.171 0.134 0.094

Correlation of RES3 and RES1


Variance of input = 11.1454
Number of Observations 22

Crosscorrelations
Lag Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
-10 -1.386896 -.11819 | . **| .
-9 1.517526 0.12932 | . |*** .
-8 -2.501320 -.21316 | . ****| .
-7 -1.231276 -.10493 | . **| .
-6 2.706255 0.23063 | . |**** .
-5 -0.680085 -.05796 | . *| .
-4 0.924432 0.07878 | . |** .
-3 -1.899108 -.16184 | . ***| .
-2 -0.308584 -.02630 | . *| .
-1 -1.877841 -.16003 | . ***| .
0 4.537718 0.38671 | . |********.
1 -1.464646 -.12482 | . **| .
2 -0.455613 -.03883 | . *| .
3 1.814367 0.15462 | . |*** .
4 2.437544 0.20773 | . |**** .
5 2.631974 0.22430 | . |**** .
6 4.851007 0.41341 | . |**** .
7 -0.902383 -.07690 | . **| .
8 -1.425162 -.12145 | . **| .
9 2.286682 0.19487 | . |**** .
10 -2.848317 -.24274 | . *****| .

De las anteriores salidas podemos deducir el modelo trivariante ajustado y


teniendo en cuenta los coeficientes podemos afirmar.

El modelo relaciona el crecimiento de Castilla y León negativamente con el


crecimiento de Avila (-0.20) y positivamente con el crecimiento español. El crecimiento
español no tiene ningún coeficiente ni en Castilla y León ni en Ávila, es decir el PIB
regional conjuntamente con el PIB de Ávila no influye en el PIB nacional. Por último el
crecimiento de Ávila depende únicamente del crecimiento español (0.597).

Los coeficientes puede verse que son todos significativos y los residuos
incorrelados y no presentan correlación cruzada.

En el gráfico siguiente se ve la evolución conjunta de los tres índices, destacando


cómo el índice de crecimiento de Ávila está siempre por debajo del nacional y regional.

63
Mujeres, Sin empleo anterior y colocaciones registradas
The STATESPACE Procedure
Number of Observations 192
Standard
Variable Mean Error
Mujeres -44.3125 916.8836 Has been differenced.
With period(s) = 1,12.
Sinempleo -40 672.4131 Has been differenced.
With period(s) = 1,12.
Colocaciones 13.375 2924.21 Has been differenced.
With period(s) = 1,12.
The STATESPACE Procedure
Information Criterion for Autoregressive Models
Lag=0 Lag=1 Lag=2 Lag=3 Lag=4 Lag=5 Lag=6 Lag=7 Lag=8 Lag=9 Lag=10
8177.44 8077.26 8036.53 8029.24 7885.47 7895.93 7906.62 7912.03 7883.95 7888.18 7895.05
Schematic Representation of Correlations
Name/Lag 0 1 2 3 4 5 6 7 8 9 10
Mujeres ++. ++. .++ .+. .+. .+. ... .+. +.. ... ...
Sinempleo ++. .+. .+. .+. .+. .+. ... .+. -+. -.. ... Colocaciones ..+ ..- ... ..+ ..-
... ... ..- ... ..+ .-

+ is > 2*std error, - is < -2*std error, . is between

Schematic Representation of Partial Autocorrelations


Name/Lag 1 2 3 4 5 6 7 8 9 10
Mujeres +.. ... .+. .+. ... ... ... .-. ... ...
Sinempleo .+. ... ... ... ... ... ... -.. ... ...
Colocaciones ..- -.- ... ... ... ... ... ..- ... ...

+ is > 2*std error, - is < -2*std error, . is between


Yule-Walker Estimates for Minimum AIC
----------------Lag=1---------------- ----------------Lag=2----------------
Mujeres Sinempleo Colocaciones Mujeres Sinempleo Colocaciones
Mujeres 0.25125 -0.03747 -0.0439 -0.01928 -0.02205 0.001651
Sinempleo -0.04908 0.241922 0.016191 0.020564 0.047593 0.005984
Colocaciones0.257782 0.032916 -0.79586 -0.44116 0.178353 -0.54635
Yule-Walker Estimates for Minimum AIC
----------------Lag=3---------------- ----------------Lag=4----------------
Mujeres Sinempleo Colocaciones Mujeres Sinempleo Colocaciones
Mujeres -0.07557 0.131602 -0.05068 0.144801 1.018071 -0.03263
Sinempleo -0.04836 0.063421 0.009556 -0.05226 0.158971 0.031726
Colocaciones 0.158702 -0.06259 -0.23426 0.526054 0.266897 -0.19839

64
Yule-Walker Estimates for Minimum AIC
----------------Lag=5---------------- ----------------Lag=6----------------
Mujeres Sinempleo Colocaciones Mujeres Sinempleo Colocaciones
Mujeres -0.04171 -0.12712 0.00866 -0.01119 -0.11387 0.008202
Sinempleo -0.06997 0.07945 0.047442 0.045021 -0.00811 0.038477
Colocaciones -0.37516 -0.66988 -0.10166 0.52161 0.06588 -0.16238
Yule-Walker Estimates for Minimum AIC
----------------Lag=7---------------- ----------------Lag=8----------------
Mujeres Sinempleo Colocaciones Mujeres Sinempleo Colocaciones
Mujeres 0.036331 0.112582 0.007535 0.062913 -0.31271 -0.01612
Sinempleo -0.02058 0.154331 0.030765 -0.20816 0.159434 0.015094
Colocaciones -0.06616 -0.35333 -0.23426 0.223824 -0.5398 -0.28402

Maximum likelihood estimation has converged.

Selected Statespace Form and Fitted Model


State Vector
Mujeres(T;T) Sinempleo(T;T) Colocaciones(T;T) Mujeres(T+1;T)
Colocaciones(T+1;T) Mujeres(T+2;T) Mujeres(T+3;T)

Estimate of Transition Matrix


0 0 0 1 0 0 0
0 0 0 0 0 0 0
0 0 0 0 1 0 0
0 0 0 0 0 1 0
-0.10656 0 0 0 0 0 0
0 0 0 0 0 0 1
0 0 0 0 0 0 0
Input Matrix for Innovation
1 0 0
0 1 0
0 0 1
0 0 -0.03337
0 0 -0.73448
0 0 0.03502
0 0.432555 -0.05713
Variance Matrix for Innovation
719538.2 45385.57 195740.9
45385.57 452139.4 -80561.8
195740.9 -80561.8 5148956
Parameter Estimates
Standard
Parameter Estimate Error t Value
F(5,1) -0.10656 0.090399 -1.18
G(4,3) -0.03337 0.026871 -1.24
G(5,3) -0.73448 0.048492 -15.15
G(6,3) 0.035020 0.026945 1.30
G(7,2) 0.432555 0.090523 4.78
G(7,3) -0.05713 0.026905 -2.12
Ecuaciones del modelo
 12M(T+1:T) = 0.43 eS(T-3:T) –0.06eC(T-3:T)

 12S(T+1:T) = eS(T:T)

 12C(T+1:T) = - 0.10 12C(T:T) -0.73 eC(T-1:T)


Por la forma del modelo podemos deducir que las tres series analizadas son
dependientes entre sí siendo las unas a la vez la causa y el efecto de las otras.

Cabe destacar que la serie desempleados sin empleo anterior no interactúa con la
serie Contratos registrados ya que ninguna de ellas está en la ecuación de la otra.Ambas
están relacionadas a través de la serie de mujeres paradas

65
Otro rasgo a destacar es que la serie de mujeres paradas aporta dimensión cuatro al
espacio de estados que es de dimensión 7. Los contratos aportan dimensión 2

Modelos de Heterocedasticidad Condicional


En la teoría clásica de series temporales (metodología de Box-Jenkins), el desarrollo
estadístico se realiza a partir de un proceso estocástico estacionario; es decir (en sentido
amplio o débil) de un
proceso con:
- Media constante.
- Varianza constante.
- correlación entre dos observaciones distintas igual a la de otras dos cualquiera
separadas por la misma distancia (mismo número de períodos).
En torno a la confirmación de la ausencia de tendencia (determinista o aleatoria),
hay un nutrido conjunto de teorías y desarrollos matemáticos centrados en la
diferenciabilidad de la serie temporal y en la existencia o no de raíces unitarias a partir de
los conocidos test de Dickey y Fuller, de Phillips y Perron, etc.
Sin embargo, el estudio de la componente de varianza constante es un fenómeno
menos extendido y, no tener en cuenta una posible no constancia de este componente,
puede suponer diversos problemas estadísticos cuando se estiman modelos econométricos
(problemas ligados con la eficiencia de los parámetros estimados y su fuerte volatilidad
ante el amplio intervalo de confianza en el que se mueven).
Determinar un patrón de comportamiento estadístico para la varianza es el cometido
de los modelos Autorregresivos condicionales heterocedásticos: ARCH.
Engle (1982) es el autor de una primera aproximación a la varianza condicional del
tipo que describiremos más adelante. Después de estos hay una amplia familia de
sofisticaciones del modelo inicial que darán nombre a los modelos GARCH, IGARCH,
EARCH, TARCH, SWARCH, QS-ARCH, APARCH, FACTOR-ARCH, ...
En el artículo seminal de los modelos ARCH, Engle cita tres situaciones que
motivan y justifican la modelación de la heterocedasticidad condicional Autorregresiva
Estas serían las siguientes:
1. La experiencia empírica nos lleva a contrastar períodos de amplia varianza de
error seguidos de otros de varianza más pequeña. Es decir, el valor de la dispersión del
error respecto a su media cambia en el pasado, por lo que es lógico pensar que un modelo
que atienda en la predicción a los valores de dicha varianza en el pasado servirá para
realizar estimaciones más precisas.
2. En segundo lugar, Engle expone la validez de estos modelos para determinar los
criterios de mantenimiento o venta de activos financieros. Los agentes económicos deciden
esta cuestión en función de la información proveniente del pasado respecto al valor medio
de su rentabilidad y la volatilidad que ésta ha tenido. Con los modelos ARCH se tendrían en
cuenta estos dos condicionantes.
3. El modelo de regresión ARCH puede ser una aproximación a un sistema más
complejo en el que no hubiera factores innovacionales con heterocedasticidad condicional.

66
Los modelos estructurales admiten, en multitud de ocasiones, una especificación tipo
ARCH infinito.

Los modelos ARCH son modelos para las innovaciones E t de una serie observada.
Suponemos que se ha modelado la media condicional de la serie mediante un
modelo ARMA, o no lineal, pero que las innovaciones del proceso pueden escribirse como:

(ξt )2= σtet


donde et y σt son dos procesos estacionarios independientes entre sí. El proceso e t es de
ruido blanco estandarizado, es decir, formado por variables independientes de media cero y
varianza unidad. Supondremos que la distribución de este proceso es normal, aunque todo
el análisis puede generalizarse suponiendo otra distribución, como la t de Student. El
proceso σt es estacionario y con estructura dinámica, siendo su valor en t función del
conjunto (et−1, ..., e1) de las innovaciones previas a t. La independencia entre e t y σt implica
que las innovaciones Et forman una secuencia de variables con
media marginal y condicional igual a cero
varianza marginal constante, pero varianza condicionada dada por (σt)2
función de autocorrelación nula
correlaciones entre los cuadrados de las innovaciones

El modelo ARCH(1) supone que la varianza condicional de las innovaciones, σ2t ,


tiene una estructura similar a un AR(1), y depende sólo de la última innovación,
Es decir si el valor de ε2 t−1 es alto, la varianza de la siguiente innovación será
también alta, haciendo más probable que el valor de ε2t= σt et sea alto.
Esto explica la aparición de correlaciones entre los cuadrados de las innovaciones.
Este modelo tiene la capacidad de producir rachas de valores con alta varianza.
Por otro lado, como la media marginal es cero, aunque la varianza sea alta siempre
es posible que aparezca un valor pequeño de ε2t , que disminuirá la varianza marginal de la
observación siguiente y facilitará que la siguiente observación sea pequeña. De esta manera
las innovaciones presentan rachas de valores altos, pero globalmente forman un proceso
estacionario

Modelo arch (p)


(εt )2= σtet

Donde:
sigma es la varianza condicional

Siendo Фt-1 la historia pasada del proceso εt


Los alpha son los parámetros especificados por el modelo
Epsilón son la innovaciones

67
Modelo garch (p,q)
Este modelo fue desarrollado por Bollerslev (1987), extendiendo el modelo ARCH
para incluir retardos en la varianza condicional. En definitiva un GARCH es un modelo
ARCH infinito, un GARCH (p,q) se define como:

(εt )2= σtet

No hay que olvidar que los modelos Garch son para las innovaciones o errores, en la
pràctica, se ajustan modelos ARIMA con residuos heterocedásticos, con o sin tendencia.La
sentencia SAS que se utiliza es proa autoreg

data d.cyl1;
set d.cyl;
diferencia=importaciones-exportaciones;
retardo=lag1(diferencia);
run;
proc autoreg data=d.cyl1 corrb covb outest= d.fuera covout;
model diferencia=retardo/lagdep nlag=1 dwprob archtest;
output out =d.b R=residuos RM=residuosestructurales P=prediccion
PM=prediccionestructural LCL=lcl UCL=ucl LCLM=lclestructural
UCLM=uclestructural;
run;
data h;
set d.fuera;
proc print;
run;
data g;
set d.b;
cuadrado = residuos*residuos;
/* proc print;*/
run;
proc arima data =g;
identify var=residuos;
identify var=cuadrado;
identify var= residuosestructurales;
run;
proc gplot data =d.b;

68
plot diferencia*date prediccion*date lcl*date ucl*date/overlay;
symbol1 i=joint v=none;symbol2 i=joint v=none;symbol3 i=joint v=none;symbol4
i=joint v=none;
run;
plot residuos*date;
symbol1 i=joint v=none;
run;
plot diferencia*date prediccionestructural*date lclestructural*date
uclestructural*date/overlay;
symbol1 i=joint v=none;symbol2 i=joint v=none;symbol3 i=joint v=none;symbol4
i=joint v=none;
run;
plot residuosestructurales*date;
symbol1 i=joint v=none;
run;
plot diferencia*date prediccionestructural*date /overlay;
symbol1 i=joint v=none;symbol2 i=joint v=none;
run;
plot diferencia*date lclestructural*date uclestructural*date/overlay;
symbol1 i=joint v=none;symbol2 i=joint v=none;symbol3 i=joint v=none;
run;
plot lclestructural*date uclestructural*date/overlay;
symbol1 i=joint v=none;symbol2 i=joint v=none;
run;

Con resultados
Variable Dependiente diferencia
Estimadores
SSE 3,10189E11 DFE 182
MSE 1704336109 Root MSE 41284
SBC 4441,77354 AIC 4435,34367
Regress R-Square 0,0321 Total R-Square 0,0321
Durbin's t -1,9467 Pr < t 0,0266

El test de Durbin nos dice que la serie presenta autocorrelación

Q and LM Tests for ARCH Disturbances(homocedasticidad)


Order Q Pr > Q LM Pr > LM
1 0,3282 0,5667 0,3281 0,5668
2 0,5252 0,7690 0,5169 0,7723
3 0,5651 0,9044 0,5484 0,9081
4 0,6849 0,9532 0,6734 0,9546
5 0,7388 0,9808 0,7304 0,9813
6 0,8001 0,9921 0,8158 0,9916
7 0,8020 0,9974 0,8160 0,9973
8 1,1186 0,9974 1,0834 0,9977
9 1,1191 0,9991 1,0973 0,9992

69
10 1,8474 0,9974 1,9299 0,9968
11 1,8474 0,9990 1,9300 0,9987
12 2,0862 0,9993 2,1268 0,9992

El contraste de homocedasticidad nos dice que la varianza condicionada de la serie


no varia a lo largo del tiempo por lo que un modelo heterocedástico (modelo GARCH)
puede no ser adecuado

Estimación
Standard Approx
Variable DF Estimador Error t Value Pr > |t|
Intercept 1 4575 3079 1,49 0,1390
Retardo 1 0,1816 0,0739 2,46 0,0150
Todos los parámetros son significativos
Covarianza de los Estimadores de los Parámetros
Intercept retardo
Intercept 9479142 -34,39605
Retardo -34,39605 0,005466

Correlación de los Estimadores de los Parámetros


Intercept retardo
Intercept 1 -0,15111
Retardo -0,15111 1

Los parámetros no están correlados

Estimación de Autocorrelaciones
Lag Covarianza Correlación -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9
0 1,6858E9 1,000000 | |********************|
1 -4,387E7 -0,026021 | *| |
Preliminar MSE 1,6847E9
Estimadores de los Parámetros Autoregresivos
Standard
Lag Coefficient Error t Value
1 0,026021 0,074304 0,35
Algoritmo converge
El valor del parámetro es muy pequeño, aunque es significativamente distinto de
cero ya que presenta un valor del estadístico t muy pequeño.
Estimadores
SSE 3,03622E11 DFE 181
MSE 1677468855 Root MSE 40957
SBC 4443,15335 AIC 4433,50855

70
Regress R-Square 0,2131 Total R-Square 0,0526

Standard Approx
Variable DF Estimador Error t Value Pr > |t|
Intercept 1 2763 2392 1,15 0,2496
Retardo 1 0,4725 0,1007 4,69 <,0001
AR1 1 0,3119 0,1055 2,96 0,0035

Covarianza de los Estimadores de los Parámetros


Intercept retardo AR1
Intercept 5720820,9 -64,46492 -49,60026
Retardo -64,46492 0,0101349 0,0078809
AR1 -49,60026 0,0078809 0,0111281

Correlación de los Estimadores de los Parámetros


Intercept retardo AR1
Intercept 1 -0,26772 -0,19658
Retardo -0,26772 1 0,74209
AR1 -0,19658 0,74209 1
Los parámetros presentan una correlación moderadamente baja.
Suponiendo parámetros autoregresivos conocidos,
Standard Approx
Variable DF Estimate Error t Value Pr > |t|
Intercept 1 2763 2345 1,18 0,2404
Retardo 1 0,4725 0,0675 7,00 <,0001

Covarianza de los Estimadores de los Parámetros


Intercept retardo
Intercept 5499742,8 -29,33806
Retardo -29,33806 0,0045536

Correlación de los Estimadores de los Parámetros


Intercept retardo
Intercept 1 -0,18539
Retardo -0,18539 1

Obs MODEL TYPE_ _STATUS_ _DEPVAR METHOD NAME_ _MSE_


1 OLS 0 Converged diferencia ML 1677468855,2
2 COV 0 Converged diferencia ML Intercept 1677468855,2
3 COV 0 Converged diferencia ML retardo 1677468855,2
4 COV 0 Converged diferencia ML _A_1 1677468855,2

Obs _SSE_ _STDERR_ Intercept diferencia retardo _A_1


1 303621862785 , 2762,52 -1 0,4725 0,3119
2 303621862785 2391,82 5720820,93 , -64,4649 -49,6003
3 303621862785 0,10 -64,46 , 0,0101 0,0079

71
4 303621862785 0,11 -49,60 , 0,0079 0,0111

Ahora verificamos si el modelo es aceptable


Variable residuos estructurales
Media -17,9208
Desv. Est. 42769,4
Observaciones 184
Test de autocorrelación para ruido blanco
To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations--------------------
6 23,70 6 0,0006 -0,312 0,025 0,147 -0,056 0,053 0,025
12 29,33 12 0,0035 -0,043 0,081 -0,070 0,056 0,105 -0,035
18 36,14 18 0,0068 0,082 -0,036 0,044 -0,027 0,100 -0,112
24 44,37 24 0,0069 0,146 -0,062 0,054 -0,038 -0,018 0,097
Los residuos estructurales están correlados por lo que no sobra el haber ajustado
un modelo estructural, la ecuación de medida no produce residuos incorrelados.
Variable residuos
Media 27,73732
Desv. Est. 40621,65
Observaciones 184

Test de autocorrelación para ruido blanco


To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations--------------------
6 6,31 6 0,3898 -0,028 -0,030 0,168 -0,003 0,050 0,031
12 12,04 12 0,4424 -0,013 0,056 -0,037 0,080 0,132 0,023
18 15,14 18 0,6522 0,076 0,000 0,030 0,017 0,075 -0,052
24 19,89 24 0,7032 0,119 -0,005 0,023 -0,032 -0,003 0,084
Los residuos del modelo completo están incorrelados
Variable cuadrado
Media 1.6501E9
Desv. Est. 5.6603E9
Observaciones 184

Test de autocorrelación para ruido blanco


To Chi- Pr >

72
Lag Square DF ChiSq
--------------------Autocorrelations--------------------
6 1.18 6 0.9778 0.033 0.062 0.015 0.014 -0.025 0.016
12 2.24 12 0.9989 -0.013 -0.038 0.002 0.055 0.003 -0.027
18 7.09 18 0.9893 0.074 0.052 0.027 0.069 0.093 -0.039
24 9.53 24 0.9962 0.074 0.067 -0.025 -0.027 -0.020 0.007
Los residuos al cuadrado no están correlados, indicando que la varianza
condicionada permanece constante a lo largo del tiempo.
El modelo final ajustado tiene la siguiente fórmula
Dt = 2763 + 0.47 Dt-1 + et Ecuación de medida
et = 0.31 et-1 + Zt Ecuación estructural
Los gráficos correspondientes a este modelo están a continuación. Los gráficos
indican que el modelo se adapta mejor a los datos a pesar de que parece que hay residuos
altos, sin embargo como la desviación estándar es de 40.621 la mayoria de los residuos
están dentro de los límites de confianza de una serie aleatoria. Sigue habiendo residuos muy
altos negativos en los mismos datos que en el modelo anterior.

73
74
Variable acerinox:
Analysis Summary
Data variable: ACERINOX
Number of observations = 248
Start index = 02/01/98
Sampling interval = 1,0 day(s)

Time Series Plot for ACERINOX


(X 10000)
3
2,5
ACERINOX

2
1,5
1
0,5
0
29/11/97
18/01/98
09/03/98
28/04/98
17/06/98
06/08/98
25/09/98

Estimated Autocorrelations for ACERINOX


1
Autocorrelations

0,6

0,2

-0,2

-0,6

-1
0 5 10 15 20 25
lag

Estimated Partial Autocorrelations for ACERINOX


Partial Autocorrelations

0,6

0,2

-0,2

-0,6

-1
0 5 10 15 20 25
lag

variable acerinox diferenciada de orden 1


Runs above and below median
Median = -10,0
Number of runs above and below median = 121
Expected number of runs = 122,498

75
Large sample test statistic z = -0,128304
P-value = 0,897904
Runs up and down
Number of runs up and down = 154
Expected number of runs = 164,333
Large sample test statistic z = -1,48941
P-value = 0,13638

Box-Pierce Test
Test based on first 24 autocorrelations
Large sample test statistic = 4,30292
P-value = 0,999997

Time Series Plot for adjusted ACERINOX


(X 1000)
3
adjusted ACERINOX

-1

-5

-9

-13

-17
29/11/97 18/01/98 09/03/98 28/04/98 17/06/98 06/08/98 25/09/98

Estimated Autocorrelations for adjusted ACERINOX


1
Autocorrelations

0,6

0,2

-0,2

-0,6

-1
0 5 10 15 20 25
lag

Estimated Partial Autocorrelations for adjusted ACERINOX


Partial Autocorrelations

0,6

0,2

-0,2

-0,6

-1
0 5 10 15 20 25
lag

variable acerinox elevada al cuadrado y diferenciada dos veces


Tests for Randomness of adjusted ACERINOX
Runs above and below median

76
Median = 33300,0
Number of runs above and below median = 158
Expected number of runs = 124,0
Large sample test statistic z = 4,28051
P-value = 0,0000186596

Runs up and down


Number of runs up and down = 175
Expected number of runs = 163,667
Large sample test statistic z = 1,64423
P-value = 0,100129

Box-Pierce Test
Test based on first 24 autocorrelations
Large sample test statistic = 77,4085
P-value = 1,56572E-7
Time Series Plot for adjusted ACERINOX
(X 1,E7)
58
adjusted ACERINOX

38

18

-2

-22

-42
29/11/97 18/01/98 09/03/98 28/04/98 17/06/98 06/08/98 25/09/98

Estimated Autocorrelations for adjusted ACERINOX


1
Autocorrelations

0,6

0,2

-0,2

-0,6

-1
0 5 10 15 20 25
lag
Name of Variable = ACERINOX

Mean of Working Series 13155.56


Standard Deviation 10052
Number of Observations 248

Autocorrelation Check for White Noise

To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations----------------

6 1420.03 6 <.0001 0.990 0.980 0.970 0.961 0.952 0.943


12 2706.40 12 <.0001 0.932 0.923 0.914 0.904 0.893 0.883
18 3853.16 18 <.0001 0.873 0.863 0.852 0.841 0.830 0.819
24 4850.47 24 <.0001 0.808 0.796 0.785 0.773 0.762 0.751

Name of Variable = ACERINOX

77
Period(s) of Differencing 1
Mean of Working Series -78.9676
Standard Deviation 1099.983
Number of Observations 247
Observation(s) eliminated by differencing 1

Autocorrelation Check for White Noise

To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations----------------

6 0.78 6 0.9926 -0.005 -0.005 -0.023 0.019 -0.022 0.041


12 2.68 12 0.9974 -0.072 0.008 0.025 0.020 -0.007 -0.031
18 3.85 18 0.9998 -0.019 0.012 0.061 0.009 0.010 0.001
24 4.54 24 1.0000 0.039 -0.010 -0.011 -0.028 0.001 0.006

variable acerinox elevada al cuadrado


Name of Variable = acerinoxc
Period(s) of Differencing 2
Mean of Working Series -4252743
Standard Deviation 42614839
Number of Observations 246
Observation(s) eliminated by differencing 2
Autocorrelation Check for White Noise

To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations----------------
6 61.10 6 <.0001 0.494 -0.023 -0.013 -0.002 -0.009 -0.027
12 65.17 12 <.0001 -0.075 -0.029 0.051 0.045 -0.019 -0.067
18 70.74 18 <.0001 -0.027 0.059 0.102 0.069 0.026 0.032
24 73.92 24 <.0001 0.042 -0.003 -0.057 -0.059 -0.002 0.056

libname d 'c:\datos';
title1 'ibex98';
data d.ibex98;
infile "datos\ibex98.txt" dlm='09'x firstobs=2;
input ene fecha $ ACESA ACERINOX AGUAS_BARNA CORP_FIN_ALBA AMPER
ARGENTARIA AUMAR BK_BILBAO_VIZC BK_C_HISPANO BANKINTER BANESTO CANTABRICO
CONTINENTE GAS_NATURAL DRAGADOS_Y_CONST ENDESA E_N_CELULOSA
FOMENTO_DE_CONST FECSA GESA IBERDROLA MAPFRE METROVACE BK_POPULAR PRYCA
REPSOL BK_SANTANDER SEVILLANA_ELEC TABACALERA TELEFONICA_ESP U_FENOSA
URALITA VALLEHERMOSO VISCOFAN IBEX;
proc print;
run;
proc arima data =d.ibex98;
identify var = ACERINOX ; identify var = ACERINOX(1);run;
data b;
set d.ibex98;
acerinoxc = acerinox*acerinox;
run; proc print; run;
proc arima data = b;
identify var=acerinoxc(2);run;
proc autoreg data = d.ibex98 /*outest= a covout=c */ archtest /*out=
fuera*/;
model acerinox(1)= ene corrb covb lagdep hetero cev = varcond cpev=
varpred garch(q=1,p=1);run;

Bibliografía

78
.- Bollerslev, T. Engle, r. y Nelson, D(1994): ARCH Models.. Robert Engle y D. McFadden editores.
Handbook of Econometrics, Vol IV. Elservier, Amsterdam.
.- Abraham, B. y Ledolter, J. (1983). Statistical Methods for Forecasting. Wiley.
.- Box , G. E. P. y Jenkins, G. M. (1976). Time Series Analysis: Forecasting and Control.
Holden-Day.
.-Brockwell, P. J. y Davis, R. A. (1991). Time Series: Theory and Methods. [2ª edición].
Springer-Verlag.
.- Brockwell, P. J. y Davis, R. A. (1996). Introduction to Time Series and Forecasting.
Springer-Verlag.
.-Chatfield, C. (1989). The Analysis of Time Series: An Introduction. [4ª Edición]. Chapman
and Hall.
.-Diggle, P. J. (1990). Time Series. A Biostatistical Introduction. Oxford University Press.
.-Fuller, W. A. (1996). Introduction to Statistical Time Series. [2ª Edición]. Wiley..
.-Harvey, A. C. (1990. The Econometric Analysis of Time Series. [2ª Edición]. Phillip Allan.
.- Harvey, A. C. (1989). Forecasting, Structural Time Series Models and the Kalman Filter.
Cambridge University Press. .
.-Makridakis, S., Wheelwright, S. C. y Hyndman, R. J. (1998). Forecasting: Methods and
Applications. Wiley.
.-Pankratz, A. (1991). Forecasting with Dynamic Regression Models. Wiley.
.- Peña, D. (1989). Estadística: Modelos y Métodos, 2 (Modelos Lineales y Series
Temporales). [2ª Edición].Alianza Universidad Textos.
.- Peña, D ., Tiao, G. C. y Tsay, R. S. (eds.) (2001). A Course in Time Series Analysis.
Wiley.
.- Peña, D. (2005). Análisis de Series Temporales). Alianza Universidad Textos
.-Shumway, R. H. y Stoffer, D. S. (2000). Time Series Analysis and its Applications.
Springer.
.-Taylor, S.J. (1986): Modelling Financial Time Series, John Wiley, Chichester, U.K..
.- Uriel, E. (1984). Seri es Temporales. Modelos ARIMA. Paraninfo.
.-Wei, W. W. S. (1990). Time Series Analysis: Univariate and Multivariate Methods.
Addison-Wesley.

79

También podría gustarte