Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apuntes
Apuntes
Economía
Precios de venta en días sucesivos.
Exportaciones totales en sucesivos años.
Beneficios de una empresa en sucesivos años
Procesos de control
El problema consiste en detectar cambios en la ejecución de un proceso de
manufactura. Para ello se considera una variable que nos muestra la calidad del proceso.
Esta medida se representa frente al tiempo y cuando se aleja de un determinado valor
límite, entonces hemos de efectuar las correcciones oportunas sobre el proceso.
Procesos binarios
Son unas series temporales especiales, en las que las observaciones, sólo toman dos
valores (que usualmente se representan por 0 y 1), suelen darse en teoría de la
comunicación. Por ejemplo la posición de un enchufe, bien apagado o encendido puede ser
represetado como 0 y 1, respectivamente.
Clasificación
Clasificamos las series atendiendo a distintos puntos de vista.
Según la recogida de los datos tenemos:
Continua.
Una serie de tiempo es continua cuando las observaciones son tomadas
continuamente en el tiempo, aun cuando la variable medida sólo tome un número de
valores finitos.
Discreta.
2
Una serie temporal es discreta cuando las observaciones son tomadas en tiempos
específicos, normalmente igualmente espaciados. Éstas serán las que nosotros
estudiaremos; se supondrán los datos en intervalos regulares de tiempo (horas, días, meses,
años,..). El término discreto es usado aun cuando la variable medida sea continua. Las
series discretas pueden surgir de varias maneras:
Muestral.
Dada una serie de tipo continua es posible construir una serie de tipo
discreta, tomando los valores en intervalos de tiempo de igual longitud. Un ejemplo
de serie temporal de tipo continua es la temperatura en un lugar dado, considerando
la temperatura diaria a las tres de la tarde, obtenemos una serie temporal discreta
muestral.
Agregada o acumulada.
Este tipo de series ocurre cuando una variable no tiene valor en un instante
(sólo tiene sentido en algunos instantes de tiempo) pero podemos acumular los
valores en intervalos de tiempo igualmente espaciados. Ejemplos: las lluvias
torrenciales, los accidentes de tráfico mensualmente, el número de pasajeros
mensuales en las líneas aéreas españolas. De hecho los accidentes de tráfico
mensuales son una agregación de sucesos discretos. Los valores tomados no se
observan en cada instante sino que se vanacumulando en intervalos de tiempo.
Inherentes o discretas
Las que realmente los datos se obtienen en momentos discretos. Por ejemplo
el salario mensual.
3
Descomposición Clásica
Tradicionalmente se establecen cuatro tipos de variaciones: tendencia, efecto
estacional, cambios cíclicos y otras variaciones que podemos llamar irregulares.
Efecto estacional:
Muchas series temporales tales como por ejemplo: cifras de ventas, lecturas de
temperatura, etc..., presentan una variación que se va repitiendo a lo largo de la trayectoria.
Este tipo de variación, con periodicidad,en general, menor o igual a un año, se conoce con
el nombre de estacionalidad. Esta componente es debida al entorno en el que se recogen los
datos, ya que la mayoria de procesos varian según la estación del año (navidad, verano etc)
o el día de la semana, horario diurno o nocturno etc. Es fácil de comprender y se puede
calcular, eliminar o modelar.
Cambios cíclicos:
Además de los efectos estacionales algunas series presentan variaciones sin período
fijo, debido a algunas otras causas físicas. Un ejemplo es la variación diaria de la
temperatura. También se definen ciclos a las variaciones superiores a un año, debidas
generalmente a las fluctuaciones de la actividad económica y social. Muchas veces los
datos económicos quedan afectados por ciclos de negocios variando entre 5 y 7 años. En
Economía se suelen distinguir tres tipos de ciclos en cuánto a su periodicidad: los cortos o
de Kintchine que tienen lugar más o menos cada tres años, los medios o de Jutglar cuyo
período oscila entre cinco y diez años y los largos o de Kondratiev que aparecen cada
cuarenta o cincuenta años. El análisis de esta componente es díficil pues la duración de los
ciclos puede no ser constante, razón por la cual cualquier variación puede dar lugar a una
predicción errónea.
Otros ciclos son debidos al propio modelo que rige el proceso en estudio.
Tendencia:
Debe recoger el movimiento de la serie a lo largo del tiempo, se puede definir por
tanto como la variación a largo plazo, pero hemos de precisar lo que entendemos por a
largo plazo. Hay, por ejemplo, series de tiempo que presentan variaciones cíclicas, en un
período de 50 años o más, entonces si disponemos de pocos datos se puede confundir las
variaciones cíclicas con la tendencia, sin embargo si disponemos de datos suficientes esta
confusión no se dará. Así pues al hablar de tendencia hay que tener en cuenta el número de
observaciones de las que se dispone.
4
EJEMPLO: Número de desempleados mensuales en USA de enero de 1948 a diciembre
de 1978. (En unidades de 100.000)
Enero Febrero Marzo Abril Mayo Junio Julio Agosto Septiem Octubr Noviem Diciem
1948 235.1 280.7 264.6 240.7 201.4 240.8 241.1 223.8 206.1 174.7 203.3 220.5
1949 299.5 347.4 338.3 327.7 351.6 396.6 438.8 395.6 363.5 378.8 357 369
1950 464.8 479.1 431.3 366.5 326.3 355.1 331.6 261.3 249 205.5 235.6 240.9
1951 264.9 253.8 232.3 193.8 177 213.2 207.2 180.6 188.6 175.4 199 179.6
1952 225.8 234 200.2 183.6 178.2 203.2 208.5 191.8 172.8 148 159.4 154.5
1953 213.2 196.4 182.8 176.4 153.6 173.2 171 151.2 161.9 157.2 201.7 236.4
1954 356.1 398.3 403.7 384.6 365.8 368.1 367.9 347 343.3 292.9 311.5 300.9
1955 366.9 356.9 329.7 316.2 269 289.3 266.2 253.6 233.8 228.4 253.6 260.1
1956 306.6 309.2 309.5 271 279.9 317.9 298.4 246.7 227.3 209.1 259.9 266
1957 320.6 308.5 282.2 262.7 263.5 313.1 284.3 252.6 250.3 246.5 312.7 333.2
1958 446.4 511.6 515.5 506.4 483.2 522.3 509.8 460.7 405.8 375 378.5 406.8
1959 467.8 469.8 429.8 355.8 332.7 378 360.5 334.7 319.5 323.1 363.6 352.1
1960 411.9 388.6 416.4 360.7 338 417.2 388.4 371.1 331.5 353.7 396.7 447
1961 533.5 565.4 542.3 488.7 467.1 531.3 496.1 444 403.4 386.3 394.1 404.1
1962 462.1 448.1 432.3 386.3 395.2 421.9 382.9 384.2 345.5 323.4 372.6 376
1963 462.7 487 444.2 399.3 394.9 455.4 414 375.5 347 339.4 385.8 378.8
1964 451.8 446.1 422.5 383.1 352.8 445.3 367.5 355.1 326.2 319.8 331.8 340.9
1965 394.1 417.2 369.9 349.2 321.4 405.7 342.9 316.5 284.2 270.9 288.8 278.8
1966 324.4 310.9 299 273 279.3 359.2 305 282.1 250.3 246.5 257.9 266.5
1967 315.9 318.4 295.4 266.4 245.8 362.8 324.9 294.2 289.5 295.2 290.3 272
1968 307.4 328.7 292.9 249.1 230.4 361.5 321.7 277.2 260.7 251 257.6 241.8
1969 287.5 292.3 274.7 254.2 230 339 318.2 287 295.8 284 271 262.7
1970 340.6 379.4 373.3 355.2 338.4 466.9 451 422 429.2 425.9 460.7 463.6
1971 541.4 544.2 517.5 469.4 439.4 549 533 506.1 484 457 481.5 469.5
1972 544.7 541.2 521.5 469.7 434.4 542.6 517.3 485.7 465.8 447 426.6 411.6
1973 467.5 484.5 451.2 417.4 379.9 484.7 455 420.8 416.5 376.3 405.6 405.8
1974 500.8 514 475.5 430.1 414.4 538 526 488.5 520.2 504.4 568.5 610.6
1975 818 830.9 835.9 782 762.3 856.9 820.9 769.6 752.2 724.4 723.1 719.5
1976 817.4 803.3 752.5 689 630.4 765.5 757.7 732.2 702.6 683.3 709.5 702.2
1977 784.8 810.9 755.6 656.8 615.1 745.3 694.1 675.7 643.7 622.1 634.6 588
1978 689.7 673.9 647.9 568.8 545.7 632.6 643.8 593.1 579.7 546 562.9 572.5
5
Representación gráfica de la serie
6
7
Objetivos
Chatfield (1989) describe en su libro "The analysis of time series. An introduction'',
que los objetivos principales del análisis de una serie temporal son describir, explicar,
predecir y controlar.
Descripción.
Se trata de un estudio preliminar de la serie para analizar los tipos de variaciones y
ver cómo se comportan los datos. El primer paso, es representar los datos frente al tiempo,
lo cual nos dará una idea sobre las principales variaciones presentes en nuestra serie
temporal; y tener una primera idea sobre el modelo que podemos ajustar. Asimismo
podemos observar si existen también datos extraños, es decir, observaciones que no parecen
ser consistentes con el resto de los datos. El tratamiento de estas observaciones es muy
complejo y requiere tener cuidado, pues pueden ser observaciones válidas y entonces es
importante que el modelo al que ajustemos las tenga en cuenta; o por el contrario, pueden
ser observaciones fuera de lugar, por ejemplo pensemos en errores a la hora de la toma de
la observación. Otros rasgos que se pueden observar por medio del gráfico son los puntos
de cambio, donde por ejemplo hay un cambio de tendencia, de una tendencia creciente se
pasa una tendencia decreciente. En estos casos se suele ajustar modelos diferentes a cada
una de las partes o efectuar un análisis de intervención.
Explicación.
Construir un modelo para explicar el comportamiento de la serie de tiempo en
términos de otras variables o de ella misma. Cuando las observaciones son tomadas para
dos o más variables, es posible usar la variación en una de las series temporales, para
explicar las variaciones en las otras. Esto nos conduce a un mayor conocimiento sobre la
serie dada. Los modelos de regresión dinámica y función de transferencia pueden ser útiles
en estos casos. Por ejemplo es interesante ver cómo el nivel del mar es afectado por la
temperatura y la presión, y ver como las ventas están afectadas por los precios y las
condiciones económicas.
Predicción.
Dada una serie de tiempo, podemos estar interesados en la predicción de futuros
valores de la serie. La predicción está estrechamente relacionada con los problemas de
control, por ejemplo si podemos predecir que en un proceso de manufactura la variable que
mide la calidad va a estar muy desviada de un determinado valor límite, entonces podemos
realizar correcciones oportunas para evitarlo.
La predicción es uno de los objetivos de las series de tiempo. En general, los
métodos de predicción se pueden agrupar en métodos cualitativos o cuantitativos.
Métodos cualitativos
Los métodos cualitativos o también conocidos como subjetivos, dependen de
la intuición y no necesariamente dependen de las observaciones pasadas. A pesar de
su falta de rigor, en algunos casos pueden ser bastante apropiados e incluso el único
método de previsión. Como por ejemplo, en la aparición de nuevos productos en el
mercado, si estamos interesados en las ventas de un nuevo producto, no se puede
recurrir al volumen de ventas en años anteriores pues éste no existía. En este tipo de
8
métodos podemos destacar el método Delphi, la previsión está basada en la
utilización sistemática e iterativa de juicios de opinión de un grupo de expertos
hasta llegar a un acuerdo.
Métodos cuantitativos
En las previsiones de tipo cuantitativo, se parte del supuesto de que se tiene
registrada información sobre el pasado acerca del fenómeno que se quiere estudiar.
Generalmente, esta información sobre el pasado aparece en forma de series
temporales. En los métodos cuantitativos, la misión del estadístico es extraer toda la
información posible contenida en los datos, y en base al patrón de conducta seguida
en el pasado hacer conjeturas en el futuro.
9
El análisis de las series en el dominio de la frecuencia,
Está basado en el teorema de descomposición espectral de un
proceso estacionario que nos asegura que la variabilidad de la serie es suma
de la variabilidad de ondas seno-coseno. Estas variaciones periódicas son
causadas a menudo por fenómenos biológicos, físicos o medioambientales
de interés. Por ejemplo, las temperaturas de la superficie del mar causadas
por las oscilaciones de El Niño puede afectar al número de peces en el
océano (Shumway, R. H. and Stoffer, D. S. (2000), pág. 6). El estudio de la
periodicidad se extiende también al campo de la Economía y de las Ciencias
Sociales, donde uno puede estar interesado en periodicidades anuales en
series como las tasas de desempleados mensuales o nacimientos mensuales.
Los métodos de regresión,
Se pueden considerar como un método más para realizar
predicciones de la variable dependiente en función de las independientes
(ver Shumway, R. H. and Stoffer, D. S. (2000), ejemplos: ventas trimestrales
de Johnson & Johnson y temperatura globales). En el caso de series
univariantes, regresiones de la serie Xt en función del índice t pueden servir
para modelar sus componentes.
Control.
Cuando una serie de tiempo está generada con una medida que nos indica la calidad
de un proceso de manufactura, entonces el objetivo del análisis de la serie de tiempo ha de
ser el control del proceso, mantener o cambiar distintos valores futuros de la serie, distintos
procedimientos de control se han estudiado.
Para predecir sucesos que ocurrirán en el futuro, un predictor debe confiar en la
información relativa a los sucesos que ocurrieron en el pasado. Esto es, para realizar una
predicción, el predictor debe analizar los datos pasados y predecir en función de ese
análisis.
10
En general el esquema seguido en el análisis de series temporales será
11
Métodos de descomposición
10800
9800
serie
8800
7800
6800
0 20 40 60 80
media mensual
Enero 8044.0
Febrero 7283.83
Marzo 8063.83
Abril 8264.83
Mayo 9126.17
Junio 9595.33
Julio 10452.8
Agosto 9749.17
Septiembre 8700.33
Octubre 8984.67
Noviembre 8467.17
Diciembre 8720.67
12
Seasonal Subseries Plot for serie
11800
10800
9800
serie
8800
7800
6800
0 3 6 9 12 15
Season
3
Ordinate
0
0 0.1 0.2 0.3 0.4 0.5 0.6
frequency
Procedimiento para tendencias pequeñas
Medias anuales
Año 1973 1974 1975 1976 1977 1978
Media 9651.75 8718.5 8585.83 8396.75 8576.83 8796.7
5
9500
media_anual
9200
8900
8600
8300
0 20 40 60 80
13
Enero -644.75 -968.5 -423.83 -679.75 -784.83 -960.75
Febrero -1545.75 -1737.5 -1279.83 -935.75 -1619.83 -1904.75
Marzo -723.75 -680.5 -461.83 -620.75 -850.83 -1005.75
Abril -514.75 -296.5 -715.83 -471.75 -470.83 -667.75
Mayo 365.25 -4.5 801.17 237.25 313.17 318.25
Junio 1174.25 793.5 970.17 548.25 722.17 637.25
Julio 1665.25 1401.5 1507.17 1681.25 2048.17 1687.25
Agosto 1092.25 1104.5 1034.17 782.25 725.17 1030.25
Septiembre 61.25 24.5 -300.83 -359.75 -262.83 313.25
Octubre 286.25 410.5 -152.83 91.25 273.17 273.25
Noviembre -490.75 -8.5 -425.83 -522.75 -311.83 -163.75
Diciembre -724.75 -38.5 -551.83 250.25 219.17 443.25
2
serie_mediaanual
-1
-2
0 20 40 60 80
14
Componente estacional
3000
2400
1800
1200
600
0
-600
-1200
-1800
-2400
1 2 3 4 5 6 7 8 9 10 11 12
residuos
800
400
-400
-800
0 20 40 60 80
Procedimiento general
15
La tendencia inicialmente la calculamos con la media móvil simétrica
1 1 1
mt X t 6 X t 5 ... X t X t 1 ... X t 5 X t 6
12 2 2
1973 1974 1975 1976 1977 1978
Enero 9051.54 8799.71 8422.96 8445.54 8606.54
Febrero 8963.29 8790.13 8403.96 8473.46 8622.54
Marzo 8884.5 8762.58 8375.25 8490.13 8677.58
Abril 8810.38 8714.5 8367.21 8516.75 8719.92
Mayo 8757.88 8662.58 8357.58 8548.13 8744.42
Junio 8728.79 8612.75 8371.21 8570.63 8778.25
Julio 9599.38 8735.67 8567.29 8399.88 8578.67
Agosto 9500.13 8766.38 8555.21 8382.0 8577.79
Septiembre 9416.17 8783.5 8547.17 8358.92 8577.79
Octubre 9349.29 8764.08 8534.96 8364.38 8581.46
Noviembre 9265.21 8769.13 8505.88 8382.58 8591.79
Diciembre 9156.17 8799.0 8449.04 8408.0 8606.79
10800
9800
8800
7800
6800
0 12 24 36 48 60 72
9800
9500
9200
8900
8600
8300
0 20 40 60 80
16
Febrero -1982.292 -1484.125 -942.958 -1516.458 -1730.542
Marzo -846.5 -638.583 -599.25 -764.125 -886.583
Abril -388.375 -844.5 -442.208 -410.75 -590.917
Mayo -43.875 724.417 276.417 341.875 370.583
Junio 783.208 943.25 573.792 728.375 655.75
Julio 1717.625 1384.333 1525.708 1678.125 2046.333
Agosto 1243.875 1056.625 1064.792 797 724.208
Septiembre 296.833 -40.5 -262.167 -321.917 -263.792
Octubre 588.708 364.917 -101.958 123.625 268.542
Noviembre -104.208 -59.125 -345.875 -508.583 -326.792
Diciembre -229.167 -119 -415.042 239 189.208
1500
500
-500
-1500
-2500
0 20 40 60 80
17
componente estacional
3600
3000
2400
1800
1200
600
0
-600
-1200
-1800
-2400
1 2 3 4 5 6 7 8 9 10 11 12
Serie desestacionalizada Xt - St :
serie desestacionalizada
11800
10800
9800
8800
7800
6800
0 20 40 60 80
18
Métodos de suavizado
j 0
Es decir la dependencia de las predicciones con observaciones anteriores decrece
exponencialmente con velocidad α. Cuanto mayor es α más deprisa decrece la
dependencia.
Si = 1, la predición coincide con la última observación . Si está próximo a 1,
entonces los valores recientes pesan más
Si está próximo a 0 entonces valores remotos tienen un peso comparable a los más
recientes. Está indicado cuando hay gran aleatoriedad en los datos.
El algoritmo necesita inicializarse F2 = Y1. Aunque otras inicializaciones son
posibles
19
Método de Holt-Winter
Es una extensión del método anterior que tiene en cuenta la estacionalidad
.- Introduce tendencia y estacionalidad
F(t) = (L(t) + b(t))*S(t-12)
F(t+m) = (L(t) + m*b(t))*S(t-12+m)
Método multiplicativo
Con ecuaciones
Yt
Lt (1 )( Lt 1 bt 1 )
St s
bt ( Lt Lt 1 ) (1 )bt 1
Yt
St (1 ) St s
Lt
Ft m Lt bt m St s m
20
Modelos de Box-Jenkins
Una característica esencial de las series temporales es la dependencia que existe
entre las observaciones.
A comienzo de los años 70, G.E.P. Box, profesor de Estadística de la Universidad de
Wisconsin, y G.M. Jenkins, profesor de Ingeniería de Sistemas de la Universidad de
Lancaster, introdujeron una pequeña revolución en el enfoque del análisis de series
temporales, en sus trabajos sobre el comportamiento de la contaminación en la bahía de San
Francisco, con el propósito de establecer mejores mecanismos de pronóstico y control. El
libro (1976) en el que describen la metodología, se convirtió rápidamente en un clásico, y
sus procedimientos se utilizan ampliamente desde entonces en diferentes ramas de la
ciencia, conociéndose como modelos ARIMA y también como modelos Box-Jenkins.
La metodología de Box-Jenkins modela esta dependencia utilizando la teoría
probabilística suministrada por los procesos estocásticos estacionarios y la metodología
estadística suministrada por la teoría de la estimación y contraste de hipótesis.
Un proceso estocástico es una colección de variables indexadas por el tiempo
X (t ) tT
Un proceso es estacionario si su distribución no varia a lo largo del tiempo.
21
A la función K que sólo depende de un parámetro se la denomina función de
covarianza y es una función simétrica y semidefinida positiva.
n n
t1 , t 2 ,...t n T a1 , a 2 ,...a n T a K (t
i 1 j 1
i i t j )a j 0
22
Las raices de (Bs) fuera del círculo unidad
23
:la media de la serie estacionaria
Zt: Perturbación del modelo
D,d: Número de veces que se han aplicado los operadores diferencia
estacional y diferencia regular a la serie original para convertirla en estacionaria.
Las raices de (B) ,(Bs) , (B) y de (Bs) fuera del círculo unidad
Identificación
¿Cómo identificamos el modelo?
Para identificar el modelo nos basamos ademas de la gráfica de los datos frente al
tiempo, de las gráficas de la función de autocorrelación y función de autocorrelación parcial
muestrales..
Estas gráficas se comparan con las gráficas de las correspondientes funciones
teóricas que tiene una forma característica para cada modelo.
Denotamos por
ACF la función de autocorrelación. Esta función está definida en el retardo k como
ρ(k) = Cov(xt, xt+h)/var(xt)
Mide la relación lineal entre estas variables.
PACF la función de autocorrelación parcial. En el retardo k mide la relación lineal
entre Xt y Xt+k pero quitando la dependencia entre las variables intermedias.
En general
Modelos AR(p)
ACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente.
PACF se anula a partir del retardo p
Modelos MA(q)
ACF se anula a partir del retardo q
PACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente.
Modelos ARMA(p,q)
p<q
ACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente; como en el modelo AR(p) pero a
partir del retardo q-p+1, es decir que los primeros q-p+1 retardos no tienen
pauta fija.
p>q
ACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente; como en el modelo AR(p)
24
PACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente, es decir como el modelo MA(q),
pero a partir del retardo p-q+1, es decir que los primeros p-q+1 retardos no
tienen pauta fija.
p=q
ACF decrece exponencialmente hacia o ó mediante ondas seno-coseno con
amplitudes decreciendo exponencialmente; como en el modelo AR(p) pero a
partir del retardo 1, es decir que el primer retardo no sigue este patrón
Modelos estacionales
En estos modelos hay que distinguir la parte regular, es decir los retardos
comprendidos entre los retardos estacionales y la parte estacional, es decir
los retardos estacionales.
Para la parte regular el comportamient de ACF y PACF como en los
modelos ARMA.
Para los retardos estacionales, la misma pauta que los modelos ARMA pero
en los retardos s, 2s,…
Los retardos vecinos de los retardos estacionales, dependiendo del orden
ARMA de la parte regular también se ven afectados.A continuación vemos
gráficas de estas funciones
ACF PACF
25
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2
0.2
0.0
0.0
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1.0
0 6 12 18 24 30 -1.0
0 6 12 18 24 30
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0
0.0
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1.0
0 6 12 18 24 30 -1.0
0 6 12 18 24 30
1.0 1.0
0.8 0.8
0.6 0.6
0.4
0.4
0.2
0.2
0.0
0.0
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-1.0 -0.8
0 6 12 18 24 30
-1.0
0 6 12 18 24 30
ACF PACF
26
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30
1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30
1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
-0.2
-0.2
-0.4
-0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30
ACF PACF
27
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2
-0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1.0
0 6 12 18 24 30 -1.0
0 6 12 18 24 30
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 6 12 18 24 30 0 6 12 18 24 30
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4
-0.4
-0.6
-0.6
-0.8
-0.8
-1.0
-1.0 0 6 12 18 24 30
0 6 12 18 24 30
ACF PACF
28
(0,1)(0,1)
(0,1)(1,1)
(0,1)(0,1)
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 12 24 36 48 60 0 12 24 36 48 60
(0,2)(0,1)
29
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 12 24 36 48 60 0 12 24 36 48 60
(0,0)(1,0)
1.0 1.0
0.8 0.8
0.6 0.6
0.4 0.4
0.2 0.2
0.0 0.0
-0.2 -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1.0 -1.0
0 12 24 36 48 60
0 12 24 36 48 60
(0,0)(1,1)
1.0 1.0
0.8 0.8
0.6
0.6
0.4
0.4
0.2
0.2
0.0
0.0
-0.2
-0.4 -0.2
-0.6 -0.4
-0.8 -0.6
-1.0 -0.8
0 12 24 36 48 60
-1.0
(2,0)(1,0) 0 12 24 36 48 60
0.5
0.5
0.4
0.3
0.4
0.2 0.3
0.1 0.2
0 0.1
-0.1 0
-0.2 -0.1
-0.3 -0.2
-0.4 -0.3
-0.5 -0.4
0 12 24 36 48 60
-0.5
0 12 24 36 48 60
(o,1)(1,0)
30
Estimación:
Una vez identificado el modelo, se estiman los parámetros con los métodos
habituales.
validación
Hay que verificar las hipótesis del modelo.
.- Todos los parámetros son significativos.
.-Los residuos están incorrelados.
Se calcula para ello el estadístico de Ljung-Box:
Q1 = [N(N+2)]/(N-k) k r2a(h)
h=1
Bajo la hipótesis nula de que el modelo está bien ajustado, se distribuye
según una chi cuadrado con grados de libertad k-p-q
(r1, r2, ..., rk) las correlaciones correspondientes a los k primeros retardos.
.- El modelo es estacionario.
Ejemplo
200000
180000
160000
140000
120000
100000
80000
60000
40000
20000
A la vista del gráfico vemos que nuestra serie no es estacionaria, presenta una clara
tendencia que sigue los ciclos de la economía, también muestra componentes estacionales.
Este hecho también se pone de manifiesto en las gráficas de las funciones de
autocorrelación, autocorrelación parcial y periodograma de la serie.
En la función de autocorrelación observamos que hay un decrecimiento muy lento,
muy lejano del decrecimiento exponencial de los modelos estacionarios.
31
La gráfica de la función de autocorrelación parcial muestra una correlación muy alta
en el retardo 1 y muy baja en los demás retardos , indicativo de la existencia de una
tendencia en la serie o variación a largo plazo.
Por último la gráfica del periodograma muestra un pico muy pronunciado en las
bajas frecuencias que oculta cualquier otra variación de los datos.
De estas tres gráficas se deduce que la serie no es estacionaria y que las variaciones
a largo plazo o tendencia de la serie, ocultan la estructura de los datos. Por tanto
diferenciamos la serie de orden 1 para eliminar la tendencia.
0.6
0.2
-0.2
-0.6
-1
0 10 20 30 40 50
lag
0.6
0.2
-0.2
-0.6
-1
0 10 20 30 40 50
lag
8
6
4
2
0
0 0.1 0.2 0.3 0.4 0.5
frecuencia
32
Así nos encontramos con una serie estacional. Si nos fijamos en los retardos
estacionales (12, 24, 36, 48) el decrecimiento de la correlación puede o no puede ser
exponencial, necesitamos más gráficas para saber si la serie es estacionaria.
La función de autocorrelación parcial no muestra falta de estacionariedad, ni el
retardo 1 ni el primer retardo estacional son demasiado grandes frente a los demás.
La gráfica del periodograma muestra un pico muy pronunciado en la frecuencia 0.08
indicativo de estacionalidad de periodo 12 y otros picos menos pronunciados en los
armónicos siendo el siguiente en orden de magnitud el correspondiente a la frecuencia 0.25,
es decir periodo 4 indicativo de cierta periodicidad trimestral.
También observamos un pico de menor magnitud en una frecuencia próxima a cero
indicativo de una variación a largo plazo que todavía persiste en la serie y que la aleja de la
estacionariedad.
La diferencia de orden 1 no ha sido suficiente para quitar la tendencia.
Autocorrelación para el paro en Castilla y León diferenciada de orden 1
1
Autocorrelaciones
0.6
0.2
-0.2
-0.6
-1
0 10 20 30 40 50
lag
0.6
0.2
-0.2
-0.6
-1
0 10 20 30 40 50
lag
0
0 0.1 0.2 0.3 0.4 0.5
frecuencia
Aplicamos una diferencia estacional a la serie para comprobar si esta operación hace
a la serie estacionaria y analizamos nuevamente los gráficos.
33
La función de autocorrelación decrece muy lentamente. La función de
autocorrelación parcial no muestra falta de estacionariedad, ni el retardo 1 ni el primer
retardo estacional son demasiado grandes frente a los demás y el periodograma sigue
mostrando un pico muy superior a todo lo demás en las bajas frecuencias.
Es decir esta operación no nos convierte a la serie en estacionaria.
0.6
0.2
-0.2
-0.6
-1
0 10 20 30 40 50
lag
0.6
0.2
-0.2
-0.6
-1
0 6 12 18 24 30 36 42 48
lag
12
0
0 0.1 0.2 0.3 0.4 0.5
frecuencia
Por tanto procedemos a aplicar una diferencia regular y una diferencia estacional a
la serie original. Las tres gráficas siguientes no muestran falta de estacionariedad, así
modelaremos esta serie.
Observamos en la función de autocorrelación que los primeros retardos decrecen
exponencialmente, indicativo de un polinomio autorregresivo de orden 1 y sólo hay un
retardo estacional que podamos considerar distinto de 0, indicativo de un polinomio de
media móvil estacional de orden 1.
34
La función de autocorrelación parcial está de acuerdo con esta identificación del
modelo ya que sólo hay un retardo regular , el primero, que podamos considerar distinto de
0 y en los retardos estacionales (12, 24, 36, 48) se observa decrecimiento exponencial.
En el periodograma se pueden entrever 6 ondas de amplitudes decrecientes
indicativo de que nos encontramos ante un modelo estacional multiplicativo.
Autocorrelación para el paro en Castilla y León diferenciada de orden 1 y 12
1
Autocorrelaciones
0.6
0.2
-0.2
-0.6
-1
0 10 20 30 40 50
lag
0.6
0.2
-0.2
-0.6
-1
0 10 20 30 40 50
lag
0
0 0.1 0.2 0.3 0.4 0.5
frecuencia
35
AR2,1 -0.28994 0.06283 -4.61 12
Variance Estimate = 2727641.33
Std Error Estimate = 1651.55725
AIC = 4311.52136
SBC = 4318.5157
Number of Residuals= 244
36
Decrece
-Con el incremento anual de dos meses anteriores (0.42)
-Con el incremento anual del año anterior (0.3)
Las series temporales a menudo se ven afectadas por cambios en el entorno donde
se producen. Estos cambios afectan a la evolución de la serie y deben ser incorporados al
modelo. Estos modelos se denominan modelos con intervención.
37
La intervención se define mediante una variable escalón
13
11
1 3 5 7 9 11 13
38
2 0,5
1,5 0,4
0,3
1
0,2
0,5 0,1
0 0
1
13
13
11
11
El modelo completo se escribe
Yt = f(It*) + Nt
Siendo f la función que modela la intervención y Nt un modelo estacionario.
Para construir el modelo, se parte de un modelo anterior para la serie Y t que nos
servirá para identificar el ruido Nt y la función f se construye pensando en los posibles
efectos de la intervención, bien por el conocimiento previo o por el comportamiento de los
datos.
Funciòn de transferencia
Los modelos vistos hasta ahora son modelos univariantes. Se modela la serie como
un filtro, es decir como una combinación lineal de valores pasados y presentes.
Ahora veremos un modelo que relaciona una serie con sus valores pasados y
presentes y con los valores pasados y presentes de otra serie.
Sean Xt e Yt dos series temporales estacionarias.
Xt representa el input o variable causa
Yt el output o variable respuesta.
Nt es un ruido incorrelado con la serie input Xt que será modelado como
ARMA.
El modelo final se expresa
Yt = vj Xt-j + Nt
39
La correlación entre Xt y Yt+k es distinta de 0. Los valores futuros de Y
dependen de los valores pasados y presentes de X.
Nos limitaremos a modelos en los que vj Bj < Si |B| 1, es decir cambios finitos
en el input producen cambios finitos en el output. Esto asegura la estacionalidad del output.
V(1) = vj = g < .
A g se le denomina ganancia del sistema y representa el valor del output si el input
es constante e igual a 1 y no hay perturbación.
Identificación
Necesitamos calcular los órdenes de los polinomios W(B) y (B) y el retardo b
40
Para ello, calculamos los pesos vi impulso-respuesta en función de los coeficientes
de los polinomios numerador y denominador.
V(B)= W(B) Bb/ (B) multiplicando ambas partes de la igualdad por (B)
v0 = v1 = ... = vb-1 = 0
vb = 1 vb-1 + 2 vb-2 + ... + r vb-r + w0
vj = 1 vj-1 + 2 vj-2 + + r vj-r + wj-b j = b+1, ...b+s
vj = 1 vj-1 + 2 vj-2 + ... + r vj-r j> b + s
Estas relaciones hay que tenerlas presentes ya que son muy útiles para identificar la
función de transferencia, lo que es equivalente a identificar
Definición:
Un proceso estocástico bivariante (Xt, Yt) se dice que es estacionario en el sentido
amplio si
Cada componente Xt Yt es estacionario. La función de autocovarianza solo depende
del retardo que separa las variables y no del tiempo en que se mide.
La función de covarianza cruzada entre las dos series solo depende del retardo que
las separa.
41
KX,Y (h) = cov(Xt, Yt+h) h = 0 , 1, 2, . . .
Por analogía con los modelos ARMA, se puede intentar identificar la función de
transferencia a partir de las correlaciones cruzadas muestrales, pero las propiedades
muestrales no son fáciles de establecer, al estar estos estimadores correlados. Los cálculos
se simplificarían sobremanera si el input fuera un ruido blanco, ya que en este caso
disponemos de la aproximación de Barlett. Por lo que vamos a utilizar la técnica de
“preblanqueo” para conseguirlo.
Técnica de preblanqueo:
Se realiza en dos etapas
1. - Ajustamos un modelo ARMA a la serie input Xt X(B) Xt = X(B)t.
42
La serie t de los residuos es un ruido blanco t = X(B) -1X(B) Xt
Despejando
vh = K, (h) / 2 = ( / )( K, (h) / ) = ( / ) (h) h = 0,1,2,
43
y se calculan los residuos
N t Yt - V(B)X t Yt W b
Nt es un proceso estacionario y por los métodos habituales de
identificación, identificamos un modelo ARMA(p, q) para N t
N (B) N t = N(B)at con at ruido blanco.
Yt = d1 Yt-1 + . . . +dp+r Yt-r-p + c0 Xt-b + c1 Xt-b-1 +... + cp+sXt-b-p-s + at + b1 at-1 +... + bq+r a t-q-r
Aquí finaliza la etapa de identificación que nos da un modelo base que debe ser
estimado. El modelo identificado puede ser modificado para eliminar parámetros superfluos
una vez superada la etapa de estimación.
El orden de los polinomios en general no será muy grande (2 suele ser suficiente) y
si encontramos factores comunes, deben ser simplificados ya que en caso contrario, los
resultados serian erróneos.
Estimación
Los métodos de estimación son los mismos que en las series univariantes.
Si W(B) y (B) son polinomios de orden 0, se obtienen estimadores mínimo
cuadrados con expresión exacta, en caso contrario los estimadores se obtienen por
aproximaciones sucesivas.
Debemos estimar los coeficientes de los polinomios (B) W(B) N(B) N(B).
Sea el parámetro a estimar ´ = ( ´, W´ , N´, N´).
Para cualquier elección de b´ se pueden calcular los errores at a partir de t > m
siendo m = max ( p+r, b+p+s ) + 1 mediante la expresión
at = Yt - d1 Yt-1 - . . . -dp+r Yt-r-p - c0 Xt-b - c1 Xt-b-1 -... - cp+sXt-b-p-s - b1 at-1 -... - bq+r a t-q-r
nos permite calcular la suma de los cuadrados de los residuos.
Si suponemos a0 = a1 = . . . = am = 0 obtenemos mínimos cuadrados condicionados.
Si estimamos por el método de máxima verosimilitud y suponemos normalidad,
como los residuos at son incorrelados también serán independientes.
44
La verosimilitud se aproxima por la suma de cuadrados de los residuos, que hay que
minimizar.
Validación
45
Independientemente de sí el modelo para la perturbación está bien o mal modelado,
el cálculo de la correlación cruzada de los residuos, resultado del ajuste de la función de
transferencia, con el input preblanqueado puede informarnos acerca de los cambios que hay
que hacer en la función de transferencia.
Consideremos el modelo preblanqueado
Q1 = [N(N+2)]/(N-k) k r2a(h)
h=1
r2a(h) es la autocorrelación en el retardo h de los residuos
46
h=1
2
r , a(h) correlación cruzada en el retardo h del input preblanqueado y los residuos
Bajo la hipótesis nula de que el modelo está bien ajustado, estos estadísticos se
distribuyen según una chi cuadrado con grados de libertad k-p-q y k-r-s respectivamente.
Siendo p y q los ordenes autorregresivo y de media móvil de la perturbación y r y s
los ordenes del numerador y denominador de la función de transferencia.
Necesitamos los dos estadísticos para asegurarnos de la bondad del modelo. Estos
dos estadísticos son muy conservadores, por lo que además es conveniente estudiar la
aleatoriedad de los residuos at por los métodos habituales.
Predicción
Las técnicas utilizadas para la predicción son las mismas que en el caso univariante.
Partiendo del modelo ajustado
De donde
Yt = (1Yt-1 + 2Yt-2 + ... ) + (v0*Xt + v1*Xt-1 + v2*Xt-2 + ... ) + at.
Ecuación que puede ser usada para obtener la predicción de Y N+s como combinación
lineal de valores pasados de Xt e Yt hasta el instante N, de forma que el error cuadrático
medio sea mínimo.
En caso de normalidad YN(s) = E(YN+s/ YN, YN-1,... XN, XN-1 ,...).
También puede ponerse la predicción como combinación lineal de los errores y del
input preblanqueado, ya que por ser estas series ruido blanco e incorreladas entre sí, nos
facilitará el cálculo de la varianza del error de predicción.
Errores de predicción
Partiendo de la misma ecuación Yt = -1(B)W(B) BbXt + N-1 (B) N(B) at
47
Con u(B) = -1(B)W(B) Bb X-1 (B) X(B)
(B) = N-1 (B) N(B)
Que desarrollada da lugar a
YN+s = u0 N+s + u1 N+s-1 + . . . + us N + . . . + aN+s + 1aN+s-1 + . . . + saN + . . .
Elegiremos los i(j) de forma que el error cuadrático E(|YN+s - YN(s)|2 )sea mínimo.
E(|YN+s - YN(s)|2 ) =
E{( u0 N+s + u1 N+s-1 + . . . + us-1 N+l + aN+s + 1aN+s-1 + . . . + s-1aN )+
El valor de la predicción es
48
month =month( date );
x1 = (year >= 1987);
proc print;
run;
Proc arima data=enero80;
Identify var=total(1,12) crosscorr=( x1(1,12) x2(1,12)) nlag=36 noprint;
estimate p=(1)(12) noconstant input=( (0)/(1)x2 ) method=ml outcov outcorr;
forecast lead=12 out=prueba id=date noprint;
run;
proc gplot data=prueba gout=prueba2;
plot residual*date;
run;
title2 'residuos';
Proc arima data=prueba;
Identify var=residual nlag=36;
run;
title2;
Transferencia mujeres paradas
libname i 'c:\dataluis\ipc';
title1 'IPC paro';
data i.paroipc;
infile "datosluis\paroipc2.txt" dlm='09'x firstobs=2;
input ipc totalpar hombres mujeres;
/* date= intnx('month','31dec77'd,_n_); */
/* format date monyy.; */
proc print;
run;
proc arima data=i.paroipc;
/*--- identifica el input---------*/
identify var=ipc(1,12) nlags=48;
run;
/*--- ajusta el input --------*/
estimate q=(12) noconstant;
run;
/*--- correlación cruzada entre el input y el output preblanqueados */
identify var=mujeres(1,12) crosscorr=(ipc(1,12)) nlags=48;
run;
/*--- ajusta function transferencia,identifica residuos */
estimate noconstant input=( (0)/(1) ipc ) ;
forecast lead=12 out=prueba id=date noprint;
proc arima data=prueba;
identify var=residual nlag=36;
run;
/*--- modelo completo -----------*/
proc arima data=i.paroipc;
identify var=ipc(1,12) nlags=48;
estimate q=(12) noconstant;
49
identify var=mujeres(1,12) crosscorr=(ipc(1,12)) nlags=48;
estimate p=(1)(12) noconstant input=( (0)/(1) ipc );
run;
Trabajamos con los datos de parados que buscan primer empleo en la comunidad de
Castilla y León . Los datos son mensuales y van desde enero de 1980 hasta mayo de 2001
En el año 1987 se produce un cambio en la forma de registrar el paro para poder
equipararlo con el resto de países europeos. Hubo un cambio menor en el año 92.
50
En el año 1995, se aprueba la reforma del Derecho del Trabajo RD.LEG. 1/1995 de
24 de marzo.
Gráfico de la serie
parados según actividad
70000
60000
50000
20000
10000
51
Factor 2: 1 - 0.61911 B**(12)
52
Variance Estimate = 0.08922208
Std Error Estimate = 0.29870066
AIC = 113.893229*
SBC = 117.484216*
Number of Residuals= 268
Autocorrelation Check of Residuals
To Chi Autocorrelations
Lag Square DF Prob
6 3.59 5 0.610 0.114 0.003 0.004 -0.000 -0.017 -0.001
12 12.98 11 0.294 0.059 0.086 0.092 0.055 0.094 0.049
18 16.85 17 0.465 0.028 0.044 0.057 0.068 -0.008 0.053
24 20.64 23 0.603 -0.009 -0.007 -0.090 -0.049 0.047 0.011
30 25.12 29 0.672 0.066 0.012 -0.039 -0.053 -0.055 -0.055
36 32.58 35 0.586 0.069 -0.127 -0.025 0.011 0.015 -0.050
42 38.00 41 0.605 -0.045 -0.070 -0.048 -0.054 -0.069 -0.017
48 43.51 47 0.618 -0.053 -0.014 -0.034 -0.061 -0.058 -0.076
Model for variable IPC
No mean term in this model.
Period(s) of Differencing = 1,12.
Moving Average Factors
Factor 1: 1 - 0.5855 B**(12)
Ajuste de la función de transferencia
Prewhitening Filter
Moving Average Factors
Factor 1: 1 - 0.5855 B**(12)
Conditional Least Squares Estimation
Parameter Estimate Std Error T Ratio Lag Variable Shift
NUM1 -96.03385 136.77718 -0.70 0 IPC 0
DEN1,1 -0.86075 0.34807 -2.47 1 IPC 0
Variance Estimate = 851037.549
Std Error Estimate = 922.516964
AIC = 3234.43909*
SBC = 3240.99532*
Number of Residuals= 196
Correlations of the Estimates
IPC IPC
Variable Parameter NUM1 DEN1,1
IPC NUM1 1.000 -0.470
IPC DEN1,1 -0.470 1.000
53
Validación
modelo ajustado
Model for variable MUJERES
No mean term in this model.
Period(s) of Differencing = 1,12.
Autoregressive Factors
Factor 1: 1 - 0.38683 B**(1)
Factor 2: 1 + 0.33426 B**(12)
Input Number 1 is IPC.
Period(s) of Differencing = 1,12.
Overall Regression Factor = -112.842
The Denominator Factors are
Factor 1: 1 + 0.88856 B**(1)
112.84
(1 B )(1 B 12 )Yt (1 B )(1 B 12 ) X t (1 0.39 B)(1 0.33B 12 ) Z t
(1 0.89 B)
54
Modelos multivariantes
Modelos ARIMA
Se definen igual que en el caso univariante, solo que los coeficientes en lugar de ser
números serán matrices.
AR(p)
X t 1 X t 1 2 X t 2 ... p X t p Z t
MA(q)
X t 1 Z t 1 2 Z t 2 ... pq Z t q Z t
Con
Xt =(X1,t; X2,t;…Xk,t)´
Para ajustar estos modelos usamos la sentencia SAS proc statespace que utiliza el
modelo de espacio de estados que es una representación mediante un proceso de markov de
las series multivariantes.
55
Modelos de espacio de estados
Sea Xt un vector rx1 que representa el vector de observaciones.
Zt un vector sx1 con s>r que representa el vector de estados.
Denotamos por Xt+k|t la predicción de Xt+k cuando se tienen observaciones hasta el
instante t.
Las últimas componentes de Zt son de la forma Xt+k|t
El modelo se expresa
Zt+1 = F Zt + G et+1, ecuación de transición o ecuación de estado.
Con F matriz sxs o matriz de transición, determina las propiedades dinámicas del
modelo
G matriz sxr o matriz de innovación, Determina la estructura de la varianza
de la ecuación de transición. Las primeras r filas y columnas es la matriz
identidad
Et vector rxr o vector de innovación , formado por variables incorreladas en
distintos tiempos.
La ecuación de medida se obtiene Xt =[Ir, 0] Zt
Ejemplo
libname d 'c:\datos';
title1 'Castilla y Leon';
data d.cyl;
infile "datos\cyl.txt" dlm='09'x firstobs=2;
input Paro Hombres Mujeres Sinempleo Cregistrados Cindefinidos Colocaciones
Demandas men25 de20a24 de25a29 de30a34 mayo25 meno20 de35a39 de40a44 de45a49
de50a54 de55a59 mayo59 EmpresaE empCyL TI3M ILP ipc12 ipc13 ipc14 ipc15 ipc16
ipc17 ipc18 ipc19 ipc20 ;
date= intnx('month','31dec79'd,_n_);
format date monyy.;
/*proc print; */
run;
56
Ajuste de un un modelo bivariante a las series de variación interanual de
España y de la comunidad.
Standard
Variable Mean Error
__CastillayLeon 9.273182 4.311289
Espana 9.740455 3.402027
57
Selected Statespace Form and Preliminary Estimates
State Vector
__CastillayLeon(T;T) Espana(T;T)
Parameter Estimates
Standard
Parameter Estimate Error t Value
F(1,1) -0.34349 0.347871 -0.99
F(1,2) 1.103079 0.440728 2.50
F(2,1) -0.18630 0.266635 -0.70
F(2,2) 0.820067 0.337817 2.43
58
-4 1.947410 0.22696 | . |***** .
-3 1.095254 0.12765 | . |*** .
-2 0.600521 0.06999 | . |* .
-1 0.397556 0.04633 | . |* .
0 6.877300 0.80151 | . |****************
1 1.071854 0.12492 | . |** .
2 -1.613803 -.18808 | . ****| .
3 0.925098 0.10782 | . |** .
4 0.213451 0.02488 | . | .
5 1.050565 0.12244 | . |** .
6 0.150554 0.01755 | . | .
7 -1.266643 -.14762 | . ***| .
8 -0.733530 -.08549 | . **| .
59
Ávila
60
The STATESPACE Procedure
Number of Observations 22
Standard
Variable Mean Error
__CastillayLeon 9.273182 4.311289
Espana 9.740455 3.402027
Avila 8.842273 4.401761
The STATESPACE Procedure
Selected Statespace Form and Preliminary Estimates
State Vector
__CastillayLeon(T;T) Espana(T;T) Avila(T;T)
Maximum likelihood estimation has converged.
Parameter Estimates
Standard
Parameter Estimate Error t Value
F(1,2) 0.861068 0.231554 3.72
F(1,3) -0.20253 0.121041 -1.67
F(2,2) 0.590153 0.162895 3.62
F(3,1) 0.597553 0.173264 3.45
Crosscorrelations
Lag Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
-10 -0.716465 -.08272 | . **| . |
-9 0.289003 0.03337 | . |* . |
-8 -0.109605 -.01265 | . | . |
61
-7 -1.408363 -.16260 | . ***| . |
-6 0.652823 0.07537 | . |** .
-5 0.730121 0.08429 | . |** .
-4 2.208398 0.25496 | . |***** .
-3 0.446340 0.05153 | . |* .
-2 0.720759 0.08321 | . |** .
-1 -0.585625 -.06761 | . *| .
0 7.121899 0.82222 | . |****************
1 0.478219 0.05521 | . |* .
2 -1.650747 -.19058 | ****| .
3 1.439995 0.16625 | . |*** .
4 1.188948 0.13726 | . |*** .
5 1.264630 0.14600 | . |*** .
6 0.487752 0.05631 | . |* .
7 -0.863886 -.09974 | . **| .
8 -0.523020 -.06038 | . *| .
9 1.406699 0.16240 | . |*** .
10 -2.336863 -.26979 | . *****| .
Crosscorrelations
Lag Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
-10 -1.910090 -.20945 | . ****| .
-9 2.688432 0.29480 | . |****** .
-8 -1.149504 -.12605 | . ***| .
-7 -0.982808 -.10777 | . **| .
-6 2.439418 0.26750 | . |***** .
-5 2.245745 0.24626 | . |***** .
-4 0.739302 0.08107 | . |** .
-3 3.344567 0.36675 | . |***** .
-2 -0.552505 -.06059 | . *| .
-1 -0.351285 -.03852 | . *| .
0 4.279745 0.46930 | . |*********
1 -1.179240 -.12931 | . ***| .
2 -0.398727 -.04372 | . *| .
3 -0.669390 -.07340 | . *| .
4 -0.103661 -.01137 | . | .
5 -0.699936 -.07675 | . **| .
6 1.902586 0.20863 | . |**** .
7 -2.075009 -.22754 | . *****| .
8 -1.963786 -.21534 | . ****| .
9 1.031299 0.11309 | . |** .
10 -1.227639 -.13462 | . ***| .
62
Name of Variable = RES3
Mean of Working Series -0.08755
Standard Deviation 3.514858
Number of Observations 22
Crosscorrelations
Lag Covariance Correlation -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9 1
-10 -1.386896 -.11819 | . **| .
-9 1.517526 0.12932 | . |*** .
-8 -2.501320 -.21316 | . ****| .
-7 -1.231276 -.10493 | . **| .
-6 2.706255 0.23063 | . |**** .
-5 -0.680085 -.05796 | . *| .
-4 0.924432 0.07878 | . |** .
-3 -1.899108 -.16184 | . ***| .
-2 -0.308584 -.02630 | . *| .
-1 -1.877841 -.16003 | . ***| .
0 4.537718 0.38671 | . |********.
1 -1.464646 -.12482 | . **| .
2 -0.455613 -.03883 | . *| .
3 1.814367 0.15462 | . |*** .
4 2.437544 0.20773 | . |**** .
5 2.631974 0.22430 | . |**** .
6 4.851007 0.41341 | . |**** .
7 -0.902383 -.07690 | . **| .
8 -1.425162 -.12145 | . **| .
9 2.286682 0.19487 | . |**** .
10 -2.848317 -.24274 | . *****| .
Los coeficientes puede verse que son todos significativos y los residuos
incorrelados y no presentan correlación cruzada.
63
Mujeres, Sin empleo anterior y colocaciones registradas
The STATESPACE Procedure
Number of Observations 192
Standard
Variable Mean Error
Mujeres -44.3125 916.8836 Has been differenced.
With period(s) = 1,12.
Sinempleo -40 672.4131 Has been differenced.
With period(s) = 1,12.
Colocaciones 13.375 2924.21 Has been differenced.
With period(s) = 1,12.
The STATESPACE Procedure
Information Criterion for Autoregressive Models
Lag=0 Lag=1 Lag=2 Lag=3 Lag=4 Lag=5 Lag=6 Lag=7 Lag=8 Lag=9 Lag=10
8177.44 8077.26 8036.53 8029.24 7885.47 7895.93 7906.62 7912.03 7883.95 7888.18 7895.05
Schematic Representation of Correlations
Name/Lag 0 1 2 3 4 5 6 7 8 9 10
Mujeres ++. ++. .++ .+. .+. .+. ... .+. +.. ... ...
Sinempleo ++. .+. .+. .+. .+. .+. ... .+. -+. -.. ... Colocaciones ..+ ..- ... ..+ ..-
... ... ..- ... ..+ .-
64
Yule-Walker Estimates for Minimum AIC
----------------Lag=5---------------- ----------------Lag=6----------------
Mujeres Sinempleo Colocaciones Mujeres Sinempleo Colocaciones
Mujeres -0.04171 -0.12712 0.00866 -0.01119 -0.11387 0.008202
Sinempleo -0.06997 0.07945 0.047442 0.045021 -0.00811 0.038477
Colocaciones -0.37516 -0.66988 -0.10166 0.52161 0.06588 -0.16238
Yule-Walker Estimates for Minimum AIC
----------------Lag=7---------------- ----------------Lag=8----------------
Mujeres Sinempleo Colocaciones Mujeres Sinempleo Colocaciones
Mujeres 0.036331 0.112582 0.007535 0.062913 -0.31271 -0.01612
Sinempleo -0.02058 0.154331 0.030765 -0.20816 0.159434 0.015094
Colocaciones -0.06616 -0.35333 -0.23426 0.223824 -0.5398 -0.28402
12S(T+1:T) = eS(T:T)
Cabe destacar que la serie desempleados sin empleo anterior no interactúa con la
serie Contratos registrados ya que ninguna de ellas está en la ecuación de la otra.Ambas
están relacionadas a través de la serie de mujeres paradas
65
Otro rasgo a destacar es que la serie de mujeres paradas aporta dimensión cuatro al
espacio de estados que es de dimensión 7. Los contratos aportan dimensión 2
66
Los modelos estructurales admiten, en multitud de ocasiones, una especificación tipo
ARCH infinito.
Los modelos ARCH son modelos para las innovaciones E t de una serie observada.
Suponemos que se ha modelado la media condicional de la serie mediante un
modelo ARMA, o no lineal, pero que las innovaciones del proceso pueden escribirse como:
Donde:
sigma es la varianza condicional
67
Modelo garch (p,q)
Este modelo fue desarrollado por Bollerslev (1987), extendiendo el modelo ARCH
para incluir retardos en la varianza condicional. En definitiva un GARCH es un modelo
ARCH infinito, un GARCH (p,q) se define como:
No hay que olvidar que los modelos Garch son para las innovaciones o errores, en la
pràctica, se ajustan modelos ARIMA con residuos heterocedásticos, con o sin tendencia.La
sentencia SAS que se utiliza es proa autoreg
data d.cyl1;
set d.cyl;
diferencia=importaciones-exportaciones;
retardo=lag1(diferencia);
run;
proc autoreg data=d.cyl1 corrb covb outest= d.fuera covout;
model diferencia=retardo/lagdep nlag=1 dwprob archtest;
output out =d.b R=residuos RM=residuosestructurales P=prediccion
PM=prediccionestructural LCL=lcl UCL=ucl LCLM=lclestructural
UCLM=uclestructural;
run;
data h;
set d.fuera;
proc print;
run;
data g;
set d.b;
cuadrado = residuos*residuos;
/* proc print;*/
run;
proc arima data =g;
identify var=residuos;
identify var=cuadrado;
identify var= residuosestructurales;
run;
proc gplot data =d.b;
68
plot diferencia*date prediccion*date lcl*date ucl*date/overlay;
symbol1 i=joint v=none;symbol2 i=joint v=none;symbol3 i=joint v=none;symbol4
i=joint v=none;
run;
plot residuos*date;
symbol1 i=joint v=none;
run;
plot diferencia*date prediccionestructural*date lclestructural*date
uclestructural*date/overlay;
symbol1 i=joint v=none;symbol2 i=joint v=none;symbol3 i=joint v=none;symbol4
i=joint v=none;
run;
plot residuosestructurales*date;
symbol1 i=joint v=none;
run;
plot diferencia*date prediccionestructural*date /overlay;
symbol1 i=joint v=none;symbol2 i=joint v=none;
run;
plot diferencia*date lclestructural*date uclestructural*date/overlay;
symbol1 i=joint v=none;symbol2 i=joint v=none;symbol3 i=joint v=none;
run;
plot lclestructural*date uclestructural*date/overlay;
symbol1 i=joint v=none;symbol2 i=joint v=none;
run;
Con resultados
Variable Dependiente diferencia
Estimadores
SSE 3,10189E11 DFE 182
MSE 1704336109 Root MSE 41284
SBC 4441,77354 AIC 4435,34367
Regress R-Square 0,0321 Total R-Square 0,0321
Durbin's t -1,9467 Pr < t 0,0266
69
10 1,8474 0,9974 1,9299 0,9968
11 1,8474 0,9990 1,9300 0,9987
12 2,0862 0,9993 2,1268 0,9992
Estimación
Standard Approx
Variable DF Estimador Error t Value Pr > |t|
Intercept 1 4575 3079 1,49 0,1390
Retardo 1 0,1816 0,0739 2,46 0,0150
Todos los parámetros son significativos
Covarianza de los Estimadores de los Parámetros
Intercept retardo
Intercept 9479142 -34,39605
Retardo -34,39605 0,005466
Estimación de Autocorrelaciones
Lag Covarianza Correlación -1 9 8 7 6 5 4 3 2 1 0 1 2 3 4 5 6 7 8 9
0 1,6858E9 1,000000 | |********************|
1 -4,387E7 -0,026021 | *| |
Preliminar MSE 1,6847E9
Estimadores de los Parámetros Autoregresivos
Standard
Lag Coefficient Error t Value
1 0,026021 0,074304 0,35
Algoritmo converge
El valor del parámetro es muy pequeño, aunque es significativamente distinto de
cero ya que presenta un valor del estadístico t muy pequeño.
Estimadores
SSE 3,03622E11 DFE 181
MSE 1677468855 Root MSE 40957
SBC 4443,15335 AIC 4433,50855
70
Regress R-Square 0,2131 Total R-Square 0,0526
Standard Approx
Variable DF Estimador Error t Value Pr > |t|
Intercept 1 2763 2392 1,15 0,2496
Retardo 1 0,4725 0,1007 4,69 <,0001
AR1 1 0,3119 0,1055 2,96 0,0035
71
4 303621862785 0,11 -49,60 , 0,0079 0,0111
72
Lag Square DF ChiSq
--------------------Autocorrelations--------------------
6 1.18 6 0.9778 0.033 0.062 0.015 0.014 -0.025 0.016
12 2.24 12 0.9989 -0.013 -0.038 0.002 0.055 0.003 -0.027
18 7.09 18 0.9893 0.074 0.052 0.027 0.069 0.093 -0.039
24 9.53 24 0.9962 0.074 0.067 -0.025 -0.027 -0.020 0.007
Los residuos al cuadrado no están correlados, indicando que la varianza
condicionada permanece constante a lo largo del tiempo.
El modelo final ajustado tiene la siguiente fórmula
Dt = 2763 + 0.47 Dt-1 + et Ecuación de medida
et = 0.31 et-1 + Zt Ecuación estructural
Los gráficos correspondientes a este modelo están a continuación. Los gráficos
indican que el modelo se adapta mejor a los datos a pesar de que parece que hay residuos
altos, sin embargo como la desviación estándar es de 40.621 la mayoria de los residuos
están dentro de los límites de confianza de una serie aleatoria. Sigue habiendo residuos muy
altos negativos en los mismos datos que en el modelo anterior.
73
74
Variable acerinox:
Analysis Summary
Data variable: ACERINOX
Number of observations = 248
Start index = 02/01/98
Sampling interval = 1,0 day(s)
2
1,5
1
0,5
0
29/11/97
18/01/98
09/03/98
28/04/98
17/06/98
06/08/98
25/09/98
0,6
0,2
-0,2
-0,6
-1
0 5 10 15 20 25
lag
0,6
0,2
-0,2
-0,6
-1
0 5 10 15 20 25
lag
75
Large sample test statistic z = -0,128304
P-value = 0,897904
Runs up and down
Number of runs up and down = 154
Expected number of runs = 164,333
Large sample test statistic z = -1,48941
P-value = 0,13638
Box-Pierce Test
Test based on first 24 autocorrelations
Large sample test statistic = 4,30292
P-value = 0,999997
-1
-5
-9
-13
-17
29/11/97 18/01/98 09/03/98 28/04/98 17/06/98 06/08/98 25/09/98
0,6
0,2
-0,2
-0,6
-1
0 5 10 15 20 25
lag
0,6
0,2
-0,2
-0,6
-1
0 5 10 15 20 25
lag
76
Median = 33300,0
Number of runs above and below median = 158
Expected number of runs = 124,0
Large sample test statistic z = 4,28051
P-value = 0,0000186596
Box-Pierce Test
Test based on first 24 autocorrelations
Large sample test statistic = 77,4085
P-value = 1,56572E-7
Time Series Plot for adjusted ACERINOX
(X 1,E7)
58
adjusted ACERINOX
38
18
-2
-22
-42
29/11/97 18/01/98 09/03/98 28/04/98 17/06/98 06/08/98 25/09/98
0,6
0,2
-0,2
-0,6
-1
0 5 10 15 20 25
lag
Name of Variable = ACERINOX
To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations----------------
77
Period(s) of Differencing 1
Mean of Working Series -78.9676
Standard Deviation 1099.983
Number of Observations 247
Observation(s) eliminated by differencing 1
To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations----------------
To Chi- Pr >
Lag Square DF ChiSq --------------------Autocorrelations----------------
6 61.10 6 <.0001 0.494 -0.023 -0.013 -0.002 -0.009 -0.027
12 65.17 12 <.0001 -0.075 -0.029 0.051 0.045 -0.019 -0.067
18 70.74 18 <.0001 -0.027 0.059 0.102 0.069 0.026 0.032
24 73.92 24 <.0001 0.042 -0.003 -0.057 -0.059 -0.002 0.056
libname d 'c:\datos';
title1 'ibex98';
data d.ibex98;
infile "datos\ibex98.txt" dlm='09'x firstobs=2;
input ene fecha $ ACESA ACERINOX AGUAS_BARNA CORP_FIN_ALBA AMPER
ARGENTARIA AUMAR BK_BILBAO_VIZC BK_C_HISPANO BANKINTER BANESTO CANTABRICO
CONTINENTE GAS_NATURAL DRAGADOS_Y_CONST ENDESA E_N_CELULOSA
FOMENTO_DE_CONST FECSA GESA IBERDROLA MAPFRE METROVACE BK_POPULAR PRYCA
REPSOL BK_SANTANDER SEVILLANA_ELEC TABACALERA TELEFONICA_ESP U_FENOSA
URALITA VALLEHERMOSO VISCOFAN IBEX;
proc print;
run;
proc arima data =d.ibex98;
identify var = ACERINOX ; identify var = ACERINOX(1);run;
data b;
set d.ibex98;
acerinoxc = acerinox*acerinox;
run; proc print; run;
proc arima data = b;
identify var=acerinoxc(2);run;
proc autoreg data = d.ibex98 /*outest= a covout=c */ archtest /*out=
fuera*/;
model acerinox(1)= ene corrb covb lagdep hetero cev = varcond cpev=
varpred garch(q=1,p=1);run;
Bibliografía
78
.- Bollerslev, T. Engle, r. y Nelson, D(1994): ARCH Models.. Robert Engle y D. McFadden editores.
Handbook of Econometrics, Vol IV. Elservier, Amsterdam.
.- Abraham, B. y Ledolter, J. (1983). Statistical Methods for Forecasting. Wiley.
.- Box , G. E. P. y Jenkins, G. M. (1976). Time Series Analysis: Forecasting and Control.
Holden-Day.
.-Brockwell, P. J. y Davis, R. A. (1991). Time Series: Theory and Methods. [2ª edición].
Springer-Verlag.
.- Brockwell, P. J. y Davis, R. A. (1996). Introduction to Time Series and Forecasting.
Springer-Verlag.
.-Chatfield, C. (1989). The Analysis of Time Series: An Introduction. [4ª Edición]. Chapman
and Hall.
.-Diggle, P. J. (1990). Time Series. A Biostatistical Introduction. Oxford University Press.
.-Fuller, W. A. (1996). Introduction to Statistical Time Series. [2ª Edición]. Wiley..
.-Harvey, A. C. (1990. The Econometric Analysis of Time Series. [2ª Edición]. Phillip Allan.
.- Harvey, A. C. (1989). Forecasting, Structural Time Series Models and the Kalman Filter.
Cambridge University Press. .
.-Makridakis, S., Wheelwright, S. C. y Hyndman, R. J. (1998). Forecasting: Methods and
Applications. Wiley.
.-Pankratz, A. (1991). Forecasting with Dynamic Regression Models. Wiley.
.- Peña, D. (1989). Estadística: Modelos y Métodos, 2 (Modelos Lineales y Series
Temporales). [2ª Edición].Alianza Universidad Textos.
.- Peña, D ., Tiao, G. C. y Tsay, R. S. (eds.) (2001). A Course in Time Series Analysis.
Wiley.
.- Peña, D. (2005). Análisis de Series Temporales). Alianza Universidad Textos
.-Shumway, R. H. y Stoffer, D. S. (2000). Time Series Analysis and its Applications.
Springer.
.-Taylor, S.J. (1986): Modelling Financial Time Series, John Wiley, Chichester, U.K..
.- Uriel, E. (1984). Seri es Temporales. Modelos ARIMA. Paraninfo.
.-Wei, W. W. S. (1990). Time Series Analysis: Univariate and Multivariate Methods.
Addison-Wesley.
79