Está en la página 1de 19

INTRODUCCIÓN

Una serie de tiempo es una colección de observaciones realizadas de forma


secuencial a lo largo del tiempo. Una característica muy importante de las series
de tiempo, es que, generalmente, hay dependencia entre observaciones
adyacentes.
El objetivo del análisis de una serie de tiempo es el conocimiento de su patrón de
comportamiento, para así poder prever su evolución en el futuro cercano,
suponiendo que las condiciones no variarán significativamente. Los pronósticos
que se puedan realizar en base al análisis de este tipo de datos, pueden servir
para el desarrollo de nuevos planes para inversiones, previsión en las compras de
materias primas y programas de producción.
El petróleo es una de las materias primas más importantes a nivel mundial, no solo
por su uso extendido en la sociedad, sino también por su influencia en la
economía, puede influir en el PIB de países, cotizaciones de bolsa, etc. Por ello se
realizará la predicción del precio del petróleo, descripción de los métodos
utilizados y la comparación.

OBJETIVO
Analizar el comportamiento del precio (dólares por barril) de la Mezcla Mexicana
de Petróleo con datos históricos mensuales desde enero de 2005 a diciembre de
2016.

SERIE DE TIEMPO
El primer paso para analizar la serie de tiempo es ordenarla cronológicamente y
graficarla, esto permite: identificar la tendencia, la estacionalidad, las variaciones
irregulares (componente aleatoria).
Series

120.

100.

80.

60.

40.

20.

0 20 40 60 80 100 120 140


Podemos observar tendencia creciente y decreciente, es difícil distinguir una
tendencia cíclica puesto que los periodos de crecimiento no son de igual magnitud.
Para analizar la serie no estacionaria debemos tener herramientas para volverlas
estacionarias; esto es a través de transformaciones, a continuación utilizaremos
diferenciaciones a distancia 1.
Series
15.

10.

5.

0.

-5.

-10.

-15.

-20.

-25.

0 20 40 60 80 100 120 140

Podemos observar que a serie ya es estacionaria. Para ajustar algún modelo,


podemos ayudarnos graficando las funciones de autocorrelación (ACF) y
autocorrelación parcial (PACF) muestrales.

Sample ACF Sample P ACF


1.00 1.00

.80 .80

.60 .60

.40 .40

.20 .20

.00 .00

-.20 -.20

-.40 -.40

-.60 -.60

-.80 -.80

-1.00 -1.00
0 5 10 15 20 25 30 35 40 0 5 10 15 20 25 30 35 40

Debemos de tener en cuenta que:


 Si tenemos observaciones x 1 , … , x n de una serie de tiempo, un posible
enfoque para ajustar un modelo es usar la autocorrelación empírica (ACF) y
buscar un modelo que tenga una ACF similar a la observada. En particular
si la ACF muestral es significativamente diferente de 0 para 0 ≤ h ≤ q y es
“pequeña” para h> q, se sugiere que un modelo MA (q) puede ser adecuado
para los datos.
 Para un proceso AR la ACF no se anula y por lo tanto no tenemos la misma
información en este caso. Por esta razón es útil considerar otra función que
nos permita analizar la estructura de dependencia de un proceso AR. Esta
función se conoce como la autocorrelación parcial (PACF).
Utilizando estos criterios, procedemos a ajustar los modelos AR (1) y MA (2)

 AR (1)
1. Con la estimación preliminar ajustamos un modelo AR(1)
=================================
ITSM::(Preliminary estimates)
=================================
Method: Yule-Walker
ARMA Model: X(t) = .5437 X(t-1)+ Z(t)
WN Variance = 22.950638
AR Coefficients
.543679
Ratio of AR coeff. to 1.96 * (standard error)
3.924486
(Residual SS)/N = 22.9506
WN variance estimate (Yule Walker): 22.9706
-2Log(Like) = .842293E+03
AICC = .846380E+03

Prueba:
ϕ 1=.543679 es diferente de 0, debido a que el valor absoluto de la Razón AR igual
a 3.924486 es mayor que 1.
2. Ahora hacemos una estimación de Máxima Verosimilitud
========================================
ITSM::(Maximum likelihood estimates)
========================================
Method: Maximum Likelihood
ARMA Model: X(t) = .5409 X(t-1)+ Z(t)
WN Variance = 22.951086
AR Coefficients
.540928
Standard Error of AR Coefficients
.070264
(Residual SS)/N = 22.9511
AICC = .846378E+03
BIC = .847025E+03
FPE = 23.278959
-2Log(Likelihood) = .842291E+03
Accuracy parameter = .00545000
Number of iterations = 1
Number of function evaluations = 8
Optimization stopped within accuracy level.

Prueba:
ϕ 1=.540928 es diferente de 0, debido a que el valor absoluto del coeficiente AR
.540928
entre su error estándar igual a =7.698508 es mayor que 1.96.
.070264
Para este modelo el AICC=846.378
3. Ahora veremos el comportamiento de los residuales, graficamos las
funciones de autocorrelación (ACF) y autocorrelación parcial (PACF)
residuales.
Res idual ACF Res idual P ACF
1.00 1.00

.80 .80

.60 .60

.40 .40

.20 .20

.00 .00

-.20 -.20

-.40 -.40

-.60 -.60

-.80 -.80

-1.00 -1.00
0 5 10 15 20 25 30 35 40 0 5 10 15 20 25 30 35 40
Podemos observar que es de ruido blanco.
También realizamos la prueba de aleatoriedad de los residuales.
============================================
ITSM::(Tests of randomness on residuals)
============================================
Ljung - Box statistic = 11.359 Chi-Square ( 20 ), p-value = .93638
McLeod - Li statistic = 30.021 Chi-Square ( 21 ), p-value = .09156
# Turning points = 99.000~AN(92.667,sd = 4.9744), p-value = .20295
# Diff sign points = 69.000~AN(70.000,sd = 3.4400), p-value = .77128
Rank test statistic = .44990E+04~AN(.49350E+04,sd = .28051E+03), p-value = .12011
Jarque-Bera test statistic (for normality) = 32.810 Chi-Square (2), p-value = .00000
Order of Min AICC YW Model for Residuals = 0

Como el p-valor de la prueba Jarque-Bera igual a 0 es menor que el nivel de


significancia (0.05), rechazamos la prueba de normalidad. Lo que podemos
rescatar de esta prueba es que el orden del mínimo AICC del modelo YW para
residuales es igual a 0.
Graficamos el histograma de los residuales.
Res caled Res iduals

30.

25.

20.

15.

10.

5.

-3 -2 -1 0 1 2

Podemos ver claramente que los residuales no pertenecen a una distribución


normal debido a que los residuales no tienen la asimetría de una distribución
normal.
 MA (2)
1. Con la estimación preliminar ajustamos un modelo MA(2)
=================================
ITSM::(Preliminary estimates)
=================================
Method: Innovations
(Maximum lag ACVF used is 17.)
ARMA Model:
X(t) = Z(t) + .5483 Z(t-1) + .3022 Z(t-2)
WN Variance = 23.013504
MA Coefficients
.548336 .302185
Ratio of MA coeff. to 1.96 * (standard error)
3.322006 1.605248
(Residual SS)/N = 23.0135
WN variance estimate (Innovations): 21.3079
-2Log(Like) = .842715E+03
AICC = .848890E+03

Prueba:
θ1=.548336 es diferente de 0, debido a que el valor absoluto de la Razón MA igual
a 3.322006 es mayor que 1.
θ2=.302185 es diferente de 0, debido a que el valor absoluto de la Razón MA igual
a 1.605248 es mayor que 1.
2. Ahora hacemos una estimación de Máxima Verosimilitud
========================================
ITSM::(Maximum likelihood estimates)
========================================
Method: Maximum Likelihood
ARMA Model: X(t) = Z(t) + .5374 Z(t-1) + .2634 Z(t-2)
WN Variance = 22.980648
MA Coefficients
.537353 .263447
Standard Error of MA Coefficients
.079231 .078641
(Residual SS)/N = 22.9806
AICC = .848645E+03
BIC = .850884E+03
-2Log(Likelihood) = .842470E+03
Accuracy parameter = .00426000
Number of iterations = 3
Number of function evaluations = 19
Optimization stopped within accuracy level.

Prueba:
ϕ 1=.537353 es diferente de 0, debido a que el valor absoluto del coeficiente MA
.537353
entre su error estándar igual a =6.782105 es mayor que 1.96.
.079231
ϕ 2=.263447 es diferente de 0, debido a que el valor absoluto del coeficiente MA
.263447
entre su error estándar igual a =3.349996 es mayor que 1.96.
.078641
Para este modelo el AICC=848.645
3. Ahora veremos el comportamiento de los residuales, graficamos las
funciones de autocorrelación (ACF) y autocorrelación parcial (PACF)
residuales.
Res idual ACF Res idual P ACF
1.00 1.00

.80 .80

.60 .60

.40 .40

.20 .20

.00 .00

-.20 -.20

-.40 -.40

-.60 -.60

-.80 -.80

-1.00 -1.00
0 5 10 15 20 25 30 35 40 0 5 10 15 20 25 30 35 40

Podemos observar que es de ruido blanco.


También realizamos la prueba de aleatoriedad de los residuales.
============================================
ITSM::(Tests of randomness on residuals)
============================================
Ljung - Box statistic = 13.963 Chi-Square ( 20 ), p-value = .83238
McLeod - Li statistic = 35.396 Chi-Square ( 22 ), p-value = .03520
# Turning points = 99.000~AN(92.667,sd = 4.9744), p-value = .20295
# Diff sign points = 71.000~AN(70.000,sd = 3.4400), p-value = .77128
Rank test statistic = .44580E+04~AN(.49350E+04,sd = .28051E+03), p-value = .08904
Jarque-Bera test statistic (for normality) = 29.177 Chi-Square (2), p-value = .00000
Order of Min AICC YW Model for Residuals = 0

Como el p-valor de la prueba Jarque-Bera igual a 0 es menor que el nivel de


significancia (0.05), rechazamos la prueba de normalidad. Lo que podemos
rescatar de esta prueba es que el orden del mínimo AICC del modelo YW para
residuales es igual a 0.

Graficamos el histograma de los residuales.


Res caled Res iduals

30.

25.

20.

15.

10.

5.

-3 -2 -1 0 1 2

Podemos ver claramente que los residuales no pertenecen a una distribución


normal debido a que los residuales no tienen la asimetría de una distribución
normal.

Si utilizamos la función autoajustar, el mejor modelo es:


 ARMA (2,1)
1. Ajustamos un modelo ARMA(2,1)
========================================
ITSM::(Maximum likelihood estimates)
========================================
Method: Maximum Likelihood
ARMA Model: X(t) = 1.394 X(t-1) - .5328 X(t-2) + Z(t) - .8237 Z(t-1)
WN Variance = 22.240742
AR Coefficients
1.394341 -.532764
Standard Error of AR Coefficients
.122396 .078699
MA Coefficients
-.823720
Standard Error of MA Coefficients
.124375
(Residual SS)/N = 22.2407
AICC = .846276E+03
BIC = .849741E+03
-2Log(Likelihood) = .837982E+03
Accuracy parameter = .100000E-08
Number of iterations = 1
Number of function evaluations = 76974
Uncertain minimum.

Prueba:
ϕ 1=1.394341 es diferente de 0, debido a que el valor absoluto del coeficiente AR
1.394341
entre su error estándar igual a =11.392047 es mayor que 1.96.
.122396
ϕ 2=−.532764 es diferente de 0, debido a que el valor absoluto del coeficiente AR
.532764
entre su error estándar igual a =6.769641 es mayor que 1.96.
.078699
θ1=−.823720 es diferente de 0, debido a que el valor absoluto del coeficiente MA
.823720
entre su error estándar igual a =6.622874 es mayor que 1.96.
.124375
Para este modelo el AICC=846.276
2. Ahora veremos el comportamiento de los residuales, graficamos las
funciones de autocorrelación (ACF) y autocorrelación parcial (PACF)
residuales.
Res idual ACF Res idual P ACF
1.00 1.00

.80 .80

.60 .60

.40 .40

.20 .20

.00 .00

-.20 -.20

-.40 -.40

-.60 -.60

-.80 -.80

-1.00 -1.00
0 5 10 15 20 25 30 35 40 0 5 10 15 20 25 30 35 40

Podemos observar que es de ruido blanco.


También realizamos la prueba de aleatoriedad de los residuales.
============================================
ITSM::(Tests of randomness on residuals)
============================================
Ljung - Box statistic = 8.9766 Chi-Square ( 20 ), p-value = .98318
McLeod - Li statistic = 24.755 Chi-Square ( 23 ), p-value = .36305
# Turning points = 99.000~AN(92.667,sd = 4.9744), p-value = .20295
# Diff sign points = 70.000~AN(70.000,sd = 3.4400), p-value = 1.00000
Rank test statistic = .42940E+04~AN(.49350E+04,sd = .28051E+03), p-value = .02231
Jarque-Bera test statistic (for normality) = 21.798 Chi-Square (2), p-value = .00002
Order of Min AICC YW Model for Residuals = 0

Como el p-valor de la prueba Jarque-Bera igual a 0.00002 es menor que el nivel


de significancia (0.05), rechazamos la prueba de normalidad. Lo que podemos
rescatar de esta prueba es que el orden del mínimo AICC del modelo YW para
residuales es igual a 0.

Graficamos el histograma de los residuales.


Res caled Res iduals

25.

20.

15.

10.

5.

-3 -2 -1 0 1 2

Podemos ver claramente que los residuales no pertenecen a una distribución


normal debido a que los residuales no tienen la asimetría de una distribución
normal.
En base al criterio AICC, es seleccionado el modelo con m factores tal que
AICC(m) alcance el valor mínimo de entre los modelos candidatos. Seleccionamos
el modelo ARMA(2,1).

PREDICCIÓN
 AR(1)
120.

100.

80.

60.

40.

20.

0.

-20.

-40.
0 20 40 60 80 100 120 140

Podemos observar que a medida que pasa el tiempo los intervalos crecen. No es
una buena predicción.
====================
ITSM::(ARMA Forecast)
====================
Approximate 95 Percent
Prediction Bounds
Step Prediction sqrt(MSE) Lower Upper
1 36.95542 4.79073 27.56577 46.34508
2 36.30339 8.80043 19.05487 53.55191
3 35.97188 12.43404 11.60161 60.34216
4 35.81376 15.67352 5.09422 66.53330
5 35.74942 18.56635 -.63996 72.13880
6 35.73581 21.17132 -5.75922 77.23084
7 35.74965 23.54139 -10.39063 81.88992
8 35.77832 25.71983 -14.63163 86.18827
9 35.81503 27.74079 -18.55592 90.18599
10 35.85609 29.63087 -22.21936 93.93153
11 35.89949 31.41082 -25.66459 97.46357
12 35.94416 33.09693 -28.92463 .10081E+03

 MA(2)

120.

100.

80.

60.

40.

20.

0.

-20.

0 20 40 60 80 100 120 140

Lo mismo sucede con este modelo. Tampoco es una buena predicción.


====================
ITSM::(ARMA Forecast)
====================
Approximate 95 Percent
Prediction Bounds
Step Prediction sqrt(MSE) Lower Upper
1 36.95890 4.79381 27.56319 46.35460
2 36.01990 8.79172 18.78845 53.25135
3 36.06607 12.32144 11.91650 60.21564
4 36.11224 15.04464 6.62528 65.59920
5 36.15841 17.34545 2.16195 70.15487
6 36.20458 19.37494 -1.76960 74.17876
7 36.25075 21.21112 -5.32228 77.82378
8 36.29692 22.90055 -8.58733 81.18117
9 36.34309 24.47363 -11.62434 84.31053
10 36.38926 25.95153 -14.47481 87.25333
11 36.43543 27.34969 -17.16897 90.03984
12 36.48160 28.67977 -19.72971 92.69291

 ARMA(2,1)

120.

100.

80.

60.

40.

20.

0.

-20.

0 20 40 60 80 100 120 140

Vemos que este modelo también nos muestra intervalos crecientes.


====================
ITSM::(ARMA Forecast)
====================
Approximate 95 Percent
Prediction Bounds
Step Prediction sqrt(MSE) Lower Upper
1 36.69203 4.71601 27.44882 45.93524
2 35.84247 8.78096 18.63209 53.05284
3 35.46766 12.32365 11.31376 59.62157
4 35.40407 15.22584 5.56197 65.24618
5 35.52148 17.53238 1.15864 69.88431
6 35.72545 19.35002 -2.19989 73.65078
7 35.95369 20.79517 -4.80408 76.71147
8 36.16967 21.97048 -6.89168 79.23102
9 36.35560 22.95737 -8.64002 81.35123
10 36.50619 23.81641 -10.17312 83.18550
11 36.62348 24.59072 -11.57344 84.82041
12 36.71320 25.30993 -12.89336 86.31976

Para probar que modelo ajusta mejor, vamos a comparar los intervalos de
confianza de las predicciones, de modo que el mejor modelo será el que tenga los
intervalos de confianza más pequeños.
AR(1) MA(2)
Prediction Lower Upper Diferencia Prediction Lower Upper Diferencia
36.95542 27.56577 46.34508 18.77931 36.9589 27.56319 46.3546 18.79141
36.30339 19.05487 53.55191 34.49704 36.0199 18.78845 53.25135 34.4629
35.97188 11.60161 60.34216 48.74055 36.06607 11.9165 60.21564 48.29914
35.81376 5.09422 66.5333 61.43908 36.11224 6.62528 65.5992 58.97392
35.74942 -0.63996 72.1388 72.77876 36.15841 2.16195 70.15487 67.99292
35.73581 -5.75922 77.23084 82.99006 36.20458 -1.7696 74.17876 75.94836
35.74965 -10.39063 81.88992 92.28055 36.25075 -5.32228 77.82378 83.14606
35.77832 -14.63163 86.18827 100.8199 36.29692 -8.58733 81.18117 89.7685
35.81503 -18.55592 90.18599 108.74191 36.34309 -11.62434 84.31053 95.93487
35.85609 -22.21936 93.93153 116.15089 36.38926 -14.47481 87.25333 101.72814
35.89949 -25.66459 97.46357 123.12816 36.43543 -17.16897 90.03984 107.20881
35.94416 -28.92463 1.01E+02 129.73463 36.4816 -19.72971 92.69291 112.42262

ARMA(2,1)
Prediction Lower Upper Diferencia
36.69203 27.44882 45.93524 18.48642
35.84247 18.63209 53.05284 34.42075
35.46766 11.31376 59.62157 48.30781
35.40407 5.56197 65.24618 59.68421
35.52148 1.15864 69.88431 68.72567
35.72545 -2.19989 73.65078 75.85067
35.95369 -4.80408 76.71147 81.51555
36.16967 -6.89168 79.23102 86.1227
36.3556 -8.64002 81.35123 89.99125
36.50619 -10.17312 83.1855 93.35862
36.62348 -11.57344 84.82041 96.39385
36.7132 -12.89336 86.31976 99.21312

De nuevo vemos que el modelo ARMA(2,1) tiene intervalos más angostos y por lo
tanto es mejor.

CONCLUSIÓN
El modelo ARMA(2,1) es el modelo que mejor ajusta a esta serie, pero por
simplicidad podríamos usar un modelo AR(1), ya que el AICC de este modelo no
difiere mucho del AICC del modelo ARMA(2,1).
Por otra parte, los datos considerados para pronosticar un precio futuro tienen
mucho que ver con los resultados obtenidos; debido a que, cuando se toman
demasiados datos históricos, la curva que describe el comportamiento de esos
datos y pronostica un comportamiento futuro, tiene que ajustarse a todos los datos
considerados, por lo que el pronóstico será más alejado de la realidad en
comportamientos como el precio del petróleo; por otro lado, cuando se consideran
menos datos históricos, la curva que describe este comportamiento y calcula un
dato futuro, es más cercana a la realidad.

REFERENCIAS
Caballero Díaz Francisco Félix. (2011). Selección de modelos mediante criterios
de información en análisis factorial. Aspectos teóricos y computacionales. (Tesis
doctoral). Universidad de Granada. Granada.
http://www.cimat.mx/~jortega/MaterialDidactico/ST2013/STClase4-5.pdf
http://www.sgm.gob.mx/Web/SINEM/energeticos/wti_brent_mme.html#mensual
https://es.wikipedia.org/wiki/Test_de_Jarque-Bera

También podría gustarte