Está en la página 1de 28

Universidad de Santiago de Chile

Facultad de Ciencia
Departamento de Matemática y Ciencia de la Computación
Ingenierı́a Estadı́stica

Tarea 1
Series Cronológicas

Integrantes:
Mélida Garcı́a
Bárbara Martı́nez
Isidora Rusnighi.

Profesor:
Felipe Elorrieta.

26 de Junio, 2023.
Índice general

1. Pregunta a 3

2. Pregunta b 6

3. Pregunta c 7

4. Pregunta d 9

5. Pregunta e 11

6. Pregunta f 22

7. Pregunta g 23

8. Anexo 25
8.1. Código en R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2
Pregunta a

Realice un gráfico de serie temporal. ¿Es este un proceso estacionario? Justifique su respuesta.

Desarrollo

A continuación se presenta un estudio sobre una serie temporal que contiene datos de las mediciones anua-
les entre los años 1875-1972 del nivel del agua, del Lago Huron (en pies).

Primero determinamos si la serie en estudio, es estacionaria o no, para aquello debe cumplir con tres pro-
piedades:

1. La media de la serie debe ser invariante en el tiempo (constante).

2. La varianza de la serie debe ser invariante en el tiempo (constante).

3. La covarianza del t-ésimo término y el (t + k)-ésimo término debe ser invariante en el tiempo.

Usando el comando ts.plot para gráficar el comportamiento temporal de la serie, obtenemos lo siguiente.

Figura 1.1: Gráfica del comportamiento de la serie temporal

De la gráfica podemos apreciar que, la serie presenta ciclos a lo largo del tiempo, pero con amplitudes de
distinto tamaño, varı́ando según la tendencia, en este caso, con tendencia decreciente, no cumpliendo con la
propiedad 3.

Para el cumplimiento de la primera y segunda propiedad, se deberı́a observar en la serie un comportamien-


to constante, pero al contrario, se aprecia que la media y la varianza se ven afectadas según la tendencia.

Por lo que observando el comportamiento de la serie en el tiempo, podemos inferir que estamos en presen-
cia de una serie no estacionaria.

Además apoyándonos en el gráfico de Autocorrelación tenemos:

3
Figura 1.2: Gráfico de la Función de Autocorrelación

Sabemos que el gráfico de Autocorrelación (ACF) muestra la correlación entre una observación y sus re-
trasos anteriores en la serie temporal. Por lo que de la figura 1.2, podemos visualizar que la autocorrelación no
disminuye rápidamente hacia cero a medida que aumenta el rezago, lo que puede ser un indicativo de una serie
no estacionaria.

Tras el estudio de la estacionaridad mediante dos gráficas, observamos que la serie no serı́a estacionaria, para
una mayor seguridad realizamos como prueba estadı́stica, el Test de Dickey & Fuller Ampliado, el cual es una
forma para determinar si la serie de tiempo tiene una raı́z unitaria, la serie no es estacionaria .

La prueba de Dickey-Fuller aumentada, realiza un modelo de regresión en el que la variable dependiente es


la diferencia entre las observaciones sucesivas de la serie de tiempo y la variable independiente es la observación
rezagada (lag) de la serie de tiempo.
i=m
X
△xt = β0 + β1 t + δxt−1 + αi △xt−i + wt
i=1

El contraste de hipótesis es el siguiente:

H0 : δ = 0 =⇒ La serie de tiempo (xt ) tiene una raı́z unitaria, lo que indica que no es estacionaria.

vs

H1 : δ ̸= 0 =⇒ La serie de tiempo (xt ) no tiene una raı́z unitaria, lo que indica que es estacionaria.

4
Estadı́stico Lag - order P-valor Decisión
Dickey & Fuller Ampliado -0.86288 20 0.9531 No se duda de H0

Tabla 1.1: Test de Dickey & Fuller Ampliado

De la tabla 1.1, podemos observar que el p-valor es mayor a 0.05, por lo que no se encontró evidencia significativa
para dudar de la hipótesis nula, esto quiere decir que, existe una raı́z unitaria, esto implica que con un 5 % de
significancia, la serie crónologica no es estacionaria.

5
Pregunta b

Calcule la función de autocorrelación y autocorrelación parcial. Interprete los resultados. Para los cálculos
siguientes considere la serie original sin media (esto es, reste el promedio de los datos a su serie).

Desarrollo

Nuestra función de autocorrelación se encuentra en la figura 1.2 Y nuestra función de autocorrelación par-
cial, se presenta a continuación:

Figura 2.1: Gráfico de la Función de Autocorrelación Parcial

Teniendo ambas gráficas, se puede concluir que en la gráfica de ACF hay decaimiento, pero no disminuye
rapidamente, y en la gráfica de PACF, podemos observar que dos lags son los que sobresalen de la banda de
confianza, lo que corresponde a un AR(2).

6
Pregunta c

Usando la función ar.yw() de R, estime los estimadores de Yule-Walker para ordenes de 1 a 7.


Desarrollo

La función ar.yw() en R, se utiliza para estimar los coeficientes autorregresivos de un modelo Ar(p) bajo
el método de Yule-Walter, el cual los estima ajustando una ecuación de Yule-Walter a través de la autocorrela-
ción de una serie temporal.

A continuación se presentan los estimadores de Yule-Walker para los diferentes ordenes.

Coeficientes
AR1
0.8319
σˆ2 0.5407 AIC 217.4017

Tabla 3.1: Estimación del coeficiente de un AR(1) a través de la función Yule-Walter

Coeficientes
AR1 AR2
1.0538 -0.2668
σˆ2 0.5075 AIC 213.5709

Tabla 3.2: Estimación del coeficiente de un AR(2) a través de la función Yule-Walter

Coeficientes
AR1 AR2 AR3
1.0887 -0.4045 0.1308
σˆ2 0.5042 AIC 214.5522

Tabla 3.3: Estimación del coeficiente de un AR(3) a través de la función Yule-Walter

Coeficientes
AR1 AR2 AR3 AR4
1.0843 -0.3908 0.0937 0.0341
σˆ2 0.509 AIC 216.4686

Tabla 3.4: Estimación del coeficiente de un AR(4) a través de la función Yule-Walter

Coeficientes
AR1 AR2 AR3 AR4 AR5
1.0821 -0.3966 0.1179 -0.0333 0.0621
σˆ2 0.5125 AIC 218.7838

Tabla 3.5: Estimación del coeficiente de un AR(5) a través de la función Yule-Walter

7
Coeficientes
AR1 AR2 AR3 AR4 AR5 AR6
1.0834 -0.3973 0.1204 -0.0416 0.0850 -0.0211
σˆ2 0.5179 AIC 221.1704

Tabla 3.6: Estimación del coeficiente de un AR(6) a través de la función Yule-Walter

Coeficientes
AR1 AR2 AR3 AR4 AR5 AR6 AR7
1.0854 -0.4051 0.1243 -0.0527 0.1215 -0.1208 0.0920
σˆ2 0.5193 AIC 223.0038

Tabla 3.7: Estimación del coeficiente de un AR(7) a través de la función Yule-Walter

Tras haber realizado las estimaciones de los coeficientes, a los modelos autorregresivos entre las siete ordenes,
bajo el criterio del menor AIC (Criterio de Akaike), postulamos al modelo AR(2) como el modelo autorregresivo
más adecuado, con un valor de 213.5709 en su AIC.

8
Pregunta d

Usando la función arima() para estimar el modelo AR(p) (p = 1, 2, ..., 7) y compare con los estimadores
de Yule-Walker.

Desarrollo

La función arima() permite especificar los órdenes de los componentes AR, I y MA del modelo ARIMA.

Coeficientes
AR1 Intercepto
0.8375 0.1112
s.e 0.0538 0.4240
σˆ2 0.5093 Test Verosimilitud -106.6 AIC 219.2

Tabla 4.1: Estimación del coeficiente de un AR(1) a través de la función arima

Coeficientes
AR1 AR2 Intercepto
1.0436 -0.2495 0.0432
s.e 0.0983 0.1008 0.3319
σˆ2 0.4788 Test Verosimilitud -103.63 AIC 215.27

Tabla 4.2: Estimación del coeficiente de un AR(2) a través de la función arima

Coeficientes
AR1 AR2 AR3 Intercepto
1.0727 -0.3703 0.1150 0.0630
s.e 0.1012 0.1477 0.1034 0.3689
σˆ2 0.4727 Test Verosimilitud -103.02 AIC 216.04

Tabla 4.3: Estimación del coeficiente de un AR(3) a través de la función arima

Coeficientes
AR1 AR2 AR3 AR4 Intercepto
1.0642 -0.3429 0.0416 0.0672 0.0812
s.e 0.1018 0.1533 0.1537 0.1043 0.3941
σˆ2 0.4706 Test Verosimilitud -102.81 AIC 217.62

Tabla 4.4: Estimación del coeficiente de un AR(4) a través de la función arima

9
Coeficientes
AR1 AR2 AR3 AR4 AR5 AR6 Intercepto
1.0624 -0.3454 0.0512 0.0432 0.0139 0.0109 0.0880
s.e 0.1020 0.1538 0.1615 0.1661 0.1618 0.1073 0.4077
σˆ2 0.4702 Test Verosimilitud -102.78 AIC 221.55

Tabla 4.6: Estimación del coeficiente de un AR(6) a través de la función arima

Coeficientes
AR1 AR2 AR3 AR4 AR5 Intercepto
1.0629 -0.3459 0.0530 0.038 0.0262 0.0854
s.e 0.1019 0.1538 0.1606 0.158 0.1065 0.4030
σˆ2 0.4703 Test Verosimilitud -102.78 AIC 219.56

Tabla 4.5: Estimación del coeficiente de un AR(5) a través de la función arima

Coeficientes
AR1 AR2 AR3 AR4 AR5 AR6 AR7 Intercepto
1.0618 -0.3508 0.0576 0.0257 0.0542 -0.0776 0.0774 0.1020
s.e 0.1018 0.1536 0.1616 0.1677 0.1708 0.1632 0.1078 0.4349
σˆ2 0.4676 Test Verosimilitud -102.52 AIC 223.04

Tabla 4.7: Estimación del coeficiente de un AR(7) a través de la función arima

Para seleccionar el modelo autorregresivo óptimo entre siete órdenes, emplearemos el criterio de información
de Akaike (AIC). Al analizar los resultados, encontramos que el modelo AR(2) presenta el valor más bajo de
AIC, con una medida de 215.27. En consecuencia, consideraremos al AR(2) como el modelo autorregresivo más
adecuado.
Al comparar estos resultados con las estimaciones obtenidas mediante el método Yule-Walker, en la pregunta
anterior, observamos que presentan valores similares, pero los modelos AR identificados a través de AIC poseen
menores números. Asimismo, en ambas estimaciones se determina que el modelo AR óptimo es de orden 2. Sin
embargo, en el enfoque de Yule-Walker, se destaca una estimación superior debido a su menor valor de AIC.

10
Pregunta e

Use la función arima() para ajustar un modelo ARMA(p,q) con (0 ≤ p ≤ 3; 0 ≤ q ≤ 3) y compare los
modelos. ¿Con cuál modelo se quedarı́a ud? Realice los test de blancura para cada modelo.

Desarrollo

En esta sección se trabajará con la misma función arima(), utilizada en la pregunta anterior.

A continuación se presentan las estimaciones para los diferentes modelos:

Coeficientes
MA1 Intercepto
0.8302 -0.0059
s.e 0.0633 0.1580
σˆ2 0.7364 Test Verosimilitud -124.65 AIC 255.3

Tabla 5.1: Estimación del coeficiente de un MA(1) a través de la función arima

Coeficientes
MA1 MA2 Intercepto
1.0174 0.5008 0.0090
s.e 0.0866 0.0758 0.1893
σˆ2 0.5626 Test Verosimilitud -111.47 AIC 230.93

Tabla 5.2: Estimación del coeficiente de un MA(2) a través de la función arima

Coeficientes
MA1 MA2 MA3 Intercepto
1.0872 0.7444 0.3671 0.0046
s.e 0.0958 0.1160 0.1083 0.2266
σˆ2 0.5029 Test Verosimilitud -106.06 AIC 222.13

Tabla 5.3: Estimación del coeficiente de un MA(3) a través de la función arima

Coeficientes
AR1 Intercepto
0.8375 0.1112
s.e 0.0538 0.4240
σˆ2 0.5093 Test Verosimilitud -106.6 AIC 219.2

Tabla 5.4: Estimación del coeficiente de un AR(1) a través de la función arima

11
Coeficientes
AR1 MA1 Intercepto
0.7449 0.3206 0.0514
s.e 0.0777 0.1135 0.3501
σˆ2 0.4749 Test Verosimilitud -103.25 AIC 214.49

Tabla 5.5: Estimación del coeficiente de un ARMA(1,1) a través de la función arima

Coeficientes
AR1 MA1 MA2 Intercepto
0.7304 0.3407 0.0237 0.0480
s.e 0.1210 0.1684 0.1684 0.3441
σˆ2 0.4748 Test Verosimilitud -103.23 AIC 216.46

Tabla 5.6: Estimación del coeficiente de un ARMA(1,2) a través de la función arima

Coeficientes
AR1 MA2 MA3 MA4 Intercepto
0.8338 0.2197 -0.1061 -0.1281 0.0844
s.e 0.1368 0.1885 0.2049 0.1568 0.4001
σˆ2 0.4719 Test Verosimilitud -102.94 AIC 217.89

Tabla 5.7: Estimación del coeficiente de un ARMA(1,3) a través de la función arima

Coeficientes
AR1 AR2 Intercepto
1.0436 -0.2495 0.0432
s.e 0.0983 0.1008 0.3319
σˆ2 0.4788 Test Verosimilitud -103.63 AIC 215.27

Tabla 5.8: Estimación del coeficiente de un AR(2) a través de la función arima

Coeficientes
AR1 AR2 MA1 Intercepto
0.7829 -0.0342 0.2857 0.0492
s.e 0.3262 0.2845 0.3144 0.3467
σˆ2 0.4749 Test Verosimilitud -103.24 AIC 216.48

Tabla 5.9: Estimación del coeficiente de un ARMA(2,1) a través de la función arima

Coeficientes
AR1 AR2 MA1 MA2 Intercepto
0.4027 0.2390 0.6696 0.1460 0.0488
s.e 1.1591 0.8715 1.1535 0.3892 0.3433
σˆ2 0.4745 Test Verosimilitud -103.21 AIC 218.41

Tabla 5.10: Estimación del coeficiente de un ARMA(2,2) a través de la función arima

12
Coeficientes
AR1 AR2 AR3 MA1 MA2 MA3 Intercepto
0.6463 0.8806 -0.5724 0.4299 -0.8411 -0.2710 0.1047
s.e 0.3274 0.1250 0.2434 0.3309 0.3492 0.1356 0.4631
σˆ2 0.4618 Test Verosimilitud -102.6 AIC 221.19

Tabla 5.15: Estimación del coeficiente de un ARMA(3,3) a través de la función arima

Coeficientes
AR1 AR2 MA1 MA2 MA3 Intercepto
1.2813 -0.3462 -0.2233 -0.2311 -0.1184 0.1038
s.e 0.5992 0.4855 0.5980 0.1898 0.1448 0.4396
σˆ2 0.47 Test Verosimilitud -102.76 AIC 219.52

Tabla 5.11: Estimación del coeficiente de un ARMA(2,3) a través de la función arima

Coeficientes
AR1 AR2 AR3 Intercepto
1.0727 -0.3703 0.1150 0.0630
s.e 0.1012 0.1477 0.1034 0.3689
σˆ2 0.4727 Test Verosimilitud -103.02 AIC 216.04

Tabla 5.12: Estimación del coeficiente de un AR(3) a través de la función arima

Coeficientes
AR1 AR2 AR3 MA1 Intercepto
0.0918 0.7048 -0.1964 1.00 0.0385
s.e 0.1026 0.0903 0.1094 0.1416 0.3358
Est. σˆ2 0.4636 Test Verosimilitud -102.9 AIC 217.8

Tabla 5.13: Estimación del coeficiente de un ARMA(3,1) a través de la función arima

Coeficientes
AR1 AR2 AR3 MA1 MA2 Intercepto
1.1140 -0.6679 0.3366 -0.0531 0.2863 0.0746
s.e 0.8691 0.6001 0.7076 0.8106 1.1878 0.3812
σˆ2 0.4709 Test Verosimilitud -102.85 AIC 219.7

Tabla 5.14: Estimación del coeficiente de un ARMA(3,2) a través de la función arima

Test de Blancura

Para realizar el test de blancura, en los diferentes modelos, los residuos deben distribuir Ruido Blanco, es
decir que deben cumplir con lo siguiente:
E(Yt ) =constante
V ar(Yt ) = σ 2

13
Cov(Yt , Yt+k ) = γ(k) = 0, ∀t ∈ T, t ̸= k

En base a esto, se verifica los siguientes supuestos:

Los errores distribuyen normal.

Los errores deben ser no correlacionados.

Los errores deben ser homocedásticos.

Es importante aclarar, previo a verificar los supuestos, que nuestro criterio de decisión de los test es el siguiente:

Si p − valor ≤ α = 0,05 =⇒ Existe evidencia para dudar de H0

Si p − valor > α = 0,05 =⇒ N o existe evidencia para dudar de H0

Normalidad: Se utiliza el test de Lilliefors(Kolmogorov-Smirnov), donde se plantea la siguiente hipótesis:

H0 : Los errores siguen una distribución normal v/s H1 : Los errores no siguen una distribución normal

Normalidad de los errores


Modelo P-valor Decisión
MA(1) 0.6431 No se duda de H0
MA(2) 0.7832 No se duda de H0
MA(3) 0.9854 No se duda de H0
AR(1) 0.7141 No se duda de H0
ARMA(1,1) 0.9909 No se duda de H0
ARMA(1,2) 0.9949 No se duda de H0
ARMA(1,3) 0.9239 No se duda de H0
AR(2) 0.9788 No se duda de H0
ARMA(2,1) 0.9932 No se duda de H0
ARMA(2,2) 0.9954 No se duda de H0
ARMA(1,3) 0.9909 No se duda de H0
AR(3) 0.9872 No se duda de H0
ARMA(3,1) 0.7153 No se duda de H0
ARMA(3,2) 0.9361 No se duda de H0
ARMA(3,3) 0.6315 No se duda de H0

Tabla 5.16: Normalidad de los errores

Con una significancia del 5 %, no se ha detectado evidencia suficiente para dudar de la hipótesis nula, es
decir, los errores siguen una distribución normal en todos los modelos.

Homocedasticidad: Lo primero que realizamos para verificar la homocedasticidad en los errores, es pre-
sentar una gráfico de los residuos de cada modelo.

14
Figura 5.1: Gráfica de Homocedasticidad en el Modelo 1

Figura 5.2: Gráfica de Homocedasticidad en el Modelo 2

Figura 5.3: Gráfica de Homocedasticidad en el Modelo 3

15
Figura 5.4: Gráfica de Homocedasticidad en el Modelo 4

Figura 5.5: Gráfica de Homocedasticidad en el Modelo 5

Figura 5.6: Gráfica de Homocedasticidad en el Modelo 6

16
Figura 5.7: Gráfica de Homocedasticidad en el Modelo 7

Figura 5.8: Gráfica de Homocedasticidad en el Modelo 8

Figura 5.9: Gráfica de Homocedasticidad en el Modelo 9

17
Figura 5.10: Gráfica de Homocedasticidad en el Modelo 10

Figura 5.11: Gráfica de Homocedasticidad en el Modelo 11

Figura 5.12: Gráfica de Homocedasticidad en el Modelo 12

18
Figura 5.13: Gráfica de Homocedasticidad en el Modelo 13

Figura 5.14: Gráfica de Homocedasticidad en el Modelo 14

Figura 5.15: Gráfica de Homocedasticidad en el Modelo 15

19
A continuación se representa la tabla resumen correspondiente al Test de Breush-Pagan, en el cual
evaluaremos si los residuos dependen del tiempo, para lo cuál se realiza un modelo con los residuos y el
tiempo, donde se asume que la heterocedasticidad es una función lineal de las variables independientes.

σi2 = β0 + β1 x1i + ... + βk xik

El cual tiene el siguiente contraste de hipótesis:

H0 : β1 = ... = βk = 0 =⇒ Los errores son homocedásticos

v/s

H1 : H1 : ∃i = 1, ..., k : βi ̸= 0 =⇒ Los errores no son homocedásticos

Homocedasticidad de los errores


Modelo P-valor Decisión
MA(1) 0.09213 No se duda de H0
MA(2) 0.03073 Se duda de H0
MA(3) 0.18 No se duda de H0
AR(1) 0.1037 No se duda de H0
ARMA(1,1) 0.1364 No se duda de H0
ARMA(1,2) 0.1348 No se duda de H0
ARMA(1,3) 0.1072 No se duda de H0
AR(2) 0.132 No se duda de H0
ARMA(2,1) 0.1357 No se duda de H0
ARMA(2,2) 0.1297 No se duda de H0
ARMA(1,3) 0.1166 No se duda de H0
AR(3) 0.1285 No se duda de H0
ARMA(3,1) 0.2284 No se duda de H0
ARMA(3,2) 0.1174 No se duda de H0
ARMA(3,3) 0.2132 No se duda de H0

Tabla 5.17: Homocedasticidad de los errores

Dada la tabla anterior, podemos observar que con un nivel de significancia del 5 %, el único modelo que
no cumple con el supuesto de homocedasticidad de los errores es el modelo 2 ; MA(2), en todos los demás,
no se detectó evidencia para dudar del supuesto de homocedasticidad en los modelos, lo que quiere decir
que los β ′ s son significativamente iguales a 0, lo cual trae como consecuencia que la varianza es constante.
No autocorrelación: Para estudiar este supuesto se utiliza el test de Ljung-Box, cuya hipótesis es la si-
guiente:

Aclaratoria: Se trabaja bajo el test de Ljung-Box, ya que se considera que la muestra de datos es
pequeña.

H0 : ρ(1) = ρ(2) = ... = ρ(L) = 0 v/s H1 : ∃i = 1, ..., L : ρ(i) ̸= 0


Lo que también se podrı́a reescribir como:

H0 : Los errores se distribuyen de f orma independiente

v/s

H1 : Los errores no se distribuyen de f orma independiente

20
No correlación de los errores
Modelo P-valor Decisión
MA(1) 0.0001081 Se duda de H0
MA(2) 0.1184 No se duda de H0
MA(3) 0.6866 No se duda de H0
AR(1) 0.0371 Se duda de H0
ARMA(1,1) 0.9626 No se duda de H0
ARMA(1,2) 0.9965 No se duda de H0
ARMA(1,3) 0.9174 No se duda de H0
AR(2) 0.7608 No se duda de H0
ARMA(2,1) 0.9819 No se duda de H0
ARMA(2,2) 0.9922 No se duda de H0
ARMA(1,3) 0.9646 No se duda de H0
AR(3) 0.9543 No se duda de H0
ARMA(3,1) 0.9142 No se duda de H0
ARMA(3,2) 0.9554 No se duda de H0
ARMA(3,3) 0.913 No se duda de H0

Tabla 5.18: No autocorrelación de los errores

Se puede concluir a un nivel del 5 % de significancia, para los modelos MA(1) y AR(1), que corresponden
a los Arima(0,0,1) y Arima (1,0,0) respectivamente, se detectó evidencia para dudar de H0 , por lo tanto
los errores se encuentran correlacionados.

21
Pregunta f

Determine el mejor modelo para ajustar estos datos entre los que propuso en la pregunta anterior. Para
esto básese en medidas de calidad de ajuste y el test de blancura desarrollado en el item e).

Desarrollo

Como nuestro objetivo es encontrar aquel modelo que mejor ajuste los datos de la serie temporal en estu-
dio, es que cumpla con los supuestos de normalidad, homocedasticidad y la no autocorrelación de los errores,
además de tener la mejor calidad de ajuste.

Se propone el modelo, basado en las respuestas desarrolladas anteriormente, el modelo ARMA(1,1) como el
más adecuado, debido a que posee menor AIC, siendo este de 214.49, y que cumple con todos los supuestos del
test de blancura.

22
Pregunta g

Genere predicciones a 20 años a partir del mejor modelo obtenido. Reporte los intervalos de predicción.
Comente sus resultados.

Desarrollo

Sobre el modelo escogido en el item anterior, se realizarán predicciones de como será el nivel del agua (pies) de
Lago Huron, en 20 años más, esto quiere decir hasta el año 1992.

Primero trabajando con la función predict(), en R, obtenemos la estimación de las predicciones, junto a
su correspondiente intervalo de confianza, para posteriormente visualizarlo de manera gráfica.

Año Predicción Intervalos de Confianza al 95 %


1973 0.7292 [-0.6214 ; 2.0800]
1974 0.5563 [-1.4174 ; 2.5301]
1975 0.4275 [-1.8185 ; 2.6736
1976 0.3315 [-2.0522 ; 2.7154]
1977 0.2600 [-2.1968 ; 2.7170]
1978 0.2068 [-2.2897 ; 2.7034]
1979 0.1671 [-2.3511 ; 2.6854]
1980 0.1376 [-2.3926 ; 2.6679]
1981 0.1156 [-2.4212 ; 2.6525]
1982 0.0992 [-2.4413 ; 2.6398]
1983 0.0870 [-2.4555 ; 2.6296]
1984 0.0779 [-2.4657 ; 2.6216]
1985 0.0711 [-2.4731 ; 2.6155]
1986 0.0661 [-2.4785 ; 2.6108]
1987 0.0623 [-2.4825 ; 2.6072]
1988 0.0595 [-2.4854 ; 2.6045]
1989 0.0574 [-2.4875 ; 2.6025]
1990 0.0559 [-2.4891 ; 2.6009]
1991 0.0547 [-2.4903 ; 2.5998]
1992 0.0538 [-2.4912 ; 2.5990]

Tabla 7.1: Predicciones a 20 años

23
Figura 7.1: Gráfico de Predicciones a 20 años

Al analizar los intervalos de confianza de las veinte predicciones, podemos observar que son amplios, con
respecto a la estimación, esta amplitud indica que las estimaciones son imprecisas, dado que un intervalo de
confianza amplio indica una mayor incertidumbre en las predicciones, lo que implica que los valores reales
podrı́an variar significativamente dentro de esos rangos.

24
Anexo

8.1. Código en R

1 rm ( list = ls () ) # Borrar todo lo que se encuentre cargado en la sesion de R -


Studio .
2 gc () # Garbage Collector : Recolecta la basura que utiliza memoria aun .
3 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
4 # Trabajo Series de Tiempos
5 # Melida G a r c a - Barbara Martinez - Isidora Rusnighi
6 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
7 # 1. L i b r e r a s ----
8 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
9 library ( tseries )
10 library ( itsmr )
11 library ( forecast )
12 library ( lmtest )
13 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
14 # 2. Definiciones ----
15 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
16 require ( datasets )
17 LakeHuron
18 y <- LakeHuron
19 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
20 # 3. Pregunta A ----
21 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
22 ts . plot (y , ylab = " Medicion en pies " , xlab = " A o s " , main = " M e d i c i n anuales
del nivel , en pies , del Lago Huron 1875 -1972 " )
23 abline ( reg = lm ( y ~ time ( y ) ) )
24 x <- acf (y , lag . max =50 , main = " Serie de Medicion del nivel del Lago Huron " )
25 adf . test (y , k =20)
26 ar . yw (y , order =2)
27 arima (y , c (2 ,0 ,0) )
28 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
29 # 4. Pregunta B ----
30 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
31 x <- pacf (y , lag . max = 20)
32 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
33 # 5. Pregunta C ----
34 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
35 serie <-y - mean ( y )
36 modelo1 <- ar . yw ( serie ,F ,1) ; modelo1
37 yw ( serie ,1)
38 modelo2 <- ar . yw ( serie ,F ,2) ; modelo2
39 yw ( serie ,2)
40 modelo3 <- ar . yw ( serie ,F ,3) ; modelo3
41 yw ( serie ,3)
42 modelo4 <- ar . yw ( serie ,F ,4) ; modelo4
43 yw ( serie ,4)
44 modelo5 <- ar . yw ( serie ,F ,5) ; modelo5
45 yw ( serie ,5)
46 modelo6 <- ar . yw ( serie ,F ,6) ; modelo6
47 yw ( serie ,6)

25
48 modelo7 <- ar . yw ( serie ,F ,7) ; modelo7
49 yw ( serie ,7)
50 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
51 # 6. Pregunta D ----
52 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
53 arima ( serie , order = c (1 ,0 ,0) )
54 arima ( serie , order = c (2 ,0 ,0) )
55 arima ( serie , order = c (3 ,0 ,0) )
56 arima ( serie , order = c (4 ,0 ,0) )
57 arima ( serie , order = c (5 ,0 ,0) )
58 arima ( serie , order = c (6 ,0 ,0) )
59 arima ( serie , order = c (7 ,0 ,0) )
60 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
61 # 7. Pregunta E ----
62 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
63 mo1 <- arima ( serie , c (0 , 0 , 1) )
64 mo2 <- arima ( serie , c (0 , 0 , 2) )
65 mo3 <- arima ( serie , c (0 , 0 , 3) )
66 mo4 <- arima ( serie , c (1 , 0 , 0) )
67 mo5 <- arima ( serie , c (1 , 0 , 1) )
68 mo6 <- arima ( serie , c (1 , 0 , 2) )
69 mo7 <- arima ( serie , c (1 , 0 , 3) )
70 mo8 <- arima ( serie , c (2 , 0 , 0) )
71 mo9 <- arima ( serie , c (2 , 0 , 1) )
72 mo10 <- arima ( serie , c (2 , 0 , 2) )
73 mo11 <- arima ( serie , c (2 , 0 , 3) )
74 mo12 <- arima ( serie , c (3 , 0 , 0) )
75 mo13 <- arima ( serie , c (3 , 0 , 1) )
76 mo14 <- arima ( serie , c (3 , 0 , 2) )
77 mo15 <- arima ( serie , c (3 , 0 , 3) )
78 # Normalidad ----
79 lillie . test ( mo1 $ residuals )
80 lillie . test ( mo2 $ residuals )
81 lillie . test ( mo3 $ residuals )
82 lillie . test ( mo4 $ residuals )
83 lillie . test ( mo5 $ residuals )
84 lillie . test ( mo6 $ residuals )
85 lillie . test ( mo7 $ residuals )
86 lillie . test ( mo8 $ residuals )
87 lillie . test ( mo9 $ residuals )
88 lillie . test ( mo10 $ residuals )
89 lillie . test ( mo11 $ residuals )
90 lillie . test ( mo12 $ residuals )
91 lillie . test ( mo13 $ residuals )
92 lillie . test ( mo14 $ residuals )
93 lillie . test ( mo15 $ residuals )
94 # No correlacion ----
95 Box . test ( mo1 $ res , type = " Ljung " )
96 Box . test ( mo2 $ residuals , type = " Ljung " )
97 Box . test ( mo3 $ residuals , type = " Ljung " )
98 Box . test ( mo4 $ residuals , type = " Ljung " )
99 Box . test ( mo5 $ residuals , type = " Ljung " )
100 Box . test ( mo6 $ residuals , type = " Ljung " )
101 Box . test ( mo7 $ residuals , type = " Ljung " )
102 Box . test ( mo8 $ residuals , type = " Ljung " )
103 Box . test ( mo9 $ residuals , type = " Ljung " )
104 Box . test ( mo10 $ residuals , type = " Ljung " )
105 Box . test ( mo11 $ residuals , type = " Ljung " )

26
106 Box . test ( mo12 $ residuals , type = " Ljung " )
107 Box . test ( mo13 $ residuals , type = " Ljung " )
108 Box . test ( mo14 $ residuals , type = " Ljung " )
109 Box . test ( mo15 $ residuals , type = " Ljung " )
110 # Homocedasticidad ----
111 plot ( mo1 $ residuals )
112 abline ( h = 0 , col = " red " , lty = 2)
113 plot ( mo2 $ residuals )
114 abline ( h = 0 , col = " red " , lty = 2)
115 plot ( mo3 $ residuals )
116 abline ( h = 0 , col = " red " , lty = 2)
117 plot ( mo4 $ residuals )
118 abline ( h = 0 , col = " red " , lty = 2)
119 plot ( mo5 $ residuals )
120 abline ( h = 0 , col = " red " , lty = 2)
121 plot ( mo6 $ residuals )
122 abline ( h = 0 , col = " red " , lty = 2)
123 plot ( mo7 $ residuals )
124 abline ( h = 0 , col = " red " , lty = 2)
125 plot ( mo8 $ residuals )
126 abline ( h = 0 , col = " red " , lty = 2)
127 plot ( mo9 $ residuals )
128 abline ( h = 0 , col = " red " , lty = 2)
129 plot ( mo10 $ residuals )
130 abline ( h = 0 , col = " red " , lty = 2)
131 plot ( mo11 $ residuals )
132 abline ( h = 0 , col = " red " , lty = 2)
133 plot ( mo12 $ residuals )
134 abline ( h = 0 , col = " red " , lty = 2)
135 plot ( mo13 $ residuals )
136 abline ( h = 0 , col = " red " , lty = 2)
137 plot ( mo14 $ residuals )
138 abline ( h = 0 , col = " red " , lty = 2)
139 plot ( mo15 $ residuals )
140 abline ( h = 0 , col = " red " , lty = 2)
141 a =1: length ( resid ( mo1 ) )
142 bptest ( resid ( mo1 ) ~ a )
143 a =1: length ( resid ( mo2 ) )
144 bptest ( resid ( mo2 ) ~ a )
145 a =1: length ( resid ( mo3 ) )
146 bptest ( resid ( mo3 ) ~ a )
147 a =1: length ( resid ( mo4 ) )
148 bptest ( resid ( mo4 ) ~ a )
149 a =1: length ( resid ( mo5 ) )
150 bptest ( resid ( mo5 ) ~ a )
151 a =1: length ( resid ( mo6 ) )
152 bptest ( resid ( mo6 ) ~ a )
153 a =1: length ( resid ( mo7 ) )
154 bptest ( resid ( mo7 ) ~ a )
155 a =1: length ( resid ( mo8 ) )
156 bptest ( resid ( mo8 ) ~ a )
157 a =1: length ( resid ( mo9 ) )
158 bptest ( resid ( mo9 ) ~ a )
159 a =1: length ( resid ( mo10 ) )
160 bptest ( resid ( mo10 ) ~ a )
161 a =1: length ( resid ( mo11 ) )
162 bptest ( resid ( mo11 ) ~ a )
163 a =1: length ( resid ( mo12 ) )

27
164 bptest ( resid ( mo12 ) ~ a )
165 a =1: length ( resid ( mo13 ) )
166 bptest ( resid ( mo13 ) ~ a )
167 a =1: length ( resid ( mo14 ) )
168 bptest ( resid ( mo14 ) ~ a )
169 a =1: length ( resid ( mo15 ) )
170 bptest ( resid ( mo15 ) ~ a )
171 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
172 # 8. Pregunta G ----
173 # - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -#
174 intervalo _ confianza <- forecast ( mo5 , h = 20) ; intervalo _ confianza
175 plot ( intervalo _ confianza , main = " Predicciones a 20 a o s utilizando el mejor
modelo " )

28

También podría gustarte