Está en la página 1de 160

Universidad Peruana de Ciencias Aplicadas

Macroeconometría

Tema: Modelos para Series de Tiempo Estacionarias


Profesor: Fernando Jáuregui Puertas

Agosto 2015
Bibliografía del Tema:

• Texto Principal: Hamilton, Time


Series Analysis (1994)

• Recomendado: Greene, Econometric


Analysis (2008)

• Propuesta: Novales, Econometria

• Muy interesante: Enders, Applied


Econometric Time Series
LOGROS DE LA SESIÓN

Al finalizar esta sesión, estarás preparado para:

Entender el comportamiento de las series de tiempo Económicas.

Comprender el procedimiento y las condiciones para modelar series


de tiempo.
Idea Central

Si el objetivo es explicar el valor que toma, en un momento determinado del tiempo, un


fenómeno económico que muestra dependencia temporal, un procedimiento factible
consiste en recoger información sobre su evolución a lo largo del tiempo, y explotar el
patrón de regularidad que muestran los datos.

Para construir un modelo de series de tiempo, lo único que se necesita es la información


muestral de la variable a analizar.

Si se desea explicar el comportamiento de una variable temporal Y t, un modelo de series


temporales puede plantearse como:
VENTAJAS Y DESVENTAJAS
(En comparación con el método de regresión)

Ventajas:

- A menudo no se dispone de los datos de las variables exógenas (por ejemplo,


expectativas, Gap de producto)

- Dificultades en el marco del método de regresión para la estimación con variables


retardadas (especialmente con la variable endógena retardada)

- Predicción: ¿cómo predecir los valores de las variables exógenas?

- Son más sencillos de estimar.

- Con niveles de desagregación temporal elevados (datos mensuales, semanales,


diarios) es mucho más fácil construir un modelo de series temporales.
Limitaciones:

- Un modelo econométrico, estimado adecuadamente, será más eficiente, y por lo


tanto más útil que un modelo de series temporales.

- Los modelos econométricos permiten conocer la forma en que la variable de interés


se relaciona con las variables exógenas; éste puede ser el objetivo principal del
análisis (por ejemplo, estimación de una elasticidad).
Modelos de Series Temporales

Variables temporales: variables que se observan a lo largo del tiempo. Y t indica la


variable Y en el momento t.

Serie temporal: Conjunto de T observaciones, una observación por cada una de las
variables: Y 1, Y 2, ..., Y T.

A las observaciones de una variable temporal se denominan realizaciones. Son los


resultados de un proceso estocástico, como se plantea más adelante.

En gran parte de las variables temporales propias del análisis económico se detecta un
patrón de comportamiento en el tiempo. Las series presentan movimientos sistemáticos
(repetitivos). En la evolución en el tiempo se observa una regularidad.

Esta regularidad de las series temporales es, en general, estocástica y no determinística.


Es decir, esa regularidad no admite una formulación funcional determinista, sino que es
función de variables aleatorias.

Estimando tal regularidad, el analista construye un mecanismo explicativo que recibe el


nombre de modelo.
Con la construcción de un modelo, Y t se descompone en dos partes: parte sistemática
(PS) e innovación (a).

La innovación es un componente aleatorio en el que sus valores no tienen ninguna


relación o dependencia entre sí.

La innovación y la parte sistemática son independientes.

No es posible ningún tipo de descomposición de la innovación con fines predictivos: es


impredecible. Por eso también se la llama sorpresa o ruido. Una innovación sólo será
auténticamente tal si es impredecible para cualquier conjunto de información existente.
Aproximación clásica:

Y t tiene cuatro componentes aditivos:

Tt : tendencia.
Tiene que ver con la orientación continua de la serie, existen dos tipos de tendencias:
Tendencia Determinística y Tendencia Estocástica.

Ct : ciclo.
Es la parte regular o irregular de la serie, es propia del giro del sector (del ciclo
productivo). El ciclo esta relacionado directamente con el proceso generador de la
serie.

St : Componente estacional.
Patrón repetido durante ciertos períodos de tiempo en un intervalo dado, es decir, es
aquella parte de la serie que tiene que ver con las estaciones o periodicidad.

ut : Componente puramente aleatorio (Irregular).


Veamos un ejemplo:
La series X t muestra la cantidad de pasajeros de líneas aéreas en España de Enero de
1949 a Diciembre de 1960.

La serie muestra: Tendencia y Estacionalidad


Los componentes de esta serie son:
Algunas características de series económicas:

1. Fuertes tendencias.

2. Difícil de distinguir tendencias y ciclos.

3. Ciclos estocásticos, difíciles de predecir.

4. Comportamientos estacionales marcados.

5. Oscilaciones muy erráticas, no hay tendencias ni ciclos obvios.

6. Covariaciones sugerentes.

7. Cambios estructurales.
Ejemplos

700
15
600
10
500
Miles de personas

Puntos log x100


5
400
0
300
-5
200
-10
100
-15
0
1950 1952 1954 1956 1958 1960 1986 1988 1990 1992 1994 1996

Pasajeros de líneas aéreas, total mensual Rendimientos (logx100) del índice NIKKEI

Número de pasajeros de líneas Rendimientos del índice NIKKEI de la


aéreas. La serie muestra: Bolsa de Tokio. Los datos:
• un perfil creciente (tendencia), • fluctúan establemente en torno a una
• fluctuaciones estacionales y media nula,
• una variabilidad que crece a medida • muestran períodos de alta y baja
que aumenta el nivel de la serie. volatilidad
Los primeros y segundos momentos (media y varianza) de distintas series temporales
pueden comportarse de formas muy diferentes
Las series temporales de naturaleza similar (por ejemplo, financieras) a menudo
presentan rasgos comunes que son de gran utilidad para analizarlas
Conceptos básicos

Proceso estocástico es un conjunto de variables aleatorias asociadas a distintos


instantes de tiempo.

Serie temporal, es un conjunto de observaciones o medidas realizadas secuencialmente


en intervalos predeterminados y de igual, o aproximadamente igual, duración.

• La relación entre una serie temporal y el proceso estocástico que la genera es la misma
que hay entre una muestra y la variable aleatoria de la que procede.
• Las peculiaridades de una serie temporal (frente a una muestra) y de un proceso
estocástico (frente a una variable aleatoria) son:
• las series temporales y los procesos estocásticos están referidos a instantes de
tiempo concretos, y
• los datos están ordenados desde el pasado hasta el presente.
• El objetivo del análisis de series temporales es inferir la forma del proceso estocástico a
partir de las series temporales que genera.
Hipótesis simplificatorias

•En ciencias sociales suele ser imposible obtener varias muestras de una serie temporal,
por lo que es necesario realizar una serie de supuestos simplificatorios.
• Los supuestos más comunes son:
• Linealidad: El valor que toma hoy la serie (o el proceso) depende linealmente de:
sus valores pasados y los valores presentes y pasados de otras series.
• Estacionariedad (débil): La media y varianza incondicional de una serie (o proceso)
son constantes, las autocovarianzas entre dos valores sólo dependen de la distancia
temporal que los separa. Formalmente:

• Normalidad: El proceso estocástico generador sigue un modelo normal de


distribución de probabilidad (proceso “gaussiano”).
Tipos de Estacionariedad

(a).- Estacionariedad en el sentido estricto - estacionariedad fuerte


Un proceso estocástico es estacionario en sentido estricto si cualquier conjunto de “n”
observaciones de la variable aleatoria Yt mantiene la misma distribución de probabilidad
conjunta que otro conjunto de “n” observaciones medido en otro momento de tiempo “k”
períodos más adelante o más atrás Yt+k.

F (Yt , Yt1 , tY 2 , .... Ytm )  F (Ytk , Ytk 1 , Ytk 2 , .... Ytk m )

(b).- Estrictamente estacionario


Un proceso estocástico Yt es estrictamente estacionario si sus primeros, segundos y otros
momentos de orden superior son constantes. Ejemplo para el caso de una distribución
normal:
(c).- Estacionariedad en el sentido débil

Una serie será débilmente estacionaria (o de covarianza estacionaria) si para cualquier


momento del tiempo sus primeros y segundos momentos son independientes del tiempo.
Esto es tendrán media, varianza y covarianza constantes. Ejemplo para el caso de una
distribución normal:
Funciones de autocorrelación

(a).- Función de autocorrelación simple – FAS

La FAS de un proceso estocástico { Yt } es una función de autocorrelación lineal simple


de la variable aleatoria en el momento t, y el momento t-k.

(b).- Función de autocorrelación parcial - FAP

La FAP de un proceso estocástico { Yt } es la función que mide la correlación parcial de


la variable aleatoria en el momento t ( Yt ) y la variable aleatoria en el momento t-k ( Yt-
k ) luego de eliminar el efecto que tienen los rezagos intermedios Y1 , Y2 , Y3 , .…, Yt-
k-1 sobre Yt .
Procesos Estocásticos Elementales:

(a).- Ruido Blanco:

Es por construcción estacionario. Es una colección de variables aleatorias con media cero
y no correlacionadas entre ellas.

Es el proceso más simple de todos. Notación:

.4

.3

.2

.1

.0
La figura muestra el perfil de 500 -.1
observaciones simuladas del proceso de
-.2
ruido blanco:
-.3
zt at ; at iid N(0,.01) -.4
100 200 300 400 500

Ruido blanco
(b).- Paseo Aleatorio:
Un paseo aleatorio representa una variable cuyos cambios son ruido blanco y, por tanto,
imprevisibles. Esto es:

yt c yt 1 at

La figura muestra el perfil de dos series generadas por paseos aleatorios con y sin
deriva. Como puede observarse, la característica fundamental de este proceso es la
falta de afinidad de las series a una media estable:

1 450

400
0
350

-1 300

250
-2 200

150
-3
100

-4 50
100 200 300 400 500 100 200 300 400 500

Paseo aleatorio sin deriva Paseo aleatorio con deriva


Modelos de Series Temporales

Hasta el momento t-1 se tiene la siguiente información:


- Valores Pasados de la serie: X 1, X 2, … , X t-1
- Innovaciones Pasadas: a 1, a 2, … , a t-1

Según la Información disponible, hay tres tipos de modelos:


PROCESOS AUTORREGRESIVOS
Modelo autorregresivo de orden p: AR(p)

El modelo incorpora la información de las últimas p observaciones.

Otras formulaciones:

Polinomio en el operador de retardos L


Filtro de autorregresivo (porque está aplicado a la propia variable).
Modelo autorregresivo de orden 1: AR(1)

Un proceso autorregresivo de primer orden, AR(1), representa una variable cuyo


valor actual está relacionado con su valor anterior mediante un modelo de regresión.

El modelo incorpora la última observación.

La figura muestra el perfil de dos series generadas por un AR(1) sin constante,
con distintos valores del parámetro :
.4 .6

.3
.4
.2
.2
.1

.0 .0

-.1
-.2
-.2
-.4
-.3

-.4 -.6
100 200 300 400 500 100 200 300 400 500

AR(1) phi=.5 AR(1), phi=.9


Características del modelo AR(1)

- Hay infinitas correlaciones distintas de cero.


- Las autocorrelaciones tienden a cero exponencialmente.
- Las autocorrelaciones siguen la misma ecuación en diferencias que el proceso AR(1)
original
Los procesos AR(1)
se reconocen por
una ACF infinita y
una PACF que se
anula a partir del
segundo retardo.
Si los datos tienen
media, es necesario
especificar un
término constante.
Un ejemplo:

AR(1): zt .5zt 1 at ; at iid N(0,.01)

.4

.3

.2

.1

.0

-.1

-.2

-.3

-.4
100 200 300 400 500

AR(1) phi=.5
Modelo autorregresivo de orden 2: AR(2)

Un proceso autorregresivo de segundo orden, AR(2), representa una variable cuyo


valor actual está relacionado con su valores anteriores hasta 2 periodos atrás
mediante un modelo de regresión.

El modelo incorpora las dos últimas observaciones.

La figura muestra el perfil de una serie generada por un AR(2) sin constante,
con distintos valores del parámetro φ:
Los procesos AR(2)
se reconocen por
una ACF infinita y
una PACF que se
anula a partir del
tercer retardo.
Si los datos tienen
media, es
necesario
especificar un
término constante.
Un ejemplo:

AR(2): Z t = 1.4 Z t-1 – 0.7 Z t-2 + a t; a t : iid N(0,1)


En forma general:
Tenemos el modelo autorregresivo de orden p: AR(p)

Calculando la función de autocovarianzas, tenemos que:

Ya que hemos considerado la propiedad:


Dividiendo a su vez por se tiene:
Para k = 1,2,…..,p se obtiene un sistema de p ecuaciones

De la propiedad de surge también

El sistema anterior recibe el nombre de “ecuaciones de Yule-Walker”, por los aportes


de ambos autores (entorno a 1930) a la teoría de series de tiempo.
En particular, si en lugar de los coeficientes de autocorrelación poblacionales se
dispone de sus estimaciones puede plantearse el siguiente sistema para la
estimación de los coeficientes
Condiciones de Estacionariedad
Un proceso Estocástico AR(p) de la forma:

yt  1 yt  1   2 yt  2  ..   pyt  p   t

Es estacionario si todas las raíces del polinomio de Rezagos φ(L) están fuera del
círculo unitario:

( L)  1   1   2  ...   p
( L)  (1  1L)(1   2 L)...(1   pL)

Lo cual Implica:

1
L  1  i  1
i

NOTA:
La condición de Estacionariedad clásica nos dice que el proceso es estacionario si
las raíces del Polinomio Característico (recíproco del Polinomio de Rezagos) están
dentro del círculo unitario.
Alternativamente se podrá utilizar la representación canónica del modelo:

1  2 p 1 p
 y t     yt  1    t 
  1 0 0 0    
 yt 1
0 1  yt  2   0 
0 0 
      
     yt  p   0 
 y      
0 
t  p  1
0 0 1
Zt Zt 1 t
F

Donde: Zt  FZt  1   t

Entonces, Y t es estacionario si todos los valores propios de F son menores a 1.


Para ganar intuición, se puede transformar el sistema utilizando la descomposición de
valores y vectores propios de F:

F  DD1

Donde D contiene los vectores propios de F y Λ sus correspondientes valores propios.


Caso Particular: Caso del AR(2)

Las condiciones de estacionariedad pueden definirse directamente a partir de los


coeficientes del proceso autorregresivo, ya que después de algunos pasos algebraicos
se puede demostrar que cuando las raíces del polinomio característico caen fuera del
círculo unitario, se verifican las siguientes desigualdades:

1   2  1
 1   2  1
 2  1
Si se sustituye en las desigualdades el signo < por el signo = se obtienen tres líneas
rectas, que definen la zona de estacionariedad, que está constituida por todos los puntos
en el interior del triángulo.
La zona por debajo del círculo corresponde a raíces estacionarias complejas.
Lo anteriormente dicho puede observarse en el siguiente gráfico:
PROCESOS DE MEDIAS MÓVILES
Modelo de medias móviles de orden q: MA(q)

El modelo incorpora la información de las últimas q innovaciones.

Sus características básicas son:

- Siempre es estacionario.

- Solo q innovaciones pasadas entran en el modelo.

- La función de autocorrelación se corta tras q retardos.

- Las innovaciones persisten q períodos.


Modelo de medias móviles de orden 1: MA(1)

Un proceso de medias móviles de primer orden, MA(1), representa una variable


cuyo valor actual está relacionado con el valor actual y anterior de las innovaciones
mediante un modelo de regresión.

El modelo incorpora la innovación actual y la anterior

La figura muestra el perfil de dos series generadas por un proceso MA(1) sin
constante, con distintos valores de  :

.4 .4

.3 .3

.2 .2

.1 .1

.0 .0

-.1 -.1

-.2 -.2

-.3 -.3

-.4 -.4
100 200 300 400 500 100 200 300 400 500

MA(1), theta=.5 ma(1), theta=.9


Características del modelo MA(1)

- Siempre es Estacionario
- Sólo la primera autocorrelación es distinta de Cero.
Los procesos
MA(1) se
reconocen por
una PACF infinita
y una ACF que se
anula a partir del
segundo retardo.
Si los datos
tienen media, es
necesario
especificar un
término
constante.
Un ejemplo:

MA(1): zt at .5at 1 ; at iid N(0,.01)

.4

.3

.2

.1

.0

-.1

-.2

-.3

-.4
100 200 300 400 500

MA(1), theta=.5
Modelo de medias móviles de orden 2: MA(2)

Un proceso de medias móviles de segundo orden, MA(2), representa una variable


cuyo valor actual está relacionado con el valor actual y los valores anteriores hasta 2
periodos atrás de las innovaciones mediante un modelo de regresión.

El modelo incorpora la innovación actual y las dos últimas observaciones de esta.

La figura muestra el perfil de una serie generada por un MA(2) sin constante,
con distintos valores del parámetro θ:
Características del modelo MA(2)

- Siempre es Estacionario
- Sólo las dos primeras autocorrelaciones son distintas de Cero.
Los procesos MA(2)
se reconocen por
una PACF infinita
(no se muestra
aquí) y una ACF
que se anula a partir
del tercer retardo.
Si los datos tienen
media, es necesario
especificar un
término constante.
Un ejemplo:

MA(2): Z t = a t – 0.9 a t-1 + 0.2 a t-2; a t : iid N(0,1)


¿Qué es la Invertibilidad?

La invertibilidad de un proceso es la condición que permite estimar las innovaciones.


Un proceso es invertible si se puede escribir como una combinación lineal infinita de
las observaciones pasadas.

Para que la representación sea convergente, el parámetro debe ser inferior a la


unidad en valor absoluto. (Al igual que ocurría con la condición de estacionariedad
para los procesos autorregresivos).
En Resumen:
-Sobre las Funciones de Autocorrelación

ACF
Finita Infinita
PACF Finita Ruido blanco AR
Infinita MA ARMA

- Sobre la Estacionariedad e Invertibilidad


Representación de Medias Móviles de un proceso AR(p)
La representación se obtiene invirtiendo φ(L), supongamos que existe ψ(L), tal que:

( L)  ( L)1

Entonces, se debe cumplir que:

(1  1L   2 L2   3 L3  ...   pLP )(1  1L  2 L2  ...)  1

Multiplicando y agrupando convenientemente este polinomio tenemos:

(1  ( 1  1) L  ( 2  11   2) L2  ...)  1

De donde se obtiene que:


 1  1
 2   1 1   2
 3   2 1  1 2   3

En general, tenemos:

 k  1 k  1   2 k  2  ...   p k  p
A partir de la representación de medias móviles del modelo AR(p) se puede obtener:

yt  s
El multiplicador dinámico:  s
 t

La Función Impulso Respuesta, es el gráfico  s versus s.

El impacto acumulado del choque en el largo plazo:  s (1)

Los segundos momentos de “y”:

h 
E (( yt   ) )  
2 2
 h
 2

h 0
h 
E (( yt   )( yt  s   ))   2
 
h 0
h hs
El Teorema de representación de Wold
Todo proceso que es estacionario en covarianzas puede escribirse como:


yt  c   kt  k
k 0

Donde:


k 0
k 

t es ruido blanco
PROCESOS MIXTOS
PROCESOS AUTORREGRESIVOS Y DE MEDIAS
MÓVILES
Modelos Mixtos: ARMA(p,q)

Incluyen p retardos de la propia variable y q innovaciones pasadas.


Características del modelo ARMA (1,1)
El modelo tiene la siguiente forma:

Que también se puede expresar como:

Estacionariedad: A partir de la representación de medias móviles del proceso:

El proceso es estacionario si el parámetro autorregresivo es inferior a la unidad en


valor absoluto.
Invertibilidad: A partir de la representación autorregresiva del proceso.
De igual manera, el proceso será invertible si el parámetro de medias móviles es
inferior a la unidad en valor absoluto.

Función de Autocorrelación Simple:


Utilizando el método visto anteriormente, tenemos:

Notamos que tras la primera autocorrelación, las siguientes se comportan según la


parte AR
La expresión anterior nos permiten verificar que el comportamiento de la FAS de un
ARMA (1,1) es muy similar al de un AR(1): decrece a una tasa .

Nótese, sin embargo, que ello ocurre para todo k > 1, o mejor dicho, a partir del
momento en que k es mayor que el orden del componente MA.

Esto es así debido a que, tal como hemos visto antes, la FAS de un proceso MA es
igual a cero para todo k mayor que su orden, por lo que en el comportamiento de esta
función sólo prima el componente AR de la serie.

Lo contrario ocurrirá en el caso del FAP: para todo k > 1 primará el comportamiento del
componente MA, porque la FAP del componente AR es igual a cero.
De forma general podemos mencionar:

- FAS ARMA (p,q)  FAS AR(p) para todo k > q, debido a que la FAS del componente
MA es igual a cero para todo k mayor que su orden.

- FAP ARMA (p,q)  FAP MA(q) para todo k > p, debido a que la FAP del
componente AR es igual a cero para todo k mayor que su orden.
Los Procesos ARMA y la suma de procesos estacionarios

¿Qué pasa si sumamos dos procesos AR independientes? ¿Y si sumamos


dos procesos MA independientes?

Tenemos los siguientes casos:

AR(p1) + AR(p2) = ARMA (p1 + p2, max (p1, p2))

MA(q1) + MA(q2) = MA (max (q1, q2))

Estos resultados sugieren que siempre que observemos procesos que sean suma
de otros, y alguno de ellos tenga estructura AR, es esperable observar procesos
ARMA.
Generación de Procesos AR(1) y AR(2)
EViews
Generación de un AR(1):

Paso 1: Creamos un workfile File→New→Workfile y marcamos la opción Undated or


Irregular→1 to 500
Paso 2: Buscamos la pestaña Genr dentro de la ventana del Workfile
Paso 3: Genr→ e=nrnd (esto nos define la serie ruido blanco)
Paso 4: Genr→ x1=0 (con esto se define la serie como 0)
Paso 5: Genr→ Sample: 2 500→ x1=0.7*x1(-1)+e (De esta forma la serie toma sus
valores definitivos)
Para ver la gráfica de la serie generada View→ Graph→ Line
La gráfica de la serie generada es la que mostramos en esta imagen
Generación de un AR(2):

Paso 1: Creamos un workfile File→New→Workfile y marcamos la opción Undated or


Irregular→1 to 500
Paso 2: Buscamos la pestaña Genr dentro de la ventana del Workfile
Paso 3: Genr→ e=nrnd (esto nos define la serie ruido blanco)
Paso 4: Genr→ x1=1 (con esto se define la serie como 1)
Paso 5: Genr→ Sample: 3 500→ x1=1.4*x1(-1)-0.7*x1(-2)+e (De esta forma la
serie toma sus valores definitivos)
Para ver la gráfica de la serie generada View→ Graph→ Line
La gráfica de la serie generada es la que mostramos en esta imagen
Para ver el correlograma de la serie generada View→ Correlogram
El correlograma de la serie generada es el que mostramos en esta imagen
Practiquemos un poco más:
Veamos las gráficas de los procesos AR(1) con parámetros de persistencia con
signos diferentes.
En este caso, los procesos :
X1 = 1.01*X1(-1) + e e→ Ruido Blanco
X1 = -1.01*X1(-1) + e e→ Ruido Blanco
A manera de ejercicio:
Generar los siguientes procesos y analizar sus gráficas y correlogramas.

X1 = X1(-1) + e X1 = - X1(-1) + e

X2 = 0.5 + X2(-1) + e X2 = 0.5 - X2(-1) + e

X3 = 0.5 + 0.5*t + X3(-1) + e X3 = 0.5 + 0.5*t - X3(-1) + e

Donde: e→ Ruido Blanco

Nota:
Para todos los casos considerar que el valor inicial de cada serie es CERO.
Extracción del Componente Cíclico de una Serie
EViews
Filtro de Hodrick Prescott
Ésta técnica permite obtener una estimación del componente de tendencia que puede ser
útil en diversas investigaciones; además, facilita una mejor aproximación del componente
cíclico, aspecto de gran utilidad en el estudio de los ciclos económicos.

El filtro HP es un filtro lineal que crea una serie de tiempo artificial de tendencia,
minimizando los desvíos de la serie original y restringiendo la volatilidad a un cierto límite
superior.

Concretamente, el método consiste en minimizar las desviaciones entre el producto


actual (y) y el de tendencia (y*), sujeto a que las variaciones del producto de tendencia
no superen cierto porcentaje en dos períodos sucesivos.
Ejemplo: Tenemos la serie del PBI real de la Economía Peruana para el periodo del
primer trimestre de 1992 hasta el segundo trimestre del 2009.
Para aplicar el filtro debemos seguir la siguiente secuencia Procs→ Hodrick Prescott
Filter, en la ventana que aparece debemos colocar el nombre de la serie que representa
a la tendencia de la serie original
En este gráfico podemos observar tanto a la serie, su tendencia y su ciclo.
Filtro de Baxter – King

El filtro paso-banda (Band-Pass Filter) es un metodología alternativa propuesta por


Baxter y King (1995) y consiste en un filtro lineal que elimina los movimientos muy lentos
o de baja frecuencia (tendencia) y los componentes de alta frecuencia (irregular),
mientras retiene los componentes intermedios (ciclo).

Este filtro permite extraer exactamente aquellas frecuencias que se interesan analizar,
para lo cual es necesario establecer la periodicidad mínima y máxima del componente a
extraer.

Baxter y King utilizaron la definición de ciclo económico propuesta por Burns y Mitchell
(1944), la cual establece que los ciclos económicos son fluctuaciones recurrentes pero no
periódicas, con duración no menor a 6 trimestres (año y medio) y no superior a treinta y
dos trimestres (8 años).
Ejemplo: Tenemos la serie del PBI real de la Economía Peruana para el periodo del
primer trimestre de 1992 hasta el segundo trimestre del 2009.
Para aplicar el filtro debemos seguir la siguiente secuencia Procs→ Frequency Filter, en
la ventana que aparece debemos seleccionar el filtro de Baxter King y colocar el nombre
de la serie que representa a la parte NO cíclica de la serie original.
En este gráfico podemos observar tanto a la serie, su parte no cíclica y su ciclo.
Filtro de Christiano – Fitzgerald

Una variante al filtro BK es el propuesto por Christiano y Fitzgerald (1999; 2003),


quienes, derivan una aproximación óptima cuando la representación de los datos tiene
raíz unitaria o es estacionario alrededor de una tendencia.

Este filtro de banda está basado en el proceso de generación de los datos, el cual
suponen que sigue un paseo aleatorio o Random Walk (RW).

Christiano y Fitzgerald evalúan su filtro comparándolo con el filtro de HP, el filtro de BK y


un filtro basado en una regresión trigonométrica utilizando como regresores las funciones
de seno y coseno. Sus resultados sugieren que el filtro con RW domina los filtros de BK y
trigonométricos, y además entrega una mejor aproximación a un high pass filter que el
filtro de HP.
Ejemplo: Tenemos la serie del PBI real de la Economía Peruana para el periodo del
primer trimestre de 1992 hasta el segundo trimestre del 2009.
Para aplicar el filtro debemos seguir la siguiente secuencia Procs→ Frequency Filter, en
la ventana que aparece debemos seleccionar el filtro de Christiano – Fitzgerald y colocar
el nombre de la serie que representa a la parte NO ciclica de la serie original.
En este gráfico podemos observar tanto a la serie, su parte no cíclica y su ciclo.
En búsqueda de la Estacionariedad
Propiedades típicas de las series económicas
700

600
Muchas series temporales económicas
500
presentan:
Miles de personas

400 • tendencia,
• estacionalidad,
300

200

100 • una variabilidad que crece con su nivel y


0
1950 1952 1954 1956 1958 1960
• componentes deterministas (valores
Pasajeros de líneas aéreas, total mensual
atípicos, ...)

Sin embargo, los procesos ARMA describen variables puramente estocásticas,


no estacionales, con media y varianza constantes. Por tanto, para modelizar
series económicas es necesario definir:
• Transformaciones de datos diseñadas para estabilizar la media y la varianza
de las series.
• Extensiones de la familia de procesos ARMA, que permitan captar
tendencias y fluctuaciones estacionales.
Transformaciones de datos: Box-Cox

Muchas series temporales muestran una variabilidad que cambia con su nivel. Para
eliminar esta característica se utiliza la transformación de Box-Cox:

Cada transformación se caracteriza por un valor


del parámetro λ. Además, puede aplicarse un
cambio de origen (parámetro, m) cuando la
transformación requiere valores positivos.
Para elegir la transformación adecuada puede
usarse el gráfico media - desviación típica
muestral de varias submuestras. En la figura se
muestran las configuraciones correspondientes
a diversos valores de λ.
Las series económicas a menudo muestran una
variabilidad que crece con la media de forma
aproximadamente lineal. En ese caso, la
transformación adecuada es la logarítmica (λ
=0)
La familia de transformaciones Box – Cox son principalmente las siguientes :

De todas estas transformaciones, la más común (y la que usaremos frecuentemente)


será la transformación cuando λ=0, es decir la transformación logarítmica.
Ejemplo de la transformación Box - Cox

-La primera figura muestra la serie de


pasajeros de líneas aéreas.

-Esta serie muestra una dispersión que crece


con su media, por lo que resulta difícil aplicarle
técnicas estadísticas estándar.

-La segunda figura muestra el logaritmo


neperiano los datos, que es la transformación
Box-Cox más habitual; como puede verse, la
dispersión se ha estabilizado en un valor
independiente de la media.

-La transformación logarítmica tiene distintas


ventajas estadísticas ya que, a menudo:

- Independiza la varianza de la media.


- Induce normalidad en los datos.
- Linealiza las relaciones.

- Una ventaja conceptual es que al prever una


variable a partir de su logaritmo, las
previsiones serán no negativas.
Transformaciones de datos: Diferencias
A menudo la tendencia de una serie puede eliminarse diferenciando los datos. Se dice que
una serie es “integrada de orden uno”, o I(1), si su primera diferencia:

zt yt yt 1

es estacionaria en media.

La serie de la primera figura es una muestra del proceso estocástico


y t y t 1 at ; at iid N(0,.01) . Por tanto, zt y t y t 1 será estacionaria.
1 .3

.2
0

.1
-1
.0
-2
-.1

-3
-.2

-4 -.3
100 200 300 400 500 100 200 300 400 500

Paseo aleatorio sin deriva Primera diferencia

Algunas series económicas necesitan una diferencia adicional para conseguir una
media incondicional estable. En ese caso se dice que son “integradas de orden dos”
Ejemplo de la transformación por Diferencias

Diferencias regulares y tendencia:


- La primera figura muestra el logaritmo
de la serie de pasajeros de líneas aéreas;
esta serie tiene tendencia, por lo su que
media no es estable ni finita.

- Si al dato en cada mes se le resta el


dato del mes anterior queda una serie
que fluctúa establemente en torno a un
nivel finito (segunda figura).

- El cambio mes a mes del logaritmo de


una serie es la tasa logarítmica
intermensual (tasa log).

- Esta serie se parece a la tasa de


variación en tanto por uno.

- Aunque la tasa log ya no tenga


tendencia sigue teniendo estacionalidad:
en vez de una media hay doce medias.
Procesos Integrados
Los procesos no estacionarios más importantes son los procesos integrados, que tienen
la propiedad fundamental de que al diferenciarlos se obtienen procesos estacionarios.
Una propiedad importante que diferencia a los procesos integrados de los estacionarios
es la forma en que desaparece la dependencia con el tiempo.
- En los procesos estacionarios ARMA las autocorrelaciones disminuyen
geométricamente, y se hacen prácticamente cero a los pocos retardos.
- En los procesos Integrados las autocorrelaciones disminuyen linealmente con el
tiempo y es posible encontrar coeficientes de autocorrelación distintos de cero
hasta retardos muy altos.
Generalizando, diremos que un proceso es integrado de orden k (k ≥ 0), y lo
representaremos por I(k), cuando al diferenciarlo k veces se obtiene un proceso
estacionario.
En la práctica la mayoría de las series no estacionarias que son integradas tienen un
orden k ≤ 3.

Nota:
A los procesos estacionarios se les conoce como integrados de orden CERO.
Formalmente, un proceso es I(k) (Integrado de orden K) si es necesario diferenciarlo
k veces para obtener un proceso estacionario:

Las propiedades mas comunes de estos procesos son:


Veamos una comparación entre las características de un proceso estacionario
(Integrado de orden Cero) y un proceso integrado de orden 1.
Veamos algunos ejemplos
Ejemplo de un proceso Integrado de orden 1:

Este gráfico pertenece a la serie del logaritmo del índice general de la Bolsa de
Madrid de enero de 1988 a mayo del 2003.
Esta serie no es estacionaria en media ya que su nivel varía a lo largo del tiempo.
Esta gráfica nos muestra la diferencia de la serie del logaritmo del índice general de la
Bolsa de Madrid de enero de 1988 a mayo del 2003, es decir esta gráfica nos indica la
serie de rendimientos mensuales obtenidos en la Bolsa de Madrid de acuerdo al indice
general en el periodo anteriormente señalado

Del gráfico se puede ver que estos rendimientos son estables en el tiempo, es decir que
la serie es estacionaria.
Este ejemplo muestra un proceso integrado de orden 1, es decir un proceso no
estacionario pero cuya primera diferencia si lo es.
Ejemplo de un proceso Integrado de orden 2:
Este gráfico pertenece a la serie de la población mayor de 16 años en España para el
periodo del primer trimestre de 1977 al cuarto del 2000.
Podemos observar claramente que esta serie no es estacionaria.
Del gráfico de las
autocorrelaciones de la serie
de la población mayor de 16
años en España, podemos
observar que se cumple la
propiedad de que en los
procesos Integrados las
autocorrelaciones disminuyen
linealmente con el tiempo.
Esta gráfica nos muestra la diferencia de la serie de la población mayor de 16 años en
España, y también se puede observar que esta serie tampoco es estacionaria ya que
muestra una clara tendencia decreciente.
Esta gráfica nos muestra la serie de la población mayor de 16 años en España después
de dos diferencias regulares (es decir, la segunda diferencia de la serie original).
Se puede observar que esta serie es estacionaria ya que muestra un nivel estable

Del gráfico se puede ver que esta serie si es estacionaria, por lo que la serie original
es estacionaria de orden 2, o con incrementos de segundo orden estacionarios.

Este ejemplo muestra un proceso integrado de orden 2, es decir un proceso no


estacionario pero cuya segunda diferencia si lo es.
Tipos de modelos ARIMA
Todos los modelos ARIMA pueden expresarse de la siguiente forma:

Donde:
p: Orden de la estructura AR del Modelo.
q: Orden de la estructura MA del Modelo.
d: Número de diferencias regulares necesarias para convertir la serie en estacionaria.
Estacionalidad y Procesos Estacionales

Una serie temporal es estacional si tiende a repetir una pauta de comportamiento


cada período estacional denotado por “s”.
Suponemos que el período estacional es un año, por lo que si la serie es mensual,
el período estacional es s=12, ya que 12 meses es el número de observaciones que
forman el ciclo estacional.
La estacionalidad hace que la media de las observaciones no sea constante, pero
evoluciona de forma previsible de acuerdo con un patrón cíclico.

Forma de corrección:
De la misma forma que tomar diferencias regulares induce estacionariedad en la
parte regular (no estacional) de una serie, tomar 1 diferencia estacional inducirá
estacionariedad en la parte estacional.
- Las series mensuales y trimestrales generalmente presentan dependencia con las
observaciones previas, pero también con las que ocurrieron hace un año.

- Dada esta dependencia estacional, la función de autocorrelación de los modelos


mostrará una dependencia temporal larga que conducirá a modelos con valores altos
de p y q.

- Se simplificará con el uso de modelos multiplicativos.

- La estacionalidad puede ser de carácter estacionario o no estacionario.


Estacionalidad Estacionaria

- En general, se especifica un modelo ARMA sólo en los retardos estacionales.

-Presenta la misma dependencia temporal pero en los retardos estacionales.

A manera de ejemplo:

AR(1)12
1

Φ= 0.4

12 24 36
Retardo

-1
MODELOS ARMA MULTIPLICATIVOS

En general, una serie temporal puede mostrar:

- Dependencia regular. Descrita por un modelo ARMA regular, por ejemplo:

- Dependencia estacional. Descrita por un modelo ARMA estacional, por ejemplo:

El modelo ARMA multiplicativo, multiplica la estructura regular por la estacional, por


ejemplo:
Función de autocorrelación de los modelos ARMA multiplicativos.

- En los primeros retardos estará la función de autocorrelación correspondiente a la


parte regular del modelo.

- En los retardos estacionales estará la función de autocorrelación correspondiente a la


parte estacional del modelo.

- A la derecha e izquierda de los retardos estacionales aparecerá la estructura regular


(con el mismo signo o contrario).
Diferencias Estacionales

Al igual que la diferencia regular, consiste en trabajar con los incrementos de la serie.

Veamos un ejemplo:
A manera de ejemplo:
Tenemos que la serie del Número de pasajeros que vuelan en una compañía aérea de
España es estacional, y lo es porque evidentemente volarán más pasajeros en los
meses de vacaciones de Europa (Julios y Agostos) que en otros meses, tomar una
diferencia estacional a esta serie hará que ahora los meses de Julio estén unos por
encima, otros por debajo y otros en la media; lo mismo pasará con los meses de Agosto,
etc.
A continuación, se muestra el gráfico de la primera diferencia estacional del logaritmo del
número de pasajeros. Se comprueba que esta serie ya no es estacional, a pesar de que
todavía no es estacionaria en media (deambula con respecto a la media global) porque
es necesario tomar, al menos, una diferencia regular.

700 4

600 3

500 2

400 1

300 0

200 -1

100 -2

0 -3
1950 1952 1954 1956 1958 1960 1950 1952 1954 1956 1958 1960

AIRLINE D12LAIRLINE
Forma General de un modelo ARIMA
Raíz Unitaria

Tal y como se ha señalado repetidamente, la aplicación de la metodología ARIMA


precisa la utilización de series económicas estacionarias en varianza y en media.

La presencia de una raíz unitaria en una serie de tiempo económica revela


directamente inestabilidad de la misma, siendo necesario transformarla para poder
trabajar con ella.

Cuando una serie no es estacionaria en media, o lo que es lo mismo, cuando no es


integrada de orden cero I(0), se dice que presenta al menos una raíz unitaria.
Cuando esto ocurre, sabemos que es posible la obtención de una serie estacionaria
mediante una sencilla transformación de la serie original, como es la diferenciación
adecuada.

Pues bien, el número de diferencias que habrá que tomar en la serie para convertirla en
estacionaria en media viene dado, justamente, por el número de raíces unitarias que la
serie original presente.
A manera de ejemplo supongamos un proceso AR(1) de la forma:

Para derivar la expresión Yt se debe cumplir las siguientes condiciones:

- El valor absoluto de α1 a sea menor a 1 (| α1 | <1). Al incluir un rezago adicional el


efecto marginal de los nuevos errores será cada vez menor.
- Que el proceso sea convergente.

Se dice que el proceso tiene raíz unitaria si α1 =1.

Si una serie tiene raíz unitaria los shocks que puedan afectar a la serie en un
determinado momento lo harán de manera permanente, dado que potencias sucesivas
de α1 no se diluirán a través del tiempo. Estos procesos son los conocidos paseos
aleatorios o random walk debido a la persistencia de los shocks.
Notamos mediante la gráfica que la serie no es estacionaria en media y por el
correlograma podemos evidenciar lo mismo, es decir la presencia de raíz unitaria en la
serie Y 2.

A manera de ejercicio veamos los tres casos presentados en inspeccion_raiz_unitaria.prg


Principales Test de Raíces Unitarias
Test aumentado de Dickey – Fuller:

Para aceptar la Ho de existencia de una raíz unitaria se debe comparar el valor


reportado como ADF Test Statistics contra el valor critico de MacKinnon, debiéndose
cumplir que el valor absoluto del primero es menor que el del Segundo para los
distintos niveles de significancia.

A manera de ejemplo de Ilustración podemos ver la siguiente salida reportada por el


Eviews:
Veamos un ejemplo
Tenemos la gráfica de la serie de accidentes en jornadas de trabajo en España de enero
de 1979 a diciembre de 1998.
De la gráfica podemos ver claramente la no estacionariedad ya que muestra una
tendencia creciente.
Del la función de autocorrelación podemos observar como éstas no muestran un
decrecimiento a lo largo del tiempo, lo que indica la no estacionariedad.
Para verificar la existencia de raiz unitaria usaremos el Test de Dickey – Fuller
Aumentado, donde la salida que nos reporta el EViews es la siguiente:

De los resultados mostrados


concluimos que la serie de
accidentes en jornadas de
trabajo en España presenta
raiz unitaria para todos los
niveles de significancia, lo
cual nos indica que la serie
no es estacionaria, y
tendríamos que transformar
la serie hasta convertirla en
estacionaria.
Ahora, en este gráfico vemos el logaritmo de la serie de accidentes después de una
diferencia regular y otra estacional, y analizaremos si esta serie presenta raíz unitaria.
Del gráfico podemos observar que la serie es estacionaria, por lo que no debería
presentar raíz unitaria.
Para analizar la existencia de raiz unitaria usaremos el Test de Dickey – Fuller
Aumentado, donde la salida que nos reporta el EViews es la siguiente:

De los resultados mostrados


concluimos que el logaritmo
de la serie de accidentes en
jornadas de trabajo en
España después de uan
diferencia regular y otra
estacional NO presenta raiz
unitaria para todos los
niveles de significancia, lo
cual nos indica que la serie
es estacionaria.
La Metodología de Box-Jenkins
Introducción:

La metodología de los modelos ARIMA fue formalizada por Box y Jenkins en 1976, por
lo que también se les denomina modelos Box-Jenkins. Este enfoeque parte del hecho
de que la serie temporal que se trata de predecir es generada por un proceso
estocástico cuya naturaleza puede ser caraterizada mediante un modelo.

Básicamente la metodología Box-Jenkins consiste en encontrar un modelo matemático


que represente el comportamiento de una serie temporal de datos, y permita hacer
previsiones únicamente introduciendo el periodo de tiempo correspondiente.

El método Box-Jenkins proporciona predicciones sin necesidad de la existencia de


ningún tipo de condición previa, además de ser parsimonioso respecto a los
coeficientes. Además, una vez encontrado el modelo, se pueden efectuar de manera
inmediata predicciones y comparaciones entre datos reales y estimados para
observaciones pertenecientes al pasado.
Esquema general de la metodología de Box - Jenkins

Definir los objetivos del análisis,


estudiar la información disponible

Identificación:
Seleccionar una especificación
tentativa

Estimación
(Métodos no lineales)

Diagnosis:
¿Es válido el modelo
para los fines
Previstos? no

si

Utilización del modelo


PROCESO DE SELECCIÓN DE MODELOS

Box & Jenkins

Etapa 1: Identificación
- Visualizar las series de tiempo: identificar outliers, N.A. y quiebres
estructurales.
- Examinar las funciones de autocorrelación y de correlación parcial.

Etapa 2:Estimación
- Estimar cada uno de los modelos tentantivos.
- Examinar los coeficientes y estadísticos asociados al modelo.
- Comparar los modelos de acuerdo a su parsimonia, estacionariedad y
bondad de ajuste.

Etapa 3: Verificación o Diagnosis


- Visualizar los residuos: identificar outliers y buscar evidencia de aquellos
periodos en que el modelo no se ajusta bien a la data.
Etapa I: Identificación

El proceso de escoger la transformación estacionaria de la serie.

¿Estacionario?
No

Transformar los datos
(primera diferencia)

Determinar qué Sí
tipo de modelo es ¿Estacionario?
el adecuado
No
Transformar los datos
Estimar los (segunda diferencia)
parámetros
del modelo Sí No transforma-
¿Estacionario? ciones
más
Diagnósticos Pronósticos complejas
¿Cómo estimar los posibles parámetros del modelo?

Estacionario
ACF PACF ACF PACF
se se se se
corta extingue extiingue corta
Modelo de Modelo
medias auto-
móviles ACF PACF regresivo
(MA) se se (AR)
¿Dónde extingue extingue ¿Dónde
se corta se corta
la ACF? la PACF?
Número de Número de
rezagos Modelo mixto rezagos
(períodos) (períodos)
a incluir a incluir
En la Identificación

Parámetro Instrumento de identificación Observaciones

Se trata de conseguir que la variabilidad de los


• Gráfico media-desviación típica datos sea independiente de su nivel. En series
m, λ
• Gráfico de la serie temporal económicas es habitual λ=0, lo que supone
transformar logarítmicamente los datos.
• Gráfico de la serie temporal
d, orden de Se trata de conseguir que los datos fluctúen en
diferenciación • ACF (decrecimiento lento y torno a una media aproximadamente estable
lineal)
• Media muestral de la serie Si la media de la serie transformada es
Término diferenciada significativa, el modelo debe incluir un término
constante
• Desviación típica de la media constante

La PACF tiene p valores no nulos


p, orden del • PACF de orden p
Un proceso AR finito y estacionario equivale a
término AR • ACF infinita
un MA(∞)
La ACF tiene q valores no nulos
q, orden del • ACF de orden q
Un proceso MA finito e invertible equivale a un
término MA • PACF infinita
AR(∞)
Etapa II: Estimación

Comparación de modelos

La selección de los parámetros p y q mediante el análisis del correlograma puede


presentar dificultades prácticas en algunos casos. Por ello, se han propuesto criterios
para decidir entre modelos alternativos para una determinada serie temporal.

En la práctica se utilizan los criterios de información para escoger el modelo más


adecuado. Este será el modelo que minimice el mayor número de criterios de
información disponibles.
Dos de estos criterios son: el AIC (Akaike Information Criterion) y el SIC (Schwarz
Information Criterion).

- El criterio de información de Akaike (AIC):


AIC = -2 L + 2 K
T T

- El criterio de Schwarz (SIC):


SIC = -2 L + K. Log(T)
T T
En donde:
T: tamaño de la serie de tiempo.
L: logaritmo de la función de verosimilitud (mayor este valor, mayor la probabiblidad de
que los datos provengan del modelo planteado.
K: número de parámetros estimados.

Note que todos estos criterios son decrecientes en el valor de la función de


verosimilitud, normalizados por el tamaño muestral, y crecientes en el número de
parámetros estimados.
En ese sentido los criterios de información se basan en la misma idea que el R2
ajustado, es decir, medir el mejoramiento en el grado de ajuste pero eliminando el
efecto que genera la inclusión de parámetros adicionales.
Etapa III: Diagnosis

Valoración del Modelo

Una vez que el modelo ha sido ajustado a la serie de interés, la última etapa consiste
en analizar si el modelo es apropiado.

Para ello vamos a realizar 2 tipos de análisis:

- Contrastes sobre los coeficientes: significatividad y raíces comunes.

- Diagnóstico: Este análisis se basa habitualmente en los residuos que no


deben estar correlacionados con el pasado: su correlograma no debe tener
ninguna correlación significativamente distinta de cero.
En la Diagnosis

Parámetro Instrumento de identificación Observaciones

• Una raíz próxima a uno en la parte AR indica que


• Raíces de los polinomios AR conviene añadir una diferencia
y MA • Una raíz próxima a uno en la parte MA indica que
d, orden de conviene quitar una diferencia
diferenciación
Si muestra rachas largas de residuos positivos o
• Gráfico de la serie de
negativos, puede ser necesaria una diferencia
residuos
adicional
• Media muestral de los
Término residuos Si la media de los residuos es significativa, debe
constante añadirse un término constante
• Desviación típica de la media
• Contrastes de significación
Permiten eliminar parámetros irrelevantes
de los parámetros estimados
• ACF y PACF residuales Detectan pautas de autocorrelación no modelizadas
Contrasta la hipótesis conjunta de que todos los
• Test Q
coeficientes de autocorrelación son nulos
py q
• Correlaciones elevadas entre
Puede ser un síntoma de sobreparametrización
parámetros estimados
Consiste en añadir parámetros AR y/o MA, para
• Sobreajuste comprobar si resultan significativos y mejoran la
calidad estadística del modelo
Aplicación de la Metodología de Box-Jenkins
EViews
Para este ejemplo usaremos la serie de matriculación de automóviles en España.
La data la encontramos en el workfile matriculacion.wf

La serie posee estas caraterísticas:

Nombre de la serie: matriculación de automóviles total


Unidades : UNIDADES
Periodo: Enero de 1960 a diciembre de 1999
FUENTE: Dirección General de Trafico (España)
Parte I: Identificación
Paso 1: Lo primero que debemos hacer es graficar la serie para analizar si posee
estacionariedad.
De la gráfica se observa que la
variabilidad es mucho mayor
cuando el nivel de la serie es
alto, como ocurre al final de la
serie, que cuando es bajo.
Si observamos el gráfico con
atención, veremos que la
variabilidad no aumenta con el
tiempo, sino con el nivel de la
serie.
Recordar que:
Cuando la variabilidad de la
serie aumente linealmente con el
nivel de la serie, tomando
logaritmos se consigue una serie
con variabilidad constante.
Analizando la gráfica y también el
correlograma podemos notar que
la serie no es estacionaria.

De la FAS de la serie se observa


un decrecimiento lento de los
coeficientes de forma lineal, que
indica claramente la necesidad de
diferenciar.
Usamos el contraste de Dickey
– Fuller aumentado para
analizar si la serie presenta
una raiz unitaria.
Del cuadro adjunto podemos
observar que la serie presenta
raiz unitaria para todos los
niveles de significancia, lo cual
nos indica que la serie no es
estacionaria, y como habíamos
concluido anteriormente, es
necesario tomar una diferencia
regular para convertir a la serie
en estacionaria.
Paso 2: Lo que debemos hacer ahora es transformar adecuadamente la serie

-Transformación para estabilizar la varianza:


Primero tomaremos logaritmos a la serie de matriculaciones, para esto generamos una
nueva serie que sea el logaritmo de la original, es decir:

L_MATRI_AUT=LOG(MATRI_AUT)
Del gráfico podemos ver que se cumple lo anteriormente mencionado, es decir que
tomando logaritmos la variabilidad de la serie es constante.
- Transformación para estabilizar la media:

(a).- Determinar el orden de diferenciación regular:

Ahora tomaremos cuantas diferencias regulares sean necesarias para volver a la serie
estacionaria, para esto generamos una nueva serie que sea la diferencia de la
original, es decir:

DL_MATRI_AUT=D(L_MATRI_AUT)
Del gráfico podemos ver que con el procedimiento realizado se logro estabilizar la media
de la serie.
Es claramente visible al eliminar la tendencia que la serie tiene una pauta estacional.
Además del gráfico de la serie, es
conveniente mirar la FAS, ya que
una serie con estacionalidad
mostrará valores de autocorrelación
positivos y altos en retardos
estacionales.
Del gráfico se puede observar que
existen correlaciones altas y
persistentes en los retardos
estacionales: 12, 24 y 36.
Esto sugiere la necesidad de tomar
una diferencia estacional para
obtener una serie estacionaria.
- Transformación para estabilizar la media:

(b).- Determinar el orden de diferenciación estacional:

Ahora tomaremos una diferencia estacional para volver a la serie estacionaria, para
esto generamos una nueva serie que sea la diferencia estacional de la original, es
decir:

DDL_MATRI_AUT=D(L_MATRI_AUT,1,12)
En esta gráfica se tiene la serie de matriculación en logaritmos con dos diferencias:
una regular y otra esta estacional.
Podemos decir que esta serie es estacionaria.
Una manera de comprobarlo es usando el contraste de Dickey – Fuller aumentado
para analizar si la serie presenta una raiz unitaria.

Del cuadro adjunto podemos observar que la serie NO presenta raiz unitaria para
todos los niveles de significancia, lo cual nos indica que la serie es estacionaria.
Analizando la FAS de esta nueva
serie se distinguen 3 rasgos
destacados:

- Un coeficiente ρ1 significativo.
- Coeficientes significativos en los
retardos estacionales ρ12, ρ24 y ρ36.
- Interacción alrededor de los
retardos estacionales, manifestada
en los valores positivos y simétricos
de los coeficientes ρ11 y ρ13 y
también en ρ23 y ρ25.

La parte regular sugiere un Modelo


MA(1), ya que hay un solo coeficiente
distinto de cero en los primeros
retardos.
La estructura de la parte estacional
es compatible con un AR(1)12 y
también con AR más largos o
ARMA(1,1)12.
Analizando la FAP de esta nueva
serie, tenemos:
Se confirma la estructura MA(1) para
la parte regular, ya que se observa un
decrecimiento geométrico en los
primeros retardos y también, por la
interacción, que se repite después de
los retardos estacionales.
Los dos coeficientes significativos en
los retardos estacionales nos hacen
rechazar la hipótesis de un AR(1)12,
pero son compatibles con un AR(2)12
o también con un ARMA(1,1)12 para
la parte estacional.

Por lo tanto pasaremos a estimar


modelos con parte MA(1) para la
parte regular y AR(2) o ARMA(1,1)
para la parte estacional.
Parte II: Estimación
Ahora pasaremos a estimar el Modelo MA(1) y con parte Estacional ARMA(1,1) 12 , como
se puede apreciar a continuación:
De donde, podemos ver la
estimación del modelo en
cuestión que nos arroja el
Eviews:
Ahora pasaremos a estimar el Modelo MA(1) y con parte Estacional MA(1)12 , como se
puede apreciar a continuación:
De donde, podemos ver la
estimación del modelo en
cuestión que nos arroja el
Eviews:
Ahora pasaremos a estimar el Modelo MA(1) y con parte Estacional AR(2)12 , como se
puede apreciar a continuación:
De donde, podemos ver la
estimación del modelo en
cuestión que nos arroja el
Eviews:
Parte III: Diagnóstico
Notamos de acuerdo a los criterios de información que el modelo que mejor explica
nuestra series es el Modelo 1, ahora pasaremos a analizar y hacer el diagnóstico de
este modelo:

Analizaremos los residuos de este


modelo para ver si se comportan
como Ruido Blanco
Análisis de residuos:
Consiste en visualizar si la gráfica de los residuos del modelo muestra un patrón de
comportamiento sistemático, lo cual, de ser el caso, nos señalaría que existe
evidencia de presencia de Autocorrelación.

Del gráfico podemos notar que los


residuos de nuestra serie no
muestran la presencia de
autocorrelación.