Está en la página 1de 32

ECONOMETRIA DE SERIE DE TIEMPO: PRONÓSTICOS

El pronóstico es una parte importante del análisis econométrico, y para algunas constituye
el área más importante. Podemos pronosticar variables económicas como el PIB, la
inflación, tasas de cambio, precios de acciones, tasas de desempleo y miles de otras
variables económicas, para lo cual utilizaremos los dos métodos más populares:
 el Autorregresivo Integrado de Promedios Móviles (ARIMA), conocido como
metodología de Box-Jenkins.
 El de Vectores Autorregresivos (VAR).
Los métodos de pronósticos analizados presuponen que las series de tiempo subyacentes
son estacionarias o que pueden convertirse en estacionarias mediante transformaciones
adecuadas
22.1 ENFOQUES DE LOS PRONÓSTICOS ECONÓMICOS:
En términos generales, hay cinco enfoques de los pronósticos económicos basados
enseries de tiempo:
1.1.Métodos de suavizamiento exponencial:
Como por ejemplo el método de suavizamiento exponencial simple(SES):
En este método, se asigna un peso exponencialmente decreciente a los valores pasados de
la serie de tiempo. No se considera ninguna otra información, como tendencias o
estacionalidad. El modelo SES se actualiza en cada paso de tiempo utilizando una
combinación ponderada del valor actual observado y el valor pronosticado anterior.

1.2.Modelos de regresión uniecuacionales:


Los modelos de regresión uniecuacionales se utilizan para analizar la relación entre una
variable dependiente y una o más variables independientes. Estos modelos buscan
establecer una relación funcional y cuantitativa entre las variables para explicar o predecir
el comportamiento de la variable dependiente.

El modelo de regresión uniecuacional más común es la regresión lineal, que asume una
relación lineal entre las variables. En este modelo, se estima una ecuación que representa
la variable dependiente en función de las variables independientes, y se buscan los valores
óptimos de los coeficientes para minimizar la diferencia entre los valores observados y
los valores predichos por el modelo.
Algunos conceptos clave asociados con los modelos de regresión uniecuacionales son:

1. Coeficientes de regresión: Los coeficientes de regresión representan el cambio


promedio en la variable dependiente por unidad de cambio en las variables
independientes. Estos coeficientes indican la fuerza y dirección de la relación entre las
variables.

2. Supuestos del modelo: Los modelos de regresión uniecuacionales se basan en varios


supuestos, como linealidad, normalidad de los errores, independencia de los errores y
ausencia de multicolinealidad. Es importante evaluar si estos supuestos se cumplen antes
de interpretar los resultados del modelo.

3. Evaluación del ajuste del modelo: Se utilizan varias métricas para evaluar la bondad de
ajuste del modelo, como el coeficiente de determinación (R cuadrado), que indica la
proporción de la variabilidad de la variable dependiente explicada por el modelo, y los
estadísticos de significancia de los coeficientes.

1.3.Modelos de regresión de ecuaciones simultáneas:


Los modelos de regresión de ecuaciones simultáneas, también conocidos como modelos
de ecuaciones simultáneas, son utilizados para analizar las relaciones de
retroalimentación entre múltiples variables dependientes. Estos modelos permiten
capturar la interdependencia entre las variables y estudiar cómo los cambios en una
variable afectan a las demás.

Algunos conceptos clave asociados con los modelos de regresión de ecuaciones


simultáneas incluyen:

a) Endogeneidad: Ocurre cuando una variable dependiente está correlacionada con


los errores de las otras ecuaciones en el sistema. La endogeneidad es común en
estos modelos y puede requerir técnicas de estimación especiales, como el
método de variables instrumentales, para obtener estimaciones no sesgadas de los
parámetros.
b) Efectos directos e indirectos: Los modelos de ecuaciones simultáneas permiten
analizar tanto los efectos directos como los efectos indirectos entre las variables.
Esto significa que no solo se consideran las relaciones directas entre las variables
independientes y dependientes, sino también cómo los cambios en una variable
pueden propagarse a otras variables a través del sistema de ecuaciones.
c) Identificación: La identificación se refiere a la capacidad de distinguir los efectos
de cada variable independiente en las variables dependientes. En los modelos de
regresión de ecuaciones simultáneas, se requieren restricciones adicionales o
información exógena para lograr la identificación.

1.4.Modelos ARIMA:
La publicación de G. P. E. Box y G. M. Jenkins Time Series Analysis: marcó el comienzo
de una nueva generación de herramientas de pronóstico. Popularmente conocida como
metodología de Box Jenkins, pero técnicamente conocida como metodología ARIMA, el
interés de estos métodos de pronósticos no está en la construcción de modelos
uniecuacionales o de ecuaciones simultáneas, sino en el análisis de las propiedades
probabilísticas, o estocásticas, de las series de tiempo económicas por sí mismas según la
filosofía de que los datos hablen por sí mismos. A diferencia de los modelos de regresión,
en los cuales Yt se explica por las k regresoras X1, X2, X3, . . ., Xk, en los modelos de
series de tiempo del tipo BJ, Yt se explica por valores pasados o rezagados de sí misma y
por los términos de error estocásticos. Por esta razón, los modelos ARIMA reciben
algunas veces el nombre de modelos ateóricos porque no se derivan de teoría económica
alguna, y las teorías económicas a menudo son la base de los modelos de ecuaciones
simultáneas. A propósito, observe que en este capítulo la atención se centra en los modelos
ARIMA univariados, es decir, en los modelos ARIMA que pertenecen a una sola serie de
tiempo. No obstante, el análisis puede extenderse a modelos ARIMA multivariados

1.5.Modelos VAR:
Un modelo VAR, o Vector Autoregressive Model en inglés, es un tipo de modelo
econométrico utilizado para analizar y predecir la interdependencia entre múltiples
variables económicas en un sistema. Este modelo se basa en la idea de que las variables
económicas están relacionadas entre sí y se influyen mutuamente en el corto plazo.

El modelo VAR se utiliza para modelar series de tiempo multivariadas, es decir, series de
tiempo que contienen observaciones de varias variables simultáneamente. A diferencia de
otros modelos econométricos que analizan las relaciones univariadas entre una variable
dependiente y una o varias variables explicativas, el modelo VAR considera la dinámica
de todas las variables del sistema.
El modelo VAR se estructura de la siguiente manera:
1. Se selecciona un conjunto de variables económicas relevantes para el análisis.
2. Se estima un sistema de ecuaciones que relaciona todas las variables entre sí,
donde cada variable dependiente se explica en función de sus propios rezagos y
de los rezagos de las demás variables.
3. Se permite la estimación de las relaciones de retroalimentación entre las
variables, es decir, la influencia que una variable tiene sobre las demás en el corto
plazo.
4. Se pueden realizar pronósticos de las variables económicas utilizando el modelo
VAR, teniendo en cuenta las relaciones estimadas y las últimas observaciones de
las variables.

22.2 CREACIÓN DE MODELOS AR, MA Y ARIMA PARA SERIES DE TIEMPO


 Proceso autorregresivo (AR)

Sea Yt el logaritmo del PIB en el periodo t. Si se modela Yt como

(Yt − δ) = α1(Yt−1 − δ) + ut (22.2.1)

Donde δ es la media de Y y ui es un término de error aleatorio no correlacionado con


media cero y varianza constante σ2 (es decir, ruido blanco), se dice que Yt sigue un proceso
estocástico autorregresivo de primer orden. Aquí el valor de Y en el tiempo t depende de
su valor en el periodo anterior y de un término aleatorio; los valores de Y están expresados
como desviaciones de su valor medio. En otras palabras, este modelo dice que el valor de
pronóstico de Y en el periodo t es simplemente alguna proporción (= α1) de su valor en el
periodo (t − 1) más un “choque” o perturbación aleatoria en el tiempo t; de nuevo, los
valores de Y están expresados alrededor del valor de su media. Pero si consideramos este
modelo,

(Yt − δ) = α1(Yt−1 − δ) + α3(Yt−2 − δ) + ut (22.2.2)

decimos que Yt sigue un proceso autorregresivo de segundo orden. Es decir, el valor de Y en el


tiempo t depende de sus valores en los dos periodos anteriores, los valores de Y expresados
alrededor del valor de su media δ. En general, tenemos

(Yt − δ) = α1(Yt−1 − δ) + α2(Yt−2 − δ) +···+ α2(Yt−p − δ) + ut (22.2.3)


En este sentido, decimos que “los datos hablan por sí mismos”, por lo que, son una clase de
modelos de forma reducida a los cuales hicimos referencia en el análisis de los modelos de
ecuaciones simultáneas.

 Proceso de medias móviles (MA)

El proceso AR recién expuesto no es el único mecanismo que pudo generar a Y. Suponga


que hacemos un modelo de Y de la siguiente manera:

Yt = μ + β0ut + β1ut−1 (22.2.4)

Donde μ es una constante y u, al igual que antes, es el término de error estocástico de


ruido blanco. Aquí, Y en el periodo t es igual a una constante más un promedio móvil de
los términos de error presente y pasado. Así, en este caso decimos que Y sigue un proceso
de promedios móviles de primer orden, o MA(1). Pero si Y sigue la expresión

Yt = μ + β0ut + β1ut−1 + β2ut−2 (22.2.5)

es un proceso MA(2). En forma más general,

Yt = μ + β0ut + β1ut−1 + β2ut−2 +···+ βq ut−q (22.2.6)

es un proceso MA(q). En resumen, un proceso de promedios móviles es tan sólo una


combinación lineal de términos de error de ruido blanco.

 Proceso autorregresivo y de promedios móviles (ARMA)

Desde luego, es muy probable que Y tenga características de AR y de MA a la vez, y, por


consiguiente, sea ARMA.

Así, Yt sigue un proceso ARMA (1, 1) si se escribe como

Yt = θ + α1Yt−1 + β0ut + β1ut−1 (22.2.7)

Porque hay un término autorregresivo y uno de promedios móviles. En (22.2.7), θ


representa un término constante.

En general, en un proceso ARMA(p, q), habrá p términos autorregresivos y q términos de


promedios móviles.

 Proceso autorregresivo integrado de promedios móviles (ARIMA)


Los modelos de series de tiempo analizados se basan en el supuesto de que las series de
tiempo consideradas son (débilmente) estacionarias.En pocas palabras, la media y la
varianza de una serie de tiempo débilmente estacionaria son constantes y su covarianza
es invariante en el tiempo. Pero sabemos que muchas series de tiempo económicas son
no estacionarias, es decir, son integradas.En general, si una serie de tiempo es I(d),
después de diferenciarla d veces se obtiene una serie. Por consiguiente, si debemos
diferenciar una serie de tiempo d veces para hacerla estacionaria y luego aplicarle el
modelo ARMA(p,q), decimos que la serie de tiempo original es ARIMA(p, d, q), es decir,
es una serie de tiempo autorregresiva integrada de promedios móviles, donde:

p = denota el número de términos autorregresivos

d = el número de veces que la serie debe diferenciarse para hacerse estacionaria

q = el número de términos de promedios móviles.

Así, una serie de tiempo ARIMA(2, 1, 2) tiene que diferenciarse una vez (d = 1) antes de
que se haga estacionaria, y la serie de tiempo estacionaria (en primeras diferencias) puede
modelarse como un proceso ARMA(2, 2), es decir, tiene dos términos AR y dos términos
MA. Desde luego, si d = 0 (es decir, si para empezar la serie es estacionaria), ARIMA (p,
d = 0, q) = ARMA(p, q). Observe que un proceso ARIMA (p, 0, 0) significa un proceso
estacionario AR(p) puro; un ARIMA (0, 0, q) significa un proceso estacionario MA(q)
puro.

Con los valores de p, d y q sabemos de qué proceso se está haciendo el modelo. El punto
importante es que, para utilizar la metodología Box-Jenkins, debemos tener una serie de
tiempo estacionaria o una serie de tiempo que sea estacionaria después de una o más
diferenciaciones. La razón para suponer estacionariedad se explica de la siguiente
manera: El objetivo de BJ [Box-Jenkins] es identificar y estimar un modelo estadístico
que se interprete como generador de los datos muéstrales. Entonces, si se va a pronosticar
con este modelo estimado, debe suponerse que sus características son constantes a través
del tiempo y, en particular, en periodos futuros. Así, la sencilla razón para requerir datos
estacionarios es que todo modelo que se infiera a partir de estos datos pueda interpretarse
como estacionario o estable en sí mismo, y proporcione, por consiguiente, una base válida
para pronosticar.

22.3 Metodología de Box-Jenkins (BJ)


La pregunta del millón de dólares es obvia: al ver una serie de tiempo, como la serie del
PIB de Estados Unidos en la fi gura 21.1, ¿cómo sabemos si sigue un proceso AR puro
(de ser así, ¿cuál es el valor de p), un proceso MA puro (de ser así, ¿cuál es el valor de q),
un proceso ARMA (de ser así, ¿cuáles son los valores de p y q) o un proceso ARIMA, en
cuyo caso se deben conocer los valores de p, d y q? La metodología BJ resulta útil para
responder la pregunta anterior. El método considera cuatro pasos:

Paso 1. Identificación. Es decir, encontrar los valores apropiados de p, d y q. En seguida


veremos la forma como el correlograma y el correlograma parcial ayudan en esta labor.

Paso 2. Estimación. Tras identificar los valores apropiados de p y q, la siguiente etapa es


estimar los parámetros de los términos autorregresivos y de promedios móviles incluidos
en el modelo. Algunas veces, este cálculo se efectúa mediante mínimos cuadrados
simples, pero otras hay que recurrir a métodos de estimación no lineal (en parámetros).
Como esta labor se lleva a cabo ahora a través de rutinas en diversos paquetes estadísticos,
en la práctica no es preciso preocuparse por los desarrollos matemáticos de la estimación;
el estudiante interesado en el tema puede consultar las referencias.

Paso 3. Examen de diagnóstico. Después de seleccionar un modelo ARIMA particular y


de estimar sus parámetros, tratamos de ver si el modelo seleccionado se ajusta a los datos
en forma razonablemente buena, pues es posible que exista otro modelo ARIMA que
también lo haga. Es por esto que el diseño de modelos ARIMA de Box-Jenkins es un arte
más que una ciencia; se requiere gran habilidad para seleccionar el modelo ARIMA
correcto. Una simple prueba del modelo seleccionado es ver si los residuales estimados a
partir de este modelo son de ruido blanco; si lo son, aceptamos el ajuste particular; si no
lo son, debemos empezar de nuevo. Por tanto, la metodología BJ es un proceso iterativo
(figura 22.1).
Paso 4. Pronóstico. Una razón de la popularidad del proceso de construcción de modelos
ARIMA es su éxito en el pronóstico. En muchos casos, los pronósticos obtenidos por este
método son más confiables que los obtenidos de modelos econométricos tradicionales, en
particular en el caso de pronósticos de corto plazo. Por supuesto, cada caso debe
verificarse. Luego de esta exposición general, examinaremos los cuatro pasos con cierto
detalle. Durante el análisis utilizaremos los datos del PIB de la sección 21.1 para ilustrar
los diversos puntos.

22.4 Identificación

La función de autocorrelación y la función de autocorrelación parcial constituyen una


de las herramientas principales en la identificación de las estructuras autorregresivas y
de medias móviles.

Los coeficientes de autocorrelación proporcionan información sobre la relación lineal


entre los residuos del modelo separados por k unidades temporales. Es decir, indican el
grado de correlación entre cada valor del residuo y los desplazados 1, 2, ... h periodos.
Suponiendo que las varianzas de los residuos son constantes a lo largo del tiempo, el
coeficiente de autocorrelación teórico, como ya se ha señalado, se expresa como.
La representación gráfica de estos coeficientes de correlación para un conjunto de
retardos sucesivos dará lugar a la función de autocorrelación simple (FAS).

Junto con estos coeficientes de autocorrelación se definen los de autocorrelación parcial


que mide la correlación entre dos momentos de tiempo después de eliminar el efecto de
los momentos intermedios. La representación gráfica de estos coeficientes recibe el
nombre de función de autocorrelación parcial (FAP).

El concepto de autocorrelación parcial es análogo al concepto de coeficiente de regresión


parcial. En el MRLNC el késimo coeficiente de regresión mide el cambio en el valor
medio de la variable dependiente ante un cambio unitario en el regresor k, manteniendo
constante la influencia de los demás regresores (o aislando los efectos de las posibles
restantes variables explicativas). De modo similar la autocorrelación parcial mide la
correlación entre observaciones que están separadas k periodos de tiempo manteniendo
constantes las correlaciones en los retardos intermedios. Luego estos coeficientes pueden
obtenerse a partir de la siguiente expresión,

donde φ p es el coeficiente de autocorrelación parcial ya que mide el efecto adicional de


la variable ut-P sobre ut. Más concretamente recoge el efecto que sobre la variable ut tiene
un retardo de esta misma variable, aislados los efectos de los posibles restantes retardos
o considerando éstos como constantes.

El cálculo empírico de estos coeficientes no es materia objeto de estudio de este capítulo;


no obstante, podemos señalar que a través de las ecuaciones de Yule-Walker (1930) se
pueden establecer las relaciones entre los coeficientes de autocorrelación ( ρ ) y los
coeficientes de autocorrelación parcial (φ ).

Los patrones que siguen las FAS y FAP son distintos para los procesos AR y MA, por lo
que pueden utilizarse para la identificación de la serie de residuos del modelo. En el caso
concreto de los procesos autorregresivos AR(p) la FAS decrece geométrica o
exponencialmente y la FAP se corta después de p-retardos, esto es presenta p coeficientes
significativos. Para el caso de procesos de medias móviles MA(q) ocurre al contrario; la
función de autocorrelación parcial decrece de forma geométrica o exponencial y la
función de autocorrelación simple se anula para retardos de orden superior a q.

En las estimaciones prácticas estos comportamientos no son tan precisos por lo que a
través de contrastes de hipótesis deberá determinarse cuándo un coeficiente estimado (de
autocorrelación o de autocorrelación parcial) es considerado nulo a pesar del valor
empírico que presente. Para ello se realizan contrastes de significatividad estadística de
los coeficientes estableciendo unas bandas de confianza por encima de las cuáles los
coeficientes resultan significativos.

Estas bandas pueden calcularse a partir del coeficiente de correlación empírico que
presenta la siguiente distribución de probabilidad:

Aunque la varianza no es constante, el programa EViews considera que


Y dibuja unas bandas de fluctuación paralelas. Si todos los coeficientes de correlación
se sitúan dentro de estos límites el proceso se considera de Ruido Blanco. Cuando existen
coeficientes que no se sitúan dentro de las bandas habrá que buscar el patrón de
comportamiento según un esquema autorregresivo (AR), de medias móviles (MA) o
mixto (ARMA).
Este método gráfico se complementa con otros métodos numéricos como son los
contrastes Q de Box-Pierce (1970) y Q de Ljung-Box (1978) que se basan en un análisis
de significación de un conjunto de retardos de los residuos. Esto es, la hipótesis nula se
formula considerando la ausencia de autocorrelación lo que equivale a considerar la
nulidad de un conjunto de estos

residuos; H0 : ρ 1 = ρ 2 = ... = ρ m = 0

Estos contrastes son muy similares y se definen en ambos casos a partir de la suma
acumulada de los coeficientes de correlación empíricos con las siguientes
especificaciones.
22.5 MODELO DE ESTIMACION ARIMA

El modelo ARIMA, según Damodar N. Gujarati, es un enfoque ampliamente utilizado en


econometría para el análisis y la predicción de series de tiempo. ARIMA combina tres
componentes principales: autoregresión (AR), integración (I) y media móvil (MA).

El componente AR se basa en la idea de que los valores pasados de la serie de tiempo son
útiles para predecir su valor actual. Utilizando regresión lineal, se establece una relación
entre la variable y sus valores pasados.

El componente I se refiere a la diferenciación de la serie de tiempo. A veces, una serie de


tiempo puede ser estacionaria después de aplicar una diferencia. La diferenciación se
realiza calculando la diferencia entre observaciones consecutivas, eliminando así las
tendencias no deseadas o la no estacionariedad.

El componente MA tiene en cuenta los errores o residuos del modelo AR. Supone que los
errores están correlacionados con los valores pasados y utiliza esta información para
ajustar el modelo. Se calcula una media móvil de los errores pasados para tener en cuenta
esta correlación.

El modelo ARIMA se especifica mediante tres parámetros: p, d y q. p representa el orden


de la parte AR, d representa el número de diferencias necesarias para hacer que la serie
de tiempo sea estacionaria y q indica el orden de la parte MA. Estos parámetros se
determinan mediante análisis de autocorrelación y autocorrelación parcial.

El modelo ARIMA se utiliza para analizar patrones, tendencias y estacionalidad en los


datos de series de tiempo. También se utiliza para hacer pronósticos futuros basados en la
información histórica. La estimación de los parámetros del modelo ARIMA se realiza
mediante técnicas de optimización, como la minimización del error cuadrado medio.

En resumen, el modelo ARIMA, según Gujarati, es una herramienta importante en


econometría para el análisis y la predicción de series de tiempo. Combina la regresión
autoregresiva, la diferenciación y el promedio móvil para capturar las propiedades
dinámicas de la serie y hacer pronósticos precisos.

Ejemplo 1:

Estimación ARIMA(1, 1, 0) para pronóstico de ventas mensuales. La serie de tiempo se


diferencia una vez. Los parámetros estimados son AR(1) = 0.7 y diferenciación = -0.4.
Supongamos que tienes datos mensuales de ventas de un producto durante 3 años. Quieres
ajustar un modelo ARIMA para predecir las ventas futuras. Después de analizar la serie
de tiempo, encuentras que es estacionaria después de una primera diferencia. Decides
utilizar un modelo ARIMA(1, 1, 0), lo que significa que tiene un componente
autoregresivo de orden 1 (AR), un componente de diferenciación de orden 1 (I) y no tiene
un componente de media móvil (MA). Estimas los parámetros del modelo utilizando
técnicas de mínimos cuadrados y obtienes los siguientes resultados: el coeficiente del
componente AR es 0.7 y el coeficiente de diferenciación es -0.4. Con estos parámetros
estimados, puedes hacer pronósticos de las ventas futuras utilizando el modelo ARIMA.

Ejemplo 2:

Estimación ARIMA(2, 0, 1) para análisis de la inflación trimestral. La serie de tiempo es


estacionaria. Los parámetros estimados son AR(2) = 0.6 y 0.3, y MA(1) = -0.2.

Supongamos que tienes datos trimestrales de la tasa de inflación durante varios años.
Quieres ajustar un modelo ARIMA para analizar y predecir la inflación futura. Después
de realizar pruebas de estacionariedad, encuentras que la serie de tiempo es estacionaria
sin la necesidad de diferenciación. Decides utilizar un modelo ARIMA(2, 0, 1), lo que
implica que tiene un componente autoregresivo de orden 2 (AR), no tiene un componente
de diferenciación (I) y tiene un componente de media móvil de orden 1 (MA). Estimas
los parámetros del modelo utilizando métodos de máxima verosimilitud y encuentras que
los coeficientes de los componentes AR son 0.6 y 0.3, y el coeficiente del componente
MA es -0.2. Con estos parámetros estimados, puedes realizar análisis de la inflación
pasada y hacer pronósticos para los próximos períodos utilizando el modelo ARIMA.

22.6 VERIFICACION DE DIAGNOSTICO

La verificación de diagnóstico según Damodar N. Gujarati se refiere al conjunto de


técnicas y pruebas utilizadas para evaluar la calidad y validez de un modelo econométrico
estimado. Gujarati es conocido por su enfoque riguroso en la econometría y su énfasis en
la importancia de la verificación de diagnóstico para asegurar la confiabilidad de los
resultados.

Las principales pruebas de verificación de diagnóstico propuestas por Gujarati incluyen:

1. Prueba de especificación: Esta prueba evalúa si el modelo econométrico


especificado es adecuado para los datos. Se analiza si se han incluido las variables
relevantes y si el modelo captura de manera precisa la relación entre las variables
dependientes e independientes.

2. Prueba de normalidad: Esta prueba verifica si los residuos del modelo siguen una
distribución normal. Se utilizan métodos estadísticos, como el test de Jarque-Bera,
para examinar si existen desviaciones significativas de la normalidad. La
violación de la suposición de normalidad puede afectar la precisión y validez de
las inferencias del modelo.

3. Prueba de autocorrelación: Esta prueba examina si hay autocorrelación en los


residuos, es decir, si existe correlación entre los errores en diferentes
observaciones. Se utilizan herramientas como el test de Durbin-Watson o el test
de Breusch-Godfrey para detectar la presencia de autocorrelación. La
autocorrelación puede afectar la eficiencia de los estimadores y sesgar las
inferencias.

4. Prueba de heterocedasticidad: Esta prueba se realiza para evaluar si la varianza de


los residuos es constante a lo largo de las observaciones. Se utilizan pruebas como
el test de White o el test de Goldfeld-Quandt para detectar la heterocedasticidad.
La heterocedasticidad puede conducir a estimaciones ineficientes y sesgadas de
los coeficientes.

5. Prueba de multicolinealidad: Esta prueba analiza si hay alta correlación entre las
variables independientes del modelo. La multicolinealidad puede dificultar la
interpretación de los coeficientes y aumentar la varianza de las estimaciones. Se
utilizan medidas como el factor de inflación de la varianza (VIF) para detectar la
presencia de multicolinealidad.

Estas pruebas y técnicas de verificación de diagnóstico permiten evaluar la validez de un


modelo econométrico y realizar ajustes o correcciones si se encuentran problemas. El
objetivo es obtener estimaciones precisas y confiables, así como asegurar que los
supuestos del modelo se cumplan adecuadamente. La verificación de diagnóstico es una
parte fundamental del proceso de modelado econométrico propuesto por Gujarati.

Econometría de series de tiempo: pronósticos


¿Cómo se pronostican variables económicas como el PIB, inflación, tasas de cambio, pre-
cios de acciones, tasas de desempleo y miles de otras variables económicas? En este capí-
tulo analizaremos dos métodos para pronosticar que han adquirido mucha popularidad:

El autorregresivo integrado de promedios móviles (ARIMA), conocido como metodo-


logía de Box-Jenkins, 27 y 2) el de vectores autorregresivos (VAR).

El vínculo entre esta parte y las anteriores reside en que los métodos de pronósticos ana-
lizados antes presuponen que las series de tiempo subyacentes son estacionarias o que
pueden convertirse en estacionarias mediante transformaciones adecuadas. Conforme
avancemos a lo largo de esta parte veremos la utilización de diversos conceptos que pre-
sentamos en las parte.

En términos generales, hay cinco enfoques de los pronósticos económicos basados en


series de tiempo: 1) métodos de alisamiento exponencial, 2) modelos de regresión uni-
ecuacionales, 3) modelos de regresión de ecuaciones simultáneas, 4) modelos autorre-
gresivos integrados de promedios móviles (ARIMA) y 5) modelos de vectores autorregre-
sivos (VAR).

Otros aspectos de la metodología BJ

Para comenzar, hay que definir la naturaleza del análisis de los modelos ARIMA, los
cuales son empleados para esta metodología, y es que a diferencia de otros modelos
econométricos convencionales, no se busca estudiar una relación funcional entre dos o
más variables, (Aunque la metodología puede aplicarse al estudio multivariable), sino que
basamos la explicación del comportamiento y el pronóstico de nuestro modelo en el
comportamiento pasado de la serie de tiempo.

Con esto busca ser un modelo que explique a través de los datos históricos el
comportamiento futuro de la variable a través los términos del error aleatorio, por lo que
se estudian las propiedades probabilísticas o aleatorias de las series de tiempo.

Otro aspecto importante que no se debe de pasar por alto, en términos de Teoría
financiera, es que esta serie de modelos econométricos, no necesariamente tienen una
relación normativa con modelos de teoría financiera, ya que se basan en explicar, describir
y pronosticar el comportamiento de las series de tiempo, entendiéndolo como un proceso
aleatorio.
Esto quiere decir, que los modelos explicativos que tratan de entender el comportamiento
del movimiento del precio de los instrumentos financieros no tienen una relevancia para
el desarrollo de estos modelos, ya que basan el estudio de los instrumentos financieros en
procesos aleatorios donde los datos de la serie de tiempo se explican así mismo con su
comportamiento histórico.

Metodología Box Jenkins:

La metodología BJ hace uso de los modelos autorregresivos integrado de promedios


móviles por sus siglas, modelos ARIMA.

Las dos especificaciones principales de esta metodología son los modelos autorregresivos
AR(p) y los modelos de promedio móvil MA(q).

Por el momento no profundizaremos en la explicación de estos conceptos, nos


centraremos en entender la metodología y quedarnos con la idea de explicar una variable
con base a su propio pasado para entender y predecir su comportamiento futuro, es decir,
autorregresivo.

Los pasos de BJ están divididos en 4, que podemos ver en el siguiente gráfico y explicado
abajo.
Preguntas:

1. ¿Cuáles son las principales técnicas utilizadas para el pronóstico de series de


tiempo?

Las principales técnicas utilizadas para el pronóstico de series de tiempo incluyen:

- Media móvil: Se calcula el promedio de los valores pasados en un período de tiempo


específico para predecir el siguiente valor.

- Suavización exponencial: Se asigna un peso exponencial decreciente a los valores


pasados, dando mayor importancia a los datos más recientes.

- Modelos ARIMA: Se utilizan para series de tiempo que exhiben patrones estacionarios
y se basan en la autocorrelación y la diferencia de los datos.

- Modelos de regresión: Se utilizan para incorporar variables predictoras externas que


pueden afectar la serie de tiempo.

2. ¿Cuál es la diferencia entre un pronóstico a corto plazo y un pronóstico a largo


plazo en la serie de tiempo?

La diferencia entre un pronóstico a corto plazo y uno a largo plazo en una serie de tiempo
radica en el horizonte temporal que se está pronosticando. El pronóstico a corto plazo
generalmente se refiere a un período de tiempo más inmediato, como días o semanas,
mientras que el pronóstico a largo plazo se extiende a períodos más amplios, como meses
o años.

3. ¿Cómo se evalúa la precisión de un pronóstico en la econometría de series de


tiempo?

La precisión de un pronóstico en la econometría de series de tiempo se evalúa mediante


medidas de error, como el error medio absoluto (EMA), el error cuadrático medio (ECM)
o el error absoluto porcentual medio (EAPM). Estas medidas comparan los valores
pronosticados con los valores reales y proporcionan una evaluación cuantitativa del
rendimiento del pronóstico.

4. ¿Qué es la suavización exponencial y cómo se utiliza para realizar pronósticos en


series de tiempo?
La suavización exponencial es una técnica utilizada para pronosticar series de tiempo en
la que se asigna un peso exponencialmente decreciente a los valores pasados. Hay varios
métodos de suavización exponencial, como el promedio móvil exponencial simple
(MES), la suavización exponencial doble y la suavización exponencial triple. Estos
métodos asignan diferentes pesos a los valores pasados y permiten capturar las tendencias
y patrones en la serie de tiempo.

5. ¿Cómo se utilizan los modelos de espacio de estados en el pronóstico de


series de tiempo?

Los modelos de espacio de estados son utilizados en el pronóstico de series de tiempo


para modelar la evolución dinámica de un sistema a lo largo del tiempo. Estos modelos
representan el estado no observado del sistema y cómo evoluciona en el tiempo a través
de ecuaciones de transición. Se combinan con las ecuaciones de observación que
relacionan el estado no observado con las observaciones disponibles para generar
pronósticos. Los modelos de espacio de estados son flexibles y pueden capturar
características complejas de las series de tiempo, como cambios de nivel, tendencias
y estacionalidad.
Ejercicios

También podría gustarte