Está en la página 1de 43

Clases 13 y 14.

Análisis de regresión básico con datos de


series de tiempo
(Cap. 10 y 11 W, Cap. 15 S&W)

Profesor: Jorge Ortega


E-mail: jorge.ortega@usm.cl
jaortegao@gmail.com

05 de junio, 2023
¿Dónde vamos?
Parte 1— Introducción y fundamentos del análisis regresión
• Capítulo 1— La naturaleza de la econometría y los datos económicos
• Capítulo 2— Modelo de regresión simple
• Capítulo 3— Análisis de regresión múltiple: estimación
• Capítulo 4— Análisis de regresión múltiple: inferencia
• Capítulo 5— Análisis de regresión múltiple: MCO asintótico

Parte 2— Tópicos avanzados


• Capítulo 8— Heterocedasticidad
• Capítulo 10— Análisis de regresión básico con datos de series de tiempo
• Capítulo 11 --- Problemas adicionales del uso de MCO con series de tiempo
• Capítulo 12— Correlación serial y heterocedasticidad en regresiones de series de tiempo
• Capítulo 15 y 16— Estimación de variables instrumentales, mínimos cuadrados en dos
Contenido

• Motivación
• Ejemplos de modelos de regresión con series de tiempo
• Propiedades de muestras finitas MCO bajo supuestos clásicos
• Cuando falla MCO: regresión espuria
• Tendencias y estacionalidad
• Propiedades asintóticas
• Estacionariedad y persistencia
Series de tiempo

Source: The Economist, Oct. 18, 2014; Jan. 23, 2016; Nov. 1, 2014
Series de tiempo

Algunas características distintivas de los datos de series de tiempo


• El orden (cronológico) de los datos importa
• Dependencia a lo largo del tiempo
• Dependencia del tiempo (efecto estacional y tendencia)

Un set de datos de series de tiempo no es una muestra aleatoria sino es


una realización de un proceso estocástico
• Este proceso de series de tiempo suele ser dependiente y puede ser no
estacionaria
• El muestreo repetido de la población de todas sus realizaciones posibles induce la
aleatoriedad de los estimadores y otras estadísticas de series de tiempo
Series de tiempo

Algunos conceptos clave


• Rezagos de una variable (lag):
• Primer rezago (xt-1), segundo rezago (xt-2), etc.
• Diferencia de una variable:
• Primera diferencia (∆xt= xt-xt-1 ), segunda diferencia (∆2xt= ∆xt- ∆xt-1 ), etc.
• Primera diferencia del logaritmo de x: ∆lnxt= lnxt-lnxt-1 =ln(xt/xt-1)
• Cambio porcentual de la variable x: 100* ∆lnxt
Series de tiempo

Aplicaciones del análisis con series de tiempo

Efecto causal:
¿Cuál es el efecto dinámico de x sobre y (ej. efecto de los bonos Covid sobre la
oferta laboral?

Pronóstico:
¿Cuál es el mejor pronóstico de una variable en el futuro (ej. crecimiento del PIB,
tasa de desempleo, tipo de cambio, etc.)?
Tipos de modelos de regresión con series de tiempo:
1. Modelos que no incluyen rezago de variable dependiente:
MCO con propiedades de muestras finitas
• Modelos estáticos
• Modelos con rezagos distribuidos finitos (en variables
explicativas) (FDL)
2. Modelos que incluyen rezago de variable dependiente y/o donde
no se cumplen propiedades de muestras finitas→ se requieren
propiedades asintóticas:
• Modelos autorregresivos (AR)
• Modelos autorregresivos con rezagos distribuidos (ADL)
Tipos de modelos de regresión con series de tiempo:

1. Modelo estático
Relación contemporanea entre y y z

yt = β0 + β1 zt + ut

• Cambios en z afecta inmediatamente a y


• Se extiende a más de una variable explicativa
• Ejemplo: yieldt = β0 + β1 inflt + β2 QEt + ut
Tipos de modelos de regresión con series de tiempo:

2. Modelos de rezagos distribuidos finitos (FDL)


FDL modelo de orden q permite que q retrasos de la variable explicativa afecten y

yt = α 0 + δ0zt + δ1zt−1 + δ2zt−2 + ·· · + δqzt−q + ut

• Ejemplo: efectos de exención de impuestos personal de en tasas de fertilidad


gfrt = α 0 + δ0 pet + δ1 pet− 1 + δ2 pet− 2 + ut
• Impacto inmediato del incremento unitario z: propensión al impacto (multiplicador) δ0
• Distribución del retraso: δj como función de j
• Impacto a largo plazo de incrementos unitarios permanentes en z: propensión a largo
plazo (LRP)
δ0 + δ1 + ·· · + δq
• Extendible a más de una variable explicativa
Tipos de modelos de regresión con series de tiempo
Tipos de modelos de regresión con series de tiempo

3. Modelo autorregresivo: AR(p)


𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡−1 + ⋯ 𝛼𝑝 𝑦𝑡−𝑝 + 𝑢𝑡 , 𝑐𝑜𝑛 𝛼𝑝 < 1

Ejemplo:
Tipos de modelos de regresión con series de tiempo

4. Modelo autorregresivo con rezagos distribuidos: ADL(p,q)


𝑦𝑡 = 𝛼0 + 𝛼1 𝑦𝑡−1 + ⋯ 𝛼𝑝 𝑦𝑡−𝑝 + 𝛽0 𝑥𝑡 + 𝛽1 𝑥𝑡−1 + ⋯ 𝛽𝑞 𝑥𝑡−𝑞 + 𝑢𝑡
Ejemplo:
Propiedades de muestras finitas MCO bajo supuestos clásicos
Supuestos del modelo lineal clásico en regresiones de series de tiempo
• TS1 (Modelo lineal en los parámetros): El proceso estocástico
{(xt1, xt2, ...,xtk ,yt ); t = 1,2,...,n} sigue el modelo lineal

𝑦𝑡 = 𝛽0 + 𝛽1 𝑥1𝑡 + 𝛽2 𝑥2𝑡 + ⋯ 𝛽𝑘 𝑥𝑘𝑡 + 𝑢𝑡


• TS2 (No colinealidad perfecta): En la muestra (y en el proceso subyacente de series
de tiempo), ninguna variable independiente es constante o una perfecta combinación
lineal de las demás
• TS3 (Media cero): E [ut|X] = 0 (“exogeneidad estricta” en x –presente, pasado y
futuro-)
• TS4 (Homoscedasticidad): var (ut |X) = σ2
• TS5 (No correlación serial): corr (ut, us|X) = 0 for all t ≠ s
• TS6 (Normalidad): Los errores ut son independientes de X e independientes e
idénticamente distribuida (idd) como N(0, σ2)
Propiedades de muestras finitas MCO bajo supuestos clásicos

Teorema 1: MCO insesgado


Bajo los supuestos TS1, TS2 y TS3, E[β̂j ] = E[β̂j |X] = βj

Teorema 2: varianza de muestreo MCO


Bajo los supuestos Gauss-Markov de series de tiempo TS1–TS5,
𝑉𝑎𝑟 𝛽መ𝑗 𝑋 = 𝜎 2 ൗ 𝑆𝑆𝑇𝑗 1 − 𝑅𝑗2

Teorema 3: Estimación insesgada de σ2


Bajo TS1–TS5, σˆ2= SSR/(n − k − 1) es un estimador insesgado de σ2

Teorema 4: Teorema de Gauss-Markov


Bajo TS1–TS5, los estimadores MCO son BLUE condicional en X
Teorema 5: distribuciones de muestreo normales
• Bajo TS1–TS6, the CLM supuestos para series de tiempo, los estimadores MCO tienen una
distribución normal, condicional en X.
• Además, bajo la hipótesis nula, cada estadístico t tiene una distribución t, y cada estadístico
F tiene una distribución F.
• La construcción habitual de los intervalos de confianza también es válida.
Cuando falla MCO: Regresión espuria

¿Qué sucede cuando se hace una regresión entre series de tiempo crecientes
o decrecientes?
• La correlación será positiva o negativa
• El estadístico-t “indica” significancia fuerte
• Por qué falla MCO en este caso?
• ¿Qué supuestos TS1-TS5 no se sostienen?
Cuando falla MCO: Regresión espuria

Más ejemplos: http://www.tylervigen.com/spurious-correlations


Tendencia y estacionalidad: media condicional#0
Tendencias y estacionalidad
Tendencias y estacionalidad
Tendencias y estacionalidad

Caracterizando tendencias en series de tiempo


• Tendencia lineal: yt = α 0 + α 1 t + et
• Tendencia exponencial: log(yt ) = β0 + β 1 t + et
• Tendencias más complicadas (polinomios), ej.: yt = α 0 + α 1 t + α 2 t 2 + et

Uso de variables de tendencia en análisis de regresión


Para evitar el problema de regression espuria se especifica:

yt = β0 + β1 xt1 + β2 xt2 + β3 t + ut

• Esto también puede ser útil si yt no es tendencial, pero sí las variables


independientes
• Cuidado: El R-cuadrado puede ser artificialmente alto al incluir tendencias
Tendencias y estacionalidad

Eliminación de la tendencia (detrending): aplicación teorema de Frisch-Waugh


• Adicionar un término de tendencia lineal a una regresión es lo mismo que utilizar series
“sin tendencia” en una regresión.
• La eliminación de la tendencia (“detrending”) involucra realizar una regresión de cada
variable en el modelo sobre t y obtener los residuos
𝑦𝑡 = 𝛼0 + 𝛼1𝑡 + 𝑒𝑡 → 𝑦ሷ𝑡 = 𝑦𝑡 − 𝛼ො0 − 𝛼ො1𝑡
• Hacer la regresión con los residuales, es decir con las series sin tendencia:
𝑦ሷ𝑡 = 𝛽0 + 𝛽1𝑥ሷ𝑡1 + ⋯ + 𝛽𝑘 𝑥ሷ𝑡𝑘 + 𝑒𝑡
• Básicamente, la tendencia ha sido descontada por efectos parciales (capítulo III)
Tendencias y estacionalidad

Eliminación de la tendencia (detrending): aplicación teorema de Frisch-Waugh


• Una ventaja de eliminar la tendencia en los datos, versus adicionar un término de
tendencia, involucra un calculo más real de la bondad de ajuste.
• Regresiones con series de tiempo tienden a tener altos R2, debido a que la tendencia es
bien explicada.
• El R2 desde una regresión sobre datos cuya tendencia se eliminó refleja mejor que tan
bien xt’s explican yt
Tendencias y estacionalidad
Ejemplo: inversión en viviendas (HSEINV.XLS)
−0.550+1.241log 𝑝𝑟𝑖𝑐𝑒
Sin tendencia 𝑙𝑜𝑔 ෣
𝑖𝑛𝑣𝑝𝑐 =
0.043 0.382
n = 42, 𝑅2 = 0.208, 𝑅ത 2 = 0.189

−0.913−0.3811log 𝑝𝑟𝑖𝑐𝑒 0.0098𝑡


Con tendencia 𝑙𝑜𝑔 ෣
𝑖𝑛𝑣𝑝𝑐 = +
0.136 0.679 0.0035
n = 42, 𝑅2 = 0.341, 𝑅ത 2 = 0.307


0.000 −0.3811𝑙𝑜𝑔 𝑝𝑟𝑖𝑐𝑒
Tendencia eliminada 𝑙𝑜𝑔 ෣
𝑖𝑛𝑣𝑝𝑐 ∗ =
0.022 0.670
n = 42, 𝑅2 = 0.008, 𝑅ത 2 = −0.017
Tendencias y estacionalidad
Ejemplo de estacionalidad: parejas separándose (medido en actualizaciones de facebook)

En general, se pueden utilizar variables dummy estacionales para corregir la estacionalidad en


las variables dependientes o independientes
Tendencias y estacionalidad
Estacionalidad: uso de variables dummy

𝑦𝑡 = 𝛽0 + 𝛽1𝑥𝑡1 + ⋯ + 𝛽𝑘 𝑥𝑡𝑘 + 𝛿1𝑓𝑒𝑏𝑡 + ⋯ + 𝛿11𝑑𝑒𝑐𝑡 + 𝑢𝑡

Desestacionalizar
• Regresar yt, xt1…xtk sobre las variables dummy
• Obtener los residuos
𝑦ሷ𝑡 = 𝑦𝑡 − 𝛿መ0 − 𝛿መ1𝑓𝑒𝑏𝑡 − ⋯ − 𝛿መ11𝑑𝑒𝑐𝑡

• Regresar los residuos de yt sobre los residuos de xt1…xtk

𝑦ሷ𝑡 = 𝛽0 + 𝛽1𝑥ሷ𝑡1 + ⋯ + 𝛽𝑘 𝑥ሷ𝑡𝑘 + 𝑢𝑡


Tendencias y estacionalidad
Ejemplo de estacionalidad (BARIUM.xls)

෣ −17.80 + 3.12𝑙𝑜𝑔 𝑐ℎ𝑒𝑚𝑝𝑖 +1.96𝑙𝑜𝑔 𝑔𝑎𝑠


𝑙𝑜𝑔 𝑐ℎ𝑛𝑖𝑚𝑝 =
21.05 0.48 0.907
+0.983𝑙𝑜𝑔 𝑟𝑡𝑤𝑒𝑥 +0.60𝑏𝑒𝑓𝑖𝑙𝑒6 −0.032𝑎𝑓𝑓𝑖𝑙𝑒6 −0.565𝑎𝑓𝑑𝑒𝑐6
0.400 0.261 0.264 0.286
𝑛 = 131, 𝑅 2 = 0.305, 𝑅ത 2 = 0.271
Propiedades asintóticas MCO en series de tiempo

Supuestos del modelo lineal clásico para regresiones de series de tiempo


• TS1’ (Linealidad y dependencia débil): El modelo es como en TS1 y
{(xt1, xt2, ...,xtk ,yt ); t = 1, 2,...,n} es estacionario y débilmente dependiente
• TS2’ (No colinearidad perfecta): Igual que en TS2
• TS3’ (Media condicional cero): E [ut|xt1, xt2, ...,xtk ] = 0 (“exogeneidad
contemporánea” en x-presente-)
• TS4’ (Homoscedasticidad): var (ut|xt1, xt2, ...,xtk ) = σ2
• TS5’ (No correlación serial):E [utus|xt1, xt2, ...,xtk ;xs1, xs2, ...,xsk ]=0 para todo t=/s
Propiedades asintóticas MCO en series de tiempo

Teorema 1: Consistencia de MCO


Bajo los supuestos TS1’, TS2’, and TS3’, los estimadores MCO son consistentes

Teorema 2: normalidad asintótica de MCO


Bajo TS1’–TS5’, los estimadores MCO tienen una distribución normal asintótica.
Además, los errores estándar de MCO, estadísticos t y estadísticos F statistics son
asintóticamente válidos

La dependencia débil (TS1’) es clave para estos resultados


Con series de tiempo altamente persistentes (fuertemente dependientes)
• Estos resultados asintóticos no aplican, pero
• Los resultados de muestras finitas del capítulo 10 funcionan siempre que se cumplan
los supuestos de CLM
Proceso estocástico estacionario
• Un proceso estocástico {xt:t=1,2,..} es estacionario si para cada colección de
índices de tiempo 1 ≤ t1 < …< tm la distribución conjunta de (xt1,xt2, …, xtm) es
la misma que aquella de (xt1+h, … xtm+h) para h ≥ 1.

• Así, la estacionaridad implica que los xt’s se distribuyen idénticamente y que la


naturaleza de cualquier correlación entre términos adyacentes es la misma a través
de todos los períodos. Forma fuerte de estacionaridad.

Proceso estacionario en covarianza


• Un proceso estocástico es estacionario en covarianza si E(xt) es constante,
Var(xt) es constante y para cada t, h ≥ 1, Cov(xt, xt+h) depende solo de h y no
de t
• Así, esta forma débil de estacionaridad requiere solo que el promedio y
varianza sean constantes a través del tiempo y la covarianza depende solo de la
distancia a través del tiempo.
Proceso estocástico estacionario

Importancia de la estacionariedad

La estacionariedad es clave, porque si el futuro es como el pasado, entonces


estas relaciones históricas pueden usarse para pronosticar el futuro.

La no estacionariedad puede deberse a dos causas:


• La existencia de tendencias estocásticas (persistencia)
• La existencia de quiebres o cambios estructurales en el tiempo.
Series de tiempo débilmente dependientes

• Una serie de tiempo es débilmente dependiente si xt y xt+h son “casi


independientes” cuando h aumenta.

• Si para un proceso de covarianza estacionaria Corr(xt, xt+h) → 0 cuando h → ∞,


diremos que este proceso de varianza estacionaria es débilmente
dependiente.

• Aún se desea usar la ley de los grandes números.

• Dos procesos estacionarios débilmente dependientes: media móvil y procesos


autorregresivos.
Series de tiempo débilmente dependientes

Un proceso de promedio móvil de orden 1, PM (1) o MA(1)


• Un proceso de promedio móvil de orden uno [MA(1)], puede ser caracterizado
como
xt = et + a1et-1 , t = 1, 2, …

con et siendo una secuencia iid (independiente e idénticamente distribuida) con


media 0 y varianza s2e

• Este es un secuencia estacionaria, débilmente dependiente debido a que


variables a 1 periodo de distancia están correlacionadas, pero a 2 periodos de
distancia no lo están.
Series de tiempo débilmente dependientes
Un proceso autorregresivo de orden 1 [AR(1)]
• Un proceso autorregresivo de orden uno [AR(1)] puede ser caracterizado como

yt = ρyt-1 + et , t = 1, 2,…

con et siendo una secuencia iid con promedio 0 y varianza se2

• Para que este proceso sea débilmente dependiente, debe darse el caso que 𝜌 < 1

• Corr(yt ,yt+h) = Cov(yt ,yt+h)/(sysy) = r1h que se hace más pequeño a medida que h
aumenta.

¿Proceso ARMA (1,1) y ARIMA (1,1,1)?


Tendencias revisadas

• Una serie con tendencia no puede ser estacionaria, debido a que el


promedio cambia a través del tiempo.

• Una serie con tendencia puede ser débilmente dependiente.

• Si una serie es débilmente dependiente y es estacionaria en su tendencia, se le


llama proceso con tendencia estacionaria

• Si la tendencia no se incluye en el análisis, las estimaciones serán espurias.


Consistencia e inferencia
Supuestos para consistencia
• Linealidad y dependencia débil
• Una media condicional cero más débil:
E(ut|xt) = 0, para cada t
• Ausencia de colinealidad perfecta.
• Así, para insesgamiento asintótico (consistencia), se pueden hacer más débiles los
supuestos de exogeneidad relativos a aquellos de insesgamiento.

Inferencia en muestras grandes


• Supuesto de homoscedasticidad más débil: Var (ut|xt) = s2, para cada t
• Supuesto más débil de ausencia de correlación serial: E(utus| xt, xs) = 0 para t  s
• Con estos supuestos se tiene normalidad asintótica y los errores estándar, y los
estadísticos usuales de t, F y ML son válidos.
Caminatas aleatorias (random walks)
• Una caminata aleatoria es un modelo AR(1) donde ρ = 1, lo que significa que la
serie no es débilmente dependiente. Es altamente persistente.
𝑦𝑡 = 𝑦𝑡−1 + 𝑒𝑡 , 𝑡 = 1,2, … , 𝑡
• Con una caminata aleatoria, el valor esperado de yt es siempre y0 – no depende
de t
• Var(yt) = se2t, por lo tanto aumenta con t
• Se dice que una caminata aleatoria es altamente persistente debido a que
E(yt+h|yt) = yt para todos los h ≥ 1

• Caminata aleatoria es un caso especial de lo que se conoce como proceso de


raíz unitaria (unit root process). El nombre viene del hecho que ρ = 1 en el
modelo AR(1)
• Tendencia y persistencia son cosas distintas- una serie puede tener
tendencia pero ser débilmente dependiente, o una serie puede ser altamente
persistente sin tendencia.
• Una caminata aleatoria con deriva (drift=constante) es un ejemplo de una
serie altamente persistente que tiene tendencia.
Caminatas aleatorias (random walks)
Caminatas aleatorias (random walks)
Caminatas aleatorias (random walks)
Transformando series persistentes

• Primero hay que probar si las series son persistentes: prueba de raíces
unitarias (más adelante).

• Para usar series altamente persistentes y obtener estimadores adecuados y


realizar inferencias correctas, es necesario transformarlas en procesos
débilmente dependientes.

• Incluir una variable de tendencia no resuelve el problema

• Proceso débilmente dependiente es integrado de orden cero [I(0)]


Transformando series persistentes

Una caminata aleatoria es integrado de orden uno [I(1)], lo que significa que la
primera diferencia será I(0).
∆𝑦𝑡 = 𝑦𝑡 − 𝑦𝑡−1 = 𝑒𝑡 , 𝑡 = 2,3 … ,
∆𝑙𝑜𝑔 𝑦𝑡 ≈ 𝑦𝑡 − 𝑦𝑡−1 Τ𝑦𝑡−1

• Por tanto, la transformación consiste en obtener la primera diferencia o la tasa de


crecimiento de las variables.

• Luego aplicar MCO, siempre y cuando se cumplan los supuestos clásicos


(exogeneidad, no colinealidad y no autocorrelación).
Ejercicios sugeridos Cap. 10 y 11 Wooldridge

Capítulo 10
Problema No. 2
Problema No. 6
Problema No. 8
Ejercicio computación C11
Ejercicio computación C13
Capítulo 11
Problema No. 2
Problema No. 5
Problema No. 7
Ejercicio computación C2
Ejercicio computación C12

También podría gustarte