Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Endogeneidad
Endogeneidad
Variables proxy
Variables instrumentales
Endogeneidad
Gabriel V. Montes-Rojas
y = β 0 + β 1 x1 + β 2 x2 + v ,
y = γ0 + γ1 x1 + e,
donde E (e |x1 ) = 0. Entonces decimos que omitimos x2 (es decir, deberı́a estar pero
no la usamos, x2 es una variable omitida).
Prueba:
Para simplificar la notación escribimos E (.) en vez de E (.|x1 , x2 ), o sea que las
esperanzas son en realidad esperanzas condicionales.
" # " #
∑N
i =1 (x1i − x̄1 )(yi − ȳ ) ∑Ni =1 (xi − x̄ )(yi )
E [γ̂1 ] = E =E
∑N
i =1 (x1i − x̄1 )
2 ∑N i =1 (x1i − x̄1 )
2
" #
∑Ni =1 (x1i − x̄1 )( β 0 + β 1 x1i + β 2 x2i + vi )
=E
∑N i =1 (x1i − x̄1 )
2
∑N
i =1 (x1i − x̄1 )( β 0 + β 1 x1i + β 2 x2i + E [vi ])
=
∑Ni =1 (x1i − x̄1 )
2
∑N
i =1 (x1i − x̄1 )( β 1 x1i + β 2 x2i ) ∑N (x − x̄1 )(x2i − x̄2 )
= N
= β 1 + β 2 i =1 N1i = β 1 + β 2 δ̂12
∑i =1 (x1i − x̄1 ) 2 ∑i =1 (x1i − x̄1 )2
Regresión simple
Una forma de interpretación
Una forma de ver los modelos de regresión es la siguiente. Notemos que para el
modelo y = γ0 + γ1 x1 + e,
Cov (y , x1 )
γ1 = ,
Var (x1 )
Cov (x1 , e )
= γ1 + = γ1
Var (x1 )
(porque Cov (x1 , x1 ) = Var (x1 ) y Cov (e, x1 ) = 0) Esto significa que γ1 mide
cuánto y se relaciona con x, estandarizado por la varianza de x.
p Cov (y ,x1 )
Ver la equivalencia con la teorı́a asintótica: γ̂1 → Var (x1 )
, cuando N → ∞.
Cov (y , x1 ) Cov ( β 0 + β 1 x1 + β 2 x2 + v , x1 )
γ1 = =
Var (x1 ) Var (x1 )
Cov (x2 , x1 )
= β1 + β2 = β 1 + Sesgo.
Var (x1 )
Cov (x2 ,x1 )
¿Cómo se interpreta δ12 = Var (x1 )
?
p Cov (y ,x1 )
Ver la equivalencia con la teorı́a asintótica: γ̂1 → Var (x1 )
, cuando N → ∞.
clear
set more off
set obs 100
gen x1=rnormal(0,1)
gen x2=rnormal(0,1)+x1
gen u=rnormal(0,1)
gen y=1+1*x1+1*x2+u
reg y x1 x2
reg y x1
y = γ0 + γ1 x1 + e
donde E (e |x1 , x2 ) = 0 satisface los supuestos de Gauss-Markov, pero se estima
(modelo estimado)
y = β 0 + β 1 x1 + β 2 x2 + v ,
El problema de la endogeneidad
El problema de la endogeneidad
Consideremos el modelo estructural
donde u ≡ β 3 abil + v .
En este caso podemos argumentar que: Cov (educ, u ) ̸= 0, Cov (exper , u ) ̸= 0,
siempre y cuando Cov (educ, abil ) ̸= 0, Cov (exper , abil ) ̸= 0. Es decir educ y
exper son variables endógenas.
Otra forma de verlo es que en el modelo estimado con la variable omitida abil,
El problema de la endogeneidad
En este caso, los parámetros γ del modelo con la variable omitida abil son
γ0 = β 0 + β 3 δ0 , γ1 = β 1 + β 3 δ1 , γ2 = β 2 + β 3 δ2 . También el error es
e = β3 r + v .
El problema de la endogeneidad
Cov (y , x ) Cov ( β 0 + β 1 x + u, x )
=
Var (x ) Var (x )
Cov (u, x )
= β1 + = β 1 + Sesgo Endogeneidad.
Var (x )
Siempre que se pueda conviene explicar el sesgo por endogeneidad como un
sesgo por variables omitidas.
El problema de la endogeneidad
Consideremos un modelo estructural general:
y = β 0 + β 1 x1 + β 2 x2 + ... + β K xK + β q q + v ,
E (v |x1 , x2 , ..., xK , q ) = 0.
Supongamos que q es no observable. Entonces forma parte del error.
Asumamos sin pérdida de generalidad que E (q ) = 0 (como hay un intercepto no
es ningún problema)
y = β 0 + β 1 x1 + β 2 x2 + ... + β K xK + u,
u ≡ βq q + v .
Ahora consideremos la proyección de q en x como
q = δ0 + δ1 x1 + ... + δK xK + r ,
σx2∗
Notar que 0 ≤ σx2∗ +σw2 ≤ 1, sesgo de atenuación (attenuation bias).
Soluciones
Consideremos el modelo
Variables instrumentales
y = β0 + β1 x + u
donde Cov (x, u ) ̸= 0 (o sea, x is endógena).
Una variable instrumental (VI) z deberı́a satisfacer:
1 Exogeneidad. No estar correlacionada con el error: Cov (z, u ) = 0
2 Relevancia. Estar correlacionada con la variable endógena: Cov (x, z ) ̸= 0
La condición de exogeneidad se puede ver a veces como condición de exclusión, donde
el instrumento solo afecta la ecuación estructural a través de la variable endógena.
Variables instrumentales
¿Cómo podrı́amos estimar β 1 usando z?
Notar que
Cov (z, y )
β1 =
Cov (z, x )
¿Por qué?
\
Cov (z, y ) 1
∑N
i =1 (zi − z̄ )(yi − ȳ )
β̂VI
1 = = N
,
\
Cov (z, x )
1
N ∑N
i =1 (zi − z̄ )(xi − x̄ )
p Cov (z,y )
y notar que β̂VI
1 → Cov (z,x )
= β 1 cuando N → ∞.
( 1 ) x = η0 + η1 z + r ,
(2) y = β 0 + β 1 x + u,
donde Cov (z, u ) = Cov (z, r ) = 0. La endogeneidad implica que Cov (u, r ) ̸= 0.
Reemplazando (1) en (2), tenemos la forma reducida
y = ( β 0 + β 1 η0 ) + ( β 1 η1 )z + (u + β 1 r ) = π0 + π1 z + error .
Notar entonces que β 1 se puede estimar como el ratio del coeficiente de regresión de y
en z (π1 = β 1 η1 ) y del coeficiente de regresión de x en z (η1 ). De hecho comprobar
que
∑N
i =1 (zi −z̄ )(yi −ȳ ) Cov (z,y )
π̂1 ∑Ni =1 (zi −z̄ )
2 p Var (z )
β̂VI
1 = = → β1 = ,
η̂1 ∑N
i =1 (zi −z̄ )(xi −x̄ ) Cov (z, x )Var (z )
∑Ni =1 (zi −z̄ )
2
cuando N → ∞.
y = β 0 + β 1 x + u.
y = β 0 + β 1 (x̂ + r ) + u = β 0 + β 1 x̂ + v ,
Cov (z, y )
= = β1 .
Cov (z, x )
N N
N0 N
∑ (zi − z̄ )(yi − ȳ ) = ∑ zi (yi − ȳ ) = N1 ȳ1 − N1 ȳ = N1 ȳ1 − N1 N 0
ȳ + 1 ȳ1
N
i =1 i =1
N12 N N N 2 + N0 N1 − N12 N N N N
= (N1 − )ȳ − 0 1 ȳ0 = 1 ȳ1 − 0 1 ȳ0 = 0 1 (ȳ1 − ȳ0 ).
N 1 N N N N
Haciendo lo mismo para el denominador llegamos al resultado.
Consideremos el modelo
y = β 0 + β 1 x1 + β 2 x2 + ... + β K xK + u
xK = η0 + η1 x1 + ... + ηK −1 xK −1 + θz + rK ,
ỹ = β K x̃K + ũ
x̃K = θ z̃ + r˜K
donde las variables con ˜ son los residuos de una regresión en (1, x1 , x2 , ..., xK −1 ).
Siempre podemos entonces analizar un modelo de muchas variables en base a
regresiones simples.
Identificación de VI
Consideremos el modelo de regresión
y = x β + u.
E (z ′ u ) = 0.
[E (z ′ x )] β = E (z ′ y ),
donde E (z ′ x ) es una matriz (K + 1) × (K + 1) y E (z ′ y ) es (K + 1) × 1. Este
sistema tiene una única solución si y sólo si la primera matriz tiene rango K + 1,
entonces
β = [E (z ′ x )]−1 E (z ′ y ).
El estimador de variables instrumentales de β es
! −1 !
N N
β̂ VI = N −1 ∑ z i′ x i N −1 ∑ z i′ yi = (Z ′ X ) −1 (Z y )
i =1 i =1
Muchos instrumentos
donde
xK = η0 + η1 x1 + ... + ηK −1 xK −1 + θ1 z1 + ... + θM zM + rK
Weak IV (avanzado)
Weak IV (avanzado)
Entonces asumiendo Ez ′ v = Ez ′ u = 0,
√ Gn z ′ u d
N ( β̂IV − β) = + op (1) → Normal 0, θ −2 E [(z ′ u )2 ]/(E [z ′ z ])−2 ,
θEz ′ z
Acá estamos haciendo uso de:
Ley de los grandes números, usando para secuencia iid {ai }N
i =1
p
EN a = 1
N ∑N
i ai → E ( a ) ;
Teorema central del lı́mite, usando para secuencia iid {ai }N
i =1
√ d
GN a = N N1 ∑N i ai → Normal (E (a), V (a));
op (1) significa que se hace 0 en probabilidad.
Notar que θ afecta la varianza del estimador. ¡Si θ = 0 la varianza es infinita! (en
realidad no se podrı́a derivar el resultado dado que estamos dividiendo por algo que es
0)
Weak IV (avanzado)
Staiger y Stock (1997 Econometrica) y Stock y Yogo √ (2005) método derivan la regla
del estadı́stico F = 10 (muy famoso). Usan θ = c/ N (local to zero asymptotics)
Gn z ′ u
β̂IV − β = .
cEN z ′ z + Gn z ′ v
La regla se deriva encontrando cuánto tiene que ser el valor F de MCO de la primera
etapa para que (i) para un α = 5% de significatividad; (ii) el sesgo sea menor a 10% en
porcentage de β̂IV − β relativo a β̂OLS − β. F = 10 es para menor a ese 10% de sesgo.
y1 = β 0 + β 1 y2 + β 2 z1 + β 3 z2 + u
donde y2 es (potencialmente) endógena; z1 and z2 son variables explicativas exógenas;
z3 and z4 son IV. Para contrastar por endogeneidad:
1 y2 = π0 + π1 z1 + π2 z2 + π3 z3 + π4 z4 + v2 y construir los residuos v̂2
2 y1 = β 0 + β 1 y2 + β 2 z1 + β 3 z2 + δ1 v̂2 + error
3 Contrastar por la significancia estadı́stica de v̂2 , H0 : δ1 = 0.
4 Si rechazamos la hipótesis nula entonces hay evidencia que u y v2 están
correlacionados y y2 es endógena.
′ a
DWH = ( β̂ 2SLS − β̂ OLS )′ [(X̂ X̂ )−1 − (X ′ X )]( β̂ 2SLS − β̂ OLS )/σ̂2 ∼ χ2L−K
VI en STATA
VI en STATA
reg x1 z1 z2 x2
predict x1hat
reg y x1hat x2
Notar que los errores estándar son diferentes. ¿Por qué?
Ejemplos en la web
http://fmwww.bc.edu/gstat/examples/wooldridge/wooldridge9.html
http://fmwww.bc.edu/gstat/examples/wooldridge/wooldridge15.html
https://www.stata.com/manuals13/rivregress.pdf
Identificación
Consistencia de 2SLS
! ! −1 ! −1
N N N
β̂ 2SLS = N −1 ∑ x i′ z i N −1
∑ z i′ z i N −1
∑ z i′ x i
i =1 i =1 i =1
! ! −1 !
N N N
N −1
∑ x i′ z i N −1
∑ z i′ z i N −1
∑ z i′ yi
i =1 i =1 i =1