Está en la página 1de 22

Traducido del inglés al español - www.onlinedoctranslator.

com

Análisis de regresión multiple

y =0+1X1+2X2+ . . .kXk+ u

6. Heterocedasticidad
¿Qué es la heterocedasticidad?
Recuérdese que el supuesto de homoscedasticidad
implicaba que, condicional a las variables explicativas,
la varianza del error no observado,u, era constante
Si esto no es cierto, eso es si la varianza de u es
diferente para diferentes valores de la x's, entonces los
errores son heterocedásticos
Ejemplo: la estimación de los rendimientos de la
educación y la capacidad no es observable, y se piensa
que la variación en la capacidad difiere según el nivel
educativo
Ejemplo de Heterocedasticidad
f(y|x)

y
.
. E(y|x) =0+1x

.
X1 X2 X3 X
¿Por qué preocuparse por la
heterocedasticidad?
MCO sigue siendo imparcial y consistente,
incluso si no asumimos homocedasticidad
Los errores estándar de las estimaciones son
sesgado si tenemos heteroscedasticidad
Si los errores estándar están sesgados, no
podemos usar las habituales t estadísticas o F
estadísticas o LM estadísticas para hacer
inferencias
Varianza con Heterocedasticidad

es
Varianza con Heterocedasticidad

Por  lo general,  el modelo  de  regresión multiple , d a un  estimador  valid o


estimator  de
 Var(^𝛽 ) con   heterocedasticidad es
𝑗 ^ 𝑟  es  la  𝑖th  residuo de  la  regresi ó n 𝑥 𝑗  en  todas  las otras  variables independientes , y  SST 𝑗  es  la  suma de los  residuales  cuadrados desde  su  regresión

^∑ 𝑟ij𝑢^2𝑖
Var (^𝛽𝑗)= ❑ 2 ,𝑑𝑜𝑛𝑑𝑒
SST 𝑗 ij
Errores estándar robustos
Ahora que tenemos una estimación consistente
de la varianza, la raíz cuadrada se puede usar
como un error estándar para la inferencia
Por lo general, se llama a estos, errores
estándares robustos
A veces, la varianza estimada se corrige por los
grados de libertad multiplicando por no(n-k-1)
Como n→ ∞ es todo lo mismo, aunque
Errores estándar robustos
(continuación)
Es importante recordar que estos errores estándar
robustos solo tienen una justificación asintótica,
con tamaños de muestra pequeños t las
estadísticas formadas con errores estándar
robustos no tendrán una distribución cercana a la
t, y las inferencias no serán correctas
En Stata, los errores estándar robustos se
obtienen fácilmente usando la opción robust de
regress
Una robusta LM Estadística
Ejecute MCO en el modelo restringido y guarde los
residuos ŭ
Realice una regresión de cada una de las variables
excluidas en todas las variables incluidas (q
regresiones diferentes) y guarde cada conjunto de
residuos ř1,ř2, …, řq
Regresión de una variable definida sera = 1 en ř1ŭ,ř2ŭ,
…,řqŭ, sin intercepto
El estadístico LM es n– RSS1, donde SSR1es la suma
de los residuos cuadrados de esta regresión final
Prueba de heterocedasticidad
Esencialmente quiero probar H0: Var(u|x1, x2,
…, xk) =2, que es equivalente a
H0: E(u2|x1, x2,…, xk) = E(u2) =2
Si se supone la relación entre u2 y xjserá lineal,
puede probarla como una restricción lineal
Entonces, para u2=0+1x1+…+kxk+v) esto
significa probar H0:1=2= … =k= 0
La prueba de Breusch-Pagan
No se observa el error, pero puede estimarlo con los
residuos de la regresión MCO
Después de hacer la regresión de los residuos al
cuadrado en todos los x's, puede usar el R2 para
formar una prueba F o LM
La estadística F es solo la reportada estadística F
para la significación general de la regresión,
F= [R2/k]/[(1– R2)/(n – k – 1)], que se distribuye Fk, n - k - 1
La estadística LM es LM=nR2, que se distribuye c2k
La prueba de White
La prueba de Breusch-Pagan detectará cualquier
forma lineal de heteroscedasticidad
La prueba de White permite no linealidades mediante
el uso de cuadrados y productos cruzados de todos las
x's
Aún usando una F o LM para probar si todos los
xj,xj2, y xjxh son conjuntamente significativos
Esto puede llegar a ser difícil de manejar muy
rapidamente
Forma alternativa de la prueba de
White
Considere que los valores ajustados de MCO, ŷ,
son una función de todos los x's
De este modo, ŷ2será una función de los
cuadrados y productos cruzados y ŷ y ŷ2 puede
representar todos los xj,xj2, y xjxh, entonces
Regresar los residuos al cuadrado en ŷ y ŷ2 y
usar la R2 para formar una estadística F o LM
Tenga en cuenta que solo prueba, para 2
restricciones ahora
Mínimos cuadrados ponderados
Si bien siempre es posible estimar errores
estándar robustos para las estimaciones de
MCO, si sabemos algo sobre la forma
específica de la heteroscedasticidad, podemos
obtener estimaciones más eficientes que MCO.
La idea básica será transformar el modelo en
uno que tenga errores homocedásticos,
llamados mínimos cuadrados ponderados.
Caso de forma conocida hasta
una constante multiplicativa
Suponga que la heteroscedasticidad se puede
modelar como Var(u|x) =2h(x), donde el
truco es averiguar qué h(x)≡ hi parece
E(ui/√hi|x) = 0, porque hi es sólo una función
de x, y Var(ui/√hi|x) =2,porque conocemos
Var(u|x) =2hi
Entonces, si dividimos toda nuestra ecuación
por √hi tendríamos un modelo donde el error
es homocedástico
Mínimos cuadrados
generalizados
Estimar la ecuación transformada por MCO
es un ejemplo de mínimos cuadrados
generalizados (GLS)
GLS será MELI en este caso
GLS es un procedimiento de mínimos
cuadrados ponderados (WLS) en el que cada
residuo cuadrático se pondera por el inverso
de Var(ui|xi)
Mínimos cuadrados ponderados
Si bien es intuitivo ver por qué es apropiado
realizar MCO en una ecuación transformada,
puede ser tedioso hacer la transformación
Los mínimos cuadrados ponderados son una
forma de obtener lo mismo, sin la
transformación
La idea es minimizar la suma ponderada de
cuadrados (ponderada por 1/hi)
Más sobre WLS
WLS es genial si sabemos lo que Var(ui|xi)
significa
En la mayoría de los casos, no conocerá la
forma de heteroscedasticidad.
Ejemplo donde se hace si los datos son
agregados, pero el modelo es a nivel individual
Quiere ponderar cada observación agregada
por el inverso del número de individuos
GLS factible
Más típico es el caso en el que no conoce la
forma de la heteroscedasticidad
En este caso, debe estimarh(xi)
Por lo general, comenzamos con la suposición
de un modelo bastante flexible, como
Var(u|x) =2exp(0+1X1+ …+kxk)
Como no conocemos el, debe estimar
GLS factible (continuación)
Nuestra suposición implica que
u2=2exp(0+1X1+ …+kxk)v
donde E(v|x) = 1, entonces si E(v) = 1
ln(u2) =+1X1+ …+kxk+e
donde E(e) = 1 y e es independiente de x
Ahora, sabemos que û es una estimación de
u, por lo que podemos estimar esto por MCO
GLS factible (continuación)
Ahora, una estimación de h se obtiene como
ĥ= exp(g^), y el inverso de esto es nuestro peso
¿Entonces, qué hicimos?
Ejecute el modelo MCO original, guarde los
residuos, û, cuadrados y tome el log
Regresión de ln(û2) en todas las variables
independientes y obtenga los valores ajustados,
g^
HagaWLS usando 1/exp(g^) como el peso
Resumen de WLS
Cuando realice pruebas F con WLS, forme los pesos del
modelo sin restricciones y use esos pesos para hacer WLS
en el modelo restringido y en el modelo sin restricciones.
Recuerde que estamos usando WLS solo por eficiencia:
OLS sigue siendo imparcial y consistente
Las estimaciones seguirán siendo diferentes debido al
error de muestreo, pero si son muy diferentes, es probable
que alguna otra suposición de Gauss-Markov sea falsa.

También podría gustarte