Está en la página 1de 37

ECONOMETRIA

Ronald Mendoza
Universidad Nacional de Huancavelica.

Abril 2016.
Heteroscedasticidad
Matriz de varianza-covarianza.
′ 2
𝐸 𝜀𝜀 =𝜎 𝐼

2
𝜎 0 0… 0
2
𝐸 𝜀𝜀 ′
= 0 𝜎 0… 0
⋮ ⋮ ⋮… 0
2
0 0 0 𝜎
Matriz de varianza-covarianza.
𝐸 𝜀𝜀 ′ = 𝜎𝑖 2𝐼

2
𝜎1 0 0… 0
𝐸 𝜀𝜀 ′
= 0 𝜎2 2
0… 0
⋮ ⋮ 0
⋮… 2
0 0 𝜎
0 𝑛
Este supuesto es requirido para los test de significancia y también
para la construccion y proyección de los intervalos de confianza.
Esto implica:
The errores son homoscedasticos.
𝐸 𝜀 2 𝑖 = 𝑣𝑎𝑟 𝜀 = 𝜎 2 para todo 𝑖 = 1,2, … , 𝑁.
Y los errores son independientes:
𝐸 𝜀𝑖 𝜀𝑗 = 𝑐𝑜𝑣 𝜀𝑖 , 𝜀𝑗 = 0, para todo 𝑖 ≠ 𝑗 = 1,2, … , 𝑁.
Una consecuencia directa de la distribucion de los errores implica
que:

𝒀~𝑵(𝑿𝜷, 𝝈𝟐 𝑰)

Este supuesto es necesario para garantizar que el estimador MICO


sea el de varianza mínima dentro del conjunto de estimadores
insesgados.
Tenemos la matriz de covarianzas.

𝜎 21 0 0 … 0
0 𝜎 22 0 … 0
𝑉𝑎𝑟 𝜀 = 0 0 𝜎 23 … 0
… … … … 0
0 0 0 0 𝜎 2𝑘

La varianza permanece constante para todas las observaciones


𝑉𝑎𝑟 𝜀 = 𝜎 2 .

El error se distribuye normal:


𝜀~𝑁(0, 𝜎 2 𝐼)
Supongamos que tenemos el modelo:
𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝜀𝑖
densidad 10

20

densidad
Y
Y

10 20 𝒀𝒊 = 𝜷𝟏 + 𝜷𝟐 𝑿𝒊 + 𝜺𝑰
10 20 𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝜀𝐼

X
X
Razones de las varianzas de 𝜺𝒊 son variables:
1. Modelos de aprendizaje de errores. A medida que la gente aprende,
disminuyen sus errores de comportamiento con el tiempo. 𝜎 2 𝑖 se
reduce.
2. A medida que aumentan los ingresos, la gente posee mas ingreso discrecional.
Tiene mayores posibilidades de decidir cómo disponer de su
ingreso. 𝜎 2 𝑖 se incrementa.
3. A medida que mejoren las técnicas de recolección de datos, es probable
que se reduzca 𝜎𝑖 2 .
4. La heteroscedasticidad también surge por la presencia de datos
atípicos o aberrantes (outliers).

5. Omisión de variables importantes.

6. Asimetría en la distribución de una o mas regresoras incluidas en el


modelo.

7. Transformación incorrecta de los datos (transformaciones de razón o


diferencias) o una forma funcional incorrecta (modelos lineales frente
a modelos log-lineales).
Estimación por MCO en presencia de heteroscedasticidad.

El problema de heteroscedasticidad es mas común en


datos de corte transversal que en series de tiempo.

Los estimadores 𝛽መ𝑖 siguen siendo insesgados y


consistentes ¿Pero es eficiente o el mejor? Es decir
¿Tendrá varianza mínima en la clase de estimadores
lineales e insesgados? 𝛽መ𝑖 deja de ser el mejor.

El estimador minimocuadrático retiene las


propiedades de insesgamiento y consistencia, pero
pierde la propiedad de eficiencia.
El método de mínimos cuadrados generalizados (MCG).

Supongamos el siguiente modelo de regresión lineal


con dos variables:
𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝜀𝑖
Reescribimos:
𝑌𝑖 = 𝛽1 𝑋0𝑖 + 𝛽2 𝑋𝑖 + 𝜀𝑖
𝑋0𝑖 = 1, para cada 𝑖.

Ahora supongamos que se conocen las varianzas


heteroscedasticas 𝜎𝑖 2 . Dividimos ambos lados por 𝜎𝑖 .
𝑌𝑖 𝑋0𝑖 𝑋𝑖 𝜀𝑖
= 𝛽𝑖 + 𝛽𝑖 +
𝜎𝑖 𝜎𝑖 𝜎𝑖 𝜎𝑖
Reescribimos:
𝑌𝑖 ∗ = 𝛽1 ∗ + 𝛽2 ∗ 𝑋𝑖 ∗ + 𝜀𝑖 ∗
Tenemos:
∗ ∗ 2 𝜀𝑖 2
𝑉𝑎𝑟 𝜀𝑖 = 𝐸 𝜀𝑖 =𝐸 ,porque 𝐸 𝜀𝑖 ∗ = 0
𝜎𝑖
1
= 2 𝐸(𝜀𝑖 2 ) , porque se conoce 𝜎𝑖 2
𝜎𝑖
1
= 2 𝜎𝑖 2 , porque 𝐸 𝜀𝑖 2 = 𝜎𝑖 2
𝜎𝑖
= 1.

Ahora

la varianza del error es homoscedastica. En resumen 𝛽1 y
𝛽2 son los mejores estimadores lineales insesgados. MCG es MCO
sobre las variables transformadas que satisfacen los supuestos
estándar de mínimos cuadrados.
Consecuencias de utilizar MCO en presencia
de heteroscedasticidad.

Estimación por MCO con heteroscedasticidad.



Si: 𝑉𝑎𝑟(𝛽መ𝑖 ) ≤ Var(𝛽መ𝑖 ), lo cual indica que los
intervalos de confianza basados en estos últimos
serán innecesariamente grandes.

Es probable que las pruebas 𝑡 y 𝐹 den resultados


imprecisos.
Estimación por MCO sin heteroscedasticidad.

La existencia de heteroscedasticidad producirá


estimadores sesgados de 𝑉𝑎𝑟(𝛽መ𝑖 ), es decir en
promedio, se sobreestima o se subestima y en
general no se puede decir si el sesgo es positivo
(sobreestimación) o negativo (subestimación), pues
este depende de la naturaleza de la relación entre
𝜎 2 y los valores tomados por la variables
explicativas 𝑋.
Supongamos un estudio de Monte Carlo de Davidson y
MacKinon.
𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝜀𝑖

Suponemos que: 𝛽1 = 1 y 𝛽2 = 1 y 𝜀𝑖 ~(0, 𝑋𝑖 𝛼 ). La varianza


del error es proporcional al valor de 𝑋 elevado a la potencia 𝛼.

La característica mas sobresaliente de estos resultados es que


los 𝑀𝐶𝑂 , con o sin corrección por heteroscedasticidad,
sobreestiman consistentemente el verdadero valor erro
estándar obtenido mediante el procedimiento (correcto) de
𝑀𝐶𝐺 en especial para valores grandes de 𝛼, con lo cual se
establece la superioridad de 𝑀𝐶𝐺.
Error estándar 𝛽1 Error estándar 𝛽2

valor de 𝛼 MCO MCOhet MCG MCO MCOhet MCG

0,5 0,164 0,134 0,1100 0,285 0,277 0,243

1,0 0,142 0,101 0,0480 0,246 0,247 0,173

2,0 0,116 0,074 0,0073 0,2 0,22 0,109

3,0 0,100 0,064 0,0013 0,173 0,206 0,056

4,0 0,089 0,059 0,0003 0,154 0,195 0,017


Detección de heteroscedasticidad.

Métodos informales.

Naturaleza del problema.

De hecho, en la información de corte transversal


que comprende unidades heterogéneas, la
heteroscedasticidad puede ser la regla y no la
excepción.
Método grafico.

Si no hay información a priori o empírica sobre la


naturaleza de la heteroscedasticidad, en la practica
se puede llevar a cabo un análisis de regresión con
el supuesto de que no hay heteroscedasticidad y
luego hay que hacer un examen post mortem de
2
los residuos elevados al cuadrado, 𝜀𝑖Ƹ , para ver si
exhiben algún patrón sistemático.
𝜀𝑖Ƹ 2 𝜀𝑖Ƹ 2 𝜀𝑖Ƹ 2
v

𝑌෠ 𝑌෠ 𝑌෠
𝜀𝑖Ƹ 2 𝜀𝑖Ƹ 2

Patrones hipotéticos de
los residuos estimados
al cuadrado.
𝑌෠ 𝑌෠
𝜀𝑖Ƹ 2 𝜀𝑖Ƹ 2 𝜀𝑖Ƹ 2
v

𝑋 𝑋 𝑋
𝜀𝑖Ƹ 2 𝜀𝑖Ƹ 2

Diagrama de dispersión de
los residuos estimados al
cuadrado frente a 𝑋.

𝑋 𝑋
Métodos formales.

Prueba de park.

𝜎𝑖 2 es algún tipo de función de la variable explicativa de 𝑋𝑖 .

Supongamos que:
𝜎𝑖 2 =𝜎 2 𝑋𝑖 𝛽 𝑒 𝑣𝑖
ln𝜎𝑖 2 =ln𝜎 2 + 𝛽ln𝑋𝑖 +𝑣𝑖
2 2
Como no se conoce 𝜎𝑖 por lo general. Utilizamos 𝜀𝑖Ƹ
como una aproximación y correr la siguiente regresión.
2
𝑙𝑛𝜀𝑖Ƹ = 𝑙𝑛𝜎𝑖 2 + 𝛽𝑙𝑛𝑋𝑖 + 𝑣𝑖

Si 𝛽 resulta estadísticamente significativa, esto


sugeriría heteroscedasticidad en los datos.

Deficiencias:

El termino error puede no satisfacer los supuestos


de MCO y en si mismo ser homoscedasticos.
Prueba de Glejser.

Glejser sugiere una regresión sobre los valores absolutos de 𝜀𝑖Ƹ sobre la
variable 𝑋 que se cree muy asociada con 𝜎𝑖 2 .

𝜀𝑖Ƹ = 𝛽1 + 𝛽2 𝑋𝑖 + 𝑣𝑖
𝜀𝑖Ƹ = 𝛽1 + 𝛽2 𝑋𝑖 + 𝑣𝑖
1
𝜀𝑖Ƹ = 𝛽1 + 𝛽2 + 𝑣𝑖
𝑋𝑖
1
𝜀𝑖Ƹ = 𝛽1 + 𝛽2 + 𝑣𝑖
𝑋𝑖

𝜀𝑖Ƹ = 𝛽1 +𝛽2 𝑋𝑖 + 𝑣𝑖

𝜀𝑖Ƹ = 𝛽1 + 𝛽2 𝑋𝑖 2 + 𝑣𝑖
Deficiencias:

El termino error tiene algunos problemas, el valor


esperado es diferente de cero, esta serialmente
correlacionado y irónicamente es heteroscedástico.

En la practica la Prueba de Glejser es útil para


muestras grandes, y en muestras pequeñas sirve
estrictamente como herramienta cualitativa para
obtener una noción sobre heteroscedasticidad.
Prueba de Goldfeld-Quandt.

Es aplicable si se supone que la varianza


heteroscedástica, 𝜎 2 𝑖 , está relacionada positivamente
con una de las variables explicativas en el modelo de
regresión.

𝑌𝑖 = 𝛽1 + 𝛽2 𝑋𝑖 + 𝜀𝑖

Suponga que 𝜎 2 𝑖 , está relacionado positivamente con


𝑋𝑖 , de la forma:

𝜎 2 𝑖 = 𝜎 2 𝑋𝑖 , 𝜎 2 es una constante.
Para probar:

Paso 1.

Ordene las observaciones de acuerdo con los valores de 𝑋𝑖 ,


a partir del valor más bajo de X.

Paso 2.

Omita las 𝑐 observaciones centrales. El número de


observaciones 𝑝 omitidas debe ser lo suficiente pequeña.

Divida las observaciones restantes (𝑛 − 𝑐) en dos grupos,


cada uno de (𝑛 − 𝑐)/2 observaciones.
Paso 3.

Ajuste regresiones 𝑀𝐶𝑂 separadas a las primeras (𝑛 − 𝑐)/2


observaciones y a las últimas (𝑛 − 𝑐)/2 observaciones, y obtenga las
respectivas sumas de cuadrados residuales: 𝑆𝐶𝑅1 y 𝑆𝐶𝑅2

𝑆𝐶𝑅1 , 𝑆𝐶𝑅 de la regresión correspondiente a los valores más bajos de 𝑋𝑖


(el grupo de varianza pequeña).

𝑆𝐶𝑅2 , 𝑆𝐶𝑅 de los valores más grandes de 𝑋𝑖 (el grupo de varianza


grande).

𝑛−𝑐
Con grados de libertad cada 𝑆𝐶𝑅 : −𝑘
2
𝑘, número de parámetros que deben estimarse, incluido el intercepto.
Paso 3.

Calcule la razón:
𝑆𝐶𝑅2
𝑔𝑙 𝑛−𝑐
𝐹𝑐𝑎𝑙𝑐 = 𝜆 = 𝑆𝐶𝑅1 ~𝐹𝑔𝑙,𝑔𝑙,𝛼 , 𝑔𝑙 = −𝑘
2
𝑔𝑙

𝐹𝑐𝑎𝑙 > 𝐹𝑡𝑎𝑏𝑙𝑎 , rechazo la hipótesis de


homoscedasticidad. Podemos afirmar que es muy
probable que haya heteroscedasticidad.

𝐹𝑐𝑎𝑙 < 𝐹𝑡𝑎𝑏𝑙𝑎 , caso contrario.


Prueba general de heteroscedasticidad de White.

La prueba general de heteroscedasticidad propuesta por White no se apoya en el supuesto de


normalidad y es fácil aplicarla.

Supongamos el siguiente modelo econométrico.

𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝜀𝑖

Paso 1. Estime y obtenga los residuos 𝜀𝑖Ƹ .


Paso 2. Efectue la siguiente regresión auxiliar.

𝜀𝑖Ƹ 2 = 𝛼1 + 𝛼2 𝑋2𝑖 + 𝛼3 𝑋3𝑖 + 𝛼4 𝑋2𝑖 2 + 𝛼5 𝑋3𝑖 2 + 𝛼6 𝑋2𝑖 𝑋3𝑖 + 𝑣𝑖

Obtenga 𝑅 2 de la regresión auxiliar.


Paso 3.

𝐻0 : 𝑛𝑜 ℎ𝑎𝑦 ℎ𝑒𝑡𝑒𝑟𝑜𝑠𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑.
𝐻1 : existe ℎ𝑒𝑡𝑒𝑟𝑜𝑠𝑐𝑒𝑑𝑎𝑠𝑡𝑖𝑐𝑖𝑑𝑎𝑑.

𝑛 ∗ 𝑅2 ~𝜒 2 𝑔𝑙
Grados de libertad igual al numero de regresoras.

Paso 4.

𝜒 2 𝑐𝑎𝑙 > 𝜒 2 𝑡𝑎𝑏𝑙𝑎 , rechazo la hipótesis nula. Hay heteroscedasticidad.

𝜒 2 𝑐𝑎𝑙 < 𝜒 2 𝑡𝑎𝑏𝑙𝑎 , rechazo la hipótesis alterna. No hay heteroscedasticidad. Lo cual quieres decir:

(𝛼2 = 𝛼2 = 𝛼2 = 𝛼2 = 𝛼2 = 0)
Medidas correctivas.

La heteroscedasticidad no destruye las propiedades de


insesgamiento y consistencia de los estimadores MCO,
sin embargo estos ya no son eficientes, ni siquiera
asintóticamente (es decir en muestras grandes). Esta
falta de eficiencia resta credibilidad a los
procedimientos habituales de pruebas de hipótesis.

Dos casos:
Cuando se conoce 𝜎𝑖 2 y cuando no se conoce 𝜎𝑖 2 .
Cuando se conoce 𝝈𝒊 𝟐 : Método de los
mínimos cuadrados ponderados.

Si se conoce 𝜎𝑖 2 . El método más directo de


corregir la heteroscedasticidad es con los mínimos
cuadrados ponderados, pues los estimadores
obtenidos mediante este método son 𝑀𝐸𝐿𝐼.
Cuando no se conoce 𝝈𝒊 𝟐 .

Como pocas veces se conocen las verdaderas 𝜎𝑖 2


¿Existe alguna forma de obtener estimaciones
consistentes (en el sentido estadístico) de las
varianza y covarianzas de los estimadores MCO
aunque haya heteroscedasticidad?
Bibliografía.
o Gujarati, D. (2009) “Econometría” Quinta edición.
McGraw Hill, Mexico. Cap. 11.
o NOVALES, A. (1993) “Econometría”. 2 a
edición. Ed. McGraw-Hill. Madrid. Cap. 6.
o Wooldridge, J. (2010) “Introducción a la
econometría: Un enfoque moderno”
CENGAGE Learning 4ª. Edición, Michigan
State University. Cap. 8.
𝐶𝑜𝑛𝑠𝑢𝑚𝑜 = 𝛼1 + 𝜶𝟐 𝐼𝑛𝑔𝑟𝑒𝑠𝑜

También podría gustarte