Está en la página 1de 16

TEMA 4.

1:MRLG-
HETEROCEDASTICDAD
APUNTES DE ECONOMETRIA
Elaborados por la prof. Almudena Briones
OBJETIVOS

En este tema estudiamos cómo puede afectar a nuestro análisis


econométrico el hecho de que el término de error de nuestro modelo NO
tenga varianza constante. Esto es lo que denominamos heterocedasticidad.

Como sabemos, en el término de error del modelo se integran aquellas


variables explicativas que no son observadas o son desconocidas por el
analista a la hora de especificar el modelo. Por lo tanto, intuitivamente
podríamos asociar la heterocedasticidad al problema que plantea la
existencia de mucha variabilidad en los valores de los factores desconocidos
de nuestro modelo.

Cuando hay heterocedasticidad en el modelo econométrico se incumple una


de las hipótesis ideales sobre el término de error que garantizan que el
estimador por mínimos cuadrados ordinarios proporciona estimadores
lineales, insesgados y óptimos.

Los contrastes de hipótesis individual y conjunta se invalidan por lo que no


podremos analizar la significatividad de nuestros estimadores.

Tendremos que corregir la heterocedasticidad para poder analizar la


influencia de nuestras variables explicativas en la evolución de la variable
explicada.

Por lo tanto, aplicando el mismo esquema de análisis que ya conocemos en,


en este tema aprenderemos:

- Cuáles son la naturaleza y las causas de la heterocedasticidad


- Cómo detectar la heterocedasticidad por distintos métodos, yendo de
los más informales o intuitivos a los más formales mediante
contrastes estadísticos.
- Cuáles son las consecuencias de la heterocedasticidad sobre el
estimador por mínimos cuadrados ordinarios.
- Cómo podemos corregir el problema.

2
1. CONCEPTO

El término heterocedasticidad es de origen griego y se deriva de “hetero”


(distinto) y de “skedanime” que significa dispersar.

En el modelo econométrico de regresión lineal:

i=1... N
“u” es el término de error de error del modelo (o perturbación aleatoria)
que recoge todos aquellos factores desconocidos que explican el
comportamiento de la variable Y que nunca serán conocidos ni observados.
Precisamente el carácter aleatorio de la variable dependiente Y (la que
queremos analizar) se debe a la presencia del término de error en la
ecuación y el carácter lineal de nuestro modelo implica que el
comportamiento aleatorio de “u” determinará el comportamiento aleatorio
de Y.

Como es sabido, las 11 hipótesis ideales sobre las que se basas el


modelo básico de regresión lineal (MBRL) incluyen 8 hipótesis
estructurales + el supuesto de perturbaciones esféricas (por la forma
que tiene la distribución del vector aleatorio de los términos de error del
modelo) que implican el cumplimiento simultáneo de 3 hipótesis sobre el
término de error de nuestro modelo. Concretamente:

(H.9.) Hipótesis sobre la esperanza del término de error.

Que establece que el término de error es no sistemático en la medida en


que no incluye ninguna variable explicativa relevante que se ha omitido en
la especificación del modelo por error del analista.

(H.10.) Hipótesis sobre la varianza constante del término de error.

| => Perturbaciones homocedásticas

De forma intuitiva podemos entender esta restricción como que “iguales


varianzas de “u” para los distintos valores de las “X”, implican igual
varianza de “Y “ para los distintos valores de las “X” (porque la linealidad
del modelo garantiza que la varianza de “u” y la varianza de “Y” coinciden).
Es decir, el hecho de que las “X” tomen valores muy diferentes no va a
afectar a la precisión con que la recta de regresión va a representar la
relación entre “X” e “Y” ya que el término de error tendrá varianza
constante y será independiente de los valores que tomen las “X”.

(H.11.) Hipótesis sobre la incorrelación entre términos de error:

3
=> Perturbaciones no correlacionadas

Que establece que el término de error de una observación no está


relacionado con el término de error de otras observaciones y por lo tanto la
covarianza entre ellos es nula.

Como es sabido, cuando se cumplen las tres hipótesis vistas sobre el


término error del modelo, la matriz de varianzas-covarianzas del
término de error es escalar de manera que:

( ) ( )

El fenómeno de la heterocedasticidad aparece cuando el término de


error del modelo no tiene una varianza constante, es decir, cuando se da:

|
Con la notación estamos indicando explícitamente el carácter condicional
de la varianza del término del error respecto de los distintos valores de .
Por lo tanto, cuando existe heterocedasticidad en el modelo, el hecho de
que las “X” tomen valores muy diferentes sí va a afectar a la precisión con
que la recta de regresión va a representar la relación entre “X” e “Y” ya que
el término de error no tendrá varianza constante porque dependerá de los
valores que tomen las “X”.

Cuando deja de cumplirse cualquiera de las hipótesis sobre el


término de error del modelo básico de regresión lineal, la matriz de
varianzas-covarianzas del término de error no será escalar.

En el caso concreto de la heterocedasticidad ésta será de la forma:

( )

Donde estamos suponiendo que se sigue cumpliendo la hipótesis de


perturbaciones incorrelacionadas de manera que:

es una matriz simétrica y semidefinida positiva

es un factor de escala

IMPORTANTE: Independientemente de cuál sea la hipótesis sobre la


perturbación que se incumpla, cuando la matriz de varianzas -
covarianzas del término de error no sea escalar, estaremos en el caso

4
del MODELO DE REGRESION LINEAL GENERALIZADO (MRLG) del que
el modelo básico de regresión lineal (MBRL) es un caso particular cuando

2. CAUSAS FRECUENTES DE HETEROCEDASTICIDAD

Muchos fenómenos económicos son heterocedásticos porque


suelen aparecer “naturalmente” muy dispersos. Así ocurre por ejemplo con
la distribución de la renta entre individuos o países o con los beneficios de
una empresa. La heterocedasticidad es un fenómeno más característico de
las muestras de sección cruzada aunque también puede aparecer en
muestras de datos temporales. Por lo tanto estos son dos aspectos que
pueden guiarnos, en un primer momento, a la hora de plantearnos la
posible existencia de heterocedasticidad en un modelo. Asimismo, también
debemos considerar la posible existencia de heterocedasticidad en algunas
situaciones específicas como por ejemplo:

a) Cuando se comete un error de especificación inicial del modelo


por omisión de variables relevantes. Como sabemos, en este caso
las variables omitidas quedarán recogidas en el término de error del
modelo pudiendo introducir en el mismo su propia variabilidad que no
necesariamente tiene que ser constante.

b) Cuando se comete un error de especificación en la forma


funcional del modelo. Una mala especificación de la forma funcional
del modelo puede provocar que la precisión del ajuste varíe según las
variables explicativas tomen valores bajos (buena calidad del ajuste)
o altos (mala calidad del ajuste). Si esto es así, en las zonas de peor
ajuste se observarán errores mayores y más dispersos.

c) Cuando hay evidencia de cambios estructurales en la muestras


.Cuando se incumple la hipótesis estructural H.5 que establece la
estabilidad de los coeficientes del modelo a lo largo de todas las
muestras, lo que se produce es un mal ajuste de los parámetros del
modelo a los datos muestrales. Este hecho no tiene por qué influir del
mismo modo a lo largo de toda la muestra pudiendo dar lugar a
desajustes del modelo diferentes en distintas partes de la muestra y
por tanto varianzas diferentes por subperiodos muestrales.

d) Heterocedasticidad debida a la presencia de valores atípicos


(outliers) en la muestra. Esta situación provoca necesariamente un
desajuste en la varianza del término de error.

5
IMPORTANTE: Con independencia de cuál sea el origen de la
heterocedasticidad, en la mayoría de las ocasiones se podrá asociarla a
alguna de las variables explicativas del modelo. De esta manera se podrá
suponer que la varianza no constante de la perturbación se puede
descomponer en dos partes:

Donde:

: Es la parte constante de la varianza (parte homocedástica)

: Parte variable que vendrá determinada por una determinada variable


explicativa “X” cuyos valores son los causantes de los cambios en la
varianza del término de error.

Precisamente identificar cuál es la verdadera relación entre la varianza del


término de error y la variable o variables causantes de la heterocedasticidad
resultará imprescindible para aplicar algunos mecanismos de corrección del
problema.

3. CONSECUENCIAS: ESTIMACION POR MINIMOS CUADRADOS


ORDINARIOS (MCO) EN PRESENCIA DE HETEROCEDASTICIDAD

En el contexto del MODELO DE REGRESION LINEAL GENERALIZADO


(MRLG), el hecho de que la matriz de varianzas -covarianzas del
término de error no sea escalar, supondrá, respecto al método de
estimación por mínimos cuadrados ordinarios (MCO) que:

1) ̂ ( ) continúa siendo la solución única del sistema de


ecuaciones normales (SEN) que se obtienen al aplicar el método de
estimación por mínimos cuadrados ordinarios (MCO).

2) ̂ ( ) continúa siendo un estimador lineal e insesgado de


los coeficientes del modelo.

Estas propiedades del método de estimación por mínimos


cuadrados ordinarios en contexto del MODELO BASICO DE
REGRESION LINEAL (MBRL) no dependen de las hipótesis sobre
las perturbaciones, por lo que también se mantienen en el caso
más general del MODELO DE REGRESION LINEAL GENERALIZADO
(MRLG), donde la matriz de varianzas -covarianzas del término de
error no es escalar.

3) ̂ ( ) NO ES ÓPTIMO en el contexto del MODELO


DE REGRESION LINEAL GENERALIZADO (MRLG).

6
Cuando la matriz de varianzas -covarianzas del término de
error no es escalar porque hay heterocedasticidad en el
modelo, el estimador por mínimos cuadrados ordinarios (MCO)
NO ES EFICIENTE.

Por lo tanto, en el contexto del MODELO DE REGRESION


LINEAL GENERALIZADO con presencia de heterocedasticidad
(y/o autocorrelación) no se verifica el Teorema de Gauss-
Markov.

- Sabemos que, si se dan todas la hipótesis ideales en el


contexto de Modelo Básico, la matriz de varianzas-
covarianzas del término de error es escalar y la varianza del
estimador por mínimos cuadrados ordinarios viene dada por:

(̂ ) [ [̂ ]] ( )

- Por el contrario, en el contexto del modelo de regresión lineal


generalizado ,la presencia de heterocedasticidad en el
modelo provoca que la matriz de varianzas- covarianzas del
término de error no sea escalar y la varianza del estimador
por mínimos cuadrados ordinarios vendrá dada por:

(̂ ) [ [̂ ]] ( ) ( )

Donde, el hecho de que sea una matriz semidefinida positiva


implica que:

(̂ ) (̂ )

4) ̂ (̂ ) será un estimador sesgado de (̂ )

El sesgo del estimador de las varianza del estimador por mínimos


cuadrados ordinarios aumenta si ignoramos el problema de la
heterocedasticidad.
5) Como consecuencia de (4), se invalidan los contrastes de hipótesis F
y t y los intervalos de confianza obtenidos por el estimador por
mínimos cuadrados ordinarios.

7
Es decir, no podremos analizar la significatividad individual y
conjunta de los estimadores MCO porque los contrastes de
hipótesis F y t ya no son fiables.

4. CONTRASTES PARA DETECTAR LA HETEROCEDASTICIDAD

Podemos clasificar los contrastes para detectar la heterocedasticidad en


dos grandes grupos:

a) Contrastes gráficos del tipo nube de puntos (mas intuitivos que


formales)
b) Contrastes estadísticos (más formales).

Para aplicar cualquier contraste partiremos de la estimación inicial del


modelo por mínimos cuadrado ordinarios y aplicaremos al siguiente
estrategia general: como ̂ es un estimador consistente de los
parámetros el modelo aún en presencia de heterocedasticidad (no se pierde
esta importantísima propiedad), los residuos generados por la estimación
por mínimos cuadrados ordinarios;

̂ ̂ ̂

“imitarán” de forma aproximada dada la muestra, la heterocedasticidad del


término de error. Por lo tanto, la mayoría de los contrastes gráficos y
estadísticos se harán sobre los residuos generados por la estimación por
mínimos cuadrados del modelo (sus valores al cuadrado o en valor
absoluto, generalmente)

a) Contrastes gráficos del tipo nube de puntos (mas intuitivos que


formales)

Lo más habitual es utilizar ̂ ó |̂ | para analizar la dispersión de


los mismos situándolos en el eje de ordenadas y el valor estimado de la
variable dependiente (̂) en el eje de abscisas por ser una combinación
lineal de todas las variables explicativas de manera que si alguna de ellas es
la causante del problema podría detectare en un primer momento a partir
de dicho valor estimado.

Otra opción sería hacer gráficos individuales frente a cada una de las
variables explicativas “sospechosas” de generar al heterocedasticidad. Esto
sería lo apropiado en el caso del modelo de regresión lineal simple, donde
solo hay una variable explicativa. En el caso del modelo de regresión lineal
múltiple podría no ser la mejor opción, si la heterocedasticidad se debe a la
combinación de varias variables explicativas.

8
En uno u otro caso, la heterocedasticidad se manifiesta cuando el
incremento de la variable explicativa (o la representada en el eje de
abscisas) da lugar a un incremento de las perturbaciones (sus cuadrados
o su valor absoluto).

Ejemplo:

2,000

1,600
ABSOLUTOU

1,200

800

400

0
0 2,000 4,000 6,000 8,000 10,000 12,000

b) Contrastes estadísticos (mas formales)

Todos los contrastes sobre heterocedasticidad plantean en la


hipótesis nula la ausencia de heterocedasticidad” de manera que SIEMPRE:

Los denominados “test constructivos” plantean en la hipótesis


alternativa una forma funcional concreta para la heterocedasticidad
cuando se rechaza la hipótesis nula. Si ordenamos algunos de estos test de
más generales a más específicos en cuanto a su concreción de la hipótesis
alternativa respecto a la heterocedasticidad tenemos, entre otros:

1) Contraste general de White:


2) Contraste de Goldfeld-Quant: ó ó
3) Contraste de Breusch-Pagan:
4) Contraste de Harvey (Heterocedasticidad multiplicativa):

1) Contraste general de White: sería el más general y menos potente


puesto que la hipótesis alternativa no específica una estructura para la
heterocedasticidad. Así:

9
Construcción del contraste:

Modelo Original (Ejemplo):

i) Se estima el modelo original por MCO y se obtiene la serie de


residuos de la estimación
Modelo estimado por MCO:̂ ̂ ̂ ̂

Serie residual: ̂ ̂

ii) Se formula una regresión auxiliar de la serie residual al cuadrado


sobre: el término constante, los regresores originales, sus
cuadrados y sus productos cruzados:

Regresión auxiliar (teórica para construir el test de White):


̂

Regresión auxiliar (estimada):


̂ ̂ ̂ ̂ ̂ ̂ ̂

iii) Estadístico de contraste:

Donde:

n: tamaño muestral

Coeficiente de determinación de la regresión auxiliar.

p = número de regresores de la regresión auxiliar (en nuestro ejemplo p=6)

Interpretación del contraste: Si el término de error tiene varianza


constante (perturbaciones homocedástica), entonces las variables
explicativas incluidas en la regresión auxiliar no deberían tener ningún
poder explicativo sobre la serie residual al cuadrado (es decir el coeficiente
de determinación de la regresión auxiliar debería ser bajo)

Regla de decisión del contraste:

a) Usando las tablas de al nivel de significación elegido de manera


que si:
í

10
b) Usando el p-valor del estadístico F de significación conjunta
de los coeficientes estimados en la regresión auxiliar de White
de manera que este contraste plantea:

Si se rechaza la hipótesis nula estamos admitiendo que, en


conjunto las variables explicativas tienen algún poder explicativo
sobre la serie residual al cuadrado y por tanto existe
heterocedasticidad en el modelo.

 Ventajas del test de White: es un test muy flexible porque no


requiere especificar la estructura de la heterocedasticidad
 Inconveniente: es un test no constructivo: no indica qué hacer si se
rechaza al hipótesis nula (porque no especifica la estructura de la
heterocedasticidad)

5. CORRECCION DE LA HETEROCEDASTICIDAD

El problema fundamental que surge con la heterocedasticidad,


es que si se permite que la varianza del término de error varíe
a lo largo de la muestra, el número de parámetros a estimar
crecerá con el número de observaciones (datos), ya que con
cada nueva observación “aparecerá” una nueva varianza del
término de error.

Resulta imprescindible realizar algún supuesto simplificador


sobre la estructura variable de la varianza del error (ed. hay
que hacer algún supuesto simplificador sobre la estructura de
la heterocedasticidad).
Se trata de un supuesto muy importante, ya que tanto la
detección de la heterocedasticidad como la estimación del
modelo en presencia de ésta van a venir determinadas por
dicho supuesto.

Como sabemos el problema de tener perturbaciones heterocedásticas,


es que los estimadores por mínimos cuadrado ordinarios del modelo de
regresión lineal generalizado son ineficientes ya que al ser la matriz de
varianzas-covarianzas del término de error no escalar, las
expresiones del estimador MCO de los coeficientes del modelo y de su
varianza serán:

11
̂ ( )

(̂ ) [ [̂ ]] ( ) ( )

Donde, el hecho de que sea una matriz semidefinida positiva implica que:

(̂ ) (̂ ) ̂

Hay dos posibles soluciones de carácter general para recuperar la

eficiencia de ̂ :

a) Si es conocida, se pueden obtener estimadores más eficientes


incorporando la nueva información disponible al modelo a través de
la matriz de varianzas -covarianzas no escalar del término de error:
( ) que no es tenida en cuenta por el método de
estimación por mínimos cuadrados ordinarios.

En este caso se aplicaría el método de estimación por Mínimos


Cuadrados Generalizados (MCG):

(̂) ̂ ̂ ̂ ( )
con: (̂ ) ( )

En este caso ̂ (̂ ) es un estimador insesgado de (̂ ) y por


tanto los contrastes F y t vuelven a ser validos.

Si es conocida (o si el supuesto simplificador sobre la


estructura de la heterocedasticidad es correcto) el estimador
por Mínimos Cuadrados Generalizados (MCG) será eficiente
porque usa toda la información muestral.

El Teorema de Aitken establece que el estimador por Mínimos


Cuadrados Generalizados (MCG) es el estimador lineal, insesgado
y óptimo (ELIO) en el contexto del Modelo de Regresión Lineal
Generalizado (MRLG) cuando la matriz de varianzas –covarianzas
del término de error del modelo es conocida.

b) Si es desconocida (es decir, no conocemos ni la forma ni el


contenido numérico de ), se puede corregir el sesgo de

12
̂ (̂ ) utilizando el estimador de White robusto a
heterocedasticidad, por ser un estimador consistente de la
matriz de varianzas -covarianzas no escalar del término de
error.

Si es desconocida o el (o si el supuesto simplificador sobre la


estructura de la heterocedasticidad es incorrecto), el estimador
por Mínimos Cuadrados Generalizados (MCG) ya no será
eficiente.

Una especificación incorrecta de generará un estimador


sesgado de la matriz de varianzas –covarianzas del término de
error: (̂)

White propuso estimador consistente para ̂ (̂ ) que no


requiere una representación funcional específica para la
desconocida. Este estimador tiene buenas propiedades
asintóticas (en muestras grandes) y resulta extremadamente
útil, ya que sin especificar realmente la forma de la
heterocedasticidad se puede utilizar los contrastes de
significatividad individual y conjunta (t y F) sobre los
estimadores por mínimos cuadrados ordinarios.

c) Transformación logarítmica para estabilizar la varianza:


transformación Box-Cox.

En algunas ocasiones se utiliza el operador logaritmos para


corregir la heterocedasticidad de manera que se toman
logaritmos sobre las variables originales y se estima el
modelo por mínimos cuadrados ordinarios (MCO).

La lógica subyacente a este método es que el operador logaritmo,


suaviza la dispersión de los valores originales al tomar valores en un
rango menor.

Esta transformación es muy habitual porque ha mostrado su


efectividad en muchos casos, sin embargo dicha efectividad está
sujeta a dos restricciones muy fuertes y es que solo tiene sentido
aplicar la transformación logarítmica si el modelo original no
es lineal y presenta heterocedasticidad multiplicativa
(detectable a partir del Test de Harvey que se ha mencionado pero
no explicado). Además, es necesario que las perturbaciones

13
heterocedásticas del modo original tengan una distribución
logarítmica normal.

Si no se dan estas condiciones en el modelo original, la estimación


por MCO del modelo transformado en logaritmos no implica estimar
el mismo modelo.

CONCLUSION MUY IMPORTANTE: la heterocedasticidad no


siempre se corrige aplicando logaritmos sobre las variables
originales y estimando el modelo por mínimos cuadrados
ordinarios (MCO).

14
RESUMEN

 Muchos fenómenos económicos son heterocedásticos porque suelen


aparecer “naturalmente” muy dispersos, como por ejemplo: la
distribución de la renta entre individuos o países o los beneficios de
una empresa). La heterocedasticidad es un fenómeno más
característico de las muestras de sección cruzada aunque también
puede aparecer en muestras de datos temporales.

 En la mayoría de las ocasiones la heterocedasticidad se podrá asociar


a alguna de las variables explicativas del modelo. Los errores de
especificación por omisión de variables relevantes en nuestro modelo
son una causa de heterocedasticidad muy frecuente.

 Cuando hay heterocedasticidad en el modelo econométrico, el


estimador por mínimos cuadrados ordinarios proporciona estimadores
que seguirán siendo lineales e insesgados, pero dejarán de ser
óptimos en el sentido de que dejarán de ser los de menor varianza
entre los de su clase.

 La pérdida de eficiencia del estimador por mínimos cuadrados


ordinarios invalida los contrastes de hipótesis individual y conjunta
por lo que no podremos analizar la significatividad de nuestros
estimadores (los estadísticos t y F no serán fiables)

 Todos los contrastes de heterocedasticidad plantean en la hipótesis


nula a contrastar la ausencia de heterocedasticidad. Nosotros
estudiamos el Contraste General de White que es el más sencillo
porque en la hipótesis alternativa no específica una estructura
concreta para la heterocedasticidad.

 Para poder corregir la heterocedasticidad resulta imprescindible


realizar algún supuesto sobre la estructura de la heterocedasticidad.
Si el supuesto sobre la estructura de la heterocedasticidad es
correcto, el estimador por Mínimos Cuadrados Generalizados (MCG)
será eficiente porque usa toda la información muestral.

 Si se desconoce la estructura de la heterocedasticidad, podemos usar


el estimador de White consistente a heterocedasticidad ya que
este estimador permite utilizar los contrastes de significatividad
individual y conjunta (t y F) sobre los estimadores por mínimos
cuadrados ordinarios.

 En algunas ocasiones se utiliza el operador logaritmos para corregir la


heterocedasticidad de manera que se toman logaritmos sobre las

15
variables originales y se estima el modelo por mínimos cuadrados
ordinarios.

FIN TEMA 4.1.MRLG-Heterocedasticidad

16

También podría gustarte