Está en la página 1de 12

ECONOMETRIA UMAYOR

Clase Final. Multicolinealidad. 10/06/2020


Condiciones de sustento de los modelos de
regresión lineal
La validez y calidad de un modelo de regresión, requiere del
cumplimiento de ciertas condiciones o supuestos.
La expresión plena de los atributos de los parámetros beta estimados,
esto es su condición de Mejores Estimadores Lineales Insesgados, debe
sostenerse en al menos 5 condiciones:
• Normalidad de los errores
• No autocorrelación serial entre los errores
• No heterocedasticidad de los errores (varianza constante de
los errores)
• Mínima multicolinealidad entre variables en modelos de
regresión lineal múltiple
• Correcta especificación del modelo.
Problemas recurrentes
Ahondaremos en tres situaciones que transgreden las condiciones
señaladas y que cuando aparecen constituyen problemas para los
modeladores:

•Autocorrelación
•Heterocedasticidad
•Multicolinealidad
Detección de la autocorrelación
Es posible detectarla a través de varios métodos:
• Detección gráfica en modelos de regresión lineal simple
• Prueba de las rachas
• Prueba de Durbin y Watson
Durbin y Watson
Operando con los errores o residuos del modelo se obtiene
el siguiente indicador:
t=N

 t
( e − et −1 ) 2

d = t =2
t=N

e
t =1
t
2

5
Criterio para detección de autocorrelación,
a partir del cálculo del indicador d.

Evidencia de Zona de No Zona Evidencia de


autocorrelación indecisión autocorrelación de autocorrelación
Positiva indecisión negativa

0 dL dU 2 4- dU 4- dl 4

6
Heterocedasticidad
El problema de heteroscedasticidad se presenta cuando es violado el
supuesto de varianza constante de los errores de la función de
regresión.

La heteroscedasticidad tiene que ver con la relación entre una o más de


las variables independientes del modelo y el cuadrado de los errores
estimados a partir de la regresión.

Este problema se manifiesta en un crecimiento o decrecimiento de la


varianza del modelo.
Detección de la Heterocedasticidad
• Existen múltiples pruebas (White, Glejser, Koenker Basset…)
• Una prueba bastante eficiente y rápida en su ejecución es la Koenker-
Basset.
Suponiendo, por ejemplo, que disponemos de un modelo ya estimado en En este caso para probar heterocedasticidad basta observar si el
sus parámetros con la forma: parámetro alfa 1 es significante. Para esto se aplica la prueba t de Student.
Es decir debe calcularse el valor absoluto del cuociente entre alfa 1 y su
Yi = 0 + 1 X 1 +  2 X 2 + 3 X 3 + eˆi desviación estándar.
Köenker y Basset proponen el siguiente modelo de regresión auxiliar para
comprobar si existe heterocedasticidad.
Si tc > t (tabla) ó │ tc │ > 2, rechazamos la hipótesis de que alfa 1 es
eˆi2 = ˆ 0 + ˆ1Yˆi 2
igual a cero, aceptamos heterocedasticidad.

Si tc < t (tabla) ó │ tc │ < 2 , aceptamos la hipótesis de que alfa 1 es


igual a cero, por lo tanto aceptamos que no existe evidencia de
heterocedasticidad.
Multicolinealidad
• El término de multicolinealidad se atribuye a Ragnar Frisch.
Originalmente, significó la existencia de una función lineal “perfecta”
o exacta entre algunas o todas las variables explicativas de un modelo
de regresión. Es decir, se generan relaciones lineales cruzadas entre
las variables explicatorias de un modelo.

• Hoy en día, sin embargo, el término multicolinealidad se utiliza en un


sentido más amplio para incluir el caso de multicolinealidad perfecta,
como también, el caso en el cual hay variables intercorrelacionadas
pero no en forma perfecta, donde se acepta un error estocástico.
Consecuencias de la multicolinealidad
• Si existe multicolinealidad perfecta entre las variables independientes
de un modelo de regresión, la matriz (X' X) -1 no existe. Cuando esto
ocurre no es posible estimar los betas del modelo.

• En presencia de alta multicolinealidad se genera una ampliación de la


desviación estándar de los betas, por lo que el valor de los
estadísticos "t" para cada uno de los parámetros del modelo serán
mucho menores que en ausencia de multicolinealidad, generándose
uan insignificancia aparente en los parámetros.
Detección de la multicolinealidad
• Se puede detectar a través de la observación de ciertos síntomas,
tales como, R2 alto (sobre el 80%), convergente con relaciones de tc
bajas o no significativas ( tc < 2) respecto de los parámetros.

• Un camino alternativo es obtener un índice, el cual proporcionan


algunos software, denominado VIF (índice de inflación de varianza):
cuando este índice supera el valor 5 sería indicador que la variable
que muestra este valor asociado se encuentra involucrada en algún
tipo de multicolinealidad con otra.
Corrección de la multicolinealidad
• La multicolinealidad es un problema de grado, no de existencia. Se
puede convivir con cierto nivel del problema (manejándolo).
• Una decisión importante a considerar para terminar con el problema
de multicolinealidad es la eliminación de variables. Step Wise es un
procedimiento con cuentan muchos softwares que elimina relaciones
de multicolinealidad.
• Sin embargo la eliminación automática de variables puede hacer
perder sentido al modelo, por ello se prefiere a veces convivir con la
multicolinealidad.

También podría gustarte