Está en la página 1de 3

Facultad de ciencias económicas y sociales (FACES)

Escuela de Economía, Asignatura: Econometría II


Alumno: Jhonn Sánchez, CI: V-26.530.389
Primera asignación: Multicolinealidad y Autocorrelación (resumen)

¿Qué se entiende por multicolinealidad?

Se le llama multicolinealidad, a una situación en donde las variables explicativas o regresoras de un


modelo econométrico (Un modelo de regresión lineal múltiple, por ejemplo) están relacionados entre sí de
forma perfecta, es decir, existe una correlación perfecta entre las variables independientes del modelo.

Las causas de la multicolinealidad, puede corresponder a los siguientes factores:

 El método de recolección de información empleado.


 Restricciones en el modelo o en la población Objeto de muestreo: limitantes en la recolección de
la muestra.
 Especificación del modelo econométrico: adiciones de términos polinomiales a un modelo de
regresión, especialmente cuando el intervalo de variable explicativa es pequeño.
 Modelo sobredeterminado: El número de variables explicativas es mayor que el número de
observaciones.
 Regresoras con tendencia común: Presencia de colinealidad entre las variables conforme avance
el tiempo.

Entre las consecuencias principales de la multicolinealidad, se encuentran: 1). Las varianzas de las
estimaciones son muy grandes. 2). Debido a la consecuencia anterior, los intervalos de confianza tienden a
ser más grandes. 3) la razón 𝑡 de uno o más coeficientes tiende a ser estadísticamente no significativa. 4)
El coeficiente de determinación 𝑅 2 puedo ser muy alto. 5) los estimadores de mínimos cuadrados ordinarios
(MCO) y sus errores estándar son sensibles a pequeños cambios en la información.

¿Cómo se detecta la multicolinealidad?

En cuanto a la detección de la multicolinealidad, se debe tomar en cuenta que no hay un método general
para hacerlo, sin embargo, si se dispone de reglas o test estadísticos para detectarla, como:
 Poca significatividad de las variables Regresoras y a la vez un 𝑅 2 elevado.
 Altas correlaciones entre parejas de regresores, lo cual quiere decir que existe alta colinealidad entre
las variables explicativas del modelo, que puede acarrear problemas serios de multicolinealidad.

 Matriz de coeficientes de correlación entre las Regresoras, en donde si la matriz |𝑟𝑥𝑖𝑥𝑗 | > 0.8 entonces

existe multicolinealidad.
 Contraste de hipótesis mediante el test de Farrar-Glauber, en donde la hipótesis nula es 𝐻0 = las
variables están incorreladas, la alternativa 𝐻1 = existe multicolinealidad. Basado en el estadístico

(2𝑘 + 5)
𝐺 = − [(𝑛 − 1) − ] 𝑙𝑛[𝑑𝑒𝑡(𝑋 ´ 𝑋)]
6

¿Cómo se corrige la multicolinealidad?

Una alternativa es no hacer nada, ya que como dijo Blanchard: “La multicolinealidad es la voluntad de
Dios, y no es un problema de MCO o de estadística en General”. O, se puede ampliar la muestra o
transformar las variables, suprimirlas, utilizar el modelo de diferencia vigilando Autocorrelación, combinar
información de corte transversal y de series de tiempo y añadir datos adicionales o nuevos datos.

¿Qué es la Autocorrelación?

Es la correlación entre miembros de series de observaciones ordenadas en el tiempo (como en datos de


series temporales) o en el espacio (como en datos de corte transversal).

En cuanto a las causas que explican la Autocorrelación en las series de tiempo, se encuentra: 1) la inercia
o lentitud, es decir, es probable que las observaciones sucesivas en una serie de tiempo sean
interdependientes (dependiente una de la otra). 2) Sesgo de especificación ocasionado por una o varias
variables excluidas en el modelo, incluir estas variables elimina el patrón de Autocorrelación entre los
residuales. 3). Sesgo de especificación en la forma funcional incorrecta: el uso de una forma funcional
incorrecta reflejará Autocorrelación en los residuos. 4) Rezagos o autoregresión: una variable explicativa
es el valor rezagado de la variable dependiente. 5) Manipulación y transformación de datos. 6) No
estacionariedad de las series de tiempo.
Consecuencias de la Autocorrelación.

La consecuencia más grave es que la estimación mediante MCO deja de ser eficiente (no tienen mínima
varianza). Otra consecuencia radica en que la estimación de la varianza de los residuos subestime a la
verdadera. Luego, es probable que se sobrestime el coeficiente de determinación 𝑅 2 y por consiguiente, las
pruebas de significancia 𝑡 y 𝐹 usuales dejan de ser válidas, por lo que aplicarlas, conducirán a conclusiones
erróneas sobre la significancia estadística de los coeficientes de regresión estimados.

¿Cómo se detecta la Autocorrelación?

 Mediante el método gráfico: analizando los residuos mediante una gráfica de secuencia de tiempo.
 Prueba de Geary: tomando los signos tanto positivos como negativos de los residuos de una regresión
 Prueba 𝑑 de Durbin-Watson, definida por el estadístico de prueba como:

∑𝑡=𝑛 ̂ 𝑡 − 𝑢̂𝑡−1 )2
𝑡=2 (𝑢
𝑑=
∑𝑡=𝑢
𝑡=1 𝑢̂ 𝑡2

 Prueba de Breusch- Godfrey (BF)

¿Cómo se corrige la Autocorrelación?

En caso de que el modelo de regresión a analizar presente Autocorrelación, se pueden acudir a cuatro
opciones:

1. Averiguar si la Autocorrelación es una Autocorrelación pura y no el resultado de una mala especificación


del modelo (ya sea por la exclusión de variables importantes en el modelo o por una forma funcional
incorrecta.

2. Utilizar una transformación apropiada del modelo original, acudir al modelo generaliza do mínimos
cuadrados (MCG).

3. Para muestras grandes, utilizar el método de Newey-West para obtener los errores estándar de los
estimadores MCO que están corregidos para Autocorrelación.
4. En algunas circunstancias, se puede seguir utilizando el método de MCO.

También podría gustarte