Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Econometría - 07 - 2022 - 1
Econometría - 07 - 2022 - 1
Ingenierı́a Comercial
Universidad del Desarrollo
• Para la regresión con k variables que incluye las variables explicativas X1 , X2 , ..., Xk
• Diremos que existe una relación lineal exacta si se satisface la siguiente condición:
λ1 X1 + λ2 X2 + ... + λk Xk = 0 (1)
• Donde: λ1 , λ2 , ..., λk son constantes tales que no todas son simultáneamente iguales a
cero
λ1 λ3 λk
X2i = − X1i − X3i − ... − Xki
λ2 λ2 λ2
• Lo anterior muestra la forma en que X2 está exactamente relacionada de manera lineal
con otras variables, o como se deriva de una combinación lineal de otras variables.
λ1 λ3 λk 1
X2i = − X1i − X3i − ... − Xki − vi
λ2 λ2 λ2 λ
• Lo cual indica que X2 no es una combinación lineal exacta de otras X , ya que está
determinada también por el término del error estocástico vi
• Notar que la multicolinealidad se refiere sólo a relaciones lineales entre las variables X .
• Por lo que este concepto no aplica a las relaciones no lineales entre ellas.
• Por ejemplo, se tiene:
Yi = β0 + β1 Xi + β2 Xi2 + β3 Xi3 + ui
• ¿Por qué uno de los supuesto del modelo clásico de regresión lineal supone no
multicolinealidad entre las X ?
• Si la multicolinealidad es perfecta (recordar ecuación (1)), los coeficientes de regresión de
las variables X serán indeterminados.
• Por lo tanto, sus errores estándares serán infinito.
• Por otro lado, si se da el caso de la ecuación (2) (no perfecta o menos que perfecta), los
coeficientes de regresión serán determinados.
• Pero estos coeficientes poseerán errores estándares demasiado altos, con respecto a sus
mismos coeficientes.
• ¿Qué implica esto?
• Que los coeficientes no pueden ser estimados con gran precisión o exactitud.
• Recordemos de las clases anteriores que como obtenemos los parámetros para βb2 y βb3 ...
• Se tiene entonces:
0
βb2 = (5)
0
yi = α
bx2i + ubi (6)
Con α
b = (βb2 + λβb3 )
• Por lo tanto, a priori no hay motivo para pensar que la ecuación (8) no pueda estimarse.
• El procedimiento para calcular β3 es similar.
• ¿Qué nos podrı́a indicar un vi bastante pequeño , muy cercano a cero?
• Nos podrı́a indicar colinealidad casi perfecta y los coeficientes podrı́an ser indeterminados.
• Recordemos que si se satisfacen los supuestos cásicos, los estimadores MCO de los
coeficientes de regresión son MELI.
• Se puede demostrar que aunque la multicolinealidad sea muy alta, los estimadores de
MCO conservarı́an las propiedades MELI.
• Entonces...¿Cuáles son los inconvenientes de la multicolinealidad?
• Algunos investigadores plantean que el problema que se presenta con la multicolinealidad
tiene que ver con la dificultad de obtener los coeficientes estimados con errores estándar
pequeños.
• Este problema también puede darse al tener un número reducido de observaciones o al
tener variables independientes con varianzas pequeñas.
• Por tanto, la pregunta “¿qué debe hacerse entonces con la multicolinealidad?” es similar
a “¿qué debe hacerse si no se tienen muchas observaciones?”
En los casos de que se presente alta multicolinealidad, es posible que se presenten las
siguientes consecuencias:
1 Aunque los estimadores MCO son MELI, presentan varianzas y covarianzas grandes que
dificultan la estimación precisa.
2 Debido a lo anterior, los intervalos de confianza tienden a ser más amplios, lo que darı́a
una aceptación más “fácil” de no rechazar H0 .
3 Es estadı́stico t de uno o más coeficientes tiende a ser estadı́sticamente no significativo.
4 Aunque los parámetros sean estadı́sticamente no significativos, la medida global de
bondad de ajuste (R 2 ) puede ser muy alta.
5 Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios en los
datos.
3 Regresiones Auxiliares
• La multicolinealidad surge porque una o más de las regresoras son combinaciones lineales
exactas o aproximadas de las demás regresoras.
• Una forma de determinar cual variable X está relacionada con las demás, es regresionar cada
variable explicativa con respecto a las otras.
• Se procede luego a testear mediante una prueba F la significancia global del modelo de la
regresión auxiliar.
• Si el valor calculado es mayor al F de tabla, entonces se dice que la variable Xi es colineal
con las demás variables.
• Bajo la misma lógica, se puede combinar información de corte transversal con series de
tiempo (Datos de panel).
4 Transformación de Variables
• Otra alternativa es la transformación de variables, donde se estima el modelo con las
variables expresadas de otra forma.
• Suponga que tenemos información de series de tiempo sobre el gasto de consumo, el ingreso
y la riqueza.
• Una razón de la alta multicolinealidad entre el ingreso y la riqueza en tal información es que,
con el tiempo, las dos variables tienden a mo- verse en la misma dirección.
• Una forma común de expresar las variables es a través de primeras diferencias.
• Otra transformación común en la práctica es la transformación de razón.
Donde Vt = ut − ut−1 .
• Transformación de Razón:
Yt 1 X2t ut
= β1 + β2 + β3 +
X3t X3t X3t X3t
• Esta transformación puede reducir la colinealidad de las variables originales.
• Hay que tener la consideración con estas transformaciones con el término del error.
• Puede que en ambos casos no se cumplan los supuestos clásicos por parte del error.
• Por ejemplo en la transformación de razón, el término de error Xut será heterocedastico.
3t
• Por lo tanto hay que tener cuidado con las primeras diferencias o el método de la razón
para transformar los datos a fin de resolver el problema de la multicolinealidad.
• Un supuesto del modelo clásico de regresión lineal es que no haya multicolinealidad entre
las variables explicativas, las X
• Las consecuencias de la multicolinealidad son las siguientes:
1 Si existe colinealidad perfecta entre las X , sus coeficientes de regresión son indeterminados y
sus errores estándar no están definidos.
2 Si la colinealidad es alta pero no perfecta, es posible la estimación de los coeficientes de
regresión, pero sus errores estándar tienden a ser grandes.
3 Aunque no hay métodos seguros para detectar la colinealidad, existen diversos indicadores.