Está en la página 1de 3

1. ¿Cuál es la naturaleza de la multicolinealidad?

El término, multicolinealidad se atribuye a Ragnar Frisch.


Originalmente la multicolinealidad significa relación lineal perfecta o exacta entre
algunas o todas las variables explicativas de un modelo de regresión.
Y = b1 + b2 X2 + b3 X3 + mi
Hoy en día no necesariamente tiene que ser perfecta.
En la actualidad se incluye en la multicolinealidad el término de error estocástico.
Representándose de la siguiente forma:
.λ1 x1 + λ2 x2 + λk xk + νi = 0
La multicolinealidad así referida se refiere solamente a relaciones lineales entre
variables x. No elimina las relaciones no lineales existentes entre ellas.
Se supone que en un modelo clásico de regresión lineal no hay multicolinealidad
debido a que :
Si la multicolinealidad es perfecta los coeficientes de la regresión de las variables x son
indeterminados y sus errores estándar son infinitos. Si la multicolinealidad es menos
que perfecta los coef de regresión poseen grandes errores estándar, lo que hace que
los coef no pueden ser estimados con gran precisión.
2. ¿Es la multicolinealidad realmente un problema?
Si se satisfacen los supuestos de la regresión lineal (RL) y los mínimos cuadrados
ordinarios (MCO), y los coeficientes de los estimadores de regresión lineal (MELI).
Entonces la multicolinealidad no viola los supuestos básicos de la regresión. Los
efectos tienen que ver con la dificultad de obtener los coeficientes estimados con
errores estándares pequeños. Sin embargo el mismo problema se observa cuando se
tiene pocas observaciones o al obtener variables independientes con varianzas
pequeñas. Cualquier estimación es imposible cuando se tiene una población de n
= 0. De esto se tiene:
1. Los estimadores de MCO son insesgados.
2. colinealidad no distribuye la propiedad de varianzas pequeñas.
3. La multicolinealidad es esencialmente un fenómeno (de regresión muestral). Que sí
la variable x no está relacionada en la población, lo puede estar en la muestra.
Por ejemplo; El consumo que está en función del ingreso y la riqueza, el ingreso
y la riqueza están correlacionadas no en forma perfecta. Generalmente el que
tiene riqueza tiende a tener mayores ingresos. En las muestras puede ser un
problema difícil de distinguir las influencias por separado.
3. ¿Cuáles son sus consecuencias prácticas?

1. Los estimadores MCO presentan varianzas y covarianzas grandes que hacen


difícil la estimación precisa.

2. Los intervalos de confianza tienden a ser mucho más amplios, lo que hace más
posible aceptar una hipótesis nula de cero.

3. La razón t de uno o más coeficiente tienden a ser no significativas.

4. El R 2 puede ser muy alto.

5. Los estimadores MCO y sus errores estándar pueden ser sensibles a pequeños
cambios en la información.
4. ¿Cómo se detecta?

Lo importante no es si existe o no colinealidad, sino los diferentes grados de


colinealidad que existen. La multicolinealidad es una característica de las muestras no
de la población. Entre las distintas formas de detectar multicolinealidad están las
siguientes:

1. La presencia de un R2 elevado y razones t poco significativas. La


multicolinealidad se considera dañina solo cuando la totalidad de las influencias de las
variables explicativas no se pueden separar.

2. Altas correlaciones entre parejas de regresores: Si el coeficiente de correlación


de orden cero es grande mayor que 0.8 la multicolinealidad es un problema grave. Las
correlaciones de orden cero elevadas son una condición suficiente pero no necesaria
para que exista la multicolinealidad, ya que esta tb se puede presentar con coef de
correlaciones bajos, es decir inferiores a 0.5.

Cuando los modelos tienen más de dos variables explicativas los coef de correlación
de orden cero no son una herramienta segura para det si existe o no multicolinealidad,
a diferencia si hay solo 2 var. explicativas donde si lo son.

3. Regresiones auxiliares: Una forma de det cual var. está correlacionada con las
otras var. X es realizar una regresión de cada Xi sobre las otras var. X y calcular el R2
correspondiente. Cada una de estas regresiones se llama regresiones auxiliares. Para
determinar si la variable se deja o no en el modelo se debe comparar el F calculado
con el Fi crítico al nivel de significancia seleccionado. Así si el F calculado no excede al
F crítico la variable no es colineal con las demás X, y se mantiene en el modelo; en
caso contrario se saca del modelo ya que la var. sería colineal.

4. Valores propios e índice de condición:


Número de condición = k = Máximo valor propio

Mínimo valor propio


Indice de condición (IC) = √ k

5. ¿Qué medidas pueden tomarse para aliviar el problema


de multicolinealidad?

Una vez identificado un problema de multicolinealidad en el modelo, hay varias formas


para tratar de solventarlo. Las técnicas más utilizadas para solucionar el problema de
multicolinealidad son las siguientes:

1. Incorporación de nueva información.

Sin embargo, hemos de discernir entre el aumento del tamaño muestral de modo que
se reduzca el problema de correlación entre las variables explicativas; y: utilización de
otra clase de información extramuestral que se lleva a cabo mediante restricciones
sobre los parámetros del modelo inicial. eliminación algunas variables explicativas de la
regresión (especialmente si esto afecta poco a la bondad del ajuste); transformación de
las variables del modelo.

2. Especificación del modelo que puede llevarse a cabo mediante:

Eliminación algunas variables explicativas de la regresión (especialmente si esto afecta


poco a la bondad del ajuste); transformación de las variables del modelo.

2. Estimación Ridge.

Este método se basa en la premisa de que el valor reducido del determinante de la


matriz X’.X puede causar problemas a la hora de aplicar el método de mínimos
cuadrados ordinarios. Así pues, solventar este tipo de problemas se procede a la
estimación Ridge que consiste en sumar una determinada cantidad a los elementos de
la diagonal principal de X’.X. El estimador Ridge es

BRidge = [X’.X + c.Ik]-1. X’.Y,


Siendo c una constante arbitraria positiva. El inconveniente es que el estimador Ridge
presenta un sesgo que aumenta con el valor de la constante c. Sin embargo, ante una
elección entre el estimador MCO y el estimador Ridge, optamos por el último en el caso
si el error cuadrático medio del mismo es menor que el de MCO.