Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Multicolinealidad
Multicolinealidad
( X ' X ) 1 X ' Y
2. En el caso de multicolinealidad aproximada las propiedades de los estimadores
(insesgadez, eficiencia y consistencia) no se ven afectadas. Es decir, el estimador de MCO
sigue siendo el estimador con mejores propiedades de entre los de su clase de estimadores.
Sin embargo, a pesar de que las varianzas del estimador de MCO son las mnimas posibles,
(es decir, a pesar de la eficiencia del estimador MCO) estas varianzas son mayores que las
que se lograran en ausencia del problema de multicolinealidad.
En concreto, puede demostrarse que la varianza de los estimadores es:
V ( j )
1 V ( y) 1 R 2
n k V ( x j ) 1 R 2j
donde R2j representa la correlacin que mantiene la variable X ij con el resto de variables
exgenas incluidas en el modelo.
El problema descrito anteriormente de mayor varianza en las estimaciones, provoca los siguientes
efectos inmediatos:
Que los parmetros estimados se interpreten peor, al poder estar muy alejados del
verdadero valor del parmetro: varianza e imprecisin son una misma cosa, a mayor
varianza en la estimacin, mayor imprecisin y por lo tanto, resultados ms alejados de la
realidad.
Que los parmetros sean muy inestables y flucten de forma importante al introducir nueva
informacin. Efectivamente, al ser el parmetro ms impreciso, al presentar mayor rango
de variacin, una nueva estimacin puede arrojar valores muy diferentes a la anterior.
Que los contrastes individuales t tiendan a tomar valores inferiores a los reales haciendo
que rechacemos variables realmente significativas. Debemos recordar que, efectivamente,
la ratio t de significacin individual se obtiene mediante la expresin:
t
V ( )
por lo que, a mayor varianza, menor valor del ratio t. As, en una situacin de
multicolinealidad y, por tanto, de mayor varianza en las estimaciones, esas ratios t
aparecern artificialmente ms bajas de lo que realmente seran si modificsemos
convenientemente la especificacin.
Cmo se detecta?:
La deteccin parte del clculo de las correlaciones entre las variables explicativas. Las
correlaciones entre variables deben ser menores que un lmite determinado. No hay un lmite fijo a
partir del cual podamos hablar de un problema; ese lmite debe establecerse desde el sentido
comn y segn las circunstancias de anlisis especficas, por ejemplo:
-
Forma de medicin de las variables: las variables en niveles exhiben correlaciones con
mayor facilidad de modo que el lmite asumible puede ser ms alto que si las variables
exgenas estn medidas en tasas.
Relaciones tericas asumidas a priori entre las variables: una correlacin moderad pero no
esperada a priori desde el punto de vista terico puede estar avisando de algn defecto en
la especificacin o el tratamiento de los datos. ).
En todo caso, si se desea una regla generalmente utilizada, una prctica habitual consiste en
establecer generalmente la R2 del modelo original como lmite de la correlacin observada entre
dos o ms variables: diremos que existe multicolinealidad cuando existan correlaciones entre las
variables, superiores al coeficiente de determinacin del modelo. Sin embargo, debemos recordar
nuevamente las limitaciones de cualquier receta de este tipo; por eje, lgicamente diremos que
existe multicolinealidad cuando, an sin superar la R 2 del modelo, las correlaciones sean mayores
de un 0,70%.
Las correlaciones entre las variables las calcularemos de tres modos diferentes:
r jk
-
Cov ( x j x k )
DT ( x j ) DT ( x k )
x j f ( x1 , x 2 ,......., x j 1 , x j 1 ,........ x k )
-
Correlaciones parciales entre cada par de variables. El concepto de correlacin parcial tiene
sentido en el contexto del anlisis multivariante. La idea es encontrar la correlacin que une a
dos variables descontado el efecto del resto de variables; es decir, la correlacin particular,
ms all de la correlacin que ambas exhiben y en la que intervienen el resto de variables. Por
ejemplo, si se toman datos relativos a 3 tipos de inters a corto plazo en una economa
seguramente se encontrarn elevadas correlaciones simples y mltiples, sin embargo, ser
difcil encontrar una correlacin parcial entre dos de los tres tipos de inters considerados ya
que, la parte comn que les une, es comn a los tres y no existe ms parecido bilateral que el
que es compartido por todos ellos.
La forma ms sencilla de calcular esos coeficientes de correlacin parcial aprovechando los
anteriores clculos es aplicando la expresin comentada anteriormente:
r jkp / a b
donde a es el coeficiente asociado a x k en la regresin de x j sobre el conjunto de variables
restantes y b es el coeficiente de x j en la regresin de x k sobre el conjunto de variables
restantes.
El signo +/- no expresa la doble solucin de la raz, sino que deber escogerse una de las
dos soluciones, la positiva o la negativa, segn el signo observado en los coeficientes a y b
de las regresiones parciales. La razn de atender al signo antes de realizar el clculo es que,
por razones obvias de simetra, el signo de a siempre ser el mismo que el de b por lo que,
en el producto ab, ese signo se perder en el caso de ser ambos coeficientes negativos.
Cmo se corrige?:
La correccin del problema requiere conocer sus causas. Si se trata de una correlacin casual
debida generalmente a defectos en la especificacin (por ejemplo, un modelo en niveles), el
problema debe solventarse corrigiendo esta especificacin o bien, en ltimo extremo deflactar la
multicolinealidad.
Si estamos ante un problema de informacin repetida, la solucin pasa por la re-especificacin del
modelo, bien eliminando la informacin redundante, bien transformndolo de cara a perder el
mnimo de informacin. En ese sentido, cabe transformar dos o ms variables correlacionadas en
una combinacin de las mismas. Conviene recordar a este respecto la tcnica del anlisis
multivariante factorial.
Para realizar las regresiones parciales con el objetivo de computar las correlaciones mltiples y
parciales (segn se detall en la teora) no hay ninguna operacin especial que deba conocerse en
E-Views: cada una de las regresiones auxiliares se crea de forma independiente como cualquier
otra regresin.