Está en la página 1de 2

Reporte Econometría I; 2021.

2 1

Multicolinealidad en Modelos Econométricos


E MILIO S ANDOVAL PALOMINO1
1 Facultad de Economía, UNAM
1 emiliosand@comunidad.unam.mx

Compilado el 21 de marzo, 2021

Es común que en la práctica del modelados economé- 2. APROXIMACIÓN MATEMÁTICA


trico se encuentren conceptos que hagan referencia a
A. Interpretación vectorial
los supuestos de los estimadores que den mayor rigu-
rosidad a la estimación, siendo la multicolinealidad un Para efectos de nuestra percepción económica, basta con dar
algunas definiciones matemáticas e ir construyendo el aparato
factor en la estructura del mismo y que es inherente a
que nos permita aprender sobre la dependencia e independencia
la interpretación del investigador en cuanto a cualquier lineal. por tanto, se tienen las siguientes definiciones y teorema.
fenómeno económico. Es por ello, que es importante
conocer las bases matemáticas, así como la intuición de Partimos por definir un subespacio vectorial (Nótese que po-
las consecuencias de tener una alta o baja multicolinea- dríamos dar mayor rigurosidad y definir a partir de un espacio
lidad. © 2021 UNAM o un vector, pero para efectos prácticos se parte de la siguiente
definición)
Palabras clave: Linealidad, Independencia
Definición 1 Sea W ⊆ VF . Diremos que W es un subespacio de V, y
Clasificación JEL: C01
escribiremos W ≤ V si
 
W, +|w×W , ~0, F, · F×W : F × W −→ W

es un espacio vectorial.

Ello significa que para que W pueda ser un subespacio vec-


1. INTRODUCCIÓN torial de V, se necesita que la restricción de la suma W × W sea
una operación en W, es decir, cerrada bajo la suma. Por otro
A pesar de que la regresión por mínimos cuadrados
lado el producto de un escalar por un elemento de W debe de
ordinarios ha sido ampliamente estudiada durante décadas,
ser elemento de W. Esto puede resultar abstracto para nuestra
así como sus efectos, limitaciones y ventajas, el problema de la
labor econométrica, pero útil para entender porqué existen nive-
independencia o dependencia entre sus variables regresoras
les de multicolinealidad altos o bajos. Por otro lado, se tiene el
sigue siendo un obstáculo en la especificación del mismo,
siguiente teorema
principalmente por dos cuestiones. La primera reside en que al
tener un dataset existen variables que se encuentran relacionadas Teorema 1 Supongamos que W ⊆ VF . Son equivalente:
en cierta medida, por ejemplo, al tener datos estadísticos de
alguna industria en específico, es necesario pensar de forma 1. W es un subespacio de V (Escrito como W ≤ V).
previa que las variables que consideramos independientes, 2. Tiene las siguientes propiedades:
mantienen un patrón de seguimiento, lo que también lleva a
la segunda cuestión, pues puede existir el riesgo de cometer a) W es cerrado bajo la suma
alguna relación espuria, es decir, relacionar variables que b) El vector ~0 pertenece a W
estadísticamente son significativas pero teóricamente o en
c) W es cerrado bajo la multiplicación por escalares
la realidad no. Es mayormente un problema no solo para el
economista, sino para el estadístico que pudiera desconocer un El cual generaliza las propiedades de un subespacio, el cual
campo que no es propio de su formación. podemos interpretar en econometría como el modelo, y además
nos permite entender la siguiente definción
Es adicional, el conocimiento matemático que se tenga sobre Definición 2 Un vector de la forma a1 x~1 + a2 x~2 + · · · + an x~n ∈
la independencia lineal, que bien se aborda en cursos de álgebra S( X ), con xi ∈ X, i ∈ {1, . . . , n}, se llama combinación lineal de
superior básicos o de álgebra lineal, pues recordemos que el elementos de X
modelo puede ser representado a través de vectores. A través
de la resolución del problema de multicolinealidad, también donde S( X ) es el subespacio generado por X. Por otro lado,
podemos resolver problemas de optimización en cuanto a la tenemos los elementos suficientes para dar las siguientes dos
elección de nuevos valores para las variables explicativas definiciones.
Reporte Econometría I; 2021.2 2

Definición 3 Se dice que X ⊆ VF es linealmente dependiente si σX desviación estándar de X


∃ ~x ∈ X tal que ~x ∈ S( X r {~x })
σY desviación estándar de Y
Definición 4 Se dice que X ⊆ VF es linealmente independiente si no
es linealmente dependiente Por lo tanto, al obtener la matriz, se obtiene un número para
cada relación entre dos variables tal que 0 ≤ ρ ≤ 1, que indi-
A pesar de que esta última definición parezca ser trivial o ca el grado de multicolinealidad, o en términos matemáticos,
muy ambigua será mejor dar un caso en las siguientes líneas; ade- el nivel de independencia o dependencia lineal, ya que si es
más, deja claro que sólo existen dos opciones y que fácilmente al cercano a cero, entonces las variables se comportan linealmen-
descartar una entonces la restante es verdadera. Simplificando te independientes, y si el coeficiente de Pearson es cercano a
un poco, si tenemos un espacio vectorial V, se dice que un vector uno, son linealmente dependientes. Para nuestra especificación,
~v en V es combinación lineal de los vectores ~v1 , ~v2 , . . . , ~vn en V, es recomendable que se mantenga cercano a 0, tal vez permi-
si existen escalares λ tales que tiéndonos un coeficiente máximo de 0.5 ya que por definición,
nuestro modelo debe de tener variables explicativas linealmente
1. al ser no todos cero se cumple que independientes.
λ1 ~v1 + λ2 ~v2 + . . . + λn ~vn = ~0
B. Corrección
De acuerdo con Farrar [1], la multicolinealidad después de
2. son iguales a cero cumpliéndose que
ser diagnosticada, se puede tratar al añadir mayor información,
λ1 ~v1 + λ2 ~v2 + . . . + λn ~vn = ~0 sólo si λ1 , . . . , λ2 = 0 principalmente porque ello conllevaría a mitigar errores de in-
formación, pues probablemente dos variables explicativas pre-
En el caso 1, los vectores son linealmente dependientes, mien- senten multicolinealidad y al momento de añadir información el
tras que en el segundo caso, son linealmente independientes. En coeficiente de Pearson en la matriz disminuya. De igual forma
términos generales, si existe al menos un vector ~vn que pueda ex- existen diversas técnicas que nos permiten verificar y corregirla,
presarse como combinación lineal de los restantes, entonces exis- pero ello dependen de una perspectiva más computacional que
tirá dependencia lineal, y en términos econométricos, si existe al a la que ahora nos concierne.
menos una combinación lineal entre las variables explicativas,
entonces, tendremos problemas de multicolinealidad. 4. CONCLUSIÓN
Como hemos visto de forma breve, la multicolinealidad tiene
B. Interpretación geométrica
cimientos matemáticos propios del álgebra lineal, además, es
Si un conjunto de ecuaciones son linealmente independientes, un efecto propio de las variables independientes de un modelo.
entonces su determinante deberá de ser diferente de cero, ya que No toma en cuenta aquello que está dado por hecho o incluso
representa el área que existe entre dos vectores cuando se utiliza la posibilidad de la existencia de una dependencia entre alguna
el principio del paralelogramo, y si existe un área, entonces ésta variable X y Y. Por otra parte, a pesar de tener las herramientas
es distinta de cero, pero si es cero, entonces los vectores son estadísticas, lo más realista es elegir variables que desde nuestra
linealmente dependientes ya que se pueden escribir como com- percepción empírica exista un sustento, es decir, probablemente
binación lineal de uno a otro. Por lo tanto, al ser |∆| = 0 sabemos el problema de multicolinealidad se resuelva simplemente con
que el conjunto de vectores no es linealmente independiente, un poco de noción en cuanto al tema de estudio, además de la
por lo que es linealmente dependiente. precisión que las herramientas estadísticas nos proporcionan.

3. APROXIMACIÓN ECONOMÉTRICA REFERENCIAS


De acuerdo con Silvey [2], la multicolinealidad nos sirve 1. D.E. Farrar and R. R. Glauber (Dec. 1964). Multicollinearity in regres-
como econometristas, para denotar la presencia de relaciones sion analysis: The problem revisted. In: Sloan School of Managmenent,
lineales entre las variables independientes del modelo. vol. 105(64), p. 60. URL https://dspace.mit.edu/bitstream/handle/1721.
1/48530/multicollinearit00farr.pdf?sequence=1&isAllowed=y
A. Especificación 2. S. D. Silvey (1969). Multicollinearity and imprecise estimation. In:
Para poder modelar, primero necesitamos una forma funcio- Journal of the Royal Statistical Society. Series B (Methodological),
nal, la cual es nuestra raíz y la idea que se tiene del comporta- vol. 31(3), pp. 539–552. ISSN 00359246. URL http://www.jstor.org/
stable/2984357
miento de la realidad económica o del objeto a estudiar. por otro
lado, es en ese proceso donde podemos descartar o añadir varia-
bles independientes que no tengan relación consigo mismas de
forma estadística, y a través de una matriz de correlación entre
variables que consideremos independientes en el modelo. Dicha
matriz se mide a través del coeficiente de correlación de Pearson
(ρ), el cual podemos expresar como

σXY Cov( X, Y )
ρ X,Y = = p
σX σY Var( X ) Var(Y )
siendo
X y Y dos variables aleatorias

σXY es covarianza de ( X, Y )

También podría gustarte