Está en la página 1de 2

Supuestos del modelo lineal clásico

Supuesto RLM.1 (Lineal en los parámetros


El modelo poblacional puede escribirse como

y=β 0 + β 1 x 1 + β 2 x 2 +…+ β k β k + u ,
Donde β 0 , β 1 , … β k son los parámetros (constantes) desconocidos de interés y u es un error
aleatorio no observable o término de perturbación. El supuesto RLM.1 describe la relación
poblacional que se espera estimar y explícitamente establece a las β 1 los efectos
poblacionales ceteris paribus de x j sobre y como los parámetros de interés.

Supuesto RLM.2 (Muestreo aleatorio)


Se tiene una muestra aleatoria de n observaciones {( xi 1 , x i 2 , … , x ik , y i ) :i=1 ,… , n }que
satisface el modelo poblacional del supuesto RLM.1.
Este supuesto del muestreo aleatorio significa que se tienen datos que pueden emplearse para
estimar las β j , y que estos datos han sido elegidos de manera que sean representativos de la
población descrita en el supuesto RLM.1.

Supuesto RLM.3 (Colinealidad no perfecta)


En la muestra (y por tanto en la población), ninguna de las variables independientes es
constante y no hay una relación lineal constante entre las variables independientes. Una vez
que se tiene una muestra de datos, se necesita saber que éstos pueden emplearse para
calcular las estimaciones de MCO, las ^β j . Este es el papel del supuesto RLM.3: si en cada
variable independiente hay variaciones muestrales y no existe una relación lineal exacta entre
las variables independientes, las ^β j pueden calcularse.

Supuesto RLM.4 (Media condicional cero)


Para cualesquiera valores de las variables explicativas, el error u tiene un valor esperado de
cero. En otras palabras, E¿
Como se analizó, suponer que los efectos no observables no están, en promedio, relacionados
con las variables explicativas es clave para obtener la primera propiedad estadística de cada
estimador de MCO: cada estimador es insesgado respecto al parámetro poblacional
correspondiente. Claro, todos los supuestos anteriores se emplean para demostrar el
insesgamiento.

Supuesto RLM.5 (Homocedasticidad)


Para cualesquiera valores de las variables explicativas, el error u tiene la misma varianza. En
otras palabras,
2
Var( u|x 1 , x 2 , … , x k )=σ
En comparación con el supuesto RLM.4, el supuesto de homocedasticidad tiene importancia
secundaria; en particular, el supuesto RLM.5 no tiene relación con el insesgamiento de las ^β j
Sin embargo, la homocedasticidad tiene dos consecuencias importantes: 1) permite obtener
fórmulas para la varianza de muestreo cuyos componentes son fáciles de caracterizar; 2) bajo
los supuestos de GaussMarkov RLM.1 a RLM.5 puede concluirse que los estimadores de MCO
son los que tienen menor varianza entre todos los estimadores lineales insesgados.

Supuesto RLM.6 (Normalidad)


El error poblacional u es independiente de las variables explicativas x 1 , x 2 , … , x k y está
distribuido normalmente siendo su media cero y su varianza σ 2 :u Normal(0 , σ 2 )

El supuesto RLM. 6 sí implica una propiedad de eficiencia más fuerte de los MCO: los
estimadores de MCO son los que tienen la menor varianza entre todos los estimadores
insesgados; el grupo de comparación ya no está restringido a los estimadores lineales en la
{ y i :i=1,2 , … , n}

También podría gustarte