Está en la página 1de 6

Estimacin por Mnimos Cuadrados Ordinarios (MCO)

Sea el siguiente modelo lineal simple:

Yi 1 2 X i i

(11)

i 1.. N

En base a una muestra de tamao N , es posible estimar los parmetros del modelo.

Un criterio muy utilizado es el de Mnimos Cuadrados Ordinaros (MCO).

Este mtodo consiste en la minimizacin de la suma de los residuos del modelo elevados al cuadrado.

El programa de Minimizacin es el siguiente:

i 1

i 1

Min i2 (Yi 1 2 X i ) 2 f ( 1 , 2 )
1 , 2

Supuestos de la estimacin MCO


Sean los siguientes supuestos de la estimacin de MCO-Modelo clsico de regresin lineal:
1.
2.
3.
4.
5.
6.
7.

El modelo de regresin es lineal en los parmetros


Los valores de X son fijos en muestreo repetido
El valor esperado de la perturbacin estocstica condicionada en los valores Xs es igual a cero
Homoscedasticidad
Ausencia de autocorrelacin en los errores
El modelo est correctamente especificado
Existe suficiente variabilidad en la(s) variable(s) explicativa(s)

1. El modelo de regresin es lineal en los parmetros


Yi 1 2 X i i

(11)

Esto claramente se ve en la ecuacin (11).

Este supuesto se cumple mientras los parmetros del modelo son lineales en la LRP (es decir en la esperanza
condicional de Yi )

2. Los valores de X son fijos en muestreo repetido: las Xs no son estocsticas


El investigador selecciona las X y en base a los valores de X realiza un muestreo aleatorio de la variable dependiente.

Por ejemplo, selecciona X=80 y luego selecciona aleatoriamente el valor de Y.

Inicialmente se realiza el anlisis de regresin condicionado en las Xs.

3. El valor esperado de la perturbacin estocstica es igual a cero


Esto quiere decir que los valores de i no afectan sistemticamente a los valores de Yi

Si:

Yi 1 2 X i u i

(11)

E i / X i 0 i 1...N

Entonces:

E (Yi / X i ) E ( 1 2 X i i / X i )
E (Yi / X i ) E ( 1 2 X i / X i ) E ( i / X i )
E (Yi / X i ) 1 2 X i

4. Homoscedasticidad o igual varianza de la perturbacin estocstica del modelo


Las varianzas condicionales de la perturbacin estocstica son iguales.

Bajo este supuesto:

) E ( )

var( i / X i ) E ( i E ( i )) 2 / X i
var( i / X i

var( i / X i )

/ Xi

(19)

i 1...N

El supuesto anterior implica que:

var(Yi / X i ) var( 1 2 X i i / X i )
var(Yi / X i ) var( i / X i ) 2

Este resultado se obtiene fcilmente, ya sea utilizando las propiedades de la varianza o mediante la definicin de
varianza.

LRP

5. No existen problemas de autocorrelacin de los errores

) E (

cov( t t j / X t , X t j ) E ( t E ( t ))( t j E ( t j )) / X t , X t j
cov( t t j / X t , X t j
t 1..T

t j

/ X t , X t j 0 ( 20)

j 1,2,...

El problema de autocorrelacin es generalmente un problema de series de tiempo.

La ausencia de autocorrelacin implica que Yt depende sistemticamente y nicamente de X t .

Si existieran problemas de autocorrelacin, tambin dependera sistemticamente de los errores rezagados del
modelo.

6. No existen problemas de correlacin entre la(s) variable(s) explicativa(s) y el trmino de error

cov( i X i / X i ) 0 ( 21)
i 1.. N

El segundo supuesto garantiza que esto se cumpla. Al ser las Xs determinsticas la covarianza con el trmino de error
es 0.

Ms adelante se levantar el supuesto de no aleatoriedad y se vern las consecuencias.

7. El nmero de observaciones debe ser por lo menos igual al nmero de parmetros a estimar
Nk

k es el nmero de parmetros a estimar. k 2 en el modelo de regresin simple.

8. Existe suficiente variabilidad en las Xs


Esto se puede comprender mejor utilizando la solucin:
N

x
i 1
N

x
i 1

yi
2
i

Si las Xs no tuvieran variabilidad entonces:


N

x
i 1

2
i

Ello implicara que la solucin sera indeterminada.

9. El modelo est correctamente especificado


+ Todas las variables importantes estn incluidas en el modelo.

+ La forma funcional es la correcta.

+ El modelo est bien definido en trminos de las ecuaciones necesarias.

+ Los supuestos probabilisticos sobre Yi, Xi y ui son los correctos.

+ Las variables se miden correctamente.

+ En general, no se ha cometido ningn error de especificacin.

De haberlo hecho, dependiendo del tipo de error, ello tendra implicaciones ms o menos serias sobre las
propiedades de los estimadores MCO.

10. En un modelo de regresin mltiple, se agrega el supuesto de ausencia de multicolinealidad

Ninguna de las variables explicativas puede ser escrita como combinacin lineal de las otras variables explicativas del
modelo (incluyendo la constante).