Está en la página 1de 2

Carrera de Economı́a, Escuela de Negocios Universidad de Lima

Econometrı́a II
Profesor: José Luis Nolazco1
Nota: Repasar la misma derivación del estimador MCO pero vectorialmente
Repaso
2015-II

1. Derivación del Estimador MCO Matricial


Sea el modelo de regresión lineal:

Yi = β1 · 1 + β2 · X2,i + . . . + βk · Xk,i + εi
, con i = 1, . . . , n y n > k. Es decir tenemos n ecuaciones. Pero estas n ecuaciones las podemos escribir
matricialmente como:
       
Y1 1 X2,1 . . . Xk,1 β1 ε1
 Y2  1 X2,2 . . . Xk,2  β2   ε2 
Y =  .  = . ..  · ..  +  ..  = X · β + ε
       
 ..   .. .  . .
Yn 1 X2,n ... Xk,n βk εn
| {z } | {z } | {z } | {z }
Y X β ε

Para encontrar los estimadores MCO de los betas, tenemos que minimizar S = e0 e, donde:
 
e1
 e2 
e= . 
 
 .. 
en
es el vectorP
de los errores estimados de cada muestra i = 1, . . . , n. Por propiedades de multiplicación de
n
matrices, S = i=1 e2i .
Ahora debemos minimizar S. Pero antes desarrollemos un poco S. En efecto, considerando que S es un
escalar:

S = e0 e = (Y − X β̂M CO )0 (Y − X β̂M CO ) = (Y 0 − β̂M


0 0
CO X )(Y − X β̂M CO )

⇒ S = e0 e = Y 0 Y + β̂M
0 0 0 0 0
CO X X β̂M CO − Y X β̂M CO − β̂M CO X Y

Pero como S es un escalar, entonces:

Y 0 X β̂M CO = (Y 0 X β̂M CO )0 = β̂M


0 0
CO X Y

Ası́ que:

⇒ S = e0 e = Y 0 Y + β̂M
0 0 0
CO X X β̂M CO − 2Y X β̂M CO

Ahora debemos derivar S con respecto al vector β̂M CO e igualar a cero. Pero no sabemos derivar
vectores.
¿Cómo solucionar este problema? Sólo hay que conocer 2 derivadas importantes respecto a vectores:

∂β 0 Aβ
= (A0 + A) · β (1)
∂β
1 jnolazco@ulima.edu.pe
Carrera de Economı́a, Escuela de Negocios Universidad de Lima

∂Aβ
= A0 (2)
∂β
Por lo tanto, para nuestro caso especı́fico:
∂S
= −2X 0 Y + 2X 0 X β̂M CO = 0
∂ β̂M CO
⇒ X 0 X β̂M CO = X 0 Y
⇒ β̂M CO = (X 0 X)−1 X 0 Y
NOTA: para realizar el último paso, donde invertimos X 0 X para despejar el estimador, es necesario que
0
X X sea invertible. Y eso se logra si y sólo si las columnas de la matriz X son linealmente independientes,
o sea, que no pueda expresar alguna de las variables como combinación de las otras.

Page 2

También podría gustarte