Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Econometrı́a II
Profesor: José Luis Nolazco1
Nota: Repasar la misma derivación del estimador MCO pero vectorialmente
Repaso
2015-II
Yi = β1 · 1 + β2 · X2,i + . . . + βk · Xk,i + εi
, con i = 1, . . . , n y n > k. Es decir tenemos n ecuaciones. Pero estas n ecuaciones las podemos escribir
matricialmente como:
Y1 1 X2,1 . . . Xk,1 β1 ε1
Y2 1 X2,2 . . . Xk,2 β2 ε2
Y = . = . .. · .. + .. = X · β + ε
.. .. . . .
Yn 1 X2,n ... Xk,n βk εn
| {z } | {z } | {z } | {z }
Y X β ε
Para encontrar los estimadores MCO de los betas, tenemos que minimizar S = e0 e, donde:
e1
e2
e= .
..
en
es el vectorP
de los errores estimados de cada muestra i = 1, . . . , n. Por propiedades de multiplicación de
n
matrices, S = i=1 e2i .
Ahora debemos minimizar S. Pero antes desarrollemos un poco S. En efecto, considerando que S es un
escalar:
⇒ S = e0 e = Y 0 Y + β̂M
0 0 0 0 0
CO X X β̂M CO − Y X β̂M CO − β̂M CO X Y
Ası́ que:
⇒ S = e0 e = Y 0 Y + β̂M
0 0 0
CO X X β̂M CO − 2Y X β̂M CO
Ahora debemos derivar S con respecto al vector β̂M CO e igualar a cero. Pero no sabemos derivar
vectores.
¿Cómo solucionar este problema? Sólo hay que conocer 2 derivadas importantes respecto a vectores:
∂β 0 Aβ
= (A0 + A) · β (1)
∂β
1 jnolazco@ulima.edu.pe
Carrera de Economı́a, Escuela de Negocios Universidad de Lima
∂Aβ
= A0 (2)
∂β
Por lo tanto, para nuestro caso especı́fico:
∂S
= −2X 0 Y + 2X 0 X β̂M CO = 0
∂ β̂M CO
⇒ X 0 X β̂M CO = X 0 Y
⇒ β̂M CO = (X 0 X)−1 X 0 Y
NOTA: para realizar el último paso, donde invertimos X 0 X para despejar el estimador, es necesario que
0
X X sea invertible. Y eso se logra si y sólo si las columnas de la matriz X son linealmente independientes,
o sea, que no pueda expresar alguna de las variables como combinación de las otras.
Page 2