Está en la página 1de 47
BANCO CENTRAL DE RESERVA DEL PERÚ CURSO DE ACTUALIZACIÓN ECONOMETRÍA ESTIMACIÓN POR MÍNIMOS CUADRADOS ORDINARIOS (MCO) Econometría Agosto 2013 1 ESQUEMA 1. Metodología de Estimación MCO: MRLC2. 2. Metodología de Estimación MCO: MRLCK. 3. Características Muestrales de los estimadores MCO. 4. Estimación MCO como Proyección. 5. Aplicaciones 2 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 • Dados el modelo de regresión poblacional y el estimado: Yi  1   2 X i  ui Yˆi  ˆ1  ˆ2 X i  b1  b2 X i se definen los residuos de cualquier línea ajustada como: ei  Yi  Yˆi  Yi  (b1  b2 X i ) • Cada valor observado de la variable endógena puede expresarse como: Yi  Yˆi  ei Yi  b1  b2 X i  ei 3 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 P1 P3 P2 X1 X2 X3 X4 X En la práctica sólo observamos los puntos P. 4 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 Ŷ  b1  b2 X P1 P3 P2 b1 X1 X2 X3 X4 X Podemos usar los puntos P para dibujar una línea recta que sea una aproximación de Y = 1 + 2X. Esta línea estimada será Y = b1 + b2X, donde b1 es un estimador de 1 y b2 es un estimador de 2. 5 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 Ŷ  b1  b2 X R3 R4 R2 P1 R1 P3 P2 b1 X1 X2 X3 X4 X La linea se llama modelo ajustado y los valores de Y estimados se llaman valores ajustados de Y. Se representan por la altura de los puntos R. 6 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 e4 Ŷ  b1  b2 X R3 R4 R2 e1 P1 e3 e2 R1 P3 P2 b1 X1 X2 X3 X4 X La discrepancia entre el valor observado y el valor ajustado de Y se conoce como residuo. 7 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 Ŷ  b1  b2 X R3 R4 Y  1  2 X R2 P1 1 R1 P3 P2 b1 X1 X2 X3 X4 X Importante: Note que el residuo no es igual al término de perturbación. 8 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 Ŷ  b1  b2 X Y  1  2 X P1 Q4 Q3 Q2 1 Q1 P3 P2 b1 X1 X2 X3 X4 X El término de perturbación en cada observación es el responsable de la divergencia entre el valor observado y el componente no aleatorio de la verdadera relación. 9 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 Ŷ  b1  b2 X R3 R4 Y  1  2 X R2 P1 1 R1 P3 P2 b1 X1 X2 X3 X4 X El residuo es la discrepancia entre el valor observado y el valor ajustado de la variable endógena. 10 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 Ŷ  b1  b2 X R3 R4 Y  1  2 X R2 P1 1 R1 P3 P2 b1 X1 X2 X3 X4 X Si la regresión es “buena”, los residuos y los valores del término de perturbación serán similares (ver primera y segunda obs.), pero son conceptualmente distintos. 11 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 u4 Ŷ  b1  b2 X Y  1  2 X Q4 E(Y4 / X 4 )  1  2 X 4 1 b1 X1 X2 X3 X4 X Las dos rectas serán analizadas en el curso. Cada una permite la descomposición del valor de Y. Esta descomposición se ilustrará con la cuarta observación. 12 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 u4 Ŷ  b1  b2 X Y  1  2 X Q4 1 Y4  1  2 X 4 b1 X1 X2 X3 X4 X Usando la relación teórica, Y puede descomponerse en un componente no estocástico y un componente aleatorio. 13 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 u4 Ŷ  b1  b2 X Y  1  2 X Q4 1 Y4  1  2 X 4 b1 X1 X2 X3 X4 X Es una descomposición teórica porque desconocemos los valores de β1, β2 o los valores del término de perturbación. 14 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Y P4 e4 Ŷ  b1  b2 X R4 Y  1  2 X Ŷ4  b1  b2 X 4 1 b1 Yˆ  valor ajustado Y  valor observado X1 X2 X3 X4 X La otra descomposición es en referencia a la línea ajustada. En cada observación, el valor observado de Y es igual al valor ajustado de Y más el residuo. Esta es una descomposición operativa que se utilizará para usos prácticos. 15 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 • El Principio de Mínimos Cuadrados consiste en: n Min SCR   ei2  e12  ...  en2 b1 ,b2 i 1 • Condiciones de Primer Orden. n  e n   ei2 2 i i 1 0 i 1 0 b1 b2 • Ecuaciones Normales: n n e i 1 i 0 xe i 1 i i 0 16 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 - Primera condición de primer orden: SCR  0   2 Yi  b1  b2 X i   0 b1 X  X i Y  b n  b  X n i 1 2 i 0 X i  nX b1  Y  b2 X - Segunda condición de primer orden: SCR  0   2 Yi  b1  b2 X i X i  0 b2 17 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 SCR  0   2 Yi  b1  b2 X i X i  0 b2  ((Y  b  b X ) X )  0 i 1 2 i i Y X  b  X  b  X  0 i i 1 i 2 i 2  Y X  Y  b X  X  b  X  0 i i 2 i 2 i 2 Y X  Y  X  b X  X  b  X  0 i i i 2 i 2 i 2  Y X  nYX  b nX  b  X  0 i i 2 2 2 i 2  Y X  nY X   X  X Y  Y  b  i  i i i 2  X  nX i X  X  2 2 i 2 18 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 Demostración de Resultados Importantes:  X i  X Yi  Y    X iYi   X iY   XYi   XY   X iYi  Y  X i  X  Yi  nXY   X iYi  Y nX   X nY   nXY   X iYi  nXY Análogamente:   iX  X 2    iX 2  2 XX i  X 2    i X 2  2 nX 2  nX 2   X i2  nX 2 19 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 • Estimador MCO de beta1 b1  Y  b2 X • Estimador MCO de beta2:  X i  X Yi  Y  n  Y  Y  n 2 i b2  i 1 b2  rYX i 1 SC 3 :  X i  X   0 n  X i  X n  X i  X 2 n 2 2 i 1 i 1 i 1 • Estos estimadores replican los poblacionales (normalidad): Poblacional Poblacional Muestral Muestral s Y1 YX/ X  m Y  r sY m X a Y / X  m Y  r Y m Xa baˆ1 YYˆ Xb2 X aˆ  Y  ˆ X sX sX s Y / X  r Y 2YYX/ X  r sY bY / X  r SE (Y ) Y / X  r SE (Y ) sX sX 2 SE ( X ) SE ( X ) 20 1. METODOLOGÍA DE ESTIMACIÓN MCO: MRLC2 • Estimador de la varianza del término de perturbación. – No se puede estimar a partir de una muestra de valores de u, pues depende de los parámetros poblacionales no observados beta1 y beta2. – Puede obtenerse un estimado a partir de los errores de estimación. El estimador es: 1 n 2 sˆ 2 MCO s  2  n  2 i 1 ei 21 2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK • El modelo de regresión poblacional de “k” variables, para una observación o período de tiempo, se denota por: Yi  1   2 xi 2  3 xi 3     k xik  ui  1  y  X  u        k  y el modelo de regresión estimado: Yˆi  b1  b2 xi 2  b3 xi 3    bk xik Yˆi  ˆ1  ˆ2 xi 2  ˆ3 xi 3    ˆk xik 22 2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK • Matricialmente, para las n observaciones: y  X  u Y1   X 11 X 12  X 1k   1  u1  Y  X X 22  X 2 k    u    2   21   2   2                      n  ( n1)  X n1 Y X n2  X nk  ( nk )   k  ( k 1) u n  ( n1) • Entonces, dado ŷ  Xb , se tiene: y  ŷ  e  Xb  e 23 2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK • Suma de los cuadrados de los residuos o errores de estimación: n SCR(b)   ei2  e' e   y  yˆ '  y  yˆ  i 1 SCR( b )  y' y  2b' X ' y  b' X ' Xb SCR( b )  y' y  2 y' Xb  b' X ' Xb • De acuerdo al Principio de Mínimos Cuadrados Ordinarios, se minimiza SCR, lo cual implica que se cumpla las C.P.O. y C.S.O: 24 2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK Reglas de derivación de matrices SCR  a ' x    Ax   0  ( X ' X )b  X ' y  a;  A' ; b x x   x' Ax   2 x' A'  2 Ax, A : matriz simétrica x  2 SCR   x' Ax   2X ' X positivo definida  x' x, x' x : matriz cuadrada bb' A • Las Ecuaciones Normales se obtienen a partir de las Condiciones de Primer Orden (C.P.O.): ( X ' X )b  X ' y  X' e  0 25 2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK • En el modelo de regresión lineal clásico de k variables se obtiene k ecuaciones normales: una para cada parámetro especificado en la ecuación de regresión. • A partir de la CPO se obtiene el vector de estimadores de MCO del MRLCK: b  ˆ MCO  X' X X' y 1 • Supuesto de “rango completo por columnas” es importante! Para derivar el estimador MCO sólo se necesita que X’X tenga inversa y ello se cumple sólo si se cumple el SC 3. 26 2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK Estimador de la Varianza s2. • Es razonable obtener el estimador a partir de la suma de cuadrados de los residuos: e  y  Xb e  y  X(X' X) 1 X' y e  (I n  X(X' X) 1 X' ) y e  My • Donde M es una matriz simétrica e idempotente; además: M'  M; M  M2 Me  e MX  0 27 2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK • Con estas propiedades, se tiene que: e  My  M ( Xβ  u)  MXβ  Mu e  Mu • Elevando al cuadrado los residuos: e'e  (Mu)' Mu  u' M'Mu e'e  u' Mu • Aplicando la esperanza matemática a esta expresión y aprovechando las propiedades de la traza obtenemos: 28 2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK 29 2. METODOLOGÍA DE ESTIMACIÓN MCO: MRLCK E (e' e )  su2 (n  k )  e' e  E   su 2 nk  • Así, el estimador de la varianza del término de perturbación, y de la regresión, es: e' e s  sˆ u2  2 nk • El error estándar de la estimación o error estándar de la regresión, s, es la desviación estándar de los valores de Y alrededor del plano de regresión. 30 3. CARACTERÍSTICAS MUESTRALES DE MCO • Características asociadas a las EN en un modelo bivariado: – La línea de regresión estimada pasa por los valores medios muestrales de las variables. Y  b1  b2 X – El promedio observado es igual al promedio estimado: Y  Yˆ – Los residuos de MCO tienen correlación cero con la variable independiente (en la muestra). Corr( X , e )  0 – No existe correlación muestral entre los valores estimados de la variable endógena y los residuos. Corr( ŷ ,e )  0 31 3. CARACTERÍSTICAS MUESTRALES DE MCO • Para el modelo de regresión clásico de k variables:  La ecuación de regresión o hiperplano de regresión pasa por los puntos medios del espacio “k” dimensional. Y  b1  b2 X 2  b3 X 3    b3 X k y  Xb  El promedio observado es igual al promedio estimado: i ' y  i ' yˆ  La correlación muestral de los regresores con los residuos es cero. X' e  0  Los valores estimados de la variable dependiente no están correlacionados con los residuos. ˆy' e  0 32 4. ESTIMACIÓN MCO COMO PROYECCIÓN • M es la Matriz Generadora de Residuos: My  e  M (nxn), simétrica, idempotente, dim(M)=tr(M).  M es la Matriz Aniquiladora: la proyección de X sobre X es perfecta y el residuo es cero. MX  0 • P es la Matriz de Proyección sobre el espacio columna X ŷ  Xb  Py  P (nxn), simétrica, idempotente, dim(P)=tr(P).  La proyección de X sobre X es igual a X: PX  X 33 4. ESTIMACIÓN MCO COMO PROYECCIÓN • Además, PM = MP = 0. • Entonces, la estimación por MCO particiona y en dos componentes ortogonales: y  yˆ  e y  Py  My • Teorema de Pitágoras: Suma de Cuadrados y' y  yˆ ' yˆ  e' e 34 4. ESTIMACIÓN MCO COMO PROYECCIÓN • Geometría de MCO: 35 4. ESTIMACIÓN MCO COMO PROYECCIÓN • Geometría de MCO: X1 36 4. ESTIMACIÓN MCO COMO PROYECCIÓN • Geometría de MCO: X2 X1 37 4. ESTIMACIÓN MCO COMO PROYECCIÓN • Geometría de MCO: y X2 X1 38 4. ESTIMACIÓN MCO COMO PROYECCIÓN • Geometría de MCO: y X2 Xb X1 39 4. ESTIMACIÓN MCO COMO PROYECCIÓN • Geometría de MCO: y e X2 Xb X1 40 4. ESTIMACIÓN MCO COMO PROYECCIÓN • Geometría de MCO: y* y e X2 Xb X1 41 4. ESTIMACIÓN MCO COMO PROYECCIÓN • Geometría de MCO: y* y e X2 Xb Xb* X1 42 4. ESTIMACIÓN MCO COMO PROYECCIÓN • A través del uso de matrices : caso de dos variables 1000 950 Se obtiene una línea de regresión 900 log (Circulante) 850 Estimado Observado 800 750 460 470 480 490 500 510 520 530 540 log (PBI) 43 4. ESTIMACIÓN MCO COMO PROYECCIÓN • A través del uso de matrices : caso de tres variables Observado Se obtiene un plano Estimado de regresión 1000 950 900 log (Circulante) 850 800 750 540 530 520 130 510 125 120 500 115 490 110 105 480 100 470 95 90 460 85 log (PBI) log (Tipo de cambio) 44 5. APLICACIÓN: Estimación del salario por hora EARNINGS vs. S 200 Earnings: salario por hora S: años de educación 160 Mayores observaciones para eduación básica y EARNINGS 120 secundaria. Pocas observaciones para 80 mayores años de estudio en la muestra analizada. 40 0 6 8 10 12 14 16 18 20 22 S 1 5. APLICACIÓN: Estimación del salario por hora Dependent Variable: EARNINGS Method: Least Squares Date: 07/31/11 Time: 22:59 Sample: 1 540 Included observations: 540 Variable Coefficient Std. Error t-Statistic Prob. C -19.79196 3.585928 -5.519341 0.0000 S 2.870943 0.255034 11.25710 0.0000 R-squared 0.190639 Mean dependent var 19.93339 Adjusted R-squared 0.189135 S.D. dependent var 16.43569 S.E. of regression 14.80002 Akaike info criterion 8.230831 Sum squared resid 117843.8 Schwarz criterion 8.246725 Log likelihood -2220.324 F-statistic 126.7222 Durbin-Watson stat 1.885753 Prob(F-statistic) 0.000000 5. APLICACIÓN: Estimación del salario por hora Dependent Variable: EARNINGS EARNINGS  19.79  2.87S Method: Least Squares Date: 07/31/11 Time: 22:59 Sample: 1 540 Included observations: 540 Variable Coefficient Std. Error t-Statistic Prob. C -19.79196 3.585928 -5.519341 0.0000 S 2.870943 0.255034 11.25710 0.0000 R-squared 0.190639 Mean dependent var 19.93339 Adjusted R-squared 0.189135 S.D. dependent var 16.43569 S.E. of regression 14.80002 Akaike info criterion 8.230831 Sum squared resid 117843.8 Schwarz criterion 8.246725 Log likelihood -2220.324 F-statistic 126.7222 Durbin-Watson stat 1.885753 Prob(F-statistic) 0.000000 47