Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cuadraticos
Cuadraticos
i = 1, ... , N
(3.1)
Si representamos por b1 y b2 los estimadores (y, tambin, las estimaciones) de los parmetros 1 y 2 del modelo, entonces podramos expresar los valores estimados de los elementos muestrales de la variable endgena como:
=b +b X
Y
i
1
2
i
i = 1, ... , N
Llamamos residuos, que representaremos por ei , a las diferencias entre los valores observados de la variable endgena y los valores estimados:
= Yi - ( b1 + b2 Xi ) = Yi - b1 - b2 Xi
ei = Yi - Y
i
Podemos, entonces, escribir: Yi = 1 + 2 Xi + ui = b1 + b2 Xi + ei i = 1, ... , N
Nuestro objetivo al estimar los parmetros 1 y 2 ser obtener una estimacin tal, que la
estructura estimada b1 + b2Xi se aproxime lo ms cerca posible a la estructura desconocida
del modelo 1 + 2Xi como se indica en la figura :
Yi
b1 + b2 Xi(estimada)
Yi
ei
1 + 2 Xi(desconocida)
ui
Xi
Xi
Los estimadores b1 y b2 sern funciones de los valores muestrales Xi e Yi que obtendremos por los procedimientos que nos ofrece la Inferencia Estadstica. El primer mtodo que
vamos a utilizar es el de los mnimos cuadrados.
23
El mtodo de los mnimos cuadrados ordinarios (M.C.O. a partir de ahora), consiste en obtener las expresiones muestrales de los estimadores b1 y b2 que hagan mnima la suma de
N
2
i
i =1
i =1
i =1
Los estimadores M.C.O. sern, por tanto, las soluciones del siguiente problema de optimizacin:
N
(Y - b
i
i =1
Para obtener las soluciones que hagan mnimo S(b1 , b2 ) aplicaremos la condicin necesaria o de primer orden :
N
S
= 0
- 2 (Yi - b1 - b 2 X i ) = 0
b1
i =1
N
S
= 0
- 2 (Yi - b1 - b 2 X i ) X i = 0
b2
i =1
= 0
i=1
ei xi = 0
(3.2)
i=1
i =1
i =1
N
N
N
2
Y
X
=
b
X
+
b
i
i
1
i
2
i
i =1
i =1
i =1
N
Yi = N b1 + b2 Xi
Dividiendo entre N en los dos miembros de cada una de las dos ecuaciones, nos queda:
a11 = b1 X + b 2 a 20
Y = b1 + b 2 X
24
Introduccin a la Econometra
Ahora, multiplicando por X los dos miembros de la primera ecuacin y restando sta de la
segunda, obtenemos:
SXY
(3.3)
a11 - X Y = 0 + b 2 a 20 - X 2 SXY = b 2 S2X y, por tanto, b 2 =
S2X
SXY
X (3.4)
S2X
Siendo las expresiones recuadradas las de los estimadores M.C.O. de los parmetros 1 y
2 del modelo de regresin lineal simple.
Se puede comprobar que la solucin obtenida para b1 y b2 a partir de la condicin necesaria verifica, tambin, la condicin suficiente de mnimo de S(b1 , b2 ) .
Las expresiones de las segundas derivadas de S sern:
2S
= 2N
b12
N
2S
=
2
X i2
2
b2
i =1
N
2 S
= 2 Xi
b1 b 2
i =1
2N > 0
2 Xi
resultando que
2
2
2
2 Xi
H = 4 N SX > 0
Y, por tanto, la matriz hessiana resulta ser definida positiva y la solucin obtenida corresponde a un mnimo.
25
Cada uno de los estimadores se puede expresar como combinacin lineal de las observaciones muestrales aleatorias de variable endgena Yi .
Se demuestra que (ver Apndice A3.1):
X -X
1
b 2 = k i Yi (3.5) siendo k i = i 2
b1 = d i Yi (3.6) siendo d i = Xk i
NSx
N
cumplindose que (ver Apndice A3.1):
=0
k X
i
=1
=1
d X
i
=0
Yi por 1 + 2 X i + u i
2
i
1
NS 2x
2
i
a 20
NS 2x
nos queda:
b 2 = k i ( 1 + 2 X i + u i ) = 1 k i + 2 k i X i + k i u i = 2 + k i u i
b 2 2 = k i u i (3.7)
(=0)
(=1)
b1 = d i ( 1 + 2 X i + u i ) = 1 d i + 2 d i X i + d i u i = 1 + d i u i
b1 1 = d i u i (3.8)
(=1)
(=0)
Se demuestra (ver Apndice A3.2) que las varianzas y covarianza de los estimadores tienen como expresiones:
V[ b 2 ] = 2
1
(3.11)
NS 2x
V[ b 1 ] = 2
a 20
(3.12)
NS 2x
Cov(b1 , b 2 ) = 2 .
-X
(3.13)
NS2x
Observndose que su valor depende de los datos Xi y del valor desconocido de 2 y, por
tanto, debern estimarse a partir de la estimacin del parmetro 2.
26
Introduccin a la Econometra
Se deduce de (3.13) que la covarianza entre los estimadores b1 y b2 tendr signo contrario
al que tenga la media aritmtica de los valores Xi .
La matriz de varianzas-covarianzas de los estimadores M.C.O. quedar:
2 a 20
X
2
2
NS x
NS 2x 2 a 20 X
COV(b1 , b 2 ) =
=
X
1 NS 2x X 1
2
2
NS 2x
NS 2x
Recordemos que una condicin suficiente para que un estimador$ del parmetro
consistente es que:
sea
a 20
=0
NS 2x
1
NS 2x
=0
Luego, bajo la condicin de que S 2x tome un valor finito y positivo cuando N , podemos afirmar que los estimadores M.C.O. son consistentes.
V. Teorema de Gauss-Markov.
Los estimadores M.C.O. tienen la mnima varianza entre los estimadores lineales e
insesgados. O se puede decir tambin que los estimadores M.C.O. son los eficientes entre
todos los estimadores lineales.
S xy
X -X
Consideremos el estimador M.C.O. de 2: b 2 = 2 = k i Yi siendo k i = i 2
NS x
Sx
*
Sea 2 un estimador lineal cualquiera, de tal forma que:
w =0
, como puede
2* = w i Yi , para que 2* sea insesgado se tendr que cumplir : i
w i X i = 1
comprobarse.
Se demuestra (ver Apndice A3.3) que la varianza de este estimador lineal es igual a:
27
1
+ 2 (w i k i ) 2
NS 2x
V( *2 ) = 2
(3.14)
N
e i = 0
Donde los residuos verifican las condiciones (3.2) : N i =1
e i X i = 0
i =1
1) La suma de los valores observados es igual a la suma de los valores estimados.
+ e i = 1, ... ,N sumando:
A partir de (3.14): Yi = Y
i
i
y como
= 0 , se obtiene que:
i =1
i =1
i =1
Y = Y
i =1
i =1
i =1
Yi = Yi + e i
Y=Y
(3.15)
La media aritmtica de los valores estimados es la misma que la media aritmtica de los
valores observados.
2) Suma de cuadrados.
pero
i =1
i =1
i =1
i =1
i =1
i =1
i =1
i =1
e i Yi = e i (b1 + b 2 X i ) = b1 e i + b 2 e i X i = 0
(= 0)
28
Yi2 = Yi2 + e i2 + 2 e i Yi
(= 0)
Introduccin a la Econometra
i =1
i =1
i =1
Y, por tanto,
N
3) Clculo de
2
i
i =1
N
i =1
i =1
i =1
i =1
i =1
e i2 = (Yi - b1 - b 2 X i ) e i = Yi e i - b1 e i - b 2 X i e i =
N
i =1
i =1
= Yi e i = Yi (Yi - b1 - b 2 X i )
N
Quedando:
2
i
i =1
i =1
i =1
i =1
= Yi2 - b1 Yi - b 2 X i Yi (3.17)
) (
+ Y
-Y
Partimos de la igualdad: Yi - Y = Yi - Y
i
i
(Y - Y ) = (Y - Y ) + (Y - Y )
N
i =1
)(
i =1
)(
Y
-Y
+ 2 Yi - Y
i
i
i =1
Y
- Y = e (b + b X - Y ) =
Yi - Y
i
1
2
i
i
i
pero
i =1
i =1
i =1
= b1 e i + b 2 e i X i - Y e i = 0
i =1
i =1
obtenindose que:
i =1
(Y - Y )
N
-Y
= ei + Y
i
i =1
i =1
i =1
(Y - Y )
N
ei
i =1
i =1
(Y - Y )
N
i =1
(3.18)
Donde:
(Y - Y )
N
i =1
= S 2y
29
i=1
(Y - Y )
N
i =1
Y
= Y , que se denomina varianza debida a la regresin o vaY
i
rianza explicada por la regresin.
Por tanto, la igualdad (3.18) se puede expresar tambin:
S2y = S2ey + S2Ry (3.19)
Xi
Xi
El coeficiente de determinacin: R2
R =
2
30
S 2Ry
S 2y
S 2Ry
S
2
y
=1-
2
S ey
2
S ey
S 2y
2
y
y R2 se obtendr como:
(3.20)
Introduccin a la Econometra
2
Ry
S 2xy
S 2x
Demostracin:
S 2Ry =
2
1 N
1 N
2
=b +b X
Yi - Y = (b1 + b 2 X i - Y ) sabiendo que Y
i
1
2
i
N i =1
N i =1
2
Ry
S xy
S xy
1 N
= Y - 2 X + 2 X i - Y
N i =1
Sx
Sx
y operando:
S 2Ry =
2
S 2xy
S 2xy
S 2xy
1 N
1 N S xy
2
2
2 2 (X i - X ) = 2 2 (X i - X ) = 2 2 S 2x = 2 c.q.d.
N i =1 S x S x
Sx
Sx Sx
S x S x N i =1
S 2xy
S 2x
Sustituyendo esta expresin de la varianza debida a la regresin, para el modelo de regresin simple, en (3.20), nos queda:
S 2Ry
S 2xy
R 2 = 2 = 2 2 (3.21)
Sy Sx Sy
Al ser un porcentaje, el valor de R2 estar comprendido entre cero y uno, dando lugar a las
siguientes situaciones extremas:
31
S xy
Sx Sy
(3.22)
S 2xy
S 2x S 2y
. Igual,
r = -1
-1 < r < 0
r=0
0<r<1
r=1
0 < R2 < 1
32
R2 = 1 ei = 0 i
0 < R2 < 1
S xy
S 2x
=r
R2 = 1
Sy
Sx
ei = 0 i
Introduccin a la Econometra
2
2* = S ey
=
e
i =1
2
i
N
Pero se demuestra (ver Apndice A3.4) que: E e i2 = (N - 2) 2
i =1
N 2
ei 1
2 2
2
Y, por tanto, resulta que: E S ey = E i =1 = ( N - 2) 2 = 2 N
N N
[ ]
Para construir un estimador insesgado simplemente se tendr que dividir la suma de cuadrados de los residuos entre (N 2), en lugar de N, obteniendo la varianza residual corregida
por los grados de libertad que representaremos por S2.
N
2 = S 2 =
e
i =1
2
i
N-2
que es insesgado:
[ ] [ ]
E 2 = E S 2 =
1
1
N
(N - 2) 2 = 2
E e i2 =
N - 2 i =1 N - 2
su raz cuadrada, = S =
e
i =1
2
i
N-2
33
Nota:
e
i =1
2
i
1) a partir de (3.17)
i =1
i =1
i =1
= Yi2 - b1 Yi - b 2 X i Yi
2
i
i =1
2) calculando primero: R 2 =
y sabiendo que R = 1 2
podemos calcular
i =1
2
i
S 2xy
S 2x S 2y
2
S ey
2
y
2
S ey
= (1 - R 2 ) S 2y
= N (1 - R 2 ) S 2y
-1
( 2 2 ) 2 e 2
( Yi - 1 - 2 X i )
Yi R X i R
para
2
1 R 2 R > 0
Al ser las variables Yi independientes la funcin de verosimilitud se obtendr como producto de las funciones de densidad marginales.
L( Yi , X i ; 1 , 2 ,
f(Y , X
i
; 1 , 2 , 2 ) =
i=1
= f ( Y1 , X 1 ; 1 , 2 , 2 ) . . . f ( YN , X N ; 1 , 2 , 2 ) =
= ( 2
1
2 2
-1
2 2
( Y1 - 1 - 2 X1 )
= (2 )
34
-N
2
( )
2
. . . ( 2
-N
2
-1
2 2
1
2 2
-1
( Yi - 1 - 2 Xi ) 2
i=1
2 2
( YN - 1 - 2 X N )
Introduccin a la Econometra
Resultando que la funcin de verosimilitud respecto a los parmetros del modelo de regresin lineal simple es:
1 R
-1 N
2
-N
-N
Yi R
2 ( Yi - 1 - 2 X i )
L( Yi , X i ; 1 , 2 , 2 ) = (2 ) 2 ( 2 ) 2 e 2 i=1
para 2 R con
X i R
2 > 0
Recordemos que la finalidad del mtodo de estimacin de la mxima verosimilitud es determinar los estimadores de los parmetros que asignen a stos, sea cual sea la muestra, los
valores con los que obtienen la mayor verosimilitud posible.
El procedimiento que se sigue consiste en plantear el mximo de la funcin de verosimilitud respecto a los valores de los parmetros, tomando stos el papel de simples variables matemticas. Si en la condicin necesaria, o de primer orden, es posible despejar los valores de
los parmetros en funcin de las variables muestrales, estas funciones resultarn ser los estimadores de mxima verosimilitud con tal de comprobar que verifican la condicin suficiente,
o de segundo orden, de mximo.
Si representamos por l(Yi, Xi ; 1, 2, 2) al logaritmo neperiano de la funcin de verosimilitud (tambin denominada segunda funcin de verosimilitud), esta funcin poseer los mximos y mnimos en los mismos puntos que L(Yi, Xi ; 1, 2, 2) con la ventaja de que los desarrollos necesarios para la determinacin de los puntos crticos son ms sencillos. Por tanto
plantearemos la bsqueda del mximo de la funcin:
l( Yi , X i ; 1 , 2 ,
N
1
2
N
N
2
= log2 log 2 ( Yi 1 2 X i )
2
2
2 i=1
l
1
=
0
2
+
( Y 1 2 Xi ) = 0
2 2 i=1 i
1
N
1
l
= 0 + 2 2 ( Yi 1 2 X i ) X i = 0
2
i=1
2
N
N 1
1
2
l
Yi 1 2 X i ) = 0
=
0
2
4
2
2
2 i=1
X
=
0
)
i
1
2
i
i=1
N
( Yi 1 2 X i ) X i = 0
i=1
N
( Y
35
S xy
Y
=
X = b1
1
2
2
Sx
Sx
S xy
S xy
2 = 2 = b2
2 = 2
Sx
Sx
1 = Y
S xy
Que coinciden con los estimadores de M.C.O.. A partir de estas soluciones, sustituyndolas en la tercera ecuacin, nos queda:
N
N 1
1
2
2 + 4 ( Yi b 1 b 2 X i ) = 0
2
2 i=1
donde despejando 2:
( Y b
N
1
2
=
2 =
4 ( Yi b 1 b 2 X i )
2
2 i=1
2
4
b2 Xi )
i=1
2 =
2
i
i=1
2
i
i=1
Tan slo queda comprobar que la solucin obtenida cumple con la condicin de segundo
orden. Se puede deducir que la matriz hessiana para dicha solucin es:
N
S 2ey
Xi
i
2
H(b 1 , b 2 , S ey ) = 2
S ey
2(S 2ey ) 2
S 2ey
X 2i
i
S 2ey
0
h 11
h 12
h 21
h 22
>0
y H< 0
2 X = b1
Sx
S xy
2 = 2 = b2
Sx
1 = Y
36
S xy
y 2 =
e
i=1
2
i
= S 2ey
Introduccin a la Econometra
De los dos primeros, que coinciden con los de M.C.O., ya conocemos sus propiedades, a
las que podramos aadir que, ahora bajo el supuesto de normalidad, son los estimadores eficientes, es decir, son insesgados y de mnima varianza entre todos los estimadores insesgados
que se pudieran proponer.
Del estimador M.V. de la varianza podemos decir que es sesgado, como se comprob en
el epgrafe anterior, aunque insesgado asintticamente. Y se puede comprobar que, como todo
estimador de M.V., es consistente y eficiente asintticamente.
EJERCICIOS PROPUESTOS
3.1 En el contexto del modelo de regresin lineal simple, conteste razonadamente a las siguientes cuestiones:
1) Es lineal el estimador insesgado de 2?.
2) Dadas dos series de valores de X ( X1i y X2i ) Donde los valores X2i estn ms dispersos
que los valores X1i , cul de las dos series elegira para obtener una mejor estimacin
M.C.O. de 2 ?.
3) Se podra obtener la estimacin M.C.O. de 2 si todos los valores de Xi fueran iguales?.
(Recogido del libro Ejercicios de econometra de M T. Aparicio, F.J. Trvez y J. Mur)
3: Las perturbaciones aleatorias o trminos de error coinciden con los residuos de la estimacin del modelo.
3.4 Dado el modelo lineal simple sin ordenada en el origen: Yi = Xi + ui i = 1, .. , N
Determinar:
1) El estimador M.C.O. de . 2) El estimador insesgado de 2. 3) La varianza del estimador de . 4) La expresin del coeficiente de determinacin.
37
1
NS 2x
3.7 Estime el modelo de regresin lineal simple que explica la calificacin del examen final
segn la calificacin de un examen previo, con los datos del ejercicio 1.2 del TEMA 1.
Calcule las estimaciones M.C.O. de los dos parmetros, la estimacin insesgada de 2 y el
valor correspondiente del coeficiente de determinacin.
3.8 Utilizando los resultados obtenidos en el ejercicio 1.3 del TEMA 1 estime el modelo de
regresin lineal del Consumo privado sobre la Renta disponible de las familias estadounidenses durante el periodo de 1960 a 2004. Calcule las estimaciones M.C.O. de los
dos parmetros, la estimacin insesgada de 2 y el valor correspondiente del coeficiente
de determinacin.
3.9 Estime el modelo de educacin de Mincer: logYi = 1 + 2Xi + ui , a partir de los datos obtenidos en la resolucin del ejercicio 2.1 del TEMA 2. Calcule las estimaciones M.C.O.
de los dos parmetros, la estimacin insesgada de 2 y el valor correspondiente del coeficiente de determinacin.
3.10 Estime la lnea caracterstica del modelo del mercado de Sharpe: rjt = j +jRMt +ujt correspondiente a la volatilidad del ttulo A, a partir de los datos obtenidos en la resolucin
del ejercicio 2.2 del TEMA 2. Calcule las estimaciones M.C.O. de los dos parmetros,
38
Introduccin a la Econometra
Sea el modelo de regresin lineal simple: y i = 1 + 2 x i + u i i = 1 ... N con las hiptesis bsicas: E[ui] = 0 V[ui] = E[ui]2 = 2 Cov[ui ,uj] = E[ui.uj] = 0 i j y consideremos
S xy
S xy
$1 = b1 = y 2 . x
los estimadores M.C.O.: $2 = b2 = 2
Sx
Sx
Se deduce que:
b2 =
S xy
S
2
x
ya que
1
N
(x - x).(y - y) = ( x - x)y y (x
( x - x)
(x - x)
i
i
2
1
N
(x
- x)
(x
- x)y i
(x - x)
= i 2 yi
2
NS x
NS x
x) = 0
(x
- x) 2 = NS 2x
b 2 = k i y i (3.5) siendo
Obtenindose:
ki =
xi - x
NS 2x
S xy
S
2
x
- x. k i y i = xk i .y i
N
.x =
1
b 1 = d i y i (3.6) siendo d i = xk i
Llegando a:
(x
1
NS 2x
2
i
4)
( NS )
2 2
x
- x) = 0
=0
k (x - x) = k x - x. k = k x
(x x)
(x x) = NS
x) =
(x x) =
NS
NS
NS
i
k i (x i
k x
2
x
2
x
2
x
2
x
=1
=1
( x
x) =
2
( NS )
2 2
x
NS 2x =
1
NS 2x
2
i
1
NS 2x
1
1
1
= xk i = xk i = N x k i = 1 0 = 1 por tanto:
N
N
N
=1
39
5)
xi
d .x = N xk x =
i
x k i x i = x x.1 = 0
d x
i
=0
6)
2
2
1
x2
1
1
N
d = N xk i = N 2 + x 2 k 2i N xk i = N 2 + x 2 k 2i N x k i = N + NS 2 =
x
a
S 2x + x 2
a 20
20
2
=
=
es decir: d i =
2
2
NS 2x
NS x
NS x
2
2
i
Apndice A3.2
A partir de los resultados (3.7) y (3.8), obtenidos en el segundo epgrafe de este Tema, se
deduce que las expresiones de las varianzas de los estimadores de M.C.O. son:
V[ b 2 ] = E[ b 2 - 2 ] = E[ k i u i ] = E[ k 12 u 12 +...+k 2N u 2N + 2k 1 k 2 u 1 u 2 +...] =
2
ya que E[ u 2i ] = 2 i y E u i .u j = 0 i j
y aplicando el resultado obtenido en 3) del Apndice A1 quedar: V[ b 2 ] = 2
1
(3.11)
NS 2x
a 20
(3.12)
NS 2x
Cov( b 1 , b 2 ) = E ( b 1 - 1 ) . ( b 2 - 2 ) = E ( d i u i ) . ( k i u i )
2
N
= 2 d i k i ya que E( u 2i ) = 2 i y E u i .u j = 0 i j
pero
d k
i
1
1
1
= xk i .k i = k i x k 2i = x
N
N
NS 2x
resultando : Cov( b 1 , b 2 ) = 2 .
40
-x
(3.13)
NS 2x
Introduccin a la Econometra
Apndice A3.3
= 2 . [ (w i k i ) 2 + k 2i + 2 (w i k i ).k i ] = 2 (w i k i ) 2 + 2
1
2
2
2 + 2 (w i k i k i )
NS x
y dado que:
xi x
1
w i xi x w i 1 = 1 1 = 0
2
2 =
NS x NS x
NS2x
NS2x
NS2x NS2x NS2x
1
la varianza de 2* queda: V( 2* ) = 2
+ 2 (w i k i ) 2
NS 2x
(w k
i
k 2i ) = w i k i k 2i = w i
Apndice A3.4
Sea el modelo: y i = 1 + 2 x i + u i
i = 1, ... , N
[3.1]
S xy
$2 = b 2 =
S xy
2
x
S 2x
(x i x).u i
[3.2]
NS 2x
, sumando y dividiendo entre N:
S
los residuos sern : e i = y i b1 b 2 x i
0 = y b1 b 2 x
[3.3]
[3.4]
[3.5]
e i = 2 (x i x) + (u i u) b 2 (x i x) e i = (u i u) (b 2 2 )(x i x) [3.8]
e = (u u)
2
i
e 2i = (u i u) 2 2(b 2 2 ) (x i x)u i + (b 2 2 ) 2 NS 2x
al ser
[3.9]
( x
x ) = NS 2x
2
41
2
i
2
i
(x
x)u i = (b 2 2 ) NS 2x
= (u i u) 2 2(b 2 2 ) 2 NS 2x + (b 2 2 ) 2 NS 2x
= (u i u) 2 (b 2 2 ) 2 NS 2x [3.10]
[3.11]
= 2 +
2
N
2
N
= N 2 + 2 2 2 = ( N 1) 2
[3.12]
E(u 2i ) = 2
ui
1
1
2
2
2
2
2
2
por ser E(u ) = E
= 2 E( u1 + u 2 +...+ u N +...) = 2 N =
N
N
N
N
ui 1
2
2
=
=
+
+
+
+
+
E(u.u
)
E
u
E
u
u
u
.u
...
u
...
u
u
.
.
=
(
)
i
i
1
i
2
i
i
N
i
N
N
N
E[ b 2 2 ] = V[ b 2 ] =
2
42
(x
x)
2
NS 2x
[3.13]
= (N 1) 2 2