Está en la página 1de 5

Facultad de Economı́a y Negocios Universidad de Chile

Econometrı́a I
Profesor: Rómulo Chumacero
Ayudantes: Adolfo Fuentes y Rodrigo Miranda
Otoño 2014
Pauta Ayudantı́a 8

1. Ejercicios
1. a) Respuesta
Dado lo visto en clases sabemos que:

β̂OLS = (X´X)−1 X 0 Y
pero:

 
1
1
X =
 
 .. 
.
1
⇒ X 0X = T
XT
⇒ X 0Y = yt
t=1
PT
t=1 yt
⇒ β̂OLS = = ȳ
T
Entonces:

E(β̂OLS ) = E(ȳ) = E(β0 + ē) = β0


PT
V (et ) T β02 β2
V (β̂OLS ) = V (ȳ) = V (β0 + ē) = V (ē) = t=1
= = 0
T2 T 2 T
β02
M SE(β̂OLS ) = V (β̂OLS ) =
T

b) Respuesta
En efecto, el estimador propuesto es:

T
β̃ = ȳ
T +1
por lo tanto:

T T
E(β̃) = E(ȳ) = β0
T +1 T +1
T2 T
V (β̃) = V (ȳ) = β2
(T + 1)2 (T + 1)2 0
1 2 T 2 (T + 1) 2 β02
M SE(β̃) = β 0 + β 0 = β 0 =
(T + 1)2 (T + 1)2 (T + 1)2 T +1

1
Facultad de Economı́a y Negocios Universidad de Chile

c) Respuesta
En efecto no se cumple Gauss-Markov, lo que impide seleccionar a OLS como mejor estimador
por ser de mı́nima varianza, ya que eso solo aplica para comparar estimadores insesgados (β̃ es
sesgado). Si elegimos por criterio de mı́nima varianza nos quedamos con β̃ y si elegimos por sesgo
nos quedamos con β̂OLS . Por ello usaremos como criterio de selección al estimador con menor
MSE (error cuadrático medio, que considera sesgo y varianza). En efecto:

β02
M SE(β̃) =
T +1
β02
M SE(β̂OLS ) =
T
⇒ M SE(β̃) < M SE(β̂OLS )

por lo que elegimos a β̃, que tiene menor MSE.

2. a) Respuesta
Primero, usando los datos entregados, haremos los test t para cada coeficiente:

β̂1 0, 5
β1 : q = √ ≈ 0, 6 < 1, 96 (No significativa)
0, 7
V̂ (β̂1 )
β̂2 0, 4
β2 : q = √ ≈ 0, 48 < 1, 96 (No significativa)
0, 7
V̂ (β̂2 )

Por otro lado recordemos que el R̄2 se define de acuerdo a la siguiente fórmula:

σ̃ 2
R̄2 = 1 −
V (y)
pero recordemos que V̂ (β̂) = σ̃ 2 (X 0 X)−1 , por lo que:

     
0, 7 −0, 56 1 10 −8
2 2 0, 28 −0, 22
= σ̃ = σ̃
−0, 56 0, 7 36 −8 10 −0, 22 0, 28
0, 7 −0, 56
⇒ σ̃ 2 = = = 2, 5
0, 28 −0, 22
2, 5
⇒ R̄2 = 1− = 0, 9
25, 2

b) Respuesta
Verificaremos colinealidad con el test de Belsey. Recordemos que este test consiste en encontrar
el siguiente estadı́stico:
r
λM ax
γ=
λM in

2
Facultad de Economı́a y Negocios Universidad de Chile

, donde λ son los valores propios de B, y B se define como B = S(X 0 X)S, con S la siguiente
matriz:

qP 1
 
T 2
0
t=1 x1,t
S= qP 1

0 T
t=1 x22,t

Considerando los datos del ejercicio, tenemos que:

!
√1 0
 
10 0, 32 0
S = √1
=
0 10
0 0, 32
   
0, 32 0 10 8 0, 32 0
⇒B =
0 0, 32 8 10 0 0, 32
  
0, 32 0 3, 2 2, 56
B =
0 0, 32 2, 56 3, 2
 
1, 02 0, 82
B =
0, 82 1, 02

Ahora obtenemos los valores propios de B:

det(B − λI) = 0
 
1, 02 − λ 0, 82
det = 0
0, 82 1, 02 − λ
(1, 02 − λ)2 − 0, 822 = 0
2
1, 04 − 2, 04λ + λ − 0, 67 = 0
2
λ − 2, 04λ + 0, 37 0 =

2, 04 ± 4, 16 − 1, 48
λ =
2
2, 04 ± 1, 64
λ =
2
λ1 = 0, 2 ∧ λ2 = 1, 84
r
1, 84
γ = = 3, 03
0, 2
por lo tanto no parece haber colinealidad, a pesar de que el R̄2 es alto y ningún coeficiente es
significativo.

c) Respuesta
Sea la regresión planteada a hacer y que estimaremos por OLS:

x2,t = δx1,t + vt
8
⇒ δ̂ = (x01 x1 )1 x01 x2 = = 0, 8
10
⇒ v̂ = x2 − 0, 8x1

Ahora regresionemos y contra x1 y v̂ (supongamos que los estimadores OLS de esta regresión son
β̃1 y β̃2 ). Pero notemos que de la regresión original (y contra x1 y x2 ):

3
Facultad de Economı́a y Negocios Universidad de Chile

ŷ = 0, 5x1 + 0, 4x2
ŷ = 0, 5x1 + 0, 4(v̂ + 0, 8x1 )
ŷ = (0, 5 + 0, 8 · 0, 4)x1 + 0, 4v̂
ŷ = 0, 82x1 + 0, 4v̂
⇒ β̃1 = 0, 82 ∧ β̃2 = 0, 4

pero notemos que β̃1 = β̂1 + 0, 8β̂2 y β̃2 = β̂2 . Con estas relaciones podemos encontrar la matriz
de varianzas y covarianzas estimada para los estimadores olita, de la siguiente forma:
   0  
1 0, 8 1 0, 8 0, 252 0
V̂ (β̃) = V̂ (β̂) =
0 1 0 1 0 0, 7
Y con ello podemos realizar los test t para los coeficiente olita de la nueva regresión:

0, 82
β̃1 : √ ≈ 1, 63 < 1, 96 (No significativa)
0, 252
0, 4
β̃2 : √ ≈ 0, 48 < 1, 96 (No significativa)
0, 7
por lo que haciendo esta nueva regresión las variables siguen siendo no significativas.

d ) Claramente la propuesta para eliminar la colinealidad fue un fracaso, al arrojar que los coe-
ficientes aun siguen siendo no significativos.

3. a) Respuesta
En efecto:

(X 0 X + γIk )−1 X 0 X β̂ = (X 0 X + γIk )−1 X 0 X(X 0 X)−1 X 0 Y


(X 0 X + γIk )−1 X 0 X β̂ = (X 0 X + γIk )−1 X 0 Y = β̃γ

b) Respuesta
En efecto:

β̃γ = (X 0 X + γIk )−1 X 0 Xβ + (X 0 X + γIk )−1 X 0 u


⇒ E(β̃γ ) = (X 0 X + γIk )−1 X 0 Xβ (Sesgado)

c) Respuesta
En efecto:

V (β̃γ ) = E[(β̃γ − E(β̃γ ))(β̃γ − E(β̃γ ))0 ]


pero:

4
Facultad de Economı́a y Negocios Universidad de Chile

β̃γ − E(β̃γ ) = (X 0 X + γIk )−1 X 0 X(β̂ − β)


entonces:

V (β̃γ ) = E[(X 0 X + γIk )−1 X 0 X(β̂ − β)(β̂ − β)0 X 0 X(X 0 X + γIk )−1 ]
V (β̃γ ) = (X 0 X + γIk )−1 X 0 XE[(β̂ − β)(β̂ − β)0 ]X 0 X(X 0 X + γIk )−1
V (β̃γ ) = (X 0 X + γIk )−1 X 0 Xσ 2 (X 0 X)−1 X 0 X(X 0 X + γIk )−1
V (β̃γ ) = σ 2 (X 0 X + γIk )−1 X 0 X(X 0 X + γIk )−1

d ) Respuesta
Por demostrar que σ 2 (X 0 X)−1 − σ 2 (X 0 X + γIk )−1 X 0 X(X 0 X + γIk )−1 > 0
Supongamos que la afirmación anterior es cierta y confirmemosla llegando a algo que sepamos
que se cumple, y con eso demostramos la afirmación. En efecto:

σ 2 (X 0 X)−1 − σ 2 (X 0 X + γIk )−1 X 0 X(X 0 X + γIk )−1 > 0


0 −1 0 −1 0 0 −1
(X X) − (X X + γIk ) X X(X X + γIk ) > 0
0 −1
(X X) > (X 0 X + γIk )−1 X 0 X(X 0 X + γIk )−1
Ik > (X 0 X)(X 0 X + γIk )−1 X 0 X(X 0 X + γIk )−1
(X 0 X + γIk )(X 0 X)−1 (X 0 X + γIk ) > (X 0 X)
(X 0 X(X 0 X)−1 + γIk (X 0 X)−1 )(X 0 X + γIk ) > (X 0 X)
(Ik + γ(X 0 X)−1 )(X 0 X + γIk ) > (X 0 X)
(X 0 X + γIk + γ(X 0 X)−1 X 0 X + γ(X 0 X)−1 γIk − (X 0 X)) > 0
0 −1
(2γIk + γ(X X) ) > 0

lo cual se cumple ya que Ik y (X 0 X)−1 son matrices positivas definidas y γ > 0. Por lo tanto, la
afirmación a demostrar es cierta.

También podría gustarte