Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Econometrı́a I
Profesor: Rómulo Chumacero
Ayudantes: Adolfo Fuentes y Rodrigo Miranda
Otoño 2014
Pauta Ayudantı́a 8
1. Ejercicios
1. a) Respuesta
Dado lo visto en clases sabemos que:
β̂OLS = (X´X)−1 X 0 Y
pero:
1
1
X =
..
.
1
⇒ X 0X = T
XT
⇒ X 0Y = yt
t=1
PT
t=1 yt
⇒ β̂OLS = = ȳ
T
Entonces:
b) Respuesta
En efecto, el estimador propuesto es:
T
β̃ = ȳ
T +1
por lo tanto:
T T
E(β̃) = E(ȳ) = β0
T +1 T +1
T2 T
V (β̃) = V (ȳ) = β2
(T + 1)2 (T + 1)2 0
1 2 T 2 (T + 1) 2 β02
M SE(β̃) = β 0 + β 0 = β 0 =
(T + 1)2 (T + 1)2 (T + 1)2 T +1
1
Facultad de Economı́a y Negocios Universidad de Chile
c) Respuesta
En efecto no se cumple Gauss-Markov, lo que impide seleccionar a OLS como mejor estimador
por ser de mı́nima varianza, ya que eso solo aplica para comparar estimadores insesgados (β̃ es
sesgado). Si elegimos por criterio de mı́nima varianza nos quedamos con β̃ y si elegimos por sesgo
nos quedamos con β̂OLS . Por ello usaremos como criterio de selección al estimador con menor
MSE (error cuadrático medio, que considera sesgo y varianza). En efecto:
β02
M SE(β̃) =
T +1
β02
M SE(β̂OLS ) =
T
⇒ M SE(β̃) < M SE(β̂OLS )
2. a) Respuesta
Primero, usando los datos entregados, haremos los test t para cada coeficiente:
β̂1 0, 5
β1 : q = √ ≈ 0, 6 < 1, 96 (No significativa)
0, 7
V̂ (β̂1 )
β̂2 0, 4
β2 : q = √ ≈ 0, 48 < 1, 96 (No significativa)
0, 7
V̂ (β̂2 )
Por otro lado recordemos que el R̄2 se define de acuerdo a la siguiente fórmula:
σ̃ 2
R̄2 = 1 −
V (y)
pero recordemos que V̂ (β̂) = σ̃ 2 (X 0 X)−1 , por lo que:
0, 7 −0, 56 1 10 −8
2 2 0, 28 −0, 22
= σ̃ = σ̃
−0, 56 0, 7 36 −8 10 −0, 22 0, 28
0, 7 −0, 56
⇒ σ̃ 2 = = = 2, 5
0, 28 −0, 22
2, 5
⇒ R̄2 = 1− = 0, 9
25, 2
b) Respuesta
Verificaremos colinealidad con el test de Belsey. Recordemos que este test consiste en encontrar
el siguiente estadı́stico:
r
λM ax
γ=
λM in
2
Facultad de Economı́a y Negocios Universidad de Chile
, donde λ son los valores propios de B, y B se define como B = S(X 0 X)S, con S la siguiente
matriz:
qP 1
T 2
0
t=1 x1,t
S= qP 1
0 T
t=1 x22,t
!
√1 0
10 0, 32 0
S = √1
=
0 10
0 0, 32
0, 32 0 10 8 0, 32 0
⇒B =
0 0, 32 8 10 0 0, 32
0, 32 0 3, 2 2, 56
B =
0 0, 32 2, 56 3, 2
1, 02 0, 82
B =
0, 82 1, 02
det(B − λI) = 0
1, 02 − λ 0, 82
det = 0
0, 82 1, 02 − λ
(1, 02 − λ)2 − 0, 822 = 0
2
1, 04 − 2, 04λ + λ − 0, 67 = 0
2
λ − 2, 04λ + 0, 37 0 =
√
2, 04 ± 4, 16 − 1, 48
λ =
2
2, 04 ± 1, 64
λ =
2
λ1 = 0, 2 ∧ λ2 = 1, 84
r
1, 84
γ = = 3, 03
0, 2
por lo tanto no parece haber colinealidad, a pesar de que el R̄2 es alto y ningún coeficiente es
significativo.
c) Respuesta
Sea la regresión planteada a hacer y que estimaremos por OLS:
x2,t = δx1,t + vt
8
⇒ δ̂ = (x01 x1 )1 x01 x2 = = 0, 8
10
⇒ v̂ = x2 − 0, 8x1
Ahora regresionemos y contra x1 y v̂ (supongamos que los estimadores OLS de esta regresión son
β̃1 y β̃2 ). Pero notemos que de la regresión original (y contra x1 y x2 ):
3
Facultad de Economı́a y Negocios Universidad de Chile
ŷ = 0, 5x1 + 0, 4x2
ŷ = 0, 5x1 + 0, 4(v̂ + 0, 8x1 )
ŷ = (0, 5 + 0, 8 · 0, 4)x1 + 0, 4v̂
ŷ = 0, 82x1 + 0, 4v̂
⇒ β̃1 = 0, 82 ∧ β̃2 = 0, 4
pero notemos que β̃1 = β̂1 + 0, 8β̂2 y β̃2 = β̂2 . Con estas relaciones podemos encontrar la matriz
de varianzas y covarianzas estimada para los estimadores olita, de la siguiente forma:
0
1 0, 8 1 0, 8 0, 252 0
V̂ (β̃) = V̂ (β̂) =
0 1 0 1 0 0, 7
Y con ello podemos realizar los test t para los coeficiente olita de la nueva regresión:
0, 82
β̃1 : √ ≈ 1, 63 < 1, 96 (No significativa)
0, 252
0, 4
β̃2 : √ ≈ 0, 48 < 1, 96 (No significativa)
0, 7
por lo que haciendo esta nueva regresión las variables siguen siendo no significativas.
d ) Claramente la propuesta para eliminar la colinealidad fue un fracaso, al arrojar que los coe-
ficientes aun siguen siendo no significativos.
3. a) Respuesta
En efecto:
b) Respuesta
En efecto:
c) Respuesta
En efecto:
4
Facultad de Economı́a y Negocios Universidad de Chile
V (β̃γ ) = E[(X 0 X + γIk )−1 X 0 X(β̂ − β)(β̂ − β)0 X 0 X(X 0 X + γIk )−1 ]
V (β̃γ ) = (X 0 X + γIk )−1 X 0 XE[(β̂ − β)(β̂ − β)0 ]X 0 X(X 0 X + γIk )−1
V (β̃γ ) = (X 0 X + γIk )−1 X 0 Xσ 2 (X 0 X)−1 X 0 X(X 0 X + γIk )−1
V (β̃γ ) = σ 2 (X 0 X + γIk )−1 X 0 X(X 0 X + γIk )−1
d ) Respuesta
Por demostrar que σ 2 (X 0 X)−1 − σ 2 (X 0 X + γIk )−1 X 0 X(X 0 X + γIk )−1 > 0
Supongamos que la afirmación anterior es cierta y confirmemosla llegando a algo que sepamos
que se cumple, y con eso demostramos la afirmación. En efecto:
lo cual se cumple ya que Ik y (X 0 X)−1 son matrices positivas definidas y γ > 0. Por lo tanto, la
afirmación a demostrar es cierta.