Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ejercicios
1. Para i = 1, ..., n, justifique cuál de los siguientes modelos de regresión corresponden a
modelos lineales.
(a) yi = β0 + β1 x1 + β2 x21 + εi
Si es un modelo lineal.
(b) yi = β0 + β1 ( x1i ) + εi
Si es un modelo lineal.
(c) yi = β0 exp (β1 xi ) + εi
No es un modelo lineal. Notar que el exponente de β0 y β1 es distinto bajo
cualquier transformación de la ecuación.
(d) yi = β0 xβi 1 + εi
No es un modelo lineal. Notar que el exponente de β0 y β1 es distinto bajo
cualquier transformación de la ecuación.
(e) Log(yi ) = β0 Log(x1 ) + β1 ex2 + εi
Si es un modelo lineal.
(f) yi = β0 + β1 x1 + β2 x2 + β3 x1 x2 + εi
Si es un modelo lineal.
(g) Γ(y) = α + β1 ∇x1 + β2 ∆x2 + ε
Si es un modelo lineal.
(h) yi = (α + β0 + β1 )x1 + εi
Si es un modelo lineal. Notar que existe una única estimación MCO.
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
−2X ′ y + 2X ′ Xβ = 0
X ′ Xβ = X ′ y (2)
De esta manera, las ecuaciones (2) se conocen como ecuaciones normales. Veri-
ficamos que tenemos un mı́nimo según el hessiano:
∂ 2 M CO(β)
′
= 2X ′ X (3)
∂β∂β
Bajo el supuesto que las columnas de la matriz de diseño son independientes, es
decir, que la matriz es de rango columna completo, tenemos que la matriz hes-
siana presentada en (3) es semi definida positiva, luego tratamos con un mı́nimo.
Además, esto garantiza la existencia de la inversa de X ′ X, luego podemos resolver
las ecuaciones normales en (2) para β:
β̂ = (X ′ X)−1 X ′ y
2
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
3
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
e = y − ŷ
= (In − P )y
e = (In − P )ϵ
X ′ e = X ′ (In − P )ϵ = (X ′ − X ′ )ϵ = 0
y ′ e = y ′ (In − P )ϵ = 0
4
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
x′ M x = x′ M 2 x
= x′ M ′ M x
= (M x)′ M x
P X = X(X ′ X)−1 X ′ X = X
5
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
Var[c′ y] = c′ Cov[y]c
= c′ σ 2 In c
= σ 2 c′ c
6
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
y = P y + M y = X1 β̂1 + X2 β̂2 + M y
7
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
xi = zi ), podemos tener:
" n
#
1 X (yi − yi−1 )
E [b] = E
n − 1 i=2 (xi − xi−1 )
n
1 X 1
= E [yi − yi−1 ]
n − 1 i=2 (xi − xi−1 )
n
1 X 1
= E [yi ] − E [yi−1 ]
n − 1 i=2 (xi − xi−1 )
n
1 X 1
= (β1 (xi − xi−1 ))
n − 1 i=2 (xi − xi−1 )
n
1 X
= β1
n − 1 i=2
= β1
(b) Calcule la varianza de b y compare con la varianza de βˆ1 . ¿Cuál estimador prefiere?
Igual que antes, podemos calcular la varianza según sus propiedades:
" n #
1 X (yi − yi−1 )
Var [b] = 2
Var
(n − 1) i=2
(xi − xi−1 )
n
σ2 X 1
=
(n − 1)2 i=2 (xi − xi−1 )2
Sin necesidad de calcular la varianza del estimador MCO, podemos decir con
certeza que preferirı́amos el estimador β̂1 , por Gauss-Markov.
y 1 = β1 + ε1
y2 = 2β1 − β2 + ε2
y3 = β1 + 2β2 + ε3
8
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
y11
y21
y12 x 1 0
0 x1
y22
. x2 0
.
. β
β= 1
0 x2
y= X=
y1j β2
.. ..
. .
y2j
. xn 0
..
y1n 0 xn
y2n
9
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
′
Similarmente, notando que S 2 = (y−Xβ) (y−Xβ)
n−p
para una matriz X de dimensión
2
(n × p) es un estimador insesgado de σ , tenemos:
n 2 n 2
X X
n
xj y1k xk xj y2k xk
X k=1
k=1
y1j − + y2j −
Xn Xn
j=1
x2k x2k
k=1 k=1
S2 =
2(n − 1)
10. Suponga que se tienen n + 1 observaciones, y0 , ..., yn , las cuales siguen el modelo lineal
simple, yi ∼ N (β0 + β1 i, σ 2 ), ∀i = 0, ...n.
(b) Un amigo suyo que recientemente dio un curso de econometrı́a le comenta que él
posee un mejor estimador de β1 que el de MCO estimado en (a). El estimador
de su amigo en cuestión es β˜1 = (yn − y0 )/n. Lamentablemente su amigo no dio
nunca un curso de estadı́stica, por lo que le pide probar que β˜1 es un estimador
insesgado de β1 , y encontrar su varianza.
10
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
Podemos notar que como y proviene del modelo lineal propuesto en el enunci-
ado, tenemos por propiedades de la distribución normal n − variada que y ∼
Nn (Xβ, σ 2 In ), luego la covarianza entre cada par de observaciones es cero. Fi-
nalmente tenemos:
yn − y0 1 1
Var = 2 Var[yn ] + 2 Var[y0 ]
n n n
2
2σ
= 2
n
11. Considere el modelo lineal, y ∼ N5 (Xβ, σ 2 I5 ). Se observan para el modelo anterior los
siguientes datos:
11
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
Observación y x
1 0 -2
2 0 -1
3 1 0
4 1 1
5 3 2
(c) Estime la matriz de covarianza de los estimadores β̂. ¿Son independientes? Jus-
tifique.
Podemos notar que (X ′ X)−1 = 0.1, luego Cov[β̂] = 0.1525. Como es un solo
estimador, la independencia no tiene sentido.
y = X1 β + X2 γ + ϵ (10)
12
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
Esta fórmula muestra que hay dos componentes de la solución MCO en caso multivari-
ado. Una que es exacta la solución del modelo simple y la segunda que es un “factor de
corrección” que incluye, además de la misma matriz inversa, un componente asociado a
la correlación entre X1 y X2 y la relación entre X2 e y (coeficiente β̂2 ). Esta segunda
parte es el sesgo de omitir variables relevantes en el modelo, ya que es el componente
que se aleja de la solución MCO del modelo simple. Las condiciones para que el sesgo
sea distinto de cero son dos:
(a) Que haya correlación entre X1 y X2 (en otras palabras que la multiplicación de
matrices X1 y X2 sea diferente de cero)
(b) Que X2 sea una variable relevante o que tenga un efecto sobre y distinto de cero
(β̂1 ̸= 0)
Observación y x1 x2
1 6 1 2
2 1 -1 2
3 11 0 -3
4 3 0 -1
13
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
(b) Estime β0 , β1 , β2 , σ 2 .
Utilizando el estimador MCO y la varianza insesgada del error, tenemos:
5.25
β̂ = 2.5 σ̂ 2 = S 2 = 17.36
−1.22
(c) Encuentre el valor del coeficiente de determinación R2 para los datos entregados.
¿Puede concluir únicamente con esta información que el modelo se encuentra bien
ajustado? Justifique.
Utilizando la fórmula entregada, obtenemos R2 = 0.6941. Sólo con esta infor-
mación no es posible determinar que el modelo está bien ajustado, ya que pueden
afectar otras variables en y que no están añadidas al modelo, y añadirlas aumen-
tarı́a considerablemente el valor. Sin embargo, asumiendo que no hay problemas
con los datos, se tiene que aproximadamente el 70% de la varianza de la respuesta
explica la varianza total.
(d) Especifique el estadı́stico de prueba para el test de hipótesis H0 : βi = 0 v/s Ha :
βi ̸= 0, i = 1, 2, 3.
Utilizando el estadı́stico ti , i = 1, 2, 3, obtenemos:
2.52
t = 0.85
−1.24
(e) Para el test de hipótesis anterior, arme un intervalo de confianza que permita
concluir respecto a la hipótesis nula. ¿Existe evidencia estadı́stica para decir que
el coeficiente βi es significativo? Justifique para i = 1, 2, 3.
Sea α = 0.05, podemos especificar los siguientes intervalos de confianza para los
tests de hipótesis anteriores:
Notemos que en todos los casos se tiene que, al 95% de confianza, el valor de
βi , i = 1, 2, 3 puede tener el valor 0. Por lo tanto, no podemos asegurar que las
variables xi tengan efecto real en la respuesta.
14. Considere el modelo lineal yj ∼ N (β0 + 4i=1 βi xij , σ 2 ), j = 1, ...n. Los resultados de
P
aplicar el modelo se encuentran en la siguiente tabla:
14
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
(d) Para α = 0.1, 0.05, 0.01. Identifique si se rechazarı́a o no la hipótesis nula asociada
al test que presenta la tabla 3.
1
Si llegase a ser necesario, puedo responder en el foro cómo se calcula, pero la idea es que puedan realizarlo
por su cuenta, ya que poseen los valores reales de la tabla.
15
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
15. Suponga que usted quiere estimar un modelo de regresión lineal simple del tipo: yi =
α + βxi + µi .
(a) Muestre qué pasarı́a en su estimación del coeficiente asociado a la variable in-
dependiente si usted en vez de observar xi , cuenta con datos que incorporan un
error aleatorio del tipo x′i = xi + vi . Asuma que Cov(vi , xi ) = 0.
Estimamos erróneamente la regresión yi−erroneo = α̃ + β̃x′i + µ̃i . El coeficiente de
interés en este caso corresponde a:
Cov(x′i , yi )
β̃ =
Var(x′i )
Cov(xi + vi , yi = α + βxi + µi )
=
Var(xi + vi )
Var(xi )
=β
Var(xi ) + Var(vi )
Var(xi )
β̃ = β
Var(xi ) + Var(vi )
Var(xi )
β̃ = β ⇐⇒ =1
Var(xi ) + Var(vi )
Var(xi )
=⇒ = 1 ⇐⇒ Var(vi ) = 0
Var(xi ) + Var(vi )
Es decir, si y solo si la varianza del error es nula. Más aún, podemos apreciar que
0 ≤ Var(xVar(x i)
i )+Var(vi )
≤ 1, luego |β̃| ≤ |β|
16. Para una muestra de 32 motos distintas que pueden adquirirse en Chile se obtuvo; la
velocidad máxima (y), la potencia en CV (x1 ), la cilindrada en CC (x2 ) y el número
de cilindros (x3 ). Se ajustó un modelo lineal y se obtuvo:
16
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
β̂2
t= = 0.92
De(β̂2 )
Como fijamos α = 0.05, tenemos que el valor crı́tico es t0.975,28 = 2.048407. Como
t < t0.975,28 no rechazamos H0 , es decir, el coeficiente no es significativo.
17. Considere un modelo lineal normal con µi = x1i β1 + xi2 β2 para i = 1, ..., 15. Las
ecuaciones normales son
15.00 374.50 β1 6.03
= =
374.50 9482.75 β2 158.25
y y ′ y = 3.03:
17
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
Por lo tanto,
−1.0465
β̂ =
0.0580
Notemos que (X ′ y)′ = y ′ X = [6.03 158.25]. Luego, podemos utilizar los datos
que tenemos de tal manera que
De(β̂2 ) = 0.009603436
β̂1 − 0.5
t0 =
De(β̂1 )
18
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
19
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
19. En una regresión de y sobre una constante y X, para calcular el vector de coeficientes
MCO en X, podemos: En primer lugar, transformar y tal que ytransf ormado,i = yi −
ȳ ∀i, e igualmente transformar tal que Xtransf ormado,i = Xi − X̄i ∀i (notar que a
cada elemento de una columna se le resta la media de la columna). En segundo lugar,
regresionar y transformado entre X transformado, sin incluir la constante. Responda:
Si definimos 1 = [1, 1 , ..., 1]′ como un vector de unos, de tamaño n, podemos notar
que tenemos M 0 = In − 1(1′ 1)−1 1′ . Particularmente, M 0 es la matriz que transforma
las observaciones en las desviaciones respecto a la media de las columnas (puede de-
mostrarse). Por lo tanto, según la terminologı́a del problema tenemos
Xtransf ormado = M 0 X
ytransf ormado = M 0 y
20. Suponga que el modelo de regresión es yi = α + βxi + ei , donde ei cumple con f (ei ) =
1/λe(−λei ) , ei ≥ 0. Lo interesante de este modelo es que todas las perturbaciones son
semi-positivas. Note que E(ei | xi ) = λ y Var(ei | xi ) = λ2 .
Notemos primeramente que el modelo de regresión entregado por el enunciado no
cumple con los supuestos de regresión, ya que E [ei ] ̸= 0. Sea λ ̸= 0. Definamos el
siguiente modelo de regresión:
yi = α + λ + βxi + ei − λ (14)
20
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
donde hemos usado, por el inciso anterior, que β̂ es un estimador insesgado. Por
definición de la media muestral, podemos escribir
" n #
1X
E [ȳ] = E yi
n i=1
n
1X
= E [yi ]
n i=1
n
1X
= E [α + βxi + ei ]
n i=1
n
1X
= (α + βxi + E [ei ])
n i=1
= α + β x̄ + λ
Por lo tanto, la esperanza del estimador de α es
E [α̂] = E [ȳ] − β x̄
= α + β x̄ + λ − β x̄
=α+λ
21
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
y = Xβ + zγ + µ (16)
y = Xb1 + e (17)
b̂2 = (X ′ Mz X)−1 X ′ Mz y
Entonces, consideremos
h i−1 h i−1
Var b̂1 − Var b̂2 = σ −2 (X ′ X) − σ −2 (X ′ Mz X)
= σ −2 ((X ′ X) − (X ′ Mz X))
= σ −2 (X ′ (X − Mz X))
= σ −2 (X ′ ((I − Mz )X))
= σ −2 (X ′ z(z ′ z)−1 z ′ X)
22
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
Que en palabras, quiere decir que la varianza de b̂2 es mayor que la varianza de b̂1 .
Particularmente, la varianza de lo interceptos cumple esta propiedad, luego se demostró
lo pedido.
22. Considere el modelo de regresión lineal múltiple yi ∼ Nn (Xβ, σ 2 In ), con los supuestos
usuales de regresión vistos en el curso. Se define
b = β + (X ′ X)−1 X ′ ϵ
Deemuestre que
E(b′ b) = β ′ β + σ 2 T r[(X ′ X)−1 ]
Notemos que
Luego, su esperanza,
23
Solución Guı́a de Repaso: I1 Ayudante: Felipe Valdés Aguirre - fvaldes17@uc.cl
Por lo tanto,
Por lo tanto, sabiendo que E [ϵ] = 0 (por supuestos también), se puede despejar E [ϵϵ′ ] =
σ 2 In , ası́,
24