Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Mariana Marchionni
marchionni.mariana@gmail.com
Temario de la clase
1 Repaso
4 Inferencia
Yi = α + β Xi + µi i = 1, ...n
Y el objetivo es estimar α y β a partir de (Yi , Xi ) i = 1, ...n.
Recordemos notación y deniciones:
n n
Minα̂,β̂ SRC (α̂, β̂) = ei2 = [Yi − (α̂ + β̂ Xi )]2
X X
i =1 i =1
∂ SRC
(1) =0
∂ α̂
CPO :
∂ SRC
(2)
=0
∂ β̂
Solución:
N
Xi Yi −nȲ X̄
P
(3) α̂ = Ȳ − β̂ X̄ y (4) β̂ = i =P
1
N 2
Xi −nX̄ 2
i =1
Mariana Marchionni MCO bajo los supuestos clásicos 5 / 43
Repaso
El modelo lineal clásico
Propiedades de los estimadores
Inferencia
Propiedades algebraicas
Pn
1 ei = 0
Pin=1
2
i =1 ei Xi = 0 (⇒ Cov (X , e ) = 0)
3 Ŷ (X̄ ) = Ȳ (⇒la recta de regresión pasa por las medias
muestrales)
Ŷi = α̂ + β̂ Xi
n n n
(Yi − Ȳ )2 = (Ŷi − Ȳ )2 + ei2
X X X
|i =1 {z } |i =1 {z } |i ={z
1
}
STC = SEC + SRC
STC : Suma Total de Cuadrados, SEC : Suma Explicada de Cuadrados,
SRC : Suma de los Residuos al Cuadrado
Denimos:
SEC SRC
R2 = =1−
STC STC
R 2=0.94
R 2=0.35
Linealidad: Yi = α + β Xi + µi , i = 1, ...n
X no aleatoria: las Xi son determinísticas, jas en muestreos
repetidos.
Linealidad: Yi = α + β Xi + µi , i = 1, ...n
X no aleatoria: las Xi son determinísticas, jas en muestreos
repetidos.
Linealidad
Yi = α + β Xi + µi , i = 1, ...n
X no aleatoria
Experimentos
Esperanza nula
E [µi ] = 0 , i = 1, ..., n
⇒ E [Yi ] = α + β Xi , i = 1, ..., n
En promedio, la relación es lineal y exacta
Homocedasticidad
V [µi ] = V [µj ], ∀ i 6= j
No correlación serial
Cov [µi , µj ] = 0, i 6= j .
No multicolinealidad perfecta
Yi = α + β Xi + µi , i = 1, ...n
1 E [µi ] = 0, i = 1, ..., n .
2 V [µi ] = σ 2 , i = 1, ..., n .
3 Cov [µi , µj ] = 0, i 6= j .
Yi = α + β Xi + µi , i = 1, ...n
1 E [µi ] = 0, i = 1, ..., n .
2 V [µi ] = σ 2 , i = 1, ..., n .
3 Cov [µi , µj ] = 0, i 6= j .
Las propiedades
ωi Y i
P
1. Linealidad: β̂ =
β̂ puede escribirse como una combinación lineal de las
Yi , i = 1, ...n
Ver demostración
2. Insesgadez: E [β̂] = β
Es decir, β̂ es un estimador insesgado del parámetro β
Ver demostración
V [β̂] = σ 2 / xi2
P
3.
Ver demostración
Notar:
σ2 σ2
V [β̂] = P =
xi2 nV [X ]
Entonces, en el modelo lineal simple, la varianza del estimador
depende de:
la cantidad de observaciones
la variabilidad de X
4. Teorema de Gauss-Markov
Inferencia
Test de hipótesis
µi ∼ N (0, σ 2 )
β̂ ∼ N (β, σ 2 / xi2 )
X
β̂ ∼ N (0, σ 2 / xi2 )
X
y también:
β̂
z≡q ∼ N (0, 1)
σ 2 / xi2
P
Distribución de β̂
Distribución de z (estandarización de β̂ )
Pr [− zc ≤ z ≤ zc ] = 1 − c
Entonces, si el valor z (estandarización de β̂ ) está entre los límites
−zc y zc , aceptamos H0
Grácamente...
Pr [− zc ≤ z ≤ zc ] = 1 − c
Reemplazando z por su denición:
q X q X
Pr −zc σ2/ xi2 ≤ β̂ ≤ zc σ2/ xi2 = 1 − c
q X
0 ± zc 2
σ / xi2
Problema: σ2 no se observa!
Problema: σ2 no se observa!
Estimación de σ2:
ei2
P
2
S =
n−2
β̂
t≡q P 2 ∼ Tn−2
2
S / xi
β̂
t≡q P 2 ∼ Tn−2
2
S / xi
β̂ ∼ N (β0 , σ 2 / xi2 )
X
β̂ − β0
z≡q ∼ N (0, 1)
σ 2 / xi2
P
Y también:
0 β̂ − β
t≡q ∼ Tn−2
S 2 / xi2
P
0 β̂ − β
t≡q ∼ Tn−2
S 2 / xi2
P