Documentos de Académico
Documentos de Profesional
Documentos de Cultura
3 Pruebas de hipótesis
ANOVA
Pruebas sobre coecientes individuales de regresión
Pruebas de hipótesis general lineal
6 Multicolinealidad
Peso al nacer
34 38 42
4.0
Birthweight
3.0
2.0
42
Gestation
38
34
75
65
mppwt
55
45
2.0 3.0 4.0 45 55 65 75
Modelo de regresión lineal múltiple
E(Y |xi,j+1 ) = β0 +β1 xi1 +β2 xi2 +. . .+βj (xij +1)+. . .+βp−1 xi,p−1
Por lo tanto E(Y |xi,j+1 ) − E(Y |xi,j ) = βj .
Modelo polinómico:
Modelo de interacción:
Datos:
y
n p−1
∂S X X
= −2 yi − βb0 − βbj xij xij = 0,
∂βj βb0 ,βb1 ,...,βbp−1
i=1 j=1
para j = 1, . . . , p − 1.
Estimación por mínimos cuadrados
Supuesto: ε ∼ N 0, σ 2 I .
Modelo de regresión lineal múltiple
Notación matricial:
y = Xβ + ε
donde:
β0
y1 1 x11 x12 . . . x1,p−1 β1 ε1
y2 1 x21 x22 . . . x2,p−1 ε2
β2
y = . ,X = . .. .. . . .. , β = , ε = .. .
.. .. . . . . .. .
.
yn 1 xn1 xn2 . . . xn,p−1 εn
βp−1
Supuesto: ε ∼ N 0, σ 2 I .
Debemos minimizar:
n
X
S(β) = e2i = e0 e = (y − Xβ)0 (y − Xβ).
i=1
=y y − β 0 X 0 y − y 0 Xβ + β 0 X 0 Xβ
0
=y 0 y − 2β 0 X 0 y + β 0 X 0 Xβ.
Estimación por mínimos cuadrados
Debemos minimizar:
n
X
S(β) = e2i = e0 e = (y − Xβ)0 (y − Xβ).
i=1
=y y − β 0 X 0 y − y 0 Xβ + β 0 X 0 Xβ
0
=y 0 y − 2β 0 X 0 y + β 0 X 0 Xβ.
X 0 X βb = X 0 y.
En mas detalle,
Pn Pn
. . . P ni=1 xi,p−1
P b Pn
n i=1 xi1 i=1 xi2 β0 i=1 yi
P n P n 2
P n n P n
i=1 xi1 i=1 xi1 i=1 xi1 xi2 ... i=1 xi1 xi,p−1 β1 i=1 xi1 yi
b
.. .. .. .. .. . = ..
. . . . . .. .
Pn Pn Pn Pn 2 Pn
i=1 xi,p−1 i=1 xi1 xi,p−1 i=1 xi2 xi,p−1 . . . i=1 xi,p−1 βbp−1 i=1 xi,p−1 yi
Estimación por mínimos cuadrados
Ecuaciones normales de mínimos cuadrados:
X 0 X βb = X 0 y.
En mas detalle,
Pn Pn
. . . P ni=1 xi,p−1
P b Pn
n i=1 xi1 i=1 xi2 β0 i=1 yi
P n P n 2
P n n P n
i=1 xi1 i=1 xi1 i=1 xi1 xi2 ... i=1 xi1 xi,p−1 β1 i=1 xi1 yi
b
.. .. .. .. .. . = ..
. . . . . .. .
Pn Pn Pn Pn 2 Pn
i=1 xi,p−1 i=1 xi1 xi,p−1 i=1 xi2 xi,p−1 . . . i=1 xi,p−1 βbp−1 i=1 xi,p−1 yi
βb = (X 0 X)−1 X 0 y.
yb =X βb
=X(X 0 X)−1 X 0 y = Hy.
Ecuaciones normales:
b
42.00 1646.00 2397.69 β0 135.95
βb1 = 5378.18
1646.00 64794.00 94162.15
2397.69 94162.15 139006.14 βb2 7818.15
Var(β)
b =V (X 0 X)−1 X 0 y
0
=(X 0 X)−1 X 0 Var(y) (X 0 X)−1 X 0
βb = (X 0 X)−1 X 0 y,
con varianza,
Var(β)
b = σ 2 (X 0 X)−1 ,
En nuestro caso...
E y 0 (I − H)y = σ 2 tr (I − H) + β 0 X 0 (I − H)Xβ
Estimador de σ 2
E y 0 (I − H)y =σ 2 tr (I − H) + β 0 X 0 (I − H)Xβ
=(n − p)σ 2
Estimador de σ 2
E y 0 (I − H)y =σ 2 tr (I − H) + β 0 X 0 (I − H)Xβ
=(n − p)σ 2
7818.15
Por lo tanto, σ
b2 = 7.401
42−3 = 0.19.
Pruebas de hipótesis
H0 : β1 = β2 = . . . = βp−1 = 0
H1 : βj 6= 0, al menos para una j
ANOVA
H0 : β1 = β2 = . . . = βp−1 = 0
H1 : βj 6= 0, al menos para una j
modelo de regresión?
yi − ȳ = (yi − ybi ) + (b
yi − ȳ).
ANOVA
Igual que en modelo lineal simple, descomponemos la varianza total:
n
X
SSres = (yi − ybi )2 = (y − Hy)0 (y − Hy),
i=1
y
n
X 1 1
SST = (yi − ȳ)2 = (y − 10 y)0 (y − 10 y)
n n
i=1
ANOVA
Si H0 es cierta, tenemos que:
SSreg
• σ2
∼ χ2 . k
SSres
• σ2
∼ χn−p .
2 (ver apéndices C.2.4 y C.3 del libro guía)
ANOVA
Si H0 es cierta, tenemos que:
SSreg
• σ2
∼ χ2 . k
SSres
• σ2
∼ χn−p .
2 (ver apéndices C.2.4 y C.3 del libro guía)
Recordemos que...
V /ν
∼ Fν,η .
W/η
ANOVA
Coeciente de determinación:
SSres
R2 = 1 −
SST
2 SSres /(n − p)
Radj =1−
SST /(n − 1)
Tabla ANOVA:
Fuente de var. sum. cuadr. g.l cuadr. med. F0 valor-p
Regresión 9.058 2 4.529 23.87 0.000
Residuos 7.401 39 0.19
Total 16.459 41
R2 = 0.55 y Radj
2 = 0.527.
Hipótesis a probar:
H0 :βj = 0
H1 :βj 6= 0
Pruebas de hipótesis individuales
Hipótesis a probar:
H0 :βj = 0
H1 :βj 6= 0
Estadístico de prueba:
βbj
t0 = p ,
σb2 cjj
y = Xβ + ε,
y dividamos β :
β1
β= .
β2
donde β1 es un vector (p − r) × 1 y β2 es un vector r × 1.
Queremos probar:
H0 :β2 = 0
H1 :β2 6= 0
Suma extra de cuadrados
Modelo completo modelo reducido
y = X1 β1 + X2 β2 + ε y = X1 β1 + ε
Suma extra de cuadrados
Modelo completo modelo reducido
y = X1 β1 + X2 β2 + ε y = X1 β1 + ε
y 0 y − βb0 X 0 y
1
b0 0
SSreg (β) = β X y − y 0 J y y M Sres =
n n−p
Entonces,
• SSreg (β2 |β1 ) = SSreg (β)−SSreg (β1 ) = 9.299−9.058 = 0.24
• SSres (β) = 7.1607
Por lo tanto,
SSreg (β2 |β1 )/(3) 0.08
F0 = = = 0.403.
SSres (β)/(42 − 6) 0.199
y = Xβ + ε.
Prueba de hipótesis general lineal
y = Xβ + ε.
Prueba de hipótesis:
H0 : T β = 0,
y = β0 + β1 x1 + β2 x2 + β3 x3 + ε.
β3
Modelo reducido:
y =β0 + β1 x1 + β2 x2 + β1 x3 + ε
=β0 + β1 (x1 + x3 ) + β2 x2 + ε
=γ0 + γ1 (x1 + x3 ) + γ2 x2 + ε
Ejemplo
Modelo completo:
y = β0 + β1 x1 + β2 x2 + β3 x3 + ε.
β0
0 1 0 −1 β1 β1 − β3 0
H0 : T β = = =
0 0 1 0 β2 β2 0
β3
Modelo reducido:
y =β0 + β1 x1 + (0)x2 + β1 x3 + ε
=β0 + β1 (x1 + x3 ) + ε
=γ0 + γ1 (x1 + x3 ) + ε
Prueba de hipótesis general lineal
y = Zγ + ε,
Tenemos que γ
b = (Z 0 Z)−1 Z 0 y y
SSres (RM) = y 0 y − γ
b 0 Z 0 y.
Prueba de hipótesis general lineal
H0 :T β = c
H1 :T β 6= c
Recordemos que :
βb ∼ N β, σ 2 C , donde C = (X 0 X)−1
βbj − βj
p ∼ tn−p , para j = 0, . . . , p − 1.
b2 cjj
σ
I.C. 95 %
efecto parm. est lim. inf. lim. sup.
intercepto β0 -3.977 -6.108 -1.846
gestation β1 0.167 0.113 0.221
mppwt β2 0.011 -0.008 0.0311
Intervalo de conanza para la respuesta
media
Sea x0 = (1, x01 , x02 , . . . , x0,p−1 )0 un vector donde se quiere hacer
una predicción.
yb0 = x00 βb
yb0 = x00 βb
1.710 ≤ y0 ≤ 3.534.
Extrapolación oculta
Al pronosticar una nueva respuesta en un punto dado x0 se debe
tener cuidado de no extrapolar fuera de la región de los datos
originales.
Peso al nacer
Predicción en los puntos:
Covariable 1 2 3 4
gestation 32 36 38 46
mppwt 75 50 60 55
Peso de la madre pre−embarazo (kg)
80
70
60
50
30 35 40 45
Extrapolación oculta
Se dene el conjunto convexo mínimo que contiene todos los n datos
originales (xi1 , xi2 , . . . , xi,p−1 ), i = 1, 2, . . . , n como la envolvente de
las covariables (RV H ).
80
70
60
50
30 35 40 45
y la variable respuesta:
yi − ȳ
yi∗ = ,
sy
donde:
Pn Pn
− x̄)2
i=1 (xij − ȳ)2
i=1 (yi
s2j = and s2y = .
n−1 n−1
Coecientes normalizados de regresión
b = (Z 0 Z)Z 0 y ∗ .
b
Coecientes normalizados de regresión
y la variable respuesta:
yi − ȳ
yi0 = p ,
SST
donde: n
X
SSjj = (xij − x̄)2 .
i=1
Coecientes normalizados de regresión
b = (W 0 W )W 0 y 0 .
b
β̂ = (X 0 X)−1 X 0 Y
Por lo tanto es necesario que la matriz X 0 X sea no
singular. En caso contrario, no es posible encontrar la inversa
y las ecuaciones normales no tendrán una única solución. Cuando
sucede esto se debe a que hay al menos una columna de X
linealmente dependiente.
Multicolinealidad
Colinealidad aproximada:
P
c0 − j6=k xj cj
xk ≈
ck
Multicolinealidad
Colinealidad aproximada:
P
c0 − j6=k xj cj
xk ≈
ck
La falta de ortogonalidad no es necesariamente un inconveniente,
el problema es cuando la relación lineal entre los regresores es casi
perfecta, lo que provoca problemas en las inferencias que se hagan.
Ejemplo
Considere el modelo:
y = X1 β + ε y y = X2 β + ε