Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Reg Multiple PDF
Reg Multiple PDF
Demostraciones
donde β̂0 , β̂1 , . . . , β̂k son los valores estimados del modelo.
⎛ ⎞ ⎛ ⎞
1 x11 x21 ··· xk1 xj1
⎜ 1 x12 x22 ··· xk2 ⎟ ³ ´ ⎜ xj2 ⎟
⎜ ⎟= ~1, X
~ 1, X
~ 2, . . . , X ~j = ⎜
~ k , siendo X ⎟
X=⎜ .. .. .. .. .. ⎟ ⎜ .. ⎟
⎝ . . . . . ⎠ ⎝ . ⎠
1 x1n x2n ··· xkn xjn
Forma matricial del modelo
La expresión matricial del modelo de regresión múltiple es la siguiente:
Y = Xβ + U
El modelo estimado también puede expresarse en forma matricial:
Ŷ = X β̂
Y − Ŷ = e
Ajuste por mínimos cuadrados
ei = yi − ŷi = yi − (β̂0 + β̂1 x1i + β̂2 x2i + . . . β̂k xki )
Pn Pn ³ ´2
2
S= i=1 ei = i=1 yi − (β̂0 + β̂1 x1i + β̂2 x2i + . . . + β̂k xki )
Ajuste por mínimos cuadrados
Al igual que en regresión simple, la estrategia que seguimos para
calcular el mínimo de S es:
• derivar S con respecto a los parámetros,
• igualar a cero cada derivada,
• y resolver el sistema de ecuaciones que resulta (y en el que las
incógnitas vienen dadas por los k+1 parámetros que queremos estimar).
∂xT a ∂aT Xa
Teniendo en cuenta que: ∂a =x ∂a = 2Xa
Es una matriz simétrica,
Denota traspuesta
∂S
∂β= −X T Y − X T Y + 2(X T X)β Su rango debe ser máximo
T T para ser invertible, es decir:
→X Y = (X X)β rango(X T X) = k + 1
∂S
∂β = −2X T Y + 2(X T X)β = ~0
Ŷ = X β̂ = X(X T X)−1 X T Y = HY
e⊥Ŷ
eT Ŷ = [(I − H)Y ]T HY = Y T (I − H)HY = Y T HY − Y T HHY = 0
e⊥X
eT X = [(I − H)Y ]T X = Y T (I − H)X = Y T (X − X(X T X)−1 X T X) = 0
Ŷ
Esp(X) Vector de valores ajustados.
Está en Esp(X)
Le llamaremos matriz A
Y ∼ Nn (Xβ, σ 2 In )
β̂ es un estimador centrado de β
1
Pn
ŝ2R = n−(k+1) e2
i=1 i
2 2
De manera que, estimaremos la varianza de β̂i ∼ N (βi , σ qii ) mediante ŝR qii
p √
SE(β̂i ) = ŝ2R qii = ŝR qii
(n−k−1)ŝ2R
Se puede demostrar que: σ2 ∼ χ2n−k−1
Contraste t
Hemos visto que: β̂i ∼ N (βi , σ 2 qii ). Por tanto, estandarizando, se obtiene que:
β̂i −βi
√
σ qii ∼ N (0, 1)
N (0,1)
Una variable t de Student con k grados de libertad se define así: tk =√ 1 2
k χk
β̂i −βi
√
σ qii β̂i −βi
t= r = √
ŝR qii ∼ tn−k−1
1 (n−k−1)ŝ2
R
n−k−1 σ2
β̂i β̂i
t= √
ŝR qii = SE(β̂1 )
∼ tn−k−1 bajo H0
Para n>30 la distribución tn-k-1 deja una probabilidad del 95% en el intervalo [-2,2].
β̂i −βi
P (−tα/2 ≤ SE(β̂i )
≤ tα/2 ) = 1 − α
yi = yˆi + ei → (yi − ȳ)2 = ((ŷi − ȳ) + ei )2 = (ŷi − ȳ)2 + e2i + 2(ŷi − ȳ)ei
Pn 2
Pn 2
Pn 2
Pn
VT = i=1 (yi − ȳ) = i=1 (ŷi − ȳ) + i=1 ei + i=1 2(ŷi − ȳ)ei
V T = V E + V NE
Por las ecuaciones normales, este término vale cero.
Coef. de determinación y coef. de
determinación corregido por g.l.
2 VE R2 x100 proporciona el porcentaje de variabilidad de Y que
R = VT explica el modelo de regresión ajustado.
n−1 V N E/(n−k−1)
R̄2 = 1 − (1 − R2 ) n−k−1 = 1 − ( VVNTE ) n−k−1
n−1
=1− V T /(n−1)
Contraste de regresión F
Este contraste, sirve en regresión múltiple para comprobar si el modelo explica
una parte significativa de la variabilidad de Y
Suma de Grados de
Fuentes de Varianza
Cuadrados Libertad Test F
variación (cuadrado medio)
(SC) (g.l)
No rechazo
Rechazo
Fk,n−k−1 =
ŝ2e
ŝ2R