Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CP SI 24 y = 8.1185x - 6.6269
2
xi yi R = 0.7185
2.95 18.5 22
3.2 20 Variable respuest 20
3.4 21.1
3.6 22.4 18
3.2 21.2
2.85 15 16
3.1 18
2.85 18.8 14
3.05 15.7
2.7 14.4 12
2.75 15.5
3.1 17.2 10
3.15 19 2.6 2.7 2.8 2.9 3 3.1 3.2 3.3 3.4 3.5 3.6
2.95 17.2
2.75 16.8
Xi (variable independiente o regresiva)
45.6 270.8
f (Y xi )
Y xi
yi
E (Y xi )
Preparado por: Irene P. Valdez y Alfaro
Regresión Lineal Simple
yi = β 0 + β1 xi + ε i
f (Y xi )
E (Y xi ) = β 0 + β1 xi
x 1 xi xn
Si la recta de regresión es: Y = β 0 + β1 X
Cada valor yi observado para un xi puede considerarse como el valor
esperado de Y dado xi más un error:
Modelo lineal simple : yi = β 0 + β1 xi + ε i
Los εi se suponen errores aleatorios con distribución normal,
media cero y varianza σ2 ; β0 y β1 son constantes desconocidas
(parámetros del modelo de regresión)
Preparado por: Irene P. Valdez y Alfaro
Método de Mínimos Cuadrados
para obtener estimadores de β0 y β1
Consiste en determinar aquellos estimadores de β0 y β1 que
minimizan la suma de cuadrados de los errores εi ; es decir,
los estimadores β̂ 0 y β̂1 de β0 y β1 respectivamente deben
ser tales que: n 2
∑εi sea mínima.
i =1
n y n x
∑ i ∑ i
n
i =1 i =1
∑ xi yi − S xy
βˆ1 = i =1 n β̂1 =
xn
∑ i
2
S xx
n
2 i =1
∑ xi −
i =1 n
2
x
n
∑ i
n
2
S xx = ∑ x i − i =1
n
= ∑ (xi − x )
2
Puede demostrarse que:
i =1 n i =1
y
n y n x
∑ i ∑ i n
S xy = ∑ xi yi − i =1 i =1 = ∑ ( xi − x ) yi
n
i =1 n i =1
Preparado por: Irene P. Valdez y Alfaro
Por otro lado puede demostrarse que los estimadores de β0 y β1 son
insesgados con varianzas:
1 x 2 σ 2
V (βˆ0 ) = σ + 2
y V (βˆ1 ) = respectivamente.
n S xx S xx
Como σ2 (la varianza de los errores εi) es en general desconocida, para estimarla
definimos el residuo como: ei = yi − yˆ i y la suma de cuadrados del error
como: n n
SS E = ∑ ei2 SS E = ∑ ( yi − yˆ i )
2
i =1 i =1
i =1
n
∑ ( yi − yˆ i )
2
i =1 SS E E (MS ) = σ 2
σ̂ 2 = MS E
Sea MS E = = Entonces: E
n−2 n−2
Preparado por: Irene P. Valdez y Alfaro
Con lo anterior, las varianzas estimadas de βˆ0 y βˆ1
son respectivamente:
1 x 2 MS E
Vˆ (βˆ0 ) = MS E + y Vˆ (βˆ1 ) =
n S xx S xx
Además, si se cumplen los supuestos de que los εi se distribuyen
normalemte con media cero y varianza σ2, entonces, los estadísticos
βˆ0 − β 0 βˆ1 − β1
T= y T=
1 x 2 MS E
MS E +
n S xx S xx
Nota: si se utilizara en lugar de una recta, una curva con grado mayor a 1
en X pero grado 1 en los coeficientes de X, la regresión sigue siendo lineal,
βo+β
ya que es lineal en los parámetros de regresión p.ej. Y=β β1x+ββ2x2
Recta estimada
de regresión
x 1 xi x0 xn
1 (xo − x ) 2 1 (xo − x )2
V ( yˆ 0 ) = σ +
2
Vˆ ( yˆ 0 ) = MS E +
n S xx
n S xx
yˆ 0 − µ yˆ 0
ŷ0 tiene distribución normal, por lo que:
Vˆ ( yo )
tiene distribución T de Student con n-2 grados de libertad, por lo
que los límites de confianza superior e inferior para la respuesta
media dado x0 están dados por: yˆ 0 ± tα / 2, n − 2 Vˆ ( yo )
Graficando los limites de confianza superior e inferior de µ ŷ0 para cada punto xi de
X pueden dibujarse las bandas de confianza para la recta de regresión.
Nótese que ŷ0 es la respuesta media para los valores de xi seleccionados para
encontrar la recta de regresión; sin embargo, frecuentemente es de interés
predecir la respuesta futura para un xa dado seleccionado posteriormente.
xx