Está en la página 1de 1

MRLS

Queremos encontrar la relación lineal entre las variables aleatorias X e Y, tal que:

y = α + βx

Sin embargo, no hay manera de conocer los valores α y β, por lo que debemos esimarlos a
partir de los datos. Lógicamente no queremos cualquier estimación, sino una tal que:

E(Y | X = x) = α + βx ; Var(Y | X = x) = σ 2

Condiciones fuertes, no obstante, Gauss propuso los siguientes estimadores (después otro
matemático demostró que efectivamente eran los mejores):
n
X
(xi − x) · (yi − y)
i=1
α
b = y + βx
b ; βb = n =⇒ yb = α
b + βx
b
X
(xi − x)2
i=1

Indentidad matemática importante (no está en el formulario!):


n n
! n n
!
X X X X
(xi − x) · (yi − y) = xi · y i − n · x · y ; (xi − x)2 = x2i − n · x2
i=1 i=1 i=1 i=1

Luego, para los n datos utilizados en la regresión definimos la suma de cuadrados totales
(SCT), suma de cuadrados de regresión (SCR) y suma de cuadrados residuales
(SCE), de la siguiente manera:
n
X n
X n
X
SCT = (yi − y)2 ; SCR = yi − y)2
(b ; SCE = (yi − ybi )2
i=1 i=1 i=1

=⇒ SCT = SCR + SCE


* En el summary entregado por el comando aov() están el SCT y SCE.
Un estimador insesgado para la varianza de Y | X = x y la varianza de Y son los siguientes:

SCE SCT
SY2 |X=x = = (residual standar error)2 ; SY2 =
n−2 n−1
Con eso ya estamos listos para obtener el coeficiente de determinación, denotado por R2 ,
y el coeficiente de determinación ajustado, denotado por r2 . Estos reciben en R-studio
los nombres de Multiple R-squared y Adjusted R-squared, respectivamente.

También podría gustarte