Está en la página 1de 3

n n n

Σ XY 5 a ΣX 1 b Σ X
Quevedo, H. y Pérez, B. (2014). Estadística para Ingeniería y Ciencias. México: Grupo Editorial Patria. PP. 365-367
i 51 i 51 i 51
Uso educativo
nnn nn
 ΣΣ YY
n
12bb ΣΣ nCapítulo   8    n     |  365
2
 5 2  ymúltiple
n n n n
5an an1 Regresión  lineal simple
 i Σ Y111   Σ X  i2 5111 Σ X
 i 5 1   i Σ XY   n Σ X  2 Σ X  
 i 5 1
iii5
55 ii55
 nnn  
51 i 51
nn
51    i 51  
n nnn
 
ΣΣ XY XY5 5aaΣΣX X1 1bb ΣΣ X X
 iii5
n 55111
 n iii55 5111
 iii5
n 55111
  n
 n

2

Pendiente 5 b 5  n Σ XY 2  ΣnnnX   Σ Y nnn  nnn Σ X 2 2  Σ X nn  222 (8-6)

i 5 1 nnn    222            n  222  n  
  nn
  ΣΣ YY  ΣΣ X  ΣΣ XY
i 5 1 i 5 1 ni 5 1 i 5 1
X 2
2 Σ Σ XX  XY  nn Σ Σ XX 22 Σ
Σ X X
Sxyii/i555S111xx iii555111  2 iii555111 iii555111   iii555111  iii555111  (8-7)
n
 n   
Donde: Sxx 5 ΣnnnX 2 2  Σ nnnX  n
 i 521se dan por  n    222

Σxy y Σx i5  1  ecuaciones  n 
n n nnn nn
Σ nnni iΣ Σ XY XY2 2 ΣΣlas X X ΣΣ YY (8-8) nn ΣyΣ (8-9).
XX2222 2 ΣΣ X X 
 
5
i 515 1 1 i 5 1 i 5 1   i 5 1
n i i
5 5 1 1 i i
5 5 11 i i
5 5 11 iii555111  
• Las siguientes ecuaciones son S
muy 5importantes.
Σ XY 2 Σ X ΣY n   
xy i 51 i 51 222
nnn
 2  nnn

SSxxxxxxn5 5 Σ2Σ X X2222 n2 Σ


iii55Σ X X nn (8-8)
5111   n
S yy 5 Σ Y 2  Σ Y iii5
55111

i 51
nnn
 i 5 1
nnn

SSxyxyxy5 5 ΣΣ XY XY2 2 ΣΣ X XΣΣYY nn (8-9)
5111
iii5
5 5111
iii5
5
222
nnn
 nnn 
5 ΣΣ YY2222
SSyyyyyy5 2 ΣΣ YY nn (8-10)
iii5
55111 iii555111 

 álculo del coeficiente de determinación R 2 de la muestra


8.2.1  C
que estima a r2 el coeficiente de determinación poblacional
Como se dijo antes, el coeficiente de determinación múltiple R2 es una prueba objetivista de estadística. Ésta
es una función estadística muy importante, para validar el modelo de regresión lineal. Este coeficiente R2 mide
la proporción de variación en la variable dependiente Y explicada por la variable independiente X. Los valores
de R2 varían de 0 a 1. Un valor cercano a 0 indica que no hay una relación lineal entre Y y X, mientras que
un valor cercano a uno indica un ajuste lineal perfecto. Aquí, sin embargo, es necesario reiterar que un valor
alto de R2 no necesariamente indica un buen ajuste del modelo de regresión, sino hasta que se hacen todas las
pruebas objetivistas y subjetivas. La función que calcula R2 es:
R2 5 b Sxy / Syy (8-11)
5 1 2 Sxy2 / Sxx Syy (8-12)
Donde Sxy Sxx Syy se dan por las ecuaciones (8-8), (8-9) y (8-10) descritas para la ecuación (8-11). También
hay el llamado coeficiente R2 de determinación ajustado. Ésta es una versión ajustada de R2, la cual busca
remover la distorsión debida a un tamaño de muestra pequeño. Se define como:
R2ajustada 5 1 2 [(1 2 R2) (n 2 1)/(n 2 2)] (8-13)
Donde R2 ya se definió y n es el tamaño de la muestra.

8.2.2  C
 álculo del coeficiente de correlación R de la muestra
que estima a r, el coeficiente de correlación poblacional
Como se dijo antes, el coeficiente de correlación R, que estima a ρ, también se llama coeficiente de correla-
ción de Pearson. Este coeficiente es un índice de la fuerza de la asociación lineal entre las variables X y Y. El
coeficiente de correlación R es:

Sxy
(8-14)
R
Sxx Syy

Donde Sxy , Sxx , Syy se dan por las ecuaciones (8-8), (8-9) y (8-10).
366  |  Estadística para ingeniería y ciencias

Nota: El coeficiente de correlación R explica el grado de asociación entre las variables X y Y. Este
coeficiente R varía de 21 a 0, si la correlación es negativa, con pendiente negativa. Pero, si la
correlación es positiva, entonces, R varía de 0 a 1. Así, a medida que R se aproxima a 61, mejor
asociación habrá entre las variables X, Y y σ2 será igual a 0. Nótese que, en caso de la regresión li-
neal múltiple, hay lo que se llaman coeficientes parciales de regresión para medir la relación lineal
entre la variable dependiente Y y la variable independiente especificada.

8.2.3  Tipos de correlación lineal


a) Correlación simple que consiste en dos variables, una dependiente (Y ) y la otra independiente (X ).
Dentro de esta categoría tenemos:
• Correlación directa. Esta correlación consiste en el incremento en una variable la cual es acompa-
ñada por el incremento de otra variable (correlación positiva).
• Correlación inversa. Esta correlación consiste en el incremento de una variable la cual es acompa-
ñada por el incremento de otra (correlación negativa).
• Correlación no lineal. En esta correlación hay una asociación entre las dos variables pero la fun-
ción que describe los datos es más complicada que una línea recta y puede ser una parábola, un
polinomio, una función senoidal, entre otras.
b) Correlación múltiple. Aquí, hay más de dos variables. Una variable es dependiente (Y ), mientras que
lasyotras son independientes
y y yX1, X2, . . .y , Xk, etcétera.
y y y y
Los diagramas de la figura 8.2 representan varios tipos de correlaciones.
a) b) c)
y y y y y y y y y

x x x x x x x x x

a) a) a) b) b) b) c) c) c)

x x x x x x x x x

a) a) a) b) b) b) c) c) c)
d) e) f)
y y y y y y y y y

y y y y y y y y y

x x x x x x x x x

Figura 8.2.  a)Diagramas


a) esparcidos
a) b) representan
que b) b) c)tipos de c)
diferentes c)
correlaciones entre y .
Por ejemplo, la figura a) representa una correlación positiva entre y . La figura b)
x x x x x x x x x
representa una correlación positiva entre y . La figura c) representa una perfecta
correlación positiva entre y . La figura d) representa una asociación negativa no muy
a)acentuada
a) entre a) b) b) b) c) c) c)
las dos variables. La figura e) representa una correlación positiva
muy fuerte entre y . La figura f) representa una perfecta correlación negativa entre
las variables y .
x

a) simple y múltiple 
Capítulo 8  Regresión lineal |  367 b)

a) b) c)

y
y y y y

x x x x x

a) b) c)
a) b)
Figura 8.3. Diagramas de dispersión donde se muestra una correlación cero. Por ejemplo, la figura
a) representa un diagrama esparcido donde no hay ninguna asociación o correlación
entre las variables y . La figura b) representa una relación no lineal (posiblemente una
parábola) entre las variables y . La figura c) representa también una correlación no
lineal y las variables y posiblemente una parábola con curvatura negativa.
y entre

8.2.4 Intervalo de confianza para el coeficiente poblacional b componente


de la línea de regresión mY|X 5 a 1 bX, estimado por b,
la pendiente de la línea
x x
b 2 t[12α/2;n22]
c) c) s / Sxx , β , b 1 t[12α/2;n22] s /
2 Sxx 2 (8-15)

Donde:
b 5 Sxy Sxx
t[12α/2;n22] 5 valor de la distribución de t de Student

Sxy 2 bSxy
s5 (8-16)
n 22

5 SSE/(n 2 2)

La ecuación de la varianza es: s2 5 (Syy 2 bSxy) / (n 2 2) (8-17)


β 5 coeficiente poblacional de la pendiente de la línea, el cual es estimado por b 5 Sxy /Sxx, o sea el coefi-
ciente de la línea de regresión muestral.

8.2.5 Intervalo de confianza para el parámetro poblacional a, el intercepto


de la ordenada de la línea de regresión mY|X 5 a 1 bX,
cuyo estimador es a
n n

2
s ∑ 2
i 2
s ∑ 2
i
i 1 i 51
a αx a (8-18)
nSxx nSxx

También podría gustarte