Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Regresion Lineal Multiple
Regresion Lineal Multiple
2.1. Introducción
2.2. Especificación del modelo de regresión lineal múltiple.
2.3. Estimación de los parámetros del modelo por mínimos
cuadrados.
2.4. Interpretación de la ecuación de regresión.
2.5. Contraste de la regresión
2.5.1. Componentes de variación.
2.5.2. Bondad de ajuste.
2.5.3. Validación del modelo.
2.5.4. Significación de parámetros.
2.6. Predicción.
2.7. Estimación paso a paso: Correlación semiparcial.
2.8. Términos de interacción en el modelo de regresión.
2.1. Introducción
La necesidad de ampliar el modelo de
regresión simple incluyendo nuevas
variables predictoras obedece a dos
razones fundamentales:
Dar cuenta de la complejidad de la conducta
Aumentar la potencia de los contrastes de la
regresión
2.2.Especificación del modelo de RLM
2.2.1.Estructura básica del modelo
X1
X2 Y ε
X3
Xk
Como en la regresión simple las variables predictoras o independientes pueden ser cuantitativas o cualitativas
2.2.Especificación del modelo de RLM
( )
Yi = f X ij + ε i = β 0 + β 1 X i1 + β 2 X i 2 + ... β k X ik + ε i = Y$i + ε i
Y$i = β 0 + β 1 X i1 + β 2 X i 2 + ... β k X ik
ε = Y − Y$
i i i
Y = XB + e
Hipótesis básicas del modelo de
RLM
1. El término de Error es una variable aleatoria con media cero
Yi = b0 + b1 X i1 + b2 X i 2 + ... bk X ik + ei = Y$i + ei
Y$i = b0 + b1 X i1 + b2 X i 2 + ... bk X ik
e = Y − Y$
i i i
∑ e =∑ ( )
N N N
Yi − Yi = ∑ (Yi − (b0 + b1 X i1 + b2 X i 2 +...+ bk X ik )) = min
2
2 $ 2
i
i= 1 i= 1 i= 1
b = ( X'X) ( X'Y)
−1
Propiedades de la ecuación de regresión de mínimos
cuadrados
(X , X
1 2 ,... X K , Y )
b0 = Y − (b1 X1 + b2 X 2 +...+ bK X K )
4) Los errores no correlacionan ni con las variable predictoras
ni con las puntuaciones predichas
2.4. Interpretación de la ecuación de regresión.
Ejemplo:
0,62
a
Coeficientes
Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 3,611 ,718 5,027 ,000
Realización person -,051 ,017 -,139 -3,044 ,003
Cansancio emocion ,149 ,012 ,582 12,752 ,000
a. Variable dependiente: emesttotal
a
Coeficientes
Sexo Coeficientes
Coeficientes no estandarizad
estandarizados os
Frecuencia
Modelo B Error típ. Beta t Sig.
Válidos,00 Mujer 142
1 (Constante) 1,987 ,292 6,812 ,000
1,00 Hom 173 Cansancio emoc ,157 ,011 ,614 14,001 ,000
Total 315 Sexo -,700 ,248 -,124 -2,820 ,005
a.Variable dependiente: emesttotal
y = 0,157x + 1,987
yˆ = 1,987 + 0,157 × CE − 0,700 × SEXO
sintomas de estrés
Sj
β j = bj
Sy
2.5. Contraste de la regresión
2.5.1. Componentes de variación.
2.5.2. Bondad de ajuste.
2.5.3. Validación del modelo.
2.5.4. Significación de parámetros.
2.5.1. Componentes de variación.
∑( i ) ∑ i ( ) ( )
N N N
∑ i i
2 2 2
Y − Y = $
Y − Y + Y − $
Y
i= 1 i= 1 i= 1
∑( )
N 2
Y$i − Y
SCexp
Ry2.1, 2,.., k = = i= 1
∑ (Y −Y)
N
SCt 2
i
i= 1
Y X2
X1
r12= 0
2.5.2. Bondad de ajuste.
∑( )
N 2
Y$i − Y
SCexp
Ry2.1, 2,.., k = = i= 1
∑ (Y −Y)
N
SCt 2
i
Y i= 1
r21y r22y
R2= r21y + r22y
r12= 0
X1
X2
2.5.2. Bondad de ajuste.
∑( )
N 2
Y$i − Y
SCexp
Ry2.1, 2,.., k = = i= 1
∑ (Y −Y)
N
SCt 2
i
Y i= 1
1-R2 r12≠ 0
a b R=a+b+c
c
r21y =a+c
X1
X2 r22y =b+c
2.5.3. Validación del modelo.
Explicada K
o regresión
∑ (Y$ − Y )
N
2 SCexp Ry2.1,2 ,...,k
i
S 2
exp = 2
Sexp
K = K
i =1
S 2
res 1 − Ry2.1,2 ,...,k
N− K−1
Residual N-K-1 SCres
∑ (Yi − Y$i )
N
2
Sres2 =
i =1 N− K−1
1) Planteamiento de hipótesis
H0: βj=0
H1: βj≠0
2) Estadístico de contraste
b0
t0 =
Sb
b
t1 = 1
S b1
b2
t2 =
S b2
bk
tk =
S bk
2.5.4. Significación de parámetros.
3) Región de rechazo
4) Regla de decisión
Ejemplo:
0,62
Total 63
2.5.4. Significación de parámetros.
H0: βj=0
H1: βj≠0
b0 20,8
t0 = = = 7,69
Sb 2,70
b1 0,48
t1 = = = 9,342
S b1 0,051
b2 0,01
t2 = = = 0,421
S b2 0,034
b3 0,62
t3 = = = 25,56
S3 0,02
Ejemplos de Regresión lineal múltiple con SPSS
Ejemplos de Regresión lineal múltiple con SPSS
Variables introducidas/eliminadas b
Variables Variables
Modelo introducidas eliminadas Método
1 SEXO,
meses
monoparenta
lidad de
hecho,
. Introducir
competencia
escolar
(Harter),
Aceptación a
social
a. Todas las variables solicitadas introducidas
b. Variable dependiente: Autoconcepto global
Bondad de ajuste
⎡ k(1 − R ) ⎤
2
Coeficiente de correlación múltipe: R y .1, 2,3,..,k = ryyˆ
Rcorregida = R − ⎢
2 2
⎥
⎣ N − k − 1⎦
Ejemplos de Regresión lineal múltiple con SPSS
Varianza Explicada
ANOVAb
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 11.150 4 2.788 8.066 .000a
Residual 26.267 76 .346
Total 37.417 80
a. Variables predictoras: (Constante), SEXO, meses monoparentalidad d
competencia escolar (Harter), Aceptación social B
t=
Varianza residual Error tip
b. Variable dependiente: Autoconcepto global
Coeficientesa
Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 1.388 .336 4.130 .000
competencia
.268 .095 .314 2.822 .006
escolar (Harter)
Aceptación social .300 .113 .295 2.643 .010
meses
monoparentalidad .002 .002 .112 1.141 .257
de hecho
SEXO .132 .136 .095 .968 .336
a. Variable dependiente: Autoconcepto global
Ejemplos de Regresión lineal múltiple con SPSS
Este procedimiento de incluir todas las variables que el investigador considera relevantes en la
explicación de la variable dependiente en SPSS se conoce como método “Introducir”. Es el
investigador, una vez analizados estadísticamente los coeficientes estimados, el que debe
depurar la ecuación eliminando las variables no significativas. Deben eliminarse una a una. Es
decir en primer lugar eliminamos sexo y volvemos a estimar con las que quedan y si todas son
significativas esa sería la ecuación válida. En cualquier otro caso habría que eliminar la
siguiente no significativa. Este proceso acaba cuando todas las variables son
estadísticamente significativas.
Para seleccionar las variables relevantes en un modelo de regresión se puede proceder como
hemos comentado en el párrafo anterior o se pueden utilizar otros procedimientos. De los
procedimientos disponibles para construir un modelo de regresión e implementados en SPSS
comentaremos el de estimación “paso a paso” o “pasos sucesivos” porque junto al anterior
es de los que más se utilizan en investigación.
2.7. Estimación paso a paso: correlación semiparcial al
cuadrado
(más información en:http://www.personal.us.es/vararey/adatos2/semiparcial.pdf)
Paso 1. Se estima una ecuación de regresión simple con la variable independiente tenga la mayor correlación
con la variable dependiente: Yˆ = b0 + b1 X 1
Paso 2. Se busca la variable independiente que disminuya más la proporción de variabilidad residual de la
primera ecuación.
Paso 3. Se recalcula la ecuación de regresión utilizando las dos variables independientes que mejor explican a
la variable dependiente, y se examina el valor parcial F de la variable original del modelo para ver si todavía
realiza una contribución significativa. Si no lo hace, se elimina. Si lo hace, la ecuación queda: Yˆ = b0 + b1 X 1 + b2 X 2
Paso 4. Continua este procedimiento con todas las variables independientes restantes para ver si deberían
incluirse en la ecuación. Si se incluye alguna, hay que examinar las variables previamente incluidas para juzgar
si deben mantenerse.
Vamos a utilizar el procedimiento de estimación “paso a paso” o “pasos sucesivos” para estimar la ecuación de
regresión de la variable estrés total (emes_total) utilizando como variables independientes sexo, personal y
competencia. Para utilizar este procedimiento en el cuadro de regresión lineal seleccionamos “pasos suc” en
método.
2.7. Estimación paso a paso: correlación semiparcial al
cuadrado
Resumen del modelo
Estadísticos de cambio
R cuadrado Error típ. de la Cambio en Sig. del
Modelo R R cuadrado corregida estimación R cuadrado Cambio en F gl1 gl2 cambio en F
1 ,310a ,096 ,093 7,02505 ,096 31,751 1 298 ,000
2 ,379b ,144 ,138 6,84871 ,048 16,543 1 297 ,000
a. Variables predictoras: (Constante), competencia
b. Variables predictoras: (Constante), competencia, Sexo
ANOVAc Coeficientesa
De los resultados obtenidos con el procedimiento de estimación “paso a paso” comentaremos aquellos de
la tabla Resumen del modelo que son nuevos con respecto a los obtenidos con el método “Introducir”.
Como en el método anterior la primera tabla es:
Resumen del modelo
Estadísticos de cambio
R cuadrado Error típ. de la Cambio en Sig. del
Modelo R R cuadrado corregida estimación R cuadrado Cambio en F gl1 gl2 cambio en F
1 ,310a ,096 ,093 7,02505 ,096 31,751 1 298 ,000
2 ,379b ,144 ,138 6,84871 ,048 16,543 1 297 ,000
a. Variables predictoras: (Constante), competencia
b. Variables predictoras: (Constante), competencia, Sexo
En esta tabla en la columna Modelo los valores 1 y 2 corresponden a las ecuaciones estimadas en los dos pasos de la
aplicación del método.
En el paso 1 se estima la ecuación de regresión simple (modelo 1) con la variable competencia como predictora por que
es la que tiene una correlación (R=0,310) mayor con la variable dependiente.
En el paso 2 se ha estimado la ecuación de regresión múltiple con las variables competencia y sexo. De las dos
variables independientes restantes: personal y sexo la que incrementa más la proporción de variabilidad explicada de Y
es sexo por tanto esta se incluye y se excluye personal. La variable personal se ha excluido por no resultar significativa.
En la Columna R cuadrado disponemos de la bondad de ajuste del modelo de regresión simple estimado en el paso 1
Y
R y21 = 0,096
y que puede ser representada en un diagrama de Venn por el siguiente gráfico: 0,096
R y21 = 0,096
2.7. Estimación paso a paso: correlación semiparcial al
cuadrado
(más información en:http://www.personal.us.es/vararey/adatos2/semiparcial.pdf)
El segundo valor de la columna de R cuadrado es la bondad de ajuste del modelo de regresión múltiple final:
R y2.12 = 0,144
Como ocurre siempre la bondad de ajuste de la ecuación de regresión múltiple es mayor que la de la ecuación de regresión
simple (0,144>0,096). La diferencia es el incremento en proporción de variabilidad explicada debido a la inclusión en el segundo
paso de la variable sexo. Luego la variable sexo aporta a la variabilidad explicada de la variable dependiente:
X1 X2
2.7. Estimación paso a paso: correlación semiparcial al
cuadrado
La segunda parte de la tabla Resumen del modelo concretamente en la columna Cambio en R cuadrado de nuevo
obtenemos la bondad de ajuste de la regresión simple
R y21 = 0,096
y el incremento en variabilidad explicada debida a la Inclusión de la variable sexo R y2( 2.1) = 0,048.
Además, como para que una variable se incluya en la ecuación la variabilidad explicada tiene que ser estadísticamente
significativa en la columna Cambio en F se calculan dichos valores para el modelo de regresión Simple y para el incremento
debido a la variable sexo. La última columna corresponde a la significación de la F para la validación del modelo de regresión
simple y para el incremento en variabilidad explicada debida a la variable sexo respectivamente.
La siguiente tabla resume la información más importante que en la tabla Resumen del modelo nos proporciona el
procedimiento de estimación paso a paso.
X1 R y21
2 R y2( 2.1)
Yˆ = b0 + b1 X 1 + b2 X 2 R y2.12 X2
R y2( 2.1) 1 − R y2.12
N − K −1
2.7. Otro ejemplo de Regresión lineal múltiple con SPSS y estimación paso a paso
Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 4,913 1,159 4,240 ,000
conflrol Conflicto de rol ,183 ,024 ,450 7,679 ,000
X3
2 (Constante)
X2
2,350 1,280 1,836 ,068
conflrol Conflicto de rol ,123 ,027 ,303 4,519 ,000 R y2( 2.1) = 0,055
sobrecar Sobrecarga ,135 ,033 ,277 4,138 ,000
3 (Constante) ,559 1,510 ,371 ,711
conflrol Conflicto de rol ,089 ,031 ,220 2,872 ,004
sobrecar Sobrecarga ,159 ,034 ,326 4,655 ,000
superesp
,152 ,069 ,142 2,193 ,029
Superespecialización
a. Variable dependiente: emesttot emest_total
2.8. Términos de interacción en el modelo de regresión
(más información en http://www.personal.us.es/vararey/adatos2/interaccion.pdf).
6,00
X2:Motivación Yˆi = b0 + b1 X i 1 + b 2 X i 2
4,00
Hombre (0) y = 2,46x + 4,08 X2 = 0
2,00 Yˆi = b0 + b1 X i 1
0,00
X2 =1
0
Motivación baja Motivación alta
1 Yˆi = (b0 + b 2 ) + b1 X i 1
Sexo Motivación
Yˆ = (Ysexo,motiva ) Coeficientes
25
Implicación baja (0) y = 2,5x + 14,71
X1:Turno
20 Y: Conflicto
15 X2: Implicación
conflicto
10
Implicación alta (1) y = -0,886x + 13,356 X1X2
5
0 Variable Moderadora
0 1
fijo variable
turno
X2: Implicación
Yi = b0 + b1 X i 1 + b 2 X i 2 + b3 X i 1 X i 2 + e i
Yˆi = b0 + b1 X i 1 + b 2 X i 2 + b3 X i 1 X i 2
Yˆi = (b0 + b 2 X i 2 ) + (b1 + b3 X i 2 )X i 1 X1:Turno Y: Conflicto
X 2 = 0 ( Baja ) Yˆi = b0 + b1 X i 1
X 2 = 1 ( Alta ) Yˆi = (b0 + b 2 ) + (b1 + b3 )X i 1
2.8. Interacción entre variables cualitativas
Matriz de Datos
Resumen del modelo
ANOVAb
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 128,017 3 42,672 28,277 ,000a
Residual 54,327 36 1,509
Total 182,344 39
a. Variables predictoras: (Constante), X1xX2 interacción, X2 implicación,
X1 turno
b. Variable dependiente: conflicto
Coeficientesa
Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 14,710 ,388 37,867 ,000
X1 turno 2,500 ,549 ,585 4,551 ,000
X2 implicación -1,354 ,549 -,317 -2,465 ,019
X1xX2 interacción -3,386 ,777 -,687 -4,358 ,000
a. Variable dependiente: conflicto
2.8.Interacción entre variables cualitativas
Coeficientesa
Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 14,710 ,388 37,867 ,000
X1 turno 2,500 ,549 ,585 4,551 ,000
X2 implicación -1,354 ,549 -,317 -2,465 ,019
X1xX2 interacción -3,386 ,777 -,687 -4,358 ,000
a. Variable dependiente: conflicto
Yi = b0 + b1 X i 1 + b 2 X i 2 + b3 X i 1 X i 2 + e i
X 2 = 0 ( Baja )
Yˆ = b + b X = 14,71 + 2,5 X
i 0 1 i1 1
X 2 = 1 ( Alta )
Yˆi = (b0 + b2 ) + (b1 + b3 )X i1 = (14,71 − 1,354 ) + (2,5 − 3,386 )X 1 = 13,356 − 0,886 X 1
2.8.Interacción entre variable una variable cualitativa y una
cuantitativa
60
Y: CItotal
40
y = -1,4016x + 53,282
20
X2: Ansiedad
0
-6 -4 -2 0 2 4 6 8
edad en diferenciales (centrada)
X1X2
sin ansiedad con ansiedad
Variable Moderadora
X2: ansiedad
Yˆ = b0 + b1 (X1 − X1 ) + b2 X 2 + b3 (X1 − X1 )X 2
Yˆ = (b + b X ) + (b + b X )(X − X )
0 2 2 1 3 2 1 1
Estadísticos descriptivos
ANOVAb
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 11471,415 3 3823,805 226,697 ,000a
Residual 742,169 44 16,867
Total 12213,584 47
a. Variables predictoras: (Constante), interaccion, ansiedad, edaddif
b. Variable dependiente: cit
2.8. Interacción entre dos variables cuantitativas
Variable Moderadora
X2: Presión
X1:Actitud Y: Intención
X1X2
Coeficientesa
Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 83,282 ,838 99,342 ,000
edaddif ,598 ,241 ,130 2,478 ,017
ansiedad -30,000 1,186 -,940 -25,304 ,000
interaccion -2,000 ,341 -,308 -5,857 ,000
a. Variable dependiente: cit
Matriz de Datos
Estadísticos descriptivos
ANOVAb
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 3750,000 3 1250,000 605,000 ,000a
Residual 250,000 121 2,066
Total 4000,000 124
a. Variables predictoras: (Constante), interacción, presiondif, actituddif
b. Variable dependiente: intención
2.8. Interacción entre dos variables cuantitativas
Coeficientesa
Coeficientes
Coeficientes no estandarizad
30
estandarizados os
y = 5x + 15
Modelo B Error típ. Beta t Sig.
1 (Constante) 11,000 ,129 85,560 ,000 25
actituddif 3,000 ,091 ,750 33,000 ,000 y = 4x + 13
presiondif -2,000 ,091 -,500 -22,000 ,000
20
interacción -1,000 ,064 -,354 -15,556 ,000
in te n c ió n
a. Variable dependiente: intención y = 3x + 11
15
y = 2x + 9
Yˆ =11+ 3(X1 − X1 ) − 2(X2 − X2 ) −1(X1 − X1 )(X2 − X2 )
10
0
-3 -2 -1 0 1 2 3
actitud en diferenciales
presión b0 b1
presión -2 presión -1 presión 0 presión 1 presión 2
-2 15 5
-1 13 4
0 11 3
1 9 2
2 7 1
Para terminar: Multicolinealidad