Está en la página 1de 47

Tema 2.- Regresión lineal múltiple (I).

2.1. Introducción
2.2. Especificación del modelo de regresión lineal múltiple.
2.3. Estimación de los parámetros del modelo por mínimos
cuadrados.
2.4. Interpretación de la ecuación de regresión.
2.5. Contraste de la regresión
2.5.1. Componentes de variación.
2.5.2. Bondad de ajuste.
2.5.3. Validación del modelo.
2.5.4. Significación de parámetros.
2.6. Predicción.
2.7. Estimación paso a paso: Correlación semiparcial.
2.8. Términos de interacción en el modelo de regresión.
2.1. Introducción
La necesidad de ampliar el modelo de
regresión simple incluyendo nuevas
variables predictoras obedece a dos
razones fundamentales:
Dar cuenta de la complejidad de la conducta
Aumentar la potencia de los contrastes de la
regresión
2.2.Especificación del modelo de RLM
2.2.1.Estructura básica del modelo
X1

X2 Y ε
X3

Xk

Como en la regresión simple las variables predictoras o independientes pueden ser cuantitativas o cualitativas
2.2.Especificación del modelo de RLM

Deseamos estudiar la relación entre síntomas de estrés, años trabajados y


salario. En este caso las variables predictoras son cuantitativas.
Deseamos estudiar la relación entre cansancio emocional, el sexo y el tipo de
contrato laboral distinguiéndose entre contrato indefinido y temporal.
Deseamos estudiar la relación entre sobrecarga en el trabajo, falta de recursos,
sexo y tipo de contrato distinguiéndose para la variable tipo de contrato los
siguientes funcionario, laboral indefinido y temporal.
Expresión matemática del modelo en la población

( )
Yi = f X ij + ε i = β 0 + β 1 X i1 + β 2 X i 2 + ... β k X ik + ε i = Y$i + ε i
Y$i = β 0 + β 1 X i1 + β 2 X i 2 + ... β k X ik
ε = Y − Y$
i i i

⎛ Y1 ⎞ ⎛1 X11 X12 X1K ⎞ ⎛ β0 ⎞ ⎛ ε1 ⎞


⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟
⎜ Y2 ⎟ = ⎜1 X 21 X 22 X 2 K ⎟ ⎜ β1 ⎟ ⎜ ε2 ⎟
+
⎜ Y3 ⎟ ⎜1 X 31 X 32 X 3K β3 ⎜ ε3 ⎟
⎟ ⎜ ⎟
⎜ ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟
⎝ YN ⎠ ⎝1 X N1 X N 2 X NK ⎠ ⎝ βK ⎠ ⎝ ε N ⎠

Y = XB + e
Hipótesis básicas del modelo de
RLM
1. El término de Error es una variable aleatoria con media cero

2. Homocedasticidad: la varianza del término de error es constante

3. Los errores son independientes entre sí.

4. Los errores se distribuyen normalmente

5. Las variables predictoras no pueden correlacionar de manera perfecta


Resumen gráfico de las hipótesis básicas
formuladas en términos de la variable criterio
2.3. Estimación de los parámetros del
modelo de RLM
2.3.1. La ecuación de regresión de mínimos cuadrados en
puntuaciones directas y principales propiedades

Yi = b0 + b1 X i1 + b2 X i 2 + ... bk X ik + ei = Y$i + ei
Y$i = b0 + b1 X i1 + b2 X i 2 + ... bk X ik
e = Y − Y$
i i i

Criterio de mínimos cuadrados:

∑ e =∑ ( )
N N N
Yi − Yi = ∑ (Yi − (b0 + b1 X i1 + b2 X i 2 +...+ bk X ik )) = min
2
2 $ 2
i
i= 1 i= 1 i= 1

b = ( X'X) ( X'Y)
−1
Propiedades de la ecuación de regresión de mínimos
cuadrados

1) La media de las puntuaciones predichas es igual


a la media de Y
2) Los errores tienen media cero
3) La ecuación de regresión de mínimos cuadrados para por el
centro de la nube de puntos:

(X , X
1 2 ,... X K , Y )

b0 = Y − (b1 X1 + b2 X 2 +...+ bK X K )
4) Los errores no correlacionan ni con las variable predictoras
ni con las puntuaciones predichas
2.4. Interpretación de la ecuación de regresión.

Ejemplo:

Estimulación materna 0,48


Nivel de desarrollo a
los 6 años
0,01
Nivel de desarrollo a
los 3 años

0,62

Estimulación paterna Y$i = 20,80 + 0,48 X1 + 0,01 X 2 + 0,62 X 3


2.4. Interpretación de la ecuación de regresión.

a
Coeficientes

Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 3,611 ,718 5,027 ,000
Realización person -,051 ,017 -,139 -3,044 ,003
Cansancio emocion ,149 ,012 ,582 12,752 ,000
a. Variable dependiente: emesttotal

yˆ = 3,611− 0,051× RP+ 0,149×CE


2.4. Interpretación de la ecuación de regresión.

a
Coeficientes
Sexo Coeficientes
Coeficientes no estandarizad
estandarizados os
Frecuencia
Modelo B Error típ. Beta t Sig.
Válidos,00 Mujer 142
1 (Constante) 1,987 ,292 6,812 ,000
1,00 Hom 173 Cansancio emoc ,157 ,011 ,614 14,001 ,000
Total 315 Sexo -,700 ,248 -,124 -2,820 ,005
a.Variable dependiente: emesttotal

y = 0,157x + 1,987
yˆ = 1,987 + 0,157 × CE − 0,700 × SEXO
sintomas de estrés

Para las mujeres Sexo = 0


mujer
hombre
yˆ = 1,987 + 0,157 × CE
Para los hom bres Sexo = 1
y = 0,157x + 1,287

yˆ = (1,987 − 0,700 ) + 0,157 × CE


cansancio emocional
2.4. Interpretación de la ecuación de regresión.
Coeficientes a
Personal
Coeficiente
Coeficientes no estandari a
Frecuencia estandarizados zados
Válidos ,00 PAS 122 Mode B Error típ. Beta t Sig.
1 (Constan5,206 ,281 18,509 ,000
1,00 PDI 193
Sexo -,915 ,328 -,162 -2,787 ,006
Total 315 Persona -,096 ,336 -,017 -,285 ,776
a.Variable dependiente: emesttotal
yˆ = 5,206 − 0,915 × SEXO − 0,096 × PERSONAL
Para las mujeres del PAS
yˆ = 5,206 − 0,915 × 0 − 0,096 × 0 = 5,206
Sexo
Para las mujeres del PDI
yˆ = 5,206 − 0,915 × 0 − 0,096 × 1 = 5,206 − 0,096 Frecuencia
Para los hom bres del PAS Válidos,00 Mujer 142
1,00 Hom 173
yˆ = 5,206 − 0,915 × 1 − 0,096 × 0 = 5,206 − 0,915 Total 315
Para los hom bres del PDI
yˆ = 5,206 − 0,915 × 1 − 0,096 × 1 = 5,206 − 0,915 − 0,096
ecuación de regresión en diferenciales

y$ i = b1 xi1 + b2 xi 2 +...+ bk xik

ecuación de regresión en estandarizadas

Z$ y i = β1Zi1 + β2 Zi 2 +...+ βk Zik


Relación entre bj y βj regresión en estandarizadas

Sj
β j = bj
Sy
2.5. Contraste de la regresión
2.5.1. Componentes de variación.
2.5.2. Bondad de ajuste.
2.5.3. Validación del modelo.
2.5.4. Significación de parámetros.
2.5.1. Componentes de variación.

∑( i ) ∑ i ( ) ( )
N N N

∑ i i
2 2 2
Y − Y = $
Y − Y + Y − $
Y
i= 1 i= 1 i= 1

SCt = SCexp + SCres


2.5.2. Bondad de ajuste.

∑( )
N 2
Y$i − Y
SCexp
Ry2.1, 2,.., k = = i= 1

∑ (Y −Y)
N
SCt 2
i
i= 1

Y X2
X1

r12= 0
2.5.2. Bondad de ajuste.

∑( )
N 2
Y$i − Y
SCexp
Ry2.1, 2,.., k = = i= 1

∑ (Y −Y)
N
SCt 2
i
Y i= 1

r21y r22y
R2= r21y + r22y
r12= 0
X1
X2
2.5.2. Bondad de ajuste.

∑( )
N 2
Y$i − Y
SCexp
Ry2.1, 2,.., k = = i= 1

∑ (Y −Y)
N
SCt 2
i
Y i= 1

1-R2 r12≠ 0

a b R=a+b+c
c

r21y =a+c
X1
X2 r22y =b+c
2.5.3. Validación del modelo.

Fuentes de Suma de g.l Varianza F


variación Cuadrados

Explicada K
o regresión
∑ (Y$ − Y )
N
2 SCexp Ry2.1,2 ,...,k
i
S 2
exp = 2
Sexp
K = K
i =1
S 2
res 1 − Ry2.1,2 ,...,k
N− K−1
Residual N-K-1 SCres
∑ (Yi − Y$i )
N
2
Sres2 =
i =1 N− K−1

Total N-1 SCt


∑ (Y − Y )
N
2
St2 =
i =1
i
N−1
2.5.4. Significación de parámetros.

1) Planteamiento de hipótesis
H0: βj=0
H1: βj≠0

2) Estadístico de contraste
b0
t0 =
Sb
b
t1 = 1

S b1
b2
t2 =
S b2
bk
tk =
S bk
2.5.4. Significación de parámetros.

3) Región de rechazo
4) Regla de decisión
Ejemplo:

Estimulación materna 0,48


Nivel de desarrollo a
los 6 años
0,01
Nivel de desarrollo a
los 3 años

0,62

Estimulación paterna Y$i = 20,80 + 0,48 X1 + 0,01 X 2 + 0,62 X 3


2.5.3. Validación del modelo.

Fuentes de Suma de g.l Varianza F


variación Cuadrados

Explicada o 557,12 3 185,71 274,05


regresión

Residual 40,66 60 0,68

Total 63
2.5.4. Significación de parámetros.

H0: βj=0

H1: βj≠0
b0 20,8
t0 = = = 7,69
Sb 2,70
b1 0,48
t1 = = = 9,342
S b1 0,051
b2 0,01
t2 = = = 0,421
S b2 0,034
b3 0,62
t3 = = = 25,56
S3 0,02
Ejemplos de Regresión lineal múltiple con SPSS
Ejemplos de Regresión lineal múltiple con SPSS
Variables introducidas/eliminadas b

Variables Variables
Modelo introducidas eliminadas Método
1 SEXO,
meses
monoparenta
lidad de
hecho,
. Introducir
competencia
escolar
(Harter),
Aceptación a
social
a. Todas las variables solicitadas introducidas
b. Variable dependiente: Autoconcepto global
Bondad de ajuste

Resumen del modelo

R cuadrado Error típ. de la


Modelo R R cuadrado corregida estimación
1 .546a .298 .261 .58789
a. Variables predictoras: (Constante), SEXO, meses
monoparentalidad de hecho, competencia escolar (Harter),
Aceptación social

⎡ k(1 − R ) ⎤
2
Coeficiente de correlación múltipe: R y .1, 2,3,..,k = ryyˆ
Rcorregida = R − ⎢
2 2

⎣ N − k − 1⎦
Ejemplos de Regresión lineal múltiple con SPSS
Varianza Explicada
ANOVAb

Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 11.150 4 2.788 8.066 .000a
Residual 26.267 76 .346
Total 37.417 80
a. Variables predictoras: (Constante), SEXO, meses monoparentalidad d
competencia escolar (Harter), Aceptación social B
t=
Varianza residual Error tip
b. Variable dependiente: Autoconcepto global
Coeficientesa

Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 1.388 .336 4.130 .000
competencia
.268 .095 .314 2.822 .006
escolar (Harter)
Aceptación social .300 .113 .295 2.643 .010
meses
monoparentalidad .002 .002 .112 1.141 .257
de hecho
SEXO .132 .136 .095 .968 .336
a. Variable dependiente: Autoconcepto global
Ejemplos de Regresión lineal múltiple con SPSS

En el cuadro de coeficientes observamos que los coeficientes de regresión parcial de las


variables monoparentalidad de hecho y sexo no son estadísticamente distintos de cero en
consecuencia dichas variables deben eliminarse del modelo y volver a estimar la ecuación de
regresión con las variables harter total y competencia escolar.

Este procedimiento de incluir todas las variables que el investigador considera relevantes en la
explicación de la variable dependiente en SPSS se conoce como método “Introducir”. Es el
investigador, una vez analizados estadísticamente los coeficientes estimados, el que debe
depurar la ecuación eliminando las variables no significativas. Deben eliminarse una a una. Es
decir en primer lugar eliminamos sexo y volvemos a estimar con las que quedan y si todas son
significativas esa sería la ecuación válida. En cualquier otro caso habría que eliminar la
siguiente no significativa. Este proceso acaba cuando todas las variables son
estadísticamente significativas.

Para seleccionar las variables relevantes en un modelo de regresión se puede proceder como
hemos comentado en el párrafo anterior o se pueden utilizar otros procedimientos. De los
procedimientos disponibles para construir un modelo de regresión e implementados en SPSS
comentaremos el de estimación “paso a paso” o “pasos sucesivos” porque junto al anterior
es de los que más se utilizan en investigación.
2.7. Estimación paso a paso: correlación semiparcial al
cuadrado
(más información en:http://www.personal.us.es/vararey/adatos2/semiparcial.pdf)

Paso 1. Se estima una ecuación de regresión simple con la variable independiente tenga la mayor correlación
con la variable dependiente: Yˆ = b0 + b1 X 1
Paso 2. Se busca la variable independiente que disminuya más la proporción de variabilidad residual de la
primera ecuación.
Paso 3. Se recalcula la ecuación de regresión utilizando las dos variables independientes que mejor explican a
la variable dependiente, y se examina el valor parcial F de la variable original del modelo para ver si todavía
realiza una contribución significativa. Si no lo hace, se elimina. Si lo hace, la ecuación queda: Yˆ = b0 + b1 X 1 + b2 X 2
Paso 4. Continua este procedimiento con todas las variables independientes restantes para ver si deberían
incluirse en la ecuación. Si se incluye alguna, hay que examinar las variables previamente incluidas para juzgar
si deben mantenerse.
Vamos a utilizar el procedimiento de estimación “paso a paso” o “pasos sucesivos” para estimar la ecuación de
regresión de la variable estrés total (emes_total) utilizando como variables independientes sexo, personal y
competencia. Para utilizar este procedimiento en el cuadro de regresión lineal seleccionamos “pasos suc” en
método.
2.7. Estimación paso a paso: correlación semiparcial al
cuadrado
Resumen del modelo

Estadísticos de cambio
R cuadrado Error típ. de la Cambio en Sig. del
Modelo R R cuadrado corregida estimación R cuadrado Cambio en F gl1 gl2 cambio en F
1 ,310a ,096 ,093 7,02505 ,096 31,751 1 298 ,000
2 ,379b ,144 ,138 6,84871 ,048 16,543 1 297 ,000
a. Variables predictoras: (Constante), competencia
b. Variables predictoras: (Constante), competencia, Sexo

ANOVAc Coeficientesa

Suma de Media Coeficientes


Modelo cuadrados gl cuadrática F Sig. Coeficientes no estandarizad
1 Regresión 1566,962 1 1566,962 31,751 ,000a estandarizados os
Residual 14706,705 298 49,351 Modelo B Error típ. Beta t Sig.
Total 16273,667 299 1 (Constante) 26,771 2,402 11,147 ,000
2 Regresión 2342,923 2 1171,462 24,975 ,000b competencia -,382 ,068 -,310 -5,635 ,000
Residual 13930,744 297 46,905 2 (Constante) 29,241 2,419 12,089 ,000
Total 16273,667 299 competencia -,402 ,066 -,326 -6,061 ,000
a. Variables predictoras: (Constante), competencia Sexo -3,241 ,797 -,219 -4,067 ,000

b. Variables predictoras: (Constante), competencia, Sexo a. Variable dependiente: emest_total

c. Variable dependiente: emest_total


2.7. Estimación paso a paso: correlación semiparcial al
cuadrado

De los resultados obtenidos con el procedimiento de estimación “paso a paso” comentaremos aquellos de
la tabla Resumen del modelo que son nuevos con respecto a los obtenidos con el método “Introducir”.
Como en el método anterior la primera tabla es:
Resumen del modelo

Estadísticos de cambio
R cuadrado Error típ. de la Cambio en Sig. del
Modelo R R cuadrado corregida estimación R cuadrado Cambio en F gl1 gl2 cambio en F
1 ,310a ,096 ,093 7,02505 ,096 31,751 1 298 ,000
2 ,379b ,144 ,138 6,84871 ,048 16,543 1 297 ,000
a. Variables predictoras: (Constante), competencia
b. Variables predictoras: (Constante), competencia, Sexo

En esta tabla en la columna Modelo los valores 1 y 2 corresponden a las ecuaciones estimadas en los dos pasos de la
aplicación del método.
En el paso 1 se estima la ecuación de regresión simple (modelo 1) con la variable competencia como predictora por que
es la que tiene una correlación (R=0,310) mayor con la variable dependiente.
En el paso 2 se ha estimado la ecuación de regresión múltiple con las variables competencia y sexo. De las dos
variables independientes restantes: personal y sexo la que incrementa más la proporción de variabilidad explicada de Y
es sexo por tanto esta se incluye y se excluye personal. La variable personal se ha excluido por no resultar significativa.
En la Columna R cuadrado disponemos de la bondad de ajuste del modelo de regresión simple estimado en el paso 1
Y
R y21 = 0,096
y que puede ser representada en un diagrama de Venn por el siguiente gráfico: 0,096

R y21 = 0,096
2.7. Estimación paso a paso: correlación semiparcial al
cuadrado
(más información en:http://www.personal.us.es/vararey/adatos2/semiparcial.pdf)
El segundo valor de la columna de R cuadrado es la bondad de ajuste del modelo de regresión múltiple final:
R y2.12 = 0,144
Como ocurre siempre la bondad de ajuste de la ecuación de regresión múltiple es mayor que la de la ecuación de regresión
simple (0,144>0,096). La diferencia es el incremento en proporción de variabilidad explicada debido a la inclusión en el segundo
paso de la variable sexo. Luego la variable sexo aporta a la variabilidad explicada de la variable dependiente:

R y2.12 − ry21 = 0,144 − 0,096 = 0,048

a este incremento se le denomina coeficiente de correlación semiparcial al cuadrado y se le denota como

R y2( 2.1) = R y2.12 − ry21

El diagrama de Venn correspondiente a la bondad de ajuste anterior sería:

R y2( 2.1) = 0,048


R y21 = 0,096

X1 X2
2.7. Estimación paso a paso: correlación semiparcial al
cuadrado
La segunda parte de la tabla Resumen del modelo concretamente en la columna Cambio en R cuadrado de nuevo
obtenemos la bondad de ajuste de la regresión simple
R y21 = 0,096
y el incremento en variabilidad explicada debida a la Inclusión de la variable sexo R y2( 2.1) = 0,048.
Además, como para que una variable se incluya en la ecuación la variabilidad explicada tiene que ser estadísticamente
significativa en la columna Cambio en F se calculan dichos valores para el modelo de regresión Simple y para el incremento
debido a la variable sexo. La última columna corresponde a la significación de la F para la validación del modelo de regresión
simple y para el incremento en variabilidad explicada debida a la variable sexo respectivamente.
La siguiente tabla resume la información más importante que en la tabla Resumen del modelo nos proporciona el
procedimiento de estimación paso a paso.

Paso Ecuación Bondad de ajuste Proporción de F


variabilidad explicada
por:

1 Yˆ = b0 + b1 X 1 R y21 X1 R y21 R y21


1 − R y21
N − K −1

X1 R y21

2 R y2( 2.1)
Yˆ = b0 + b1 X 1 + b2 X 2 R y2.12 X2
R y2( 2.1) 1 − R y2.12
N − K −1
2.7. Otro ejemplo de Regresión lineal múltiple con SPSS y estimación paso a paso

Resumen del modelo

R cuadrado Error típ. de la


Modelo R R cuadrado corregida estimación
1 ,450a ,203 ,199 6,33162
2 ,508b ,258 ,251 6,12246
c
3 ,522 ,273 ,263 6,07258 Y
a. Variables predictoras: (Constante), conflrol Conflicto de
R y2( 3.12 ) = 0,015
rol
b. Variables predictoras: (Constante), conflrol Conflicto de
rol, sobrecar Sobrecarga R y21 = 0,203
c. Variables predictoras: (Constante), conflrol Conflicto de
rol, sobrecar Sobrecarga, superesp
Superespecialización
X1
Coeficientesa

Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 4,913 1,159 4,240 ,000
conflrol Conflicto de rol ,183 ,024 ,450 7,679 ,000
X3
2 (Constante)
X2
2,350 1,280 1,836 ,068
conflrol Conflicto de rol ,123 ,027 ,303 4,519 ,000 R y2( 2.1) = 0,055
sobrecar Sobrecarga ,135 ,033 ,277 4,138 ,000
3 (Constante) ,559 1,510 ,371 ,711
conflrol Conflicto de rol ,089 ,031 ,220 2,872 ,004
sobrecar Sobrecarga ,159 ,034 ,326 4,655 ,000
superesp
,152 ,069 ,142 2,193 ,029
Superespecialización
a. Variable dependiente: emesttot emest_total
2.8. Términos de interacción en el modelo de regresión
(más información en http://www.personal.us.es/vararey/adatos2/interaccion.pdf).

Interacción entre variables cualitativas

Interacción entre una variable cualitativa y una


cuantitativa

Interacción entre variables cuantitativas


2.8. Interacción entre variables cualitativas: ausencia de
interacción
12,00

10,00 Mujer (1) y = 2,46x + 6,16


X1:Sexo
Y:Rendimiento
8,00

6,00
X2:Motivación Yˆi = b0 + b1 X i 1 + b 2 X i 2
4,00
Hombre (0) y = 2,46x + 4,08 X2 = 0
2,00 Yˆi = b0 + b1 X i 1

0,00
X2 =1
0
Motivación baja Motivación alta
1 Yˆi = (b0 + b 2 ) + b1 X i 1

Sexo Motivación
Yˆ = (Ysexo,motiva ) Coeficientes

0 (Hombre) 0 (Baja) 4,08


4,08 = b0

1 (Mujer) 0 ( Baja) 6,16


6,16-4,08 = 2,08 = b1

0 (Hombre) 1 ( Alta) 6,54 8,62-6,16 = 2,46 = b2

1 (Mujer) 1 (Alta) 8,62


2.8. Interacción entre variables cualitativas

25
Implicación baja (0) y = 2,5x + 14,71
X1:Turno
20 Y: Conflicto

15 X2: Implicación
conflicto

10
Implicación alta (1) y = -0,886x + 13,356 X1X2
5

0 Variable Moderadora
0 1
fijo variable
turno

X2: Implicación

Yi = b0 + b1 X i 1 + b 2 X i 2 + b3 X i 1 X i 2 + e i

Yˆi = b0 + b1 X i 1 + b 2 X i 2 + b3 X i 1 X i 2
Yˆi = (b0 + b 2 X i 2 ) + (b1 + b3 X i 2 )X i 1 X1:Turno Y: Conflicto
X 2 = 0 ( Baja ) Yˆi = b0 + b1 X i 1
X 2 = 1 ( Alta ) Yˆi = (b0 + b 2 ) + (b1 + b3 )X i 1
2.8. Interacción entre variables cualitativas
Matriz de Datos
Resumen del modelo

R cuadrado Error típ. de la


Modelo R R cuadrado corregida estimación
1 ,838a ,702 ,677 1,22845
a. Variables predictoras: (Constante), X1xX2 interacción,
X2 implicación, X1 turno

ANOVAb

Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 128,017 3 42,672 28,277 ,000a
Residual 54,327 36 1,509
Total 182,344 39
a. Variables predictoras: (Constante), X1xX2 interacción, X2 implicación,
X1 turno
b. Variable dependiente: conflicto

Coeficientesa

Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 14,710 ,388 37,867 ,000
X1 turno 2,500 ,549 ,585 4,551 ,000
X2 implicación -1,354 ,549 -,317 -2,465 ,019
X1xX2 interacción -3,386 ,777 -,687 -4,358 ,000
a. Variable dependiente: conflicto
2.8.Interacción entre variables cualitativas
Coeficientesa

Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 14,710 ,388 37,867 ,000
X1 turno 2,500 ,549 ,585 4,551 ,000
X2 implicación -1,354 ,549 -,317 -2,465 ,019
X1xX2 interacción -3,386 ,777 -,687 -4,358 ,000
a. Variable dependiente: conflicto

Yi = b0 + b1 X i 1 + b 2 X i 2 + b3 X i 1 X i 2 + e i

Yˆi = b0 + b1 X i 1 + b 2 X i 2 + b3 X i 1 X i 2 = 14 , 71 + 2 ,5 X 1 − 1,354 X 2 − 3,386 X 1 X 2

X 2 = 0 ( Baja )
Yˆ = b + b X = 14,71 + 2,5 X
i 0 1 i1 1

X 2 = 1 ( Alta )
Yˆi = (b0 + b2 ) + (b1 + b3 )X i1 = (14,71 − 1,354 ) + (2,5 − 3,386 )X 1 = 13,356 − 0,886 X 1
2.8.Interacción entre variable una variable cualitativa y una
cuantitativa

100 y = 0,5984x + 83,282


80
X1:Edad
CI total

60
Y: CItotal
40
y = -1,4016x + 53,282
20
X2: Ansiedad
0
-6 -4 -2 0 2 4 6 8
edad en diferenciales (centrada)
X1X2
sin ansiedad con ansiedad
Variable Moderadora

X2: ansiedad

Yˆ = b0 + b1 (X1 − X1 ) + b2 X 2 + b3 (X1 − X1 )X 2
Yˆ = (b + b X ) + (b + b X )(X − X )
0 2 2 1 3 2 1 1

X 2 = 0(Sinansiedad) Yˆi = b0 + b1 (Xi1 − X1 ) X1:Edad Y: CITotal


X 2 = 1(Conansiedad) Yˆi = (b0 + b2 ) + (b1 + b3 )(Xi1 − X1 )
2.8. Interacción entre una variable cualitativa y una
cuantitativa
Matriz de Datos

Estadísticos descriptivos

N Mínimo Máximo Media Desv. típ.


edad 48 6,00 18,00 10,8750 3,50456
N válido (según lista) 48

Resumen del modelo

R cuadrado Error típ. de la


Modelo R R cuadrado corregida estimación
1 ,969a ,939 ,935 4,10700
a. Variables predictoras: (Constante), interaccion,
ansiedad, edaddif

ANOVAb

Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 11471,415 3 3823,805 226,697 ,000a
Residual 742,169 44 16,867
Total 12213,584 47
a. Variables predictoras: (Constante), interaccion, ansiedad, edaddif
b. Variable dependiente: cit
2.8. Interacción entre dos variables cuantitativas

Variable Moderadora

X1:Actitud X2: Presión


Y: Intención

X2: Presión
X1:Actitud Y: Intención

X1X2

Yˆ = b0 + b1(X1 − X1 ) + b2 (X2 − X2 ) + b3 (X1 − X1 )(X2 − X2 )


Yˆ = (b + b (X − X )) + (b + b (X − X ))(X − X )
i 0 2 2 2 1 3 2 2 1 1
2.8. Interacción entre una variable cualitativa y una cuantitativa

Coeficientesa

Coeficientes
Coeficientes no estandarizad
estandarizados os
Modelo B Error típ. Beta t Sig.
1 (Constante) 83,282 ,838 99,342 ,000
edaddif ,598 ,241 ,130 2,478 ,017
ansiedad -30,000 1,186 -,940 -25,304 ,000
interaccion -2,000 ,341 -,308 -5,857 ,000
a. Variable dependiente: cit

Yˆ = 83,282 + 0,598(X 1 − X 1 ) − 30 X 2 − 2(X 1 − X 1 )X 2


X 2 = 0 ( Sin ansiedad)
Yˆ = 83,282 + 0,598(X 1 − X 1 )
X 2 = 1(Con ansiedad)
Yˆi = (83,282 − 30) + (0,598 − 2)(X i 1 − X 1 ) = 53,28 − 1,40(X i 1 − X 1 )
2.8. Interacción entre dos variables cuantitativas

Matriz de Datos

Estadísticos descriptivos

N Mínimo Máximo Media Desv. típ.


actitud 125 1,00 5,00 3,0000 1,41990
presion 125 1,00 5,00 3,0000 1,41990
N válido (según lista) 125

Resumen del modelo

R cuadrado Error típ. de la


Modelo R R cuadrado corregida estimación
1 ,968a ,938 ,936 1,43740
a. Variables predictoras: (Constante), interacción,
presiondif, actituddif

ANOVAb

Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 3750,000 3 1250,000 605,000 ,000a
Residual 250,000 121 2,066
Total 4000,000 124
a. Variables predictoras: (Constante), interacción, presiondif, actituddif
b. Variable dependiente: intención
2.8. Interacción entre dos variables cuantitativas

Coeficientesa

Coeficientes
Coeficientes no estandarizad
30
estandarizados os
y = 5x + 15
Modelo B Error típ. Beta t Sig.
1 (Constante) 11,000 ,129 85,560 ,000 25
actituddif 3,000 ,091 ,750 33,000 ,000 y = 4x + 13
presiondif -2,000 ,091 -,500 -22,000 ,000
20
interacción -1,000 ,064 -,354 -15,556 ,000

in te n c ió n
a. Variable dependiente: intención y = 3x + 11
15
y = 2x + 9
Yˆ =11+ 3(X1 − X1 ) − 2(X2 − X2 ) −1(X1 − X1 )(X2 − X2 )
10

Yˆ = (11− 2(X − X )) + (3 −1(X − X ))(X − X )


2 2 2 2 1 1
5 y=x+7

0
-3 -2 -1 0 1 2 3
actitud en diferenciales
presión b0 b1
presión -2 presión -1 presión 0 presión 1 presión 2
-2 15 5
-1 13 4
0 11 3
1 9 2
2 7 1
Para terminar: Multicolinealidad

Uno de los problemas más graves que podemos encontrarnos a la hora de


construir un modelo de regresión es el de la multicolinealidad que tiene que ver
con la elección de variables independientes o predictoras altamente
correlacionadas. Cuando esto ocurre podemos tener un modelo válido y ningún
coeficiente de regresión significativo. Esto se debe a que, en presencia de
colinealidad, los errores estándar son muy grandes y los coeficientes inestables.
Para detectar multicolinealidad podemos utilizar diferentes índices dos de los
más frecuentes e implementados en los paquetes estadísticos son el factor de
inflación de varianza (FIV) y el índice de condición (IC). Respecto al factor de
inflación de la varianza (FIV) se sugiere como regla que ningún FIV sea mayor
que 4 (otros autores sitúan el valor de FIV en 10). En cuanto al índice de
condición se considera que valores mayores que 30 indican multicolinealidad
alta, entre 10 y 30 moderada y menos de 10 baja.

También podría gustarte