Está en la página 1de 15

DOCUWEB FABIS

Dot. Nm 0702005

Cmo realizar paso a paso un contraste de hiptesis con


SPSS para Windows: (III) Relacin o asociacin y anlisis de
la dependencia (o no) entre dos variables cuantitativas.
Correlacin y regresin lineal simple.
Aguayo Canela M, Lora Monge E
Servicio de Medicina Interna. Hospital Universitario Virgen Macarena. Sevilla

Resumen
Cuando se desee evaluar el grado de asociacin o independencia de dos variables
cuantitativas debe recurrirse a tcnicas de correlacin y/o regresin, aunque tambin es
posible transformar una de ellas en una variable categrica u ordinal y luego aplicar un
ANOVA. La correlacin es una tcnica matemtica que evala la asociacin o relacin
entre dos variables cuantitativas, tanto en trminos de direccionalidad como de fuerza o
intensidad, proporcionando un coeficiente de correlacin (r de Pearson). La regresin lineal
simple es un modelo matemtico que explora la dependencia entre dos variables
cuantitativas (supone que en el modelo una es la variable dependiente y otra la
independiente), tratando de verificar si la citada relacin es lineal y aportando unos
coeficientes (a y b) que sirven para construir la ecuacin de la recta de prediccin. Ambas
tcnicas, basadas en la media y en la varianza de las variables evaluadas, tienen
importantes condiciones de aplicacin, entre las que destacan la independencia de las
observaciones y la normalidad, disponindose de alternativas no paramtricas (como el
coeficiente rho de Spearman) para la correlacin cuando estas no se cumplen. Con el
programa SPSS para Windows se pueden llevar a cabo ambos procedimientos y explorar
visualmente la relacin entre dos variables cuantitativas a travs de grficos de dispersin (o
nube de puntos).

0. INTRODUCCIN TERICA.
Cuando tengamos que evaluar la asociacin entre dos variables cuantitativas, hay que
recurrir a las tcnicas de CORRELACION Y REGRESION LINEAL SIMPLE.
La CORRELACIN evala la fuerza de asociacin entre las variables, de forma similar al
Riesgo Relativo y la OR en las variables categricas, indicando adems la direccin de esta
asociacin, de forma que sabremos si cuando aumenta el valor de una de ellas aumenta
tambin el valor de la otra variable (relacin directa) o por el contrario disminuye (relacin
indirecta).
El ndice resumen para evaluar la correlacin entre dos variables cuantitativas es el
COEFICIENTE DE CORRELACIN. Hay varios coeficientes, siendo el ms conocido el
llamado r de Pearson, cuyo clculo es paramtrico, esto es, se basa en la media y la
varianza, y asume varios supuestos:
a) Que las variables analizadas son simtricas (no hay una dependiente y otra
Correspondencia: marianoaguayo@telefonica.net

1 de 15

Aguayo Canela, Mariano

DocuWeb fabis.org

independiente) y, por tanto, son intercambiables mutuamente.


b) Que lo que mide es el grado de ajuste de los puntos o pares de valores a una
hipottica lnea recta (explora la relacin lineal). Esto quiere decir que podra existir
otro tipo de asociacin (curvilnea, exponencial, etc.) y no ser detectada por este
coeficiente.
c) Que las variables se distribuyen normalmente (criterio de normalidad) en la poblacin
de la que proviene la muestra.
d) Que las variables exploradas provienen de observaciones independientes (esto es,
solo debe haber un valor para cada variable en cada individuo de la muestra), para
evitar lo que se conoce como autocorrelacin.
e) En este mismo sentido, la correlacin lineal no es aplicable cuando una variable
forma parte de la otra o su clculo incluye la otra variable (por ejemplo, no es correcto
evaluar la correlacin entre la variable IMC ndice de masa corporal- y la variable
talla).
Cuando las condiciones b) y c) anteriores no se cumplen, o cuando una de las variables es
ordinal, debe emplearse una aproximacin no paramtrica, siendo la ms empleada el
Coeficiente de Correlacin Rho de Spearman.
El Coeficiente de Correlacin 100
Fuerte relacin
90
(sea o no paramtrico) es un
directa.
valor adimensional que oscila
80
entre -1 y +1. El valor cero se da
70
cuando
no
existe
ninguna
60
correlacin entre las variables
50
analizadas; el valor -1 implica una
40
correlacin perfecta de carcter
30
inverso (o indirecto) y el valor +1
140
150
160
una correlacin perfecta de tipo
directo (cuando una crece tambin lo hace la otra).
80

Cierta relacin
inversa

70
60
50
40
30
20
10
0
140

150

160

170

180

valores crecientes de una variable


corresponden valores decrecientes de la
otra.

190

200

170

180

190

200

Una excelente aproximacin visual


para explorar el grado de correlacin
es a travs de un grfico de
dispersin o nube de puntos.
Se habla de correlacin positiva (o directa)
cuando a valores crecientes de una de las
variables se observan valores crecientes de
la otra variable; por el contrario, se habla de
correlacin negativa (o inversa) cuando a

330

Incorrelacin

280
230

Cuando no hay correlacin y en el grfico


de dispersin se aprecian puntos en los
cuatro cuadrantes del eje cartesiano se
habla de incorrelacin. Ello no significa
que ambas variables no estn relacionadas
sino
que
no
estn
relacionadas
linealmente.

180
130
80
30
140

150

160

170

180

190

En trminos generales diremos que:

Si | r | < 0,3 la asociacin es dbil

DocuWeb fabis.org

2 de 15

200

Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables
cuantitativas. Correlacin y regresin lineal simple

fabis.org, 2007

Si 0,30 | r | 0,70 la asociacin es moderada


Si | r | > 0,70 la asociacin es fuerte

Por ltimo, debe recordarse que la estimacin del Coeficiente de Correlacin de Pearson en
muestras de suficiente tamao debe completarse con la estimacin por intervalos (clculo de
los intervalos de confianza de r) y el correspondiente test de hiptesis, que parte de la
hiptesis nula de que el r vale cero en la poblacin (es una prueba a travs del estadstico t
de Student).
Por tanto, a la hora de interpretar adecuadamente un Coeficiente de Correlacin se deben
tener en cuenta los siguientes aspectos:
1.
2.
3.
4.

Su signo
Su magnitud
Su significacin estadstica
Sus intervalos de confianza

La REGRESIN LINEAL SIMPLE es un modelo matemtico que sirve para evaluar si la


relacin entre dos variables cuantitativas es lineal, y proporciona unos coeficientes para
ajustar una lnea recta a los diversos pares de valores que proporcionan cada individuo de la
muestra. En este modelo se asume que una de las variables adopta el papel de predictora o
independiente, y que la otra variable es el efecto, resultado o variable dependiente. La
variable independiente o predictora suele ser un factor previamente determinado, a veces
incluso controlado por el investigador, otras simplemente ms fcil de medir que la que se
pretende explicar o predecir a partir de ella.
Por consenso, la variable dependiente o efecto ocupa el lugar de la Y en el eje cartesiano
(ordenada) y la variable independiente el lugar de la X (abscisa). El modelo de regresin
lineal simple intenta ajustar, con los datos de la muestra, la siguiente ecuacin:
Y = a + bX + e
Donde a es el valor de la ordenada en el origen, esto es, el valor que adoptar Y (la variable
dependiente) cuando X valga cero; b es conocido vulgarmente como pendiente de la recta
y se interpreta como el cambio de Y por cada unidad de cambio de X; y e es el error o
residual, y representa una cuantificacin del desajuste de los datos de la muestra al modelo
lineal, lgicamente variable de un individuo a otro, puesto que corresponde a la cantidad que
habra que sumar o restar a la prediccin para que coincida exactamente con lo observado.
El anlisis de regresin lineal empieza siempre por un ANOVA, que trata de responder a la
siguiente pregunta: es mejor usar X para predecir la variabilidad de Y, o por el contrario se
puede conseguir la misma explicacin de Y sin tener en cuenta los valores de X,
simplemente usando el valor ms representativo de Y, esto es, su media? Si fuese esto
ltimo, la recta del modelo tendra pendiente cero, por lo que la hiptesis nula del contraste
es precisamente:
H0: = 0
Cuando se rechaza H0 (contraste estadsticamente significativo), se concluye diciendo que
hay regresin lineal de Y sobre X, ya que se puede explicar una parte de los valores de la
variable dependiente (Y) a partir de los valores de la variable independiente o predictora (X),
o lo que es lo mismo, que conocido el valor x para un individuo se predice el valor de y mejor
con la ecuacin de la recta que con el valor medio de Y.
Sin embargo la prediccin que realiza el modelo de regresin lineal no es perfecta y siempre
queda algo sin explicar. Este algo sin explicar es la varianza residual que aparece en la

DocuWeb fabis.org

3 de 15

Aguayo Canela, Mariano

DocuWeb fabis.org

tabla del ANOVA.


Otra forma de cuantificar el ajuste del modelo lineal a los datos es a travs del llamado
Coeficiente de Determinacin, R2, que compara lo explicado por la regresin con la
variabilidad total de Y, y se interpreta como el porcentaje de la variabilidad total de la variable
dependiente Y que es explicada por la variable independiente X.
Por ltimo, el anlisis de regresin lineal concluye calculando los coeficientes de regresin
a y b de la recta, mediante el mtodo de ajuste conocido por mnimos cuadrados. Los
programas estadsticos aportan para cada uno de ellos la estimacin puntual, el error
estndar, la significacin estadstica del contraste y los intervalos de confianza, teniendo
sentido interpretar las salidas del coeficiente b para tomar decisiones de que hasta qu
punto y en qu magnitud la variacin de Y depende linealmente de X.
Estas dos tcnicas, CORRELACION Y REGRESION LINEAL SIMPLE, tienen objetivos
diferentes, aunque es comn que en los programas estadsticos vayan unidas. De
hecho en SPSS se puede obtener un coeficiente de correlacin de forma aislada pero el
programa tambin nos lo ofrece automticamente cuando se realiza un anlisis de regresin
lineal.

Vamos a trabajar con el ejemplo del estudio de obesidad e hipertensin. En esta base de
datos, la variable TAD (presin arterial diastlica, medida en mm de Hg) es cuantitativa y
desearamos saber si est relacionada con la edad de los individuos (otra variable
cuantitativa, cuya medida son los aos cumplidos), esto es, responder a la pregunta hay
relacin en la edad de los individuos y su presin diastlica?

1. PASOS A DAR EN SPSS PARA EVALUAR LA ASOCIACIN


ENTRE DOS VARIABLES CUANTITATIVAS: OBTENCIN DEL
COEFICIENTE DE CORRELACIN.
1.1. Antes de llevar a cabo ninguna prueba estadstica, cuando se analiza la relacin entre
dos variables cuantitativas debe explorarse grficamente mediante una nube de puntos,
o grfico de dispersin. En SPSS est en Grficos > Dispersin

Al aplicar esta opcin debemos sealar >


Diagrama de Dispersin Simple, y en la
siguiente ventana de dilogo, tras oprimir la
pestaa Definir, debemos seleccionar las dos
variables cuantitativas que vamos a situar en el
grfico, una en el eje X y otra en el eje Y.
Da igual cul de las variables coloquemos en
cada ventana: en la correlacin no tiene sentido
la dependencia de las variables, ya que estas
juegan un papel simtrico.
El resultado de SPSS es el siguiente:

DocuWeb fabis.org

4 de 15

Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables
cuantitativas. Correlacin y regresin lineal simple

fabis.org, 2007

Grfico
Como ya puede verse a simple vista, estas dos variables
muestran una escasa correlacin lineal, arrojando una
nube de puntos muy dispersa, con parejas de valores en
los cuatro sectores del plano cartesiano. El coeficiente de
correlacin ser un nmero ms prximo a cero (ninguna
correlacin) que a la unidad (correlacin lineal perfecta).

120

PRESIN ARTERIAL DIASTLICA

110

100

90

80

70

60
40

45

50

55

60

1.2. El paso siguiente consistira en evaluar la


distribucin de ambas variables cuantitativas en
la muestra, para confirmar o no si siguen una Ley
Normal. Obviamos este paso porque ya se ha
explicado en un documento anterior (Asociacin entre
una variable cuantitativa y una categrica).1

EDAD EN AOS CUMPLIDOS

1.3. A continuacin recurrimos a evaluar


inferencialmente la relacin entre las variables, que en el programa SPSS est en

Analizar > Correlaciones > Bivariadas

En el siguiente cuadro de dilogo debemos seleccionar las variables cuantitativas que vamos
a correlacionar, y as mismo indicar el tipo de Coeficiente de Correlacin que deseamos
calcular (el de Pearson es el paramtrico y el de Spearman es el no paramtrico) y si el
contraste o Prueba de significacin es unilateral o bilateral. Adems, en la pestaa
Opciones podemos hacer que se muestren algunos estadsticos, como las medias y
desviaciones tpicas y los productos cruzados y covarianzas.

Puede comprobarse que las pruebas de Kolmogorov-Smirnov y de Shapiro-Wilks detectan que la variable
presin arterial diastlica no se ajusta a la Ley Normal.

DocuWeb fabis.org

5 de 15

Aguayo Canela, Mariano

DocuWeb fabis.org

El resultado que se obtiene tras aplicar es el siguiente:

Correlaciones
La salida de SPSS muestra primero
una tabla o cuadro resumen de las
variables que se van a correlacionar,
Desviacin
aportando los tres ndices que
Media
N
tpica
sintetizan las distribuciones: media,
PRESIN ARTERIAL
82,74
12,503
50
desviacin tpica y tamao muestral. Y
DIASTLICA
enseguida una tabla con la correlacin
EDAD EN AOS
49,22
5,132
50
lineal (por defecto), en la que vemos
CUMPLIDOS
una doble entrada con cuatro celdas
cuyos valores en ngulo se repiten. Es una obviedad que hace el programa pero nos recuerda que en
la correlacin las variables juegan un papel simtrico y son intercambiables.
Estadsticos descriptivos

Vemos en dicho cuadro como la


correlacin de cada variable consigo
PRESIN
EDAD EN
misma es perfecta (Coef. de
ARTERIAL
AOS
Correlacin lineal = 1), mientras que la
DIASTLICA
CUMPLIDOS
PRESIN ARTERIAL Correlacin de Pearson
1
-,085
correlacin con la otra variable vale DIASTLICA
Sig. (bilateral)
,556
0,085, un valor negativo (la PAD N
50
50
segn sto- disminuira conforme
EDAD EN AOS
Correlacin de Pearson
-,085
1
aumenta la edad) y muy pequeo, lo
CUMPLIDOS
Sig. (bilateral)
,556
que traduce una baja correlacin entre
N
50
50
ambas. En este mismo sentido, el
valor de la p asociado al contraste de hiptesis (que evala la probabilidad de que en la poblacin
ambas variables no estn correlacionadas linealmente y el el Coeficiente de Correlacin sea cero) es
0,556, no permitiendo rechazar la hiptesis nula (contraste no significativo). Si se lo hemos indicado
en la casilla correspondiente, el programa nos ofrece seguidamente el anlisis de correlacin no
paramtrco.
Correlaciones

Correlaciones no paramtricas

DocuWeb fabis.org

6 de 15

Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables
cuantitativas. Correlacin y regresin lineal simple

Correlaciones

Rho de Spearman

PRESIN ARTERIAL
DIASTLICA

EDAD EN AOS
CUMPLIDOS

Coeficiente de
correlacin
Sig. (bilateral)
N
Coeficiente de
correlacin
Sig. (bilateral)
N

PRESIN
ARTERIAL
DIASTLICA

EDAD EN
AOS
CUMPLIDOS

1,000

-,154

.
50

,287
50

-,154

1,000

,287
50

.
50

vale -0,154 y tiene un valor p asociado de 0,287.

fabis.org, 2007

En nuestro ejemplo ste anlisis sera


el ms adecuado y deberamos
interpretar
la
correlacin
no
paramtrica, ya que una de las
variables incumple el criterio de
distribucin normal.
Con el mismo formato de salida, el
programa ha calculado el coeficiente
de correlacin Rho de Spearman, que

Estos resultados se interpretan como sigue: Existe una baja o escasa correlacin lineal
entre la presin arterial diastlica y la edad de los individuos. Esta baja correlacin lineal en
la muestra analizada hace que en el contraste de hiptesis (que parte de una H0 de que r
vale cero) se termine aceptando la hiptesis nula y concluyendo que dichas variables no
estn correlacionadas en la poblacin de la que proviene la muestra.
Llegados a este punto, parece obvio que no es afortunado explorar la asociacin lineal de
estas dos variables mediante una REGRESIN LINEAL SIMPLE, por lo que el anlisis
debera terminar aqu.

2. PASOS A DAR EN SPSS PARA LLEVAR A CABO UNA


REGRESIN LINEAL SIMPLE.
Vamos a realizar un segundo ejercicio, tomando ahora dos variables cuantitativas que muy
probablemente estn correlacionadas, para completar el procedimiento a seguir y mostrar
los resultados de un anlisis de Regresin Lineal Simple. Para ello exploraremos la relacin
entre las variables presin arterial sistlica y presin arterial diastlica, respondiendo a la
pregunta Estn relacionadas estas dos variables? Y en segundo lugar depende la presin
arterial sistlica de la presin arterial diastlica?2

2.1. Empezamos por la evaluacin grfica, pero en este caso analizaremos la posible
relacin lineal a travs de un procedimiento ms verstil y completo que nos ofrece SPSS en
la opcin Grficos Interactivos:

Grficos > Interactivos > Diagrama de dispersin

Debe aclararse aqu que esta evaluacin de correlacin es conceptualmente incorrecta, ya que las dos variables
estn autocorrelacionadas en cada individuo, pudiendo considerarse dos mediciones de la presin arterial en
cada sujeto. Realizaremos el ejercicio con carcter puramente acadmico.

DocuWeb fabis.org

7 de 15

Aguayo Canela, Mariano

DocuWeb fabis.org

Esta opcin permite la creacin de un grfico de puntos (Asignar variables, seleccionando


las dos variables cuantitativas y colocndolas en las ventanas correspondientes del eje
cartesiano) y ajustar una lnea de regresin (Ajuste, a travs del mtodo de Regresin).
Vemos como en la pestaa Ajuste es posible seleccionar un mtodo (Regresin), obtener
la ecuacin de la lnea de regresin y visualizar las lneas de pronstico para un intervalo
de confianza determinado (por defecto del 95%).

El resultado tras aceptar es el siguiente:

Grfico interactivo

DocuWeb fabis.org

8 de 15

Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables
cuantitativas. Correlacin y regresin lineal simple

Regresin lineal con


Intervalo de prediccin de la media al 95,00%

PRESIN ARTERIAL SISTLICA

200


175

fabis.org, 2007

1PRESIN ARTERIAL SISTLICA



= 9,40 + 1,49

* pad
R-cuadrado = 0,64

 




150











125










100

 




60

80

100

120

PRESIN ARTERIAL DIASTLICA

Vemos que a simple vista la correlacin entre estas dos variables es elevada y de direccin positiva
(cuando crece una crece la otra). En el mismo grfico ya se muestra la ecuacin de la lnea recta que
se ajusta con los datos:
PAS = 9,40 + (1,49 * PAD)
2

Tambin nos ofrece otro parmetro de la Regresin Lineal: el Coeficiente de Determinacin (R ), que
en nuestro ejemplo vale 0,64. Este valor expresa cunto del valor de la PAS est predicho o
determinado por la PAD (un 64%).

2.2. Una vez que comprobemos que las distribuciones de ambas variables sigue una ley
Normal, se llevara a cabo la evaluacin de la correlacin entre estas dos variables, con
el procedimiento en SPSS que ya se ha mostrado antes. Estos seran los resultados:

Correlaciones
Correlaciones

PRESIN ARTERIAL
DIASTLICA
PRESIN ARTERIAL
SISTLICA

Correlacin de Pearson
Sig. (bilateral)
N
Correlacin de Pearson
Sig. (bilateral)
N

PRESIN
ARTERIAL
DIASTLICA
1

PRESIN
ARTERIAL
SISTLICA
,802**
,000
50
50
,802**
1
,000
50
50

**. La correlacin es significativa al nivel 0,01 (bilateral).

Correlaciones no paramtricas

DocuWeb fabis.org

9 de 15

Aguayo Canela, Mariano

DocuWeb fabis.org
Correlaciones
PRESIN
ARTERIAL
DIASTLICA

Rho de Spearman

PRESIN ARTERIAL
DIASTLICA

PRESIN ARTERIAL
SISTLICA

Coeficiente de
correlacin
Sig. (bilateral)
N
Coeficiente de
correlacin
Sig. (bilateral)
N

1,000

PRESIN
ARTERIAL
SISTLICA
,732**

.
50

,000
50

,732**

1,000

,000
50

.
50

**. La correlacin es significativa al nivel 0,01 (bilateral).

Vemos que tanto el Coeficiente de Correlacin paramtrico (Pearson) como el no


paramtrico (Rho de Spearman) son valores positivos y ms prximos a la unidad que al
cero, en concreto 0,802 y 0,732 respectivamente; y ambos coeficientes son estadsticamente
significativos, con p < 0,001, por lo que podemos concluir que ambas variables estn
asociadas en la poblacin de la que proviene la muestra analizada, y que dicha
asociacin muestra una elevada correlacin directa.
2.3. Cuando existe correlacin lineal (r > 0,3, p asociada al contraste de la correlacin <
0,05), se debe completar el estudio estadstico a travs del ANALISIS DE REGRESIN
LINEAL SIMPLE, para evaluar dicha relacin y estimar una recta de regresin, que nos
permita hacer predicciones. En el programa SPSS marcamos la secuencia

Analizar > Regresin > Lineal

Y en el siguiente cuadro de dilogo se seleccionan las variables, que ahora vemos deben
colocarse en las ventanas correspondientes distinguiendo cul es la dependiente y cual es
la independiente. En la opcin Estadsticos podemos marcar los que deseamos obtener en
la salida:

DocuWeb fabis.org

10 de 15

Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables
cuantitativas. Correlacin y regresin lineal simple

fabis.org, 2007

Regresin
El primer recuadro es un resumen del procedimiento:
Variables introducidas/eliminadas
Modelo
1

Variables
introducidas
PRESIN
ARTERIAL
DIASTLICA

Variables
eliminadas
a

Mtodo
.

Introducir

a. Todas las variables solicitadas introducidas


b. Variable dependiente: PRESIN ARTERIAL SISTLICA

El segundo recuadro es un resumen del modelo de Regresin Lineal, con el Coeficiente de Regresin
2
(R) y el Coeficiente de Determinacin (R ).
Resumen del modelo
Modelo
1

,802a

R cuadrado
,644

R cuadrado
corregida
,636

Error tp. de la
estimacin
13,971

a. Variables predictoras: (Constante), PRESIN ARTERIAL


DIASTLICA

A continuacin aparece un contraste de hiptesis ANOVA para la regresin, que separa la variabilidad
explicada por la Regresin y la variabilidad no explicada o Residual, y calcula un estadstico F y una
significacin estadstica.

DocuWeb fabis.org

11 de 15

Aguayo Canela, Mariano

DocuWeb fabis.org
ANOVAb

Modelo
1

Regresin
Residual
Total

Suma de
cuadrados
16932,566
9369,614
26302,180

gl
1
48
49

Media
cuadrtica
16932,566
195,200

F
86,745

Sig.
,000a

a. Variables predictoras: (Constante), PRESIN ARTERIAL DIASTLICA


b. Variable dependiente: PRESIN ARTERIAL SISTLICA

Esta es una primera aproximacin inferencial al modelo de Regresin Lineal, que evala globalmente
el modelo. En nuestro ejemplo es estadsticamente significativo (p<0,001) y concluye rechazando la
hiptesis nula y aceptando la H1 (existe asociacin entre las dos variables mediante una regresin
lineal).
La segunda aproximacin inferencial se muestra en el siguiente cuadro, donde se ofrecen los
coeficientes del modelo (columna encabezada B):

la constante (a) o valor de la ordenada en el origen (en nuestro ejemplo vale 9,401)
el coeficiente de regresin (b) o pendiente de la recta (en nuestro caso vale 1,487)

Adems se proporcionan sus correspondientes errores tpicos. Y, en las ltimas columnas, el


contraste de hiptesis para el coeficiente de regresin, a travs de una t de Student (contraste de
Wald), que parte de una H0 que supone que el coeficiente de regresin lineal vale cero (en nuestro
caso la t de Student vale 9,314 y el valor p asociado es < 0,001). El contraste de hiptesis para la
constante no tiene sentido aplicarlo.
Coeficientes(a)
Coeficientes no
estandarizados
Modelo
1

(Constante)

Error tp.

9,401

13,355

1,487
PAD
a Variable dependiente: PAS

,160

Coeficientes
estandarizados

Sig.

Beta
,704
,802

9,314

,485
,000

Intervalo de confianza
para B al 95%
Lmite
inferior
-17,452
1,166

Lmite
superior
36,254
1,808

Si se lo hubisemos solicitado, el programa tambin nos habr calculado los intervalos de confianza
de los coeficientes de regresin, teniendo sentido slo para el coeficiente b.

Con estos resultados conclumos varias cosas:


1. Que las dos variables estn asociadas o relacionadas linealmente en la poblacin de
la que proviene la muestra (con una muy pequea probabilidad de que la relacin
encontrada sea explicada por el azar, menos del uno por mil).
2. Que la relacin encontrada es fuerte (r = 0,8). De hecho la PAD explica el 64% (R2 =
0,64) de la variabilidad de la PAS.
3. Que la relacin es directa, aumentando en promedio 1,487 mm de Hg la PAS por
cada aumento de 1 mm de Hg en la PAD.
De hecho, con estos coeficientes se puede construir la recta de regresin lineal
Y = a + bX
que relacionara en la poblacin la presin arterial sistlica (PAS) con la presin arterial
diastlica (PAD):

DocuWeb fabis.org

12 de 15

Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables
cuantitativas. Correlacin y regresin lineal simple

fabis.org, 2007

PAS = 9,401 + (1,487 * PAD)


2.4. Todo anlisis de regresin lineal debera completarse con una evaluacin de los
residuales, esto es, los valores (ypred - y ), sobre todo por comprobar si stos siguen una
distribucin normal, ya que este simple paso permite asegurar que se cumplen tres criterios
bsicos para aplicar correctamente la regresin lineal: el supuesto de normalidad de la
distribucin condicional de la variable Y, el que exista linealidad en la relacin de Y
condicionada por cada valor de X, y el requisito de homecedasticidad (que las varianzas de
la distribucin de Y condicionada a cada valor de X sean homogneas).
Para ello es imprescindible en el programa SPSS marcar en la ventana de Regresin
lineal la opcin Guardar y en ella a su vez Residuos y No tipificados.

Al aplicar esta opcin se genera en la base de datos una nueva variable con los residuos no estandarizados
(SPSS la llama por defecto RES_1 y la etiqueta como Unstandardized), y se obtiene el la ventana de resultados
el siguiente cuadro resumen de estadsticos calculados:
Estadsticos sobre los residuos(a)

Mnimo
Valor pronosticado

Mximo

Media

Desviacin
tp.

98,61

187,82

132,42

18,589

50

-18,478

31,522

,000

13,828

50

Valor pronosticado tip.

-1,819

2,980

,000

1,000

50

Residuo tip.

-1,323

2,256

,000

,990

50

Residuo bruto

a Variable dependiente: PAS

Con la nueva variable RES_1 deberamos evaluar, como ya sabemos, si sigue una
distribucin normal, seleccionndola en la ventana de dependientes en el procedimiento
Analizar > Estadsticos descriptivos > Explorar
Y marcando en la pestaa grficos la opcin grficos con pruebas de normalidad.

DocuWeb fabis.org

13 de 15

Aguayo Canela, Mariano

DocuWeb fabis.org

Anexo.
Tabla de datos del estudio sobre Hipertensin y Obesidad.
Se trata de un pequeo estudio transversal (n=50) en el que se pretende explorar la
asociacin de la hipertensin arterial y el sobrepeso (obesidad).
Como veis se han recogido cinco variables:
Edad: en aos cumplidos
Sexo (1=hombre; 2=mujer)
Tensin diastlica (PAD): en mm de Hg
Tensin sistlica (PAS): en mm de Hg
Obesidad: como dicotmica (1=obeso; 2= No obeso)
En la parte de estadstica descriptiva se trata de explorar la distribucin de las
variables cuantitativas y obtener las medidas resumen de todas ellas, as como sus
representaciones grficas. Tambin es interesante que analicis sus distribuciones y
estadsticos sintticos en los dos grupos que pueden obtenerse por la variable
"obesidad".
Podrais obtener una variable nueva de tipo dicotmico que tuviera informacin
resumen de las variables TAS y TAD. Esto es, una variable que podas llamar HTA
(hipertensin arterial), que agrupara en una categora a los "hipertensos" (TAS >= 140
y/o TAD >=90) y en otra categora a los "normotensos".
EDAD

PAS

PAD

SEXO

OBESIDAD

41

120

70

41

140

80

41

110

80

42

120

85

42

120

86

42

140

90

42

180

110

43

120

70

43

120

86

43

140

90

44

110

80

45

120

70

45

120

80

45

122

80

47

130

80

47

120

80

47

155

80

47

110

80

47

150

85

48

110

70

48

150

100

48

160

102

48

160

110

49

110

70

49

150

90

DocuWeb fabis.org

14 de 15

Contraste de hiptesis con SPSS para Windows: (III) Asociacin entre dos variables
cuantitativas. Correlacin y regresin lineal simple

49

139

90

50

145

70

50

100

70

50

120

85

50

160

100

51

120

80

52

100

60

52

100

70

52

150

80

52

160

100

53

125

75

53

115

75

53

110

78

53

170

100

54

100

60

54

120

80

54

120

80

54

190

120

55

135

80

57

95

70

57

150

75

57

130

80

57

180

95

59

150

80

59

150

80

DocuWeb fabis.org

1= HOMBRE

1= OBESO

2= MUJER

2= NO OBESO

fabis.org, 2007

15 de 15

También podría gustarte