Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Practic Ass Pss
Practic Ass Pss
I.1. Introducción.
El SPSS es un paquete estadístico constituido por un conjunto de procedimientos (programas) para el
manejo y análisis estadístico de un conjunto de datos. SPSS dispone (en el entorno Windows) de varias
ventanas. Las básicas (y las que habitualmente usamos) son: el Editor de datos SPSS (es la ventana principal
de SPSS, y contiene al conjunto de datos que vamos a analizar) y el Visor de SPSS (donde se van a ir
acumulando todos los resultados de los análisis estadísticos que vayamos realizando).
Aunque SPSS nos puede ayudar en el proceso de extracción de la muestra (datos), no cabe duda de que
está pensado para el manejo y, sobre todo, para el análisis estadístico de los datos. Por ello, el trabajo con SPSS
comienza realmente cuando ya hemos recogido los datos. A partir de ese momento:
1.- Construiremos un fichero de datos con SPSS, y lo haremos en la ventana del Editor de datos. Después dicho
fichero se podrá editar, realizando sobre él las correcciones y/o transformaciones o cambios deseados.
Además, para que sea reconocido como un fichero de datos de SPSS, debe tener la extensión .sav: al
guardarlo, SPSS le pone automáticamente dicha extensión.
2.- Aplicaremos los procedimientos de SPSS apropiados para el análisis estadístico de los datos. Dicha
aplicación se lleva a cabo de forma fácil, sobre cuadros de diálogo que van apareciendo, y utilizando
fundamentalmente el ratón.
3.- Observaremos los resultados de los análisis que irán apareciendo en el Visor de SPSS. Dichos resultados se
pueden editar en el propio Visor y, lógicamente, se pueden guardar en un fichero o exportarlos a otra
aplicación. El fichero de resultados, para que sea reconocido como tal por SPSS, debe tener la extensión
.spv; al guardarlo, SPSS le pone automáticamente dicha extensión.
4.- Interpretaremos los resultados obtenidos y sacaremos las conclusiones correspondientes.
Los cuatro puntos anteriores son los objetivos de estas Prácticas. En esta primera práctica abordaremos el
primer punto, más concretamente, la construcción (y edición) de un fichero de datos. Para ello comentaremos,
en primer lugar, la ventana donde se va a construir el fichero: el Editor de datos.
También, si el fichero de datos está ya construido y guardado, lo podemos abrir en esta ventana (con el
icono correspondiente de la barra de herramientas). Igualmente se puede abrir el fichero de datos haciendo
doble clic con el ratón sobre el nombre del fichero, en cuyo caso se abrirá automáticamente una ventana del
Editor que lo contendrá.
Abrid el fichero de datos osteo.sav, y la ventana quedará como se muestra en la siguiente página.
Observamos que el nombre del fichero figura en la barra de título de la ventana, y los datos aparecen (en
la parte central de la ventana) en forma de matriz (en adelante le llamaremos matriz de datos): están
-1-
estructurados en filas y columnas. Las filas son los casos o individuos. Cada fila o caso tiene a la izquierda el
número de registro del caso, propio de la matriz de datos; pinchando sobre él se selecciona toda la fila o caso.
Las columnas son las variables. Situando el cursor en la cabecera de columna (nombre de la variable) se
despliega una etiqueta (etiqueta de variable), si previamente se ha introducido, que da una descripción más
detallada de esa variable. Además pinchando en el nombre se selecciona toda la columna o variable.
Los datos de variables cualitativas con varias categorías se suelen introducir (al construir la matriz de
datos) con códigos numéricos; por ejemplo, para el sexo se pueden asignar los códigos 1 y 2 (u otros distintos)
a “varón” y “hembra”, respectivamente, e introducir los datos de sexo utilizando dichos códigos. En estos casos
se suelen introducir etiquetas que expliquen el significado de cada código (etiquetas de valor). Lógicamente a
los datos de variables como edad, talla,… no se les asignan etiquetas. Los datos introducidos con códigos
pueden verse en la matriz de datos, de manera alternativa, con los códigos o con las respectivas etiquetas de
valor; para ello simplemente pinchar en el icono correspondiente de la barra de herramientas (el cuarto por la
derecha). Probadlo.
La ventana del Editor de datos tiene dos vistas: la Vista de datos (la que acabamos de ver) y la Vista de
variables (que aparece a continuación). En esta última se muestran las características de todas las variables de
la matriz de datos. Ahora, cada fila representa una variable, con todas sus características, y tiene a su izquierda
el correspondiente número de registro de la variable. Las columnas definen dichas características: nombre, tipo
de variable, anchura, etiquetas,… (las veremos después). De una vista a otra se cambia pinchando con el ratón
Hemos de situarnos en la Vista de variables. En cada fila de la ventana definiremos una variable,
escribiendo su nombre y sus características en las diferentes columnas. Repasemos dichas características.
Probad cada característica con alguna(s) variable(s) sencilla(s) como sexo, talla,…
Columna 1: Nombre.
Nombre de la variable: sin espacios en blanco, comas, puntos y coma, dos puntos ni guión alto,
empezando siempre por una letra, @, # o $, y no terminando con un punto. Aunque se permite hasta 64
caracteres, se suele poner un nombre reducido, dando una explicación más detallada en la etiqueta de variable.
Columna 2: Tipo.
Tipo de la variable. Por defecto, SPSS considera tipo Numérico. Para cambiarlo, pinchar en la casilla y,
después, en el pequeño botón que aparece a la derecha de dicha casilla. Entonces se muestra el cuadro Tipo de
variable (ver la figura en la página siguiente) y se elige el tipo. Utilizaremos los tres tipos señalados en la
figura. Siempre que sea de tipo numérico habrá que especificar la anchura y las cifras decimales, igualmente
habrá que especificar la anchura si es de tipo cadena. Estas características son las mismas que aparecen en las
-3-
columnas 3 y 4 (ver más abajo), y en ellas puede ser más cómodo introducirlas. Finalmente, si es una fecha,
habrá que especificar el formato de fecha entre los muchos disponibles; incluso hay formatos que incluyen
tiempos (horas, minutos,…); los formatos son intuitivos y fáciles de entender.
Para fechas.
Columna 3: Anchura
Anchura máxima (en número de caracteres) que tendrá asignada la variable. Se establece pinchando en la
casilla y utilizando las flechas que aparecen. Debe ser suficiente para contener cada dato: numérico (tener en
cuenta que signo y separación decimal ocuparían dos caracteres) o de cadena (texto). Si se especifica más
anchura de la necesaria no importa, pero si es menor de la necesaria, el dato no se podrá ver correctamente.
Columna 4: Decimales
Número de decimales que se mostrarán si el dato es numérico. Se establece de igual forma que la anchura.
Columna 5: Etiqueta (Etiqueta de variable)
Se puede introducir (es opcional) una etiqueta de variable (máximo 256 caracteres) que describa a la
variable de forma más detallada de lo que lo hace el propio nombre. Podemos corregir la ortografía de este tipo
de etiquetas con el icono correspondiente de la barra de herramientas (el último).
Columna 6: Valores (Etiquetas de valor)
Podemos introducir etiquetas explicativas
(máximo de 120 caracteres) de los distintos valores
que toma la variable. Estas etiquetas, aunque son
opcionales, conviene ponerlas si la variable es de
naturaleza cualitativa y se va a introducir con
códigos numéricos. Por ejemplo, si el sexo se va a
introducir con los códigos 1 (varón) y 2 (hembra),
a cada código habrá que asignarle su etiqueta
correspondiente. Para ello, se abre el cuadro
Etiquetas de valor pinchando en la casilla
correspondiente y, después, en el pequeño botón
que aparece a la derecha de dicha casilla. En él se
van escribiendo cada valor y su etiqueta y se pulsa Añadir, como se muestra en la figura. Los ya introducidos
se pueden cambiar o eliminar con los botones correspondientes. También se dispone del botón Ortografía para
revisar la ortografía de las etiquetas.
Igualmente se pueden asignar etiquetas a datos cualitativos introducidos con iniciales (una o varias letras),
por ejemplo, si se introducen los datos de sexo con las letras V y H, se les asignarían las etiquetas “varón” y
“hembra”, respectivamente.
Columna 7: Perdidos
Si el dato de una casilla de la matriz de datos no existe, se dice que tenemos un dato faltante o dato
perdido. El usuario puede definir códigos que, colocados en una casilla con dato perdido (en la matriz de
datos), la identifica como tal. Si no los define (en las prácticas no los definiremos), aparecerá “Ninguno” en la
casilla correspondiente de esta columna 7, y SPSS utiliza como código (por defecto) una coma (si el dato es
numérico) o deja la casilla en blanco (si el dato es de cadena). Esto se conoce como datos perdidos del sistema.
Columna 8: Columnas
Anchura de la columna de datos en la matriz de datos. Poner la necesaria para una correcta visualización
de los datos y del nombre de la variable. La anchura de la columna se puede modificar también (es lo más
usual) pinchando y arrastrando sobre los bordes del nombre de la variable en la Vista de datos. Probadlo.
-4-
Columna 9: Alineación
Tipo de alineación (izquierda, centro o derecha) de los datos en la columna. Pinchar en la casilla y elegir
la opción deseada. Por defecto, SPSS alinea a la izquierda los datos de cadena y a la derecha los numéricos.
Columna 10: Medida
Escala de medida de los datos. Tiene tres opciones: Nominal (para datos cualitativos nominales), Ordinal
(para datos en escala ordinal) y Escala (para datos numéricos). SPSS coloca automáticamente la escala de
medida en función del tipo de variable que hayamos definido; sólo en casos excepcionales lo cambiaremos.
Columna 11: Rol
El Rol indica el papel que se asigna a la variable, el cual podrá ser utilizado en determinados métodos de
SPSS (no lo utilizaremos).
En la definición de las características de las variables puede ser muy útil el uso de las acciones Cortar,
Copiar y Pegar, típicas de Windows. La manera más cómoda de acceder a ellas es a través del menú
contextual (pulsando el botón derecho del ratón). Se puede cortar, copiar y pegar cualquier característica o
grupo de características (de la misma columna). También se pueden cortar, copiar y pegar variables completas;
para ello hemos de seleccionarlas pinchando en sus números de registro. En cualquier caso, el nombre de la
variable se puede cortar y copiar, pero no se puede pegar, ya que SPSS no admite nombres duplicados (al pegar
se asignarían nuevos nombres provisionales: VAR00001, VAR00002,…). Probad estas acciones.
II.1. Introducción.
Los objetivos de esta práctica son los métodos de la Estadística Descriptiva: tablas de frecuencias,
gráficos y resumen o síntesis de datos. Para la Estadística Descriptiva, SPSS dispone de diferentes
procedimientos: estudiaremos aquí el procedimiento Frecuencias (del menú Analizar), el procedimiento
Agrupación visual (del menú Transformar) y algunos gráficos estadísticos (del menú Gráficos). Seguiremos
utilizando el fichero de datos osteo.sav.
Para cada procedimiento de SPSS se abrirá un cuadro de diálogo propio del procedimiento, donde habrá
que especificar los detalles de la aplicación de dicho procedimiento. Ya vimos el primero de ellos en el
procedimiento Ponderar casos de la Práctica I. Estos cuadros son similares de unos procedimientos a otros;
existiendo elementos comunes a casi todos ellos y elementos específicos de cada procedimiento. El tamaño de
los cuadros se puede cambiar pinchando con el ratón en los bordes y arrastrando. En el siguiente apartado
veremos el procedimiento Frecuencias, y aprovecharemos para comentar el cuadro de diálogo con mayor
detalle, destacando los elementos comunes.
Por último, los resultados que se generan al aplicar los procedimientos estadísticos se van acumulando en
una nueva ventana de SPSS: el Visor de SPSS. Introduciremos las posibilidades que ofrece dicha ventana.
El alumno/a deberá ir haciendo los ejemplos que se van explicando.
Botón Función
Aceptar Llevar a cabo el análisis con los detalles especificados en el cuadro de diálogo.
Pegar (No lo veremos).
Restablecer Borrar todas las especificaciones hechas en el cuadro para elegir otras nuevas.
Cancelar Salir del cuadro, dejándolo como está, sin llevar a cabo ninguna acción.
Ayuda Desplegar la ayuda contextual correspondiente al procedimiento.
Cuando lo hayamos especificado todo, pulsamos el botón Aceptar y nos aparecerán en el Visor de SPSS
los resultados de los análisis solicitados. En la siguiente figura se muestra dicho Visor con los resultados de las
medidas solicitadas de las variables especificadas en el cuadro de diálogo. Aunque en la figura no se ven,
también deben aparecer las tablas de frecuencias correspondientes (sin agrupar en intervalos). Dichas tablas de
frecuencias tienen una columna de “Porcentaje” y otra de “Porcentaje válido”: siempre utilizaremos esta
última, en la que los porcentajes están calculados sobre el total de datos que se tiene (los datos perdidos no se
consideran). En el apartado II.5 haremos algunos comentarios para conocer algo más este Visor de SPSS.
-8-
rellenar todo automáticamente. Por último, pulsando en el botón Aplicar volveremos al cuadro anterior, y
tendremos los intervalos en la Rejilla.
Cuando se tenga completo el cuadro de diálogo principal (no olvidar poner nombre a la nueva variable
agrupada; por ejemplo, peso_interv), se pulsa el botón Aceptar y se creará dicha variable y los intervalos.
Ahora, para obtener la tabla de frecuencias con los intervalos hay que utilizar el procedimiento Frecuencias
(ver apartado II.2), pasando a la caja de la derecha la nueva variable agrupada generada, y dejando marcada la
opción Mostrar tablas de frecuencias. Hacedlo y observad el resultado en el Visor de SPSS.
Este cuadro de diálogo corresponde a la opción Simple (gráfico de barras simple). En él:
* Pasamos a la caja Eje de categorías la variable que queramos representar en el gráfico (en la figura se ha
pasado la variable Presencia de neuropatía).
* En el apartado Las barras representan marcamos la opción deseada: Nº de casos (frecuencia absoluta), %
de casos (porcentaje),… La última opción la utilizaremos en la Práctica V.
* El recuadro Plantilla (para cuando se disponen de plantillas de gráficos) no lo veremos. Tampoco veremos
el recuadro Panel mediante (útil para confeccionar un panel de gráficos pequeños según variables filas y
columnas).
* Pulsando el botón Títulos podemos escribir un título, subtítulo y pie de gráfico: espacio más que suficiente
para describir adecuadamente el gráfico.
* El botón Opciones permite, entre otras opciones, representar a los valores perdidos como una categoría más
de los datos (no se suele marcar), o representar barras de error (lo utilizaremos en la Práctica V).
-9-
* Pulsando Aceptar obtendremos el gráfico de
barras en el Visor (el gráfico se muestra al
lado).
Si elegimos la opción Agrupado para el
tipo de gráfico de barras, el cuadro de definición
del gráfico es igual al anterior, salvo que tiene
una caja en blanco adicional (Definir grupos
por) donde hay que colocar la variable que va a
determinar los grupos o categorías para las que
se va a representar un gráfico de barras de la
variable que figura en la caja Eje de categorías.
Este tipo de gráficos se debe hacer con los
porcentajes: marcar la opción “% de casos”.
Como ejemplo, introducid Presencia de
neuropatía en la caja Eje de categorías y sexo en
la caja Definir grupos por, pulsad Aceptar y
observad el resultado en el Visor: tendremos un
gráfico de barras de la presencia de neuropatía por sexos. Interpretadlo.
- 10 -
II.4.4. Histograma.
Accedemos mediante Gráficos → Cuadros de diálogo
antiguos → Histograma. Se abre entonces el cuadro de
diálogo de definición del gráfico (ver figura adjunta). En él:
* Colocamos la variable a representar en la caja Variable.
* Marcamos la opción Mostrar curva normal si deseamos
superponer una curva de densidad Normal al histograma.
* Pulsando el botón Títulos podremos escribir un título o pie
de gráfico.
* Finalmente, pulsando Aceptar obtendremos el gráfico en el
Visor de SPSS.
Haced un histograma para la variable peso del paciente, y
comentarlo.
Seleccionada una fila, columna o grupo de casillas, se pueden efectuar cambios utilizando el menú
contextual. En él encontramos, además de las opciones Cortar, Copiar, Pegar y Borrar (cuya utilidad es ya
conocida), otras opciones como: Propiedades de tabla (al pinchar en ella se abre un cuadro de diálogo con
varias pestañas y multitud de opciones de cambio para la tabla), Propiedades de casilla (igual que la opción
anterior, pero con opciones de cambio para las casillas seleccionadas; en particular nos permite, usando la
pestaña Valor de formato y la categoría Todo del cuadro de diálogo, cambiar el número de decimales visibles
- 11 -
en la fila, columna o casillas seleccionadas), Aspectos de tabla (nos permite cambiar el aspecto general de la
tabla) y otras opciones sobre Insertar, Eliminar y Ocultar/Mostrar notas al pie de la tabla.
La anchura de las columnas y de la tabla se modifica fácilmente con el ratón, pinchando en la separación
entre columnas y arrastrando. La anchura de las filas se modifica seleccionando sus casillas y cambiando los
márgenes superior e inferior de casilla, haciendo uso de la opción Propiedades de casilla (pestaña Alineación
y márgenes) del menú contextual.
Para editar el contenido de cualquier casilla, título o pie de tabla, haced doble clic y aparecerá el cursor en
modo edición de texto para poder realizar los cambios deseados.
Se puede cambiar la posición de filas (o columnas) seleccionando el título de la(s) fila(s) (o columnas) y
arrastrándolas con el ratón a la posición deseada (aparece una línea roja que nos ayuda en esta tarea).
Finalmente, para eliminar filas o columnas enteras, en primer lugar debe estar marcada la opción Ocultar
filas y columnas vacías, de la opción Propiedades de tabla (pestaña General) vista antes. Después hay que
seleccionar la(s) fila(s) (o columnas) completas que se van a suprimir, y por último eliminarlas con la tecla
Supr del teclado o con Eliminar del menú contextual.
Al terminar la edición, pinchamos fuera de la tabla editada o cerramos la ventana del editor (según el
caso) y volveremos al Visor de SPSS.
Por último, de las herramientas disponibles en la barra de herramientas del Editor (pasando el cursor
aparecen etiquetas explicativas) destaquemos: Insertar título, cuadro de texto,…(con ellas se pueden insertar
dichos elementos en el gráfico), Mostrar/Ocultar etiquetas
de datos (con ella se pueden colocar los % que les
corresponden a las barras o sectores), Desgajar sector (con
ella se puede desgajar -esto es, cortar y separar un poco- uno,
varios o todos los sectores de un gráfico de sectores) y
Deshacer (deshace la acción anterior).
Al terminar la edición, cerramos la ventana del editor y
volveremos al Visor de SPSS.
El alumno/a debe conseguir que el gráfico de sectores, hecho
en el apartado II.4.3, quede como el que se muestra al lado.
- 12 -
Bioestadística (Grado en Medicina) Guión de la Práctica III SPSS
III.1. Introducción.
En una matriz de datos podemos llevar a cabo la tarea de generar nuevas variables a partir de las ya
existentes. Las nuevas variables pueden ser generadas: como resultado de la aplicación de una fórmula en la
que interviene, generalmente, una o varias de las variables existentes en dicha matriz (procedimiento Calcular
variable), o como resultado de una transformación (recodificación) de los códigos o valores de una de las
variable de esa matriz (procedimientos Recodificar). Ambos procedimientos se encuentran en el menú
Transformar. A las nuevas variables generadas, que se añadirán al final de la matriz de datos, se les podrá
aplicar cualquier procedimiento estadístico. En esta práctica estudiaremos estos procedimientos Recodificar y
Calcular variable, y veremos también (como una aplicación de este último) la generación de números
aleatorios para extraer una muestra aleatoria.
- 13 -
En la parte izquierda del cuadro encontramos varias opciones para especificar lo que hemos llamado
Valor antiguo; se resumen en la siguiente tabla:
A cada especificación hecha de valores antiguos tendrá que corresponderle un valor nuevo, que lo
indicamos en el recuadro Valor nuevo. Hay tres opciones: 1º) escribir un único valor nuevo, 2º) tomar como
valor nuevo el perdido por el sistema y 3º) copiar los valores antiguos, esto es, no cambiar el(los) valor(es)
antiguo(s) (se tomaría como valor nuevo el mismo antiguo). En la figura de arriba, para el ejemplo del alcohol
aludido antes, aparece ya el cambio “1→0” en la caja Antiguo→Nuevo, y se ve escrito el próximo cambio:
cualquier valor antiguo desde el 2 hasta el mayor que exista (es decir, el 2 y el 3) se transformará en el nuevo
valor 1; sólo falta pulsar Añadir para que aparezca en la caja Antiguo→Nuevo. Nota: Los valores perdidos
antiguos generalmente no se suelen cambiar, por ello es aconsejable marcar las opciones Perdido por el
sistema o usuario (en Valor antiguo) y Copiar valores antiguos (en Valor nuevo), pulsando después
Añadir (sobre todo si se ha utilizado antes la opción Todos los demás valores).
Una vez especificados todos los cambios, hemos de comprobar en la caja Antiguo→Nuevo que están
correctamente escritos (aparecen en inglés; esto no está traducido). Si no lo están, siempre podremos editar
cualquiera de los cambios, seleccionándolo y utilizando los botones Cambiar o Borrar.
Las dos opciones que están debajo de la caja Antiguo→Nuevo no las vemos en las prácticas. Al finalizar,
pulsar Continuar y volveremos al cuadro Recodificar en distintas variables.
El botón Si la opción nos permite poder efectuar la recodificación sólo en un subconjunto de casos: los
que cumplan una determinada condición. La condición habrá que introducirla en un nuevo cuadro que se abre
al pulsar dicho botón, y se introduce de la misma manera que en el procedimiento Seleccionar casos, que
veremos en la próxima práctica.
Finalmente, pulsando Aceptar se lleva a cabo la recodificación y la nueva variable generada aparecerá al
final de la matriz de datos, y será una variable más de dicha matriz.
Terminad el ejemplo del alcohol, y comprobad que la nueva variable se ha obtenido correctamente. Para dicha
variable: construid la tabla de frecuencias y haced un gráfico.
- 14 -
III.3. Procedimiento Calcular variable.
Al procedimiento accedemos mediante Transformar → Calcular variable, desplegándose entonces el
cuadro de diálogo correspondiente (ver figura adjunta).
Como hemos dicho en la introducción,
este procedimiento nos permite generar
(calcular) una nueva variable, cuyo nombre
hemos de escribir en la caja Variable de
destino. Pulsando Tipo y etiqueta, podemos
especificar el tipo y una etiqueta para esa
variable. La nueva variable se calcula para
todos los casos o individuos (si no se
especifica lo contrario), y el cálculo se hace
mediante una fórmula que hemos de escribir
en la caja Expresión numérica. Dicha
fórmula combina variables, números y
funciones, con operadores matemáticos y/o
lógicos tal y como se indica a continuación.
En el ejemplo de la figura se va a calcular la
talla del paciente expresada en metros. La
fórmula es: la talla (que en la matriz de
datos está expresada en cm) dividida por
100. Como nombre de la nueva variable se
ha escrito talla_m.
Para escribir la fórmula podemos utilizar el teclado, pero es muy cómodo utilizar el bloque de botones
situado en el centro del cuadro. De este bloque, fundamentalmente utilizaremos los dígitos del 0 al 9, el punto
decimal, el botón Eliminar (borra la parte de la expresión que se tenga seleccionada), el doble paréntesis, los
operadores matemáticos (+, −, *, / y **) y el operador = (igual). Las variables de la matriz de datos que
intervengan en la fórmula hay que pasarlas de la caja de las variables al lugar que le corresponda en la fórmula
(pulsando en el botón de flecha existente entre ambas cajas, o con doble clic en la variable).
Además, en la fórmula pueden intervenir funciones. Una relación de las mismas aparece, por grupos, en la
caja Grupo de funciones. En dicha caja encontramos grupos de funciones aritméticas, estadísticas, y muchos
otros grupos. Pulsando uno de los grupos, aparecen las funciones en la caja inferior. Pulsando una de las
funciones, se muestra (justo a la izquierda) una etiqueta explicando su significado, y podemos pasar dicha
función al lugar correspondiente en la fórmula, de la misma manera que las variables. En la figura se ha
seleccionado el grupo de funciones “Estadísticas”, y dentro de él, se ha seleccionado la función “Mean” (media
de varios valores), pero simplemente para mostrarla, no para colocarla en la fórmula.
En la parte inferior del cuadro aparece el botón Si la opción, que es el mismo, y funciona de la misma
manera, que el correspondiente del procedimiento Recodificar del apartado anterior, esto es, nos permite
realizar los cálculos de la nueva variable sólo en un subconjunto de casos: los que cumplan una determinada
condición.
Finalmente, pulsando Aceptar se lleva a cabo el cálculo de la nueva variable, la cual aparecerá al final de
la matriz de datos, y será una variable más, a la que se le puede aplicar cualquier procedimiento de Estadística.
Terminad el ejemplo de la figura, y comprobad que la nueva variable expresa correctamente la talla de los
pacientes en metros.
Practicad con otro ejemplo: aunque el índice de masa corporal ya está calculado en la matriz de datos (variable
imc), volved a calcularlo (llamadle imc2). El imc se calcula como el peso en kg dividido por la talla (expresada en
metros) elevada al cuadrado. Así pues, utilizando la variable talla_m calculada antes, la fórmula sería:
peso/talla_m**2. Comprobad que los valores de la nueva variable imc2 son iguales que los de imc.
- 16 -
Bioestadística (Grado en Medicina) Guión de la Práctica IV SPSS
IV.1. Introducción.
En la primera parte de esta práctica estudiaremos procedimientos para el manejo de los datos o casos de la
matriz de datos. Veremos cómo se pueden ordenar los casos (procedimiento Ordenar casos), cómo se puede
seleccionar un grupo de casos (procedimiento Seleccionar casos) y cómo se puede dividir la matriz en varios
grupos de casos (procedimiento Dividir archivo). Los tres procedimientos pertenecen al menú Datos.
En la segunda parte de esta práctica trataremos la estimación por intervalos de confianza de una media y
los tests de normalidad; para ello utilizaremos el procedimiento Explorar (del menú Analizar). También
veremos el test para una proporción, el cual podemos llevar a cabo mediante el procedimiento Binomial (del
menú Analizar).
- 18 -
IV.4. Procedimiento Dividir archivo.
El procedimiento Dividir archivo (también llamado Segmentar archivo) divide la matriz de datos
(archivo de datos) en varios grupos, basándose en los valores de una o más variables de agrupación. Una vez
formado los grupos, los análisis que se soliciten se llevarán a cabo en cada uno de estos grupos por separado.
Accedemos al procedimiento a través de Datos → Dividir archivo. El correspondiente cuadro de diálogo se
muestra en la figura adjunta.
A la derecha del cuadro aparecen tres opciones
incompatibles. Analizar todos los casos, no crear
grupos: desactiva el procesamiento y se consideran
todos los casos en un único grupo (todos los casos se
analizarán juntos). Comparar los grupos: se forman
los grupos, y los resultados de los análisis de los
grupos se presentarán juntos en una tabla, para que
sea más cómoda la comparación entre ellos.
Organizar los resultados por grupos: se forman los
grupos, pero los resultados de los análisis de los
grupos se presentarán por separado para cada grupo.
Cuando se ha elegido una de las dos últimas
opciones se pueden seleccionar las variables
(variables de agrupación) que permitirán establecer la
división en grupos (segmentación). Estas variables hay que pasarlas, en la forma habitual, a la caja Grupos
basados en. En la figura se ha pasado sólo la variable sexo, con lo que se dividirá la matriz de datos en dos
grupos según el sexo. Si se pasan varias variables de agrupación a la caja Grupos basados en, los casos se
agruparán por cada variable dentro de las categorías de la variable anterior de la lista. Por ejemplo, si se pasan
las variables sexo y acfis, los casos se agruparán según que realicen o no actividad física dentro de cada sexo,
con lo que se formarán en total 4 grupos: hombres que realizan actividad física, hombres que no realizan
actividad física, mujeres que realizan actividad física y mujeres que no realizan actividad física.
En la parte inferior habrá que marcar la opción Ordenar archivo según variables de agrupación, si la
matriz de datos (archivo) no está previamente ordenada respecto a las variables de agrupación, o la opción El
archivo ya esta ordenado, si ya lo está. Esto es importante, porque para que el procedimiento funcione
correctamente la matriz debe estar ordenada respecto a las variables de agrupación. Finalmente pulsando
Aceptar se producirá la división (segmentación) y se formarán los grupos. Entonces, en la línea de estado
(parte inferior derecha de la ventana) se indicará que efectivamente se ha producido tal división.
Si queremos desactivar la división, volviendo a considerar todos los casos juntos (grupo único), hemos de
acceder nuevamente al procedimiento Dividir archivo, marcar la opción Analizar todos los casos, no crear
grupos y pulsar Aceptar.
Haced la división (segmentación) por sexo y actividad física, ya aludida antes. Aplicad algún procedimiento de
Descriptiva (por ejemplo Frecuencias), observando los resultados en el Visor. Después, desactivad la división.
pruebas de normalidad, para que nos proporcione las pruebas (tests) de normalidad y gráficos de
normalidad. En la parte superior del cuadro aparecen otras opciones gráficas que no hemos visto en clase,
salvo el histograma (éste sí lo podemos marcar). Las opciones de la parte inferior del cuadro tampoco las
hemos visto en clase. Pulsando Continuar, volvemos al cuadro principal. Finalmente, en el pequeño cuadro
que se abre al pulsar el botón Opciones, dejaremos marcada la opción (sobre valores perdidos) que ya aparece
marcada.
Una vez especificado todo, pulsamos Aceptar y nos aparecerán los resultados en el Visor de SPSS. Para
el ejemplo mostrado en las figuras anteriores, además de una tabla con el resumen de los casos analizados, en
el Visor aparecerá una tabla (parte de ella se muestra a continuación), donde en la columna Estadístico se
muestra la estimación de la media del índice de masa corporal (tanto puntual como por intervalo de confianza),
y tanto en hombres como en mujeres. Además, aparecen calculadas muchas otras medidas descriptivas, algunas
de las cuales no se han visto en clase (estas últimas no las consideraremos). Finalmente, en la columna Error
tip. se muestra el error estándar de la media.
- 20 -
A continuación encontraremos (en el Visor) otra tabla con los resultados de los tests de normalidad (ver
figura debajo). SPSS realiza dos tests de normalidad: el de Kolmogorov-Smirnov y el de Shapiro-Wilk (éste
último no lo da si el número de casos es muy elevado). De los dos, en general es preferible el segundo. Como
vemos en la tabla, los tests de normalidad se han hecho tanto para hombres como para mujeres (así se solicitó
en los cuadros anteriores). De los resultados de los tests de normalidad nos interesa fundamentalmente su valor
P, para poder decidir, aplicando la regla de decisión vista en clase. SPSS denota al valor P mediante “Sig.”
(abreviatura de “Significación estadística”), y siempre lo hace así, en todos los tests de hipótesis. Según los
valores P obtenidos en este ejemplo, concluiremos (para el α habitual) que el índice de masa corporal no se
ajusta a un modelo Normal, ni en hombres ni en mujeres.
Valor P Valor P
SPSS también construye gráficos de normalidad: gráficos Q-Q Normal (con y sin tendencia). Éstos nos
permiten chequear gráficamente el grado de ajuste de la variable (o los datos) al modelo Normal. La forma de
construirlos no se ha visto en clase, pero siempre están constituidos por un grupo de puntos y una recta, y la
interpretación es muy simple: mientras más ajustados estén los puntos a la recta, mejor será el ajuste de la
variable al modelo Normal. De todas formas, para decidir sobre la normalidad, nos fijaremos fundamental-
mente en el test de normalidad.
Estimad la media, y haced el test de normalidad, del índice de masa corporal para todos los individuos
(globalmente), interpretando después los resultados.
- 21 -
20%, y el test lo hace de 1 cola con H1 p 0 ,80 . Los resultados aparecen en la tabla debajo. Si deseamos
que el test sea de dos colas ( H1 p 0 ,80 ), el correspondiente valor P sería 0,0052 = 0,01.
Valor P
- 22 -
Bioestadística (Grado en Medicina) Guión de la Práctica V SPSS
V.1. Introducción.
Los objetivos de esta práctica son los estudios comparativos en los que se comparan dos medias. El
análisis estadístico de dichos estudios podemos realizarlo con SPSS utilizando varios procedimientos,
dependiendo del diseño de las muestras y del test a aplicar (paramétrico o no paramétrico). También veremos
en esta práctica los gráficos de Barras de error. Empezaremos por estos últimos.
V.3.1. Procedimiento Prueba T para muestras independientes (test t de Student m. indep. y test de Welch).
Este procedimiento realiza el test t de Student y el test de Welch para comparar dos medias con muestras
independientes. Accedemos a él a través de Analizar → Comparar medias → Prueba T para muestras
independientes. El cuadro de diálogo se muestra en la siguiente página.
A la caja Variables para contrastar llevamos la variable respecto a la que deseamos hacer la
comparación, y a la caja Variable de agrupación, la variable que va a definir los dos grupos (muestras) que
vamos a comparar. Por ejemplo, si deseamos comparar los que han tenido un tiempo de evolución de la
enfermedad (variable tevol) inferior a 11 años con los que lo han tenido igual o superior a 11 años, y si
- 23 -
queremos compararlos respecto al nivel de calcio
(variable ca), la variable que define los grupos a
comparar sería tevol. Al llevar esta última variable
a su caja correspondiente aparecerán dos signos de
interrogación, que indicarán que hemos de definir
concretamente los dos grupos a comparar.
Para definir dichos grupos pulsamos el botón
Definir grupos, y se nos abre un pequeño cuadro
(ver figura adjunta), que nos ofrece dos opciones
para ello: la primera (Usar valores especificados)
especificando los códigos o valores de ambos
grupos, y la segunda (Punto de corte) escribiendo
un punto de corte de la variable. En el ejemplo
propuesto antes, hemos de utilizar la segunda opción, y escribiremos el punto
de corte 11; así, los que tengan tiempo de evolución inferior a 11 formarán un
grupo o muestra, y los que lo tengan igual o superior a 11 constituirán el otro
grupo o muestra.
Otro ejemplo, si se desease comparar hombres con mujeres, la variable
de agrupación sería el sexo, y para definir los grupos utilizaríamos la opción
Usar valores especificados, definiendo el Grupo 1 con el código 1 (hombres)
y el Grupo 2 con el código 2 (mujeres).
De vuelta en el cuadro de diálogo principal, los signos de interrogación
se habrán cambiado por la definición de los grupos que se ha hecho (verlo en
la figura de arriba). Por otro lado, pulsando el botón Opciones se abre un nuevo cuadro, donde podemos
especificar la confianza del intervalo para la diferencia de medias que calcula el procedimiento. En Valores
perdidos se deja la opción que está marcada.
Finalmente, pulsamos Aceptar y nos aparecerán los resultados en dos tablas (en el Visor de SPSS). En la
primera se muestra un resumen (media, desviación típica y tamaño) de los dos grupos o muestras que se
comparan. La segunda tabla (ver figura debajo) incluye todos los resultados de la comparación. En la parte
izquierda de la tabla se muestra la Prueba de Levene de igualdad de varianzas (esta prueba no es la misma que
la dada en clase, pero cumple la misma función). Si el valor P de esta prueba es superior a 0,20, podemos
admitir varianzas iguales y podemos utilizar el test t de Student (los resultados de este test figuran en la
primera línea del resto de la tabla); en caso contrario (P ≤ 0,20), hemos de utilizar el test de Welch (los
resultados aparecen en la segunda línea de la tabla). También, si los tamaños de las muestras son claramente
diferentes, podríamos olvidarnos (no considerar) la Prueba de igualdad de varianzas y aplicar el test de Welch.
Para ambos tests se dan una serie de resultados; los más fundamentales son el valor P del test (se da en el caso
de dos colas) y el intervalo de confianza para la diferencia de medias.
Valor P
Valor P
Estadístico t (sin valor absoluto), g.l. Estadístico t (sin valor absoluto), g.l.
y valor P del test t de Student y valor P del test de Welch
V.3.2 Procedimiento Prueba T para muestras relacionadas (test t de Student para muestras apareadas).
Este procedimiento realiza el test t de Student para muestras apareadas. Accedemos a él a través de
Analizar → Comparar medias → Prueba T para muestras relacionadas. El cuadro de diálogo del procedi-
miento se muestra en la siguiente página.
- 24 -
En la matriz de datos de SPSS, dos muestras apareadas equivalen a dos columnas de dicha matriz (que,
como sabemos, corresponden a
dos variables). Por ejemplo, tanto
el valor tipificado de la densidad
de masa ósea en el l24 (variable
szl24) como el del triángulo
(variable sztri) se han medido en
todos los individuos, por lo que las
dos columnas de la matriz de
datos, szl24 y sztri, constituyen
dos muestras apareadas (auto-
apareadas en este caso). Así pues,
la comparación de dos muestras
apareadas equivale en SPSS a
comparar dos columnas (o un par
de variables) de la matriz de datos,
por lo que para llevar a cabo la comparación, hemos de pasar (utilizando el botón de la flecha) las dos variables
implicadas a la caja Variables emparejadas. Como vemos en la figura, a esta caja se nos permite llevar más
de un par de variables: cada par de variables se compararía por separado. A la derecha de la caja Variables
emparejadas, encontramos un botón con doble flecha para intercambiar el orden de las variables dentro del
par, y dos botones de flecha para cambiar el orden de los pares (si hay más de un par). En el ejemplo propuesto,
donde deseamos comparar la media del valor tipificado de la densidad de masa ósea en el l24 con la del
triángulo, el cuadro de diálogo debería quedar al final como el de la figura.
El botón Opciones es igual que en la Prueba T para muestras independientes.
Finalmente, pulsamos Aceptar y nos aparecerán los resultados en tres tablas. La primera muestra una
descriptiva de las dos muestras que se comparan. La segunda da la correlación entre las dos variables del par:
lo deseable es que ésta sea positiva y alta, lo que indicaría que el diseño de muestras apareadas realizado ha
sido eficiente (más eficiente que si el diseño hubiese sido de muestras independientes). La tercera (que
podemos ver a continuación) presenta: la media y desviación típica de las diferencias en la muestra (szl24 –
sztri), el intervalo de confianza para la diferencia de medias y los resultados del test t de Student.
Valor P
V.3.3 Procedimiento Pruebas (no paramétricas) para dos muestras independientes (test de Mann-Whitney).
Este procedimiento realiza, entre otros, el test de Mann-Whitney (equivalente al test de Wilcoxon para
muestras independientes). Accedemos a él a través de Analizar → Pruebas no paramétricas → Cuadros de
diálogo antiguos → 2 muestras independientes. El cuadro de diálogo del procedimiento se muestra en la
siguiente página.
La selección de la variable a contrastar y la definición de los dos grupos (muestras) es igual que en el caso
de la prueba T para muestras independientes (ver apartado V.3.1), salvo que aquí no tenemos la opción punto
de corte para definir los dos grupos.
Veamos un ejemplo en las mujeres: para ello seleccionamos previamente a las mujeres (ver procedi-
miento seleccionar casos). En ellas vamos a comparar las que realizan actividad física (código 1 de la variable
acfis) con las que no la realizan (código 2 de la variable acfis), y se van a comparar respecto al índice de masa
corporal (variable imc). Esto es, compararemos la media del imc de las que realizan actividad física con la de
las que no la realizan. El cuadro de diálogo debe quedar como el de la figura.
- 25 -
Como vemos en el cuadro de diálogo, se ofrecen
cuatro tests para la comparación. Dejamos marcado el
que ya lo está por defecto: el test U de Mann-Whitney
(el más utilizado). Por último, en la parte derecha,
encontramos el botón Opciones: en el pequeño cuadro
que se abre al pulsarlo, se nos ofrece hacer una
descriptiva de las variables, que no utilizaremos (en
dicho cuadro no cambiaremos la opción marcada
sobre valores perdidos). Si junto a ese botón aparece,
además, el botón Exactas (estará o no según la
licencia que se tenga de SPSS; en la figura no
aparece), pulsándolo se abrirá un nuevo cuadro que
nos permite realizar el test de forma exacta (si el
número de datos no es demasiado grande), por el
método de Montecarlo (no visto en clase) o de forma
asintótica (aproximada). Aunque SPSS siempre nos da los resultados de la versión asintótica (aproximada),
como es lógico, utilizaríamos la versión exacta del test, si ésta está disponible. Si el botón Exactas no está
disponible (como es nuestro caso), SPSS sólo nos dará la versión asintótica (aproximada) del test, salvo con
tamaños de muestras pequeños que también da la versión exacta.
Como siempre, al final pulsamos Aceptar y nos aparecerán los resultados del test en dos tablas (ver la
figura de más abajo). La primera tabla presenta una pequeña descriptiva de las dos muestras que se comparan,
y esta descriptiva se hace en términos de los rangos (se da el rango promedio en lugar del promedio de los
datos), ya que este test trabaja con los rangos de los datos en lugar de con los propios datos (el rango de un
dato es el número de orden, o posición, que ocupa dicho dato dentro del conjunto total de los datos ordenados
de menor a mayor). Lógicamente, aquella muestra que tenga un rango promedio mayor tendrá valores que, en
general, serán mayores que los de la otra y, por tanto, su media será (generalmente) mayor que la de la otra.
La segunda tabla nos da el estadístico del test de Mann-Whitney (U de Mann-Whitney), el del test de
Wilcoxon para muestras independientes (W de Wilcoxon) (W es la suma de rangos de la muestra con rango
promedio menor), el estadístico del test de Wilcoxon aproximado (Z) (Z es el W tipificado), el valor P del test
de Wilcoxon aproximado (Sig.) y, en su caso, el valor P del test de Wilcoxon exacto. Si finalmente el valor P
nos lleva a que el resultado es significativo, concluiremos que tendrá mayor media aquel grupo (población o
tratamiento) que haya dado un rango promedio mayor. En el ejemplo, concluiremos (para las mujeres, que son
las que tenemos seleccionadas) que la media del índice de masa corporal será mayor en las que no realizan
ejercicio físico.
V.3.4 Procedimiento Pruebas (no paramétricas) para dos muestras relacionadas (test Wilcoxon m. apareadas)
Este procedimiento nos permite hacer, entre otros, el test de Wilcoxon para muestras apareadas.
Accedemos a él con Analizar → Pruebas no paramétricas → Cuadros de diálogo antiguos → 2 muestras
relacionadas. El cuadro de diálogo se muestra en la figura de la siguiente página.
Como vimos en el apartado V.3.2, cuando se han de comparar dos muestras apareadas con SPSS, habrá
que especificar las dos columnas de la matriz (o las dos variables) implicadas, y esto se hace de la misma
manera que en la prueba T para muestras relacionadas, de hecho los cuadros de diálogos de ambos
procedimientos son casi iguales (ver apartado V.3.2).
Veamos un ejemplo. Sigamos con las mujeres seleccionadas del ejemplo del apartado anterior. En ellas
vamos a comparar la media del valor tipificado de la densidad de masa ósea en el triángulo (variable sztri) con
- 26 -
la del cuello del fémur (variable szcue). Pasamos dichas variables a la caja Contrastar pares, y el cuadro de
diálogo debe quedar como el de la figura.
En el cuadro se ofrecen varios tests para
realizar la comparación. Dejamos marcado el
que ya lo está por defecto: el test de Wilcoxon (el
más utilizado). El botón Opciones es igual que
el del anterior procedimiento Pruebas para dos
muestras independientes (ver apartado V.3.3),
pero en este caso sí lo utilizaremos, ya que la
descriptiva de las dos variables es la descriptiva
de las dos muestras apareadas que se comparan.
Si junto a ese botón aparece, además, el botón
Exactas (estará o no según la licencia que se
tenga de SPSS; en la figura no aparece),
pulsándolo se abrirá un nuevo cuadro que nos
permite realizar el test de forma exacta (si el
número de datos no es demasiado grande), por el método de Montecarlo (no visto en clase) o de forma
asintótica (aproximada). En tal caso, como es lógico utilizaríamos la versión exacta del test. Si el botón
Exactas no está, SPSS sólo nos dará la versión asintótica (aproximada) del test.
Pulsando Aceptar, los resultados se nos muestran en tres tablas, la primera con la descriptiva de las
muestras apareadas (si se ha solicitado) y las otras dos (ver la figura de más abajo) con los resultados del test.
Este test, al igual que el de Mann-Whitney, trabaja con los rangos (ver apartado anterior), pero como son
muestras apareadas, considera los rangos de las diferencias (en el ejemplo utilizará los rangos de las diferencias
szcue sztri). Las diferencias que valen 0 no se utilizan en el test (SPSS les llama empates). El resto de las
diferencias (positivas y negativas) sí tendrán sus correspondientes rangos, que SPSS llama rangos positivos y
rangos negativos (según el signo de la diferencia). Aquí, el rango de una diferencia es el número de orden, o
posición que ocupa dicha diferencia dentro del conjunto de todas las diferencias ordenadas de menor a mayor,
sin considerar el signo de la diferencia. La primera tabla de resultados nos muestra los rangos promedios y las
sumas de rangos, tanto para las diferencias negativas como para las positivas (ver la figura). En este ejemplo,
la suma de rangos de las negativas es mayor que la de las positivas, lo que querrá decir que las diferencias
negativas prevalecen sobre las positivas en la muestra y, por tanto (en el ejemplo), la media muestral de szcue
será (generalmente) menor que la de sztri.
La segunda tabla nos muestra el estadístico del test de Wilcoxon aproximado (Z) y su correspondiente
valor P (y, en su caso, el valor P del test exacto). En el ejemplo, como el valor P nos lleva a que el resultado es
claramente significativo, concluiremos (para las mujeres, que son las que tenemos seleccionadas) que la media
del valor tipificado de la densidad de masa ósea en el cuello del fémur será menor que la del triángulo, ya que
como se ha dicho antes, la suma de rangos de las negativas es mayor que la de las positivas.
- 27 -
Bioestadística (Grado en Medicina) Guión de la Práctica VI SPSS
VI.1. Introducción.
Los objetivos de esta práctica son, por una parte, las aplicaciones o problemas que se resuelven con el test
Chi-cuadrado (procedimiento Tablas de contingencia de SPSS), y por otra parte, el problema de la rela-ción
(regresión y correlación) entre dos variables cuantitativas (procedimientos Regresión lineal y Correla-ciones
bivariadas de SPSS). Como una herramienta útil en este último problema, también veremos los Gráficos de
dispersión.
- 28 -
De vuelta en el cuadro de diálogo principal, pulsando el botón Casillas se nos abre el cuadro Tablas de
contingencia: Mostrar en las casillas (ver figura en página anterior, a la derecha), donde marcaremos lo que
deseemos que aparezca en las casillas de la tabla de contingencia: frecuencias observadas, frecuencias
esperadas (observar que en este cuadro SPSS llama Recuentos a las frecuencias), porcentajes por filas, por
columnas o respecto al total. Siempre marcaremos las frecuencias observadas (de hecho vienen marcadas por
defecto). También es conveniente marcar los porcentajes por filas o por columnas, según corresponda. Las
frecuencias esperadas serán útiles para verificar las condiciones de validez del test Chi-cuadrado. El resto de
las opciones del cuadro no se ven.
Por último, con el botón Formato sólo podemos cambiar el orden de las filas de la tabla (el orden de las
columnas es siempre ascendente). Si aparece, además, el botón Exactas (estará o no según la licencia que se
tenga de SPSS; en la figura no aparece), pulsándolo se abrirá un nuevo cuadro que nos permite realizar el test
de forma exacta (si la tabla, y el número de casos en ella, no son demasiado grandes), por el método de Monte-
carlo (no visto en clase) o de forma asintótica (aproximada) (test Chi-cuadrado visto en clase). Aunque SPSS
siempre nos da esta última versión del test, como es lógico, utilizaríamos la versión exacta del test, si ésta está
disponible. Si el botón Exactas no está (como es nuestro caso), SPSS sólo nos dará la versión asintótica del
test (test Chi-cuadrado), salvo en tablas 2×2 que también nos dará la versión exacta (test exacto de Fisher).
Al final, en el cuadro de diálogo principal, pulsamos Aceptar y aparecerán los resultados en el Visor de
SPSS. Si se trata de una tabla r×c (como en el ejemplo propuesto), aparte de la tabla de resumen de los casos,
primero aparece la tabla de contingencia, con las frecuencias y porcentajes solicitados. En la figura de abajo (a
la izquierda) se muestra dicha tabla para el ejemplo anterior, con las frecuencias observadas (Recuento) y
esperadas, y los porcentajes por filas. Después aparecerá otra tabla (Pruebas de chi-cuadrado; verla debajo a
la derecha) con el test Chi-cuadrado, y otros tests que no hemos visto en clase. Al pie de la tabla nos informan
sobre las casillas con frecuencias esperadas inferiores a 5, para la verificación de las condiciones de validez del
test Chi-cuadrado.
Veamos ahora un ejemplo de tablas 2×2. Deseamos conocer si la osteoporosis en el cuello del fémur
(variable osteo_cue) está relacionada o asociada al consumo de tabaco (variable tabaco): ¿es el consumo de
tabaco un verdadero factor de riesgo para la osteoporosis en el cuello del fémur? Este problema es equivalente
a comparar las proporciones de osteoporosis en el cuello del fémur entre los “fumadores” y “no fumadores”
(con muestras independientes). Pasamos la variable tabaco a la caja Filas y la variable osteo_cue a la caja
Columnas. En el cuadro Tablas de contingencia: Estadísticos marcaremos la opción Chi-cuadrado (para
que nos haga el test Chi-cuadrado) y la opción Riesgo (para que nos dé las medidas de asociación). Por último,
para las casillas marcamos las opciones recuentos (frecuencias) Observados y porcentajes por Filas.
Los resultados que finalmente nos da SPSS son algo más amplios que en el caso de tablas r×c. En la
siguiente página se muestran para el ejemplo del párrafo anterior. La tabla de contingencia es como la del caso
r×c. En la tabla Pruebas de chi-cuadrado, como resultado del test consideraremos el que aparece en la línea
Corrección por continuidad (que es el test Chi-cuadrado de Yates: el visto en clase) o, mejor aún, el
correspondiente a la línea Estadístico exacto de Fisher (que es el test exacto de Fisher). Además nos
aparecerá, si hemos marcado la opción Riesgos, una nueva tabla (Estimación de riesgo) con las medidas de
asociación. Dicha tabla nos da el valor de la medida (estimación puntual) y el correspondiente intervalo de
confianza. ¡OJO!, para la correcta interpretación de estas medidas, el factor de riesgo debe figurar en filas (la
exposición al factor debe ser la primera fila) y la enfermedad en columnas (la presencia de la enfermedad debe
- 29 -
ser la primera columna): compruébelo en el ejemplo. La primera medida que da la tabla (Razón de las
ventajas…) es la razón del producto cruzado. La segunda es el riesgo relativo (tal como lo hemos estudiado
en clase). La tercera es el riesgo relativo para no padecer la enfermedad (no lo vemos).
Para terminar, si el objetivo es hacer una comparación de dos proporciones con muestras apareadas, los
datos se resumirán finalmente en una tabla 2×2, donde filas y columnas estarán determinadas por dos variables
dicotómicas de la matriz de datos de SPSS. Dichas variables hay que introducirlas en Filas y Columnas del
cuadro Tablas de contingencia, y después, en el cuadro Tablas de contingencia: Estadísticos hay que
marcar la opción McNemar. Por ejemplo, para comparar las proporciones de osteoporóticos en el cuello de
femur con la de osteoporóticos en el triángulo, como tenemos dos variables dicotómicas, osteo_cue y
osteo_tri, que indican la presencia de osteoporosis en esos huesos, no tenemos más que llevar una de ellas a
Filas y la otra a Columnas, y marcar McNemar. Los resultados aparecen en dos tablas (ver figura debajo). La
primera es la tabla 2×2 con los datos, y en la segunda aparece el valor P del test (que es el valor P exacto).
Valor P exacto.
- 30 -
VI.3. Regresión y Correlación.
Lo referente a la regresión y la correlación entre dos variables lo resuelve SPSS mediante los procedi-
mientos Regresión lineal y Correlaciones bivariadas. Esta metodología requiere del cumplimiento de unos
supuestos (que conocemos como modelo de regresión lineal). En este sentido, para la verificación de dos de
estos supuestos (linealidad e igualdad de varianzas), son útiles los gráficos de dispersión: empezaremos
viendo este tipo de gráficos.
Pasamos a las cajas Eje Y (eje de ordenadas: el vertical) y Eje X (eje de abscisa: el horizontal) las
variables que queremos representar en dichos ejes. El resto de las cajas no las veremos. Según la figura
(aunque no se ven los nombres completos de las variables), vamos a representar un gráfico de dispersión del
“Valor tipificado de la densidad de masa ósea del L24” (szl24) (eje Y) frente al “Valor tipificado de la
densidad de masa ósea del triángulo” (sztri) (eje X). En la parte derecha del cuadro aparecen los botones
Títulos y Opciones, que funcionan igual que en los demás gráficos (ver Práctica II). Finalmente, pulsando
Aceptar nos mostrará el gráfico en el Visor de SPSS.
Una vez que tenemos el gráfico, entrando en el editor de gráficos (hacer doble clic en el propio gráfico:
ver Práctica II) podemos, entre otras cosas, dibujar la recta de regresión. Para ello (ya dentro del editor)
utilizamos la opción Línea de ajuste total (del menú Elementos, del menú contextual o con el correspondiente
icono de la barra de herramienta). También en el editor, utilizando el Modo de etiquetas de datos (del menú
Elementos, o con el correspondiente icono de la barra de herramienta) podemos etiquetar a los individuos
(puntos del gráfico) con su número de registro. Al utilizar este “modo” el cursor cambia de aspecto y sólo
hemos de pulsar en los puntos deseados. La etiqueta que aparece junto al punto nos ayudará a localizar al
individuo que corresponde en la matriz de datos. Esto es útil para localizar individuos (puntos) extremos, los
más alejados de la recta. En la figura de la página anterior (a la derecha) se muestra el gráfico para el ejemplo
anterior, ya editado (con la recta de regresión y la etiqueta de uno de los puntos).
Haced el gráfico, comentando (sobre él) la verificación de los supuestos de linealidad e igualdad de varianzas.
- 31 -
VI.3.2. Procedimiento Regresión Lineal.
El procedimiento Regresión lineal de SPSS nos permite llevar a cabo análisis complejos de regresión
lineal (simple y múltiple), aunque la mayor parte de las opciones no las veremos. Aquí utilizaremos este
procedimiento sólo para la regresión lineal
simple (la vista en clase): haremos cálculos y
estimaciones en regresión (fundamentalmente la
recta de regresión) y el test para probar si existe
relación lineal (test de independencia).
Accedemos mediante Analizar → Regresión →
Lineales. El cuadro de diálogo del procedi-
miento se muestra al lado.
Hemos de pasar la variable Y (la del eje Y)
a la caja Dependientes y la variable X (la del eje
X) a la caja Independientes, dejando la opción
Introducir en la pequeña caja Método, donde
aparece. El resto de las cajas no las vemos.
Según la figura adjunta (aunque no se ven las
etiquetas completas de las variables) se va a
llevar a cabo un análisis de regresión lineal
simple del “Valor tipificado de la densidad de
masa ósea del L24” (szl24) (Y) frente al “Valor
tipificado de la densidad de masa ósea del triángulo” (sztri) (X). Para este mismo ejemplo ya se obtuvo antes el
gráfico de dispersión, y se verificaron los supuestos de linealidad e igualdad de varianzas. También
supondremos ya comprobado el supuesto de normalidad.
Pulsando el botón Estadísticos, nos aparece el cuadro Regresión lineal: Estadísticos (ver abajo a la
izquierda), donde hemos de marcar sólo las opciones
Estimaciones e Intervalos de confianza (para que nos
estime la recta de regresión, incluyendo IC para sus
coeficientes, y nos haga el test de independencia
mediante la pendiente) y, si se quiere, la opción
Descriptivos, que nos da una tabla con la descriptiva de
las dos variables y otra con la correlación entre ambas.
El resto de las opciones no las vemos.
Pulsando el botón Guardar, nos aparece el cuadro Regresión lineal: Guardar (ver figura a la derecha),
que nos ofrece muchas opciones de cálculo, cuyos resultados podemos guardar. Nosotros sólo marcaremos los
Valores pronosticados No tipificados (predicciones) y los Residuos No tipificados (residuales), los cuales
aparecerán al final de la matriz de datos como dos columnas (variables) adicionales. Estos valores permitirán
luego obtener un gráfico de las residuales frente a las predicciones, de utilidad en la verificación de los
supuestos (aunque no lo utilizaremos). También, las residuales determinarán los puntos más extremos (los más
alejados de la recta).
Pulsando Opciones se abre un nuevo cuadro, donde únicamente hemos de comprobar que quede marcada
la opción Incluir la constante en la ecuación, para que nos dé la altura de la recta (coeficiente a de la recta).
Las otras opciones no se modifican. Por otro lado, el botón Gráficos no lo consideraremos aquí. Finalmente,
pulsamos Aceptar y se nos muestran los resultados en el Visor de SPSS.
- 32 -
Lo fundamental de los resultados es la tabla Coeficientes (en la figura de abajo se muestra la tabla
correspondiente al ejemplo anterior). En dicha tabla se dan las estimaciones de los coeficientes de la recta de
regresión: la estimación puntual (coeficientes a y b de la recta) (la ecuación de la recta estimada será Y = a +
bX) y los respectivos intervalos de confianza. El coeficiente tipificado (beta) no lo vemos.
La tabla también muestra los resultados de los tests que contrastan si dichos coeficientes son
significativamente distintos de 0. La primera línea de la tabla (Constante) corresponde al coeficiente a (la
altura de la recta, o término independiente de la ecuación), y la segunda línea al coeficiente b (la pendiente de
la recta). Por último, hay que observar que el test para la pendiente es el test de independencia: así, si éste es
significativo, se concluye que existe relación lineal entre las dos variables, y podemos interpretar la ecuación
de la recta como expresión de dicha relación.
Coeficientes de la recta: a=0,859 y b=0,057. Estadístico t (sin valor absoluto) y valor P del
Ecuación de la recta: Y = 0,859 + 0,057X test de independencia (mediante la pendiente)
Después marcamos el tipo de correlación que queremos calcular. Si se cumplen los supuestos del modelo
lineal, como en el ejemplo anterior, marcaremos Pearson: nos dará el coeficiente de correlación lineal (o de
Pearson). Si no se cumplen dichos supuestos, y la relación es de tipo monotónica, marcaremos Spearman: nos
dará el coeficiente de correlación de Spearman. El coeficiente Tau-b de Kendall no lo vemos. También hemos
de elegir el tipo de test (Bilateral o Unilateral): generalmente el test lo hacemos bilateral (2 colas). Por otro
lado, si dejamos marcada la opción Marcar las correlaciones significativas, en los resultados SPSS pondrá
- 33 -
una marca en las correlaciones cuyo test dé significativo. Por último, con el botón Opciones podemos solicitar
una descriptiva sobre las variables (no lo utilizaremos).
Finalizado todo, pulsamos Aceptar y se nos muestran los resultados en el Visor de SPSS. En esencia nos
da una tabla con las correlaciones solicitadas (nos da el coeficiente de correlación, el valor P del test de
independencia correspondiente y el número de casos). La tabla de resultados para el ejemplo se muestra arriba
(página anterior) a la derecha. Observemos que, por la estructura de la tabla, los resultados aparecen en dicha
tabla dos veces (correlaciones de szl24 con sztri y de sztri con szl24, ambas lógicamente iguales). También, en
la tabla podemos ver la marca (dos asteriscos) que indica que la correlación es significativa. Además, la tabla
incluye la correlación de cada variable consigo misma que, como es natural, vale 1.
- 34 -