Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2
Estadística aplicada a las ciencias del deporte
Índice
Introducción .................................................................................................................................. 5
Capítulo 1. Estadística Básica. Análisis descriptivo ....................................................................... 7
1. Medidas de tendencia central y de dispersión ................................................................. 7
Medidas de tendencia central........................................................................................... 7
Cuantiles. ........................................................................................................................... 8
Medidas de dispersión .................................................................................................... 10
2. Frecuencias...................................................................................................................... 14
Tablas de contingencia .................................................................................................... 17
Capítulo 2. Contraste de medias ................................................................................................. 20
1. Contrastes paramétricos ................................................................................................. 20
Prueba t para una muestra ................................................................................................. 20
Prueba t para dos muestras independientes ...................................................................... 21
Prueba t para dos muestras relacionadas ........................................................................... 24
Análisis de la varianza (ANOVA) .......................................................................................... 26
ANOVA de un factor con medidas repetidas ...................................................................... 31
2. Contrastes no paramétricos ............................................................................................ 36
Normalidad de las variables ................................................................................................ 36
Dos muestras independientes............................................................................................. 40
Dos muestras dependientes................................................................................................ 42
Varias muestras independientes ......................................................................................... 44
Varias muestras dependientes ............................................................................................ 47
Capítulo 3. Análisis de correlación y regresión ........................................................................... 50
Análisis de correlación ............................................................................................................ 50
Análisis de regresión ............................................................................................................... 53
Gráficos con SPSS ........................................................................................................................ 58
Gráficos de barras ................................................................................................................... 59
Gráficos de líneas .................................................................................................................... 72
Gráfico de sectores ................................................................................................................. 76
Gráfico de dispersión .............................................................................................................. 79
Histograma .............................................................................................................................. 83
Diagrama de caja ..................................................................................................................... 85
Ejes dobles............................................................................................................................... 91
3
Juan José Salinero Martín
4
Estadística aplicada a las ciencias del deporte
Introducción
5
Juan José Salinero Martín
6
Estadística aplicada a las ciencias del deporte
Dependiendo del tipo de variable que estemos trabajando, un análisis u otro nos
aportará más información. Si tenemos una variable cuantitativa (peso, talla,…), las
medidas de tendencia central y de dispersión nos dan una idea clara de la información
contenida en esa variable. Por el contrario, si la variable es nominal o cualitativa (sexo,
país de nacimiento,…), un análisis de frecuencias nos aporta una información más
relevante, pues las medidas de tendencia central no tienen interés en este tipo de
variable.
Media= ΣX/N
7
Juan José Salinero Martín
Moda. Otra medida de tendencia central es la moda. Se define como aquel valor de la
variable al que corresponde máxima frecuencia. En el ejemplo anterior, tendríamos
tres modas, pues el 2, 3 y 4 aparecen dos veces cada uno.
Cuantiles.
Algunos autores incluyen éstos como medidas de posición y otros como medida de
dispersión al ser medidas de posición no centrales.
Deciles: de la misma forma que los cuartiles, sólo que en esta ocasión se trata de 9
valores, en los que cada uno de ellos concentra el 10% de los resultados.
Percentiles: el más habitual, en este caso son 99 valores que divide los datos en
tramos del 1%.
8
Estadística aplicada a las ciencias del deporte
Edad
Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos 9 6 2,9 2,9 2,9
10 34 16,4 16,4 19,3
11 39 18,8 18,8 38,2
12 30 14,5 14,5 52,7
13 23 11,1 11,1 63,8
14 31 15,0 15,0 78,7
15 29 14,0 14,0 92,8
16 8 3,9 3,9 96,6
17 6 2,9 2,9 99,5
19 1 ,5 ,5 100,0
Total 207 100,0 100,0
Cuartiles
1º cuartil (percentil 25): es el valor 11 años, ya que por debajo suya se sitúa el 25% de
la frecuencia (tal como se puede ver en la columna de la frecuencia relativa
acumulada).
2º cuartil (percentil 50): es el valor 12 años, ya que entre este valor y el 1º cuartil se
situa otro 25% de la frecuencia.
3º cuartil (percentil 75): es el valor 14 años, ya que entre este valor y el 2º cuartil se
sitúa otro 25% de la frecuencia. Además, por encima suya queda el restante 25% de la
frecuencia.
Cuando un cuartil recae en un valor que se ha repetido más de una vez (como ocurre
en el ejemplo en los tres cuartiles) la medida de posición no central sería realmente
una de las repeticiones.
9
Juan José Salinero Martín
Medidas de dispersión
Las medidas de dispersión tienen como propósito estudiar lo concentrada que está la
distribución en torno a algún promedio.
• Desviación estándar
• Varianza
• Mínimo
• Máximo
• Rango (también llamado amplitud o recorrido)
• Coeficiente de variación de Pearson
10
Estadística aplicada a las ciencias del deporte
Para calcular las medidas de dispersión en SPSS, tenemos varias opciones. La más
habitual, es seleccionando Analizar => Estadísticos descriptivos => Descriptivos, donde
introduciremos en el cuadro de la derecha la/s variable/s que queramos analizar.
Si pinchamos el botón “opciones”, podemos elegir que estadísticos nos arrojará SPSS.
Estadísticos descriptivos
N Mínimo Máximo Media Desv. típ.
Edad 207 9 19 12,56 2,089
N válido (según lista) 207
11
Juan José Salinero Martín
Si elegimos la ruta Analizar => Estadísticos descriptivos => Frecuencias (si no queremos
la frecuencia, lo indicaremos desactivando el recuadro de la esquina inferior
izquierda).
12
Estadística aplicada a las ciencias del deporte
Estadísticos
Edad
N Válidos 207
Perdidos 0
Media 12,56
Error típ. de la media ,145
Mediana 12,00
Moda 11
Desv. típ. 2,089
Varianza 4,364
Rango 10
Mínimo 9
Máximo 19
Percentiles 10 10,00
20 11,00
25 11,00
30 11,00
33 11,00
40 12,00
50 12,00
60 13,00
70 14,00
75 14,00
80 15,00
90 15,00
Existen otras rutas para obtener estos estadísticos, como Analizar => Estadísticos
descriptivos => Explorar, donde además de los estadísticos descriptivos más comunes,
podemos obtener estimadores robustos centrales y valores atípicos, entre otros.
13
Juan José Salinero Martín
2. Frecuencias
SEXO
Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos mujer 107 51,7 51,7 51,7
hombre 100 48,3 48,3 100,0
Total 207 100,0 100,0
Sexo
Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos mujer 103 49,8 50,7 50,7
hombre 100 48,3 49,3 100,0
Total 203 98,1 100,0
Perdidos Sistema 4 1,9
Total 207 100,0
14
Estadística aplicada a las ciencias del deporte
Intervalos de edad
Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos 9-11 79 38,2 38,2 38,2
12-14 84 40,6 40,6 78,7
Más de 15 44 21,3 21,3 100,0
Total 207 100,0 100,0
Frecuencia acumulada. Una vez ordenados los datos de menor a mayor, se suma la
frecuencia (o porcentaje) de cada valor a todos los anteriores, obteniéndose el valor
acumulado desde el valor más bajo hasta ese valor concreto. Como podemos observar,
SPSS arroja este dato por defecto, como porcentaje acumulado.
Edad
Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos 9 6 2,9 2,9 2,9
10 34 16,4 16,4 19,3
11 39 18,8 18,8 38,2
12 30 14,5 14,5 52,7
13 23 11,1 11,1 63,8
14 31 15,0 15,0 78,7
15 29 14,0 14,0 92,8
16 8 3,9 3,9 96,6
17 6 2,9 2,9 99,5
19 1 ,5 ,5 100,0
Total 207 100,0 100,0
15
Juan José Salinero Martín
16
Estadística aplicada a las ciencias del deporte
Tablas de contingencia
El grado de relación que existe entre estas variables no puede establecerse con la
simple observación de las frecuencias de la tabla de contingencia, sino que se debe
emplear algún estadístico que nos permita afirmar con un margen de error si existe o
no una relación de dependencia entre las variables.
17
Juan José Salinero Martín
Para obtener una tabla de contingencia con SPSS, seleccionamos Analizar =>
Estadísticos descriptivos => Tablas de contingencia, colocando una variable cualitativa
en el cuadro “Filas” y otra en “Columnas”. Al mismo tiempo, en la esquina inferior
izquierda podemos solicitar el gráfico de barras agrupadas.
Para obtener el estadístico Chi2, u otros empleados con este tipo de datos (Phi de
Cramer, Coeficiente de contingencia,…etc.), pinchamos en el botón “Estadísticos”.
18
Estadística aplicada a las ciencias del deporte
Con los valores de sexo y categorías IMC del ejemplo anterior, obtendríamos los
siguientes datos:
Pruebas de chi-cuadrado
Sig. asintótica Sig. exacta Sig. exacta
Valor gl (bilateral) (bilateral) (unilateral)
a
Chi-cuadrado de Pearson 4.718 1 .030
b
Corrección por continuidad 3.987 1 .046
Razón de verosimilitudes 4.790 1 .029
Estadístico exacto de Fisher .035 .022
Asociación lineal por lineal 4.694 1 .030
N de casos válidos 197
a. 0 casillas (.0%) tienen una frecuencia esperada inferior a 5. La frecuencia mínima esperada es
20.19.
b. Calculado sólo para una tabla de 2x2.
19
Juan José Salinero Martín
1. Contrastes paramétricos
Para ejecutar este análisis en SPSS, seleccionamos Analizar => Comparar medias =>
prueba t para una muestra (y en valor de prueba la media poblacional, en este caso
19,5)
En primer lugar, nos arroja esta tabla, que incluye los estadísticos descriptivos de
nuestra muestra.
Error típ. de la
N Media Desviación típ. media
IMC 200 20.5952 3.43318 .24276
20
Estadística aplicada a las ciencias del deporte
Diferencia de la diferencia
21
Juan José Salinero Martín
Como la prueba t sólo nos permite comparar dos grupos, SPSS no solicita que
indiquemos el código de los dos grupos que queremos contrastar. En este caso sólo
tenemos dos grupos (hombre=1, mujer =2), pero podríamos tener más, y por eso es
obligatorio definirlos pinchando en el botón “Definir grupos” para indicar al programa
que grupos queremos comparar.
Estadísticos de grupo
22
Estadística aplicada a las ciencias del deporte
Para poder afirmar o rechazar la hipótesis nula de igualdad de medias entre ambos
grupos, debemos analizar la t de student. Como podemos observar en la tabla, SPSS
nos arroja dos valores de t con su correspondiente significación, en función de la
asunción de igualdad o no de varianzas, por lo que el primer paso será comprobar este
punto. Para ello, debemos consultar el resultado de la Prueba de Levene. Esta prueba
es previa al contraste de medias. Su misión es estudiar la varianza de la medias. Si la
significación de la prueba de levene es <0,05, existen diferencias entre varianzas, por lo
que elegiríamos el resultado de la prueba t indicado como No se han asumido
varianzas iguales. Como es superior (0,647), no hay diferencias entre varianzas por lo
que elegimos la primera fila, Se han asumido varianzas iguales. Como podemos ver, la
significación de t es inferior a 0,05 (0,000), por lo que afirmamos que existen
diferencias significativas entre ambos grupos en el número de pasos diarios
(rechazamos la hipótesis nula de igualdad de medias entre hombres y mujeres en esta
variable). Esto se refrenda observando el intervalo de confianza para la diferencia, que
no incluye el cero (la diferencia entre las medias no puede ser igual a 0).
23
Juan José Salinero Martín
Para realizar este cálculo con SPSS, seleccionamos Analizar => comparar medias =>
prueba t para muestras relacionadas.
Introducimos en el cuadro de “variables emparejadas” las dos variables que queremos
comparar (pasos laborables y pasos festivos, en este ejemplo). Sólo permite comparar
pares de variables (2 muestras relacionadas), pero sí podemos realizar a la vez la
comprobación de varios pares, incluyéndolo en filas sucesivas (Par 1, Par 2,…).
Error típ. de la
Media N Desviación típ. media
Par 1 Pasos laborables 11274.6574 45 3131.06088 466.75100
24
Estadística aplicada a las ciencias del deporte
N Correlación Sig.
Diferencias relacionadas
95% Intervalo de
confianza para la
25
Juan José Salinero Martín
En el cuadro “Factor”, incluimos la variable que nos define los grupos (variable
independiente) y en el cuadro “Lista de dependientes”, la variable en la que queremos
comprobar si existen diferencias entre los grupos.
26
Estadística aplicada a las ciencias del deporte
27
Juan José Salinero Martín
Descriptivos
Steps
Intervalo de confianza
para la media al 95%
Desviación Error Límite Límite
N Media típica típico inferior superior Mínimo Máximo
Primaria 56 11017,7 3222,1 430,5 10154,8 11880,6 5070 21733
1º Secundaria 56 10325,3 3178,6 424,7 9474,1 11176,6 3337 20052
2º Secundaria 56 9792,4 2699,2 360,7 9069,5 10515,2 4940 16348
Total 168 10378,5 3065,8 236,5 9911,5 10845,5 3337 21733
ANOVA
Steps
Suma de Media
cuadrados gl cuadrática F Sig.
Inter-grupos 4,228E7 2 2,114E7 2,283 ,105
Intra-grupos 1,527E9 165 9257402,935
Total 1,570E9 167
28
Estadística aplicada a las ciencias del deporte
ANOVA
IMC
Suma de Media
cuadrados gl cuadrática F Sig.
Inter-grupos 236,473 2 118,236 11,044 ,000
Intra-grupos 2109,091 197 10,706
Total 2345,564 199
Para saber entre qué grupos se establecen estas diferencias, ya que tenemos 3 grupos,
debemos realizar las pruebas post hoc. Como no existen diferencias entre las varianzas
(sig. Levene 0,003), utilizaremos la prueba de Tukey. Para ello, volvemos a ejecutar el
ANOVA, pero en esta ocasión, en el botón “Post hoc” seleccionaremos Tukey.
29
Juan José Salinero Martín
Ahora, junto a los anteriores resultados, además arroja la siguiente tabla, donde
podemos observar el contraste de medias para cada par de grupos. Observamos que la
significación para el par Primaria-1º secundaria arroja una significación de 0,985, y por
tanto no existen diferencias significativas entre ellos. Sí existen diferencias, por el
contrario, entre 2º secundaria y los otros dos ciclos (sig.=0,000 en ambos casos).
Comparaciones múltiples
IMC
HSD de Tukey
(I) Ciclos Primaria - (J) Ciclos Primaria - Intervalo de confianza al
Secundaria Secundaria 95%
Diferencia de Error Límite Límite
medias (I-J) típico Sig. inferior superior
Primaria 1º Secundaria
dimension3
-,09 ,56 ,985 -1,42 1,24
*
2º Secundaria -2,37 ,55 ,000 -3,68 -1,06
1º Secundaria
dimension2
Primaria
dimension3
,09 ,56 ,985 -1,24 1,42
*
2º Secundaria -2,28 ,58 ,000 -3,66 -,88
*
2º Secundaria Primaria
dimension3
2,37 ,55 ,000 1,06 3,68
*
1º Secundaria 2,28 ,58 ,000 ,88 3,66
*. La diferencia de medias es significativa al nivel 0.05.
30
Estadística aplicada a las ciencias del deporte
El diseño más simple de medidas repetidas consiste en medir dos variables en una
misma muestra de sujetos. Ya vimos anteriormente que esto se trataba con la prueba t
para muestras relacionadas. Cuando tenemos más de dos medidas, debemos emplear
un modelo de análisis de la varianza con medidas repetidas. Por tanto, los datos que
permite analizar este modelo son los procedentes de un diseño con un solo grupo y un
único factor cuyos niveles (medidas) se aplican a todos los sujetos.
Este es el caso más simple del ANOVA de medidas repetidas, ya que también podemos
encontrarnos con casos de más de un factor (inter-grupo o intra-grupo), pero eso
escapa a los contenidos de este capítulo.
Ilustremos esto con un ejemplo. Tenemos un grupo de deportistas, a los que hemos
realizado tres test de flexibilidad en condiciones diferentes (inicial, tras calentamiento,
y tras estiramiento). Para contrastar si existen diferencias entre el resultado de los test,
emplearemos el ANOVA de un factor con medidas repetidas.
Para realizar este procedimiento con SPSS, Analizar => modelo lineal general =>
medidas repetidas
31
Juan José Salinero Martín
Para que se nos muestren los estadísticos descriptivos de las diferentes medidas,
pinchamos el botón “Opciones” y añadimos el factor (Flexibilidad en este caso) al
cuadro de la derecha, y seleccionamos la opción “Estadísticos descriptivos” del
cuadro de visualización.
32
Estadística aplicada a las ciencias del deporte
De los resultados que nos ofrece SPSS, en primer lugar aparecen los estadísticos
descriptivos de las tres medidas.
Estadísticos descriptivos
Desviación
Media típica N
Flex_frío 17,973 7,7864 26
Flex_calentamiento 21,1250 7,04320 26
Flex_estiramiento 21,277 7,4783 26
33
Juan José Salinero Martín
b
Contrastes multivariados
Efecto Gl de la Gl del
Valor F hipótesis error Sig.
a
Flexibilidad Traza de Pillai ,751 36,126 2 24 ,000
a
Lambda de Wilks ,249 36,126 2 24 ,000
a
Traza de Hotelling 3,011 36,126 2 24 ,000
a
Raíz mayor de Roy 3,011 36,126 2 24 ,000
a. Estadístico exacto
b. Diseño: Intersección
Diseño intra-sujetos: Flexibilidad
Para saber entre qué medidas se establecen las diferencias, no disponemos de pruebas
post hoc, como en el caso de ANOVA de un factor. No obstante, pinchando en el botón
“opciones”, podemos indicarle a SPSS que “compare los efectos principales”, lo cual
sirve para comparar dos a dos los distintos niveles del factor, y seleccionaremos el
ajuste del intervalo de confianza mediante la corrección de Bonferroni.
34
Estadística aplicada a las ciencias del deporte
Al aceptar de nuevo, ahora, junto a los anteriores resultados, nos muestra la siguiente
tabla, donde podemos ver como existen diferencias significativas entre la primera
medida y las otras dos (1-2, 1-3), al ser la significación menor que 0,05 (y no incluir el 0
el intervalo de confianza para la diferencia). Por el contrario, entre 2 y 3, no existen
diferencias significativas.
Para identificar a qué medidas corresponden los números 1 a 3, se muestra una tabla
de equivalencia al principio de los resultados.
Factores intra-sujetos
Medida:MEASURE_1
Flexibilidad Variable dependiente
1 Flex_frío
2
dimension1
Flex_calentamiento
3 Flex_estiramiento
35
Juan José Salinero Martín
2. Contrastes no paramétricos
Los contrastes de medias vistos hasta ahora (prueba t, ANOVA, medidas repetidas)
requieren que exista una distribución normal en las variables contrastadas. Cuando no
se cumple este supuesto de normalidad, debemos recurrir a los Contrastes No
Paramétricos.
Por tanto, el primer paso será comprobar la normalidad de las variables a contrastar, y
posteriormente utilizar el contraste de medias adecuado.
Para esto, se suele emplear un estadístico denominado K-S (Kolmogorov-Smirnov para
una muestra) o la prueba de Shapiro-Wilk. Por norma general, el primero es más
adecuado para muestras más numerosas (a partir de 30-40 participantes), mientras
que el segundo se emplea en mayor medida para muestras pequeñas.
Ambas son una prueba de bondad de ajuste: sirven para contrastar la hipótesis nula de
que la distribución de una variable se ajusta a una determinada distribución teórica de
probabilidad (la distribución normal en el caso que nos ocupa). Por lo tanto, si la
significación asociada a estos estadísticos es inferior a 0,05, podremos rechazar la
igualdad entre la distribución normal y la distribución de la variable analizada, por lo
que podremos rechazar la normalidad de esa variable.
Para poder calcular ambas en SPSS, debemos selección Analizar => Estadísticos
descriptivos => Explorar, e incorporamos la/s variable a contrastar en el cuadro “Lista
de dependientes”. Dentro de este cuadro, elegir el botón “Gráficos” y pinchar en
“Gráficos con pruebas de normalidad”.
36
Estadística aplicada a las ciencias del deporte
Ejecutando con estas condiciones, entre otros resultados obtenemos esta tabla, donde
se muestran ambas pruebas de bondad de ajuste, con su correspondiente nivel de
significación. En ambos casos, podemos comprobar que sí existen diferencias
significativas entre la distribución de las variables “Días más de 60’ actividad
moderada’” y “Días más de 20’ actividad intensa’” y la distribución normal, al ser la
significación inferior a 0,05, por lo que podemos afirmar que estas variables no tienen
una distribución normal.
Pruebas de normalidad
a
Kolmogorov-Smirnov Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
Días más de 60' actividad ,151 169 ,000 ,931 169 ,000
moderada
Días más de 20' actividad ,480 169 ,000 ,448 169 ,000
intensa
a. Corrección de la significación de Lilliefors
Para ejecutar sólo la prueba de K-S, podemos hacerlo en otra ruta. Analizar => pruebas
no paramétricas => Una muestra. Por defecto SPSS nos incluye todas las variables de
nuestra base de datos en el cuadro “Campos de prueba”. Por tanto, cambiaremos al
cuadro de la izquierda todas las variables que no queramos analizar, dejando sólo la/s
de nuestro interés.
37
Juan José Salinero Martín
38
Estadística aplicada a las ciencias del deporte
Cabe mencionar que desde esta ruta, se calcula K-S sin la corrección de Lilliefors, de ahí
que sea menos exigente y el nivel de significación para la misma variable sea diferente
(más elevado). Además, cabe mencionar que desde la opción de pruebas no
paramétricas, se muestra tanto la hipótesis de partida (hipótesis nula), como la
significación encontrada y la decisión a tomar en función de este nivel de significación.
39
Juan José Salinero Martín
En el caso de que tengamos que comparar las medias de dos muestras independientes
y no podamos utilizar la prueba t por el incumplimiento de la normalidad, o porque la
variable sea de carácter ordinal, existen pruebas no paramétricas, como es la U de
Mann-Whitney. Por ejemplo, si queremos contrastar si existen diferencias entre sexos
(2 grupos) en la variable “Días más de 60’ de actividad moderada”, emplearemos este
análisis, ya que hemos comprobado que esta variable no presenta distribución normal.
Para emplear esta prueba con SPSS, seleccionamos Analizar => Pruebas no
paramétricas => Muestras independientes. Aquí, incluimos la variable dependiente en
“Campos de prueba” y la variable que define los grupos (variable independiente) en
“Grupos”. Al igual que para el cálculo de la prueba K-S, si no modificamos ningún
parámetro más, obtendremos el cálculo de la U de Mann-Whitney, alternativa no
paramétrica de la prueba t para muestras independientes.
40
Estadística aplicada a las ciencias del deporte
Como podemos observar en la siguiente tabla, SPSS nos arroja, al igual que en la
prueba de K-S, la hipótesis nula de partida (la igualdad entre ambos grupos), la
significación de la prueba ejecutada (0,151) y la decisión a tomar (aceptar la hipótesis
nula), concluyendo que no existen diferencias significativas entre hombres y mujeres
en los días de práctica de más de 60 minutos de actividad física moderada.
41
Juan José Salinero Martín
Para realizar este análisis en SPSS, Analizar => Pruebas no paramétricas => Muestras
relacionadas. Al incluir dos variables en el campo de prueba, ejecutará
automáticamente la prueba de Wilcoxon. Si incluímos más variables, realizaría la
prueba de Kruskall-Wallis que veremos a continuación.
42
Estadística aplicada a las ciencias del deporte
43
Juan José Salinero Martín
Para calcularlo con SPSS, Analizar => Pruebas no paramétricas => Muestras
independientes. En la pestaña “Campos”, al igual que en la U de Mann-Whitney,
incluimos la variable dependiente en “Campos de prueba” y la variable que define los
grupos en “Grupos”, solo que en esta ocasión esta variable debe definir más de dos
grupos (si esta variable define dos grupos, SPSS automáticamente calcula U de Mann-
Whitney, mientras que si define tres o más grupos, ejecuta H de Kruskall-Wallis).
44
Estadística aplicada a las ciencias del deporte
Para poder realizar el contraste por pares, debemos realizar 3 pruebas U de Mann-
Whitney (1-2, 1-3, 2-3). De la forma explicada anteriormente, SPSS no permite indicar
los grupos con los que debe realizarse el cálculo, por lo que debemos entrar por la ruta
Analizar => Pruebas no paramétricas => Cuadro de diálogos antiguos => 2 muestras
independientes.
Aquí, introducimos la variable dependiente en “lista contrastar variables” y la variable
de agrupación en el recuadro inferior.
45
Juan José Salinero Martín
Tendremos que realizar este proceso 3 veces, indicando cada vez un contraste de pares
diferente, pinchando sobre el botón “Definir grupos”, para indicar qué grupos de los 3
que define esa variable debe comparar.
Por este procedimiento, obtenemos esta tabla, donde podemos observar el nivel de
significación del estadístico y afirmar en este caso que sí existen diferencias
significativas entre esos dos grupos, al ser la significación inferior a 0,017 (corrección
de Bonferroni).
a
Estadísticos de contraste
Días más de 60'
actividad
moderada
U de Mann-Whitney 984,000
W de Wilcoxon 2524,000
Z -3,565
Sig. asintót. (bilateral) ,000
a. Variable de agrupación: Ciclos Primaria
- Secundaria
46
Estadística aplicada a las ciencias del deporte
Permiten analizar datos provenientes de diseños con medidas repetidas y más de dos
medidas. Para datos ordinales emplearemos la prueba de Friedman.
Al igual que en el anterior apartado (prueba para varias muestras independientes),
estas pruebas solo nos informan de diferencias entre medidas, pero no de qué medidas
se trata, por lo que si aparecen diferencias, debemos realizar una prueba para dos
muestras relacionadas (prueba de Wilcoxon) con todos los pares de medidas posibles y
establecer la corrección de Bonferroni para el nivel de significación.
Para calcularlo con SPSS, Analizar => Pruebas no paramétricas => Muestras
relacionadas. En la pestaña “Campos”, al igual que en la W de Wilcoxon, en “Campos
de prueba” incluimos las tres o más variables que queremos contrastar (si sólo
incluimos dos, calcularía W de Wilcoxon).
47
Juan José Salinero Martín
En la siguiente tabla, podemos comprobar que nos indica rechazar la hipótesis nula de
igualdad entre las tres medidas y concluir por tanto que existen diferencias
significativas al menos entre dos de ellas.
Para poder realizar el contraste por pares, debemos realizar 3 pruebas W de Wilcoxon
(1-2, 1-3, 2-3). De la forma explicada anteriormente, SPSS no permite realizar el cálculo,
por lo que debemos entrar por la ruta Analizar => Pruebas no paramétricas => Cuadro
de diálogos antiguos => 2 muestras relacionadas.
Aquí, introducimos las variables en “contrastar pares” de dos en dos y aceptamos.
48
Estadística aplicada a las ciencias del deporte
b
Estadísticos de contraste
ApoyoIguales - ApoyoProfesor - ApoyoProfesor -
ApoyoFamilia ApoyoFamilia ApoyoIguales
a a a
Z -4,427 -7,277 -4,246
Sig. asintót. (bilateral) ,000 ,000 ,000
a. Basado en los rangos positivos.
b. Prueba de los rangos con signo de Wilcoxon
49
Juan José Salinero Martín
Análisis de correlación
Esta representación, aunque es muy útil para ver como se distribuyen los datos, no nos
ofrece una información práctica, es decir, no nos permite saber si la relación entre
ambas variables (peso y talla en este ejemplo) es lo suficientemente “fuerte” para
tenerla en cuenta. No siempre la nube de puntos presenta un agrupamiento tan claro
como el ejemplo anterior, por lo que debemos calcular algún coeficiente de correlación
que nos permita cuantificar el grado en que se da esa correlación.
dispersión se situarían agrupados en forma de línea recta. Una relación lineal nula
equivaldría a un valor del coeficiente de 0.
Para calcular la correlación entre dos variables en SPSS, Analizar => Correlaciones =>
Bivariadas. En el cuadro “Variables” introducimos las variables a relacionar. Si éstas
tienen distribución normal, dejamos la opción por defecto (Pearson). En caso contrario,
marcaríamos Spearman.
51
Juan José Salinero Martín
Correlaciones
TALLA PESO
**
TALLA Correlación de Pearson 1 ,764
Sig. (bilateral) ,000
N 201 200
**
PESO Correlación de Pearson ,764 1
Sig. (bilateral) ,000
N 200 203
**. La correlación es significativa al nivel 0,01 (bilateral).
Correlaciones
TALLA PESO Steps Calorías
** **
TALLA Correlación de Pearson 1 ,764 -,136 ,526
Sig. (bilateral) ,000 ,081 ,000
N 201 200 167 165
** **
PESO Correlación de Pearson ,764 1 -,073 ,712
Sig. (bilateral) ,000 ,348 ,000
N 200 203 168 166
**
Steps Correlación de Pearson -,136 -,073 1 ,429
Sig. (bilateral) ,081 ,348 ,000
N 167 168 168 164
** ** **
Calorías Correlación de Pearson ,526 ,712 ,429 1
Sig. (bilateral) ,000 ,000 ,000
N 165 166 164 166
**. La correlación es significativa al nivel 0,01 (bilateral).
52
Estadística aplicada a las ciencias del deporte
Análisis de regresión
Pero en las situaciones más comunes, es posible trazar más de una recta diferente.
Obviamente, no todas ellas se ajustarán con la misma fidelidad a la nube de puntos. Se
trata, por tanto, de encontrar la recta capaz de convertirse en el mejor representante
del conjunto total de puntos. Existen diferentes procedimientos para ajustar una
función simple, cada uno de los cuales intenta minimizar una medida diferente del
grado de ajuste. La opción más utilizada es la recta que hace mínima la suma de los
cuadrados de las distancias verticales entre cada punto y la recta (método de mínimos
cuadrados). Esto significa que, de todas las rectas posibles, existe una y sólo una que
consigue que las distancias verticales entre cada punto y la recta sean mínimas (se
elevan al cuadrado para que no se anulen las positivas con las negativas).
Para ejecutar este procedimiento con SPSS, Analizar => Regresión => Lineal
Introducimos nuestra variable dependiente e independiente en los respectivos cuadros
y aceptamos.
53
Juan José Salinero Martín
La tabla de ANOVA muestra información sobre si existe una relación significativa entre
variable dependiente e independiente. (ANOVA contrasta que el valor obtenido de R es
significativamente diferente de 0, que en el caso de la regresión simple equivale a decir
que la pendiente de la recta es 0; por lo que con este resultado descartamos esta
hipótesis, la pendiente es significativamente distinta de cero).
b
ANOVA
Modelo Suma de Media
cuadrados gl cuadrática F Sig.
a
1 Regresión 17844,513 1 17844,513 277,705 ,000
Residual 12722,907 198 64,257
Total 30567,420 199
a. Variables predictoras: (Constante), PESO
b. Variable dependiente: TALLA
54
Estadística aplicada a las ciencias del deporte
a
Coeficientes
Modelo Coeficientes
Coeficientes no estandarizados tipificados
B Error típ. Beta t Sig.
1 (Constante) 118,85 2,29 51,97 ,000
PESO ,730 ,044 ,764 16,66 ,000
a. Variable dependiente: TALLA
Por tanto, lo que se busca es la mejor combinación de variables que permita establecer
el pronóstico más preciso de la predicción. También nos interesa saber en qué medida
contribuye cada uno de las variables independientes en el total de la varianza
explicada. Desde el punto de vista práctico, es aconsejable encontrar el menor número
de variables independientes que nos den la mayor cantidad de varianza explicada de la
variable dependiente.
55
Juan José Salinero Martín
Cabe decir que estos modelos de regresión tienen una gran especificidad poblacional.
Las ecuaciones desarrolladas a partir de una muestra concreta a menudo pierden una
precisión considerable cuando se aplican a otras muestras, lo que recibe el nombre de
reducción. Si calculamos una ecuación de regresión en una muestra de hombres
adultos para el cálculo de la composición corporal, no podríamos extrapolar esta a
mujeres o a adolescentes, por ejemplo, pues seguramente perdería mucha precisión.
Para ejecutar la regresión múltiple en SPSS, Analizar => Regresión => Lineal
En dependiente, introducir la variable que queremos estimar a partir de las variables
independientes (más de una).
56
Estadística aplicada a las ciencias del deporte
b
ANOVA
Modelo Suma de Media
cuadrados gl cuadrática F Sig.
a
1 Regresión 4501856,110 2 2250928,055 367,636 ,000
Residual 985757,355 161 6122,716
Total 5487613,465 163
a. Variables predictoras: (Constante), Steps, PESO
b. Variable dependiente: Calorías
a
Coeficientes
Modelo Coeficientes
Coeficientes no estandarizados tipificados
B Error típ. Beta t Sig.
1 (Constante) -540,179 33,499 -16,125 ,000
PESO 11,202 ,469 ,799 23,880 ,000
Steps ,029 ,002 ,482 14,396 ,000
a. Variable dependiente: Calorías
57
Juan José Salinero Martín
Para ejecutar gráficos en SPSS, además de diferentes rutas que permiten pedirlos
conjuntamente con el análisis estadístico (Frecuencias, Explorar, Tablas de
contingencia,…etc.) tiene una herramienta específica para este propósito. Para
acceder, debemos seguir la siguiente ruta: Gráficos => Generador de gráficos
58
Estadística aplicada a las ciencias del deporte
Gráficos de barras
59
Juan José Salinero Martín
60
Estadística aplicada a las ciencias del deporte
61
Juan José Salinero Martín
62
Estadística aplicada a las ciencias del deporte
Una vez introducida una variable nominal en el eje x, si introducimos una variable de
escala en el eje y, nos muestra la media de esta variable de cada uno de los grupos
definidos por la variable nominal.
63
Juan José Salinero Martín
64
Estadística aplicada a las ciencias del deporte
65
Juan José Salinero Martín
66
Estadística aplicada a las ciencias del deporte
67
Juan José Salinero Martín
68
Estadística aplicada a las ciencias del deporte
69
Juan José Salinero Martín
Una última opción es incorporar dos variables nominales en el eje x, dejando libre el
eje y. Entonces, se mostrará un gráfico de frecuencias en el que se mostrarán los casos
que cumplen ambos criterios de clasificación (representación gráfica de una tabla de
contingencia).
70
Estadística aplicada a las ciencias del deporte
71
Juan José Salinero Martín
Gráficos de líneas
72
Estadística aplicada a las ciencias del deporte
73
Juan José Salinero Martín
74
Estadística aplicada a las ciencias del deporte
75
Juan José Salinero Martín
Gráfico de sectores
Introduciendo una variable nominal en el recuadro inferior (sectores por) nos ofrece
un gráfico de sectores, en el que se muestra el número de casos que tenemos dentro
de cada grupo de la variable nominal.
76
Estadística aplicada a las ciencias del deporte
77
Juan José Salinero Martín
78
Estadística aplicada a las ciencias del deporte
Gráfico de dispersión
Tras elegir el gráfico dispersión simple, introducimos una variable de escala en el eje x
y otra en el eje y, con lo que obtenemos un gráfico que nos representa el peso y la talla
de cada uno de los participantes.
79
Juan José Salinero Martín
80
Estadística aplicada a las ciencias del deporte
81
Juan José Salinero Martín
82
Estadística aplicada a las ciencias del deporte
Histograma
83
Juan José Salinero Martín
84
Estadística aplicada a las ciencias del deporte
Diagrama de caja
Este gráfico es muy útil porque aporta información de interés, como cuartiles y valores atípicos
y extremos. Los bordes superiores e inferiores de la caja son el cuartil 1 y 3, y la franja central
representa la mediana (cuartil 2). Los “bigotes”, las líneas que se desplazan arriba y abajo,
representan los valores más grandes (arriba) y los más bajos (arriba) que no llegan a ser
atípicos. Los valores atípicos y extremos son aquellos alejados más de 1,5 (3 para extremos)
longitudes de caja del percentil 75 si es por arriba, o del 25 si es por abajo.
El diagrama de caja más sencillo consiste en introducir una variable de escala en el eje vertical.
85
Juan José Salinero Martín
Aquí podemos observar que tenemos un caso atípico (los extremos se representan con un *),
así como visualizar dónde se sitúan los cuartiles 2, 3 y 4.
86
Estadística aplicada a las ciencias del deporte
Si además incorporamos una variable cualitativa en el eje x, obtendremos una caja para cada
categoría definida por esa variable.
87
Juan José Salinero Martín
88
Estadística aplicada a las ciencias del deporte
89
Juan José Salinero Martín
90
Estadística aplicada a las ciencias del deporte
Ejes dobles
Por último, este tipo de gráfico resulta de utilidad cuando queremos representar las medias de
dos variables simultáneamente, pero ambas están en dos escalas muy diferentes, por lo que si
representamos ambas en el mismo eje, la de escala menor no se percibiría con claridad. En
este gráfico, ubicaremos cada variable dependiente en un eje vertical, colocando nuestra
variable independiente (medida a nivel nominal) en el eje horizontal. En este ejemplo, en el eje
de la derecha, el IMC oscila en torno a 20, mientras que el número de pasos está cerca de
10.000, por lo que una representación en un solo eje provocaría que los valores de IMC fuesen
inapreciables.
91
Juan José Salinero Martín
92