Está en la página 1de 67

MANEJO DEL PROGRAMA

1.- ENTRAR EN SPSS


Para entrar en SPSS, si no se dispone de acceso directo en el escritorio, se
seguirá la secuencia Inicio – Programas – SPSS - SPSS 10.0 para Windows. Una vez
que se ha entrado al programa, aparece la siguiente pantalla:
Desde esta pantalla se puede acceder
directamente a una base de datos utilizada
recientemente (Abrir una fuente de datos
existente), o crear una base de datos en
blanco para introducir datos (Introducir
Datos), etc.
Para salir de la pantalla, pulsar Cancelar.
En caso de no querer que aparezca esta
pantalla la próxima vez que se acceda al
programa, señalar la opción

2.- CREACIÓN DEL FICHERO DE DATOS


Para empezar a trabajar con el programa SPSS lo primero que hay que hacer
es construir el fichero de datos. Para ello se seguirán una serie de pasos, antes o
después de introducir los valores.

Este es el aspecto que


presenta una base de
datos vacía.
Nótese la existencia de dos
pestañas en la parte
inferior, una llamada "Vista
de datos" (activada) y la
otra "Vista de variables"
(desactivada)
En la "Vista de datos" aparecen las variables colocadas en columnas y los
sujetos en filas.

En la "Vista de variables" encontramos


que éstas están colocadas en filas,
mientras que en las columnas se sitúa
cada una de las características que las
define, y que veremos más adelante.

2.1.- DEFINICIÓN DE VARIABLES


Las variables se definen desde la "Vista de variables", donde encontramos,
como hemos visto antes, una columna para cada característica:
2.1.1.- Nombre  Pinchando con el ratón sobre la celdilla correspondiente al nombre
de la variable que estamos definiendo, podemos escribir directamente el nombre de la
misma (máximo 8 caracteres).
2.1.2.- Tipo  Al pinchar sobre la celdilla, aparece un cuadro gris y al
pinchar sobre el, accedemos a la siguiente pantalla:

En esta opción se le indica al programa


con qué tipo de datos estamos
trabajando, así como el ancho de las
celdillas y si quieren incluirse decimales.

2.1.3.- Anchura  A través de esta opción se puede modificar la anchura de las


celdillas que se había seleccionado en la pantalla anterior

2.1.4.- Decimales  Igualmente, a través de esta opción modificar el número de


decimales que tendrán los datos, ya seleccionado en el apartado 2.2.1.Tipo

En ambos casos se puede escribir directamente el número de


decimales en la celdilla activada (seleccionada con el ratón) o
mover las flechas hasta encontrar el que se quiere.
2.1.5.- Etiqueta  La etiqueta de la variable corresponde al nombre completo de la misma,
que aparecerá en las salidas. Para asignarla etiqueta de la variable, se escribe
directamente sobre la celdilla activada (seleccionada con el ratón)

2.1.6.-Valores  Son los diferentes valores que puede tomar la variable. Se van añadiendo a
la lista, mediante el botón Añadir. Se pueden introducir modificaciones con los botones
Cambiar y Borrar.

En Valor se escribe el valor de la categoría y


el Etiqueta de valor, su nombre
correspondiente. Para que sea aceptado hay
que pinchar Añadir y se sitúa en la ventana
de abajo.

Ejemplo  En el caso de estar definiendo la variable sexo, los valores que puede tomar la
variable son dos: Mujer y Hombre, le asignamos a las mujeres un 1 y a los hombres un 2.

2.1.7.- Valores perdidos  Accediendo a esta ventana, el programa pide que se le


especifiquen los valores que no tiene que incluir en el análisis (errores del sistema,
espacios en blanco, etc.)

Se accede a esta ventana pinchando el


extremo derecho (sombreado en gris) de la
celdilla.

2.1.8.- Columnas  Esta opción permite rectificar, si fuera necesario, el ancho de la


columna (especificado ya en 2.1.2.- Tipo)
Tal como hicimos en las opciones 2.1.3. y 2.1.4, se puede escribir directamente
el ancho de la columna en la celdilla activada (seleccionada con el ratón) o mover las
flechas hasta encontrar el que se quiere.
2.1.9.- Alineación  En esta opción se ajusta al gusto la alineación de los caracteres,
es decir, se especifica como se quiere que aparezcan los datos en las columnas,
alineados a la derecha, en el centro, o alineados a la izquierda.

Al acceder a la celdilla (pinchando con el ratón en su extremo derecho, en


el que aparece una flecha), se despliega un cuadro en el que hay que
seleccionar la opción deseada, pinchando sobre ella.

2.1.10. Medida  Por último, en esta opción se determina el nivel de medición de la


variable, pudiendo elegir entre Nominal, Ordinal o Intervalo.

Al acceder a la celdilla (pinchando con el ratón en su extremo derecho, en


el que aparece una flecha), se despliega un cuadro en el que hay que
seleccionar la opción deseada, pinchando sobre ella.

Al ir definiendo cada una de las variables del fichero, puede ocurrir que
queramos utilizar la misma opción para más de una variable. En lugar de ir definiendo
cada variable, se puede copiar la información de una (con Ctrl + C o Edición + Copiar)
y pegarla en otra/s (con Ctrl + V o Edición + Pegar).
Por ejemplo, si queremos utilizar los mismos "Valores" para más de una
variable, basta definirlos para una, a continuación se selecciona la celdilla que
corresponde la los Valores de esa variable, se pincha Ctrl + C o Edición + Copiar, y se
selecciona el resto de variables que van a llevar los mismos valores (seleccionado con
el ratón las celdillas correspondientes a los valores), y se pincha Ctrl + V o Edición +
Pegar. Esto puede hacerse con todas las opciones menos con el Nombre de la
variable.
Una vez que están todas las variables definidas se meten los datos (la
operación puede realizarse a la inversa, metiendo primero los datos y definiendo

Este es el aspecto que muestra la


Vista de Variables, una vez que se
han definido todas, con la
información correspondiente a cada
opción.
después las variables), el fichero de datos presentaría un aspecto similar al de la figura
siguiente:

Este es el aspecto que muestra la


Vista de Datos, una vez que se han
introducido todos ellos.

Puede resultar interesante que, en


lugar de los datos numéricos de las
variables, aparezcan los Valores que
se les ha asignado. Para ello, hay que
activar el icono:

Con el icono activado se puede operar


igual que si no lo está

3.- MODIFICACIÓN DEL FICHERO DE DATOS


Una vez que se ha elaborado el fichero de datos, se pueden introducir en él
todas las modificaciones que sean necesarias.
En el caso de querer introducir casos o variables nuevas, basta seleccionar el
menú Datos y acceder a Insertar variable o Insertar caso.
Insertar variable  Inserta una variable delante de la que esté seleccionada. (Si
queremos insertar una variable X entre las variables Z e Y, seleccionaremos la variable
Y; la nueva variable X se situará delante de ella). Esto puede hacerse tanto desde la
Vista de Datos como desde la Vista de Variables.
Insertar caso  Del mismo modo, se pueden incluir nuevos casos (sujetos) en el
fichero, para ello se seleccionará el sujeto que quedará detrás del nuevo, y se
insertará el caso. (Si queremos un caso nuevo entre el 3 y el 4, seleccionamos el 4, y
el nuevo aparecerá delante, el programa numera de nuevo los casos de forma
automática)
Eliminar variables o casos  Para realizar esta operación, se selecciona la variable o
caso a eliminar y se pincha el botón Suprimir

4.- VER RESUMEN DE VARIABLES


Una vez que hemos elaborado todo el fichero de datos, podemos ver un
resumen de las variables sin tener que ir a una a una viendo cómo se han definido.
Para ello, se accederá al menú Utilidades – Variables, donde se despliega una
ventana en la que se encuentra información detallada de cada una de las variables. En
esta ventana aparece un listado de variables así como la información de la que esté
Pinchando Ir a se accede directamente al lugar
del fichero de datos donde se encuentra esa
variable, sin necesidad de buscarla, lo que
facilita el trabajo cuando trabajamos con un
fichero extenso.
La ventana no permite realizar ningún cambio,
para hacerlo hay que acudir a la variable y
realizarlos en ella.

seleccionada.

Nota: Igualmente se puede ir a un sujeto determinado sin tener que


pasarlos uno por uno. Para ello, se accede a Datos – Ir a caso, y se
escribe el caso al que se quiere ir, pulsando después Aceptar.

5.- ORDENAR CASOS


En un momento determinado, puede resultar útil tener los casos ordenados en
una de las variables, el programa lo permite a través del menú Datos – Ordenar
casos.
En la ventana desplegada, sólo hay que
seleccionar la variable que queremos que
ordene, determinar el orden de clasificación,
y Aceptar. En el fichero de los datos se
reordenarán los casos a partir de esta
variable
6.- ALMACENAMIENTO Y ACCESO A LOS DATOS
Estas son las funciones básicas del editor de datos del programa SPSS, una
vez que tenemos el fichero de datos preparado, ya se puede empezar con el análisis
estadístico, sin olvidar antes guardar el fichero.

6.1.- GUARDAR EL FICHERO DE DATOS


Seleccionar Archivo – Guardar, y especificar el lugar donde se quiere guardar,
así como el nombre asignado
Como puede verse, el procedimiento es el mismo
que se sigue en cualquiera de los programas del
entorno Windows.
A esta opción se accede igualmente pinchando en
el icono

6.2.- ACCESO A LOS DATOS


Se procede del mismo modo, especificando el nombre y ubicación del archivo
que queremos abrir, desde Archivo – Abrir - Datos

A esta opción se accede igualmente


pinchando en el icono

Otra forma de acceder a un fichero de datos utilizado recientemente es a través


de Archivo - Datos usados recientemente y seleccionando el que se quiere abrir
7.- EL VISOR DE RESULTADOS
El visor de resultados es la pantalla en la que el programa SPSS presenta los
resultados de los análisis. Una vez que hemos hecho el primer análisis, y si no se
especifica lo contrario, los sucesivos resultados se acumularán en el mismo visor.

La apariencia del visor es la siguiente:

El visor se divide en dos partes (de ancho


regulable por el usuario). A la izquierda aparece
el índice de lo que contiene el visor, que nos
permite desplazarnos por los resultados que
pinchemos sin necesidad de pasar por todos los

INDICE
RESULTADOS demás.
La parte de la derecha, es la que muestra los
resultados de los análisis efectuados.

A través de los botones de la barra de tareas, podemos movernos del editor de


datos al visor de resultados de manera rápida y sencilla

8.- GUARDAR LOS RESULTADOS


Los resultados de los análisis pueden guardarse de diferentes formas:
8.1.- EN FORMATO SPSS  Se guardarán de esta forma cuando vayan a abrirse
posteriormente en este formato, es decir, en equipos que tengan instalado el SPSS.
Para ello basta con acceder a Archivo - Guardar y asignar el nombre y la ubicación
deseados
De nuevo encontramos una ventana de aspecto
idéntico a la proporcionada por cualquier programa
del entorno Windows. De nuevo también, es
posible acceder a esta ventana a través del icono:
8.2.- EN OTROS FORMATOS  El programa SPSS tiene su propio editor de
resultados, editor que es incompatible con el procesador de textos que se utiliza
habitualmente (Word, o Word Perfect). Por esta razón, para poder visualizar los
resultados en aquellos equipos que no tengan instalado el programa SPSS, es
necesario exportar el visor de resultados a un documento HTML, que puede abrirse, y
modificarse en Word. Para ello, en el menú Archivo (del visor de resultados),
seleccionamos la opción Exportar y aparece la siguiente ventana

En esta ventana hay que especificar:


 Qué queremos exportar
 Dónde lo queremos exportar
 Cómo lo queremos exportar

8.2.1.- Qué queremos exportar  Podemos exportar el documento completo (tablas y


gráficos, si los hubiera), solo los gráfico, o sólo las tablas.

En esta opción seleccionaremos la opción que más


se ajuste a nuestra necesidad

8.2.2.- Dónde lo queremos exportar  Hay que especificar dónde se quiere exportar
el visor de resultados, para lo que hay que ir a Exportar archivo.

Pulsando examinar, se accede a una pantalla en la que especificaremos


dónde queremos guardar el archivo y con qué nombre (si no se especifica nombre, el
programa por defecto lo llama OUTPUT.TXT).

8.2.3.- Cómo lo queremos exportar  Especificaremos el Formato de exportación, donde


se seleccionará la opción Archivo HTML (*.htm), que suele estar marcada por defecto
9.- RECUPERAR LA SALIDA
9.1.- EN FORMATO SPSS  Desde el Visor de Resultados, se accede a Archivo - Abrir y
se busca el archivo que se quiere abrir.

La apariencia de los resultados en el visor de


resultados del SPSS es tal como aparece en la
figura

9.2.- EN FORMATO HTML  El archivo exportado puede ahora abrirse desde cualquier
ordenador que no tenga instalado el programa SPSS, ahora con formato HTML. Para
ello abriremos el procesadores de texto Word. Para abrirlo, accedemos a Archivo –
abrir en tipo de archivo, seleccionamos Documento HTML o Todos los archivos,
buscamos el que queremos abrir y aparece un documento con el aspecto siguiente:

La ventaja que tiene exportar en


este formato es que permite
modificar las tablas, tal y como se
hace en Word, posibilidad que en
la salida de SPSS es mucho más
limitada
ANALISIS ESTADÍSTICO DESCRIPTIVO Y DE FRECUENCIAS
1.- ANÁLISIS DESCRIPTIVO
Para realizar un análisis descriptivo de datos, una vez recuperados los datos en la
pantalla, acceder al menú Analizar – Estadísticos descriptivos – Descriptivos. Aparece una
pantalla en la que se da la opción de escoger una, varias o todas las variables de la base
de datos para hacer el análisis.
En este caso seleccionamos las variables: Rendimiento en Historia, Rendimiento
en Filosofía, Rendimiento en Idioma, Rendimiento en Matemáticas y Rendimiento en
Dibujo. Para seleccionar las variables, se pinchan con el ratón y se arrastran a la ventana
Variables.
Esta opción nos permite obtener estadísticos de resumen univariados para varias
variables en una única tabla y calcula valores tipificados (puntuaciones z), que pueden
guardarse, si así se especifica, en el fichero de datos como una variable nueva.

Seleccionando esta opción,


aparecerán las puntuaciones
tipificadas en el fichero de datos.

Accediendo a las OPCIONES encontramos una pantalla en la que podremos


especificar los estadísticos que nos interesen

En esta pantalla marcaremos con el ratón () los estadísticos


que queramos, así como el orden de visualización de las
variables en el visor de resultados.
Las variables se pueden ordenar por el tamaño de sus medias
(en orden ascendente o descendente), alfabéticamente o por
el orden en el que se seleccionen las variables (el valor por
defecto).
Una vez especificado lo que queremos, pinchamos Continuar

Volvemos a la pantalla presentada en la página anterior, y pinchamos Aceptar. El


visor de resultados de los estadísticos descriptivos es de muy fácil interpretación, presenta
una tabla en la que muestra, para cada variable, los estadísticos que se han pedido.
Estadísticos descriptivos

N Mínimo Máximo Media Desv. típ.


Rendimiento en historia 100 0 10 5.73 2.27
Rendimiento en filosofía 100 0 10 5.50 2.34
Rendimiento en idioma 100 0 9 5.32 2.08
Rendimiento en
100 0 10 5.70 1.96
matemáticas
Rendimiento en dibujo 100 0 10 5.50 2.19
N válido (según lista) 100

Si se marcó la opción Guardar valores tipificados como variable, en el fichero de


datos se crearán unas variables nuevas, llamadas znombrevariable, con la puntuación
típica de cada sujeto en cada variable.

2.- ANÁLISIS DE FRECUENCIAS


Accedemos a esta opción a través del menú Analizar – Estadísticos descriptivos –
Frecuencias. Esta opción proporciona estadísticos y representaciones gráficas que
resultan útiles para describir muchos tipos de variables. Es un procedimiento útil para
realizar una inspección inicial de los datos.

Se da la opción de mostrar / no
mostrar la tabla de frecuencias. Para
obtenerlas, debe estar marcado ()

En esta pantalla se seleccionarán los Gráficos que


La opción ESTADÍSTICOS permitiría
se desean (se seleccionan conjuntamente para
seleccionar aquellos que se desee incluir
todas las variables seleccionadas) así como los
en los resultados (procedimiento similar al
valores a partir de los que se generará el mismo.
presentado en la opción 1.- Análisis
descriptivo)
Los resultados obtenidos aparecen en una tabla similar a la presentada en la figura
siguiente:

Estadísticos En una primera tabla


aparecen los estadísticos
Estudios Profesión Estudios de Profesión seleccionados para cada una
del padre del padre la madre de la madre de las variables incluidas en el
N Válidos 100 100 100 100 análisis.
Perdidos 0 0 0 0

A continuación se presentan las tablas de frecuencias, una para cada variable, en la que se aparece
la frecuencia directa, su porcentaje directo, así como el válido (después de eliminar valores
perdidos), y el acumulado.

Estudios del padre

Porcentaje Porcentaje
Frecuencia Porcentaje válido acumulado
Válidos Sin estudios 7 7.0 7.0 7.0
Primarios 14 14.0 14.0 21.0
Secundarios 16 16.0 16.0 37.0
Bachiller 21 21.0 21.0 58.0
Univ. Medios 16 16.0 16.0 74.0
Univ. Superiores 18 18.0 18.0 92.0
Otros 8 8.0 8.0 100.0
Total 100 100.0 100.0
ESTADÍSTICA PARAMÉTRICA:
PRUEBA T DE STUDENT
Con la prueba “t de Student” se intenta probar la diferencia de medias para
uno, dos o más grupos. Se trata de una prueba paramétrica, es decir, que entre otras
cosas, la/s variable/s dependiente/s deben estar medidas en nivel de intervalo o razón.

1.- PRUEBA T PARA MUESTRAS INDEPENDIENTES


El programa SPSS, dentro del menú Analizar, tiene una opción para comparar
medias y dentro de esta opción accedemos a Prueba T para muestras independientes.
En el ejemplo que se desarrolla en este caso seleccionamos como variable de
agrupación o variable independiente el Sexo que tiene dos categorías: MUJER (1) y
HOMBRE (2). Como variables dependientes seleccionamos Rendimiento en Historia,
Rendimiento en Filosofía, Rendimiento en Idioma, Rendimiento en Matemáticas y
Rendimiento en Dibujo.

En esta pantalla seleccionamos las


variables dependientes, así como la
variable independiente (de
agrupación) a partir de la que se
calcula la diferencia de medias.

En DEFINIR GRUPOS hay que introducir los valores


que puede tomar la variable de agrupación, en nuestro
caso 1 (hombre) y 2 (mujer), hasta que no se hace
esto, no se puede continuar

En OPCIONES el programa nos sugiere un


intervalo de confianza de 95%, es decir,  = 0,05.
Normalmente se utiliza este nivel de confianza
aunque puede modificarse al 98% o al 99%. Si
continuamos, aceptamos el 95% sugerido.

Las Ho quedan formuladas de la forma siguiente:


Ho (1): No existen diferencias estadísticamente significativas en el Rendimiento de los
alumnos en Historia en función de la variable Sexo.

19
Ho (2): No existen diferencias estadísticamente significativas en el Rendimiento de los
alumnos en Filosofía en función de la variable Sexo.
Ho (3): No existen diferencias estadísticamente significativas en el Rendimiento de los
alumnos en Idioma en función de la variable Sexo.
Ho (4): No existen diferencias estadísticamente significativas en el Rendimiento de los
alumnos en Matemáticas en función de la variable Sexo.
Ho (5): No existen diferencias estadísticamente significativas en el Rendimiento de los
alumnos en Dibujo en función de la variable Sexo.

Interpretación de resultados
En el visor de resultados encontramos dos tablas (aquí se presenta la segunda
en dos partes). En la primera tabla, el programa calcula los ESTADISTICOS DEL
GRUPO, concretamente la media, la desviación típica y el error típico de medida de
cada categoría de la variable independiente, sexo en este caso.

Estadísticos de grupo

Desviación Error típ. de


Sexo N Media típ. la media
Rendimiento en historia Mujer 53 5.58 2.20 .30
Hombre 47 5.89 2.36 .34
Rendimiento en filosofía Mujer 53 5.58 2.28 .31
Hombre 47 5.40 2.42 .35
Rendimiento en idioma Mujer 53 5.40 1.96 .27
Hombre 47 5.23 2.22 .32
Rendimiento en Mujer 53 5.57 1.95 .27
matemáticas Hombre 47 5.85 1.98 .29
Rendimiento en dibujo Mujer 53 5.47 2.34 .32
Hombre 47 5.53 2.02 .29

A continuación aparece una tabla que consta de dos partes, en la primera, el programa
realiza una prueba a priori, la F de Levene, para comprobar si existe o no homogeneidad de
varianzas (uno de los requisitos para aplicar pruebas paramétricas).

Por último, en la segunda parte de la tabla, aparecen los resultados de la


prueba, el valor de la t, los grados de libertad y su probabilidad asociada. Por
ejemplo, la variable Rendimiento en Historia tiene un valor de t = -0,677y una
probabilidad asociada de 0,500. Si la hipótesis nula planteada Ho (1) era que no
existen diferencias estadísticamente significativas en el Rendimiento de los alumnos
en Historia en función de la variable Sexo, con los resultados obtenidos, y trabajando a
un  = 0,05, podemos aceptarla (porque 0,500 > 0,05) y afirmar que no existen

20
diferencias estadísticamente significativas entre hombres y mujeres en el
Rendimiento en Historia.
En las siguientes columnas, el programa nos ofrece los diferentes intervalos
confidenciales (nivel de confianza 95%) para cada una de las comparaciones.

Prueba de muestras independientes

Prueba T para la igualdad de medias


95% Intervalo de
confianza para la
Diferencia Error típ. de diferencia
t gl Sig. (bilateral) de medias la diferencia Inferior Superior
Rendimiento en historia Se han asumido
-.677 98 .500 -.31 .46 -1.21 .60
varianzas iguales
No se han asumido
-.674 94.473 .502 -.31 .46 -1.22 .60
varianzas iguales
Rendimiento en filosofía Se han asumido
.384 98 .702 .18 .47 -.75 1.11
varianzas iguales
No se han asumido
.383 94.940 .703 .18 .47 -.76 1.12
varianzas iguales
Rendimiento en idioma Se han asumido
.388 98 .699 .16 .42 -.67 .99
varianzas iguales
No se han asumido
.385 92.602 .701 .16 .42 -.67 1.00
varianzas iguales
Rendimiento en Se han asumido
-.725 98 .470 -.29 .39 -1.06 .49
matemáticas varianzas iguales
No se han asumido
-.725 96.184 .470 -.29 .39 -1.07 .50
varianzas iguales
Rendimiento en dibujo Se han asumido
-.137 98 .891 -6.02E-02 .44 -.93 .81
varianzas iguales
No se han asumido
-.138 97.932 .890 -6.02E-02 .44 -.93 .81
varianzas iguales

Para el resto de las Hipótesis Nulas planteadas Ho (2), Ho (3), Ho (4), Ho (5), podemos
aceptarlas ya que las probabilidades asociadas al estadístico t (0,702 - 0,699 - 0,470 -
0,891 respectivamente) son mayores que  (0,05), por lo que:
 No existen diferencias estadísticamente significativas en el Rendimiento de los
alumnos en Filosofía en función de la variable Sexo . Ho (2)
 No existen diferencias estadísticamente significativas en el Rendimiento de los
alumnos en Idioma en función de la variable Sexo. Ho (3)
 No existen diferencias estadísticamente significativas en el Rendimiento de los
alumnos en Matemáticas en función de la variable Sexo Ho (4)
 No existen diferencias estadísticamente significativas en el Rendimiento de los
alumnos en Dibujo en función de la variable Sexo Ho (5)
Contrastes Posteriores
En caso de haber encontrado diferencias significativas, y para ver hacia que dirección
de dan, se consulta la tabla ESTADÍSTICOS DE GRUPO, y en la columna MEDIA, se
puede ver qué grupo obtiene una media superior.
2.- PRUEBA T PARA MUESTRAS RELACIONADAS
Dentro del menú Analizar, entramos en la opción comparar medias y dentro de
esta opción accedemos a Prueba T para muestras relacionadas. En este caso se trata

21
de comprobar si existen diferencias estadísticamente significativas entre la Capacidad
de Concentración antes (de recibir un programa de entrenamiento de la concentración
PEC), y la Capacidad de Concentración después (del PEC). Seleccionamos estas
variables porque están medidas en nivel de razón.
La H0 planteada es que no existen diferencias estadísticamente significativas
entre la Capacidad de Concentración antes y la Capacidad de Concentración
después.

En este caso, hay que seleccionar las dos


variables a la vez y llevarlas a la ventana
de la derecha

Interpretación de resultados
Aparece en primer lugar una tabla que resumen la información de las variables
incluidas en el análisis. Podríamos haber metido más de un par de variables, en los
resultados se identifican como Par 1, Par 2, etc.

Estadísticos de muestras relacionadas

Desviación Error típ. de


Media N típ. la media
Par 1 Capacidad de
61.29 100 20.25 2.03
concentración antes
Capacidad de
71.61 100 18.35 1.83
concetración despues

A continuación aparece una tabla que nos proporciona la correlación entre las

Correlaciones de muestras relacionadas

N Correlación Sig.
Par 1 Capacidad de
concentración antes y
100 .744 .000
Capacidad de
concetración despues

variables:
Podemos ver que la correlación es significativa (sig. = 0,000 <  = 0,05) y muy alta
(ver práctica de correlación)

22
Por último aparece la tabla en la que se contrasta la hipótesis que poníamos en juego:

Prueba de muestras relacionadas

Diferencias relacionadas
95% Intervalo de
Error típ. confianza para la
Desviació de la diferencia Sig.
Media n típ. media Inferior Superior t gl (bilateral)
Par 1 Capacidad de
concentración
antes - Capacidad -10.32 13.92 1.39 -13.08 -7.56 -7.415 99 .000
de concetración
despues

Podemos ver que la probabilidad asociada al estadístico t es menos que , por lo que
rechazamos la H0 planteada y afirmamos que existen diferencias estadísticamente
significativas entre la Capacidad de Concentración antes y la Capacidad de
Concentración después.

Contrastes posteriores
Una vez que hemos visto que las diferencias entre la capacidad de concentración
antes y la capacidad de concentración después son significativas, puede interesar en
qué dirección se dan estas diferencias. Para ello, volvemos a la tabla primera que
proporciona el programa, y vemos en que variable a media es más alta.

Estadísticos de muestras relacionadas


Es superior la media en Capacidad
Desviación Error típ. de
Media N típ. de concentración
la media después de recibir
Par 1 Capacidad de
61.29 100 20.25
el PEC, por 2.03
lo que puede decirse
concentración antes
Capacidad de que es un programa eficaz.
71.61 100 18.35 1.83
concetración despues

23
ESTADÍSTICA NO PARAMÉTRICA

Las pruebas no paramétricas se utilizan para contrastar la existencia de


diferencias significativas cuando la/s variable/s dependiente/s están medidas en nivel
nominal u ordinal. El programa SPSS, dentro del menú Analizar, tiene una opción para
Pruebas no Paramétricas. Dentro de esta opción podemos encontrar varios casos
entre los que cabe destacar: para 2 muestras independientes, para más de dos
muestras independientes, para 2 muestras relacionadas, para más de dos muestras
relacionadas, Chi cuadrado. Vamos a entrar únicamente en tres de estos casos, para
el resto, se procede de la misma forma, seleccionando la opción correspondiente.

1.- PRUEBA NO PARAMÉTRICA PARA DOS MUESTRAS INDEPENDIENTES


Accedemos al menú Analizar – Pruebas no paramétricas – 2 muestras
independientes. Seleccionamos como variable dependiente el Interés Profesional de
los alumnos, y como independiente o variable de agrupación, el sexo. Queremos
comprobar si existen diferencias estadísticamente significativas entre los intereses
profesionales de hombres y mujeres. Para adaptarnos al programa del curso,
utilizaremos la prueba U de Mann-Whitney, aunque como se puede comprobar, el
programa da otras opciones (Z de Kolmogorov-Smirnov, Reacciones extremas de
Como variable de agrupación (o variable
independiente) seleccionamos la variable
Sexo y definimos los grupos como 1
(MUJER) y 2 (HOMBRE).

Moses)

En OPCIONES se da la opción de pedir descriptivos o cuartiles. En el caso que nos


ocupa no pediremos estadísticos ya que con anterioridad se ha presentado cómo se
calculan e interpretan los estadísticos descriptivos y frecuencias. Una vez completo el
menú, aceptamos y pasamos al visor de resultados.

Como siempre, enunciamos la Hipótesis nula a contrastar:

24
H0: No existen diferencias estadísticamente significativas en los intereses
profesionales de los alumnos en función del sexo.
Interpretación de resultados
En los resultados aparece una tabla en la que se muestra el número de sujetos que
hay en cada categoría de la variable independiente, el rango promedio y la suma de

Rangos

Rango Suma de
Sexo N promedio rangos
Interes profesional Mujer 53 52.39 2776.50
del alumno Hombre 47 48.37 2273.50
Total 100

rangos.
A continuación encontramos la tabla en la que aparecen los estadísticos de contraste.
Aunque aparecen por defecto la U de Mann Whitney, W de Wilcoxon y la Z,
interpretaremos solo la primera de ellas, aunque como puede verse, la significatividad
asociada a los tres estadísticos es la misma.
Así pues, en función de la probabilidad asociada al valor del estadístico U de Mann
Whitney, podemos concluir que no existen diferencias estadísticamente
significativas en los intereses profesionales de los alumnos en función del sexo,
ya que este valor (0,479) es mayor que  (0,05)

Estadísticos de contrastea

Interes
profesional
del alumno
U de Mann-Whitney 1145.500
W de Wilcoxon 2273.500
Z -.707
Sig. asintót. (bilateral) .479
a. Variable de agrupación: Sexo

25
2.- PRUEBA NO PARAMÉTRICA PARA K MUESTRAS INDEPENDIENTES
Para el caso de más de dos muestras independientes vamos a utilizar la
Prueba H de Kruskal-Wallis. Accedemos al menú Analizar – Pruebas no paramétricas
– K muestras independientes Del mismo modo que el anterior contraste no pediremos
estadísticos descriptivos en el menú opciones y seleccionaremos las variables
dependientes. En este caso vamos a utilizar como variables dependientes el nivel de
estudios y profesional de los padres, y como variable independiente, el nivel social de

Para definir el rango, se introducen


los valores máximo y mínimo que
puede tomar la variable
independiente o de agrupación

la familia.

Vamos a contrastar las siguientes hipótesis:


H0 (1): No existen diferencias estadísticamente significativas entre el nivel de estudios
del padre en función del nivel social de la familia.
H0 (2): No existen diferencias estadísticamente significativas entre el nivel profesional
del padre en función del nivel social de la familia.
H0 (3): No existen diferencias estadísticamente significativas entre el nivel de estudios
de la madre en función del nivel social de la familia.
H0 (4): No existen diferencias estadísticamente significativas entre el nivel profesional
de la madre en función del nivel social de la familia.

Interpretación de resultados
En los resultados aparecen las siguientes tablas:

Para cada variable


Rangos
dependiente introducida en
Rango
Nivel social familiar N promedio el análisis, aparece el
Profesión del padre Bajo 14 76.00 número de casos que hay en
Medio-Bajo 33 66.15
cada categoría (N) y el
Medio 26 47.52
Medio-Alto 17 29.68 Rango Promedio para cada
Alto 10 6.30 una de ellas.
Total 100
Estudios del padre Bajo 14 29.07
Medio-Bajo 33 42.36
Medio 26 50.40
Medio-Alto 17 64.91
Alto 10 83.10
Total 100
Estudios de la madre Bajo 14 40.75
Estadísticos de contrastea,b

Profesión Estudios Estudios de Profesión


del padre del padre la madre de la madre
Chi-cuadrado 54.291 27.800 4.099 7.825
gl 4 4 4 4
Sig. asintót. .000 .000 .393 .098
a. Prueba de Kruskal-Wallis
b. Variable de agrupación: Nivel social familiar

A continuación aparece una tabla en la que aparece el estadístico correspondiente a


cada una de los contrastes de hipótesis realizados (Chi-cuadrado), así como los
grados de libertad (gl) y la significatividad asociada al estadístico de contraste
(Sig.asintót.).

Podemos comprobar que existen diferencias significativas entre el nivel


educativo y el nivel profesional del padre en función de la clase social a la que
pertenece el familia, ya que las probabilidades asociadas al estadístico en ambos
casos son 0,000, valor inferior a  =0,05. (Rechazamos H0 (1) y H0 (2))
Por el contrario, comprobamos que no existen diferencias significativas
entre el nivel educativo y el nivel profesional de la madre en función de la clase
social a la que pertenece el familia, ya que las probabilidades asociadas al
estadístico en ambos casos, 0,393 y 0,098, son superiores a  =0,05. (Aceptamos H0
(3) y H0 (4))
3.- PRUEBA CHI CUADRADO
Dentro de las pruebas no paramétricas, es decir las que se realizan con
variables medidas en escala ordinal o nominal, se encuentra el CHI CUADRADO. Con
esta prueba podemos comprobar si existen o no diferencias estadísticamente
significativas entre frecuencias observadas (datos extraídos de la realidad) y
frecuencias teóricas (o esperadas). Hablamos en términos de frecuencias ya que con
variables nominales o categóricas sólo podemos utilizar estadísticos de este tipo.
Podemos encontrar la Prueba Chi Cuadrado en el menú Analizar-Pruebas no
parametricas- Chi cuadrado.

Las variables que vamos a


seleccionar para realizar el análisis
son Sexo, Grupo de clase y Nivel
Social Familiar. Se trata de tres
variables medidas en escala
nominal y aptas por tanto para
incluir en el análisis.

En OPCIONES podríamos pedir descriptivos, como en el resto de las pruebas no


paramétricas anteriormente presentadas, pero no vamos a hacerlo en esta práctica por
la misma razón que no lo hicimos anteriormente.

Las H0 a contrastar son:


H0 (1): No existen diferencias estadísticamente significativas entre la distribución real
de los sujetos en la variable Sexo y la distribución que cabría esperar al azar
H0 (2): No existen diferencias estadísticamente significativas entre la distribución real
de los sujetos en la variable Grupo de clase y la distribución que cabría esperar al azar
H0 (3): No existen diferencias estadísticamente significativas entre la distribución real
de los sujetos en la variable Nivel Social Familiar y la distribución que cabría esperar al
azar
Interpretación de resultados
Aparecen en primer lugar las tablas con las frecuencias encontradas en cada
categoría de cada una de las variables, así como lo que cabría esperar al azar (N / nº
de categorías) y el residual.

Sexo

N observado N esperado Residual En estas tablas aparecen las frecuencias


Mujer 53 50.0 3.0
Hombre 47 50.0 -3.0 empíricas (N observado), que es cómo
Total 100 se distribuyen realmente los sujetos en
las diferentes categorías.
Grupo
A continuación aparecen las frecuencias
N observado N esperado Residual
Grupo A 25 25.0 .0 teóricas (N esperado), que es cómo se
Grupo B 25 25.0 .0 distribuirían al azar, igual número de
Grupo C 25 25.0 .0
sujetos en cada categoría.
Grupo D 25 25.0 .0
Total 100 Aparecerán tantas tablas como variables
se incluyan en el análisis.
Nivel social familiar

N observado N esperado Residual


Bajo 14 20.0 -6.0
Medio-Bajo 33 20.0 13.0
Medio 26 20.0 6.0
Medio-Alto 17 20.0 -3.0
Alto 10 20.0 -10.0
Total 100

A continuación aparece la tabla con los valores del estadístico Chi cuadrado, los
grados de libertad y la probabilidad asociada al estadístico.
Las probabilidades asociadas a los valores de chi cuadrado son 0,549 - 1,000 y 0,002,
en el caso de Sexo y del Grupo mayores que el valor de  = 0,05, y en el caso de
Nivel Social Familiar, inferior a este valor, por lo que afirmamos que no existen
diferencias (mayores que las esperadas por azar) entre las diferentes categorías de
las variables Sexo y Grupo de Clase, y si que las hay en la variable Nivel Social

Estadísticos de contraste A partir de esta tabla se realiza el


Nivel social contraste de hipótesis, comparando la
Sexo Grupo familiar
Chi-cuadrado .360 .000 17.500 probabilidad asociada a Chi-
gl 1 3 4 Cuadrado con el  al que estemos
Sig. asintót. .549 1.000 .002
trabajando.
Familiar
ANALISIS DE VARIANZA

1.- ANÁLISIS DE VARIANZA SIMPLE.


El Análisis de Varianza simple (ANOVA) es una técnica estadística utilizada para
contrastar la existencia de diferencias estadísticamente significativas entre las medias de
las muestras sometidas a diferentes tratamientos.
La hipótesis nula (H0) general que se pretende contrastar es la siguiente: No
existen diferencias estadísticamente significativas en la Variable Dependiente
(Rendimiento, por ejemplo) provocadas por la Variable Independiente (Sexo, por
ejemplo)
Esta prueba, en SPSS, la encontramos en el menú Analizar – Comparar Medias –
ANOVA de un factor.

En este menú se da la opción de


seleccionar más de una variable
dependiente, aunque los contrastes son
de ANOVA simple, es decir, de cada
variable dependiente con la
independiente, por separado.

En esta práctica, y al ser el ANOVA una prueba paramétrica. Seleccionamos las


variables Rendimiento en Historia, Rendimiento en Filosofía, Rendimiento en Idioma,
Rendimiento en Matemáticas, y Rendimiento en Dibujo ya que se trata de variables
medidas en nivel de intervalo. Como variable independiente seleccionamos la variable
Grupo. Las H0 a contrastar queda pues formulada en los siguientes términos:
H0 (1): No existen diferencias estadísticamente significativas en Rendimiento en Historia
en función del grupo al que pertenecen los alumnos.
H0 (2): No existen diferencias estadísticamente significativas en Rendimiento en Filosofía
en función del grupo al que pertenecen los alumnos.
H0 (3): No existen diferencias estadísticamente significativas en Rendimiento en Idioma en
función del grupo al que pertenecen los alumnos.
H0 (4): No existen diferencias estadísticamente significativas en Rendimiento en
Matemáticas en función del grupo al que pertenecen los alumnos.
H0 (5): No existen diferencias estadísticamente significativas en Rendimiento en Dibujo en
función del grupo al que pertenecen los alumnos.

En OPCIONES podríamos pedir estadísticos o que haga


la prueba de Homogeneidad de Varianzas (uno de los
requisitos para poder aplicar una prueba paramétrica).
En este caso no vamos a solicitarlo.
En el caso de querer también los contrastes posteriores, es decir, que además de saber
si hay diferencias, saber hacia qué dirección se dan estas diferencias, hay que
especificarlo en este momento. Para ello, desde la ventana principal, entramos a la
opción Post Hoc...

De los diferentes estadísticos que


nos ofrece el programa,
seleccionamos el de Scheffe

Aquí podríamos cambiar el nivel de significación.

Interpretación de resultados
En la primera tabla que aparece podemos contrastar las hipótesis nulas, siempre
comparando  con la probabilidad asociada al estadístico F

ANOVA

Suma de Media
cuadrados gl cuadrática F Sig.
Rendimiento en historia Inter-grupos 246.350 3 82.117 29.933 .000
Intra-grupos 263.360 96 2.743
Total 509.710 99
Rendimiento en filosofía Inter-grupos 298.440 3 99.480 39.372 .000
Intra-grupos 242.560 96 2.527
Total 541.000 99
Rendimiento en idioma Inter-grupos 22.320 3 7.440 1.762 .160
Intra-grupos 405.440 96 4.223
Total 427.760 99
Rendimiento en Inter-grupos 122.440 3 40.813 15.272 .000
matemáticas Intra-grupos 256.560 96 2.673
Total 379.000 99
Rendimiento en dibujo Inter-grupos 221.640 3 73.880 28.216 .000
Intra-grupos 251.360 96 2.618
Total 473.000 99

A la vista de los resultados presentados en la tabla, rechazamos las Ho 1 - 2- 4 y 5, y


afirmamos que:
 Existen diferencias estadísticamente significativas en Rendimiento en Historia en
función del grupo al que pertenecen los alumnos. H0 (1)
 Existen diferencias estadísticamente significativas en Rendimiento en Filosofía en
función del grupo al que pertenecen los alumnos. H0 (2)
 Existen diferencias estadísticamente significativas en Rendimiento en Matemáticas en
función del grupo al que pertenecen los alumnos. H0 (4)
 Existen diferencias estadísticamente significativas en Rendimiento en Dibujo en
función del grupo al que pertenecen los alumnos H0 (5)
En todos los casos, la probabilidad asociada a F es menor que  (0,000 en los 4 casos)
Por el contrario, en el caso de la H0 (3), si que aceptamos y afirmamos que No
existen diferencias estadísticamente significativas en Rendimiento en Idioma en función
del grupo al que pertenecen los alumnos, ya que la probabilidad asociada a F es menor
que  (0,160)

Contrastes posteriores
Para comprobar hacia qué lado se dan las diferencias encontradas, vamos a la siguiente
tabla. A continuación se presenta el extracto de dicha tabla correspondiente a la variable
Comparaciones
dependientes Rendimiento en Historia. múltiples
Scheffé
Diferencia de Diferencia
Variable dependiente (I) Grupo(J) Grupo medias (I-J) Error típico Sig. significativa
Rendimiento en historia Grupo A Grupo B -2.64* .47 .000
Grupo C .28 .47 .949
Grupo D -3.28* .47 .000
Grupo B Grupo A 2.64* .47 .000
Grupo C 2.92* .47 .000
Diferencia no
Grupo D -.64 .47 .602
significativa
Grupo C Grupo A -.28 .47 .949
Grupo B -2.92* .47 .000
Grupo D -3.56* .47 .000
Grupo D Grupo A 3.28* .47 .000
Grupo B .64 .47 .602
Grupo C 3.56* .47 .000
Rendimiento en idioma Grupo A Grupo B -.68 .58 .714
Grupo C -1.16 .58 .270
En la primera columna aparece
Grupo D la diferencia
-8.00E-02de medias .58de cada.999
categoría de la
Grupo B Grupo A .68 .58la sustracción
.714
variable independiente con el resto, adjudicando al minuendo de el nombre
Grupo C -.48 .58 .877
(I), y al sustrayendo el nombre (J), en la
Grupo D segunda columna
.60 (Diferencia
.58 de.785
medias (I-J), se
Grupo C Grupo A
presentan los resultados de dicha diferencia. En el 1.16 .58
caso de aparecer .270
un asterisco (*) al
Grupo B .48 .58 .877
lado del resultado, y según consta GrupoaD pie de tabla,1.08 la diferencia
.58 será.333 significativa. La
Grupo D seGrupo
significatividad de la diferencia A
ve igualmente en la columna.58
8.00E-02 Sig. en la que aparece la
.999
Grupo B -.60 .58 .785
probabilidad asociada a la diferencia. Como puede verse, para las probabilidades que no
Grupo C -1.08 .58 .333
son*.significativas (es las
La diferencia entre decir, queesson
medias mayores
significativa  = 0,05), no aparece asterisco (*) en el
que .05.
al nivel
valor de la diferencia, y cuando no aparece el asterisco (*) en este valor, la probabilidad
no es significativa (su valor es mayor que  = 0,05).
2.- ANÁLISIS DE VARIANZA FACTORIAL
Cuando se quiere comprobar si existen o no diferencias entre más de dos
variables independientes y una dependiente, utilizamos el Análisis de Varianza Factorial,
al que accedemos a través de la secuencia Analizar – Modelo Lineal General –
Univariante.

En la opción MODELO, escogemos el


factorial completo.

Seleccionamos como variable


dependiente el Rendimiento global del
alumno, y como factores fijos o variables
independientes el Grupo y el Nivel Social
Familiar

Como en el caso del Análisis de Varianza Simple, este es el momento de pedir (si se
quieren) los contrastes posteriores, para lo que accedemos de nuevo a Post Hoc...

En esta ventana hay que especificar


para cual/es de las variables
independientes o factores se quieren los
contrastes posteriores.

La hipótesis nula (Ho) que vamos a contrastar queda pues formulada en los
términos siguientes: No existen diferencias estadísticamente significativas en el
Rendimiento Global obtenido por los alumnos en función del efecto conjunto de las
variables Grupo de clase al que pertenecen y Nivel Social de la Familia.
Interpretación de resultados
La primera tabla que aparece en la salida nos muestra un resumen de los casos
incluidos en el estudio
Factores inter-sujetos

Etiqueta
del valor N
Grupo 1 Grupo A 25
2 Grupo B 25
3 Grupo C 25
4 Grupo D 25
Nivel 1 Bajo 14
social 2 Medio-Baj
familiar 33
o
3 Medio 26
4 Medio-Alt
17
o
5
Alto 10

A continuación aparece la tabla del análisis de varianza factorial. Como puede


verse, ha resultado ser no significativo, es decir que la interacción entre el Grupo y el
Nivel Social Familiar no influyen sobre el Rendimiento Global de los alumnos. La
probabilidad asociada al estadístico F para la interacción de las dos variables es de
0,465, valor mayor que , por lo que acepto H0

Pruebas de los efectos inter-sujetos

Variable dependiente: Rendimiento global


Suma de
cuadrados Media
Fuente tipo III gl cuadrática F Significación
Modelo corregido 90.610a 19 4.769 5.427 .000
Intersección 2352.540 1 2352.540 2677.144 .000
GRUPO 47.545 3 15.848 18.035 .000
NIVSOC 1.497 4 .374 .426 .789
GRUPO * NIVSOC 10.452 12 .871 .991 .465
Error 70.300 80 .879
Total 3240.050 100
Total corregida 160.910 99
a. R cuadrado = .563 (R cuadrado corregida = .459)

La tabla proporciona también un ANOVA simple para cada una de las variables
independientes por separado. El estadístico F para el factor Grupo tiene una probabilidad
asociada de 0,000, a un nivel de significación de 0,05, resulta significativo.
Por el contrario, el valor de la probabilidad asociada a F para la variable Nivel social es de
0,789 resultando no significativa para un valor de  de 0,05.

Contrastes Posteriores
En las tablas siguientes pueden hacerse los contrastes posteriores, del mismo modo que
se hacían en el caso de ANOVA simple

Comparaciones múltiples

Variable dependiente: Rendimiento global


Scheffe

Intervalo de confianza al
Diferencia 95%.
entre Límite
(I) Grupo (J) Grupo medias (I-J) Error típ. Significación Límite inferior superior
Grupo A Grupo B -.3200 .2651 .693 -1.0772 .4372
Grupo C 1.1080* .2651 .001 .3508 1.8652
Grupo D -1.3840* .2651 .000 -2.1412 -.6268
Grupo B Grupo A .3200 .2651 .693 -.4372 1.0772
Grupo C 1.4280* .2651 .000 .6708 2.1852
Grupo D -1.0640* .2651 .002 -1.8212 -.3068
Grupo C Grupo A -1.1080* .2651 .001 -1.8652 -.3508
Grupo B -1.4280* .2651 .000 -2.1852 -.6708
Grupo D -2.4920* .2651 .000 -3.2492 -1.7348
Grupo D Grupo A 1.3840* .2651 .000 .6268 2.1412
Grupo B 1.0640* .2651 .002 .3068 1.8212
Grupo C 2.4920* .2651 .000 1.7348 3.2492
Basado en las medias observadas.
*. La diferencia de medias es significativa al nivel .05.

Comparaciones múltiples

Variable dependiente: Rendimiento global


Scheffe

Intervalo de confianza al
Diferencia 95%.
entre Límite
(I) Nivel social familiar (J) Nivel social familiar medias (I-J) Error típ. Significación Límite inferior superior
Bajo Medio-Bajo -.1058 .2990 .998 -1.0487 .8370
Medio -.1863 .3108 .985 -1.1662 .7936
Medio-Alto -.1433 .3383 .996 -1.2101 .9236
Alto -.1986 .3881 .992 -1.4225 1.0253
Medio-Bajo Bajo .1058 .2990 .998 -.8370 1.0487
Medio -8.0420E-02 .2458 .999 -.8556 .6947
Medio-Alto -3.7433E-02 .2799 1.000 -.9199 .8451
Alto -9.2727E-02 .3384 .999 -1.1598 .9743
Medio Bajo .1863 .3108 .985 -.7936 1.1662
Medio-Bajo 8.042E-02 .2458 .999 -.6947 .8556
Medio-Alto 4.299E-02 .2924 1.000 -.8790 .9650
Alto -1.2308E-02 .3488 1.000 -1.1122 1.0876
Medio-Alto Bajo .1433 .3383 .996 -.9236 1.2101
Medio-Bajo 3.743E-02 .2799 1.000 -.8451 .9199
Medio -4.2986E-02 .2924 1.000 -.9650 .8790
Alto -5.5294E-02 .3736 1.000 -1.2333 1.1227
Alto Bajo .1986 .3881 .992 -1.0253 1.4225
Medio-Bajo 9.273E-02 .3384 .999 -.9743 1.1598
Medio 1.231E-02 .3488 1.000 -1.0876 1.1122
Medio-Alto 5.529E-02 .3736 1.000 -1.1227 1.2333
Basado en las medias observadas.
3.- ANÁLISIS DE COVARIANZA
El análisis de covarianza (ANCOVA) es una combinación de las técnicas de
regresión y análisis de varianza, que se utiliza para comprobar la existencia de
diferencias estadísticamente significativas entre una variable independiente (más de dos
grupos o categorías) y otra dependiente (nivel de medición intervalo o razón), eliminando
la interacción de una variable extraña que controlamos a través de éste método,
introduciéndola en el análisis como COVARIABLE.
La suposición específica del ANCOVA es que la variable concomitante (covariable)
no debe ser afectada por los tratamientos, es decir, que los tratamientos aplicados a las
unidades experimentales para poder observar sus efectos en la variable Y no deberían
influir en los valores esperados de X.
Accedemos al análisis de covarianza a través del menú Analizar – Modelo Lineal
General – Univariante.
Por lo tanto, la H0 queda formulada de la forma siguiente: No existen diferencias
estadísticamente significativas en el Rendimiento Global de los alumnos en función del
Grupo de clase al que pertenezcan, controlando la influencia del Nivel Social de la familia.

En este caso vamos a coger como


variable dependiente el Rendimiento
Global, como independiente o factor fijo
el Grupo de clase, y se va a controlar el
efecto de la variable Nivel Social de la
familia.

Interpretación de resultados
De la tabla podemos deducir una serie de conclusiones (tantas como pruebas de
significatividad realizadas) que se presentan a continuación:
1. Modelo corregido  Se pone a prueba la existencia de diferencias estadísticamente
significativas en el Rendimiento Global obtenido por los alumnos en función del Grupo
al que pertenecen, controlando el efecto que pueda ejercer el Nivel Social Familiar. La
probabilidad asociada al estadístico F calculado es de 0,000 al ser un valor menor
que  (0,05), rechazamos H0 y afirmamos que existen diferencias en el
Rendimiento Global obtenido por los alumnos en función del Grupo al que
pertenecen, controlando el efecto que pueda ejercer el Nivel Social Familiar
2. Intersección  En este caso se pretende comprobar la existencia de diferencias
estadísticamente significativas en el Rendimiento Global de los alumnos, provocadas
por la acción conjunta de las variables Grupo de Clase y Nivel Social Familiar. En este
caso, la probabilidad asociada a F es también de 0,000, y al ser menor que  (0,05),
se rechaza H0, por lo que se confirma la existencia de diferencias
estadísticamente significativas en el Rendimiento Global de los alumnos,
provocadas por la acción conjunta de las variables Grupo de Clase y Nivel
Social Familiar

Pruebas de los efectos inter-sujetos

Variable dependiente: Rendimiento global


Suma de
cuadrados Media
Fuente tipo III gl cuadrática F Significación
Modelo corregido 79,255a 4 19,814 23,052 ,000 123
4
Intersección 445,926 1 445,926 518,803 ,000
NIVSOC ,337 1 ,337 ,392 ,533
GRUPO 79,000 3 26,333 30,637 ,000
Error 81,655 95 ,860
Total 3240,050 100
Total corregida 160,910 99
a. R cuadrado = ,493 (R cuadrado corregida = ,471)

3. Por último se hace un ANOVA con cada una de las variables independientes
utilizadas. En el primer caso (para la Variable Nivel Social Familiar) se acepta la H0 al
ser la probabilidad asociada a F mayor que  (0,05) (para Nivel Social Familiar la
probabilidad asociada a F es de 0,533), por lo que no hay diferencias
estadísticamente significativas en el Rendimiento Global de los alumnos en
función del Nivel Social Familiar.
4. En el segundo caso se rechaza la H0 al ser la probabilidad asociada a F menor que 
(0,05) (para Grupo de Clase la probabilidad asociada a F es de 0,000), por lo que
hay diferencias estadísticamente significativas en el Rendimiento Global de los
alumnos en función del Grupo de clase al que pertenecen.
CORRELACIÓN
La correlación es una medida de la relación entre dos variables. Su valor oscila
entre –1 y +1 pasando por 0. Los coeficientes de correlación indican dos cosas;
primero indican la cuantía de la relación, para lo que se tiene en cuenta el valor
absoluto del coeficiente, y que se interpreta según la siguiente tabla:

 Menor de |0,30|  Correlación baja


 Entre |0,30| y |0,50|  Correlación moderada
 Entre |0,50| y |0,70|  Correlación alta
 Mayor de |0,70| Correlación muy alta

En segundo lugar, el signo del coeficiente de correlación indica el sentido de la


relación. Si el signo es positivo (+), al aumentar una variable también lo hace la otra, y
si es negativo (-) las variables se relacionan inversamente, al aumentar una de ellas
disminuye la otra.

COEFICIENTES DE CORRELACIÓN
- Pearson  El coeficiente de correlación de Pearson se utiliza cuando las
variables del análisis están medidas en nivel de intervalo o razón. En ambos
casos la interpretación se hace igual.
- Spearman  Utilizaremos el coeficiente de correlación de Spearman cuando las
variables a relacionar estén medidas en nivel nominal u ordinal.

LAS CORRELACIONES EN SPSS


El programa SPSS, a través del Menú–Analizar, nos ofrece la opción
Correlaciones, elegimos la opción Bivariadas (porque queremos correlacionar dos
variables).
Una vez dentro de la pantalla, el programa nos pide las variables que
queremos correlacionar, el coeficiente de correlación que queremos calcular, y la
prueba de significación (bilateral o unilateral) con la queremos trabajar.

1.- CORRELACIÓN ENTRE VARIABLES MEDIDAS EN NIVEL NOMINAL U ORDINAL. COEFICIENTE


DE SPEARMAN
Vamos a calcular si existe correlación entre las variables Nivel Educativo y Nivel
Profesional del Padre, y Nivel Educativo y Nivel Profesional de la Madre y su cuantía
en caso de haberla.
Una opción muy útil es la que
nos pregunta si queremos que
en los resultados aparezcan
marcadas las correlaciones
significativas (tanto al 1%
como al 5%). (Se recomienda
marcar la opción () para
facilitar la interpretación de

Interpretación de resultados
Una vez que tenemos las variables que queremos correlacionar, aceptamos y
en el visor de resultados aparecerá una matriz en la que aparecen de nuevo los
siguientes datos:
- Coeficiente de correlación  Valor del coeficiente, que se interpreta según la
tabla que aparece al principio de la práctica.
- Significatividad (Sig.)  Es lo primero que hay que mirar, indica si la
correlación es significativa, si el valor es menor que nuestro , entonces la
correlación es significativa (no se debe al azar). Mediante la opción Marcar
las correlaciones significativas, el programa señala con un asterisco (*) o
dos (**) las correlaciones que son significativas al 0,05 o al 0,01, indicando
a pie de tabla la clave de interpretación.
- N  Número de sujetos que intervienen en el análisis

Correlaciones

Estudios Profesión Estudios de Profesión


del padre del padre la madre de la madre
Rho de Spearman Estudios del padre Coeficiente de
1.000 -.570** .039 -.060
correlación
Sig. (bilateral) . .000 .700 .550
N 100 100 100 100
Profesión del padre Coeficiente de
-.570** 1.000 .025 -.043
correlación
Sig. (bilateral) .000 . .803 .672
N 100 100 100 100
Estudios de la madre Coeficiente de
.039 .025 1.000 -.292**
correlación
Sig. (bilateral) .700 .803 . .003
N 100 100 100 100
Profesión de la madre Coeficiente de
-.060 -.043 -.292** 1.000
correlación
Sig. (bilateral) .550 .672 .003 .
N 100 100 100 100
**. La correlación es significativa al nivel 0,01 (bilateral).
Vemos en este caso que existe correlación significativa entre los Estudios del Padre y
su profesión, así como entre los estudios que ha realizado la madre y su profesión.
Las correlaciones son moderada en el primer caso y baja en el segundo.
En ambos casos la correlación es negativa, es decir, que la relación entre las variables
es inversa. Esto quiere decir que a medida que aumenta el valor de una variable
disminuye el de la otra. Para interpretar esto, sólo hay que tener en cuenta cómo se
han categorizado las variables, vemos que se ha hecho de la siguiente forma:

NIVEL DE ESTUDIOS DEL PADRE/MADRE NIVEL PROFESIONAL DEL PADRE/MADRE


1 Sin estudios 1 Directivo de empresa
2 Primarios 2 Profesiones liberales
3 Secundarios 3 Profesional ligado a la enseñanza
4 Bachiller 4 Técnicos medios
5 Univ. Medios 5 Auxiliares
6 Univ. Superiores 6 De servicio
7 Otros 7 Tareas domésticas
8 En paro
9 Otros

Como puede verse, en el caso de Nivel de estudios, la categoría 1 es lo más bajo y la


categoría 6 lo más alto. En el caso del Nivel profesional es al contrario, la categoría 1
es el nivel superior y la 8 el inferior, con lo que tiene sentido decir que a medida que
aumenta el valor de la variable Nivel de estudios, disminuye el valor de la variable
Nivel profesional

2.- CORRELACIÓN ENTRE VARIABLES MEDIDAS EN NIVEL DE INTERVALO U RAZÓN.


COEFICIENTE DE PEARSON
En este caso vamos a comprobar si existe correlación entre los Rendimientos de los
alumnos en todas las materias incluidas en el fichero de los datos entre si y con el
Rendimiento global

La ventana es la misma que en el


caso anterior, únicamente hay que
seleccionar la opción del coeficiente
de Pearson y eliminar la marca del
coeficiente de Spearman
Interpretación de resultados
Una vez que tenemos las variables que queremos correlacionar, aceptamos y
en el visor de resultados aparecerá de nuevo una matriz en la que aparecen de nuevo
los siguientes datos:
- Coeficiente de correlación  Valor del coeficiente, que se interpreta según la
tabla que aparece al principio de la práctica.
- Significatividad (Sig.)  Es lo primero que hay que mirar, indica si la
correlación es significativa, si el valor es menor que nuestro , entonces la
correlación es significativa (no se debe al azar). Mediante la opción Marcar
las correlaciones significativas, el programa señala con un asterisco (*) o
dos (**) las correlaciones que son significativas al 0,05 o al 0,01, indicando
a pie de tabla la clave de interpretación.
- N  Número de sujetos que intervienen en el análisis
En la matriz se presentan las correlaciones entre las variables, vemos que

se trata de una matriz simétrica, en la que las diagonales son 1, el valor de la

Correlaciones

Rendimiento
Rendimiento Rendimiento Rendimient en Rendimiento Rendimiento
en historia en filosofía o en idioma matemáticas en dibujo global
Rendimiento Correlación
1.000 .576** .010 .239* .205* .714**
en historia de Pearson
Sig. (bilateral) . .000 .922 .017 .041 .000
N 100 100 100 100 100 100
Rendimiento Correlación
.576** 1.000 .033 .267** .253* .752**
en filosofía de Pearson
Sig. (bilateral) .000 . .743 .007 .011 .000
N 100 100 100 100 100 100
Rendimiento Correlación
.010 .033 1.000 -.225* .044 .288**
en idioma de Pearson
Sig. (bilateral) .922 .743 . .025 .660 .004
N
100 100 100 100 100 100

Rendimiento en Correlación
.239* .267** -.225* 1.000 .328** .530**
matemáticas de Pearson
Sig. (bilateral) .017 .007 .025 . .001 .000
N 100 100 100 100 100 100
Rendimiento Correlación
.205* .253* .044 .328** 1.000 .623**
en dibujo de Pearson
Sig. (bilateral) .041 .011 .660 .001 . .000
N 100 100 100 100 100 100
Rendimiento Correlación
.714** .752** .288** .530** .623** 1.000
global de Pearson
Sig. (bilateral) .000 .000 .004 .000 .000 .
N 100 100 100 100 100 100
**. La correlación es significativa al nivel 0,01 (bilateral).
*. La correlación es significante al nivel 0,05 (bilateral).

correlación de cada variable consigo misma.

En esta tabla podemos ver que existe correlación (y muy alta en algunos

casos) entre el Rendimiento global de los alumnos y el rendimiento en cada

una de las asignaturas, así como correlaciones entre los rendimientos de

varias asignaturas.
REGRESIÓN
Anteriormente hemos visto los coeficientes de correlación, que indican el grado
o la cuantía en que varían conjuntamente dos mediciones o variables. El conocimiento
de la relación entre variables es algo más que un fin en si mismo; en algunas
ocasiones se quiere aprovechar el conocimiento de una relación entre variables como
punto de partida para realizar un pronóstico o predicción. Es decir, al conocer la
variable X y su relación con la variable Y, se trataría de averiguar en qué forma se
pueden considerar los valores particulares de la variable X y predecir a partir de ellos
los valores que corresponden en Y. El Análisis de Regresión es la técnica que
utilizamos para ello.
La regresión lineal estima los coeficientes de la ecuación lineal, con una
(regresión simple) o más (regresión múltiple) variables independientes, que mejor
prediga el valor de la variable dependiente. Tanto la variable dependiente como la/s
independiente/s deben ser continuas (en caso contrario se utilizaría Análisis de
Varianza). Por ejemplo, se puede intentar predecir el rendimiento de un alumno
(variable dependiente) a partir de su nivel de motivación, edad, o capacidad de
concentración (variables independientes).

1.- REGRESIÓN SIMPLE


El análisis de regresión simple se encuentra en el menú Analizar – Regresión -
Lineal

El método que vamos a


utilizar es el de pasos
sucesivos

En este caso, vamos a estimar el Rendimiento en Matemáticas de los sujetos


(variable predicha - dependiente) a partir de su Motivación (variable predictora -
independiente).
INTERPRETACIÓN DE RESULTADOS
De entre los diferentes criterios existentes para calcular la recta de regresión,
se va a utilizar el de los MÍNIMOS CUADRADOS debido a sus excelentes propiedades
estadísticas.

Variables introducidas/eliminadasa

Variables Variables
Modelo introducidas eliminadas Método Esta tabla nos presenta las
1 Por variables que han sido incluidas
pasos
(criterio: en el modelo, y el orden de
Prob. de
Motivación F para inclusión de las mismas (como es
después del , entrar <=
programa ,050,
regresión simple, solo se incluye
Prob. de una variable)
F para
salir >=
,100).
a. Variable dependiente: Rendimiento en matemáticas

El COEFICIENTE DE DETERMINACIÓN (R Cuadrado) se utiliza para valorar la


calidad del ajuste obtenido, y se obtiene elevando al cuadrado el coeficiente de
correlación (R). Para interpretar se utiliza R CUADRADO CORREGIDA. Cuanto mayor
sea el valor del COEFICIENTE DE DETERMINACIÓN, mayor será el porcentaje de
cambios explicados por esta variable. En la tabla vemos que el valor del coeficiente de
determinación obtenido es de ,138, lo que implica que el 13% de los cambios que se
dan en la Rendimiento en Matemáticas se debe a la Motivación de los alumnos.
Queda sin explicar el 87% de los cambios (100-13).

Resumen del modelo

R cuadrado Error típ. de la


Modelo R R cuadrado corregida estimación
1 ,372a ,138 ,129 1,83
a. Variables predictoras: (Constante), Motivación después del
programa

El ERROR TÍPICO DE LA ESTIMACIÓN es el error que se comete en toda


predicción, y su valor oscila entre 0 y S Y . Si el coeficiente de correlación (R) entre las
variables es grande, el error típico de la estimación será pequeño y viceversa.

A continuación aparece la tabla del Análisis de Varianza, en la que se valora la


importancia de la parte de la variable dependiente (Rendimiento en Matemáticas)
explicada por la variable independiente (Motivación). Con este análisis obtendremos la
probabilidad de que la parte explicada haya podido serlo por azar.
En la columna de la derecha aparece el valor de la significatividad, que nos
indica la probabilidad de que la suma de distancias explicada mediante la regresión
haya sido obtenida por el azar (estamos utilizando el método de los mínimos
cuadrados).

ANOVAb

Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 52,352 1 52,352 15,707 ,000a
Residual 326,648 98 3,333
Total 379,000 99
a. Variables predictoras: (Constante), Motivación después del programa
b. Variable dependiente: Rendimiento en matemáticas

En este caso, se ha obtenido una significatividad de 0,000, menor que  (0,05),


por lo que puede afirmarse que las diferencias no se deben al azar.

Coeficientesa

Coeficient
es
Coeficientes no estandari
estandarizados zados
Modelo B Error típ. Beta t Sig.
1 (Constante) 3,687 ,540 6,832 ,000
Motivación después
3,237E-02 ,008 ,372 3,963 ,000
del programa
a. Variable dependiente: Rendimiento en matemáticas

En la tabla de los coeficientes aparece lo siguiente: en la columna B aparecen


los valores a (3,687) y b (0,0032) de la recta de regresión, que puede escribirse de la
forma siguiente:

Y (Rendimiento en Matemáticas) = 3,687+ 0,0032* Motivación

El valor de la constante a representa el valor que se asigna a la variable


dependiente (Rendimiento en Matemáticas) en el caso en que la variable
independiente (Motivación) fuera 0. El valor de b por su parte, representa el
incremento de la variable dependiente cuando la variable independiente aumenta en
una unidad.
Desde el punto de vista gráfico, b representa la pendiente de la recta de
regresión, mientras que a indica el punto de corte de la recta de regresión con el eje
de ordenadas Y.
Coeficientes Beta  En ocasiones, sobre todo cuando las variables con las que
trabajamos están medidas en escalas muy diferentes, puede resultar interesante
trabajar con las puntuaciones estandarizadas en vez de hacerlo con las directas. De
esta forma podremos comparar los resultados obtenidos con variables medidas en
diferentes escalas. Los coeficientes de la recta de regresión obtenidos para las
puntuaciones estandarizadas son los coeficientes BETA (atención, no confundir con
los coeficientes , que representan a los parámetros poblacionales).
Su interpretación es la siguiente: el incremento de la variable dependiente (en
puntuaciones típicas) al aumentar en una unidad la puntuación típica de la variable
independiente. O, dicho de otra forma, el número de desviaciones típicas en que se
incrementará el valor de la variable dependiente al incrementarse en una desviación
típica la variable independiente. Además, en el caso de la regresión simple, el
coeficiente BETA coincide con el coeficiente de correlación.

Cómo realizar la predicción


Cuando queremos conocer la puntuación de un sujeto en la variable Y (criterio)
a partir de su puntuación en la variable X (predictor), se calcula la recta de regresión a
partir de los datos o puntuaciones obtenidas por el grupo normativo, y a partir de esa
recta de regresión, se calcula la puntuación Y’ de ese sujeto y se le suma y resta el
error típico de estimación dando lugar a un intervalo:
Límite superior  Y’ + Sxy
Y’ + - Sxy Límite inferior  Y’ - Sxy
2.- REGRESIÓN MÚLTIPLE
La regresión múltiple es la generalización de la regresión simple para el caso
en que contemos con más de una variable explicativa (o independiente). Accedemos,
igual que en el caso de la regresión simple, al menú Analizar – Regresión – Lineal.

Seleccionamos, como en el caso


de Regresión Simple, el método
de Pasos Sucesivos

En este caso se va a predecir el Rendimiento Global de los alumnos (variable


dependiente), a partir de su Motivación después del programa (variable independiente
1) y de su Inteligencia general (variable independiente 2).

INTERPRETACIÓN DE RESULTADOS

Variables introducidas/eliminadasa

Variables Variables
Modelo introducidas eliminadas Método En esta primera tabla se presentan las
1 Por
pasos variables que han sido incluidas en el
(criterio:
modelo, y el orden de inclusión de las
Prob. de
F para mismas
Inteligencia
, entrar <=
general
,050,
Prob. de
F para
Tenemos dos modelos, el primero (1) con
salir >= la variable independiente Inteligencia
,100).
2 Por General y el segundo (2) con las variables
pasos independientes Inteligencia General +
(criterio:
Prob. de Motivación Después del Programa.
Motivación F para
después del , entrar <=
programa ,050,
Aunque habíamos seleccionado en primer
Prob. de
F para lugar la Motivación Después del Programa,
salir >=
,100). en el análisis ha entrado antes la
a. Variable dependiente: Rendimiento global Inteligencia General porque explica mayor
porcentaje de los cambios en la variable
Recordar que hemos elegido el método de Pasos Sucesivos que, frente al de
Introducir (que introduce todas las variables independientes a la vez), va
introduciéndolas una por una.

Resumen del modelo

R cuadrado Error típ. de la


Modelo R R cuadrado corregida estimación
1 ,698a ,487 ,482 ,9175
2 ,745b ,555 ,546 ,8592
a. Variables predictoras: (Constante), Inteligencia general
b. Variables predictoras: (Constante), Inteligencia general,
Motivación después del programa

Al utilizar el método de Pasos Sucesivos podemos ver el valor de los


coeficientes para cada modelo. La primera variable independiente que se incluye es la
que tiene una mayor relación con la variable dependiente (en este caso la Inteligencia
General de los alumnos), y ella sola explica el 48,2% (R cuadrado corregida = 0,482)
de los cambios de la variable Rendimiento Global.
En el segundo modelo, al incluir la segunda variable independiente en la
ecuación (Motivación Después), el porcentaje de varianza explicada aumenta a 54,6%
(R cuadrado corregida = 0,546), al igual que lo hace el coeficiente de correlación
múltiple R (pasa de 0,698 a 0,745). En este segundo modelo disminuye también el
error de estimación (de 0,9175 a 0,8592)

ANOVAc

Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 78,405 1 78,405 93,130 ,000a
Residual 82,505 98 ,842
Total 160,910 99
2 Regresión 89,306 2 44,653 60,490 ,000b
Residual 71,604 97 ,738
Total 160,910 99
a. Variables predictoras: (Constante), Inteligencia general
b. Variables predictoras: (Constante), Inteligencia general, Motivación después del
programa
c. Variable dependiente: Rendimiento global

En la tabla del Análisis de Varianza tenemos de nuevo la información para los


dos modelos, la interpretación se hace igual que en el caso de regresión simple.
Vemos que los dos modelos son significativos, es decir, que la parte explicada no se
debe al azar (,000 < )
En la tabla siguiente se presentan los coeficientes de regresión de cada
modelo, en el que solo se incluye la variable Inteligencia General como independiente
(modelo 1), y en el que se incluyen las dos: Inteligencia General y Motivación
Después (modelo 2).

Coeficientesa

Coeficient
es
Coeficientes no estandari
estandarizados zados
Modelo B Error típ. Beta t Sig.
1 (Constante) -23,365 2,998 -7,795 ,000
Inteligencia general ,335 ,035 ,698 9,650 ,000
2 (Constante) -19,856 2,952 -6,727 ,000
Inteligencia general ,283 ,035 ,589 8,028 ,000
Motivación después
1,601E-02 ,004 ,282 3,843 ,000
del programa
a. Variable dependiente: Rendimiento global

Las ecuaciones son:


 Y (rend.global) = - 23,365 + 0,335 * Inteligencia General
 Y (rend.global) = - 19,8 + ,283 * Inteligencia General + 0,001 * Motivación D
La interpretación de los coeficientes BETA es la misma que en caso de la regresión simple

En la última tabla aparecen las variables que han quedado excluidas del
análisis. La exclusión no tiene que deberse forzosamente a que la variable no sea
importante a la hora de explicar los cambios de la variable dependiente, simplemente
querrá decir que su aportación a la explicación de los cambios de la variable
dependiente ya está explicada por otras variables incluidas, y que su inclusión puede
resultar redundante. En este caso se ha excluido finalmente la Motivación Después del
Programa porque como puede verse en la tabla-resumen del modelo, su contribución
al Rendimiento Global es muy pequeña.

Variables excluidasb

Estadístic
os de
colinealid
Correlación ad
Modelo Beta dentro t Sig. parcial Tolerancia
1 Motivación después a
,282 3,843 ,000 ,363 ,851
del programa
a. Variables predictoras en el modelo: (Constante), Inteligencia general
b. Variable dependiente: Rendimiento global
ANÁLISIS FACTORIAL
El análisis factorial es una técnica estadística multivariada cuya finalidad
consiste en obtener un número reducido de variables abstractas, que están
compuestas por distintas cargas o saturaciones sobre variables empíricas, en función
de la estructura de los datos obtenidos al realizar el proceso de medida de dichas
variables empíricas. Como el número de factores que se obtienen al realizar un
análisis factorial es menor que el número de variables de las que partimos y contienen
la misma información, cada factor explica una conducta más compleja que la explicada
por las variables empíricas.
Para realizar un Análisis Factorial con SPSS, elegiremos en el menú- analizar,
la opción Reducción de datos- Análisis Factorial

En esta ventana, el programa pide las


variables que queremos introducir para
realizar el análisis, en nuestro caso
vamos a introducir todas las variables del
fichero para tratar de obtener un número
de factores inferior al número de
variables que tenemos y que nos

A través de esta pantalla podemos introducir una serie de especificaciones como el


método de rotación y extracción de los factores

En la opción método de
ROTACIÓN de los factores,
aparecen varios métodos, de
entre los que elegiremos el

Respecto a la EXTRACCIÓN
de los factores, el método de
Componentes Principales es
el que vamos a utilizar.
- La opción DESCRIPTIVOS nos permite especificar al programa si
queremos que en la salida aparezcan la solución inicial y estadísticos univariados,
así como lo que queremos que aparezca en la matriz de correlaciones
(coeficientes, niveles de significación, matriz inversa, reproducida o anti-imagen,
determinante y la prueba de Barlett) para elegir cualquiera de ellos, basta con
seleccionarlos ().
- La opción PUNTUACIONES, nos permite obtener las puntuaciones factoriales de
los sujetos, para ello, seleccionamos la opción y elegimos el método de Barlett. Las
puntuaciones factoriales de cada sujeto en cada factor aparecerán al final del
fichero de datos como nuevas variables con el nombre factnºdel factor_ nº de
análisis.

Interpretación de resultados

Comunalidades

Inicial Extracción
Edad 1.000 .486
Sexo 1.000 .503
Grupo 1.000 .765
Rendimiento global 1.000 .961
Rendimiento en historia 1.000 .634 La tabla de comunalidades nos
Rendimiento en filosofía 1.000 .687
Rendimiento en idioma 1.000 .783 indica cómo está representada cada
Rendimiento en una de las variables en la solución
1.000 .582
matemáticas
Rendimiento en dibujo 1.000 .536 factorial (utilizamos el criterio > 0,60
Estudios del padre 1.000 .646
para establecer que las variables
Profesión del padre 1.000 .785
Estudios de la madre 1.000 .636 están bien representadas en la
Profesión de la madre 1.000 .607
Nivel social familiar
solución factorial)
1.000 .728
Situación laboral del
1.000 .664
alumno
Interes profesional del
1.000 .687
alumno
Capacidad de
1.000 .859
concentración antes
Capacidad de
1.000 .881
concetración despues
Motivación antes del
1.000 .718
programa
Motivación después del
1.000 .805
programa
Método de extracción: Análisis de Componentes principales.

La tabla de Varianza total explicada nos informa del número total de factores
(componentes) extraídos, así como de la varianza explicada por cada factor en la
solución factorial, tanto antes como después de la rotación. En esta tabla podemos ver
cuáles son los factores significativos, que serán aquellos cuya varianza explicada
Varianza total explicada

Sumas de las saturaciones al cuadrado Suma de las saturaciones al cuadrado


Autovalores iniciales de la extracción de la rotación
% de la % de la % de la
Componente Total varianza % acumulado Total varianza % acumulado Total varianza % acumulado
1 4.096 20.482 20.482 4.096 20.482 20.482 3.926 19.632 19.632
2 2.371 11.853 32.335 2.371 11.853 32.335 2.274 11.371 31.003
3 2.025 10.123 42.458 2.025 10.123 42.458 1.938 9.691 40.695
4 1.666 8.329 50.787 1.666 8.329 50.787 1.522 7.608 48.303
5 1.442 7.212 57.998 1.442 7.212 57.998 1.467 7.335 55.638
6 1.264 6.321 64.320 1.264 6.321 64.320 1.424 7.122 62.760
7 1.085 5.425 69.745 1.085 5.425 69.745 1.397 6.984 69.745
8 .999 4.996 74.740
9 .858 4.290 79.030
10 .734 3.671 82.701
11 .674 3.368 86.069
12 .583 2.915 88.983
13 .565 2.824 91.807
14 .487 2.436 94.244
15 .350 1.750 95.993
16 .312 1.562 97.555
17 .255 1.277 98.832
18 .176 .878 99.710
19 5.787E-02 .289 100.000
20 3.180E-05 1.590E-04 100.000
Método de extracción: Análisis de Componentes principales.

sea mayor que 1.


Han salido siete factores significativos que explican el 69,745%
(19,632+11,371+9,691+7,608+7,335+7,7122+6,984) de la varianza total. La varianza
total de la solución factorial es igual al número de variables incluidas en el análisis; en
nuestro caso, la varianza total es 20.
A continuación aparece la tabla con las cargas factoriales de las variables,
primero sin rotar y después rotadas (que es la que tenemos que interpretar). Los
pesos factoriales serán significativos a partir de 0,30.

Matriz de componentes rotadosa

Componente
1 2 3 4 5 6 7
Edad 3.784E-02 5.927E-02 -.241 .345 .376 -.391 9.626E-02
Sexo 4.277E-02 -4.54E-02 .232 .652 -8.01E-02 -7.49E-02 -8.94E-02
Grupo .343 -.127 .245 -.298 .680 -4.58E-02 .133
Rendimiento global .917 6.126E-02 -4.90E-02 -7.33E-03 -6.26E-02 .293 .158
Rendimiento en historia .727 -.173 .122 -.112 .176 9.478E-02 9.488E-02
Rendimiento en filosofía .816 -3.40E-02 -2.92E-02 -7.52E-02 9.493E-02 3.712E-02 -5.66E-02
Rendimiento en idioma 6.141E-02 4.061E-02 2.887E-02 3.964E-02 8.593E-02 .872 -8.57E-02
Rendimiento en
.500 .184 -7.57E-02 -5.88E-03 -.312 -.309 .315
matemáticas
Rendimiento en dibujo .540 .188 -.197 .146 -.267 .165 .225
Estudios del padre -5.95E-02 .785 -2.94E-02 -7.47E-02 -6.74E-02 -2.92E-02 -.123
Profesión del padre 8.774E-02 -.868 -9.35E-02 -9.55E-03 2.598E-02 -1.79E-02 -.119
Estudios de la madre -2.09E-02 4.817E-02 1.552E-02 .105 .118 .119 -.771
Profesión de la madre 1.363E-02 -8.66E-04 -2.01E-02 .356 .223 3.830E-02 .654
Nivel social familiar 7.748E-03 .846 -4.69E-02 -8.57E-02 1.712E-03 4.983E-02 -1.73E-02
Situación laboral del
2.918E-02 -.121 -.120 .774 -3.93E-02 7.180E-02 .170
alumno
Interes profesional del
-.371 -1.89E-02 -.128 1.848E-02 .697 .191 -9.38E-02
alumno
Capacidad de
-5.43E-02 4.100E-02 .898 9.690E-02 -.151 8.297E-02 -9.63E-02
concentración antes
Capacidad de
-6.32E-03 -1.69E-02 .924 -1.98E-02 .157 3.656E-03 5.527E-02
concetración despues
Motivación antes del
.698 -.164 -3.01E-02 .224 -.122 -.312 -.202
programa
Motivación después del
.765 -.129 3.363E-03 .197 -.133 -.347 -.158
programa

MétodoAdepartir de los
extracción: pesos
Análisis significativos
de componentes de las variables en los factores, iríamos
principales.
Método de rotación: Normalización Varimax con Kaiser.
dando larotación
a. La naturaleza al factor,
ha convergido es decir, poniéndole nombre. En este análisis se ha
en 9 iteraciones.

reducido la información de 20 variables a 7 factores

PUNTUACIONES FACTORIALES
En caso de haber solicitado al programa las puntuaciones de cada sujeto en
cada factor, al final del fichero de datos aparecerán unas variables nuevas, con el
aspecto que se muestra a continuación:
ANÁLISIS DE COVARIANZA

El análisis de covarianza (ANCOVA) es una combinación de las técnicas


de regresión y análisis de varianza, que se utiliza para comprobar la existencia
de diferencias estadísticamente significativas en la variable dependiente
atribuibles a la variable independiente (con dos ó más grupos o categorías) y
otra dependiente (nivel de medición intervalo o razón), eliminando la interacción
de una variable extraña que controlamos a través de éste método,
introduciéndola en el análisis como COVARIABLE.
La suposición específica del ANCOVA es que la variable concomitante
(covariable) no debe ser afectada por los tratamientos, es decir, que los
tratamientos aplicados a las unidades experimentales para poder observar sus
efectos en la variable Y no deberían influir en los valores esperados de X.
Accedemos al análisis de covarianza a través del menú Analizar –
Modelo Lineal General – Univariante.
La H0 queda formulada de la forma siguiente: No existen diferencias
estadísticamente significativas en el Rendimiento Global de los alumnos en función del
Grupo de clase al que pertenezcan, controlando la influencia del Nivel Social de la familia.

En este caso vamos a coger como


variable dependiente el Rendimiento
Global, como independiente o factor fijo
el Grupo de clase, y se va a controlar el
efecto de la variable Nivel Social de la
familia.

Interpretación de resultados
De la tabla podemos deducir una serie de conclusiones (tantas como pruebas de
significatividad realizadas) que se presentan a continuación:
5. Modelo corregido  Se pone a prueba la existencia de diferencias estadísticamente
significativas en el Rendimiento Global obtenido por los alumnos en función del
Grupo al que pertenecen, controlando el efecto que pueda ejercer el Nivel Social
Familiar. La probabilidad asociada al estadístico F calculado es de 0,000 al ser un
valor menor que  (0,05), rechazamos H0 y afirmamos que existen
6. diferencias en el Rendimiento Global obtenido por los alumnos en función
del Grupo al que pertenecen, controlando el efecto que pueda ejercer el Nivel
Social Familiar
7. Intersección  En este caso se pretende comprobar la existencia de diferencias
estadísticamente significativas en el Rendimiento Global de los alumnos,
provocadas por la acción conjunta de las variables Grupo de Clase y Nivel Social
Familiar. En este caso, la probabilidad asociada a F es también de 0,000, y al ser
menor que  (0,05), se rechaza H0, por lo que se confirma la existencia de
diferencias estadísticamente significativas en el Rendimiento Global de los
alumnos, provocadas por la acción conjunta de las variables Grupo de Clase
y Nivel Social Familiar

Pruebas de los efectos inter-sujetos

Variable dependiente: Rendimiento global


Suma de
cuadrados Media
Fuente tipo III gl cuadrática F Significación
Modelo corregido 79,255a 4 19,814 23,052 ,000 123
4
Intersección 445,926 1 445,926 518,803 ,000
NIVSOC ,337 1 ,337 ,392 ,533
GRUPO 79,000 3 26,333 30,637 ,000
Error 81,655 95 ,860
Total 3240,050 100
Total corregida 160,910 99
a. R cuadrado = ,493 (R cuadrado corregida = ,471)

8. Por último se hace un ANOVA con cada una de las variables independientes
utilizadas. En el primer caso (para la Variable Nivel Social Familiar) se acepta la H0
al ser la probabilidad asociada a F mayor que  (0,05) (para Nivel Social Familiar
la probabilidad asociada a F es de 0,533), por lo que no hay diferencias
estadísticamente significativas en el Rendimiento Global de los alumnos en
función del Nivel Social Familiar.
9. En el segundo caso se rechaza la H0 al ser la probabilidad asociada a F menor
que  (0,05) (para Grupo de Clase la probabilidad asociada a F es de 0,000), por
lo que hay diferencias estadísticamente significativas en el Rendimiento
Global de los alumnos en función del Grupo de clase al que pertenecen.
ANÁLISIS DE ÍTEMS: ITEMAN

ITEMAN es un programa diseñado para realizar análisis de ítems, y


determinar la proporción de sujetos que acierta cada ítem, los que contribuyen
a la fiabilidad de un test, qué alternativas funcionan mejor y peor para un ítem
dado, etc.

EL FICHERO DE DATOS
El programa ITEMAN funciona bajo MS-DOS, por lo que los datos deben
introducirse con formato ASCII (texto), por ejemplo desde el editor del DOS,
Word Pad o Bloc de Notas de Windows. El fichero de datos va a tener un
aspecto similar al siguiente:

Las cuatro primeras líneas del fichero de datos son fundamentales y debe
extremarse la atención al escribirlas, que cualquier error en ellas (un espacio
de más o de menos, un punto, etc.) puede hacer que el programa no se ejecute
o lo haga de forma incorrecta.
 La primera línea está formada por 10 columnas que indican lo siguiente:
 Columnas 1 a 3  Número de ítems de que consta el test (máximo
250 ítems). En el ejemplo anterior, el test consta de 80 ítems, observar
que la primera columna queda en blanco, hubiera sido igual poner 035,
pero siempre respetando las tres columnas.
 Columna 4  Espacio en blanco.
 Columna 5  Código para las respuestas omitidas (en el Fichero del
ejemplo, el 9 es el valor que se asigna a los ítems no contestados).
 Columna 6  Espacio en blanco
 Columna 7  Código para los ítems no alcanzados. Especialmente
importante cuando se trata de test de velocidad, es el valor que se asigna a
los ítems que no han sido alcanzados por el alumno por falta de tiempo (en el
Fichero del ejemplo, el 8 es el valor que se asigna a estos ítems, pero no
aparece ninguno porque no se trata de una prueba de velocidad).
 Columna 8  Espacio en blanco
 Columnas 9 y 10  Número de caracteres utilizados para identificar a
los sujetos. En el fichero de ejemplo se especifica un 3 porque se utilizan las
dos primeras para enumerar del 1 al 50 y una más de separación entre la
identificación y los datos, total, 3 columnas.
 En la segunda línea se especifica la clave de corrección, la alternativa correcta
de cada ítem. Debe haber tantos dígitos como ítems.
 En la tercera línea se indica el número de alternativas que hay para cada uno
de los ítems del test. En el fichero del ejemplo cada ítem tiene 4 alternativas
 En la cuarta línea se especifican los ítems que entran en el análisis. Y significa
que el ítem se analizará; N significa que no se analizará. Debe haber tantos Y/N
cono ítems en el test. En el fichero de ejemplo se pide el análisis de los 80 ítems.
 A partir de la quinta línea se empiezan a escribir los datos.

GUARDAR LOS DATOS


Como ya hemos visto antes, los datos deben guardarse en un fichero de
texto; se recomienda hacerlo en el Word Pad de Windows, que asigna por defecto al
fichero la extensión .txt
Escribir el nombre del fichero, de u máximo de 8 caracteres (recordar que
ITEMAN trabaja bajo MS-DOS y no reconoce nombres largos). No poner ninguna
extensión al fichero, sólo el nombre y la ubicación (en disco de 3 1/2) y Aceptar

EJECUCIÓN DE ITEMAN
 Acceder al programa  Inicio - Programas - ITEMAN
 Lo primero que pide el programa es el fichero de los datos. Se escribe el nombre
del fichero de datos (por ejemplo a:datos.txt) y se pulsa INTRO

 A continuación, el programa pide que se especifique dónde se debe guardar la


salida (por ejemplo a:salida). Si no se pone extensión al fichero, por defecto el
programa le asigna la extensión .out. Pulsar INTRO

 ITEMAN pregunta si se desea crear un fichero con las puntuaciones de cada


sujeto (Do you want the scores written to a file?). Si se escribe Y (yes), el programa
pide la ubicación de este archivo (por ejemplo a:puntua), si se escribe N (no) pasa a
la siguiente pregunta.
 A la siguiente pregunta (Do you want a key exceptions file?) decimos siempre que
NO

 ITEMAN pregunta si se quiere un fichero con los estadísticos (Do you wnat to write
statistics to a external file?). En este caso, diremos al programa que NO, pero si se
quieren, el programa pide que se le especifique el nombre (por ejemplo a:estadis)
 Al pulsar INTRO, sale una pantalla en la que hay que especificar las opciones de
configuración del análisis. En nuestro caso vienen señaladas por defecto, así que
simplemente pulsamos Continuar (INTRO)

 Una vez terminado el análisis, aparece una barra roja que dice ***ITEM ANALYSIS
COMPLETE***. Para ver los resultados, puede pulsarse directamente F2 para
acceder al editor de ITEMAN o abrir el archivo desde el Word Pad

LOS RESULTADOS
EN la salida encontramos, en primer ligar, información referida al programa
(versión, año, etc.). A continuación los detalles específicos del análisis:
******************** ANALYSIS SUMMARY INFORMATION ********************

Data (Input) File: A:\DATOS.TXT


Analysis Output File: A:\SALIDA.OUT
Score Output File: NONE
Exceptions File: NONE
Statistics Output File: NONE

Scale Definition Codes: DICHOT = Dichotomous MPOINT = Multipoint/Survey

Se especifica dónde estaban almacenados los datos, dónde se ha grabado la salida


así como el resto de archivos que se hayan pedido.

Scale: 0
-------
Type of Scale DICHOT
N of Items 80
N of Examinees 50

***** CONFIGURATION INFORMATION *****

Type of Correlations: Point-Biserial


Correction for Spuriousness: NO
Ability Grouping: YES
Subgroup Analysis: NO
Express Endorsements As: PROPORTIONS
Score Group Interval Width: 1

Aquí se resume la configuración que se especificó en la pantalla 

A partir de ahora, aparece el análisis de cada ítem. Se presenta sólo un extracto de


la salida con el análisis de dos de ellos.

Parte 1ª En la segundaParte 2ª de la salida, que hace


parte
referencia al ítem completo, se da la
información correspondiente a todas las
alternativas del ítem.
La primera parte hace referencia a la
alternativa correcta de cada ítem, y se da la Alt.  Número de alternativa
información siguiente: Prop.Endorsing Low.  Proporción del 27%
Prop. Correct  Proporción de sujetos que de los alumnos con peor puntuación en el
eligen esa alternativa (al ser la correcta, test, que eligen esa alternativa
nos da la información sobre proporción de Prop.Endorsing High.  Proporción del 27%
aciertos del ítem). Nos indica el índice de de los alumnos con mejor puntuación en el
dificultad del ítem. test, que eligen esa alternativa
Disc. Index.  Indice de discriminación. Point Biser.  Relación existente entre cada
Correlación entre el ítem y el test. Indica el alternativa y el test completo
grado en que el ítem mide lo que mide el Atl.  Alternativa que se ha señalado
test como correcta en la clave de
Point. Biser.  Indice de homogeniedad corrección
del ítem. Equivalente al índice de
discriminación
Un signo de interrogación (?), por ejemplo el que aparece en el ítem 4, indica
que hay que revisar el ítem, que se ha especificado la alternativa 3 como correcta en
la clave de corrección, pero está funcionando mejor la 2
A continuación el programa proporciona una descripción estadística completa
de todo el instrumento:
Scale: 0
-------
N of Items 80
N of Examinees 50
Mean 51.920
Variance 58.554
Std. Dev. 7.652
Skew 0.637
Kurtosis -0.478
Minimum 41.000
Maximum 69.000
Median 50.000
Alpha 0.798
SEM 3.440
Mean P 0.649
Mean Item-Tot. 0.230
Mean Biserial 0.329
Max Score (Low) 46
N (Low Group) 13
Min Score (High) 56
N (High Group) 14

Un histograma que representa la frecuencia de aciertos:


Number Freq- Cum
Correct uency Freq PR PCT
------- ------- ------ ---- ----
. . . No examinees below this score . . .
40 0 0 1 0 +
41 3 3 6 6 |######
42 2 5 10 4 |####
43 1 6 12 2 |##
44 2 8 16 4 |####
45 2 10 20 4 +####
46 3 13 26 6 |######
47 5 18 36 10 |##########
48 2 20 40 4 |####
49 2 22 44 4 |####
50 4 26 52 8 +########
51 2 28 56 4 |####
52 1 29 58 2 |##
53 2 31 62 4 |####
54 4 35 70 8 |########
55 1 36 72 2 +##
56 3 39 78 6 |######
57 0 39 78 0 |
58 1 40 80 2 |##
59 1 41 82 2 |##
60 1 42 84 2 +##
61 0 42 84 0 |
62 1 43 86 2 |##
63 2 45 90 4 |####
64 0 45 90 0 |
65 0 45 90 0 +
66 1 46 92 2 |##
67 2 48 96 4 |####
68 1 49 98 2 |##
69 1 50 99 2 |##
70 0 50 99 0 +
71 0 50 99 0 |
. . . No examinees above this score . . . |
|----+----+----+----+----+
5 10 15 20 25
Percentage of Examinees
A continuación presentamos una tabal que puede resultar útil para la interpretación
de resultados:

INDICE DE DIFICULTAD DEL ITEM INDICE DE VALIDEZ - INDICE DE HOMOGENEIDAD


Valor Interpretación Valor Interpretación
Menor de 0,25 Muy difícil Negativo a menor de 0,20 Rechazar ítem
Entre 0,25 y 0,44 Difícil Mayor o igual de 0,55 Bastante alto
Entre 0,45 y 0,54 Normal Mayor o igual de 0,75 Muy alto
Entre 0,55 y 0,74 Fácil
Mayor de 0,75 Muy Fácil

También podría gustarte