Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Textos complementarios
© Leticia de la Fuente Sánchez y Juan García García 2
VariabilidadVI
Fobs =
Variabilidad ERROR
1
Aparte del efecto común o constante para todos los sujetos del estudio, que no se utiliza para el análisis.
© Leticia de la Fuente Sánchez y Juan García García 5
El valor empírico del estadístico F, servirá para el objetivo final: saber si las
diferencias que encontramos en nuestros datos, a través de las medias de los diferentes
grupos, una vez se han aplicado los tratamientos, pueden ser atribuidas, con el margen
de error delimitado por el nivel de significación α = 0,05 (un nivel de confianza del 95%),
al efecto de los factores aleatorios o azarosos, o no.
Para ello, se aplicará la regla de decisión sobre la H0 basada en el contraste de
hipótesis clásico. En este caso responderíamos a la siguiente pregunta: ¿cuál es la
probabilidad de que este resultado sea debido al azar? Si ese valor de probabilidad es
“suficientemente pequeño”, es decir, es menor o igual que el valor estipulado por el
nivel de significación (p ≤ 0,05;α = 0,05), rechazamos el azar como hipótesis
explicativa (rechazamos la H0).
3. Supuestos que deben cumplir los datos para poder analizarlos mediante el
modelo de ANOVA
Para poder aplicar correctamente el ANOVA a un conjunto de datos, dichos datos
deben satisfacer los siguientes supuestos básicos:
(1) Normalidad: las puntuaciones de los diversos grupos en la VD se deben distribuir
normalmente. El ANOVA es robusto al incumplimiento de este supuesto, no
obstante, si la muestra es pequeña es conveniente evaluarlo.
(2) Homocedasticidad: Las varianzas de los distintos grupos de tratamiento han de ser
homogéneas (no deben existir entre ellas diferencias estadísticamente
significativas). El ANOVA es robusto al incumplimiento de este supuesto con
tamaños muestrales iguales en todos los grupos y no muy pequeños. No obstante, es
aconsejable evaluarlo. Se puede hacer al mismo tiempo que se ejecuta el
Procedimiento para el ANOVA con el SPSS, como se verá en los ejemplos.
(3) Independencia de la observaciones: las puntuaciones de los diversos grupos en la
VD han de ser independientes, lo que asegura que la razón entre la varianza debida
al efecto de la(s) VI(s) y la varianza debida al efecto del error, siga una distribución
F de Snedecor con el alfa nominal estipulado y los grados de libertad asociados al
numerador y al denominador de dicha razón. El ANOVA NO es robusto al
incumplimiento de este supuesto, que se suele incumplir prácticamente siempre que
los datos proceden de diseños con medidas repetidas. En estos casos, es necesario
tener en cuenta otras opciones.
© Leticia de la Fuente Sánchez y Juan García García 6
(4) Nivel de medida de la VD: la variable dependiente debe estar medida en una escala
de razón o de intervalo.
Estos supuestos es necesario considerarlos antes de aplicar el ANOVA. Si NO se
cumplieran, los resultados que aporta al análisis de varianza pueden ser incorrectos y
nos pueden llevar a rechazar hipótesis nulas cuando no deberían rechazarse; es decir, a
cometer errores tipo I.
Pruebas de normalidad
a
Kolmogorov-Smirnov Shapiro-Wilk
Grupo de pertenencia Estadístico gl Sig. Estadístico gl Sig.
Puntuaciones Control ,131 10 ,200* ,924 10 ,395
Conductas Asertivas Tratamiento A ,173 10 ,200* ,914 10 ,307
Tratamiento B ,177 10 ,200* ,946 10 ,624
*. Este es un límite inferior de la significación verdadera.
a. Corrección de la significación de Lilliefors
Como se puede observar en la tabla anterior, podemos asumir que las puntuaciones se
distribuyen Normalmente.
Para ejecutar el ANOVA, el procedimiento más sencillo es Analizar,
Comparar medias, ANOVA de un factor. En este ventana, se deben indicar la
variable dependiente y la independiente: introducimos la VD “Asertividad” en “Lista de
dependientes” y la VI “Grupo” en “Factor”.
Este procedimiento tiene tres posibilidades además de realizar la prueba global
del ANOVA: Contrastes, Post hoc y Opciones. La ventana Opciones permite
seleccionar estadísticos descriptivos, la prueba de Levene para comprobar el supuesto de
homocedasticidad, gráfico para las medias y también permite obtener los valores de dos
estadísticos (Brown-Forsythe y Welch) que son preferibles al estadístico F de Snedecor
cuando no se cumple el supuesto de homocedasticidad. También permite controlar el
tratamiento de valores perdidos.
Tanto la opción Contrastes como la opción Post hoc se utilizan para realizar
comparaciones múltiples adicionales a la prueba de ANOVA. La forma de utilizar la
© Leticia de la Fuente Sánchez y Juan García García 8
En primer lugar, en la salida de resultados aparecen los descriptivos y la prueba para evaluar el
supuesto de igualdad de varianzas que solicitamos en la ventana Opciones.
Descriptivos
Rendimiento
Estadístico
de Levene gl1 gl2 Sig.
,119 2 27 ,888
ANOVA
El resultado del Análisis de Varianza indica que podemos rechazar los factores
aleatorios como explicación de las diferencias de medias que encontramos en nuestros
datos, ya que el valor de probabilidad asociado al estadístico F (Sig. = 0,000) está por
debajo del nivel de significación que, como ya sabemos es 0,05.
© Leticia de la Fuente Sánchez y Juan García García 9
Una vez que el ANOVA ha determinado que exsite un efecto estadísticamente significativo, es
conveniente conocer cómo de importante es dicho efecto. Para ello, es necesario obtener un
índice que nos exprese lo que conocemos como “tamaño del efecto”.2
El tamaño del efecto es un índice que expresa, de forma general, “el grado o magnitud
de la relación entre la variable dependiente y la variable independiente”. Si la variable
independiente explica todos los cambios registrados en la variable dependiente, entonces la
relación entre las variables es perfecta, mientras que si no explica nada, la relación es nula.
Para estimar el valor del tamaño del efecto se pueden utilizar diversos índices, siendo
uno de los más utilizados junto con el análisis de varianza el conocido como η2 (eta cuadrado),
de la familia de índices basados en la proporción de varianza explicada o familia r (Kirk,
1996; Maxwell y Delaney, 1990; Richardson, 1996; Rosenthal, 1994; Yeaton y
Sechrest, 1981). Para estimar el valor de η2 se utilizan los datos obtenidos en el ANOVA,
concretamente se calcula mediante un cociente entre la variabilidad atribuida al tratamiento y la
variabilidad total:
SCINTER
η2 =
SCTOTAL
Los valores que puede tomar η2 oscilan entre 0 y 1, expresando la proporción de varianza de la
variable dependiente que puede ser explicada por el efecto de la variable independiente. Con los
datos del ejemplo utilizado anteriormente para el ANOVA, el tamaño del efecto sería:
SCINTER 3251.26
η2 = = = 0.87
SCTOTAL 3718.96
Por tanto, la varianza atribuible al efecto de la VI es de 0’87, lo cual quiere decir que el 87% de
la variación observada en los comportamientos asertivos de los diferentes grupos, corresponde
al tipo de tratamiento al que fueron asignados los pacientes que participaron en el estudio.
Una guía que puede orientar a partir de qué valores se puede considerar un tamaño del
efecto bajo, medio o alto, es la siguiente (Cohen, 1988):
- Valores de η2 entre 0 y 0’199: tamaño del efecto bajo
- Valores de η2 entre 0’2 y 0’399: tamaño del efecto medio
© Leticia de la Fuente Sánchez y Juan García García 10
2
Para una explicación más amplia del concepto “tamaño del efecto” remítase al punto correspondiente
© Leticia de la Fuente Sánchez y Juan García García 11
Los resultados que aparecen a continuación son el resultado de la selección de pruebas Post hoc
asumiendo varianza iguales en los grupos de comparación.
Comparaciones múltiples
Como se puede ver en la tabla, ambas pruebas arrojan los mismos resultados.
Concretamente, vemos que las diferencias estadísticamente significativas se encuentran
entre el grupo control y los dos grupos de tratamiento utilizados. Sin embargo, no
existen diferencias estadísticamente significativas entre ambos grupo de tratamiento.
Este resultado está indicando que ambos tratamientos no difieren significativamente
entre sí en cuanto a su efectividad para aumentar los comportamientos asertivos de los
pacientes estudiados.
Finalmente, tenemos el gráfico de medias que también solicitamos en Opciones.
35
Media de Puntuaciones Conductas Asertivas
30
25
20
15
10
Rangos
Rango
grupo N promedio
ansiedad suicidio 9 14,72
neurosis 11 24,45
normales 10 6,35
Total 30
Estadísticos de contrastea,b
ANSIEDAD
Chi-cuadrado 22,269
gl 2
Sig. asintót. ,000
a. Prueba de Kruskal-Wallis
b. Variable de agrupación: GRUPO
Según los resultados, podemos concluir que existen diferencias estadísticamente significativas
entre los grupos considerados. Pero al igual que el ANOVA, si queremos concretar el efecto,
debemos explorar entre qué grupos se encuentra esas diferencias.
En este caso no tenemos pruebas no paramétricas a posteriori, por lo que procederíamos
a realizar tantas pruebas U de Mann-Whitney como comparaciones se desearan realizar. Sería
conveniente corregir el nivel de significación para el conjunto de comparaciones mediante la
© Leticia de la Fuente Sánchez y Juan García García 14
Estadísticos de contrasteb
ANSIEDAD
U de Mann-Whitney 5,000
W de Wilcoxon 50,000
Z -3,383
Sig. asintót. (bilateral) ,001
Sig. exacta [2*(Sig. a
,000
unilateral)]
a. No corregidos para los empates.
b. Variable de agrupación: GRUPO
Estadísticos de contrasteb
ANSIEDAD
U de Mann-Whitney 7,500
W de Wilcoxon 62,500
Z -3,065
Sig. asintót. (bilateral) ,002
Sig. exacta [2*(Sig. a
,001
unilateral)]
a. No corregidos para los empates.
b. Variable de agrupación: GRUPO
Estadísticos de contrasteb
ANSIEDAD
U de Mann-Whitney 1,000
W de Wilcoxon 56,000
Z -3,804
Sig. asintót. (bilateral) ,000
Sig. exacta [2*(Sig. a
,000
unilateral)]
a. No corregidos para los empates.
b. Variable de agrupación: GRUPO
© Leticia de la Fuente Sánchez y Juan García García 15
Ejemplo: Para estudiar si la actitud hacia la atención sanitaria cambia con la edad se tomaron
tres muestras aleatorias de 40 sujetos de distintas edades, categorizando la edad en tres grupos,
alta, media y baja. Todos los sujetos respondieron a la pregunta ¿Está conforme con la
institución sanitaria que recibe? En una escala de 1 a 3 (nada, poco, bastante, mucho). Tras los
resultados, ¿se puede afirmar que la proporción de personas que está de acuerdo con la atención
sanitaria que recibe cambia en función de la edad? (Fichero de datos “chi_c3mue.sav”)
Para responder a esta pregunta con ayuda del SPSS; el procedimiento es Analizar, Estadísticos
Descriptivos, Tablas de Contingencia. Introducimos una de las variables en filas y la otra en
columnas, y pulsamos en el botón de Estadísticos, Chi-cuadrado. La salida básica es:
Recuento
edad
baja media alta Total
Atención nada 5 4 6 15
Sanitaria poco 31 10 19 60
bastante 2 21 10 33
mucho 2 5 5 12
Total 40 40 40 120
Pruebas de chi-cuadrado
Sig. asintótica
Valor gl (bilateral)
Chi-cuadrado de Pearson 29,545a 6 ,000
Razón de verosimilitud 31,886 6 ,000
Asociación lineal por
3,092 1 ,079
lineal
N de casos válidos 120
a. 3 casillas (25,0%) tienen una frecuencia esperada inferior a 5.
La frecuencia mínima esperada es 4,00.
© Leticia de la Fuente Sánchez y Juan García García 16
El resultado nos lleva a concluir que existen diferencias entre los grupos
considerados, es decir, que la proporción de personas que está de acuerdo con la
atención sanitaria que recibe cambia en función de la edad.
Al igual que en los casos anteriores, si queremos concretar el efecto debemos explorar
entre qué grupos se encuentran esas diferencias. Para ello, la estrategia es similar a la d
la anterior prueba. En este caso, tampoco tenemos pruebas no paramétricas a posteriori, por lo
que procederemos a realizar tantas pruebas Chi-Cuadrado como comparaciones se deseen
realizar (teniendo en cuenta que se debe corregir el nivel de significación como se indicó
anteriormente).
Así, ejecutaremos Analizar, Estadísticos Descriptivos, Tablas de Contingencia, para
cada una de las comparaciones que nos interesen. Una vez realizado, los resultados se muestran
en las tablas siguientes. Como se puede observar, existen diferencias entre el grupo bajo y
medio, pero no entre los grupos bajo y alto, ni entre los grupos medio y alto en edad.
Pruebas de chi-cuadrado
Sig. asintótica
Valor gl (bilateral)
Chi-cuadrado de Pearson 27,849a 3 ,000
Razón de verosimilitud 31,018 3 ,000
Asociación lineal por
13,298 1 ,000
lineal
N de casos válidos 80
a. 4 casillas (50,0%) tienen una frecuencia esperada inferior a 5.
La frecuencia mínima esperada es 3,50.
Pruebas de chi-cuadrado
Sig. asintótica
Valor gl (bilateral)
Chi-cuadrado de Pearson 9,590a 3 ,022
Razón de verosimilitud 10,150 3 ,017
Asociación lineal por
3,463 1 ,063
lineal
N de casos válidos 80
a. 2 casillas (25,0%) tienen una frecuencia esperada inferior a 5.
La frecuencia mínima esperada es 3,50.
© Leticia de la Fuente Sánchez y Juan García García 17
Pruebas de chi-cuadrado
Sig. asintótica
Valor gl (bilateral)
Chi-cuadrado de Pearson 7,096a 3 ,069
Razón de verosimilitud 7,232 3 ,065
Asociación lineal por
2,782 1 ,095
lineal
N de casos válidos 80
a. 0 casillas (,0%) tienen una frecuencia esperada inferior a 5.
La frecuencia mínima esperada es 5,00.
© Leticia de la Fuente Sánchez y Juan García García 18
(Xi j – X T) = (Xi j – X j) + ( X j - X T)
VT = V EG + V IG
El propósito del ANOVA es calcular los dos componentes de variación en los que se
divide la varianza total y convertirlos en componentes comparables, incluyendo la
información de todos los sujetos del estudio.
Para poder generalizar este modelo referido a un sujeto y a un tratamiento
particular a todos los sujetos y grupos de tratamiento existentes en el estudio, debemos
aplicar sumatorios a todos los términos:
Σ(Xi j – X T) = Σ(Xi j – X j) + Σ( X j - X T)
Esta última es la ecuación básica o modelo matemático del ANOVA para el diseño
unifactorial de grupos aleatorios que permite descomponer la variación total en sus
componentes o fuentes de variación fundamentales. También se conoce como Modelo
de Partición de Varianza.
Los tres elementos que forman ese modelo se denominan “sumas de cuadrados”, dado
que lo que tenemos son sumatorios de elementos elevados al cuadrado. De manera que,
abreviadamente, es muy habitual representar dicho modelo como:
SC TOTAL = SC EG + SC IG
4
No es necesario que aprendas los cálculos, es simplemente un ejemplo de cómo opera la lógica del
análisis.
© Leticia de la Fuente Sánchez y Juan García García 20
Grados de Libertad:
Total: glT = N – 1 = 20
ó glIG = N – k = 21 – 3 = 18
Medias Cuadráticas: Cada Suma de Cuadrados dividida entre sus grados de libertad.
SC T 457'8
Total: MCT = = = 22’89
gl T 20
SC ENTRE 165
Entre: MCEG = = = 82’5
gl ENTRE 2
SC INTRA 292'8
Intra: MCIG = = = 16’27
gl INTRA 18
© Leticia de la Fuente Sánchez y Juan García García 21
Contraste F de Snedecor:
MC ENTRE 82'5
Fobs = = = 5’07
MC INTRA 16'27
Como 5’07 > 3’55, podemos rechazar la hipótesis nula, concluyendo que existen
diferencias estadísticamente significativas entre las medias de los grupos. Esto quiere
decir que la variación encontrada entre las medias de los tres grupos la podemos atribuir
a los efectos de la variable independiente que hemos manipulado en el estudio,
concretamente, al efecto del tipo de tratamiento que hemos administrado para la
depresión, y no a efectos aleatorios. Siendo el tamaño de dicho efecto 0,36 y que
corresponde a:
SC EG / SC TOTAL = η2
En la práctica, como no suele ser habitual partir de hipótesis muy elaboradas que
permitan definir unos contrastes a priori, y en la mayoría de los casos todas las
comparaciones que se plantean son simples, los procedimientos que más se utilizan son
los contrates post hoc. De todos los procedimientos podemos distinguir entre los que
corrigen el incumplimiento del supuesto de homogeneidad de varianza y los que parten
del cumplimiento del supuesto. Los más habituales de esta última opción son los
siguientes, aunque habrá que distinguir entre los que realizan comparaciones por pares o
todas las posibles:
Procedimiento de Scheffé
Procedimiento de Bonferroni
Método de enseñanza
Contraste Tradicional Ecológico Informático
1 2 -1 -1
2 0 1 -1
Valor del
Contrastecontraste Error típico t gl Sig. (bilateral)
Rendimiento Asumiendo igualdad1 -43,70 3,224 -13,555 27 ,000
de varianzas 2 -3,70 1,861 -1,988 27 ,057
No asumiendo 1 -43,70 3,128 -13,971 19,353 ,000
igualdad de varianzas
2
-3,70 1,915 -1,932 17,027 ,070
Dado que se ha asumido igualdad de varianzas, los resultados adecuados son los de la
primera fila de la tabla. Estos resultados indican que podemos rechazar la H0 para el primer
contraste, pero no para el segundo. Es decir, que existen diferencias estadísticamente
significativas entre la puntuación media de los alumnos a los que se les ha aplicado el método
tradicional y la media conjunta de los alumnos a los que se les han aplicado los otros dos
métodos. En concreto, si miramos las medias, podemos ver que el rendimiento medio del grupo
tradicional es menor que la media conjunta de los otros dos grupos. Sin embargo, el resultado
del segundo contraste indica que las diferencias entre las medias de los grupos ecológico e
informático no resultan estadísticamente significativas, por lo que esa diferencia debe ser
atribuida al efecto del azar. No podemos, por tanto, decir que uno de estos dos métodos
produzca un mayor rendimiento que el otro, aunque sí que en conjunto, producen un mejor
rendimiento que el método tradicional.
© Leticia de la Fuente Sánchez y Juan García García 26
Textos complementarios