Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Universidad de La Laguna
Índice
Prólogo .......................................................................................................... 9
1. El contraste de hipótesis....................................................................... 13
1.1. Introducción .................................................................................... 13
1.2. ¿Mantenemos o aceptamos H0? La polémica Fisher y
Neyman-Pearson .......................................................................... 14
1.3. La significación estadística .......................................................... 17
1.3.1. Varianza de las muestras ..................................................... 17
1.3.2. Probabilidad asociada.......................................................... 18
1.3.3. Tamaño de la muestra .......................................................... 19
1.3.4. Potencia del contraste........................................................... 20
1.4. ¿Qué podemos hacer? ...................................................................... 21
3. Comparaciones múltiples..................................................................... 75
3.1. Introducción .................................................................................... 75
3.2. Comparaciones múltiples o contrastes ........................................ 76
3.3. Comparaciones ortogonales .......................................................... 77
3.4. Control de α ...................................................................................... 79
3.5. Contrastes a priori y a posteriori ................................................. 80
3.6. Contrastes a priori.......................................................................... 82
3.6.1. Prueba t................................................................................... 82
3.6.2. Prueba Dunn .......................................................................... 84
3.6.3. Prueba F’ ................................................................................. 86
3.7. Contrastes a posteriori ................................................................... 89
3.7.1. Prueba de Tukey..................................................................... 90
3.7.2. Prueba de Scheffé .................................................................. 93
3.8. Análisis de tendencias.................................................................... 96
3.9. Un comentario final.......................................................................101
Apéndice.................................................................................................... 199
1.1. Introducción
El alumno que se enfrenta por primera vez al estudio del análisis de
varianza conoce ya la técnica general del contraste de hipótesis, técni-
ca abordada en las asignaturas previas de Análisis de Datos I y Análi-
sis de Datos II y aplicada al contraste de una y dos medias, así como al
de una y dos varianzas. A lo largo del texto veremos cómo extender las
ideas ya asimiladas al caso de más de dos grupos. Sin embargo, nos
parece oportuno comenzar con un capítulo dedicado a la problemática
que se ha suscitado en torno al contraste de hipótesis, derivada de su
uso y abuso en la investigación psicológica, que evite, de algún modo,
una sobrevaloración de sus resultados —sobre todo cuando éstos son
estadísticamente significativos— o, al menos, una interpretación a
ciegas de los mismos. Así pues, en este primer capítulo presentaremos
algunos de los problemas más frecuentes en los contrastes de hipótesis,
así como algunas de las propuestas sugeridas por diversos autores en
un intento de mejorarlos. Estas reflexiones son, por supuesto, aplica-
bles también al análisis de varianza (procedimiento al que nos dedi-
caremos exclusivamente en los siguientes capítulos) por tratarse de
una técnica más de contraste de hipótesis.
14 Análisis de varianza
2 Cohen (1990) habla del “santificado y santificante mágico nivel del 0,05”.
18 Análisis de varianza
p = P(d ≥ d H0 )
2.1. Introducción
Podría decirse que el Análisis de Varianza #o, de forma abreviada,
ANVAR# constituye una de las técnicas de análisis estadístico con más
trascendencia en el ámbito de la Psicología. Si bien su nombre hace
referencia al estudio de la variabilidad observada en los datos tras su
recogida, se utiliza para comparar las medias de más de dos grupos,
por lo que puede considerarse como una extensión del contraste de
hipótesis de dos medias que ya conoce el lector.
Teniendo en cuenta esta última consideración, antes de introducir-
nos en esta técnica de análisis tan importante, nos parece oportuno
comenzar con un ejemplo que nos ayudará a entender los fundamentos
y mecanismos de este procedimiento.
práctica antes de realizar la tarea. A todos los sujetos se les contabiliza el rendi-
miento mediante una prueba, se aplica la función descriptiva y se encuentra que,
por término medio, el grupo al que se le permitió cinco minutos de práctica presenta
mayor rendimiento.
Visto esto, podríamos preguntarnos: ¿Puede decirse que el tiempo de práctica
previo mejora el rendimiento de los sujetos? Para responder a esta pregunta no
basta con la estadística descriptiva. Podríamos decir que, aun cuando el tiempo de
práctica no mejorara el rendimiento, sería improbable que las medias de los dos
grupos fuesen idénticas. Alguna diferencia se debería observar, puesto que otras
variables que no hemos controlado (factores de azar) producirán, sin duda alguna,
diferentes medias.
La pregunta crucial, entonces, desde el punto de vista inferencial, sería ¿la dife-
rencia entre las medias es suficientemente grande como para descartar que se de-
be al azar? Dicho de otro modo, ¿existen diferencias significativas en el rendimiento
como consecuencia del tiempo de práctica previo? Si repitiésemos el estudio ¿po-
dremos predecir que la misma diferencia (la media obtenida tras un tiempo de prác-
tica antes de realizar la tarea es mayor que la obtenida sin tiempo de práctica pre-
vio) se presentará sistemáticamente? Pues bien, supongamos que hemos realizado
este pequeño experimento y que los resultados que hemos obtenido son los si-
guientes:
Podemos observar que las medias difieren en las muestras estudiadas, siendo
mayor la del grupo al que se le ha permitido cinco minutos de práctica, pero nues-
tras dudas van más allá de estos sujetos y lo que realmente nos interesa saber es
si la media en la segunda condición experimental es significativamente mayor. Para
poder responder a esta cuestión no tenemos más que realizar el contraste de hipó-
tesis acerca de dos medias independientes, que ya conocemos.
Una vez planteadas las hipótesis estadísticas:
H0: µ2 µ1
H1 : µ2 > µ1
debemos tener en cuenta las condiciones poblacionales de partida, así como las
características muestrales para determinar la distribución muestral del estadístico
de contraste (en este caso,Y2 -Y1) que nos permita decidir acerca de H0. En nues-
tro experimento suponemos que la variable rendimiento se distribuye normalmente
en ambas poblaciones. Como las varianzas poblacionales son desconocidas y de
Análisis de varianza de un factor completamente aleatorizado 25
ellas depende el error típico de la distribución muestral deY2 -Y1, debemos reali-
zar un contraste de varianzas previo al contraste de hipótesis. Teniendo en cuenta
que las muestras son independientes, utilizamos como estadístico de contraste
~ ~
S 22 S12 = 3,08 , que sigue una distribución F-Fisher, con n2 - 1 = 4 grados de libertad
para el numerador y n1 - 1 = 4 grados de libertad para el denominador. La probabili-
dad asociada a este estadístico es igual a 0,301, por lo que suponemos que las va-
rianzas poblacionales, aun siendo desconocidas, no difieren significativamente (tra-
4
bajamos con un α = 0,05) .
Podemos ya continuar con el contraste de medias y, en este caso, el estadístico
de contraste t = 2,32 sigue una distribución t-Student con n1 + n2 - 2 = 8 grados de
libertad. Dado que la probabilidad asociada a este estadístico es menor que 0,05
decidimos rechazar la hipótesis nula de igualdad de medias poblacionales, conclu-
yendo que la práctica previa influye en el rendimiento en la tarea de destreza moto-
ra.
Ejemplo 2.2. En este caso, vamos a trabajar con tres grupos porque, además de estar
interesados en si la ausencia o no de práctica previa influye en el rendimiento de
los sujetos, queremos averiguar si el rendimiento se ve afectado por el tiempo de
práctica antes de realizar la tarea.
Del mismo modo que ocurría en el Ejemplo 2.1, las medias vuelven a
ser diferentes. Para poder compararlas y determinar hasta qué punto
estas diferencias que hemos observado se deben al azar o al efecto del
tiempo de práctica antes de realizar la tarea, tenemos dos posibles
vías de actuación que pueden acercarnos a la respuesta:
En primer lugar, ya que disponemos de una herramienta conocida,
la prueba t-Student, podemos utilizarla y realizar contrastes entre los
grupos dos a dos, es decir, ir aplicando la prueba a cada una de las
diferencias de medias. Sin embargo, esta forma de proceder, que en
principio es la que aplicaríamos puesto que es la única que conoce-
mos, conlleva una serie de inconvenientes que conviene resaltar.
Por un lado, y como problema más inmediato, nos vamos a encon-
trar con una tarea un tanto ardua en lo que a cálculos se refiere,
puesto que disponemos de tres medias (correspondientes a cada uno de
los tres tratamientos) y esto ya supone que debemos realizar
j (j - 1)/2 = 3 (3 - 1)/2 = 3 contrastes5. Si en lugar de trabajar con tres
muestras lo hiciésemos con cuatro, deberíamos realizar seis compara-
ciones; en el caso de siete grupos, el número de contrastes se elevaría a
nada menos que ¡veintiún contrastes!, etc. Como vemos, antes de ter-
minar con los análisis el agotamiento podría terminar con nosotros.
No obstante, si nos mantuviésemos en el empeño de trabajar con la
prueba t-Student, a lo ya comentado, se añadiría otro problema impor-
5 Recordemos que, dados k elementos, todos los conjuntos distintos que podemos
formar con esos k elementos tomados de r en r (entendiendo que dos conjuntos son
distintos si difieren en uno, al menos, de sus elementos), viene dado por las combi-
naciones de orden r:
k!
Ck , r =
r!(k − r )!
Si r = 2,
k! k (k − 1)(k − 2)! k (k − 1)
Ck , 2 = = =
2!(k − 2)! 2 (k − 2)! 2
Análisis de varianza de un factor completamente aleatorizado 27
3!
= 1 – ⋅ 0,050 ⋅ 0,953 = 1 – 0,857 = 0,143
0!(3 − 0)!
donde
i: 1, 2, ..., nj (hace referencia a los sujetos)
j: 1, 2, ..., J (hace referencia a los niveles)
Yij: puntuación del sujeto i perteneciente al nivel Aj
nj: número de sujetos en el nivel Aj
N: número total de sujetos en el experimento:
J
N = ∑nj
j =1
nj
T j = ∑ Yij
i =1
J nj J
T = ∑Tj = ∑ ∑Y ij
j =1 i =1 j =1
nj
Tj ∑Y ij
Yj = = i =1
nj nj
36 Análisis de varianza
T
Y =
N
0’ 5’ 10’
1 5 5
2 3 4
2 5 7
0 6 5
3 1 2
nj 5 5 5 15
Tj 8 20 23 51
2.6. Modelo
Podemos introducir ya el modelo correspondiente al diseño de un
factor de efectos simples completamente aleatorizado que, teniendo en
cuenta el modelo lineal en el que se fundamenta el ANVAR, expresa el
valor de la variable dependiente Y observada en el sujeto i sometido al
tratamiento j como la suma de tres componentes:
Yij = µ + αj + εij
µ=
∑ j
nj ⋅ µ j
∑ nj
Análisis de varianza de un factor completamente aleatorizado 37
que no es más que una media ponderada, con pesos n1, n2, ..., nj, de las
medias µ1, µ2, ..., µj.
Puesto que cada sujeto ha sido asignado a un tratamiento concreto
(Aj), es posible que se vea influido por el efecto específico de ese trata-
miento y no de otro. Por eso, a la media total hay que sumar un com-
ponente (αj) que indique esa posible influencia. Este efecto, propio del
nivel Aj sobre la puntuación Yij, podemos definirlo, por tanto, como:
αj = µj - µ
H0 : µ1 = µ2 = ... = µj = ... = µJ
H0 : α1 = α2 = ... = αj = ... = αJ
H 0 : ∑ j α 2j = 0
Yij = µ + αj + εij
donde
X0 siempre vale 1
X1 vale 1 si el sujeto pertenece al nivel j y 0 si no pertenece.
Por ejemplo, para el sujeto 2 perteneciente al nivel 3 tendríamos:
=µ + α3 + ε23
donde
Yi es el valor observado en la variable dependiente Y para el sujeto
i;
θ0 es el valor del parámetro constante;
θ1 son los distintos parámetros del modelo: los efectos, en el contexto
del análisis de varianza, o los coeficientes de regresión, en el con-
texto del análisis de regresión;
Xj son los valores de las variables indicadoras, en el contexto del
análisis de varianza, o predictoras, en el contexto del análisis de
regresión;
εi es el error aleatorio correspondiente a la observación Yi.
Yij = µ + αj + εij
donde X0 vale 1;
[ ]
E (ε ij ) = E (Yij − µ − α j ) = E Yij − µ − ( µ j − µ ) = E (Yij − µ j ) = µ j − µ j = 0
[ ( )] ( )
E (ε ij ) = E (Yij − µ − α j ) = E Yij − µ − µ j − µ = E Yij − µ j = µ j − µ j = 0
[ ]
E (Yij ) = E ( µ + α j + ε ij ) = E µ + ( µ j − µ ) + ε ij = E ( µ j ) + E (ε ij ) = µ j
Hay muchas pruebas que nos permiten probar este supuesto: pode-
mos, por ejemplo, representar gráficamente las frecuencias acumula-
das para ver si obtenemos una línea recta. No obstante, este procedi-
miento tiene poca utilidad porque requiere muchas observaciones.
Otro procedimiento sencillo sería calcular los índices de asimetría y
apuntamiento de las distribuciones. Sin embargo, como ocurre con el
procedimiento anterior, no resulta muy útil puesto que también re-
quiere muchas observaciones.
Dentro de las pruebas no paramétricas para comprobar la bondad
de ajuste de los datos a la distribución normal tenemos a disposición
dos que resultan de gran utilidad a nuestros propósitos: el contraste
Kolmogorov-Smirnov y el contraste de Lilliefors. Cabe señalar que el
contraste χ2, tan utilizado en muchas situaciones, aquí no resulta
práctico porque requiere tamaños muestrales mayores de 600.
No obstante lo dicho, el ANVAR permanece robusto frente a la vio-
lación de este supuesto, no incrementándose la probabilidad de come-
ter el error tipo I, sobre todo en modelos de efectos fijos. Sí tendrá
mayor influencia en las pruebas que se utilizan para comprobar el
supuesto que viene a continuación. En el caso de necesitar la normali-
dad de los datos, una transformación logarítmica nos ayudará a
obtenerla.
44 Análisis de varianza
σ 2j = σ 2ε
σ 21 = σ 22 = ... = σ 2j = ... = σ 2J = σ 2ε
σ 21 = σ 22 = ... = σ 2j = ... = σ 2J = σ 2ε = σ 2
(
− 2∑i∑ j Yij − µ − α j = 0 )
∑ ∑ (Y i j ij − µ −α j )= 0
∑∑ Y −∑∑ µ −∑ ∑ α = 0
i j ij i j j j j
∑ ∑ Y − nµ − ∑ n α = 0
i j ij j j j
∑ ∑ Y − nµ = 0 j j ij
de donde
∑∑ Y ij
µ̂ = =Y
i j
n
46 Análisis de varianza
(
− 2∑ j Yij − µ − α j = 0 )
∑Y j ij − n j µ = n jα j
∑Y j ij − n j Y = n jα j
∑Y ij − n jY
αj =
j
nj
de donde
α̂ j = Y j − Y
ε ij = Yij − µ − α j
ε ij = Yij − Y − Y j + Y
de donde
ε ij = Yij − Y j
∑ ∑ (Y
i j ij −Y ) =∑ ∑ [(Y
2
i j j ) (
− Y + Yij − Y j )]2
Téngase en cuenta que hemos tenido que elevar al cuadrado los dos
miembros de la ecuación porque, como sabemos, la suma de puntua-
ciones de desviación es igual a cero y elevando al cuadrado evitamos
que se anulen las diferencias. Vamos a desarrollar el cuadrado de la
parte derecha de la ecuación:
∑ ∑ [(Y ) ( )] 2
i j j − Y + Yij − Y j =
= ∑i ∑ j Y j − Y [( ) + 2(Y
2
j )(
− Y Yij − Y j + Yij − Y j ) ( ) ]=
2
= ∑i ∑ j Y j − Y ( ) + 2∑ ∑ (Y − Y )(Y
2
i j j ij ) (
− Y j + ∑i ∑ j Yij − Y j )
2
∑ ∑ (Y ) = ∑ n (Y ) + ∑ ∑ (Y )
2 2 2
i j ij −Y j j j −Y i j ij − Yj
∑ ∑ (Y )
2
El miembro de la izquierda j j ij −Y representa (del mismo mo-
do que sucedía con un sujeto) la desviación del conjunto de las pun-
Análisis de varianza de un factor completamente aleatorizado 49
∑ n (Y )
2
Por su parte, j j j −Y nos indica cuánto se desvían las medias
de los grupos de la media total, refleja la variabilidad intergrupo.
∑ ∑ (Y )
2
Por último, i j ij − Yj es un indicador de la desviación de cada
puntuación con respecto de la media de su grupo, por tanto, lo llama-
remos variabilidad intragrupo o error (recordemos que es el error
experimental el que da lugar a que las puntuaciones Yij no sean igua-
les dentro de cada grupo).
Dado que los tres miembros de la ecuación constituyen sumas de di-
ferencias cuadráticas, podemos hablar en estos términos, es decir,
suma cuadrática total, suma cuadrática intergrupo y suma cuadráti-
ca intragrupo, respectivamente:
∑ ∑ (Y ) = ∑ n (Y ) + ∑ ∑ (Y )
2 2 2
i j ij −Y j j j −Y i j ij − Yj
N - 1 = (J - 1) + (N -J)
MC int ra =
∑∑
i j
(Yij − Y ) 2
N−J
9 Una media cuadrática no es más que la variación promedio por grados de li-
∑ ( n j − 1) S~j2 ( N − J ) S~j2
E ( MCint ra ) = E j
= E =σ2
10
N−J N − J
N ∑ j (Y j − Y ) 2
MC int er =
J −1
Ahora bien,
∑ j
(Y j − Y ) 2
J −1
10 Como vemos, esto es similar al caso de comparación entre medias de dos mues-
σ 2 = n ⋅ σ X2
∑ j
(Y j − Y ) 2
J −1
∑ j n j (Y j − Y ) 2 N ∑ j α 2j
E ( MCint er ) = E = + σ 2 = Nσ α2 + σ 2
J −1 J −1
2.13. La razón F
En el apartado anterior hemos podido ver que MCinter es un indicativo
de la variación de las medias de los grupos respecto a la media pobla-
cional.
vale S x2 =
∑nS j j
2
j
+
∑ n (Y − Y )2
. Es decir, la varianza de las n puntuaciones es igual
j j
n n
a la media de las varianzas más la varianza de las medias. Una demostración de
esta afirmación se puede encontrar en Amón (1989).
54 Análisis de varianza
( J − 1) MC int er
= χ J2 −1
σ2
( N − J ) MC int ra
= χ N2 − J
σ2
( J − 1) MC int er
/( J − 1)
σ2 =
MC int er
( N − J ) MC int ra MC int ra
/( N − J )
σ2
N ∑ j α 2j
MCintra será mayor que el valor esperado de MCintra, ya que es
J −1
distinto de cero, y, por tanto, el cociente entre ambas medias cuadráti-
cas será significativamente mayor que uno.
En definitiva, vamos a utilizar la razón
MC int er
F=
MC int ra
MC int er
F=
MC int ra
∑ n (Y )2
inter −Y J–1 SCinter / glinter
j j j MC int er
F=
∑ ∑ (Y )2
intra j i ij −Yj N–J SCintra / glintra MC int ra
∑ ∑ (Y ) 2
total
j i ij −Y N–1
Análisis de varianza de un factor completamente aleatorizado 57
∑∑ Y
i j
2
ij (suma de todas las puntuaciones al cuadrado)
(
= ∑i∑ j Yij2 − 2 ∑i∑ j Yij2 ) / N + N (∑ ∑ Y ) / N =
2
i j
2 2
ij
= ∑i∑ j Yij2 − (∑ ∑ Y ) / N =
i j
2 2
ij
= ∑i∑ j Yij2 − T 2 / N
Ejemplo 2.4. Como ejemplo práctico vamos a resolver el problema sobre el rendimien-
to motor propuesto en este tema, teniendo en cuenta que, con tan solo cinco obser-
vaciones por condición, trabajamos con muestras nada representativas de las po-
blaciones de las cuales han sido extraídas, produciéndose con gran probabilidad la
violación de los supuestos básicos del análisis de varianza. Sin embargo, conside-
remos este ejemplo con fines únicamente didácticos.
0’ 5’ 10’
1 5 5
2 3 4
2 5 7
0 6 5
3 1 2
nj 5 5 5 N = 15
Tj 8 20 23 T = 51
N = ∑ j n j = 5 + 5 + 5 = 15
T = ∑ j T j = 8 + 20 + 23 = 51
∑∑Y i j
2
ij = 12 + 22 + ... + 52 + 22 = 233
( )
SC int ra = ∑i∑ j Yij2 − ∑ j T j2 / n j =
= 233 − (8 2 / 5 + 20 2 / 5 + 23 2 / 5) = 233 − 198,6 = 34,4
SC int er = SC total − SC int ra = 59,6 − 34,4 = 25,2
Los grados de libertad asociados a cada una de las sumas cuadráticas son:
glinter = J - 1 = 3 - 1 = 2
glintra = N - J = 15 - 3 = 12
gltotal = N - 1 = 15 - 1 = 14
FV SC gl MC F
inter 25,5 2 25,5 / 2 = 12,6 4,395
intra 34,4 12 34,4 / 12 = 2,86
total 59,6 14
V.D. 5
0
0' 5' 10'
En el eje X representamos los niveles del factor y en el eje Y las medias de los
tres grupos.
SCint er SCint er
η yx2 = =
SCint er + SCint ra SCtotal
Ejemplo 2.5. En nuestro ejemplo, η2yx arroja un valor de 25,2/59,6 = 0,423, lo que
significa que el 42,3% de la variabilidad de la destreza motora se debe al efecto del
tiempo de práctica.
F −1
ω2 =
N
F −1 +
J −1
o bien
4,395 − 1
ω2 = = 0,3116
15
4,395 − 1 +
3 −1
∑ Y −Y
j j ( )
2
J
f =
MC int ra
f2
η2 =
1+ f 2
MC int er
F=
MC int ra
n j ∑ j α 2j
δ=
σ2
δ n j ∑ j α 2j
φ= =
J σ J
Podemos estimar ∑α
j
2
j mediante15:
( J − 1)
∑ αˆj
2
j =
nj
( MC int er − MC int ra )
σˆ 2 = MC int ra
(3 − 1)
∑ αˆ j
2
j =
5
(12,6 − 2,86) = 3,89
σˆ 2 = 2,86
sabemos,
n j ∑ j α 2j
E ( MCint er ) = σ 2 + y E ( MCint ra ) = σ 2
J −1
Por consiguiente,
( J − 1) 2 n j ∑ j αˆ j
2
( J − 1)
( MCint er − MCint ra ) = σˆ + − σˆ 2 = ∑ j αˆ 2j
nj nj J −1
66 Análisis de varianza
n j ∑ j α 2j 5 ⋅ 3,89
φ= = = 2,67
σ J 2,86 3
A partir de aquí podemos consultar la Tabla 5 del apéndice para obtener la po-
tencia. Así, teniendo en cuenta que en nuestro ejemplo los grados de libertad son
glnum = 2 y glden = 12 y que φ = 2,67, con un α = 0,05, si acudimos a la Tabla 5 ésta
nos arroja un valor de β = 0,05, por lo que la potencia será 1 - β = 1 - 0,05 = 0,95.
presentar aquí todas las pruebas disponibles, sólo nos vamos a centrar
en las más utilizadas en relación a las condiciones necesarias para
poder obtener la distribución muestral del estadístico de contraste F
(el lector ya conoce diversos contrastes para probar los supuestos
referidos al modelo lineal general).
2 ⋅ n1 ⋅ n 2
µr = +1
N
2n1 n 2 ( 2n1 n 2 − N )
σr =
N 2 ( N − 1)
Análisis de varianza de un factor completamente aleatorizado 69
( r ± h) − µ r
z=
σr
Ejemplo 2.8. Volviendo a nuestro ejemplo habitual, vamos a comprobar si las puntua-
ciones son independientes. Recordemos que éstas eran:
niveles 0’ 5’ 10’
1 5 5
2 3 4
observaciones 2 5 7
0 6 5
3 1 2
nº de sujetos 5 5 5 15
total de puntuaciones 8 20 23 51
medias 1,6 4,0 4,6 3,4
0 minutos
Yi zi Sy Fy = P(Z zi) Sy – Fy
0 -1,40 0,2 0,081 0,119
1 -0,53 0,4 0,298 0,102
2 0,35 0,6 0,637 0,037
2 0,35 0,8 0,637 0,163
3 1,23 1,0 0,891 0,109
Análisis de varianza de un factor completamente aleatorizado 71
5 minutos
Yi zi Sy Fy = P(Z zi) Sy – Fy
1 -1,5 0,2 0,668 0,468
3 -0,5 0,4 0,308 0,092
5 0,5 0,6 0,519 0,081
5 0,5 0,8 0,519 0,281
6 1 1,0 0,841 0,159
10 minutos
Yi zi Sy Fy = P(Z zi) Sy – Fy
2 -1,60 0,2 0,055 0,145
4 -0,37 0,4 0,356 0,044
5 0,25 0,6 0,598 0,002
5 0,25 0,8 0,598 0,202
7 1,48 1,0 0,931 0,069
niveles 0’ 5’ 10’
0,6 1 0,4
0,4 1 0,6
observaciones 0,4 1 2,4
1,6 2 0,4
1,4 3 2,6
total de puntuaciones 4,4 8 6,4
medias 0,88 1,6 1,28
Si realizamos un ANVAR con estos datos, llegamos a los resultados que si-
guen:
FV SC gl MC F
inter 1,30 2 0,6507 0,819
intra 9,53 12 0,7947
total 10,83 14
3.1. Introducción
En el tema anterior hemos visto el procedimiento para comprobar si
más de dos medias poblacionales son o no iguales. Las hipótesis que
establecíamos eran:
Ejemplo 3.1. Supongamos que tenemos cuatro grupos experimentales con me-
dias:Y1,Y2,Y3,Y4 y nos preguntamos, en primer lugar, si las medias poblaciona-
les µ1 y µ2 son distintas; en segundo lugar, si difieren las medias µ1 y µ2 frente a µ3
y µ4 y, en tercer lugar, si la media µ1 es distinta del resto. Responder a estas cues-
tiones supone establecer las siguientes hipótesis nulas:
Para contrastar µ1 - µ2:
H0(2): 2µ1 + 2µ2 - 2µ3 + 2µ4 = 0 ⇔ H0(1): 1µ1 + 1µ2 - 1µ3 - 1µ4 = 0
∑c c =0
j 1j 2 j
Ejemplo 3.2. Tomemos como ejemplo el experimento con el que trabajamos en el tema
anterior acerca del rendimiento motor y el tiempo de práctica previo. Imaginemos
que el investigador está interesado en dar respuesta a dos cuestiones específicas:
¿Es el tiempo de práctica el que afecta al rendimiento? ¿Rinden más los sujetos
cuando aumenta el tiempo de práctica?
La primera pregunta pretende comprobar si la media del grupo 1 (recordemos,
sin tiempo de práctica previo a la realización de la tarea) difiere de la media de los
grupos 2 (con 5 minutos de práctica) y 3 (con 10 minutos de práctica). Dicho de otro
modo, el investigador desea comprobar la falsedad o no de la hipótesis nula:
H0(1): 2µ1 - µ2 - µ3 = 0 (2 - 1 - 1 = 0)
H0(2): µ2 - µ3 = 0 (0 + 1 - 1 = 0)
H0(3): µ1 - µ2 = 0 (1 - 1 + 0 = 0)
∑ j
c1 j c 2 j = 0 ⋅1 + 1 ⋅ (−1) + (−1) ⋅ 0 ≠ 0
3.4. Control de α
Como ya tuvimos ocasión de comprobar en la introducción del tema
anterior, cuando realizamos más de una comparación, el nivel α con el
que trabajamos se ve incrementado al finalizar los contrastes. Concre-
tamente, si tenemos k contrastes independientes, vimos que la probabi-
lidad de cometer, al menos, un error tipo I en nuestros contrastes viene
dada por17:
1 - (1 - α)k
αf k ⋅ α
complejo, pero se puede demostrar que nunca excede de este valor (Kirk, 1982).
80 Análisis de varianza
tado de tal forma que puede llegar a límites intolerables. De ahí que
debamos cuidar este aspecto. Si vamos a realizar pocas comparacio-
nes, basta con elegir un α pequeño (mejor utilizar 0,01 que 0,05); cuan-
do debamos realizar muchas comparaciones, podemos controlar αf
utilizando:
αc = α / k
Ejemplo 3.3. Recordemos las hipótesis H0(1) y H0(2) que planteamos anteriormente:
H0(1): 2µ1 - µ2 - µ3 = 0
H0(2): µ2 - µ3 = 0
Recordemos también que nuestro nivel de significación era α = 0,05. Pues bien,
si queremos controlar el aumento de α, deberíamos trabajar con:
αc = 0,05 / 2 = 0,025
vista popperiano que, en nuestro caso, quiere decir que la hipótesis nula es la
predicción (realizada a partir de un modelo) que se supone cierta (honestamente) y
se somete a un contraste estadístico con la potencia adecuada. Así pues, los contras-
tes a posteriori se corresponden con una filosofía de carácter exploratorio, siendo
los a priori los únicos que pueden tener sentido de cara a la construcción teórica.
Por otro lado, incluso cuando se utilizan las pruebas a posteriori en un sentido
exploratorio, de acuerdo con Everitt (1996), hay estar prevenidos de una confianza
excesiva en tales tests y evitar ser seducidos por la facilidad con la que se pueden
aplicar en la mayoría de los paquetes estadísticos.
82 Análisis de varianza
3.6.1. Prueba t
Para cualquier tipo de comparación, podemos utilizar la prueba t que
ya conocemos siempre y cuando se cumplan los supuestos de muestras
independientes con varianzas poblacionales iguales, aunque
desconocidas.
El esquema a seguir es el siguiente:
1. H0: una determinada combinación lineal de medias = 0
2. Supuestos: poblaciones de partida independientes, con varianzas
iguales y muestras independientes (igual que en el ANVAR de un
factor completamente aleatorizado.
3. Estadístico de contraste:
t=
∑ j
c pjY j
c 2pj
MCint ra ⋅ ∑ j
nj
Y1 − Y2
t=
~2 ~2
S1 + S 2 1 1
⋅ +
nj n1 n 2
1⋅ Y1 + (−1) ⋅ Y2 = Y1 − Y2
c 2pj
Por último, ∑ j
nj
para el caso de dos muestras es igual a:
c 2pj 12 ( −1) 2 1 1
∑ j
nj
=
n1
+
n2
= +
n1 n 2
t1 =
∑ j 1j
c Yj
=
( −2) ⋅ 1,6 + 1 ⋅ 4 + 1 ⋅ 4,6
= 2,91
2
c (−2) 2 12 12
MCint ra ⋅ ∑ j
1j
nj
2,86 ⋅
5
+ +
5 5
t2 =
∑c j 2j Yj
=
(−1) ⋅ 1,6 + 1 ⋅ 4
= 2,24
c 2
(−1) 2 12
MCint ra ⋅ ∑ j
nj
2j
2,86 ⋅
5
+
5
Veamos un ejemplo.
Ejemplo 3.5. Con las mismas hipótesis que nos planteábamos antes, los estadísticos
de contraste arrojan los mismos valores (aunque ahora vamos a cambiar la nomen-
clatura utilizada para el estadístico de contraste):
1. H0(1): -2µ1 + µ2 + µ3 = 0
H0(3): -µ1 + µ2 = 0
2. Supuestos: muestras aleatorias independientes, procedentes de poblacio-
nes distribuidas normalmente con varianzas homogéneas.
3. Estadísticos de contraste:
t D = 2,91
1
t D = 2,24
2
c12j
∑ c Y ± t D ' ⋅ MCint ra ⋅
j pj j ∑ j
nj
Ejemplo 3.6. Si aplicamos la fórmula anterior a nuestros datos tenemos los siguientes
intervalos confidenciales para las diferencias entre las medias:
( −2) 2 12 12
[(−2) ⋅1,6 + 1⋅ 4 + 1⋅ 4,6] ± 2,56 ⋅ 2,86 ⋅ + + = [10,14 ; 0,65]
5 5 5
(−1) 2 12
[(−1) ⋅1,6 + 1⋅ 4] ± 2,56 ⋅ 2,86 ⋅ + = [5,14 ; 0,34]
5 5
3.6.3. Prueba F’
Esta prueba no es más que una partición de la suma de cuadrados
intergrupo (SCinter) del ANVAR de un factor, de efectos fijos, completa-
mente aleatorizado, en tantos componentes independientes como gra-
dos de libertad tiene. Recordemos que, por un lado, la SCinter tiene J –
1 grados de libertad y, por otro, que con J medias podemos realizar J –
1 contrastes ortogonales o linealmente independientes, que serán de
la forma:
Bajo cada una de estas hipótesis nulas se plantea que los dos gru-
pos de medias (una media frente al resto, dos grupos de medias, etc.)
que se comparan en cada combinación lineal son iguales. Además,
cualquiera de estas combinaciones se puede estimar sustituyendo las
medias poblacionales, µj, por sus estimadores muestrales,Yj:
SC p =
(∑ c j pj ⋅Y j ) 2
c 2pj
∑ j
nj
Como son dos grupos los que se comparan (una media frente a otra,
un grupo de medias frente a otro, etc.), cada una de estas sumas cua-
dráticas lleva asociada un grado de libertad. De esta forma, dividien-
do la SCp por sus grados de libertad obtenemos la media cuadrática
MCp:
MC p = SC p / 1 = SC p
F'=
MC p
=
(∑ c j pj ⋅Yj )
2
MC int ra c 2pj
∑ j
nj
⋅ MC int ra
20 Dadas las J – 1 comparaciones ortogonales, cada una de ellas con sus sumas
cuadráticas, se cumple:
∑ p
SC p = SCint er ( p = 1, 2, ..., J − 1)
88 Análisis de varianza
F'=
(∑ c j pj ⋅Y j )
2
c 2pj
∑ j
nj
⋅ MC int ra
Ejemplo 3.7. Recordemos las dos preguntas que se hacía el investigador acerca del
rendimiento motor como consecuencia de la práctica previa: ¿Tiene la práctica pre-
via algún efecto sobre el rendimiento motor? y ¿Rinden más los sujetos cuando
aumenta el tiempo de práctica?
1. Las hipótesis nulas correspondientes serían:
H0(1): 2µ1 - µ2 - µ3 = 0
H0(2): µ2 - µ3 = 0
Puesto que se cumple que
∑ j
c1 j c 2 j = 2 ⋅ 0 + (−1) ⋅1 + ( −1) ⋅ ( −1) = 0
F '1 =
(∑ cj 1j
⋅ Yj )
2
=
[2 ⋅ 1,6 + (−1) ⋅ 4 + (−1) ⋅ 4,6]
2
= 8,49
2
c 22 (−1) 2 ( −1) 2
∑ j
1j
⋅ MCint ra + +
5
⋅ 2,86
nj 5 5
Comparaciones múltiples 89
F '2 =
(∑ c j 2j
⋅ Yj )
2
=
[1 ⋅ 4 + (−1) ⋅ 4,6]
2
= 0,31
2
c 12 ( −1) 2
∑ j
2j
⋅ MCint ra +
5
⋅ 2,86
nj 5
Tal vez nos hemos dado cuenta de que la fórmula del estadístico de
contraste utilizada aquí es la misma que vimos con la prueba
t-Student, sólo que al cuadrado. En efecto, sabemos ya que t2gl es igual
a F1,gl. La introducción de esta prueba se debe a que es más utilizada
con los contrastes ortogonales y, sobre todo, porque nos va a ayudar a
entender la obtención de sumas cuadráticas cuando llevemos a cabo
los análisis de tendencias (aquellos análisis que nos permiten estudiar
la relación entre la variable dependiente y el factor) que veremos en el
apartado 3.8.
Ymax − Ymin
q=
MC int ra
nj
MC int ra
DHS Tukey = qα , J , gl ⋅
int ra
nj
donde qα , J , gl int ra
se obtiene en la Tabla 7 para un nivel de significación de
0,05 y 0,01.
Si nos fijamos en la fórmula de q, podemos ver la similitud con la
prueba t que vimos con los contrastes planeados. De hecho, si el núme-
ro de comparaciones es igual a 2, el punto crítico de la distribución
Comparaciones múltiples 91
t α , gl = qα , 2, gl / 2
y obtención de:
MC int ra
DHS Tukey = qα , J , gl ⋅
error
nj
(Y j )
− Y j ' ± DHS Tukey
Y2 Y3
Y1 4 – 1,6 = 2,4 4,6 – 1,6 = 3
Y2 4,6 - 4 = 0,6
MC int ra 2,86
DHS Tukey = q 0,95;3,12 ⋅ = 3,77 ⋅ = 2,85
nj 5
Serán significativas las diferencias entre las medias que superen el valor 2,85.
Por tanto, sólo la diferencia entre los grupos 1 y 3 es significativa. Esto quiere decir
que el rendimiento es mayor cuando se dispone de 10 minutos de práctica antes de
realizar la tarea que cuando no se dispone de tiempo. Sin embargo, nada podemos
afirmar con respecto a la diferencia entre no tener tiempo de práctica y disponer de
cinco minutos o entre disponer de cinco o diez minutos antes de realizar la tarea.
Por otro lado, recordando la comparación que hacíamos con la prueba de Dunn,
si de las 3 posibles comparaciones sólo queremos realizar 2, el valor crítico que
arroja la Tabla 6 es de 2,56. Bien es cierto que en este ejemplo llegamos a la mis-
ma conclusión, no obstante nos sirve para comprobar cómo el punto crítico de Tu-
key es más restrictivo.
Aplicando la fórmula para los intervalos confidenciales obtenemos:
(Y − Y ) ± DHS
1 2 Tukey = 2,4 ± 2,85 = [− 0,45 ; 5,25]
(Y − Y )± DHS
1 3 Tukey = 3 ± 2,85 = [0,15 ; 5,85]
(Y − Y )± DHS
2 3 Tukey = 0,6 ± 2,85 = [− 2,25 ; 3,45]
Comparaciones múltiples 93
c 2j
DCSheffé = ( J − 1) ⋅ Fα , J −1, gl ⋅ MCint ra ⋅ ∑
int ra
nj
tS =
(∑ c j pj ⋅ Yj )
2
c 2pj
MCint ra ⋅ ∑ j
nj
Tabla 4.
94 Análisis de varianza
c 2j
DCSheffé = ( J − 1) ⋅ Fα , J −1, gl ⋅ MCint ra ⋅ ∑
int ra
nj
3. Cálculo de ∑ cY j j j
c 2j
DCSheffé = ( J − 1) ⋅ Fα , J −1, gl ⋅ MCint ra ⋅ ∑
int ra
nj
4. Se rechaza H0 si ∑ cY
j j j en valor absoluto es mayor que DCScheffé.
(Y j )
− Y j ' ± DC Scheffé
Comparaciones múltiples 95
∑ cY
j j j ± DCScheffé
Ejemplo 3.9. Vamos a aplicar la prueba de Scheffé a nuestros datos. En primer lugar,
estudiaremos todas las posibles comparaciones entre pares de medias. Para ello,
construimos la tabla de diferencias y calculamos la DCScheffé:
Y2 Y3
Y1 4 - 1,6 = 2,4 4,6 - 1,6 = 3
Y2 4,6 - 4 = 0,6
( −1) 2 12
DC Scheffé = (3 − 1) ⋅ 3,89 ⋅ 2,86 ⋅ + = 2,79 ⋅1,07 = 2,98
5 5
Sólo la diferencia entre las medias del primer y tercer grupo supera la diferencia
crítica. Así pues, concluimos que existen diferencias significativas entre las condi-
ciones de ningún tiempo de práctica y diez minutos de práctica.
Observemos que el valor crítico obtenido mediante la prueba de Scheffé es ma-
yor que el que obtuvimos con Tukey: 2,98 frente a 2,85. Aunque en nuestro ejemplo
hemos llegado a la misma conclusión con ambas pruebas, a la vista de los valores
críticos, podemos ver cómo la prueba Tukey es más sensible para detectar diferen-
cias significativas entre las medias, en comparación con la prueba de Scheffé.
Podemos establecer los intervalos confidenciales para el conjunto de las tres
comparaciones:
(Y − Y ) ± DC
1 2 Scheffé = 2,4 ± 2,98 = [− 0,58 ; 5,38]
(Y − Y ) ± DC
1 3 Scheffé = 3 ± 2,98 = [0,02 ; 5,98]
(Y − Y )± DC
2 3 Scheffé = 0,6 ± 2,98 = [− 2,38 ; 3,58]
H0: 2µ1 - µ2 - µ3 = 0
Calculamos
∑ j
c jY j = 2 ⋅ 1,6 + (−1) ⋅ 4 + (−1) ⋅ 4,6 = −5,4 (en valor absoluto, 5,4)
96 Análisis de varianza
22 ( −1) 2 ( −1) 2
y DC Scheffé = (3 − 1) ⋅ 3,89 ⋅ 2,86 ⋅ + + = 2,79 ⋅1,85 = 5,17
5 5 5
Dado que 5,4 es mayor que 5,17, se rechaza H0 y concluimos que los grupos
que disponen de tiempo de práctica rinden más que los que no disponen del mis-
mo.
SC p =
(∑ c
j pj ⋅Y j )
2
c 2pj
∑ j
nj
24 De no ser así, se puede acudir a Kirk (1982) para ver cómo se derivan los coefi-
cientes ortogonales.
Comparaciones múltiples 99
F( tendencia ) =
(∑ c j ( tendencia ) j Yj )
2
c2
∑ ( tendencia ) j ⋅ MC int ra
j
nj
F( lineal ) =
(∑ c j ( lineal ) j Yj )
2
=
[(−1) ⋅ 1,6 + 0 ⋅ 4 + 1 ⋅ 4,6 ]
2
= 7,87
c2 (−1) 2 02 12
∑ ( lineal ) j ⋅ MCint ra + + ⋅ 2,86
j nj 5 5 5
F( cuadr .) =
(∑ c j ( cuadr .) j Yj ) 2
=
[1 ⋅ 1,6 + (−2) ⋅ 4 + 1 ⋅ 4,6 ] 2
= 0,94
c2 12 ( −2) 2 12
∑ ( cuadr .) j ⋅ MCint ra + + ⋅ 2,86
j
nj 5 5 5
Por tanto, decidimos rechazar H0(lineal) y mantener H0(cuadr.). Esto quiere decir que
la relación entre el tiempo de práctica y el rendimiento es lineal, no pudiendo afir-
mar que sea de otro tipo.
4.1. Introducción
En muchos casos un simple análisis de varianza de una vía, con o sin
comparaciones múltiples, resulta ser el mejor método para analizar
los datos de nuestra investigación. A veces, sin embargo, los modelos
de un solo factor no son los más apropiados, siendo los modelos facto-
riales los que mejor se adaptan a las necesidades del investigador.
Consideremos el siguiente ejemplo:
libertad cautiverio
B N M B N M
8 8 8 10 0 15
4 10 6 6 4 9
0 6 4 14 2 12
Yj 4 8 6 10 2 12
FV SC gl MC F p
Inter 210 5 42 4,75 0,02
Intra 106 12 8,83
total 316 17
H0(1): µ1 + µ2 + µ3 - µ4 - µ5 - µ6 = 0
MCintra = 8,83
SC1 =
(∑ c j pj ⋅Yj )
2
=
36
= 18
∑ j c 2pj 2
nj
MC1 18 / 1
F1' = = = 2,038 ; p = 0,179
MC int ra 8,83
16
SC 2 A = = 11,94
1,34
144
SC 2 B = = 36
4
MC2 47,94 / 2
F2' = = = 2,71 ; p = 0,106
MCint ra 8,83
MCrestante = 144/2 = 72
F’restante = 72/8,83 = 8,15; p = 0,0058
V.D. 14
12
10
8 L
6 C
4
2
0
B N M
A1 A2
nj 60 60 120
B1 B2 B3
nk 40 40 40 120
B1 B2 B3
A1 20 20 20 60
A2 20 20 20 60
40 40 40 120
Por otro lado, es más fácil controlar las variables extrañas que con-
forman el error experimental, ya que trabajamos con un solo diseño en
lugar de dos.
Por último, la generalización de los resultados se ve incrementada,
dado que nos encontramos en una situación experimental más pareci-
da a la realidad, donde las variables interactúan y sus efectos son
conjuntos más que aislados.
Vamos a pasar ya a estudiar el modelo de dos factores de efectos fi-
jos completamente aleatorizado. Como ya sabemos, esto supone traba-
jar con dos variables independientes, cada una con un número deter-
minado de niveles y sobre las cuales queremos realizar las inferencias
estadísticas. Además, se va a asignar aleatoriamente el total de uni-
dades experimentales a la combinación de A x B niveles de las varia-
bles.
Vamos a seguir los pasos empleados en el ANVAR de un factor, es
decir, empezaremos viendo la notación y estructura de los datos, pre-
sentaremos el modelo y daremos paso a los contrastes de hipótesis
pertinentes.
108 Análisis de varianza
T21 Y21 T22 Y22 ... T2k Y2k ... T2K Y2K
... ... ... ... ... ... ...
Y1j1 Y1j2 Y1jk Y1jK
Y2j1 Y2j2 Y2jk Y2jK
... ... ... ... ... ...
Aj Yij1 Yij2 ... Yijk ... YijK Tj+ Yj+
... ... ... ... ... ...
Ynj1 Ynj2 Ynjk YnjK
Tj1 Yj1 Tj2 Yj2 ... Tjk Yjk ... TjK YjK
... ... ... ... ... ... ...
Y1J1 Y1J2 Y1Jk Y1JK
Y2J1 Y2J2 Y2Jk Y2JK
... ... ... ... ... ...
AJ YiJ1 YiJ2 ... YiJk ... YiJK TJ+ YJ+
... ... ... ... ... ...
YnJ1 YnJ2 YnJk YnJK
TJ1 YJ1 TJ2 YJ2 ... TJk YJk ... TJK YJK
T+k T+1 T+2 ... T+k ... T+K T
Y+k Y+1 Y+2 ... Y+k ... Y+K Y
Análisis de varianza de dos factores completamente aleatorizado 109
donde
Yijk: puntuación del sujeto i en la V.D. Y (i: 1, 2, ..., n)
bajo el nivel j del factor A (j: 1, 2, ..., J)
y el nivel k del factor B (k: 1, 2, ..., K)
Tj+: suma de puntuaciones de los sujetos pertenecientes al nivel j
del factor A
T j + = ∑ j ∑ k Yijk
T+ k = ∑i ∑ j Yijk
T jk = ∑i Yijk
Tj +
Yj + =
nK
T+ k
Y+ k =
nJ
T jk
Y jk =
n
Ejemplo 4.2. En la tabla siguiente definimos las filas como los dos niveles del factor A
(tipo de crianza) y las columnas como los niveles del factor B (tipo de raza).
B
B N M Tj+ Yj+
8 8 4
4 10 6
L 0 6 8
T11 = 12 T12 = 24 T13 = 18 T1+ = 54
A Y11 = 4 Y12 = 8 Y13 = 6 Y1+ = 6
10 0 15
6 4 9
C 14 2 12
T21 = 30 T22 = 6 T23 = 36 T2+ = 72
Y21 = 10 Y22 = 2 Y23 = 12 Y2+ = 8
T+k T+1 = 42 T+2 = 30 T+3 = 54 T = 126
Y+k Y+1 = 7 Y+2 = 5 Y+3 = 9 Y = 7
4.3. Modelo
Básicamente el modelo correspondiente al diseño de dos factores de
efectos simples completamente aleatorizado no se diferencia excesiva-
mente del modelo de un factor, dado que ambos se fundamentan en el
modelo lineal general. Así pues, la puntuación de un sujeto va a venir
dada por la suma de una serie de componentes. En este caso, no obs-
tante, vamos a tener en cuenta tanto el efecto del factor A y del factor
B, así como de la interacción de ambos factores, sobre cada observa-
ción.
De esta manera, el valor de la variable dependiente Y observada en
el sujeto i sometido al tratamiento j del factor A y al tratamiento k del
factor B queda expresado como la suma de cinco componentes:
αj = µj+ - µ
βk = µ+k - µ
∑α j j = ∑ k β k = ∑ j (αβ ) jk = ∑ k (αβ ) jk = 0
µ̂ = Y
α̂ j = Y j + − Y
β̂ k = Y+ k − Y
εˆijk = Yijk − Y
De este modo, si
es válida en la población
Yijk=Y + (Yj+ -Y ) + (Y+k -Y ) + (Yjk -Yj+ -Y+k +Y ) + (Yijk -Yj )
es válida en la muestra.
Las hipótesis nulas que se derivan de este modelo serán las siguien-
tes:
1. H0(A) : µ1+ = µ2+ = ... = µJ+ o bien
H0(A) : αj = 0, para todo valor de j.
Es decir, las J medias poblacionales correspondientes a los nive-
les del factor A no difieren significativamente, o bien, no existe
un efecto significativo del factor A sobre las puntuaciones.
2. H0(B) : µ+1 = µ+2 = ... = µ+K o bien
H0(B) : βk = 0, para todo valor de k.
Es decir, las K medias poblacionales correspondientes a los nive-
les del factor B no difieren significativamente, o bien, no existe
un efecto significativo del factor B sobre las puntuaciones.
114 Análisis de varianza
(Yijk -Y) = (Yj+ -Y ) + (Y+k -Y ) + (Yjk -Yj+ -Y+k +Y ) + (Yijk -Yjk )
∑ ∑ ∑ (Y
i j k ijk −Y ) = ∑ ∑ ∑ [(Y
2
i j k j+ ) ( ) ( ) (
− Y + Y+ k − Y + Y jk − Y j + − Y+ k + Y + Yijk − Y jk )]
2
∑∑ ∑ (Y ) (
= nK ∑ j Y j + − Y ) (
+ nJ ∑k Y+ k − Y )
2 2 2
i j k ijk −Y +
Análisis de varianza de dos factores completamente aleatorizado 115
(
+ n ∑ j ∑ k Y jk − Y j + − Y+ k + Y ) + ∑ ∑ ∑ (Y
2
i j k ijk − Y jk )
2
∑ ∑ ∑ (Y ) (
= nK ∑ j Y j + − Y ) (
+ nJ ∑ k Y+ k − Y )
2 2 2
i j l ijk −Y +
(
+ n ∑ j ∑ k Y jk − Y j + − Y+ k + Y ) + ∑ ∑ ∑ (Y
2
i j k ijk − Y jk )2
∑ ∑ ∑ (Yijk − Y jk ) 2
E ( MCint ra ) = E i j k =σ2
N − JK
bien consultar, para su demostración, a Amón (1984) o San Martín y Pardo (1989).
118 Análisis de varianza
nK ∑ j (Y j + − Y ) 2 nK ∑ j α 2j
E ( MC A ) = E = + σ 2 = nKσ α2 + σ 2
J −1 J −1
nJ ∑ k (Y+ k − Y ) 2 nJ ∑ k β j2
E ( MCB ) = E = + σ 2 = nJσ β2 + σ 2
K −1 K −1
n ∑ ∑ (Y jk − Y j + − Yk + + Y ) 2 n∑ ∑ (αβ ) 2jk
E ( MC AB ) = E j k
= j k
+ σ 2 = nσ αβ
2
+σ 2
( J − 1)( K − 1) ( J − 1)( K − 1)
MC A
FA = para el factor A
MCint ra
MCB
FB = para el factor B
MCint ra
MC AB
FAB = para la interacción,
MCint ra
donde:
FA sigue una distribución F con J – 1 y N – JK grados de libertad.
FB sigue una distribución F con K – 1 y N – JK grados de libertad.
FAB sigue una distribución F con (J – 1)(K – 1) y N – JK grados de
libertad.
MCB
b) FB =
MCint ra
MC AB
c) FAB =
MCint ra
Tabla de ANVAR:
FV SC gl MC F
MC A
A SCA J–1 SCA / glA FA =
MCint ra
MCB
B SCB K–1 SCB / glB FB =
MCint ra
MC AB
AB SCAB (J – 1)(K - 1) SCAB / glAB FAB =
MCint ra
intra SCintra N – JK SCintra / glintra
total SCtotal N–1
4. Distribuciones muestrales:
a) FA sigue una distribución FJ - 1, N - JK
b) FB sigue una distribución FK - 1, N - JK
b) FAB sigue una distribución F(J - 1)(K - 1), N - JK
5. Nivel de significación y punto crítico:
α lo impone el investigador
a) valor crítico: F1−α ; J −1, N − JK
6. Decisión:
Análisis de varianza de dos factores completamente aleatorizado 121
T2
SCtotal = ∑i ∑ j ∑ k Yijk2 −
N
SC A =
∑T
j
2
j+
−
T2
nK N
SCB =
∑Tk
2
+k
−
T2
nJ N
SC AB =
∑∑T j k
2
jk
−
∑T
j
2
j+
−
∑T
k
2
+k
+
T2
n nK nJ N
∑ ∑ T jk2
SCint ra = ∑i ∑ j ∑ k Yijk2 − j k
n
B
B N M Tj+ Yj+
8 8 4
4 10 6
L 0 6 8
T11 = 12 T12 = 24 T13 = 18 T1+ = 54
A Y11 = 4 Y12 = 8 Y13 = 6 Y1+ = 6
10 0 15
6 4 9
C 14 2 12
T21 = 30 T22 = 6 T23 = 36 T2+ = 72
Y21 = 10 Y22 = 2 Y23 = 12 Y2+ = 8
T+k T+1 = 42 T+2 = 30 T+3 = 54 T = 126
Y+k Y+1 = 7 Y+2 = 5 Y+3 = 9 Y = 7
2. Supuestos:
a) Independencia: 6 muestras de tamaño 3 aleatoriamente extraídas de la
población e independientes entre sí.
b) Normalidad: las 6 poblaciones de donde se extraen las 6 muestras son
normales.
c) Homocedasticidad: las 6 poblaciones tienen, todas ellas, la misma va-
rianza.
3. Estadístico de contraste:
Sumas cuadráticas:
1262
SCtotal = (82 + 4 2 + ... + 9 2 + 122 ) − = 1198 − 882 = 316
18
54 2 + 722 1262
SC A = − = 900 − 882 = 18
3⋅3 18
Análisis de varianza de dos factores completamente aleatorizado 123
Grados de libertad:
N = 18 (número total de sujetos)
J = 2 (número de niveles del factor A)
K = 3 (número de niveles del factor B)
gltotal = N - 1 = 18 - 1 = 17
glA = J - 1 = 2 - 1 = 1
glB = K - 1 = 3 - 1 = 2
glAB = (J - 1)(K - 1) = 1∃2 = 2
glintra = N - JK = 18 - 2∃3 = 12
Tabla de ANVAR:
FV SC gl MC F
A 18 1 18 2,03
B 48 2 24 2,71
AB 144 2 72 8,15
intra 106 12 8,83
total 316 17
6. Decisiones:
a) No rechazo H0(A) porque FA F0 ,95;1,12
V.D.
A1
A2
B1 B2 B3
la gráfica, que nos ayuda a la interpretación. Ahora bien, de esto no se deduce que
una representación gráfica nos dirá si existe o no una interacción significativa.
Siempre hay que realizar el contraste de hipótesis porque podemos encontrarnos un
cruce o convergencia de líneas en el dibujo, lo que significa la presencia de una
interacción, pero no ser ésta significativa.
126 Análisis de varianza
V.D.
A1
A2
B1 B2 B3
Ejemplo 4.4. En nuestro ejemplo acerca del rendimiento de las ratas se puede apreciar
en la gráfica el efecto de interacción, indicándonos que criar a las ratas en libertad
favorece el rendimiento de las negras, mientras que la crianza en cautividad favore-
ce el rendimiento de las blancas y las marrones:
V.D. 14
12
10
8 L
6 C
4
2
0
B N M
del otro factor. Podemos realizar, por ejemplo, un ANVAR de los efec-
tos del factor A para cada uno de los niveles del factor B (o viceversa).
Los efectos simples se definen “como los efectos atribuidos a un
componente del modelo lineal después de fijar los niveles de otro com-
ponente del modelo” (Riba, 1987). Se trata de eliminar del modelo el
término de interacción, por lo tendremos una nueva ecuación estruc-
tural con sus hipótesis nulas específicas. Además, tanto las sumas
cuadráticas como los grados de libertad suponen una partición de la
suma de cuadrados de los factores principales más la suma de cua-
drados de la interacción.
Para no confundirlos con los efectos principales recordemos que, en
un diseño de dos factores, la ecuación estructural se establece como:
αj = µj+ - µ
βk = µ+k - µ
H0(A) : µ1+ = µ2+ = ... = µJ+ o bien H0(A) : αj = 0 (para todo j).
H0(B) : µ+1 = µ+2 = ... = µ+K o bien H0(B) : βk = 0 (para todo k).
H0(Aj) : µj1 = µj2 = ... = µjK o bien H0(Aj) : αj = 0, para todo j en el nivel Bk
128 Análisis de varianza
H0(Bk) : µ1k = µ2k = ... = µJk o bien H0(Bk) : βk = 0, para todo k en el nivel Aj
FV SC gl MC F p
inter 24 2 12 1,5 0,30
intra 48 6 8
total 72 8
FV SC gl MC F p
inter 168 2 84 8,5 0,02
intra 58 6 9,67
total 226 8
Análisis de varianza de dos factores completamente aleatorizado 129
no al efecto de interacción. Esto no quiere decir que no se utilicen para esta fuente
de variación, más bien al contrario, podemos estar interesados en la búsqueda de
comparaciones planeadas concretas en situaciones donde, por ejemplo, nos encon-
tramos con alguna/s media/s muy diferente/s del resto (en estos casos el test ómnibus
de la interacción, sin necesidad de realizarlo, sabremos que resultará significati-
vo). Sin embargo, los contrastes a priori referidos a la interacción son bastante
complejos, sobre todo en su interpretación, razón por la que no los incluimos aquí.
Análisis de varianza de dos factores completamente aleatorizado 131
Para el factor A:
tA =
∑ j
c pj ⋅ Y j
c 2pj
MCint ra ⋅ ∑ j
n
tB =
∑ k
c pk ⋅ Yk
c 2pk
MCint ra ⋅ ∑ k
n
2. Prueba de Dunn:
Tanto para el factor A como para el factor B, utilizamos los mismos
estadísticos que anteriormente, sólo que ahora buscamos los puntos
críticos en la Tabla 6 del apéndice. Recordemos que en esta prueba,
para cada factor, controlamos la probabilidad de incrementar el
error tipo I inicial teniendo en cuenta el número total de compara-
ciones que vamos a realizar en cada uno de ellos.
Así mismo, podemos calcular los intervalos confidenciales para
cada una de las diferencias que, como ya sabemos, no sólo nos per-
miten decidir sobre las hipótesis nulas en cuestión, sino que además
nos informan, con un determinado nivel de confianza, de la cuantía
de la diferencias en la población. Estos intervalos vienen dados por.
c12j
∑ j c pjY j ± tD ' ⋅ MCint ra ⋅ ∑ j
nj
para el factor A y
c12k
∑ k
c pkYk ± t D ' ⋅ MCint ra ⋅ ∑ k
n
132 Análisis de varianza
3. Prueba F’:
Para el factor A:
F 'A =
(∑ cj pj ⋅ Yj ) 2
c 2pj
MCint ra ⋅ ∑ j
n
F 'B =
(∑ ck pk ⋅ Yk ) 2
c 2pk
MCint ra ⋅ ∑ k
n
MCint ra
DHSTukey = qα , v , gl N − JK
⋅
n
(Y j )
− Y j ' ± DHS Tukey para el factor A
(Yk )
− Yk ' ± DHSTukey para el factor B
Análisis de varianza de dos factores completamente aleatorizado 133
2. Prueba de Scheffé:
Se calculan las diferencias críticas para cada uno de los factores:
c 2j
DCSheffé ( A) = ( J − 1) ⋅ Fα , J −1, gl ⋅ MCint ra ⋅ ∑ j
int ra
nK
para el factor A.
ck2
DCSheffé ( B ) = ( K − 1) ⋅ Fα , K −1, gl ⋅ MCint ra ⋅ ∑ k
int ra
nJ
para el factor B.
Si, para cualquiera de los dos factores, la diferencia entre dos
medias (cuando realizamos todas las comparaciones por pares en-
tre medias) o el sumatorio de los pesos por las medias (cuando rea-
lizamos comparaciones concretas) supera la diferencia crítica, se
rechaza la hipótesis nula.
Los intervalos confidenciales los podemos calcular mediante:
(Y j )
− Y j ' ± DCScheffé o bien ∑cY j j j ± DC Scheffé
para el factor A.
(Yk )
− Yk ' ± DCScheffé o bien ∑ k
ckYk ± DCScheffé
para el factor B.
Por último, y aun a fuerza de ser repetitivos, no debemos olvidar
que, tanto si realizamos contrastes a priori como si son a posteriori,
nunca es prudente llevar a cabo más comparaciones de las absolu-
tamente necesarias.
SC A SCB SC AB
η A2 = ηB2 = η AB
2
=
SC A + SCint ra SCB + SCint ra SC AB + SCint ra
SCB 48
ηB2 = = = 0,31
SCB + SCint a 48 + 106
SC AB 144
η AB
2
= = = 0,58
SC AB + SCint ra 144 + 106
31 Si dividiésemos la SC por la SC
A TOTAL obtendríamos una medida similar al co-
eficiente de correlación semiparcial al cuadrado utilizado en la regresión múltiple
y podríamos interpretarlo como la explicación exclusiva del factor A de la variabi-
lidad de la V.D.
Análisis de varianza de dos factores completamente aleatorizado 135
SC A − gl A ⋅ MCint ra
ω A2 =
MCint ra + SCtotal
SC AB − gl AB ⋅ MCint ra
ω AB
2
=
MCint ra + SCtotal
(
∑ j Yj − Y )
2
(
∑ k Yk − Y )
2 (
∑ j ∑ k Y jk − Y )
2
J JK
k
f = f = f =
MCint ra MCint ra MCint ra
η2
f =
1 −η2
∑α 2
j J
φA =
j
σ Kn
φB =
∑ k
β k2 K
σ Jn
σ n
σˆ 2 = MCint ra
Ejemplo 4.8. Calculemos la potencia de la prueba para los factores A y B, en los que
no hemos obtenido un efecto significativo. Los datos de los que disponemos son:
MCA = 18, MCB = 24, MCintra = 8,83, J = 2, K = 3, n = 3. Veamos pues cómo se cal-
cula.
( J − 1) (2 − 1)
∑ αˆ j
2
j =
n
( MC A − MCint ra ) =
3
(18 − 8,83) = 3,06
Análisis de varianza de dos factores completamente aleatorizado 137
∑α 2
j J 3,06 2
φA = = = 1,25
j
σ Kn 8,83 3 ⋅ 3
(k − 1) (3 − 1)
∑ j
βˆ j2 =
n
( MCB − MCint ra ) =
3
(24 − 8,83) = 10,11
φB =
∑ k
β k2 k
=
10,11 3
= 1,51
σ Jn 8,83 2 ⋅ 3
N − JK
n' = +1
u +1
E (MC AB ) = σ 2
los apartados 4.18.1 y 4.18.2 puede consultar Winer (1971), Kirk (1982) o Amón
(1984).
Análisis de varianza de dos factores completamente aleatorizado 139
consultar Keren (1993) y Everitt (1996) para una mayor información sobre las
soluciones más utilizadas.
140 Análisis de varianza
zar algunos ajustes de manera que podamos analizar los datos me-
diante la técnica del ANVAR34. Distinguiremos dos casos:
1. Cuando el número de sujetos por celda no es el mismo pero sí
proporcional a los totales marginales, es decir:
n j + ⋅ n+ k
n jk =
N
Todo lo que hemos visto es válido, simplemente hay que tener cui-
dado en la realización de los cálculos, donde njk sustituye a n, nj+ a nK
y n+k a nJ.
2. Cuando, además de no tener el mismo número de sujetos por cel-
da, no se guarda la proporcionalidad anterior, se puede trabajar
considerando el mismo número de observaciones por celda, pero el
valor de n necesario para llevar a cabo todos los cálculos, será la
media armónica del número de observaciones por celda:
JK
na =
∑∑ j k
(1 / n jk )
A continuación, se calculan las medias por celda, por filas, por co-
lumnas y total. Consideramos, por tanto, una sola observación por
celda (la media de sus puntuaciones). El cálculo de las sumas y me-
dias cuadráticas de los efectos principales lo llevamos a cabo de la
manera que conocemos, solo que utilizamos estas medias en lugar de
las puntuaciones y na en lugar de n. La media cuadrática de error la
calcularemos mediante:
34 Aunque hayamos dejado para este tema el caso de tamaños de celdas desigua-
1
∑∑
j k
n jk
ra = MCint ra ⋅
*
MCint
JK
donde MCintra se calcula con los datos sin promediar. MC*intra será un
estimador insesgado de la varianza, supuestamente idéntica, de las JK
subpoblaciones, cuando en cada celda sólo tenemos la media de las
observaciones.
En la misma línea, San Luis y Sánchez (1985) afirman que “en mu-
chas ocasiones aparecen en la literatura diseños con un considerable
número de factores (a su vez, con muchos niveles) que, a pesar de su
aparente elegancia, implican un elevado número de interacciones que,
en la mayoría de los casos, son imposibles de definir de antemano por
la teoría, difíciles de interpretar y artefactuales”, de ahí que “algunos
autores recomienden que, como norma metodológica general, limite-
mos el uso del ANVAR a investigaciones en las que sólo existan dos
variables independientes de no demasiados niveles” (San Luis y Sán-
chez, 1985).
5. Análisis de varianza de medidas
repetidas
5.1. Introducción
En el segundo tema hicimos una clasificación de los diferentes mode-
los de ANVAR atendiendo a varios aspectos, uno de los cuales era la
forma de manejar el error experimental. Vamos a detenernos un poco
más en este punto.
Ya sabemos que no todos los cambios observados en la variable de-
pendiente se deben únicamente a los cambios introducidos en la/s
variable/s independiente/s. En efecto, en todo experimento existen otros
factores no estudiados directamente por el investigador que afectan a
sus resultados, a los valores observados en la variable dependiente.
Estos factores constituyen el error experimental y la variabilidad a
que dan lugar la englobamos en la varianza intragrupo.
Un objetivo que nos planteamos en nuestros experimentos es conse-
guir que las variaciones en la variable dependiente se deban, lo más
sistemáticamente posible, a los cambios introducidos en la/s variable/s
independiente/s, procurando mantener constante, y en la menor cuan-
tía posible, el error experimental. En consecuencia, el análisis de
varianza captará más adecuadamente la variación entre los grupos.
De otro modo, al finalizar el experimento, no podremos saber hasta
144 Análisis de varianza
donde:
i: 1, 2, ..., n (hace referencia a los sujetos)
j: 1, 2, ..., J (hace referencia a los niveles)
Yij: puntuación del sujeto i perteneciente al nivel j
Ti+: suma de puntuaciones de cada sujeto en todos los niveles de j
Ti + = ∑ j Yij
T+j: suma de puntuaciones de todos los sujetos en cada nivel del fac-
tor
T+ j = ∑i Yij
T = ∑ j T j = ∑i ∑ j Yij
n: número de sujetos
N: número total de observaciones
N = J ⋅n
Ejemplo 5.1. Supongamos que queremos averiguar cómo afecta el tipo de examen a la
calificación en una asignatura. Para ello, se van a elaborar tres formatos de res-
puesta: desarrollo de problemas (1), respuestas concretas (2) y respuestas tipo test
(3). Supongamos además que 10 sujetos pasan por las tres pruebas y que los re-
sultados obtenidos han sido los siguientes:
tipo de examen
sujetos 1 2 3 Ti+ Yi+
1 0 3 8 11 3,6
2 3 5 6 14 4,6
3 3 6 3 12 4
4 2 3 4 9 3
5 1 2 8 11 3,6
6 4 2 9 15 5
7 4 6 5 15 5
8 6 7 9 22 7,3
9 2 3 7 12 4
10 5 8 7 10 6,6
T+j 30 45 66 141
Y+j 3 4,5 6,6 4,7
Yij = µ + αj + si + εij
donde
148 Análisis de varianza
Yij =Y + (Y+j -Y) + (Y i+ -Y) + (Yij -Y +j -Y i+ +Y)
es válida en la muestra.
Para llegar al estadístico de contraste que nos permita el rechazo o
no de la hipótesis nula debemos seguir los pasos que ya conocemos, es
decir, descomponer la varianza total de las puntuaciones, obtener las
sumas cuadráticas, así como los grados de libertad y las medias cua-
dráticas. Es lo que vamos a hacer en los siguientes párrafos.
Para una unidad experimental tenemos:
(Yij -Y) = (Y+j -Y ) + (Yi+ -Y ) + (Yij -Y+j -Yi+ +Y )
∑ ∑ (Y
i j ij −Y ) = ∑ ∑ [(Y − Y ) + (Y − Y ) + (Y − Y − Y + Y )] =
2
i j +j i+ ij +j i+
2
= n ∑ (Y − Y ) + J ∑ (Y − Y ) + n∑ ∑ (Y − Y − Y )
2 2 2
j +j i i+ i j jk +j i+ +Y
N - 1 = (J - 1) + (n - 1) + (J - 1)(n - 1)
n ∑ j (Y+ j − Y ) 2 n∑ j α 2j
E ( MCint er ) = E = + σ 2 = nσ α2 + σ 2
J −1 J −1
∑ ∑ (Y jk − Y+ j − Yi + + Y ) 2
E ( MCint ra ) = E i j =σ2
( J − 1)(n − 1)
( J − 1) MCint er
= χ J2 −1 si H0 es verdadera.
σ2
( J − 1) (n − 1) MCint ra
= χ (2J −1)( n −1) tanto si H0 es verdadera como si no.
σ2
( J − 1) MCint er
/( J − 1)
σ2 =
MCint er
=F
( J − 1) (n − 1) MCint ra MC
/( J − 1)( n − 1) int ra
σ2
FV SC gl MC F
Intergrupos SCinter J–1 SCinter / glinter F=
MCint er
Intersujetos SCS n–1 MCint ra
Intragrupos SCintra (J – 1)(n - 1) SCintra / glintra
Total SCtotal N–1
152 Análisis de varianza
T2
SCtotal = ∑i ∑ j Yij2 −
N
T+2j T2
SCint er = ∑ j −
n N
Ti +2 T 2
SC S = ∑i −
J N
T+2j Ti +2 T 2
SC int ra = ∑i∑ j Yij2 − ∑ j − ∑i +
n J N
Ejemplo 5.2. Recordemos que pretendemos averiguar cómo afecta el tipo de examen
a la calificación en una asignatura y que 10 sujetos van a realizar los tres exáme-
nes. Supongamos que los resultados obtenidos son los siguientes:
tipo de examen
sujetos 1 2 3 Ti+ Yi+
1 0 3 8 11 3,6
2 3 5 6 14 4,6
3 3 6 3 12 4
4 2 3 4 9 3
5 1 2 8 11 3,6
6 4 2 9 15 5
7 4 6 5 15 5
8 6 7 9 22 7,3
9 2 3 7 12 4
10 5 8 7 10 6,6
T+j 30 45 66 141
Y+j 3 4,5 6,6 4,7
Bajo esta hipótesis establecemos que las 3 medias poblacionales son igua-
les, es decir, la calificación en los tres tipos de examen es la misma.
H1 : µ+j ≠ µ
Bajo esta hipótesis establecemos que la calificación en los tres tipos de
examen no es la misma.
2. Supuestos:
1) Normalidad de las observaciones (o de los errores).
2) Homogeneidad de varianzas.
3) Los sujetos (si) no interactúan ni con los tratamientos (αj) ni con los erro-
res (εij).
3. Estadístico de contraste:
1412
SC total = 839 − = 839 − 662,7 = 176,3
30
30 2 45 2 66 2 1412
SC int er = + + − = 728,1 − 662,7 = 65,4
10 10 10 30
15 2 9 2 12 2 112 1412
SC S = + + ... + + − = 713,7 − 662,7 = 51
3 3 3 3 30
FV SC gl MC F
Intergrupos 65,4 2 65,4 / 2 = 32,7 32,7
Intersujetos 51 9 F= = 9,83
3,3
Intragrupos 59,9 18 59,9 / 18 = 3,3
Total 176,3 29
6. Decisión:
Rechazo de H0 porque F > F0,95; 2 ,18
154 Análisis de varianza
T j2
SCint ra = ∑i∑ j Yij2 − ∑ j = 839 − 728,1 = 110,9
nj
La SCintra es de 110,9 frente a 59,9 que hemos obtenido con el diseño de medi-
das repetidas y la MCintra es igual a 110,9 / 27 = 4,11 frente al valor de 3,3. Pode-
mos ver cómo ahora el análisis es más sensible debido, precisamente, a que
hemos apartado del error experimental la varianza que se debe a las diferencias in-
dividuales.
µ =Y
Análisis de varianza de medidas repetidas 155
αj =Y+j -Y
si =Yi+ -Y
εij = Yij –Y – (Y+j – Y) – (Yi+ –Y) – (Yij -Y+j -Yi+ +Y) = 0
Yij = µ + αj + si + (sα)ij
(N – 1) = (J – 1) + (n – 1) + (n – 1)(J – 1)
MC A
F=
MC SA
que sigue una distribución Fα , J −1, ( n −1)( J −1) para contrastar la hipótesis
nula de igualdad de medias de los tratamientos.
En general, nos encontraremos que en los diseños de medidas repe-
tidas, la variabilidad de todas las observaciones suele descomponerse
en dos fuentes de variación: la variación atribuible a las diferencias
entre las medias de los sujetos (variación inter-sujetos) y la variación
que se debe a las diferencias de las puntuaciones de cada sujeto (va-
riación intra-sujetos). Es decir:
A1 ... Aj ... AJ
S1 Y111 ... Y11k ... Y11K Y1j1 ... Y1jk ... Y1jK Y1J1 ... Y1Jk ... Y1JK
S2 Y211 ... Y21k ... Y21K Y2j1 ... Y2jk ... Y2jK Y2J1 ... Y2Jk ... Y2JK
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
Si Yi11 ... Yi1k ... Yi1K Yij1 ... Yijk ... YijK YiJ1 ... YiJk ... YiJK
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
Sn Yn11 ... Yn1k ... Yn1K Ynj1 ... Ynjk ... YnjK YnJ1 ... YnJk ... YnJK
donde:
i: 1, 2, ..., n (hace referencia a los sujetos)
j: 1, 2, ..., J (hacer referencia a los niveles del factor A)
k: 1, 2, ..., K (hacer referencia a los niveles del factor B)
Yijk: puntuación del sujeto i perteneciente al nivel j y al nivel k
Ti++: puntuación total de cada sujeto
158 Análisis de varianza
Ti + + = ∑ j ∑k Yijk
Tij + = ∑k Yijk
Ti + k = ∑ j Yijk
T+ jk = ∑iYijk
T+ + k = ∑∑
i
Y
k ijk
T+ + k = ∑∑
i
Y
j ijk
T = ∑i∑ j ∑k Yijk
siendo
µ = promedio de todas las puntuaciones en la población.
αj = efecto específico del nivel j sobre la puntuación Yijk:
αj = µ+j+ - µ
βk = µ++k - µ
Análisis de varianza de medidas repetidas 159
si = µi++ - µ
Yijk =Y + (Y+j+ -Y) + (Y++k -Y) + (Y+jk -Y+j+ -Y++k +Y) +
es válida en la muestra.
Si para una unidad experimental:
Yijk -Y = (Y+j+ -Y) + (Y++k -Y) + (Y+jk -Y+j+ -Y++k +Y) +
FV SC gl MC F
Intergrupos: SCinter JK – 1
MC A
A SCA J–1 SCA / glA FA =
MCint ra
MC B
B SCB K–1 SCB / glB FB =
MCint ra
MC AB
AB SCAB (J – 1)(K – 1) SCAB / glAB FAB =
MCint ra
Intersujetos SCS n–1
Intragrupos SCintra (JK – 1)(n – 1) SCintra / glintra
Total SCtotal N–1
36 Se puede consultar Winer (1971) y Kirk (1982) para ver cómo se obtienen las
esperanzas matemáticas.
162 Análisis de varianza
Las fórmulas que nos facilitan los cálculos de estas sumas cuadrá-
ticas son las siguientes:
T2
SCtotal = ∑∑
i j ∑l ijk
Y2 −
N
SCint er =
∑T j
2
+ jk
−
T2
n N
SC A =
∑T j
2
+ j+
−
T2
nK N
SC B =
∑T k
2
++ k
−
T2
nJ N
SC AB =
∑∑T j k
2
+ jk
−
∑T j
2
+ j+
−
∑T
k
2
++ k
+
T2
= SCint er − SC A − SC B
n nK nJ N
SC S =
∑T k
2
i++
−
T2
JK N
∑ j ∑k T+2jk
SCint ra = ∑i∑ j ∑k Yijk2 −
n
CA SA
suj. A M B A M B Ti++ Tij+ Ti+k
1 7 4 1 10 9 2 33 12 21 17 13 3
2 2 3 1 7 5 4 22 6 16 9 8 5
3 4 5 2 5 6 1 23 11 12 9 11 3
4 4 6 5 9 10 5 39 15 24 13 16 10
5 6 6 3 10 8 6 39 15 24 16 14 9
T+jk 23 24 12 41 38 18 156
T+j+ 59 97
T++k 64 62 30
156 2
SCtotal = 7 2 + 2 2 + ... + 5 2 + 6 2 − = 1026 − 811,2 = 214,8
30
232 + 24 2 + 12 2 + 412 + 38 2 + 18 2
SCint er = − 811,2 = 128,4
5
164 Análisis de varianza
59 2 + 97 2 156 2
SC A = − = 859,34 − 811,2 = 48,14
5⋅3 30
64 2 + 62 2 + 30 2 156 2
SC B = + = 884 − 811,2 = 72,8
5⋅ 2 30
SC AB = SCint er − SC A − SC B = 128,4 − 48,14 − 72,8 = 7,46
Tabla de ANVAR:
FV SC gl MC F
Intergrupos: 128,4 5
A 48,14 1 48,14 48,14 / 2,01 = 23,95
B 72,8 2 36,4 36,4 / 2,01 = 18,11
AB 7,46 2 3,73 3,73 / 2,01 = 1,86
Intersujeto 46,134 4
Intragrupos 40,266 20 2,01
Total 214,8 29
F0,95;1, 20 = 4,35
F0,95; 2, 20 = 3,49
F0,95; 2, 20 = 3,49
6. Decisiones:
Rechazo de H0(A) porque FA > F0,95;1, 20
FV SC gl MC F
Intergru- SCinter JK – 1
pos:
MC A
A SCA J–1 SCA / glA FA =
MCSA
MC B
B SCB K–1 SCB / glB FB =
MCSB
MC AB
AB SCAB (J – 1)(K – 1) SCAB / glAB FAB =
MCSAB
Intersujetos SCS n–1
Intragru- SCintra (JK – 1)(n – 1)
pos: SCSA (J – 1)(n – 1) SCSA / glSA
SA SCSB (K – 1)(n – 1) SCSB / glSB
SB SCSAB (J – 1)(K – 1)(n – SCSAB /
SAB 1) glSAB
SCSA =
∑∑ T
i j
2
ij +
−
∑T
j
2
+ j+
−
∑T 2
i i++
+
T2
K nK JK N
SC SB =
∑∑ T
i k
2
i+k
−
∑T
k
2
++ k
−
∑T 2
i i++
+
T2
J nJ JK N
SC SAB = SCint ra − SC SA − SC SB
Ejemplo 5.4. Recordemos que nuestro interés es comprobar si existe un efecto signifi-
cativo de la ansiedad (Factor A) y de la motivación (Factor B) sobre el rendimiento
de los sujetos. Ahora no vamos a suponer un modelo aditivo, sino que existe un
efecto de interacción entre los sujetos y los factores principales. Calcularemos pri-
mero las sumas cuadráticas y presentaremos la tabla de ANVAR, para pasar a
continuación a las decisiones.
12 2 + 6 2 + ... + 24 2 + 24 2
SC SA = − 859,34 − 857,34 + 811,2 = 9,19
3
17 2 + 9 2 + ... + 102 + 9 2
SCSB = − 884 − 857,34 + 811,2 = 22,86
2
SC SAB = 40,27 − 9,19 − 22,86 = 8,22
168 Análisis de varianza
Tabla de ANVAR:
FV SC gl MC F
Intergrupos: 128,4 5
A 48,14 1 48,14 FA = 48,14 / 2,30 = 20,9
B 72,8 2 36,4 FB = 36,4 / 2,86 = 12,73
AB 7,46 2 3,73 FAB = 3,73 / 1,03 = 3,62
Intersujetos 46,13 4
Intragrupos: 40,27 20
SA 9,19 4 2,30
SB 22,86 8 2,86
SAB 8,22 8 1,03
Total 214,8 29
Podemos concluir que, para las condiciones estudiadas, tanto la ansiedad (Fac-
tor A) como la motivación (Factor B) afectan al rendimiento de los sujetos. Tampoco
en esta ocasión hemos encontrado un efecto significativo de interacción de ambos
factores sobre el rendimiento de los sujetos.
donde:
Yijk: puntuación del sujeto i perteneciente al nivel j y al nivel k
n: número de sujetos en cada condición de A
Tij+: puntuación de cada sujeto en cada nivel de A
Tij + = ∑k Yijk
T+ jk = ∑iYijk
T+ + k = ∑∑
i
Y
k ijk
Análisis de varianza de medidas repetidas 171
T+ + k = ∑∑
i
Y
j ijk
T = ∑∑
i j ∑ k ijk
Y
gltotal = N – 1
172 Análisis de varianza
glinter-suj = nJ – 1
glA = J – 1
glS = J(n – 1)
glintra-suj = nJ(K – 1)
glB = K – 1
glAB = (J – 1)(K – 1)
37 Se puede consultar Winer (1971) y Kirk (1982) para ver cómo se obtienen las
esperanzas matemáticas.
Análisis de varianza de medidas repetidas 173
FV SC gl MC F
MC A
A SCA J–1 SCA / glA FA =
MC S
S SCS J(n – 1) SCS / glS
MC B
B SCB K–1 SCB / glB FB =
MCSB
MC AB
AB SCAB (J – 1)(K – 1) SCAB / glAB FAB =
MC SB
SB SCSB J(K – 1)(n – 1) SCSB / glSB
Total SCtotal N–1
T2
SCtotal = ∑∑
i j ∑k ijk
Y2 −
N
SCint er −suj =
∑∑ T i j
2
ij +
−
T2
K N
SC A =
∑T j
2
+ j+
−
T2
nK N
SC S =
∑∑ T i j
2
ij +
−
∑T j
2
+ j+
K nk
SCint ra = ∑∑
∑∑ T 2
j ∑k ijk
ij +
Y2 −
i j
i
K
SC B =
∑T k
2
++ k
−
T2
nJ N
174 Análisis de varianza
SC AB =
∑∑T j k
2
+ jk
−
∑Tj
2
+ j+
−
∑T k
2
++ k
+
T2
n nk nJ N
SC SB = ∑∑
∑∑ T 2
∑∑T 2
∑T 2
j ∑k ijk
ij + + jk + j+
Y2 − − +
i j j k j
i
K n nk
T+jk 23 24 12
41 38 18
156 2
SCtotal = 1026 − = 1026 − 811,2 = 214,8
30
12 2 + 6 2 + ... + 24 2 + 24 2
SCint er −suj = − 811,2 = 914,67 − 811,2 = 103,47
3
59 2 + 97 2
SC A = − 811,2 = 859,34 − 811,2 = 48,14
5⋅3
64 2 + 62 2 + 30 2
SC B = − 811,2 = 884 − 811,2 = 72,8
5⋅ 2
Tabla de ANVAR:
FV SC gl MC F
A 48,14 1 48,14 48,14 / 6,92 = 6,96
S 55,33 8 6,92
B 72,8 2 36,4 36,4 / 1,94 = 18,76
AB 7,46 2 3,73 3,73 / 1,94 = 1,92
SB 31,07 16 1,94
Total 214,8 29
176 Análisis de varianza
F0,95;1,8 = 5,32
6. Decisiones:
d i + = Yi + − Y
d + j = Y+ j − Y
178 Análisis de varianza
tipo de examen
1 2 3
1 1,87 0,22 -2,09
2 0,17 0,02 -0,19
3 1,19 0,14 -1,33
4 3,17 0,37 -3,55
5 1,87 0,22 -2,09
6 -0,51 -0,06 0,57
7 -0,05 -0,06 0,53
8 -4,42 -0,52 4,94
9 1,19 0,14 -1,33
19 -3,23 -0,38 3,61
(∑ d )(∑ d )
ij ij
= = 0,27
i j
SC no aditividad
i
2
i+ 16,85 ⋅ 6,54
j
2
+j
glno aditividad = 1
Análisis de varianza de medidas repetidas 179
A1 A2 ... Aj ... AJ
A1 S 1
2
S12 ... S1 j ... S1J
A2 S12 S 2
2
... S2 j ... S2J
... ... ... ... ... ... ...
Aj S1 j S2 j ... S 2j ... S jJ
... ... ... ... ... ... ...
AJ S1J S2J ... S jJ ... S J2
S XY =
∑ ( X − X )(Y − Y )
N −1
S XX =
∑ ( X − X )( X − X ) = S 2
N −1
X
180 Análisis de varianza
FV SC gl MC F
Intergrupos 65,4 2 65,4 / 2 = 32,7
32,7
Intersujetos 51 9 F= = 9,83
Intragrupos 59,9 18 59,9 / 18 = 3,3 3,3
Total 176,3 29
6.1. Introducción
Hasta el momento, tanto en los diseños completamente aleatorizados
como de medidas repetidas, hemos trabajado con ejemplos donde los
niveles de las variables estudiadas conforman todos los posibles o son
aquellos sobre los que nos interesa realizar las inferencias estadísti-
cas. Así, en el ejemplo del rendimiento de las ratas en el laberinto
(visto en el tema sobre ANVAR de dos factores completamente aleatori-
zado), el estilo de vida de las mismas (factor A) estaba compuesto de
los dos únicos posibles niveles: libertad y cautiverio. Y la raza (factor
B) estaba constituida por tres niveles, blancas, marrones y negras, que
eran aquellos que nos interesaban (ciertamente, puede haber otras
razas, pero nuestra atención estaba centrada en éstas).
Otro ejemplo bien distinto sería el siguiente. Imaginemos que que-
remos estudiar el efecto de la psicoterapia sobre los síntomas depresi-
vos. En este caso, como lo que nos interesa evaluar es la efectividad en
general de la psicoterapia, en nuestra selección de niveles no nos va a
importar tanto que entren tal o cual terapia psicológica, sino que la
selección de todas las posibles sea aleatoria. Cuando más tarde reali-
cemos la inferencia estadística, ésta se hará sobre todos los tipos de
186 Análisis de varianza
Yij = µ + αj + εij
donde Yij y εij eran variables aleatorias y αj una constante que refleja
el efecto propio del nivel Aj sobre las puntuaciones de ese nivel.
La ecuación estructural que vamos a establecer bajo el modelo de
efectos aleatorios es la siguiente:
Yij = µ + aj + εij
donde Yij y εij siguen siendo dos variables aleatorias, pero también lo es
aj. Veamos por qué. Bajo el modelo de efectos fijos, el nivel Aj es aquél
sobre el que queremos inferir conclusiones, es un nivel constante y por
tanto su efecto, αj, también lo es. Por el contrario, en el modelo de
efectos aleatorios, el nivel Aj constituye un nivel seleccionado de todos
los posibles. Por eso, se trata de una variable aleatoria cuyo efecto, aj,
Análisis de varianza de efectos aleatorios 187
σ y2 = σ a2 + σ ε2
H0 : α1 = α2 = α3
H0 : µ1 = µ2 = µ3
H0 : σ a2 = 0
Si todas las posibles medias son iguales o todos los posibles niveles son
igualmente efectivos, no existe variabilidad entre ellos y, lógicamente,
la varianza será igual a cero. En este caso, no podremos pensar otra
cosa que la variable independiente no tiene un efecto sobre la variable
dependiente. Por el contrario, el rechazo de la hipótesis nula signifi-
caría que todos los tratamientos en general difieren, existe una varia-
ción entre las medias, de lo que es reflejo una varianza entre ellas
distinta de cero.
El hecho de hablar en términos de un efecto en general, nos puede
hacer pensar que el tipo de inferencia que se puede hacer a partir de
estos modelos es más interesante porque, al ir más allá de unas medias
188 Análisis de varianza
N ∑ j α 2j
E ( MC int er ) = + σ 2 = N ⋅ σ α2 + σ 2
J −1
E ( MC int ra ) = σ 2
Análisis de varianza de efectos aleatorios 189
Jp − J
E ( MC int er ) = N ⋅ ⋅ σ a2 + σ 2
Jp
E ( MC int ra ) = σ 2
MC int er
F=
MC int ra
MC int er − MC int ra
ρ=
MC int er + (n − 1) ⋅ MC int ra
Fα ;( J −1),( N − J )
F=
ρ
1 + n
1− ρ
H1 : σ 2
a ≠ 0 (no todas las medias poblacionales son iguales: el tiempo de prác-
tica afecta al rendimiento motor)
La obtención del estadístico de contraste sería la misma, llegando también a la
misma razón F, es decir, 4,39. Con un nivel de significación α = 0,05, el punto críti-
Análisis de varianza de efectos aleatorios 191
co sería F0,95; 2, 12 = 3,89. Por tanto, la decisión con respecto a la hipótesis nula sería
su rechazo. A diferencia del modelo de efectos fijos, las conclusiones a las que se
llega no versan sólo sobre los tres niveles estudiados, sino que se generalizan al
conjunto de posibles valores de tiempo de práctica. Podríamos decir, por tanto, que
en general el tiempo de práctica tiene una influencia sobre el rendimiento de los su-
jetos.
Sin embargo, si bien antes realizábamos comparaciones entre medias, utilizan-
do la prueba de Tukey o la de Scheffé, para averiguar entre qué niveles se encon-
traban las diferencias, ahora no tienen sentido ya que la generalización va más allá
de los tres niveles estudiados.
Por otro lado, tras la aplicación de omega cuadrado en el ANVAR de efectos fi-
jos llegábamos al siguiente resultado:
25,2 − 2 ⋅ 2,86
ω2 = = 0,3118
2,86 + 59,6
lo que significaba que el 31,18% de la variabilidad de la destreza motora se debía al
efecto de los tres niveles de tiempo de práctica estudiados.
Aplicando el índice apropiado para el modelos de efectos aleatorios, obtendría-
mos el siguiente resultado:
12,6 − 2,86
ρ= = 0,185
12,6 + 4 ⋅ 2,86
es decir, el 18,5% de la variabilidad de la destreza motora se debe al efecto del
tiempo de práctica. No debe sorprendernos esta disminución en el resultado del
tamaño del efecto. Téngase en cuenta que en el modelo de efectos fijos el tamaño
del efecto es una medida promedio para los tres niveles considerados, mientras
que en el caso de efectos aleatorios, es una estimación para el conjunto de niveles
posibles y en nuestro ejemplo sólo hemos utilizado tres.
Por otro lado, la potencia que obteníamos en el modelo de efectos fijos era de
1 - β = 0,95. Vamos a calcularla bajo este nuevo contexto:
3,89
F= = 0,545
0,185
1 + 5
1 − 0,185
1 1
= = 1,835 con p = 0,406
F 0,545
Como ocurre con el tamaño del efecto, existe una disminución con respecto al mo-
delo de efectos fijos debido a que estamos utilizando pocos niveles en una prueba
cuyos resultados se van a generalizar a todos los posibles niveles de la población.
Aunque en el modelo de un factor de efectos aleatorios lleguemos a la misma
significación que en el modelo de efectos fijos, vemos la importancia de acompañar
192 Análisis de varianza
el resultado del ANVAR de una medida del tamaño del efecto, así como de la po-
tencia de la prueba.
FV SC gl MC F
MC A
A SCA J–1 SCA / glA FA =
MC AB
MC B
B SCB K–1 SCB / glB FB =
MC AB
MC AB
AB SCAB (J – 1)(K – 1) SCAB / glAB FAB =
MC int ra
Intra SCintra N – JK SCintra / glintra
Total SCtotal N–1
FV SC gl MC F
MC A
A SCA J–1 SCA / glA FA =
MC AB
MC B
B SCB K–1 SCB / glB FB =
MC int ra
MC AB
AB SCAB (J – 1)(K – 1) SCAB / glAB FAB =
MC int ra
Intra SCintra N – JK SCintra / glintra
Total SCtotal N–1
Ejemplo 6.2. Supongamos que queremos evaluar el efecto del profesor (factor A) y de
la forma de enseñanza (factor B) sobre el rendimiento de unos estudiantes universi-
tarios. Para el factor A escogemos a los profesores Ruiz, Pérez y González que son
los que imparten dicha asignatura. Puesto que no hay otros profesores, este factor
es de efectos fijos. Con respecto a la forma de enseñanza, también hay tres niveles
para este factor (factor B): enseñanza tradicional en el aula (A), enseñanza informa-
tizada (B) y una mezcla de las dos (C). Como sólo están disponibles estos méto-
dos, también este factor es de efectos fijos. Tras la evaluación del rendimiento de
los alumnos, los resultados del ANVAR son los siguientes:
FV SC gl MC F punto crítico
A 1,87 2 0,93 0,93 / 1,7 = 0,55 F0,05; 2,27 = 3,35
B 16,95 2 8,47 8,47 / 1,7 = 4,98 F0,05; 2,27 = 3,35
AB 17,73 4 4,43 4,43 / 1,7 = 2,60 F0,05; 4,27 = 2,73
intra 46 27 1,7
total 81,55 35
Sólo el factor B es significativo, por lo que únicamente podemos concluir que los
métodos de enseñanza A, B y C producen un efecto significativo en el rendimiento
de los sujetos.
Ahora bien, ¿qué puede ocurrir si queremos evaluar la forma de enseñar en ge-
neral, así como el profesor que lo hace, sobre el rendimiento? Supongamos que
existen multitud de métodos para enseñar, nosotros hemos seleccionado aleato-
riamente tres y son los métodos A, B y C. También podrían haber sido selecciona-
dos los métodos D, J y P. ¿Nos conducirían estos métodos a los mismos resulta-
196 Análisis de varianza
dos, o no? Lo mismo podemos preguntarnos con respecto al profesor que imparte
la asignatura. Supongamos que para la misma asignatura existen muchos profeso-
res disponibles y en la selección aleatoria surgen Ruiz, Pérez y González. Para
ambos factores, donde queremos estudiar el efecto del método de enseñanza y del
profesor que imparte la asignatura sobre el rendimiento, que surjan en la selección
unos métodos u otros y unos profesores u otros nos da lo mismo, lo realmente im-
portante es que la selección sea aleatoria. Supongamos entonces que tras esta se-
lección se han extraído los métodos A, B y C y los profesores anteriormente nom-
brados. Nos encontramos, pues, ante un diseño de efectos aleatorios. Veamos los
resultados:
FV SC gl MC F punto crítico
A 1,87 2 0,93 0,93 / 4,43 = 0,21 F0,05; 2,4 = 6,94
B 16,95 2 8,47 8,47 / 4,43 = 1,91 F0,05; 2,4 = 6,94
AB 17,73 4 4,43 4,43 / 1,7 = 2,60 F0,05; 4,27 = 2,73
intra 46 27 1,7
total 81,55 35
El factor A sigue sin resultar significativo, por lo que no podemos concluir que el
rendimiento de los alumnos depende del profesor que imparte la asignatura. En
cambio, el factor B, que antes era significativo, ha dejado de serlo y por tanto, ahora
tampoco podemos concluir que el método de enseñanza influye sobre el rendimien-
to (ni siquiera para los tres métodos). ¿Qué ha pasado con este factor?
Si recordamos los valores esperados de la media cuadrática del factor en el
modelo de efectos fijos y en el modelo de efectos aleatorios, en este último esta-
mos considerando una posible interacción entre A y B, de manera que es mayor. La
media cuadrática intra no contiene esa interacción y si la utilizáramos para evaluar
el efecto del factor B, la razón F resultaría positivamente sesgada. Para evitar este
sesgo, utilizamos la media cuadrática de la interacción para probar el efecto de B,
de ahí que la razón F resulte más pequeña.
Además, para el mismo nivel de significación, los valores críticos también resul-
tan muy diferentes: F2,27 = 3,35 frente a F2,4 = 6,94. Si nos fijamos en los grados de
libertad utilizados, en el caso de efectos aleatorios se puede apreciar cómo la gene-
ralización se lleva a cabo a través de los métodos de enseñanza que, de todos los
posibles, sólo hemos escogido tres, mientras que en el caso de efectos fijos se rea-
liza a través del número de sujetos, cuya cuantía es mayor. Por eso es más restric-
tivo el valor crítico para el caso de efectos aleatorios.
Por otro lado, convendría disponer de una medida de la potencia de la prueba,
tal y como veíamos en el caso de efectos fijos. Sin embargo, en el caso de efectos
aleatorios, dado que la potencia para detectar un efecto depende tanto del tamaño
del mismo como de su variabilidad, su cálculo no sólo es muy complicado, sino
también incierto (Jackson y Brashers, 1994).
Como vemos, si queremos generalizar los resultados del efecto de un factor,
tenemos que considerarlo aleatorio y esto trae consigo una serie de implicaciones
que no debemos obviar. Dado que en nuestras conclusiones nos vamos a referir a
todos los posibles niveles del factor, es fundamental una selección aleatoria de ni-
Análisis de varianza de efectos aleatorios 197
veles, pero además, debemos trabajar con un número importante de los mismos
para que el análisis resulte sensible (ni que decir tiene que una prueba de generali-
dad resultará tanto mejor cuantos más niveles se abarque). De otro modo, pode-
mos no llegar conclusión alguna.
Este ejemplo nos sirve para ilustrar que, si bien en principio resulta
atractivo llevar a cabo un análisis de varianza con factores de efectos
aleatorios, puesto que nos permite una generalización de resultados,
tampoco es tarea fácil, ni se puede tomar a la ligera. Decidir si un
factor es de efectos fijos o aleatorios es la primera cuestión que debe-
mos plantearnos. En la introducción al tema ya vimos una diferencia-
ción entre ambos basada en la selección aleatoria o no de niveles, que
es la que encontraremos en la mayoría de los manuales.
Sin embargo, como señalan Jackson y Brashers (1994) hay situa-
ciones en las que no es posible la selección al azar de los niveles y
también podemos considerar al factor como aleatorio. Un caso sería
aquel en el que se eligen unos niveles concretos, siendo éstos arbitra-
rios o sustituibles y no tienen mayor trascencia que otros de cara a la
investigación. Por ejemplo, cuando estamos estudiando la influencia
de las horas de práctica sobre el rendimiento y nos da lo mismo esco-
ger unas que otras, entonces el factor se puede considerar aleatorio
aunque la selección no lo sea.
Otra forma de decidir si un factor es de efectos fijos o aleatorios es
teniendo en cuenta las conclusiones a las que podemos llegar con los
análisis. Si la inferencia para esos niveles concretos puede ser rele-
vante por los niveles en sí mismos, entonces el factor habrá de ser de
efectos fijos. Si las conclusiones no necesariamente se tienen que res-
tringir a esos niveles específicos entonces el factor se puede considerar
aleatorio, aunque no se haya llevado a cabo el muestreo de niveles
(Jackson y Brashers, 1994).
Lo que hay que tener presente es que la elección no es arbitraria y
de ella van a depender los resultados del análisis. Como ya se dijo
anteriormente considerar un factor aleatorio como fijo nos lleva a un
aumento de la probabilidad de cometer el error tipo I. Por otro lado,
con los factores de efectos fijos nuestras conclusiones no pueden ir más
allá de los niveles concretos estudiados, por lo que la generalización
puede resultar muy pobre. Sin embargo, la utilización de efectos alea-
torios (amén de las dificultades inherentes al cálculo del tamaño del
efecto y de la potencia para detectarlo), si no se hace bien, puede lle-
varnos a una pérdida de sensibilidad tal en el análisis que la genera-
lización, que no resulta fácil, puede llegar a ser imposible de realizar.
Como dice Abelson (1998, pág. 182), “así es sencillamente la vida inves-
tigadora. Uno no merere un resultado general sólo por desearlo”.
Apéndice
TABLA 1
Distribución normal, P (Z ≤ z )
z 0 1 2 3 4 5 6 7 8 9
-3,5 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002
-3,4 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0002
-3,3 0,0005 0,0005 0,0005 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0003
-3,2 0,0007 0,0007 0,0006 0,0006 0,0006 0,0006 0,0006 0,0005 0,0005 0,0005
-3,1 0,0010 0,0009 0,0009 0,0009 0,0008 0,0008 0,0008 0,0008 0,0007 0,0007
-3,0 0,0013 0,0013 0,0013 0,0012 0,0012 0,0011 0,0011 0,0011 0,0010 0,0010
-2,9 0,0019 0,0018 0,0018 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014
-2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022 0,0021 0,0021 0,0020 0,0019
-2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026
-2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040 0,0039 0,0038 0,0037 0,0036
-2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054 0,0052 0,0051 0,0049 0,0048
-2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069 0,0068 0,0066 0,0064
-2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084
-2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110
-2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143
-2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,0197 0,0192 0,0188 0,0183
-1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,0250 0,0244 0,0239 0,0233
-1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,0294
-1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401 0,0392 0,0384 0,0375 0,0367
-1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495 0,0485 0,0475 0,0465 0,0455
-1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,0594 0,0582 0,0571 0,0559
-1,4 0,0808 0,0793 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,0694 0,0681
-1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885 0,0869 0,0853 0,0838 0,0823
-1,2 0,1151 0,1131 0,1112 0,1093 0,1075 0,1056 0,1038 0,1020 0,1003 0,0985
-1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251 0,1230 0,1210 0,1190 0,1170
-1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469 0,1446 0,1423 0,1401 0,1379
-0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711 0,1685 0,1660 0,1635 0,1611
-0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977 0,1949 0,1922 0,1894 0,1867
-0,7 0,2420 0,2389 0,2358 0,2327 0,2296 0,2266 0,2236 0,2206 0,2177 0,2148
-0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578 0,2546 0,2514 0,2483 0,2451
-0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912 0,2877 0,2843 0,2810 0,2776
-0,4 0,3446 0,3409 0,3372 0,3336 0,3300 0,3264 0,3228 0,3192 0,3156 0,3121
-0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632 0,3594 0,3557 0,3520 0,3483
-0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013 0,3974 0,3936 0,3897 0,3859
-0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404 0,4364 0,4325 0,4286 0,4247
-0,0 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801 0,4761 0,4721 0,4681 0,4641
Apéndice 201
TABLA 1
(continuación)
z 0 1 2 3 4 5 6 7 8 9
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
3,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998
202 Análisis de varianza
TABLA 2
(
Distribución χ2, P X ≤ χ12−α , gl )
1–α
gl 0,005 0,010 0,025 0,050 0,100 0,900 0,950 0,975 0,990 0,995
1 0,000 0,000 0,001 0,004 0,016 2,71 3,84 5,02 6,63 7,88
2 0,010 0,020 0,051 0,103 0,211 4,61 5,99 7,38 9,21 10,60
3 0,072 0,115 0,216 0,352 0,584 6,25 7,81 9,35 11,34 12,84
4 0,207 0,297 0,484 0,711 1,06 7,78 9,49 11,14 13,28 14,86
5 0,412 0,554 0,831 1,15 1,61 9,24 11,07 12,83 15,09 16,75
6 0,676 0,872 1,24 1,64 2,20 10,64 12,59 14,45 16,81 18,55
7 0,989 1,24 1,69 2,17 2,83 12,02 14,07 16,01 18,48 20,28
8 1,34 1,65 2,18 2,73 3,49 13,36 15,51 17,53 20,09 21,96
9 1,73 2,09 2,70 3,33 4,17 14,68 16,92 19,02 21,67 23,59
10 2,16 2,56 3,25 3,94 4,87 15,99 18,31 20,48 23,21 25,19
11 2,60 3,05 3,82 4,57 5,58 17,28 19,68 21,92 24,72 26,76
12 3,07 3,57 4,40 5,23 6,30 18,55 21,03 23,34 26,22 28,30
13 3,57 4,11 5,01 5,89 7,04 19,81 22,36 24,74 27,69 29,82
14 4,07 4,66 5,63 6,57 7,79 21,06 23,68 26,12 29,14 31,32
15 4,60 5,23 6,26 7,26 8,55 22,31 25,00 27,49 30,58 32,80
16 5,14 5,81 6,91 7,96 9,31 23,54 26,30 28,85 32,00 34,27
17 5,70 6,41 7,56 8,67 10,09 24,77 27,59 30,19 33,41 35,72
18 6,26 7,01 8,23 9,39 10,86 25,99 28,87 31,53 34,81 37,16
19 6,84 7,63 8,91 10,12 11,65 27,20 30,14 32,85 36,19 38,58
20 7,43 8,26 9,59 10,85 12,44 28,41 31,41 34,17 37,57 40,00
21 8,03 8,90 10,28 11,59 13,24 29,62 32,67 35,48 38,93 41,40
22 8,64 9,54 10,98 12,34 14,04 30,81 33,92 36,78 40,29 42,80
23 9,26 10,20 11,69 13,09 14,85 32,01 35,17 38,08 41,64 44,18
24 9,89 10,86 12,40 13,85 15,66 33,20 36,42 39,36 42,98 45,56
25 10,52 11,52 13,12 14,61 16,47 34,38 37,65 40,65 44,31 46,93
26 11,16 12,20 13,84 15,38 17,29 35,56 38,89 41,92 45,64 48,29
27 11,81 12,88 14,57 16,15 18,11 36,74 40,11 43,19 46,96 49,64
28 12,46 13,56 15,31 16,93 18,94 37,92 41,34 44,46 48,28 50,99
29 13,21 14,26 16,05 17,71 19,77 39,09 42,56 45,72 49,59 52,34
30 13,79 14,95 16,79 18,49 20,60 40,26 43,77 46,98 50,89 53,67
40 20,71 22,16 24,43 26,51 29,05 51,80 55,76 59,34 63,69 66,77
50 27,99 29,71 32,36 34,76 37,69 63,17 67,50 71,42 76,15 79,49
60 35,53 37,48 40,48 43,19 46,46 74,40 79,08 83,30 88,38 91,95
70 43,28 45,44 48,76 51,74 55,33 85,53 90,53 95,02 100,42 104,22
80 51,17 53,54 57,15 60,39 64,28 96,58 101,88 106,63 112,33 116,32
90 59,20 61,75 65,65 69,13 73,29 107,56 113,14 118,14 124,12 128,30
100 67,33 70,06 74,22 77,93 82,36 118,50 124,34 129,56 135,81 140,17
Apéndice 203
TABLA 3
(
Distribución t-Student, P t ≤ t1−α , gl )
1–α
gl 0,900 0,950 0,975 0,990 0,995 0,999
1 3,078 6,314 12,706 31,821 63,656 318,289
2 1,886 2,920 4,303 6,965 9,925 22,328
3 1,638 2,353 3,182 4,541 5,841 10,214
4 1,533 2,132 2,776 3,747 4,604 7,173
5 1,476 2,015 2,571 3,365 4,032 5,894
6 1,440 1,943 2,447 3,143 3,707 5,208
7 1,415 1,895 2,365 2,998 3,499 4,785
8 1,397 1,860 2,306 2,896 3,355 4,501
9 1,383 1,833 2,262 2,821 3,250 4,297
10 1,372 1,812 2,228 2,764 3,169 4,144
11 1,363 1,796 2,201 2,718 3,106 4,025
12 1,356 1,782 2,179 2,681 3,055 3,930
13 1,350 1,771 2,160 2,650 3,012 3,852
14 1,345 1,761 2,145 2,624 2,977 3,787
15 1,341 1,753 2,131 2,602 2,947 3,733
16 1,337 1,746 2,120 2,583 2,921 3,686
17 1,333 1,740 2,110 2,567 2,898 3,646
18 1,330 1,734 2,101 2,552 2,878 3,610
19 1,328 1,729 2,093 2,539 2,861 3,579
20 1,325 1,725 2,086 2,528 2,845 3,552
21 1,323 1,721 2,080 2,518 2,831 3,527
22 1,321 1,717 2,074 2,508 2,819 3,505
23 1,319 1,714 2,069 2,500 2,807 3,485
24 1,318 1,711 2,064 2,492 2,797 3,467
25 1,316 1,708 2,060 2,485 2,787 3,450
26 1,315 1,706 2,056 2,479 2,779 3,435
27 1,314 1,703 2,052 2,473 2,771 3,421
28 1,313 1,701 2,048 2,467 2,763 3,408
29 1,311 1,699 2,045 2,462 2,756 3,396
30 1,310 1,697 2,042 2,457 2,750 3,385
40 1,303 1,684 2,021 2,423 2,704 3,307
50 1,299 1,676 2,009 2,403 2,678 3,261
60 1,296 1,671 2,000 2,390 2,660 3,232
70 1,294 1,667 1,994 2,381 2,648 3,211
80 1,292 1,664 1,990 2,374 2,639 3,195
90 1,291 1,662 1,987 2,368 2,632 3,183
100 1,290 1,660 1,984 2,364 2,626 3,174
120 1,289 1,658 1,980 2,358 2,617 3,160
150 1,287 1,655 1,976 2,351 2,609 3,145
200 1,286 1,653 1,972 2,345 2,601 3,131
∞ 1,282 1,645 1,960 2,326 2,576 3,090
204 Análisis de varianza
TABLA 4
(
Distribución F, P F ≤ F0,95, gl
num , glden )
glnum
glden 1 2 3 4 5 6 7 8 9 10 12 15 16
1 161,4 199,5 215,7 224,6 230,2 234,0 236,8 238,9 240,5 241,9 243,9 246,0 246,5
2 18,51 19,00 19,16 19,25 19,30 19,33 19,35 19,37 19,38 19,40 19,41 19,43 19,43
3 10,13 9,55 9,28 9,12 9,01 8,94 8,89 8,85 8,81 8,79 8,74 8,70 8,69
4 7,71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,91 5,86 5,84
5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,77 4,74 4,68 4,62 4,60
6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,00 3,94 3,92
7 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68 3,64 3,57 3,51 3,49
8 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,35 3,28 3,22 3,20
9 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,14 3,07 3,01 2,99
10 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,98 2,91 2,85 2,83
11 4,84 3,98 3,59 3,36 3,20 3,09 3,01 2,95 2,90 2,85 2,79 2,72 2,70
12 4,75 3,89 3,49 3,26 3,11 3,00 2,91 2,85 2,80 2,75 2,69 2,62 2,60
13 4,67 3,81 3,41 3,18 3,03 2,92 2,83 2,77 2,71 2,67 2,60 2,53 2,51
14 4,60 3,74 3,34 3,11 2,96 2,85 2,76 2,70 2,65 2,60 2,53 2,46 2,44
15 4,54 3,68 3,29 3,06 2,90 2,79 2,71 2,64 2,59 2,54 2,48 2,40 2,38
16 4,49 3,63 3,24 3,01 2,85 2,74 2,66 2,59 2,54 2,49 2,42 2,35 2,33
17 4,45 3,59 3,20 2,96 2,81 2,70 2,61 2,55 2,49 2,45 2,38 2,31 2,29
18 4,41 3,55 3,16 2,93 2,77 2,66 2,58 2,51 2,46 2,41 2,34 2,27 2,25
19 4,38 3,52 3,13 2,90 2,74 2,63 2,54 2,48 2,42 2,38 2,31 2,23 2,21
20 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,28 2,20 2,18
21 4,32 3,47 3,07 2,84 2,68 2,57 2,49 2,42 2,37 2,32 2,25 2,18 2,16
22 4,30 3,44 3,05 2,82 2,66 2,55 2,46 2,40 2,34 2,30 2,23 2,15 2,13
23 4,28 3,42 3,03 2,80 2,64 2,53 2,44 2,37 2,32 2,27 2,20 2,13 2,11
24 4,26 3,40 3,01 2,78 2,62 2,51 2,42 2,36 2,30 2,25 2,18 2,11 2,09
25 4,24 3,39 2,99 2,76 2,60 2,49 2,40 2,34 2,28 2,24 2,16 2,09 2,07
26 4,23 3,37 2,98 2,74 2,59 2,47 2,39 2,32 2,27 2,22 2,15 2,07 2,05
27 4,21 3,35 2,96 2,73 2,57 2,46 2,37 2,31 2,25 2,20 2,13 2,06 2,04
28 4,20 3,34 2,95 2,71 2,56 2,45 2,36 2,29 2,24 2,19 2,12 2,04 2,02
29 4,18 3,33 2,93 2,70 2,55 2,43 2,35 2,28 2,22 2,18 2,10 2,03 2,01
30 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 2,09 2,01 1,99
40 4,08 3,23 2,84 2,61 2,45 2,34 2,25 2,18 2,12 2,08 2,00 1,92 1,90
50 4,03 3,18 2,79 2,56 2,40 2,29 2,20 2,13 2,07 2,03 1,95 1,87 1,85
60 4,00 3,15 2,76 2,53 2,37 2,25 2,17 2,10 2,04 1,99 1,92 1,84 1,82
70 3,98 3,13 2,74 2,50 2,35 2,23 2,14 2,07 2,02 1,97 1,89 1,81 1,79
80 3,96 3,11 2,72 2,49 2,33 2,21 2,13 2,06 2,00 1,95 1,88 1,79 1,77
90 3,95 3,10 2,71 2,47 2,32 2,20 2,11 2,04 1,99 1,94 1,86 1,78 1,76
100 3,94 3,09 2,70 2,46 2,31 2,19 2,10 2,03 1,97 1,93 1,85 1,77 1,75
120 3,92 3,07 2,68 2,45 2,29 2,18 2,09 2,02 1,96 1,91 1,83 1,75 1,73
150 3,90 3,06 2,66 2,43 2,27 2,16 2,07 2,00 1,94 1,89 1,82 1,73 1,71
200 3,89 3,04 2,65 2,42 2,26 2,14 2,06 1,98 1,93 1,88 1,80 1,72 1,69
Apéndice 205
TABLA 4
(
Distribución F, P F ≤ F0,975, gl
num , glden )
glnum
glden 1 2 3 4 5 6 7 8 9 10 12 15 16
1 647,8 799,5 864,2 899,6 921,8 937,1 948,2 956,6 963,3 968,6 976,7 984,9 986,9
2 38,51 39,00 39,17 39,25 39,30 39,33 39,35 39,37 39,39 39,40 39,41 39,43 39,44
3 17,44 16,04 15,44 15,10 14,88 14,73 14,62 14,54 14,47 14,42 14,34 14,25 14,23
4 12,22 10,65 9,98 9,60 9,36 9,20 9,07 8,98 8,90 8,84 8,75 8,66 8,63
5 10,01 8,43 7,76 7,39 7,15 6,98 6,85 6,76 6,68 6,62 6,52 6,43 6,40
6 8,81 7,26 6,60 6,23 5,99 5,82 5,70 5,60 5,52 5,46 5,37 5,27 5,24
7 8,07 6,54 5,89 5,52 5,29 5,12 4,99 4,90 4,82 4,76 4,67 4,57 4,54
8 7,57 6,06 5,42 5,05 4,82 4,65 4,53 4,43 4,36 4,30 4,20 4,10 4,08
9 7,21 5,71 5,08 4,72 4,48 4,32 4,20 4,10 4,03 3,96 3,87 3,77 3,74
10 6,94 5,46 4,83 4,47 4,24 4,07 3,95 3,85 3,78 3,72 3,62 3,52 3,50
11 6,72 5,26 4,63 4,28 4,04 3,88 3,76 3,66 3,59 3,53 3,43 3,33 3,30
12 6,55 5,10 4,47 4,12 3,89 3,73 3,61 3,51 3,44 3,37 3,28 3,18 3,15
13 6,41 4,97 4,35 4,00 3,77 3,60 3,48 3,39 3,31 3,25 3,15 3,05 3,03
14 6,30 4,86 4,24 3,89 3,66 3,50 3,38 3,29 3,21 3,15 3,05 2,95 2,92
15 6,20 4,77 4,15 3,80 3,58 3,41 3,29 3,20 3,12 3,06 2,96 2,86 2,84
16 6,12 4,69 4,08 3,73 3,50 3,34 3,22 3,12 3,05 2,99 2,89 2,79 2,76
17 6,04 4,62 4,01 3,66 3,44 3,28 3,16 3,06 2,98 2,92 2,82 2,72 2,70
18 5,98 4,56 3,95 3,61 3,38 3,22 3,10 3,01 2,93 2,87 2,77 2,67 2,64
19 5,92 4,51 3,90 3,56 3,33 3,17 3,05 2,96 2,88 2,82 2,72 2,62 2,59
20 5,87 4,46 3,86 3,51 3,29 3,13 3,01 2,91 2,84 2,77 2,68 2,57 2,55
21 5,83 4,42 3,82 3,48 3,25 3,09 2,97 2,87 2,80 2,73 2,64 2,53 2,51
22 5,79 4,38 3,78 3,44 3,22 3,05 2,93 2,84 2,76 2,70 2,60 2,50 2,47
23 5,75 4,35 3,75 3,41 3,18 3,02 2,90 2,81 2,73 2,67 2,57 2,47 2,44
24 5,72 4,32 3,72 3,38 3,15 2,99 2,87 2,78 2,70 2,64 2,54 2,44 2,41
25 5,69 4,29 3,69 3,35 3,13 2,97 2,85 2,75 2,68 2,61 2,51 2,41 2,38
26 5,66 4,27 3,67 3,33 3,10 2,94 2,82 2,73 2,65 2,59 2,49 2,39 2,36
27 5,63 4,24 3,65 3,31 3,08 2,92 2,80 2,71 2,63 2,57 2,47 2,36 2,34
28 5,61 4,22 3,63 3,29 3,06 2,90 2,78 2,69 2,61 2,55 2,45 2,34 2,32
29 5,59 4,20 3,61 3,27 3,04 2,88 2,76 2,67 2,59 2,53 2,43 2,32 2,30
30 5,57 4,18 3,59 3,25 3,03 2,87 2,75 2,65 2,57 2,51 2,41 2,31 2,28
40 5,42 4,05 3,46 3,13 2,90 2,74 2,62 2,53 2,45 2,39 2,29 2,18 2,15
50 5,34 3,97 3,39 3,05 2,83 2,67 2,55 2,46 2,38 2,32 2,22 2,11 2,08
60 5,29 3,93 3,34 3,01 2,79 2,63 2,51 2,41 2,33 2,27 2,17 2,06 2,03
70 5,25 3,89 3,31 2,97 2,75 2,59 2,47 2,38 2,30 2,24 2,14 2,03 2,00
80 5,22 3,86 3,28 2,95 2,73 2,57 2,45 2,35 2,28 2,21 2,11 2,00 1,97
90 5,20 3,84 3,26 2,93 2,71 2,55 2,43 2,34 2,26 2,19 2,09 1,98 1,95
100 5,18 3,83 3,25 2,92 2,70 2,54 2,42 2,32 2,24 2,18 2,08 1,97 1,94
120 5,15 3,80 3,23 2,89 2,67 2,52 2,39 2,30 2,22 2,16 2,05 1,94 1,92
150 5,13 3,78 3,20 2,87 2,65 2,49 2,37 2,28 2,20 2,13 2,03 1,92 1,89
200 5,10 3,76 3,18 2,85 2,63 2,47 2,35 2,26 2,18 2,11 2,01 1,90 1,87
206 Análisis de varianza
TABLA 4
(
Distribución F, P F ≤ F0,99, gl num , glden )
glnum
glden 1 2 3 4 5 6 7 8 9 10 12 15 16
1 4052 4999 5403 5625 5764 5859 5928 5981 6022 6056 6107 6157 6170
2 98,50 99,00 99,16 99,25 99,30 99,33 99,36 99,37 99,39 99,40 99,42 99,43 99,43
3 34,12 30,82 29,46 28,71 28,24 27,91 27,67 27,49 27,34 27,23 27,05 26,87 26,83
4 21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66 14,55 14,37 14,20 14,15
5 16,26 13,27 12,06 11,39 10,97 10,67 10,46 10,29 10,16 10,05 9,89 9,72 9,68
6 13,74 10,92 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7,87 7,72 7,56 7,52
7 12,25 9,55 8,45 7,85 7,46 7,19 6,99 6,84 6,72 6,62 6,47 6,31 6,28
8 11,26 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91 5,81 5,67 5,52 5,48
9 10,56 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35 5,26 5,11 4,96 4,92
10 10,04 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 4,85 4,71 4,56 4,52
11 9,65 7,21 6,22 5,67 5,32 5,07 4,89 4,74 4,63 4,54 4,40 4,25 4,21
12 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39 4,30 4,16 4,01 3,97
13 9,07 6,70 5,74 5,21 4,86 4,62 4,44 4,30 4,19 4,10 3,96 3,82 3,78
14 8,86 6,51 5,56 5,04 4,69 4,46 4,28 4,14 4,03 3,94 3,80 3,66 3,62
15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,67 3,52 3,49
16 8,53 6,23 5,29 4,77 4,44 4,20 4,03 3,89 3,78 3,69 3,55 3,41 3,37
17 8,40 6,11 5,19 4,67 4,34 4,10 3,93 3,79 3,68 3,59 3,46 3,31 3,27
18 8,29 6,01 5,09 4,58 4,25 4,01 3,84 3,71 3,60 3,51 3,37 3,23 3,19
19 8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52 3,43 3,30 3,15 3,12
20 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46 3,37 3,23 3,09 3,05
21 8,02 5,78 4,87 4,37 4,04 3,81 3,64 3,51 3,40 3,31 3,17 3,03 2,99
22 7,95 5,72 4,82 4,31 3,99 3,76 3,59 3,45 3,35 3,26 3,12 2,98 2,94
23 7,88 5,66 4,76 4,26 3,94 3,71 3,54 3,41 3,30 3,21 3,07 2,93 2,89
24 7,82 5,61 4,72 4,22 3,90 3,67 3,50 3,36 3,26 3,17 3,03 2,89 2,85
25 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22 3,13 2,99 2,85 2,81
26 7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,18 3,09 2,96 2,81 2,78
27 7,68 5,49 4,60 4,11 3,78 3,56 3,39 3,26 3,15 3,06 2,93 2,78 2,75
28 7,64 5,45 4,57 4,07 3,75 3,53 3,36 3,23 3,12 3,03 2,90 2,75 2,72
29 7,60 5,42 4,54 4,04 3,73 3,50 3,33 3,20 3,09 3,00 2,87 2,73 2,69
30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,84 2,70 2,66
40 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89 2,80 2,66 2,52 2,48
50 7,17 5,06 4,20 3,72 3,41 3,19 3,02 2,89 2,78 2,70 2,56 2,42 2,38
60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72 2,63 2,50 2,35 2,31
70 7,01 4,92 4,07 3,60 3,29 3,07 2,91 2,78 2,67 2,59 2,45 2,31 2,27
80 6,96 4,88 4,04 3,56 3,26 3,04 2,87 2,74 2,64 2,55 2,42 2,27 2,23
90 6,93 4,85 4,01 3,54 3,23 3,01 2,84 2,72 2,61 2,52 2,39 2,24 2,21
100 6,90 4,82 3,98 3,51 3,21 2,99 2,82 2,69 2,59 2,50 2,37 2,22 2,19
120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56 2,47 2,34 2,19 2,15
150 6,81 4,75 3,91 3,45 3,14 2,92 2,76 2,63 2,53 2,44 2,31 2,16 2,12
200 6,76 4,71 3,88 3,41 3,11 2,89 2,73 2,60 2,50 2,41 2,27 2,13 2,09
Apéndice 207
TABLA 4
(
Distribución F, P F ≤ F0,995, gl
num , glden )
glnum
glden 1 2 3 4 5 6 7 8 9 10 12 15 16
1 16211 19999 21613 22497 23058 23437 23715 23924 24091 24225 24426 24631 24681
2 198,5 199,0 199,2 199,2 199,3 199,3 199,3 199,4 199,4 199,4 199,4 199,4 199,4
3 55,55 49,80 47,47 46,20 45,39 44,84 44,44 44,13 43,88 43,69 43,39 43,09 43,01
4 31,33 26,28 24,26 23,16 22,46 21,97 21,62 21,35 21,14 20,97 20,70 20,44 20,37
5 22,79 18,31 16,53 15,56 14,94 14,51 14,20 13,96 13,77 13,62 13,38 13,15 13,09
6 18,63 14,54 12,92 12,03 11,46 11,07 10,79 10,57 10,39 10,25 10,03 9,81 9,76
7 16,24 12,40 10,88 10,05 9,52 9,16 8,89 8,68 8,51 8,38 8,18 7,97 7,91
8 14,69 11,04 9,60 8,81 8,30 7,95 7,69 7,50 7,34 7,21 7,01 6,81 6,76
9 13,61 10,11 8,72 7,96 7,47 7,13 6,88 6,69 6,54 6,42 6,23 6,03 5,98
10 12,83 9,43 8,08 7,34 6,87 6,54 6,30 6,12 5,97 5,85 5,66 5,47 5,42
11 12,23 8,91 7,60 6,88 6,42 6,10 5,86 5,68 5,54 5,42 5,24 5,05 5,00
12 11,75 8,51 7,23 6,52 6,07 5,76 5,52 5,35 5,20 5,09 4,91 4,72 4,67
13 11,37 8,19 6,93 6,23 5,79 5,48 5,25 5,08 4,94 4,82 4,64 4,46 4,41
14 11,06 7,92 6,68 6,00 5,56 5,26 5,03 4,86 4,72 4,60 4,43 4,25 4,20
15 10,80 7,70 6,48 5,80 5,37 5,07 4,85 4,67 4,54 4,42 4,25 4,07 4,02
16 10,58 7,51 6,30 5,64 5,21 4,91 4,69 4,52 4,38 4,27 4,10 3,92 3,87
17 10,38 7,35 6,16 5,50 5,07 4,78 4,56 4,39 4,25 4,14 3,97 3,79 3,75
18 10,22 7,21 6,03 5,37 4,96 4,66 4,44 4,28 4,14 4,03 3,86 3,68 3,64
19 10,07 7,09 5,92 5,27 4,85 4,56 4,34 4,18 4,04 3,93 3,76 3,59 3,54
20 9,94 6,99 5,82 5,17 4,76 4,47 4,26 4,09 3,96 3,85 3,68 3,50 3,46
21 9,83 6,89 5,73 5,09 4,68 4,39 4,18 4,01 3,88 3,77 3,60 3,43 3,38
22 9,73 6,81 5,65 5,02 4,61 4,32 4,11 3,94 3,81 3,70 3,54 3,36 3,31
23 9,63 6,73 5,58 4,95 4,54 4,26 4,05 3,88 3,75 3,64 3,47 3,30 3,25
24 9,55 6,66 5,52 4,89 4,49 4,20 3,99 3,83 3,69 3,59 3,42 3,25 3,20
25 9,48 6,60 5,46 4,84 4,43 4,15 3,94 3,78 3,64 3,54 3,37 3,20 3,15
26 9,41 6,54 5,41 4,79 4,38 4,10 3,89 3,73 3,60 3,49 3,33 3,15 3,11
27 9,34 6,49 5,36 4,74 4,34 4,06 3,85 3,69 3,56 3,45 3,28 3,11 3,07
28 9,28 6,44 5,32 4,70 4,30 4,02 3,81 3,65 3,52 3,41 3,25 3,07 3,03
29 9,23 6,40 5,28 4,66 4,26 3,98 3,77 3,61 3,48 3,38 3,21 3,04 2,99
30 9,18 6,35 5,24 4,62 4,23 3,95 3,74 3,58 3,45 3,34 3,18 3,01 2,96
40 8,83 6,07 4,98 4,37 3,99 3,71 3,51 3,35 3,22 3,12 2,95 2,78 2,74
50 8,63 5,90 4,83 4,23 3,85 3,58 3,38 3,22 3,09 2,99 2,82 2,65 2,61
60 8,49 5,80 4,73 4,14 3,76 3,49 3,29 3,13 3,01 2,90 2,74 2,57 2,53
70 8,40 5,72 4,66 4,08 3,70 3,43 3,23 3,08 2,95 2,85 2,68 2,51 2,47
80 8,33 5,67 4,61 4,03 3,65 3,39 3,19 3,03 2,91 2,80 2,64 2,47 2,43
90 8,28 5,62 4,57 3,99 3,62 3,35 3,15 3,00 2,87 2,77 2,61 2,44 2,39
100 8,24 5,59 4,54 3,96 3,59 3,33 3,13 2,97 2,85 2,74 2,58 2,41 2,37
120 8,18 5,54 4,50 3,92 3,55 3,28 3,09 2,93 2,81 2,71 2,54 2,37 2,33
150 8,12 5,49 4,45 3,88 3,51 3,25 3,05 2,89 2,77 2,67 2,51 2,33 2,29
200 8,06 5,44 4,41 3,84 3,47 3,21 3,01 2,86 2,73 2,63 2,47 2,30 2,25
208 Análisis de varianza
TABLA 5
Distribución F no centrada. Valores de β.
(α = 0,05)
φ
glnum glden 0,5 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,6 3,0
2 0,93 0,86 0,83 0,78 0,74 0,69 0,64 0,59 0,49 0,40
4 0,91 0,80 0,74 0,67 0,59 0,51 0,43 0,35 0,22 0,12
6 0,91 0,78 0,70 0,62 0,52 0,43 0,34 0,26 0,14 0,06
8 0,90 0,76 0,68 0,59 0,49 0,39 0,30 0,22 0,11 0,04
1 10 0,90 0,75 0,66 0,57 0,47 0,37 0,28 0,20 0,09 0,03
12 0,90 0,74 0,65 0,56 0,45 0,35 0,26 0,19 0,08 0,03
16 0,90 0,74 0,64 0,54 0,43 0,33 0,24 0,17 0,07 0,02
20 0,90 0,73 0,63 0,53 0,42 0,32 0,23 0,16 0,06 0,02
30 0,89 0,72 0,62 0,52 0,40 0,31 0,22 0,15 0,06 0,02
2 0,93 0,88 0,85 0,82 0,78 0,75 0,70 0,66 0,56 0,48
4 0,92 0,82 0,77 0,70 0,62 0,54 0,46 0,38 0,24 0,14
6 0,91 0,79 0,71 0,63 0,53 0,43 0,34 0,26 0,13 0,05
8 0,91 0,77 0,68 0,58 0,48 0,37 0,28 0,20 0,08 0,03
2 10 0,91 0,75 0,66 0,55 0,44 0,34 0,24 0,16 0,06 0,02
12 0,90 0,74 0,64 0,53 0,42 0,31 0,22 0,14 0,05 0,01
16 0,90 0,73 0,62 0,51 0,39 0,28 0,19 0,12 0,04 0,01
20 0,90 0,72 0,61 0,49 0,36 0,16 0,17 0,11 0,03 0,01
30 0,90 0,71 0,59 0,47 0,35 0,24 0,15 0,09 0,02 0,00
2 0,93 0,89 0,86 0,83 0,80 0,76 0,73 0,69 0,60 0,52
4 0,92 0,83 0,77 0,71 0,63 0,55 0,47 0,39 0,25 0,14
6 0,91 0,79 0,71 0,62 0,52 0,42 0,33 0,24 0,11 0,04
8 0,91 0,76 0,67 0,57 0,46 0,35 0,25 0,18 0,06 0,02
3 10 0,91 0,75 0,65 0,53 0,41 0,30 0,21 0,13 0,04 0,01
12 0,90 0,73 0,62 0,50 0,38 0,27 0,18 0,11 0,03 0,01
16 0,90 0,71 0,60 0,47 0,34 0,23 0,14 0,08 0,02 0,00
20 0,90 0,70 0,58 0,45 0,32 0,21 0,13 0,07 0,01 0,00
30 0,89 0,68 0,55 0,42 0,29 0,18 0,10 0,05 0,01 0,00
2 0,94 0,89 0,87 0,84 0,81 0,77 0,74 0,70 0,62 0,54
4 0,92 0,83 0,78 0,71 0,64 0,55 0,47 0,39 0,25 0,14
6 0,92 0,79 0,71 0,62 0,52 0,41 0,31 0,23 0,10 0,04
8 0,91 0,76 0,66 0,55 0,44 0,33 0,23 0,15 0,05 0,01
4 10 0,91 0,74 0,63 0,51 0,39 0,27 0,18 0,11 0,03 0,01
12 0,90 0,72 0,61 0,48 0,35 0,24 0,15 0,08 0,02 0,00
16 0,90 0,70 0,57 0,44 0,31 0,19 0,11 0,06 0,01 0,00
20 0,89 0,68 0,55 0,41 0,28 0,17 0,09 0,04 0,01 0,00
30 0,89 0,66 0,52 0,37 0,24 0,14 0,07 0,03 0,00 0,00
Apéndice 209
TABLA 5
Distribución F no centrada. Valores de β.
(α = 0,01)
φ
glnum glden 0,5 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,6 3,0
2 0,99 0,97 0,96 0,95 0,94 0,93 0,91 0,90 0,87 0,83
4 0,98 0,95 0,93 0,90 0,87 0,83 0,78 0,73 0,62 0,50
6 0,98 0,93 0,90 0,86 0,81 0,75 0,69 0,61 0,46 0,31
8 0,98 0,92 0,89 0,84 0,78 0,70 0,62 0,54 0,37 0,22
1 10 0,98 0,92 0,87 0,82 0,75 0,67 0,58 0,49 0,31 0,17
12 0,97 0,91 0,87 0,81 0,73 0,65 0,55 0,46 0,28 0,14
16 0,97 0,90 0,85 0,79 0,71 0,61 0,52 0,42 0,24 0,11
20 0,97 0,90 0,85 0,78 0,69 0,59 0,49 0,39 0,21 0,10
30 0,97 0,89 0,83 0,76 0,67 0,57 0,46 0,36 0,19 0,08
2 0,99 0,98 0,97 0,96 0,95 0,94 0,93 0,92 0,89 0,86
4 0,98 0,96 0,94 0,92 0,89 0,85 0,81 0,76 0,66 0,54
6 0,98 0,94 0,91 0,87 0,82 0,76 0,70 0,62 0,46 0,31
8 0,98 0,93 0,89 0,84 0,78 0,70 0,61 0,52 0,34 0,19
2 10 0,98 0,92 0,88 0,82 0,74 0,65 0,55 0,45 0,26 0,13
12 0,98 0,91 0,86 0,80 0,71 0,61 0,51 0,40 0,22 0,09
16 0,97 0,90 0,84 0,77 0,67 0,57 0,45 0,34 0,16 0,06
20 0,97 0,90 0,83 0,75 0,65 0,53 0,42 0,31 0,14 0,04
30 0,97 0,88 0,82 0,72 0,61 0,49 0,37 0,26 0,10 0,03
2 0,99 0,98 0,97 0,96 0,96 0,95 0,94 0,93 0,90 0,88
4 0,98 0,96 0,94 0,92 0,89 0,86 0,82 0,77 0,67 0,55
6 0,98 0,94 0,91 0,87 0,82 0,76 0,69 0,61 0,44 0,29
8 0,98 0,93 0,89 0,84 0,77 0,68 0,59 0,49 0,30 0,16
3 10 0,98 0,92 0,87 0,80 0,72 0,62 0,52 0,41 0,22 0,09
12 0,98 0,91 0,85 0,78 0,69 0,58 0,46 0,35 0,17 0,06
16 0,97 0,90 0,83 0,74 0,64 0,51 0,39 0,28 0,11 0,03
20 0,97 0,89 0,82 0,72 0,60 0,47 0,35 0,24 0,08 0,02
30 0,97 0,87 0,79 0,68 0,55 0,42 0,29 0,18 0,05 0,01
2 0,99 0,98 0,97 0,97 0,96 0,95 0,94 0,93 0,91 0,88
4 0,98 0,96 0,94 0,92 0,89 0,86 0,82 0,78 0,67 0,56
6 0,98 0,94 0,91 0,87 0,82 0,76 0,68 0,60 0,43 0,28
8 0,98 0,93 0,89 0,83 0,76 0,67 0,57 0,47 0,28 0,14
4 10 0,98 0,92 0,86 0,79 0,70 0,60 0,49 0,37 0,19 0,07
12 0,98 0,91 0,85 0,76 0,66 0,55 0,42 0,31 0,13 0,04
16 0,97 0,89 0,82 0,72 0,60 0,47 0,34 0,23 0,08 0,02
20 0,97 0,88 0,80 0,69 0,56 0,42 0,29 0,18 0,05 0,01
30 0,97 0,86 0,77 0,64 0,50 0,35 0,22 0,13 0,03 0,00
210 Análisis de varianza
TABLA 6
Puntos críticos t D para el estadístico de Dunn (contrastes bilaterales)
(α = 0,05)
TABLA 6
Puntos críticos t D para el estadístico de Dunn (contrastes bilaterales)
(α = 0,01)
TABLA 7
Puntos críticos q de la distribución del rango estudentizado
(1 – α = 0,95)
Número de medias
glintra 2 3 4 5 6 7 8 9 10 11 12
5 3,64 4,60 5,22 5,67 6,03 6,33 6,58 6,80 7,00 7,17 7,32
6 3,46 4,34 4,90 5,31 5,63 5,90 6,12 6,32 6,49 6,65 6,79
7 3,34 4,16 4,68 5,06 5,36 5,61 5,82 6,00 6,16 6,30 6,43
8 3,26 4,04 4,53 4,89 5,17 5,40 5,60 5,77 5,92 6,05 6,18
9 3,20 3,95 4,42 4,76 5,02 5,24 5,43 5,60 5,74 5,87 5,98
10 3,15 3,88 4,33 4,65 4,91 5,12 4,30 5,46 5,60 5,72 5,83
11 3,11 3,82 4,26 4,57 4,82 5,03 5,20 5,35 5,49 5,60 5,71
12 3,08 3,77 4,20 4,51 4,75 4,95 5,12 5,26 5,40 5,51 5,62
13 3,06 3,74 4,15 4,45 4,69 4,88 5,05 5,19 5,32 5,43 5,53
14 3,03 3,70 4,11 4,41 4,64 4,83 4,99 5,13 5,25 5,36 5,46
15 3,01 3,67 4,08 4,37 4,60 4,78 4,94 5,08 5,20 5,31 5,40
16 3,00 3,65 4,05 4,33 4,56 4,74 4,90 5,03 5,15 5,26 5,35
18 2,97 3,61 4,00 4,28 4,50 4,67 4,82 4,96 5,07 5,17 5,27
20 2,95 3,58 3,96 4,23 4,44 4,62 4,77 4,90 5,01 5,11 5,20
24 2,92 3,53 3,90 4,17 4,17 4,54 4,68 4,81 4,92 5,01 5,10
30 2,89 3,49 3,84 4,10 4,30 4,46 4,60 4,72 4,82 4,92 5,00
40 2,86 3,44 3,79 4,04 4,23 4,39 4,52 4,64 4,74 4,82 4,90
60 2,83 3,40 3,74 3,98 4,16 4,31 4,44 4,55 4,65 4,73 4,81
Apéndice 213
TABLA 7
Puntos críticos q de la distribución del rango estudentizado
(1 – α = 0,99)
Número de medias
glintra 2 3 4 5 6 7 8 9 10 11 12
5 5,70 6,98 7,80 8,42 8,91 9,32 9,67 9,97 10,24 10,48 10,70
6 5,24 6,33 7,03 7,56 7,97 8,32 8,62 8,87 9,10 9,30 9,48
7 4,95 5,92 6,54 7,00 7,37 7,68 7,94 8,17 8,37 8,55 8,71
8 4,75 5,64 6,20 6,62 6,96 7,24 7,47 7,68 7,86 8,03 8,18
9 4,60 5,43 5,96 6,35 6,66 6,92 7,13 7,32 7,50 7,65 7,78
10 4,48 5,27 5,77 6,14 6,43 6,67 6,88 7,06 7,21 7,36 7,48
11 4,39 5,15 5,62 5,97 6,25 6,48 6,67 6,84 6,99 7,13 7,25
12 4,32 5,05 5,50 5,84 6,10 6,32 6,51 6,67 6,81 6,94 7,06
13 4,26 4,96 5,40 5,73 5,98 6,19 6,37 6,53 6,67 6,79 6,90
14 4,21 4,90 5,32 5,63 5,88 6,08 6,26 6,41 6,54 6,66 6,77
15 4,17 4,84 5,25 5,56 5,80 5,99 6,16 6,31 6,44 6,56 6,66
16 4,13 4,79 5,19 5,49 5,72 5,92 6,08 6,22 6,35 6,46 6,56
18 4,07 4,70 5,09 5,38 5,60 5,79 5,94 6,08 6,20 6,31 6,41
20 4,02 4,64 5,02 5,29 5,51 5,69 5,84 5,97 6,09 6,19 6,28
24 3,96 4,55 4,91 5,17 5,37 5,54 5,69 5,81 5,92 6,02 6,11
30 3,89 4,46 4,80 5,05 5,24 5,40 5,54 5,65 5,76 5,85 5,93
40 3,82 4,37 4,70 4,93 5,11 5,26 5,39 5,50 5,60 5,69 5,76
60 3,76 4,28 4,60 4,82 4,99 5,13 5,25 5,36 5,45 5,53 5,60
214 Análisis de varianza
TABLA 8
Valores críticos de r del test de rachas
n1 = 2
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
2 4 4 4 4
3 5 5 5 5
4 5 5 5 5
5 5 5 5 5
6 5 5 5 5
7 5 5 5 5
8 2 3 5 5 5
9 2 5 5 5 5
10 2 5 5 5 5
11 2 5 5 5 5
12 2 2 5 5 5 5
13 2 2 5 5 5 5
14 2 2 5 5 5 5
15 2 2 5 5 5 5
16 2 2 5 5 5 5
17 2 2 5 5 5 5
18 2 2 5 5 5 5
19 2 2 2 5 5 5 5
20 2 2 2 5 5 5 5
n1 = 3
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
3 6 6 6 6
4 6 7 7 7
5 2 7 7 7 7
6 2 2 7 7 7 7
7 2 2 7 7 7 7
8 2 2 7 7 7 7
9 2 2 2 7 7 7 7
10 2 2 3 7 7 7 7
11 2 2 3 7 7 7 7
12 2 2 2 3 7 7 7 7
13 2 2 2 3 7 7 7 7
14 2 2 2 3 7 7 7 7
15 2 2 2 3 7 7 7 7
16 2 2 2 3 7 7 7 7
17 2 2 2 3 7 7 7 7
18 2 2 2 3 7 7 7 7
19 2 2 2 3 7 7 7 7
20 2 2 2 3 7 7 7 7
Apéndice 215
TABLA 8
Valores críticos de r del test de rachas
(continuación)
n1 = 4
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
4 2 7 8 8 8
5 2 2 8 8 9 9
6 2 2 3 8 8 9 9
7 2 2 3 8 8 9 9
8 2 2 3 3 9 9 9 9
9 2 2 3 3 9 9 9 9
10 2 2 3 3 9 9 9 9
11 2 2 3 3 9 9 9 9
12 2 3 3 4 9 9 9 9
13 2 3 3 4 9 9 9 9
14 2 3 3 4 9 9 9 9
15 3 3 3 4 9 9 9 9
16 3 3 4 4 9 9 9 9
17 3 3 4 4 9 9 9 9
18 3 3 4 4 9 9 9 9
19 3 3 4 4 9 9 9 9
20 3 3 4 4 9 9 9 9
n1 = 5
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
5 2 2 3 8 9 9 10
6 6 2 3 3 9 9 10 10
7 2 2 3 3 9 10 10 11
8 2 2 3 3 10 10 11 11
9 2 3 3 4 10 11 11 11
10 3 3 3 4 10 11 11 11
11 3 3 4 4 11 11 11 11
12 3 3 4 4 11 11 11 11
13 3 3 4 4 11 11 11 11
14 3 3 4 5 11 11 11 11
15 3 4 4 5 11 11 11 11
16 3 4 4 5 11 11 11 11
17 3 4 4 5 11 11 11 11
18 4 4 5 5 11 11 11 11
19 4 4 5 5 11 11 11 11
20 4 4 5 5 11 11 11 11
216 Análisis de varianza
TABLA 8
Valores críticos de r del test de rachas
(continuación)
n1 = 6
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
6 2 2 3 3 10 10 11 11
7 2 3 3 4 10 11 11 12
8 3 3 3 4 11 11 12 12
9 3 3 4 4 11 12 12 12
10 3 3 4 5 11 12 13 13
11 3 4 4 5 12 12 13 13
12 3 4 4 5 12 12 13 13
13 3 4 5 5 12 13 13 13
14 4 4 5 5 12 13 13 13
15 4 4 5 6 13 13 13 13
16 4 4 5 6 13 13 13 13
17 4 5 5 6 13 13 13 13
18 4 5 5 6 13 13 13 13
19 4 5 6 6 13 13 13 13
20 4 5 6 6 13 13 13 13
n1 = 7
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
7 3 3 3 4 11 12 12 12
8 3 3 4 4 12 12 12 13
9 3 4 4 5 12 13 13 14
10 3 4 5 5 12 13 14 14
11 4 4 5 5 13 13 14 14
12 4 4 5 6 13 13 14 15
13 4 5 5 6 13 14 15 15
14 4 5 5 6 13 14 15 15
15 4 5 6 6 14 14 15 15
16 5 5 6 6 14 15 15 15
17 5 5 6 7 14 15 15 15
18 5 5 6 7 14 15 15 15
19 5 6 6 7 14 15 15 15
20 5 6 6 7 14 15 15 15
Apéndice 217
TABLA 8
Valores críticos de r del test de rachas
(continuación)
n1 = 8
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
8 8 4 4 5 12 13 13 14
9 3 4 5 5 13 13 14 14
10 4 4 5 6 13 14 14 15
11 4 5 5 6 14 14 15 15
12 4 5 6 6 14 15 15 16
13 5 5 6 6 14 15 16 16
14 5 5 6 7 15 15 16 16
15 5 5 6 7 15 15 16 17
16 5 6 6 7 15 16 16 17
17 5 6 7 7 15 16 17 17
18 6 6 7 8 15 16 17 17
19 6 6 7 8 15 16 17 17
20 6 6 7 8 16 16 17 17
n1 = 9
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
9 4 4 5 6 13 14 15 15
10 4 5 5 6 14 15 15 16
11 5 5 6 6 14 15 16 16
12 5 5 6 7 15 15 16 17
13 5 6 6 7 15 16 17 17
14 5 6 7 7 16 16 17 17
15 6 6 7 8 16 17 17 18
16 6 6 7 8 16 17 17 18
17 6 7 7 7 8 16 17 18
18 6 7 8 8 17 17 18 19
19 6 7 8 9 17 17 18 19
20 7 7 8 9 17 17 18 19
218 Análisis de varianza
TABLA 8
Valores críticos de r del test de rachas
(continuación)
n1 = 10
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
10 5 5 6 6 15 15 16 16
11 5 5 6 7 15 16 17 17
12 5 6 7 7 16 16 17 18
13 5 6 7 8 16 17 18 18
14 6 6 7 8 16 17 18 18
15 6 7 7 8 17 17 18 19
16 6 7 8 8 17 18 19 19
17 7 7 8 9 17 18 19 19
18 7 7 8 9 18 18 19 20
19 7 8 8 9 18 19 19 20
20 7 8 9 9 18 19 19 20
n1 = 11
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
11 5 6 7 7 16 16 17 18
12 6 6 7 8 16 17 18 18
13 6 6 7 8 17 18 18 19
14 6 7 8 8 17 18 19 19
15 7 7 8 9 18 18 19 20
16 7 7 8 9 18 19 20 20
17 7 8 9 9 18 19 20 21
18 7 8 9 10 19 19 20 21
19 8 8 9 10 19 20 21 21
20 8 8 9 10 19 20 21 21
n1 = 12
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
12 6 7 7 8 17 18 18 19
13 6 7 8 9 17 18 19 20
14 7 7 8 9 18 19 20 20
15 7 8 8 9 18 19 20 21
16 7 8 9 10 19 20 21 21
17 8 8 9 10 19 20 21 21
18 8 8 9 10 20 20 21 22
19 8 9 10 10 20 21 22 22
20 8 9 10 11 20 21 22 22
Apéndice 219
TABLA 8
Valores críticos de r del test de rachas
(continuación)
n1 = 13
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
13 7 7 8 9 18 19 20 20
14 7 8 9 9 19 19 20 21
15 7 8 9 10 19 20 21 21
16 8 8 9 10 20 20 21 22
17 8 9 10 10 20 21 22 22
18 8 9 10 11 20 21 22 23
19 9 9 10 11 21 22 23 23
20 9 10 10 11 21 22 23 23
n1 = 14
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
14 7 8 9 10 19 20 21 22
15 8 8 9 10 20 21 22 22
16 8 9 10 11 20 21 22 22
17 8 9 10 11 21 22 23 23
18 9 9 10 11 21 22 23 24
19 9 10 11 12 22 22 23 24
20 9 10 11 12 22 23 24 24
n1 = 15
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
15 8 9 10 11 20 21 22 23
16 9 9 10 11 21 22 23 23
17 9 10 11 11 21 22 23 24
18 9 10 11 12 22 23 24 24
19 10 10 11 12 22 23 24 25
20 10 11 12 12 23 24 25 25
n1 = 16
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
16 9 10 11 11 22 22 23 24
17 9 10 11 12 22 23 24 25
18 10 10 11 12 23 24 25 25
19 10 10 11 12 22 23 24 25
20 10 10 11 12 23 24 25 25
220 Análisis de varianza
TABLA 8
Valores críticos de r del test de rachas
(continuación)
n1 = 17
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
17 10 10 11 12 23 24 25 25
18 10 11 12 13 23 24 25 26
19 10 11 12 13 23 24 25 26
20 11 11 13 13 24 25 26 27
n1 = 18
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
18 11 11 12 13 24 25 26 26
19 11 12 13 14 24 25 26 27
20 11 12 13 14 25 26 27 28
n1 = 19
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
19 11 12 13 14 25 26 27 28
20 12 12 13 14 26 28 28 28
n1 = 20
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
20 12 13 14 15 26 27 28 29
Apéndice 221
TABLA 9
Coeficientes de polinomios ortogonales
J Polinomio 1 2 3 4 5 6 7 8 9 10
Lineal -1 0 1
3
Cuadráti- 1 -2 1
co
Lineal -3 -1 1 3
4 Cuadráti- 1 -1 -1 1
co
Cúbico -1 3 -3 1
Lineal -2 -1 0 1 2
Cuadráti- 2 -1 -2 -1 2
5 co
Cúbico -1 2 0 -2 1
De 4º 1 -4 6 -4 1
grado
Lineal -5 -3 -1 1 3 5
Cuadráti- 5 -1 -4 -4 -1 5
6 co
Cúbico -5 7 4 -4 -7 5
De 4º 1 -3 2 2 -3 1
grado
Lineal -3 -2 -1 0 1 2 3
Cuadráti- 5 0 -3 -4 -3 0 5
7 co
Cúbico -1 1 1 0 -1 -1 1
De 4º 3 -7 1 6 1 -7 3
grado
Lineal -7 -5 -3 -1 1 3 5 7
Cuadráti- 7 1 -3 -5 -5 -3 1 7
8 co
Cúbico -7 5 7 3 -3 -7 -5 7
De 4º 7 -13 -3 9 9 -3 -13 7
grado
De 5º -7 23 -17 -15 15 17 -23 7
grado
Lineal -4 -3 -2 -1 0 1 2 3 4
Cuadráti- 28 7 -8 -17 -20 -17 -8 7 28
9 co
Cúbico -14 7 13 9 0 -9 -13 -7 14
De 4º 14 -21 -11 9 18 9 -11 -21 14
grado
De 5º -4 11 -4 -9 0 9 4 -11 4
grado
Lineal -9 -7 -5 -3 -1 1 3 5 7 9
Cuadráti- 6 2 -1 -3 -4 -4 -3 -1 2 6
10 co
Cúbico -42 14 35 31 12 -12 -31 -35 -14 42
De 4º 18 -22 -17 3 18 18 3 -17 -22 18
grado
De 5º -6 14 -1 -11 -6 6 11 1 -14 6
grado
222 Análisis de varianza
TABLA 10
Prueba de Lilliefors
1–α
n 0,80 0,85 0,90 0,95 0,99
4 0,300 0,319 0,352 0,381 0,417
5 0,285 0,299 0,315 0,337 0,405
6 0,265 0,277 0,294 0,319 0,364
7 0,247 0,258 0,276 0,300 0,348
8 0,233 0,244 0,261 0,285 0,331
9 0,223 0,233 0,249 0,271 0,311
10 0,215 0,224 0,239 0,258 0,294
11 0,206 0,217 0,230 0,249 0,284
12 0,199 0,212 0,223 0,242 0,275
13 0,190 0,202 0,214 0,234 0,268
14 0,183 0,194 0,207 0,227 0,261
15 0,177 0,187 0,201 0,220 0,257
16 0,173 0,182 0,195 0,213 0,250
17 0,169 0,177 0,189 0,206 0,245
18 0,166 0,173 0,184 0,200 0,239
19 0,163 0,169 0,179 0,195 0,235
20 0,160 0,166 0,174 0,190 0,231
25 0,142 0,147 0,158 0,173 0,200
30 0,131 0,136 0,144 0,161 0,187
Referencias bibliográficas
Abelson, R.P. (1998). La estadística razonada: reglas y principios.
Barcelona: A&M Gràfic. Traducción del original en inglés de
1995.
Allison, D.B., Gorman, B.S. y Primavera, L.H. (1992). Some of the Most
Common Questions Asked Of Statistical Consultants: Our Favor-
ite Responses and Recommended Readings. Genetic, Social, and
General Psychology Monographs, 119(2), 153-185.
Amón, J. (1984). Estdística para psicólogos II. Madrid: Pirámide.
Amón, J. (1989). Estdística para psicólogos I. Madrid: Pirámide.
Arnau i Gras, J. (1996). Técnicas de análisis avanzadas y diseños de
investigación: tendencias actuales y líneas futuras de desarrollo.
En J. Arnau i Gras (Ed.) Métodos y técnicas avanzadas de análi-
sis de datos en ciencias del comportamiento. Barcelona: Edicions
de la Universitat de Barcelona.
Bakan, D. (1966). The test of significance in Psychological Research.
Psychological Bulletin, 66(6), 423-437. En B. Lieberman (Ed.)
Contemporary Problems in Statistics (1971). New York: Oxford
University Press.
Binder, A. (1963). Further Considerations on Testing the Null Hypothe-
sis and the Strategy and Tactics of Investigating Theoretical
Models. Psychological Review, 70, 107-115. En B. Lieberman (Ed.)
224 Análisis de varianza