Está en la página 1de 227

Análisis de varianza

Isabel Cañadas Osinski

Universidad de La Laguna
Índice
Prólogo .......................................................................................................... 9

1. El contraste de hipótesis....................................................................... 13
1.1. Introducción .................................................................................... 13
1.2. ¿Mantenemos o aceptamos H0? La polémica Fisher y
Neyman-Pearson .......................................................................... 14
1.3. La significación estadística .......................................................... 17
1.3.1. Varianza de las muestras ..................................................... 17
1.3.2. Probabilidad asociada.......................................................... 18
1.3.3. Tamaño de la muestra .......................................................... 19
1.3.4. Potencia del contraste........................................................... 20
1.4. ¿Qué podemos hacer? ...................................................................... 21

2. Análisis de varianza de un factor completamente aleatorizado.... 23


2.1. Introducción .................................................................................... 23
2.2. Análisis de varianza....................................................................... 28
2.3. Modelos de ANVAR.......................................................................... 30
2.4. Modelo de un factor completamente aleatorizado ..................... 34
4 Análisis de varianza

2.5. Estructura y notación de los datos ............................................... 34


2.6. Modelo............................................................................................... 36
2.6.1. ANVAR de un factor como un caso particular del
modelo lineal general........................................................... 38
2.7. Supuestos del modelo...................................................................... 39
2.7.1. Especificación completa del modelo.................................... 40
2.7.2. Aditividad del modelo ........................................................... 41
2.7.3. Esperanza matemática de los errores ................................. 41
2.7.4. Independencia de las observaciones ................................... 42
2.7.5. Normalidad de las observaciones ........................................ 43
2.7.6. Homogeneidad de varianzas ................................................ 44
2.8. Estimación de los términos del modelo........................................ 45
2.8.1. Estimador del parámetro µ................................................... 45
2.8.2. Estimador del parámetro αj .................................................. 46
2.8.3. Estimador de εij ...................................................................... 46
2.9. Descomposición de la varianza total en sus componentes
aditivos.......................................................................................... 47
2.10. Grados de libertad ........................................................................ 49
2.11. Medias cuadráticas ...................................................................... 50
2.12. Valores esperados de las medias cuadráticas .......................... 51
2.13. La razón F ...................................................................................... 53
2.14. Resumen del ANVAR de un factor .............................................. 55
2.15. Procedimientos numéricos........................................................... 57
2.16. Tamaño del efecto ......................................................................... 60
2.17. Potencia en el ANVAR de un factor ............................................ 64
2.18. Valores F menores que 1............................................................... 66
2.19. Valores F demasiado grandes ..................................................... 67
2.20. Comprobaciones previas .............................................................. 67
2.20.1. Supuesto de independencia de observaciones .................. 68
2.20.2. Normalidad de las puntuaciones ...................................... 70
2.20.3. Homogeneidad de varianzas .............................................. 71
2.20.4. Transformación de las puntuaciones................................ 72
Índice 5

3. Comparaciones múltiples..................................................................... 75
3.1. Introducción .................................................................................... 75
3.2. Comparaciones múltiples o contrastes ........................................ 76
3.3. Comparaciones ortogonales .......................................................... 77
3.4. Control de α ...................................................................................... 79
3.5. Contrastes a priori y a posteriori ................................................. 80
3.6. Contrastes a priori.......................................................................... 82
3.6.1. Prueba t................................................................................... 82
3.6.2. Prueba Dunn .......................................................................... 84
3.6.3. Prueba F’ ................................................................................. 86
3.7. Contrastes a posteriori ................................................................... 89
3.7.1. Prueba de Tukey..................................................................... 90
3.7.2. Prueba de Scheffé .................................................................. 93
3.8. Análisis de tendencias.................................................................... 96
3.9. Un comentario final.......................................................................101

4. Análisis de varianza de dos factores completamente


aleatorizado ........................................................................................ 103
4.1. Introducción ...................................................................................103
4.2. Estructura y notación de los datos ..............................................108
4.3. Modelo..............................................................................................110
4.4. Supuestos del modelo.....................................................................112
4.5. Hipótesis nulas ...............................................................................112
4.6. Descomposición de la varianza total en sus componentes
aditivos.........................................................................................114
4.7. Grados de libertad .........................................................................115
4.8. Medias cuadráticas .......................................................................116
4.9. Valores esperados de las medias cuadráticas ...........................117
4.10. Las razones F ................................................................................118
4.11. Resumen del ANVAR de dos factores.........................................119
4.12. Procedimientos numéricos..........................................................121
4.13. Interpretación de los efectos principales y de la
interacción...................................................................................124
6 Análisis de varianza

4.14. Efectos simples..............................................................................126


4.15. Comparaciones múltiples ...........................................................130
4.15.1. Pruebas a priori ................................................................. 130
4.15.2. Pruebas a posteriori .......................................................... 132
4.16. Medias del tamaño del efecto .....................................................133
4.17. Potencia en el ANVAR de dos factores ......................................136
4.18. Algunos casos particulares.........................................................138
4.18.1. Una sola observación por celda ....................................... 138
4.18.2. Tamaños de celdas desiguales ......................................... 139
4.19. Diseños de más de dos factores...................................................141

5. Análisis de varianza de medidas repetidas..................................... 143


5.1. Introducción ...................................................................................143
5.2. Análisis de varianza de un factor de efectos fijos de
medidas repetidas.......................................................................145
5.2.1. Modelo aditivo ...................................................................... 147
5.2.2. Modelo no aditivo................................................................. 154
5.3. Análisis de varianza de dos factores de medidas repetidas ....157
5.3.1. ANVAR de dos factores de medidas repetidas en
ambos.................................................................................... 157
5.3.2. ANVAR de dos factores de medidas repetidas en un
solo factor............................................................................. 169
5.4. Comprobación del supuesto de aditividad .................................176
5.5. Diseños de medidas repetidas vs. completamente
aleatorizados...............................................................................182

6. Análisis de varianza de efectos aleatorios....................................... 185


6.1. Introducción ...................................................................................185
6.2. Modelo de un factor de efectos aleatorios...................................188
6.3. Modelo de dos factores de efectos aleatorios ..............................192

Apéndice.................................................................................................... 199

Referencias bibliográficas ..................................................................... 223


Índice 7
Prólogo
En el mundo en el que vivimos, la estadística es una herramienta
absolutamente imprescindible para ayudarnos a entenderlo mejor. De
este modo, la Psicología, como ciencia que pretende comprender el
comportamiento humano, se siente obligada a utilizar procedimientos
estadísticos que le permitan apresar, de la forma más objetiva posible,
la complejidad de las dimensiones que abarca. Sin embargo, aunque
la relación entre Psicología y Estadística es necesaria, me suscribo a
las palabras de Everitt respecto a su utilización desmedida, cuando
dice que “en los últimos 50 años, los psicólogos se han vuelto voraces
consumidores de métodos estadísticos, siendo la relación entre psicó-
logos y estadísticos no siempre fácil, feliz o fructífera” (Everitt, 1996,
pág. 14).
En este sentido, podría decirse que el Análisis de varianza ha sido
una de las técnicas más utilizadas, y sobrevaloradas, por los científi-
cos de la conducta. Desde que Fisher la desarrollara en 1920 y su
aplicación en la Psicología se publicara en 1937 por Gaskill y Cox, el
análisis de varianza, en todas sus variantes, ha sido el método que ha
gozado de mayor entusiasmo por parte de los psicólogos. Pero también
hay que decir que, precisamente por este protagonismo, ha sido sujeto
de las mayores críticas e, incluso, se está poniendo en tela de juicio su
uso. Su gran alcance de actuación han podido convertirlo en su propio
adversario, tal vez por la inadecuada utilización que se ha hecho del
mismo y por las limitaciones que comporta como técnica de contraste
de hipótesis que es.
10 Análisis de varianza

No obstante, como señala Arnau (1996), los diseños de investigación


siguen constituyendo en la actualidad instrumentos válidos y útiles
para el desarrollo de nuestra ciencia y en la medida en que profundi-
cemos en su conocimiento estaremos en una posición más adecuada
para responder a los problemas que surgen en la investigación psico-
lógica. El análisis de varianza constituye la técnica básica de análisis
de datos de los diseños experimentales y, por tanto, no sólo es necesa-
ria una mayor preocupación por parte los investigadores en su correc-
ta utilización, sino que considero fundamental que se siga explicando
a los alumnos de Psicología, aunque sea de forma sucinta como en este
texto.
Cuenta Tatsuoka (1993) que en un principio Fisher quiso llevar a
cabo el análisis de varianza desde la aproximación de la regresión
múltiple, pero las dificultades de cálculo en esos días pre-
computacionales le llevaron a una gran frustración. De este modo tuvo
que desarrollar la partición de la suma de cuadrados que hoy asocia-
mos a la técnica de análisis de varianza. Así se generó una dicotomía
en las técnicas estadísticas, relacionando el análisis correlacional y
de regresión a estudios de campo y dejando el análisis de varianza a
estudios experimentales. Sin embargo, hoy por hoy nadie es ajeno al
hecho de que ambas técnicas son casos que responden al mismo mode-
lo lineal general siendo, desde esta perspectiva, los modelos de análi-
sis de varianza equivalentes a los modelos de regresión múltiple. De
hecho, la principal ventaja del modelo lineal general es la unificación
de diversas técnicas de análisis estadístico, aparentemente diferentes,
como estas últimas.
En efecto, desde que el acceso al uso de ordenadores ya no supone
una barrera, cada vez son más los textos que tratan el análisis de
varianza desde la orientación del modelo lineal general, con la virtud
de facilitar el paso al estudio de las técnicas multivariadas, mejor que
desde la perspectiva tradicional. Sin embargo, en mi opinión, el análi-
sis de varianza desde el acercamiento clásico o fisheriano brinda al
alumno una mejor comprensión del tratamiento estadístico de los
datos, al ser más intuitivo que los procedimientos matriciales. De ahí
que me parezca más oportuno abordar la técnica desde esta perspecti-
va. Además le permite conectar con los contenidos que se aprenden en
la asignatura de Diseño experimental, al estudiar la herramienta de
análisis de datos de algunos de los diseños que allí se estudian. Por
otro lado, en la asignatura Análisis multivariado se hace un recorrido
de las técnicas fundamentadas en el modelo lineal general, comen-
zando con el análisis de varianza, donde se aprende el modelo lineal
del análisis de varianza, que se complementa con su tratamiento
computacional en la asignatura Paquetes estadísticos. Por eso, dejo
Introducción 11

para estas asignaturas el estudio del análisis de varianza desde esta


orientación.
Así pues, el interés principal de este manual es proporcionar a los
alumnos de la asignatura Análisis de datos III una guía que les per-
mita introducirse, desde la perspectiva fisheriana, en el estudio de un
método de análisis de datos con tanta trascendencia como es el análi-
sis de varianza. Habida cuenta de los conocimientos adquiridos en las
asignaturas de Análisis de datos I y Análisis de datos II, este libro
pretende completar con sus contenidos las nociones estadísticas ya
aprendidas, necesarias para concluir su formación básica en el análi-
sis de datos psicológicos.
En el primer tema se hacen unas breves reflexiones acerca del con-
traste de hipótesis, método ya explicado en cursos anteriores, pero que
merece una atención especial ya que, si bien en su momento supuso
una revolución como técnica de extrapolación objetiva a la población
de los resultados obtenidos en una muestra, hoy en día constituye una
segunda revolución, dado que se está replanteando su utilización a
tenor del abuso y mal uso al que está siendo sometido. Quisera que el
alumno aprenda a juzgarlo en su justa medida.
En los temas que siguen se amplían los conocimientos del contraste
de hipótesis al conjunto de más de dos medias, de forma que nos intro-
ducimos de lleno en la técnica de análisis de varianza. En primer
lugar, cabe decir que me limito al estudio de una y dos variables inde-
pendientes, puesto que el objetivo principal es que el alumno compren-
da los fundamentos y mecanismos imprescindibles para el análisis de
los datos mediante esta herramienta y no parece necesario ni eficaz
incluir la complejidad que supone el estudio de más variables inde-
pendientes.
En segundo lugar, si bien en el tema dedicado al análisis de va-
rianza de un factor se muestran los desarrollos matemáticos en los que
se fundamenta el método, en los siguientes temas se prescinde del rigor
matemático en favor de una mayor comprensión de las dificultades
que puede suponer la introducción de un diseño nuevo. En cualquier
caso, siempre se ofrecen las referencias necesarias a las que se puede
acudir para profundizar en este aspecto.
Por último, no resulta oportuno limitarse al contraste de hipótesis
como único medio para entender lo sucedido en los datos. Por ello, en
la medida de lo posible, se intenta completar el análisis de significa-
ción mediante estudios del tamaño del efecto, potencia e intervalos
confidenciales. Al menos, en mi ánimo está que no sean ignorados.
En definitiva, quisiera transmitir a mis alumnos que la técnica de
análisis de varianza es un instrumento de gran utilización en la expe-
12 Análisis de varianza

rimentación psicológica y que, si bien puede resultar muy eficaz al


científico de la conducta, no está exenta de inconvenientes. A lo largo
de la carrera el alumno se adentrará en la labor investigadora, tanto
por la lectura de trabajos publicados, como por sus primeras incur-
siones activas en la misma. Por ello, las ventajas y limitaciones del
análisis de varianza no deben pasarle desapercibidas, en tanto en
cuanto en adelante le resultará una herramienta muy familiar.
No quisiera terminar este prólogo sin antes agradecer a mis maes-
tros Concepción San Luis Costas y Juan Alfonso Sánchez Bruno el que
durante estos años me hayan enseñado, primero, a comprender las
herramientas estadísticas, a veces insufribles, y, segundo, a no dejar-
me seducir por la complejidad, en ocasiones oscuridad, de las mismas,
cuando la mayoría de las veces, como dicta el principio de parsimonia,
las soluciones más sencillas suelen ser las más elegantes. De ellos he
aprendido todo lo que sé. Ellos me han entregado todo su tiempo para
la confección de este libro y sin su ayuda no hubiese sido posible. Espe-
ro no defraudarles. Y poder seguir dándoles la lata en el futuro.
Merece una atención muy especial Fernando Domínguez Caballero
de Rodas. Con su envidiable paciencia y perfeccionismo ha conseguido
que mis peleas con el procesador de texto no acabaran en una total
confrontación. Todo el tiempo del mundo será insuficiente para agra-
decer las horas que ha dedicado a ayudarme en el formato del texto.
Por último, mis alumnos de la Facultad de Psicología de la Univer-
sidad de La Laguna han motivado desde el comienzo de mis clases a
mejorar día tras día mi actividad docente. Ellos siguen impulsándome
y a ellos va dedicado, con mi gratitud más sincera, este libro.

Isabel Cañadas Osinski


La Laguna, diciembre de 1998
1. El contraste de hipótesis

1.1. Introducción
El alumno que se enfrenta por primera vez al estudio del análisis de
varianza conoce ya la técnica general del contraste de hipótesis, técni-
ca abordada en las asignaturas previas de Análisis de Datos I y Análi-
sis de Datos II y aplicada al contraste de una y dos medias, así como al
de una y dos varianzas. A lo largo del texto veremos cómo extender las
ideas ya asimiladas al caso de más de dos grupos. Sin embargo, nos
parece oportuno comenzar con un capítulo dedicado a la problemática
que se ha suscitado en torno al contraste de hipótesis, derivada de su
uso y abuso en la investigación psicológica, que evite, de algún modo,
una sobrevaloración de sus resultados —sobre todo cuando éstos son
estadísticamente significativos— o, al menos, una interpretación a
ciegas de los mismos. Así pues, en este primer capítulo presentaremos
algunos de los problemas más frecuentes en los contrastes de hipótesis,
así como algunas de las propuestas sugeridas por diversos autores en
un intento de mejorarlos. Estas reflexiones son, por supuesto, aplica-
bles también al análisis de varianza (procedimiento al que nos dedi-
caremos exclusivamente en los siguientes capítulos) por tratarse de
una técnica más de contraste de hipótesis.
14 Análisis de varianza

1.2. ¿Mantenemos o aceptamos H0? La polémica


Fisher y Neyman-Pearson
La forma habitual de contrastar las teorías científicas consiste en
suponer cómo se comportarán en determinadas circunstancias las
variables contempladas en ellas (establecimiento de hipótesis) para
después, sea provocando experimentalmente la situación de interés,
sea esperando a que se produzca, contrastar la hipótesis propuesta
con lo realmente sucedido (contraste de hipótesis).
Las técnicas de contraste de hipótesis estadísticas, que una vez fue-
ron una rareza dentro de la investigación psicológica, hoy en día se
han generalizado tanto que se han convertido en la práctica en sinó-
nimos de investigación empírica. Esto ha dado pie a Gigerenzer y
Murray (1987) para decir que en Psicología se produjo una “revolución
inferencial” en los años 1940 - 55.
La metodología del contraste de hipótesis, tal y como la introdujo
Fisher, podríamos resumirla en los siguientes pasos:
1. Plantear una hipótesis nula (H0), que hace referencia, típica-
mente, al valor de algún parámetro en la población de referen-
cia.
2. Establecer una regla de muestreo, generalmente, muestreo alea-
torio simple.
3. Determinar la distribución muestral en función de la hipótesis
nula y de la regla de muestreo.
4. Determinar un estadístico que dé una medida de la discrepancia
entre lo obtenido a partir de la muestra y lo establecido por la
hipótesis nula.
5. Establecer un nivel de significación α.
Tras todo ello, se selecciona la muestra y se calcula la medida de la
discrepancia: si la probabilidad de obtener, bajo H0, una discrepancia
igual o mayor que la obtenida es menor que α, se considera que H0 es
falsa1.

1 Dado que en los contrastes estadísticos utilizados más frecuentemente en Psico-

logía la hipótesis nula suele consistir en la predicción de que determinado paráme-


tro vale cero, existe cierta confusión con respecto al significado del término. Con-
viene ya dejar claro que el concepto de hipótesis nula, tal como fue introducido por
Fisher, hace referencia a que es la hipótesis cuya nulidad (falsedad) se pretende
demostrar.
El contraste de hipótesis 15

Para Fisher, un contraste de significación puede llevar a una de


las dos siguientes situaciones: o bien se rechaza la H0 al nivel de signi-
ficación α, o bien el juicio se reserva en ausencia de base suficiente.
Frente a este planteamiento, surgen los trabajos de Neyman y Pearson,
orientados más hacia la toma de decisiones, para lo cual introducen
algunas modificaciones en el esquema fisheriano anterior, al conside-
rar explícitamente la hipótesis alternativa e introducir los conocidos
conceptos de error tipo I y II, región crítica, potencia de la prueba y,
sobre todo, la posibilidad de aceptar la hipótesis nula.
La existencia de estas dos perspectivas ha provocado no pocos deba-
tes en el seno de la comunidad psicológica. Simplificando los argu-
mentos de una y otra parte, un grupo de investigadores se declara
contrario a la posibilidad de aceptar una H0, dado que el no poder
rechazarla sólo implica no poder obtener apoyo para una teoría. Por
su parte, aquellos que se declaran favorables a su aceptación, sostie-
nen que existen dos áreas (de aceptación y rechazo) mutuamente ex-
cluyentes, cada una de las cuales supone un espacio de puntos para-
métricos, y el contraste estadístico determinará en cuál de los dos
espacios se encuentra el verdadero valor del parámetro, por lo que el
rechazo de H0 supondrá necesariamente la aceptación de H1, y vicever-
sa.
Este debate, en nuestra opinión, es superfluo y se debe a una serie
de confusiones referentes a las filosofías subyacentes y a las finalida-
des de ambos contrastes, confusiones, en gran medida, alentadas por
la enemistad entre Fisher, por una parte, y Pearson (Karl y Egon) y
Neyman, por otra, lo que les llevó a presentar sus respectivas posicio-
nes como más diferentes de lo que en realidad eran.
Por un lado, Fisher desarrolló los métodos de contraste de hipótesis
desde una perspectiva falsacionista puramente popperiana: por mu-
chos casos que encontremos en conformidad con la teoría o ley pro-
puesta, ésta no puede ser probada, pero bastará una sola observación
que contradiga la ley para que la podamos negar. Por eso, desde esta
perspectiva, aun cuando se den todas las condiciones a favor de H0, no
estamos autorizados a aceptarla sin más, sino que, al no rechazarla,
estaríamos aceptando una hipótesis difusa, la cual supone la asevera-
ción (probabilística) de que el verdadero valor del parámetro se en-
cuentra definido por los puntos que delimitan lo que Neyman y Pear-
son denominan intervalo de aceptación (Giere, 1984).
La metodología de Neyman y Pearson, en oposición a esto, está
orientada a la resolución de un tipo de problema en situaciones en las
que tenemos que tomar una decisión partiendo de una información
limitada y deseamos minimizar los costes de una decisión errónea. Su
campo de aplicación ideal es el control de calidad, donde una situa-
16 Análisis de varianza

ción típica consiste en controlar la producción de cierto tipo de obje-


tos. Generalmente se puede tolerar la producción de un pequeño nú-
mero de objetos defectuosos; ahora bien, si la proporción de éstos exce-
de una cierta cantidad, los costos debidos a las sustituciones que
habrá que efectuar superarán los que se producirían como resultado
de cerrar la línea de producción por un tiempo y reparar las máqui-
nas. En el contraste de hipótesis referido a la proporción de objetos
defectuosos, si se supera el valor límite que cabe esperar por mero
azar, permitirá tomar una decisión en este sentido.
Evidentemente, el contraste así planteado, tiende a favorecer la
aceptación de H0. No obstante, dado que estamos en una situación de
toma de decisión, es adecuado considerar como hipótesis nula aquella
de cuya posible aceptación se deriven menos consecuencias negativas.
En esta situación, es evidente que el interés del contraste no radica en
poner a prueba ninguna hipótesis científica, sino en tomar, lo más
racionalmente posible, una decisión con implicaciones económicas.
Dentro de toda esta polémica, las palabras de Rozeboom (1971) nos
parecen significativas: “El primer objetivo de un experimento científi-
co no es precipitar decisiones, sino realizar un ajuste apropiado en el
grado en que se acepta, o se cree, la hipótesis o las hipótesis que se
están contrastando” (pág. 120). Este autor comenta que, si bien el
científico debe tomar decisiones, la ciencia es un cuerpo sistematizado
de conocimiento, no una acumulación de decisiones. Desde su perspec-
tiva, creer o aceptar una proposición es un tema de grado, no del todo
o nada. Señala también que el contraste de significación de la H0 es
muy poco adecuado como procedimiento de decisión. Desde su perspec-
tiva, la aceptación o rechazo de H0 es un proceso cognitivo, en el senti-
do de que es un grado de creencia, lo cual no quiere decir que supone
una elección, sino que únicamente determina el grado de probabilidad
(subjetivo) de que, dada la evidencia, la hipótesis sea cierta.
Por otra parte, el contrastes de hipótesis con un control adecuado
de la potencia y del tamaño del efecto, sí puede convertirse en una
técnica de búsqueda de efectos o relaciones entre las variables.
A lo largo de las páginas que siguen iremos presentando los pro-
blemas que han ido surgiendo en la práctica del contraste de hipótesis
(problemas que, como hemos podido ver, parten desde su mismo origen
en un híbrido de teorías enfrentadas) y que en la actualidad han
producido el cuestionamiento de su uso habitual.
El contraste de hipótesis 17

1.3. La significación estadística


La significación estadística determina si unos resultados muestrales
son poco probables, lo que quiere decir que no son los que cabría espe-
rar por efecto del azar. En otras palabras, tales resultados no son
compatibles con lo planteado en la hipótesis nula y, por lo tanto, dan
pie para rechazarla.
El problema de la significación estadística se puede ver desde di-
versas perspectivas. En primer lugar, algunas voces señalan lo inade-
cuado de establecer un punto dicotómico de sí/no a la hora de estable-
cer la bondad de una teoría. Pensemos en el “santificado y santifican-
te”2 nivel de significación α = 0,05. ¿Debemos rechazar una hipótesis
porque el estadístico de contraste tiene una probabilidad asociada de
0,049? De esta forma, como señala Rozeboom (1971), lo que hacemos es
limitar el contraste a dos alternativas, confirmación o no confirma-
ción, a partir de un corte abrupto, cuando se trata más bien de un
continuo. Por otro lado, ¿por qué siempre nos referimos a los niveles de
significación de 0,05 ó 0,01?, ¿qué nos impide utilizar un nivel de, por
ejemplo, 0,04? Las razones por las que un investigador elige establecer
un determinado nivel de significación raramente se explicitan (Gige-
renzer, 1993), lo cual, de alguna manera, pone de relieve la ausencia
de criterios claros.
Además del nivel de significación elegido por el investigador, no
hay que olvidar que la significación de un contraste está en función de
otros factores, a saber, la varianza de las muestras, el tamaño de las
mismas y el tamaño del efecto (Mohr, 1990). Veamos, muy brevemente,
en qué sentido afectan estos factores.

1.3.1. Varianza de las muestras


Cuanto mayor sea la variabilidad que presenta una muestra, menos
representativo será, como sabemos, el cálculo de cualquier índice
estadístico, fundamentalmente los de tendencia central, por lo que el
establecimiento de diferencias entre tales índices poco o nada podrá
decir. Si las varianzas poblacionales son pequeñas, por otra parte, las
muestras reflejarán con mayor exactitud los valores poblacionales.
Así, podremos afirmar con una mayor confianza si el parámetro po-
blacional es o no cero.

2 Cohen (1990) habla del “santificado y santificante mágico nivel del 0,05”.
18 Análisis de varianza

1.3.2. Probabilidad asociada


Recordemos, una vez más, que se llama nivel crítico o probabilidad
asociada, p, a la probabilidad de obtener una discrepancia mayor o
igual que la observada en la muestra, cuando H0 es cierta:

p = P(d ≥ d  H0 )

Una interpretación frecuente, aunque errónea, de p, es considerarla


como una medida de la magnitud de la significatividad del contraste.
Así, es común oír decir que un valor de p = 0,01 es más significativo
que uno de 0,05. La creencia que parece estar detrás de esta compara-
ción es que cuanto más baja sea la probabilidad asociada, más se
desviarán los parámetros poblacionales de lo establecido en la hipóte-
sis nula.
El problema estriba en saber qué es lo que se entiende por significa-
tivo. Diversos autores han estudiado este tema, por lo que es posible
construir con las aportaciones de cada uno de ellos una especie de
relación de creencias erróneas al respecto. Así, Underwood, Duncan,
Taylor y Cotton (1954) indican que es erróneo pensar que p es una
medida de la confianza con la que los resultados de un experimento
podrían ser repetidos bajo las condiciones descritas. Según Wilson
(1961), es frecuente que los psicólogos crean erróneamente que p es el
valor de la probabilidad con que los resultados se deben al azar. Bo-
lles (1962), por su parte, dice haber observado también entre los psicó-
logos la creencia de que una p de, por ejemplo, 0,05 implica que existe
una probabilidad de 0,95 de que la hipótesis alternativa sea correcta.
En realidad, la probabilidad asociada es, para una determinada
muestra X, por definición, la probabilidad de obtener una muestra tan
discrepante de H0 como X, bajo el supuesto de que H0 es cierta. No es,
por tanto, la probabilidad de que H0 sea cierta dada la muestra X
(Johnstone, 1987). Expresado según la formulación habitual de la
Teoría de la Probabilidad:

p = P(X  H0) ≠ P(H0 X)

Ciertamente, si es muy improbable que siendo H0 cierta se obtenga


un resultado tan discrepante o más que el obtenido, podemos concluir,
mediante una especie de reducción al absurdo probabilística, que H0
es falsa. Ahora bien, este razonamiento inductivo no nos autoriza a
establecer grados de falsedad para H0 o de certeza para H1.
Por otra parte, si bien es cierto que p podría interpretarse como
una especie de medida estándar de la desviación de los datos con
El contraste de hipótesis 19

respecto a H0 (Bakan, 1966), esta medida constituiría únicamente una


especie de estadístico descriptivo de la muestra, no pudiéndose exten-
der el resultado a la población sin más. Sería necesario, rizando el
rizo del absurdo, idear un metacontraste que nos permita contrastar
la significatividad de la diferencia entre significatividades.

1.3.3. Tamaño de la muestra


Un aspecto de los contrastes de hipótesis que, aunque nadie ignora,
raramente es tenido en cuenta en la práctica, es que el rechazar o no
una determinada hipótesis nula muchas veces depende más del tama-
ño de la muestra que de la verdad o falsedad intrínseca de dicha
hipótesis. Por ejemplo, en el contraste de diferencias de medias pobla-
cionales, incrementando lo suficiente los tamaños muestrales, acaba-
remos rechazando la hipótesis nula con cualquier nivel de significa-
ción3. Ahora bien, la diferencia existente entre las medias puede ser
tan pequeña que no tenga ningún efecto práctico o teórico para un
nivel dado de desarrollo de una teoría científica.
En este sentido, Nunnally (1960; citado por Bakan, 1966) señala
que, dado que si se toman suficientes datos, la hipótesis nula siempre
resultará rechazada, si su rechazo fuese la verdadera intención en la
investigación psicológica, normalmente no habría necesidad de tomar
ningún dato. También DeGroot (1988) resalta el hecho de que los in-
vestigadores a menudo trabajan con un α de 0,01 con la finalidad de
ser conservadores en el contraste, pero, al tomar una muestra excesi-
vamente grande, rechazan la H0 a partir de unos datos que claramen-
te la apoyan.
A la vista de la influencia del tamaño muestral, Henkel (1984) re-
comienda seleccionar la muestra en función del nivel de desarrollo
teórico, de forma que, cuando éste permita sólo aproximaciones grue-
sas a la realidad, se trabaje con muestras pequeñas, que se irán in-
crementando a medida que las posibilidades de obtener resultados
finos con la teoría lo permitan. Este razonamiento nos permite enlazar
con el apartado siguiente.

3 Recordemos que en el contraste de dos medias, el estadístico de contraste está

en relación directa con el tamaño o tamaños muestrales. Permaneciendo todo


constante, el valor del estadístico tanto más se alejará de lo establecido en H0
cuanto mayor sea el tamaño de la muestra.
20 Análisis de varianza

1.3.4. Potencia del contraste


Un último punto de debate, que también está relacionado con el tama-
ño de la muestra, lo constituye la potencia del contraste, que Cohen
(1988) la define como “la probabilidad de que el contraste estadístico
lleve al rechazo de la hipótesis nula, esto es, la probabilidad de que
resultará en la conclusión de que el fenómeno existe” (pág. 4).
Más de 30 años nos separan de los trabajos pioneros de Cohen
(1962), sin que se haya avanzado en este terreno. Sabemos que la po-
tencia del contraste está en función del nivel de significación, del
tamaño del efecto y del tamaño de la muestra, cuestiones que ya hemos
comentado. Resulta sorprendente, por tanto, que se siga trabajando
con grupos excesivamente pequeños, en los que es dudoso que se pueda
detectar un efecto incluso medio y prácticamente imposible de obtener
un efecto pequeño. Rosnow y Rosenthal (1989) afirman, en un símil,
que los psicólogos eligen trabajar con una luz débil en lugar de con
claridad.
En una revisión sobre investigaciones clínicas, Kazdin y Bass (1989)
encontraron una gran despreocupación con respecto al tema de la
potencia. Los autores hacen hincapié en el hecho de que es corriente
encontrarnos con la afirmación de que no hay diferencias entre tra-
tamientos alternativos para una problemática dada, especulando con
la existencia de factores comunes en cualquier orientación terapéuti-
ca. Sin embargo, una explicación diferente puede ser que la falta de
potencia en los contrastes, debida al uso de tamaños muestrales exce-
sivamente pequeños, ha impedido que tales diferencias salgan a la luz.
Hemos visto algunas fuentes de error más frecuentes en la aplica-
ción de los procedimientos de contraste de hipótesis estadísticas. Si
bien todos los errores comentados tienen su origen en una deficiente
comprensión de la filosofía subyacente al contraste, se podría decir,
parafraseando a Orwell, que algunos errores son más errores que
otros. Así, pueden ser más disculpables los que provienen de un afán
de encontrar una objetividad en los métodos estadísticos que imprima,
por contagio, carácter científico a la investigación psicológica. Fruto
de este afán sería la tendencia a considerar el contraste de hipótesis
científicas como un proceso de toma de decisiones en la línea de la
metodología de Neyman y Pearson o la selección de muestras de tama-
ño inadecuado.
Tal vez sea conveniente tomar en cuenta la recomendación de Ba-
kan (1966, pág. 161) para quien “cuando llegamos a un punto en que
los procedimientos estadísticos se convierten en sustitutos del pensa-
miento en vez de ayudas a él, y ello nos conduce a conclusiones absur-
das, ha llegado el momento de regresar al camino del sentido común”.
El contraste de hipótesis 21

En el mismo sentido, Gigerenzer (1993) recuerda que no sólo hay que


utilizar el conocimiento estadístico, sino que hay que conjugarlo con el
uso de juicio fundamentado.

1.4. ¿Qué podemos hacer?


Se han propuesto varias soluciones para resolver los problemas con los
que se enfrenta el contraste de significación, desde una mejora en la
cuantificación hasta una mayor concordancia entre teoría e investi-
gación. Comentaremos, brevemente, sus aportaciones.
El primer grupo, caracterizado por un mayor énfasis en la cuanti-
ficación, nos lleva a tres cuestiones fundamentales: definir intervalos
de confianza, establecer tamaños del efecto y plantear contrastes de
significación en diferentes condiciones de aplicación.
El incluir como información los intervalos de confianza hace ya
tiempo que se ha recomendado puesto que, como afirma Cohen (1990,
1994), contienen toda la información que se puede encontrar en los
contrastes de hipótesis y además aportan una cantidad, lo cual es
importante. En la misma línea, Serlin (1987) señala que se precisan
contrastes e intervalos de confianza que permitan al investigador
determinar en qué medida el efecto encontrado es trivial o es lo bas-
tante grande como para que se pueda considerar importante.
Por otro lado, resulta muy informativo saber, no sólo que se ha en-
contrado una diferencia significativa, sino en qué cuantía se da esa
diferencia. El tamaño del efecto permite tender un puente entre dife-
rencias significativas estadísticas y clínicas: el valor que toma el
efecto permite evaluar si éste es considerable o francamente no rele-
vante. Además, como ya señalamos anteriormente, conforme aumenta
el tamaño de la muestra, cualquier resultado puede ser significativo,
aunque nada quiera decir en cuanto al tamaño del efecto encontrado
(Cohen, 1990). Por el contrario, un cambio no significativo producido
en una muestra pequeña puede ser suficientemente relevante (Hsu,
1989).
Por último, dentro de este primer grupo centrado en la cuantifica-
ción, se está haciendo una llamada de atención en el sentido de un
quehacer científico más sólido, con menos interés en estudios puntua-
les y un mayor énfasis en ahondar en los tópicos de interés. Nos esta-
mos refiriendo a una sensibilidad más encaminada a los estudios de
replicación, que permiten la construcción de un basamento más sóli-
do. Rosnow y Rosenthal (1989) consideran que es preciso adoptar una
idea más acumulativa de la ciencia psicológica mediante los estudios
de replicación. Su principal beneficio es que la repetición de resulta-
22 Análisis de varianza

dos significa robustez en los hallazgos encontrados, que, cuando se


repiten en personas y situaciones distintas a las de los estudios origi-
nales, llevan a la generalización de tales resultados.
La otra postura aboga por un mayor compromiso entre teoría e in-
vestigación. Un funcionamiento bastante utilizado en Psicología ha
sido lo que se denomina “ir de pesca” (Martin y Bateson, 1991), plan-
teamiento éste frente al que cada vez se alzan más voces, así como al
planteamiento de “dejar hablar a los datos” (Schmidt, 1992).
Es cierto, como afirman Binder (1963) y Serlin (1987), que el estadio
de desarrollo de una Ciencia determina el grado de definición de sus
hipótesis: en los estadios iniciales de un desarrollo teórico, cualquier
Ciencia debe discriminar entre las variables que son importantes y las
que no lo son para explicar un fenómeno. En cambio, cuando las teorí-
as ya han sido desarrolladas, se debe cambiar a un modo de análisis
jerárquico, de forma que ya no se elige entre teoría y azar, sino entre
teoría y teoría. Es decir, en un primer momento la Ciencia es sólo
exploratoria, para volverse confirmatoria en la medida en que se
incrementa el conocimiento. Unos buenos datos precisan de buenas
hipótesis y de una teoría consistente para sobrevivir (Gigerenzer,
1993).
Algunos autores, ante la problemática del contraste de hipótesis, se
han cuestionado su completo abandono. Entre éstos podemos destacar
a Everitt (1996), quien, sin embargo, llega a la conclusión de que no se
usen de forma confirmatoria, sino en un sentido exploratorio, ya que
sirven de guía sobre la posible existencia de efectos interesantes. En
este sentido, recomienda seguir investigando las condiciones de apli-
cabilidad de los contrastes puesto que resulta muy adecuado saber si
el estadístico de contraste está siendo infra o sobrestimado. E incluso
se plantea la necesidad de seguir explicando contrastes de hipótesis a
los alumnos de los primeros cursos de Psicología, pues estas técnicas
continúan siendo el núcleo central de la literatura psicológica.
2. Análisis de varianza de un factor
completamente aleatorizado

2.1. Introducción
Podría decirse que el Análisis de Varianza #o, de forma abreviada,
ANVAR# constituye una de las técnicas de análisis estadístico con más
trascendencia en el ámbito de la Psicología. Si bien su nombre hace
referencia al estudio de la variabilidad observada en los datos tras su
recogida, se utiliza para comparar las medias de más de dos grupos,
por lo que puede considerarse como una extensión del contraste de
hipótesis de dos medias que ya conoce el lector.
Teniendo en cuenta esta última consideración, antes de introducir-
nos en esta técnica de análisis tan importante, nos parece oportuno
comenzar con un ejemplo que nos ayudará a entender los fundamentos
y mecanismos de este procedimiento.

Ejemplo 2.1. Supongamos que queremos comprobar si existen diferencias significati-


vas en el rendimiento (variable dependiente) en una tarea de destreza motora como
consecuencia del tiempo de práctica previo (variable independiente). Se prepara un
estudio que incluya dos situaciones experimentales: un grupo de sujetos ha de rea-
lizar la tarea sin tiempo de práctica previo y al otro se le permite cinco minutos de
24 Análisis de varianza

práctica antes de realizar la tarea. A todos los sujetos se les contabiliza el rendi-
miento mediante una prueba, se aplica la función descriptiva y se encuentra que,
por término medio, el grupo al que se le permitió cinco minutos de práctica presenta
mayor rendimiento.
Visto esto, podríamos preguntarnos: ¿Puede decirse que el tiempo de práctica
previo mejora el rendimiento de los sujetos? Para responder a esta pregunta no
basta con la estadística descriptiva. Podríamos decir que, aun cuando el tiempo de
práctica no mejorara el rendimiento, sería improbable que las medias de los dos
grupos fuesen idénticas. Alguna diferencia se debería observar, puesto que otras
variables que no hemos controlado (factores de azar) producirán, sin duda alguna,
diferentes medias.
La pregunta crucial, entonces, desde el punto de vista inferencial, sería ¿la dife-
rencia entre las medias es suficientemente grande como para descartar que se de-
be al azar? Dicho de otro modo, ¿existen diferencias significativas en el rendimiento
como consecuencia del tiempo de práctica previo? Si repitiésemos el estudio ¿po-
dremos predecir que la misma diferencia (la media obtenida tras un tiempo de prác-
tica antes de realizar la tarea es mayor que la obtenida sin tiempo de práctica pre-
vio) se presentará sistemáticamente? Pues bien, supongamos que hemos realizado
este pequeño experimento y que los resultados que hemos obtenido son los si-
guientes:

sin práctica previa 5 min. de práctica


1 5
2 3
2 5
0 6
3 1
Yj 1,6 4,0
~
S j2 1,3 4

Podemos observar que las medias difieren en las muestras estudiadas, siendo
mayor la del grupo al que se le ha permitido cinco minutos de práctica, pero nues-
tras dudas van más allá de estos sujetos y lo que realmente nos interesa saber es
si la media en la segunda condición experimental es significativamente mayor. Para
poder responder a esta cuestión no tenemos más que realizar el contraste de hipó-
tesis acerca de dos medias independientes, que ya conocemos.
Una vez planteadas las hipótesis estadísticas:

H0: µ2  µ1
H1 : µ2 > µ1

debemos tener en cuenta las condiciones poblacionales de partida, así como las
características muestrales para determinar la distribución muestral del estadístico
de contraste (en este caso,Y2 -Y1) que nos permita decidir acerca de H0. En nues-
tro experimento suponemos que la variable rendimiento se distribuye normalmente
en ambas poblaciones. Como las varianzas poblacionales son desconocidas y de
Análisis de varianza de un factor completamente aleatorizado 25

ellas depende el error típico de la distribución muestral deY2 -Y1, debemos reali-
zar un contraste de varianzas previo al contraste de hipótesis. Teniendo en cuenta
que las muestras son independientes, utilizamos como estadístico de contraste
~ ~
S 22 S12 = 3,08 , que sigue una distribución F-Fisher, con n2 - 1 = 4 grados de libertad
para el numerador y n1 - 1 = 4 grados de libertad para el denominador. La probabili-
dad asociada a este estadístico es igual a 0,301, por lo que suponemos que las va-
rianzas poblacionales, aun siendo desconocidas, no difieren significativamente (tra-
4
bajamos con un α = 0,05) .
Podemos ya continuar con el contraste de medias y, en este caso, el estadístico
de contraste t = 2,32 sigue una distribución t-Student con n1 + n2 - 2 = 8 grados de
libertad. Dado que la probabilidad asociada a este estadístico es menor que 0,05
decidimos rechazar la hipótesis nula de igualdad de medias poblacionales, conclu-
yendo que la práctica previa influye en el rendimiento en la tarea de destreza moto-
ra.

Ahora bien, en lugar de limitarnos a este experimento tan sencillo,


podríamos ir un poco más allá y estar interesados, no sólo en la exis-
tencia de diferencias en los grupos como consecuencia de la ausencia o
no de práctica previa a la tarea (que ya hemos visto que sí influye en el
rendimiento), sino que además nos puede interesar averiguar si existe
un efecto del tiempo de práctica sobre el rendimiento, en relación a
distintos minutos empleados e, incluso, averiguar cuál es la función
que relaciona el tiempo de práctica con el rendimiento (en el caso de
demostrar que sí hay una influencia).
De este modo, podemos complicar un poco más el diseño y, en lugar
de dos grupos, podemos construir aleatoriamente tres grupos: el pri-
mero, sin tiempo de práctica antes de realizar la tarea; el segundo, con
cinco minutos de práctica y el tercero, con diez minutos de práctica
antes de la prueba. Supongamos que en esta ocasión los datos que
hemos obtenido son los que aparecen a continuación.

Ejemplo 2.2. En este caso, vamos a trabajar con tres grupos porque, además de estar
interesados en si la ausencia o no de práctica previa influye en el rendimiento de
los sujetos, queremos averiguar si el rendimiento se ve afectado por el tiempo de
práctica antes de realizar la tarea.

4 Con respecto a esta conclusión, recordemos lo dicho a propósito en la introduc-

ción acerca de lo que supone no rechazar H0: el no rechazo no implica su acepta-


ción, simplemente la mantenemos para poder llevar a cabo el contraste de medias.
26 Análisis de varianza

0 min. práctica 5 min. práctica 10 min. práctica


1 5 5
2 3 4
2 5 7
0 6 5
3 1 2
Yj 1,6 4,0 4,6

Del mismo modo que ocurría en el Ejemplo 2.1, las medias vuelven a
ser diferentes. Para poder compararlas y determinar hasta qué punto
estas diferencias que hemos observado se deben al azar o al efecto del
tiempo de práctica antes de realizar la tarea, tenemos dos posibles
vías de actuación que pueden acercarnos a la respuesta:
En primer lugar, ya que disponemos de una herramienta conocida,
la prueba t-Student, podemos utilizarla y realizar contrastes entre los
grupos dos a dos, es decir, ir aplicando la prueba a cada una de las
diferencias de medias. Sin embargo, esta forma de proceder, que en
principio es la que aplicaríamos puesto que es la única que conoce-
mos, conlleva una serie de inconvenientes que conviene resaltar.
Por un lado, y como problema más inmediato, nos vamos a encon-
trar con una tarea un tanto ardua en lo que a cálculos se refiere,
puesto que disponemos de tres medias (correspondientes a cada uno de
los tres tratamientos) y esto ya supone que debemos realizar
j (j - 1)/2 = 3 (3 - 1)/2 = 3 contrastes5. Si en lugar de trabajar con tres
muestras lo hiciésemos con cuatro, deberíamos realizar seis compara-
ciones; en el caso de siete grupos, el número de contrastes se elevaría a
nada menos que ¡veintiún contrastes!, etc. Como vemos, antes de ter-
minar con los análisis el agotamiento podría terminar con nosotros.
No obstante, si nos mantuviésemos en el empeño de trabajar con la
prueba t-Student, a lo ya comentado, se añadiría otro problema impor-

5 Recordemos que, dados k elementos, todos los conjuntos distintos que podemos

formar con esos k elementos tomados de r en r (entendiendo que dos conjuntos son
distintos si difieren en uno, al menos, de sus elementos), viene dado por las combi-
naciones de orden r:

k!
Ck , r =
r!(k − r )!

Si r = 2,

k! k (k − 1)(k − 2)! k (k − 1)
Ck , 2 = = =
2!(k − 2)! 2 (k − 2)! 2
Análisis de varianza de un factor completamente aleatorizado 27

tante. Éste hace referencia al aumento de la probabilidad de cometer


el error tipo I inicial (α). Si en cada contraste fijamos de antemano,
por ejemplo, un α = 0,05, sabemos que ésta es la probabilidad de recha-
zar una hipótesis nula verdadera en cada uno de ellos, probabilidad,
por otro lado, que no queremos ver aumentada al finalizar nuestros
contrastes. Sin embargo, si debemos realizar tres contrastes, la proba-
bilidad de cometer al menos un error tipo I en los tres vendría dada
por6:

P(un error o más) = 1 – P(ningún error) =

 3! 
= 1 –  ⋅ 0,050 ⋅ 0,953  = 1 – 0,857 = 0,143
 0!(3 − 0)! 

Si trabajamos con cuatro muestras, esto significa seis contrastes y,


en este caso, la probabilidad de una decisión errónea (rechazar una
hipótesis nula verdadera) en al menos uno de ellos se eleva a 0,265
(Pruebe el lector a calcular esta probabilidad en el caso de siete, ocho
o más grupos). Como podemos ver, la probabilidad de cometer un error
tipo I va aumentando en la medida en que más grupos tenemos. Siendo
n el número de contrastes independientes, en general, esta probabili-
dad viene dada por 1 - (1 - α)n. Dado que no nos interesa aumentar el
nivel de significación del que partimos (llamado también tasa de
error), no parece adecuado utilizar la prueba t-Student en la compa-
ración de más de dos medias.
Además, hay otro aspecto que probablemente nos lleve a desestimar
la utilización de este contraste cuando trabajamos con más de dos
grupos. Si en lugar de trabajar con una única variable independiente
(el tiempo de práctica), nos interesara además tener en cuenta, por
ejemplo, la edad de los sujetos en el rendimiento, la prueba t-Student
nos puede servir para estudiar el efecto por separado sobre el rendi-
miento de cada una de estas variables. Sin embargo, no contempla la
posible interacción entre ellas y no podríamos saber, en este caso, si el
tiempo de práctica y la edad provocan un efecto nuevo sobre el rendi-
miento de los sujetos en la tarea de destreza motora, que no es la mera
adición de los efectos de las dos variables independientes.

6 En cada contraste, tenemos dos posibles resultados: cometer un error tipo I o no

cometerlo. La probabilidad de cometer un error tipo I es 0,05 (p = 0,05). Por tanto, q


= 1- p = 0,95. Además, tenemos que realizar tres contrastes (j = 3), que consideramos
independientes y en los que p y q permanecen constantes. Si definimos la variable X
como “número de errores tipo I en los 3 contrastes”, ésta se ajusta al modelo bino-
mial B(X; 3, 0,05). De este modo, la probabilidad de cometer al menos un error tipo I
en los tres contrastes viene dada por: P( X ∏ 1) = 1 - P(X < 1) = 1 - P(X = 0).
28 Análisis de varianza

Por último, siendo la variable independiente cuantitativa (como, en


nuestro ejemplo, el tiempo de práctica previo), resulta interesante
preguntarse por la forma de la relación entre las variables dependien-
te e independiente, lo que resulta muy útil para entender muchos
comportamientos, y para ello el contraste de dos medias no constituye
la técnica más idónea de utilización.
Por estas razones, la prueba t-Student, tan práctica en otras situa-
ciones experimentales, no resulta conveniente de cara a la compara-
ción de más de dos grupos.
Sin embargo, disponemos de otra herramienta, y esta sería nuestra
segunda vía de actuación, que sí nos permite analizar situaciones
como la que nos ocupa, y otras, que solventa los problemas que se nos
presentaban anteriormente. Esta técnica recibe el nombre de análisis
de varianza o, más comúnmente, ANVAR. De este instrumento de aná-
lisis estadístico trataremos a lo largo de todo el texto y veremos en qué
consiste, cuál es el modelo en el que se fundamenta, cuál es su alcance
de actuación, etc. Empezaremos por unas consideraciones generales y
presentaremos, en este capítulo, el modelo más sencillo.

2.2. Análisis de varianza


Introducida por Sir Ronald Fisher en 1925 con la publicación de
“Statistical Methods for Research Workers“ (Riba, 1987), causando
una gran impresión entre los psicólogos, esta técnica de análisis es
una extensión de la prueba t-Student a la comparación de medias de
más de dos grupos para comprobar si existen diferencias significati-
vas entre ellas.
En el ejemplo que planteábamos anteriormente acerca de la destre-
za motora (medida a partir de las puntuaciones obtenidas por los
sujetos en la tarea), disponíamos de tres grupos aleatorios con sus
correspondientes medias muestrales (Y1,Y2 yY3) diferentes entre sí y
la duda que nos surgía era si estas medias difieren lo suficiente como
para pensar que proceden de poblaciones con medias µ1, µ2 y µ3, respec-
tivamente, distintas, lo que significaría que los grupos difieren como
consecuencia del tiempo de práctica, o bien, si las diferencias obser-
vadas se deben sólo al azar y los grupos se han obtenido de poblacio-
nes con la misma media. Esta cuestión podríamos expresarla más
formalmente en términos que ya conocemos:

H0: µj = µ (Todas las medias poblacionales son iguales)

H1: µj ≠ µ (No todas las medias poblacionales son iguales)


Análisis de varianza de un factor completamente aleatorizado 29

Pues bien, el análisis de varianza pretende hacer inferencias sobre


las medias poblacionales, µ1, µ2 y µ3 (desconocidas) a partir de las
medias muestrales,Y1,Y2 yY3 (obtenidas experimentalmente) y, con-
cretamente, pone a prueba la hipótesis nula H0: µj = µ teniendo en
cuenta los resultados obtenidos en las tres muestras.
Sin embargo, por las razones aludidas anteriormente, la forma de
llevar a cabo el contraste, aunque resulte un tanto extraño, no va a ser
comparando las medias. ¿En qué va a consistir, entonces? Simplemen-
te, como el propio nombre de la técnica indica, vamos a analizar la
variabilidad observada en las puntuaciones. Veámoslo un poco más
detenidamente.
Si observamos las puntuaciones obtenidas en el Ejemplo 2.2 pode-
mos ver que no todas son iguales, ni siquiera dentro de cada grupo. ¿A
qué se debe esta variabilidad? Lo primero que se nos ocurre pensar es
que, puesto que hemos sometido a los grupos a diferentes condiciones
(el primero ha realizado la tarea sin tiempo de práctica previo, el
segundo ha tenido cinco minutos de práctica y, el tercero, diez minu-
tos), es lógico que el rendimiento sea distinto en cada grupo y esto dé
lugar a las diferentes puntuaciones en la tarea. Ciertamente, dentro
de cada grupo existen diferencias, pero estas se deben sólo al azar (por
mucho que controlemos el experimento este fenómeno siempre estará
presente) y lo que en realidad ha dado lugar a esa variabilidad obser-
vada en la destreza motora ha sido el efecto del tiempo de práctica
previo. En este caso, diríamos que las medias observadas son estadísti-
camente distintas o, dicho de otro modo, los grupos pertenecen a po-
blaciones distintas (con medias diferentes).
Sin embargo, también cabe pensar que las diferentes puntuaciones
obtenidas por los sujetos no se deban al hecho de someter a los grupos
a diferentes condiciones experimentales, sino al azar, a esos otros
factores extraños que no hemos controlado o tenido en cuenta en el
experimento (constituyen lo que se denomina error experimental). Por
ejemplo, podemos pensar que tal vez la variabilidad observada se
deba, no al tiempo de práctica, sino a otras variables como la edad, el
sexo de los sujetos, etc. De hecho, como señalábamos en el párrafo
anterior, si nos fijamos en las puntuaciones dentro de cada grupo,
éstas no son iguales como cabría esperar si sólo hubiese actuado la
variable tiempo de práctica previo. En este caso, deduciríamos que las
diferencias se deben al azar y no tendríamos razones para pensar otra
cosa que no ha habido un efecto de la variable que hemos manipulado
y que las muestras, por tanto, pertenecen a poblaciones con medias
iguales.
En cualquier caso, la varianza poblacional (σ2) es desconocida, pe-
ro podemos estimarla desde estas dos perspectivas y esto es precisa-
30 Análisis de varianza

mente lo que nos va a permitir desarrollar un estadístico para poder


llevar a cabo el contraste de hipótesis. Se trataría de realizar dos
estimaciones independientes de la varianza total descomponiendo la
variabilidad observada en el conjunto de todas las puntuaciones en
dos componentes:
1. Un componente debido a la variable estudiada. Será la parte de
varianza que se denominemos variabilidad intergrupo.
2. Otro componente debido a los factores extraños y no controlados
en el experimento. Será la parte de varizanza que denominemos va-
rianza intragrupo o varianza de error.
Si estos dos componentes no difieren apreciablemente, podemos
concluir que todas las medias grupales provienen de la misma pobla-
ción y, por tanto, las diferencias observadas se deben al azar. Por el
contrario, si ha habido un efecto de la variable independiente (el
tiempo de práctica) la variabilidad intergrupo habrá de ser significa-
tivamente mayor que la variabilidad intragrupo y, por lo tanto, con-
cluiremos que las medias provienen de poblaciones distintas, lo que
nos llevará a un rechazo de la hipótesis nula.
Más adelante, cuando veamos el primer modelo de ANVAR, profun-
dizaremos en este aspecto. Por el momento, baste esta aproximación
intuitiva para entender cómo de forma tan elegante, a decir de mu-
chos autores, el ANVAR resuelve eficazmente el problema de la compa-
ración de más de dos medias.

2.3. Modelos de ANVAR


Antes de presentar los distintos modelos de análisis de varianza, tal
vez sea conveniente ir familiarizándonos con algunos de los términos
utilizados dentro de este contexto. Por ejemplo, cuando nos referimos a
las variables independientes, es frecuente denominarlas factores y,
cuando hablamos de las distintas modalidades de los factores, lo
hacemos empleando el término de niveles. En el caso que nos ocupa, el
factor es el tiempo de práctica y sus tres niveles 0, 5 y 10 minutos de
práctica.
Llamaremos efecto a la influencia de cada nivel sobre las unidades
experimentales (generalmente, sujetos) de su grupo y error experimen-
tal a todos aquellos factores que influyen en nuestro experimento y que
no podemos controlar a pesar de llevarlo a cabo en las condiciones
más rigurosas. Como decíamos en el apartado anterior, los sujetos de
nuestro ejemplo presentan diferentes puntuaciones por el hecho de
estar sometidos a diferentes minutos de práctica, pero también esas
Análisis de varianza de un factor completamente aleatorizado 31

puntuaciones dispares pueden deberse a otros factores ajenos al expe-


rimento.
Por último, hablaremos de modelos equilibrados cuando las dife-
rentes muestras, o también condiciones experimentales o tratamientos,
tienen el mismo número de sujetos. Como ya se habrá adivinado, nues-
tro modelo es equilibrado.
El ANVAR ofrece muchas posibilidades de análisis, por lo que tam-
bién nos proporciona muchos y variados modelos. Precisamente por
esto, suelen hacerse diferentes clasificaciones. Nosotros vamos a seguir
a Pardo y San Martín (1994) en la presentación de los distintos mode-
los, de modo que lo haremos atendiendo al número de factores, al tipo
de aleatorización y al tipo de muestreo de niveles.
1. Así, dependiendo del número de factores, disponemos del modelo
de un factor (o modelo de clasificación simple, modelo de una vía, etc.)
cuando trabajamos con una sola variable independiente, como es el
caso de nuestro ejemplo.
Hablaremos del modelo de dos factores (o modelo de doble clasifi-
cación, modelo de dos vías, etc.) cuando sean dos las variables inde-
pendientes. Si son tres los factores, el modelo es de triple clasificación
o de tres vías, y así sucesivamente.
Normalmente, con dos o más factores se utiliza el término genérico
de modelos factoriales y suele emplearse una notación que indique
directamente el número de factores involucrados y el número de nive-
les de cada uno. En concreto, se designan como A x B x C x ..., donde el
número de multiplicandos indica el número de factores y los valores
de A, B, C, ... el número de niveles de cada uno. Por ejemplo, un diseño
factorial 3 x 2 x 4 será un diseño con tres factores: el primero con tres
niveles, el segundo con dos y el tercero con cuatro niveles. Al combinar-
los, tendremos un total de veinticuatro condiciones experimentales o
tratamientos (3 x 2 x 4 = 24).
2. Con respecto al muestreo de niveles, podemos clasificar los mode-
los de ANVAR en modelos de efectos fijos (o modelo I), modelos de
efectos aleatorios (o modelo II) o modelos mixtos (o modelo III). Vea-
mos.
De lo visto en el apartado anterior, deducimos que, según desee el
investigador ser más o menos minucioso, elegirá más o menos niveles
para sus factores. En cualquier caso, de cómo se realice la elección
dependerá el modelo. Si, por ejemplo, el investigador quiere probar la
eficacia de tres métodos de aprendizaje de lectura, puesto que su in-
tención es comprobar la existencia o no de diferencias significativas
32 Análisis de varianza

entre estos métodos concretos y no otros, el modelo con el que trabaja


es de efectos fijos.
Por el contrario, si existiesen multitud de métodos de aprendizaje
de lectura y sólo quisiera demostrar que el nivel de la misma depende
de cómo se aprenda, seleccionaría al azar unos pocos métodos de
aprendizaje de todos los posibles y llevaría a cabo el análisis, pero la
inferencia la realizaría sobre el total de los niveles. En este caso, nos
hallaríamos ante un modelo de efectos aleatorios.
Por último, cuando en el diseño intervienen más de un factor, sien-
do alguno de ellos de efectos fijos y otros de efectos aleatorios, se dice
que el diseño es de efectos mixtos.
Volviendo a nuestro ejemplo, dado que los niveles 0, 5 y 10 minutos
de práctica son aquellos sobre los que nos interesa realizar la inferen-
cia estadística, decimos que es un ANVAR de un factor de efectos fijos.
3. Para terminar con la clasificación, podemos dividir los modelos
de ANVAR según el tipo de aleatorización, es decir, según cómo asig-
nemos a los sujetos a las distintas condiciones experimentales.
Cuando disponemos de un grupo de sujetos y, siguiendo algún mé-
todo aleatorio, los adjudicamos a cada tratamiento de forma que cada
sujeto pasa por una sola condición experimental, nos encontramos
ante un modelo completamente aleatorizado. En estos diseños, el nú-
mero total de observaciones coincide con el número total de sujetos
experimentales.
Por su parte, los diseños de medidas repetidas son aquellos en los
que un único grupo de sujetos recibe la totalidad de los tratamientos,
en otras palabras, pasa por todas las condiciones experimentales. En
este tipo de diseño, el número total de observaciones no coincide, lógi-
camente, con el número de sujetos utilizados.
La diferencia entre ambos diseños es la forma de manejar el error
experimental. En el caso de los diseños completamente aleatorizados,
precisamente por asignar aleatoriamente a los sujetos a cada condi-
ción, es de esperar que todas las variables extrañas actúen por igual
sobre las unidades experimentales, de forma que estén distribuidas
homogéneamente entre los grupos y estos sean equivalentes. En los
diseños de medidas repetidas, la parte del error experimental que se
debe a las diferencias individuales puede ser apresada por el hecho de
utilizar los mismos sujetos en todos los tratamientos y el resultado es
que el error queda disminuido.
En el ejemplo sobre el rendimiento a partir del tiempo de práctica,
estamos utilizando tres grupos de sujetos independientes, cada uno de
los cuales pasa por una condición experimental. Como tenemos 5
Análisis de varianza de un factor completamente aleatorizado 33

sujetos por grupo, en total son 15 las observaciones resultantes. Pode-


mos completar ya el nombre de nuestro modelo: ANVAR de un factor de
efectos fijos completamente aleatorizado.
Un diseño intermedio entre estos dos sería el caso de los diseños por
bloques. Aquí la forma de controlar el error experimental es utilizan-
do grupos homogéneos en alguna variable de la que podemos sospe-
char una influencia perniciosa en los resultados. Una vez tengamos
divididos a los sujetos en grupos igualados con respecto a esa variable
(o bloques), los asignamos aleatoriamente a cada tratamiento y de
esta manera en todas y cada una de las condiciones tendremos sujetos
de todos los bloques. Por ejemplo, sospechando que la edad puede ser
una variable que empañe los resultados en el rendimiento de los suje-
tos de nuestro ejemplo, podríamos hacer grupos según la edad y a
continuación someter a los sujetos aleatoriamente a las diferentes
condiciones experimentales de tiempo de práctica.
En cualquier caso, el método de aleatorización será eficaz siempre y
cuando manejemos tamaños muestrales lo suficientemente grandes
como para garantizar que las variables extrañas queden efectivamen-
te bien repartidas entre los grupos.
Todos los diseños son igualmente pertinentes en la investigación.
Sus ventajas e inconvenientes los veremos a medida que los vayamos
presentando. Simplemente, decir que la elección de uno u otro diseño
dependerá del experimentador, de cuántas variables quiere utilizar en
su estudio, cuáles ha de controlar, de cuántos sujetos va a disponer,
etc.
Para finalizar, vamos a presentar un cuadro resumen de la clasifi-
cación realizada anteriormente:

número de factores modelos de un factor


modelos factoriales
muestreo de niveles modelos de efectos fijos
modelos de efectos aleatorios
modelos mixtos
tipo de aleatoriza- modelos completamente aleatoriza-
ción dos
modelos de medidas repetidas
modelos por bloques
34 Análisis de varianza

2.4. Modelo de un factor completamente aleato-


rizado
Visto el objetivo del análisis de varianza y la forma general en la que
opera este procedimiento estadístico, vamos a comenzar este tema con
el modelo más sencillo, el modelo de un factor, cuya finalidad prima-
ria es comprobar la efectividad de más de dos niveles sobre un criterio
común.
En la introducción partimos del ejemplo sobre el rendimiento en
una tarea de destreza motora, donde asignábamos aleatoriamente a
15 sujetos a 3 niveles de la variable tiempo de práctica con el fin de
determinar si ésta tiene un efecto significativo sobre la variable de-
pendiente. Este diseño lo englobaríamos, según la clasificación que
hicimos, dentro de lo que hemos denominado diseño de un factor,
completamente aleatorizado, de efectos fijos, dado que estudiamos un
único factor (tiempo de práctica), los 15 sujetos son asignados aleato-
riamente a los tres niveles del factor y estos tres niveles son aquellos
sobre los que queremos realizar las inferencias estadísticas.
Para referirnos a los datos de este ejemplo, y a otros correspondien-
tes a diseños del mismo tipo, podemos utilizar una notación de carác-
ter general que nos va a permitir introducir este modelo de ANVAR.

2.5. Estructura y notación de los datos


Así, si partimos de un grupo de N sujetos distribuidos aleatoriamente
en los J niveles en los que se ha dividido el factor A, los resultados
obtenidos tras la realización del experimento se pueden expresar de la
siguiente manera:
Análisis de varianza de un factor completamente aleatorizado 35

niveles A1 A2 ... Aj ... AJ


Y11 Y12 Y1j Y1J
Y21 Y22 Y2j Y2J
... ... ... ... ... ...
observaciones Yi1 Yi2 ... Yij ... YiJ
... ... ... ... ... ...
Yn11 Yn22 Ynjj YnJJ
nº de sujetos n1 n2 ... nj ... nJ N
total de puntuacio- T1 T2 ... Tj ... TJ T
nes
medias Y1 Y2 ... Yj ... YJ Y

donde
i: 1, 2, ..., nj (hace referencia a los sujetos)
j: 1, 2, ..., J (hace referencia a los niveles)
Yij: puntuación del sujeto i perteneciente al nivel Aj
nj: número de sujetos en el nivel Aj
N: número total de sujetos en el experimento:

J
N = ∑nj
j =1

Tj: suma de puntuaciones de los sujetos del nivel Aj:

nj

T j = ∑ Yij
i =1

T: suma total de todas las puntuaciones:

J nj J
T = ∑Tj = ∑ ∑Y ij
j =1 i =1 j =1

Yj: media de las puntuaciones correspondientes al nivel Aj:

nj

Tj ∑Y ij
Yj = = i =1

nj nj
36 Análisis de varianza

Y: media total de todas las puntuaciones:

T
Y =
N

Esta forma de expresarnos hace referencia, claramente, a datos


muestrales. Si queremos referirnos a la población, en lugar de los
estadísticosYj,Y, etc., hablaremos de los parámetros µj, µ, etc.
Veamos entonces como quedaría expresado nuestro ejemplo sobre el
rendimiento motor.

Ejemplo 2.3. Con nuestros datos:

0’ 5’ 10’
1 5 5
2 3 4
2 5 7
0 6 5
3 1 2
nj 5 5 5 15
Tj 8 20 23 51

Yj 1,6 4,0 4,6 3,4

2.6. Modelo
Podemos introducir ya el modelo correspondiente al diseño de un
factor de efectos simples completamente aleatorizado que, teniendo en
cuenta el modelo lineal en el que se fundamenta el ANVAR, expresa el
valor de la variable dependiente Y observada en el sujeto i sometido al
tratamiento j como la suma de tres componentes:

Yij = µ + αj + εij

donde µ es el promedio de todas las puntuaciones en la población. Esta


media también viene dada como el promedio de las medias de las
subpoblaciones (µj) correspondientes a cada uno de los niveles en los
que se ha dividido la variable independiente:

µ=
∑ j
nj ⋅ µ j
∑ nj
Análisis de varianza de un factor completamente aleatorizado 37

que no es más que una media ponderada, con pesos n1, n2, ..., nj, de las
medias µ1, µ2, ..., µj.
Puesto que cada sujeto ha sido asignado a un tratamiento concreto
(Aj), es posible que se vea influido por el efecto específico de ese trata-
miento y no de otro. Por eso, a la media total hay que sumar un com-
ponente (αj) que indique esa posible influencia. Este efecto, propio del
nivel Aj sobre la puntuación Yij, podemos definirlo, por tanto, como:

αj = µj - µ

Démonos cuenta del hecho de que este componente no es más que


una puntuación diferencial, por tanto, ∑ α j = ∑( µ j − µ ) = 0 . Es decir, el
efecto de unos tratamientos se compensa con el efecto de otros y siem-
pre va a ocurrir que la suma de todos ellos es igual a cero.
Dado que el investigador pretende averiguar si los niveles en los
que se divide la variable independiente (en nuestro ejemplo eran los
distintos minutos de práctica) tienen un efecto sobre la variable de-
pendiente (rendimiento motor), recordemos que la hipótesis nula que
somete a comprobación es la de igualdad de medias poblacionales, es
decir:

H0 : µ1 = µ2 = ... = µj = ... = µJ

Esto es lo mismo que decir que el efecto de los distintos tratamientos


(αj) es nulo, por lo que podemos escribir la hipótesis nula de otra ma-
nera, concretamente como:

H0 : α1 = α2 = ... = αj = ... = αJ

O, también (y teniendo en cuenta que la suma de los efectos es igual


a cero):

H 0 : ∑ j α 2j = 0

Estas tres formas de escribir la H0 expresan lo mismo y mediante la


técnica del ANVAR comprobaremos o no su falsedad.
Por otro lado, cuando realicemos experimentos de este tipo, podre-
mos observar que no sólo las puntuaciones son diferentes entre los
distintos niveles como consecuencia del efecto propio del tratamiento
(αj), sino que además, dentro de cada nivel no todas son iguales a su
media (µj). Esto quiere decir que distintos factores de carácter aleato-
rio están actuando además del que estamos estudiando (minutos de
38 Análisis de varianza

práctica) y dan lugar a esas diferencias entre las puntuaciones dentro


de un mismo grupo. Por tanto, volviendo al modelo planteado, debemos
añadir a la ecuación lo que denominaremos término de error (εij).

2.6.1. ANVAR de un factor como un caso particular del


modelo lineal general
Según acabamos de ver, el modelo de ANVAR de un factor de efectos
fijos completamente aleatorizado responde a la siguiente formulación:

Yij = µ + αj + εij

donde µ es la media de todas las puntuaciones, αj el efecto propio del


nivel al que pertenece el sujeto y εij es la distancia de la puntuación a
la media de su grupo.
Démonos cuenta de que siendo J el número de grupos, podemos co-
dificar la pertenencia del sujeto a cada uno de los grupos mediante
variables mudas (dummy variables), de tal forma que cada una de
ellas tenga sólo dos valores: 1, si el sujeto pertenece al grupo y 0, si el
sujeto no pertenece. De este modo, podemos reescribir el modelo en
función de las nuevas variables:

Yij = µX0 + α1X1 + ... + αjXj + ... + αJXJ + εij

donde
X0 siempre vale 1
X1 vale 1 si el sujeto pertenece al nivel j y 0 si no pertenece.
Por ejemplo, para el sujeto 2 perteneciente al nivel 3 tendríamos:

Y23 = µ ⋅ 1 + α1 ⋅ 0 + α2 ⋅ 0 + α3 ⋅ 1 + ... + αj ⋅ 0 + ... + αJ ⋅ 0 + ε23 =

=µ + α3 + ε23

El modelo escrito anteriormente tiene la misma expresión que el


modelo de regresión múltiple para una variable criterio y J variables
predictoras. En efecto, la ecuación planteada representa una ecuación
de regresión de Y sobre X0, X1, ..., Xj, ..., XJ, siendo estas variables indi-
cadores de variables o dummy variables (Riba, 1987).
Así pues, el modelo de análisis de varianza se puede expresar como
un modelo lineal de regresión de Y sobre las variables indicadoras. De
hecho, podríamos estimar los parámetros αj del modelo, calcular la
Análisis de varianza de un factor completamente aleatorizado 39

significación de la regresión y obtendríamos los mismos resultados que


en el análisis de varianza que vamos a ver.
Además, la ecuación estructural planteada anteriormente se dedu-
ce de la ecuación del modelo lineal general cuya expresión es (Riba,
1987):

Yi = θ0 + θ1Xi1 + ... + θjXij + ... + θmXim + εi

donde
Yi es el valor observado en la variable dependiente Y para el sujeto
i;
θ0 es el valor del parámetro constante;
θ1 son los distintos parámetros del modelo: los efectos, en el contexto
del análisis de varianza, o los coeficientes de regresión, en el con-
texto del análisis de regresión;
Xj son los valores de las variables indicadoras, en el contexto del
análisis de varianza, o predictoras, en el contexto del análisis de
regresión;
εi es el error aleatorio correspondiente a la observación Yi.

2.7. Supuestos del modelo


Como siempre que se lleva a cabo un contraste de hipótesis, necesita-
mos establecer las condiciones o supuestos bajo los cuales el estadísti-
co de contraste nos permitirá tomar decisiones acerca de la hipótesis
nula planteada. Esto es muy importante ya que de su cumplimiento o
no dependerá que las decisiones sobre la hipótesis nula sean más o
menos acertadas.
El ANVAR, como cualquier otra técnica paramétrica, está sujeta a
una serie de restricciones que, en breve, comentaremos. Antes tal vez
convenga recordar que las pruebas paramétricas, en general, son más
potentes que las no paramétricas, es decir, tienen mayor capacidad
para rechazar una hipótesis nula falsa. Por el contrario, son menos
robustas que las no paramétricas, lo que significa que, de violarse los
supuestos a los que están sometidas, es más fácil alterar la distribu-
ción muestral del estadístico de contraste. El ANVAR, sin embargo, a
pesar de ser una prueba paramétrica sujeta a una serie de restriccio-
nes, es bastante robusta y el hecho de que no se cumplan estrictamente
sus supuestos no va a producir consecuencias serias si las muestras
son equilibradas y se trabaja con un modelo de efectos fijos.
40 Análisis de varianza

Como ya hemos señalado, el ANVAR no es más que una versión es-


pecífica del modelo lineal general, de manera que deberá cumplir los
supuestos básicos de este modelo. Además, pone a prueba la existencia
o no de un efecto de la variable independiente sobre la dependiente,
por lo que deberá cumplir también las condiciones que permitan
obtener la distribución muestral del estadístico de contraste que se
utiliza en la prueba estadística (Riba, 1987).
Los supuestos que debe cumplir teniendo en cuenta el modelo lineal
en el que se fundamenta son:
1. Especificación completa del modelo.
2. Aditividad del modelo.
3. Esperanza matemática de los errores igual a cero.
Además, para poder realizar el contraste de hipótesis sobre diferen-
cias de medias, se deben cumplir las siguientes condiciones:
1. Independencia de las puntuaciones (o de los errores).
2. Normalidad de las observaciones (o de los errores).
3. Homogeneidad de varianzas de las subpoblaciones.
A continuación, vamos a ver cada uno de estos supuestos de forma
más detallada, qué técnicas podemos utilizar para probarlos, qué
ocurre cuando se violan y qué soluciones existen para solventar los
problemas que se deriven de su incumplimiento.

2.7.1. Especificación completa del modelo


Según sabemos, el modelo más simple de ANVAR responde a la si-
guiente formulación:

Yij = µ + αj + εij

que no es más que una expresión específica, como ya hemos señalado


anteriormente, del modelo lineal general7:

Yij = µ X0 + α1 X1 + ... + αj Xj + ... + αJ XJ + εij

donde X0 vale 1;

7 Conviene señalar que en el contexto del análisis de varianza cuando hablamos

de linealidad nos referimos a aditividad, no a relación lineal entre dos variables en


el sentido de ajuste a una recta. En el apartado siguiente hablaremos de esta idea.
Análisis de varianza de un factor completamente aleatorizado 41

Xj vale 1 si el sujeto pertenece al nivel j y 0 si no pertenece.


Siguiendo a Riba (1987), se da la circunstancia de que numerosos
investigadores, preocupados por descubrir diferencias entre los grupos
experimentales, no incluyen todas las variables relevantes en la ecua-
ción y, en consecuencia, el término de error se ve incrementado por la
variabilidad correspondiente a la variable omitida. El resultado final
es que las pruebas de significación que se lleven a cabo se verán afec-
tadas.
Una forma de comprobar el cumplimiento o no de este supuesto es
centrando nuestra atención en los errores. Si existe una variable que
no ha sido especificada en el modelo, los errores no son independientes
de las observaciones, lo que puede constatarse o bien en una relación
significativa entre errores y observaciones, o bien en una representa-
ción gráfica de los primeros en función de los segundos, representa-
ción en la que no se verá reflejada la aleatoriedad de los errores.

2.7.2. Aditividad del modelo


El modelo de ANVAR del que partimos, Yij = µ + αj + εij , involucra tres
componentes cuya relación es aditiva: cada observación (Yij) es igual a
la media total de la variable dependiente (µ), más un término que
refleja la desviación de la media de cada grupo con respecto a la
media total (αj), más lo que se desvía la observación de la media de su
grupo (εij)
Podemos saber si esta relación se cumple analizando los efectos αj.
Si, por ejemplo, el incremento de αj en una cantidad fija no supone el
incremento de Yij en esa misma cantidad, sino en una determinada
proporción, la relación es multiplicativa, es decir, Yij = µ αj + εij. Una
solución a este problema consistiría en la transformación de los datos
brutos, Yij, en sus correspondientes logaritmos, logYij:

Y’ij = logYij = log µ + log αj + log εij

que convierte a los componentes multiplicativos en aditivos, como


exige el modelo.

2.7.3. Esperanza matemática de los errores


Dado que los errores constituyen las desviaciones de las puntuaciones
con respecto a la media de su grupo, cabe esperar que su media sea
cero. En efecto:
42 Análisis de varianza

[ ]
E (ε ij ) = E (Yij − µ − α j ) = E Yij − µ − ( µ j − µ ) = E (Yij − µ j ) = µ j − µ j = 0

Dado que en todo experimento la presencia de factores aleatorios


no controlados es inevitable, los errores siempre están presentes, no
obstante, unos se compensan con otros y, a la larga, es de esperar que
se anulen.
Cuando esto no sucede, las puntuaciones están sesgadas. Ahora
bien, esta circunstancia, que afecta al modelo en el que se fundamenta
el ANVAR puesto que indica una falta de linealidad entre la variable
dependiente e independiente, no es tan grave en el contraste de dife-
rencias de medias, ya que si asumimos que el sesgo se presenta por
igual entre los distintos niveles experimentales, “la diferencia entre
las estimaciones sesgadas de dos efectos será la misma que entre las
estimaciones no sesgadas” (Riba, 1987; pág. 125). De esta condición
volveremos a hablar más adelante.

2.7.4. Independencia de las observaciones


Este supuesto implica la selección aleatoria de los sujetos objeto de
estudio. La independencia de las puntuaciones Yij se consigue cuando
cada una de ellas ha sido extraída aleatoriamente de la población. A
pesar de que este procedimiento asegura que los sujetos representen
bien a la población y, por ende, se pueda realizar una buena generali-
zación de los resultados obtenidos de los análisis estadísticos, por
diversas razones (economía de tiempo y dinero; interés del investiga-
dor centrado, más que en la representación de los sujetos, en detectar
el efecto de la variable independiente sobre la dependiente, etc.) no es
el método más utilizado en los experimentos. Normalmente se parte de
una muestra elegida por su mayor disponibilidad (lo que no implica
que sea cualquier muestra) y se asignan los sujetos a los niveles de la
variable independiente de forma aleatoria, de manera que las varia-
bles extrañas quedan controladas.
En cualquier caso, ha de lograrse la independencia de las observa-
ciones puesto que la violación de este supuesto trae consecuencias
graves: rechazaremos una hipótesis nula con mayores niveles de signi-
ficación de lo que en realidad justifican los datos.
Una forma de comprobar si las puntuaciones son independientes es
aplicando el coeficiente de correlación serial de separación 1 o bien el
test de rachas a las mismas. Este último es muy utilizado y consiste en
comprobar si el número de rachas (se entiende por racha cualquier
secuencia de observaciones que están por encima o por debajo de la
mediana, por ejemplo) es el cabe esperar por mero azar. Si vemos que
Análisis de varianza de un factor completamente aleatorizado 43

no se cumple el supuesto podemos transformar los datos brutos en sus


logaritmos, sin embargo, es la restricción más fácil de conseguir me-
diante un proceso adecuado de aleatorización.
El hecho de que las puntuaciones sean independientes implica que
también los errores lo sean, puesto que partimos de un modelo en el
que la v.a. 0ij está en función de la v.a. Yij.

2.7.5. Normalidad de las observaciones


Bajo este supuesto las observaciones, Yij, y, por tanto, también los
errores, εij, de cada nivel o tratamiento Aij pertenecen a poblaciones
cuya distribución sigue el modelo normal, con medias µj y 0, respecti-
vamente. En efecto:

[ ( )] ( )
E (ε ij ) = E (Yij − µ − α j ) = E Yij − µ − µ j − µ = E Yij − µ j = µ j − µ j = 0

[ ]
E (Yij ) = E ( µ + α j + ε ij ) = E µ + ( µ j − µ ) + ε ij = E ( µ j ) + E (ε ij ) = µ j

Hay muchas pruebas que nos permiten probar este supuesto: pode-
mos, por ejemplo, representar gráficamente las frecuencias acumula-
das para ver si obtenemos una línea recta. No obstante, este procedi-
miento tiene poca utilidad porque requiere muchas observaciones.
Otro procedimiento sencillo sería calcular los índices de asimetría y
apuntamiento de las distribuciones. Sin embargo, como ocurre con el
procedimiento anterior, no resulta muy útil puesto que también re-
quiere muchas observaciones.
Dentro de las pruebas no paramétricas para comprobar la bondad
de ajuste de los datos a la distribución normal tenemos a disposición
dos que resultan de gran utilidad a nuestros propósitos: el contraste
Kolmogorov-Smirnov y el contraste de Lilliefors. Cabe señalar que el
contraste χ2, tan utilizado en muchas situaciones, aquí no resulta
práctico porque requiere tamaños muestrales mayores de 600.
No obstante lo dicho, el ANVAR permanece robusto frente a la vio-
lación de este supuesto, no incrementándose la probabilidad de come-
ter el error tipo I, sobre todo en modelos de efectos fijos. Sí tendrá
mayor influencia en las pruebas que se utilizan para comprobar el
supuesto que viene a continuación. En el caso de necesitar la normali-
dad de los datos, una transformación logarítmica nos ayudará a
obtenerla.
44 Análisis de varianza

2.7.6. Homogeneidad de varianzas


Dentro de cada nivel Aj las puntuaciones se ven influidas, por un lado,
por el efecto propio del tratamiento y, por otro, por las variables ex-
trañas (error experimental). Como el efecto del tratamiento es el mis-
mo para todos los sujetos, la variación observada entre las puntuacio-
nes se deberá a esos factores no controlados. Es decir:

σ 2j = σ 2ε

Además, si el proceso de aleatorización ha sido adecuado, cabe es-


perar que las variables extrañas actúen por igual en todos los niveles,
con lo que:

σ 21 = σ 22 = ... = σ 2j = ... = σ 2J = σ 2ε

suponemos que todas las muestras proceden de subpoblaciones con


idéntica varianza. Si esto es así, entonces todas estas varianzas son
iguales a la varianza poblacional:

σ 21 = σ 22 = ... = σ 2j = ... = σ 2J = σ 2ε = σ 2

Para comprobar si las varianzas son homogéneas podemos aplicar


el contraste de Bartlett o el contraste de Cochran. El primero es muy
eficaz, pero sensible al incumplimiento del supuesto de normalidad de
las puntuaciones, tanto que resulta una excelente prueba para com-
probar este supuesto de normalidad por sí solo. Se trataría de compa-
rar el logaritmo de la media de las varianzas muestrales con la media
de sus logaritmos. El segundo es aplicable a modelos equilibrados y, al
igual que el primero, es sensible a la no normalidad de las puntuacio-
nes. Consiste en comparar la mayor varianza muestral con un prome-
dio del resto de las varianzas. Si la falta de normalidad en las pun-
tuaciones es notoria podemos realizar un ANVAR con los logaritmos
de las cuasivarianzas, pero este procedimiento exige una etapa de
submuestreo.
Por el contrario, el contraste de Levene no es sensible a la falta de
normalidad. Se trataría simplemente de realizar un ANVAR con las
puntuaciones diferenciales en valor absoluto de las observaciones,
puntuaciones que se obtienen restando a cada observación la media de
su grupo.
El ANVAR permanece robusto ante el incumplimiento de este su-
puesto, siempre que los tamaños muestrales sean iguales. Cuando los
tamaños muestrales sean desiguales, correspondiéndose los de menor
Análisis de varianza de un factor completamente aleatorizado 45

tamaño con varianzas mayores (y al revés), la prueba F se torna libe-


ral, es decir, se produce un incremento de la probabilidad de cometer
el error tipo I, se infla el α; cuando al las muestras de mayor tamaño
les corresponde las varianzas también mayores, la prueba se vuelve
liberal (Hernández, Borges y Ramírez, 1996). Para solucionar estos
problemas, podemos realizar una transformación de los datos.

2.8. Estimación de los términos del modelo


A partir del modelo establecido y de sus supuestos, podemos expresar
la ecuación propuesta de otra manera:

Yij = µ + αj + εij = µ + (µj - µ) + (Yij - µj)

El problema que nos surge es el hecho de venir expresada la ecua-


ción en términos de parámetros, que son desconocidos y debemos esti-
mar. De las distintas maneras disponibles para obtener los estimado-
res, vamos a presentar el método de los mínimos cuadrados, que ya
resulta familiar al lector. Así, vamos a tratar de estimar los valores de
µ, αj y εij de modo que la suma de los errores cuadráticos sea mínima,
es decir, ∑∑ i j
(Yij − µ − α j )2 sea mínimo.

2.8.1. Estimador del parámetro µ

Basta con resolver la ecuación


δ
δµ
[∑ ∑ (Y
i j ij − µ −α j ) ]= 0 .
2

Desarrollando esta derivada parcial con respecto a µ tenemos:

(
− 2∑i∑ j Yij − µ − α j = 0 )
∑ ∑ (Y i j ij − µ −α j )= 0
∑∑ Y −∑∑ µ −∑ ∑ α = 0
i j ij i j j j j

∑ ∑ Y − nµ − ∑ n α = 0
i j ij j j j

∑ ∑ Y − nµ = 0 j j ij

de donde

∑∑ Y ij
µ̂ = =Y
i j

n
46 Análisis de varianza

2.8.2. Estimador del parámetro αj

Basta con resolver la ecuación


δ
δα j
[∑ ∑ (Y
i j ij − µ −α j ) ]= 0 .
2

Desarrollando esta derivada parcial con respecto a αj tenemos:

(
− 2∑ j Yij − µ − α j = 0 )
∑Y j ij − n j µ = n jα j

Sustituyendo µ por su estimadorY:

∑Y j ij − n j Y = n jα j

∑Y ij − n jY
αj =
j

nj

de donde

α̂ j = Y j − Y

2.8.3. Estimador de εij


Despejando εij de la ecuación Yij = µ + αj + εij tenemos

ε ij = Yij − µ − α j

sustituyendo µ y αj por sus estimadores

ε ij = Yij − Y − Y j + Y

de donde

ε ij = Yij − Y j

Volviendo a la ecuación presentada al principio de este apartado:

Yij = µ + αj + 0ij = µ + (µj - µ) + (Yij - µj)


Análisis de varianza de un factor completamente aleatorizado 47

podemos reescribirla sustituyendo sus parámetros por los estimadores


muestrales que acabamos de obtener. De este modo,
si Yij = µ + (µj - µ ) + (Yij - µj ) es válida en la población
Yij=Y + (Yj -Y ) + (Yij -Yj ) es válida en la muestra
Llegados a este punto, nos vamos a detener un momento para reto-
mar nuestros objetivos y ver qué hemos obtenido hasta ahora, antes de
que “los árboles no nos dejen ver el bosque”. Nuestra finalidad es
determinar si distintos niveles de la variable independiente o trata-
mientos que estamos estudiando tienen un efecto sobre la variable
dependiente de interés. Para ello, debemos realizar un contraste de
hipótesis sobre las medias correspondientes a las diferentes subpobla-
ciones. Sin embargo, como hemos podido ver, este contraste se realiza
descomponiendo la variabilidad observada en el conjunto de las pun-
tuaciones en dos componentes: la que se debe a la variable estudiada,
varianza intergrupo, y la debida a factores extraños y no controlados
por el experimentador, varianza de error o intragrupo (ambas, esti-
maciones independientes de la misma varianza poblacional). En la
medida en que la variabilidad intergrupo sea significativamente
mayor que la intragrupo, podremos concluir que ha habido un efecto
de la variable independiente sobre la dependiente.
Por el momento, hemos presentado el planteamiento de la hipótesis
nula, el modelo de ANVAR en el que se fundamenta este análisis esta-
dístico y los supuestos que se deben cumplir. Además, dado que traba-
jamos con datos muestrales, a partir del método de los mínimos cua-
drados hemos podido sustituir los parámetros del modelo por sus
correspondientes estimadores.
Como vemos, estamos siguiendo los pasos habituales de un contras-
te de hipótesis y, dado que ya disponemos del modelo y sus supuestos,
nuestro siguiente paso es determinar el estadístico de contraste que
nos permita tomar decisiones acerca de la hipótesis nula de igualdad
de medias o efecto nulo de la variable independiente o factor. Veamos,
pues, cómo se llega a él.

2.9. Descomposición de la varianza total en sus


componentes aditivos
El apartado anterior lo finalizábamos con la siguiente expresión:

Yij=Y + (Yj -Y ) + (Yij -Yj )

donde Yij es la puntuación del sujeto i perteneciente al nivel j


48 Análisis de varianza

Y es la media del conjunto de todas las puntuaciones


Yj es la media del nivel j al que pertenece el sujeto
Podemos restar a dicha puntuación la media totalY, de forma que:

Yij -Y = (Yj -Y ) + (Yij -Yj )

Esta expresión nos indica lo que se desvía una puntuación concre-


ta, Yij, de la media del total de las puntuaciones,Y. Esta variación
total vemos que se puede descomponer en dos componentes aditivos: el
primero nos indica lo que se desvía la media del grupo,Yj, al que
pertenece la puntuación, de la media total y el segundo componente
nos indica lo que desvía la puntuación de la media de su grupo.
Si en lugar de referirnos sólo a una observación lo hacemos con el
conjunto de todas las observaciones, la expresión anterior quedaría
como sigue:

∑ ∑ (Y
i j ij −Y ) =∑ ∑ [(Y
2
i j j ) (
− Y + Yij − Y j )]2

Téngase en cuenta que hemos tenido que elevar al cuadrado los dos
miembros de la ecuación porque, como sabemos, la suma de puntua-
ciones de desviación es igual a cero y elevando al cuadrado evitamos
que se anulen las diferencias. Vamos a desarrollar el cuadrado de la
parte derecha de la ecuación:

∑ ∑ [(Y ) ( )] 2
i j j − Y + Yij − Y j =

= ∑i ∑ j Y j − Y [( ) + 2(Y
2
j )(
− Y Yij − Y j + Yij − Y j ) ( ) ]=
2

= ∑i ∑ j Y j − Y ( ) + 2∑ ∑ (Y − Y )(Y
2
i j j ij ) (
− Y j + ∑i ∑ j Yij − Y j )
2

Puesto que 2∑i ∑ j Y j − Y Yij − Y ( )( ) es la suma de puntuaciones de des-


viación, queda anulado. Además, Y j − Y ( )
2
es constante para cualquier
valor de i (i = 1, 2, ..., nj), por lo que la ecuación queda expresada como:

∑ ∑ (Y ) = ∑ n (Y ) + ∑ ∑ (Y )
2 2 2
i j ij −Y j j j −Y i j ij − Yj

∑ ∑ (Y )
2
El miembro de la izquierda j j ij −Y representa (del mismo mo-
do que sucedía con un sujeto) la desviación del conjunto de las pun-
Análisis de varianza de un factor completamente aleatorizado 49

tuaciones con respecto a la media total. Lo llamaremos, por tanto,


variabilidad total.

∑ n (Y )
2
Por su parte, j j j −Y nos indica cuánto se desvían las medias
de los grupos de la media total, refleja la variabilidad intergrupo.

∑ ∑ (Y )
2
Por último, i j ij − Yj es un indicador de la desviación de cada
puntuación con respecto de la media de su grupo, por tanto, lo llama-
remos variabilidad intragrupo o error (recordemos que es el error
experimental el que da lugar a que las puntuaciones Yij no sean igua-
les dentro de cada grupo).
Dado que los tres miembros de la ecuación constituyen sumas de di-
ferencias cuadráticas, podemos hablar en estos términos, es decir,
suma cuadrática total, suma cuadrática intergrupo y suma cuadráti-
ca intragrupo, respectivamente:

SCtotal = SCinter + SCintra

En definitiva, la suma cuadrática total se puede descomponer en


dos componentes aditivos: la suma cuadrática inter y la suma cuadrá-
tica intra.

2.10. Grados de libertad


Volviendo a la ecuación

∑ ∑ (Y ) = ∑ n (Y ) + ∑ ∑ (Y )
2 2 2
i j ij −Y j j j −Y i j ij − Yj

vamos a detenernos en cada uno de sus miembros a fin de determinar


los grados de libertad asociados a cada uno de ellos.
Recordemos que elevando al cuadrado cada una de las sumas de
diferencias evitábamos su anulación. De otro modo, ocurriría, por
( )
ejemplo, que ∑i ∑ j Yij − Y = 0 . Fijémonos en el hecho de que, para que se
verifique que esta suma sea igual a cero, las N diferencias Yij − Y ( )
pueden tomar libremente cualquier valor (de ahí el término de liber-
tad), excepto una, que será la que haga cumplirse la igualdad. Por
eso, podemos decir que la suma cuadrática total lleva asociados N - 1
grados de libertad.
Por su parte, la suma cuadrática intergrupos lleva asociados J - 1
grados de libertad, porque, de las J diferencias Y j − Y , todas excepto ( )
50 Análisis de varianza

una pueden asumir cualquier valor de manera que se verifique


( )
∑ j n j Yj − Y = 0 .
Por último, la suma cuadrática intragrupos o de error lleva aso-
ciados N - J grados de libertad. Para el primer grupo, todas las pun-
tuaciones excepto una pueden tomar cualquier valor, de forma que se
( )
cumpla que ∑i Yi1 − Y1 = 0 ; ya estamos perdiendo un grado de libertad y
nos quedan, por tanto, n1 - 1. Para el segundo grupo, todas las puntua-
ciones excepto una pueden tomar cualquier valor, de forma que se
( )
cumpla que ∑i Yi1 − Y1 = 0 ; ya estamos perdiendo otro grado de libertad y
nos quedan n2 - 1. Y así sucesivamente hasta completar los J grupos. Si
en cada uno de los grupos estamos perdiendo un grado de libertad, en
total habremos perdido ∑ j (n j − 1) = ∑ j n j − ∑ j 1 = N − J grados de libertad8.
Para finalizar, podemos expresar los grados de libertad asociados
a cada una de las fuentes de variación de forma similar como lo hici-
mos con las sumas cuadráticas:

gltotal = glinter + glintra

N - 1 = (J - 1) + (N -J)

2.11. Medias cuadráticas


Recordemos que para poder llevar a cabo el contraste de diferencias
de medias tenemos que realizar dos estimaciones de la varianza po-
blacional σ 2 desde perspectivas distintas: una, correspondiente a la
varianza intergrupo, tendrá en cuenta las desviaciones de los grupos
con respecto a la media total y, la otra, correspondiente a la varianza
intragrupo, tendrá en cuenta las desviaciones de las puntuaciones con
respecto a la media de su grupo. Pues bien, si dividimos las sumas
cuadráticas obtenidas anteriormente por sus respectivos grados de
libertad, obtendremos las varianzas que buscamos.

8 Una forma alternativa de calcular los grados de libertad sería la siguiente: gl

= (nº desviaciones cuadráticas) – (nº puntos independientes alrededor de los cuales


tomamos las desviaciones). Por ejemplo, para la SCtotal, tenemos N desviaciones
cuadráticas respecto a un punto, la mediaY, por tanto, los grados de libertad son
N – 1. Por su parte, la SCinter, implica J desviaciones cuadráticas respecto a un
punto también, la mediaY, por tanto, los grados de libertad son J – 1. Por último,
la SCintra, supone N desviaciones cuadráticas respecto a J puntos, las J mediasYj,
por tanto, los grados de libertad son N – J (Winer, 1971).
Análisis de varianza de un factor completamente aleatorizado 51

En el contexto del ANVAR estas varianzas se conocen con el nombre


de medias cuadráticas o varianzas estimadas.9
De esta forma, la media cuadrática intergrupo (MCinter) será igual
a:

MCinter = SCinter / glinter

Del mismo modo, la media cuadrática intragrupo o de error (MCin-


tra) será igual a:

MCintra = SCintra / glintra

Dado que para realizar el contraste de hipótesis sólo necesitamos


comparar estas dos varianzas, no nos detendremos en la media cua-
drática total, ya que ésta es la varianza del total de las puntuaciones y
se escapa de nuestro interés (cabe decir, de paso, que la igualdad que
establecíamos con las sumas cuadráticas y con los grados de libertad,
no se cumple con las medias cuadráticas).

2.12. Valores esperados de las medias cuadráti-


cas
Si vamos a realizar dos estimaciones de la varianza poblacional desde
las medias cuadráticas intergrupo e intragrupo, conviene saber si son
estimadores sesgados o no de la misma, lo que nos lleva a averiguar
cuáles son sus esperanzas matemáticas.
En primer lugar, para el caso de la media cuadrática intragrupo,
no tenemos más que transformar su fórmula para ver que se trata de
un estimador insesgado de la varianza poblacional. En efecto:

MC int ra =
∑∑
i j
(Yij − Y ) 2
N−J

Recordemos que partimos del supuesto de que las J muestras perte-


necen a poblaciones con varianzas iguales entre sí e iguales a la va-
rianza poblacional. La fórmula anterior es una combinación de los

9 Una media cuadrática no es más que la variación promedio por grados de li-

bertad, lo cual es también la definición de varianza. El término empleado de media


cuadrática tiene un carácter más general referido al promedio de medidas cuadrá-
ticas. Por consiguiente, una varianza es realmente un caso especial de una media
cuadrática (Winer, 1971).
52 Análisis de varianza

datos muestrales, que también puede expresarse como una pondera-


ción de las cuasivarianzas muestrales:
~
MCint ra =
∑ (n j j − 1) S j2
N−J

Sabemos que la cuasivarianza muestral es un estimador insesgado


de la varianza muestral. Por tanto, la esperanza matemática de la
anterior expresión es igual a la varianza poblacional:

 ∑ ( n j − 1) S~j2   ( N − J ) S~j2 
E ( MCint ra ) = E  j
 = E  =σ2
10
 N−J   N − J 
 

En segundo lugar, para el caso de la media cuadrática intergrupo,


la situación cambia un poco. Para facilitar la comprensión, suponga-
mos que todos los grupos tienen el mismo tamaño. En este caso, pode-
mos reescribir la fórmula de la MCinter

N ∑ j (Y j − Y ) 2
MC int er =
J −1

Ahora bien,

∑ j
(Y j − Y ) 2
J −1

es la varianza de la distribución de las J medias. Por tanto, podemos


expresar la media cuadrática intergrupos como MC int er = N ⋅ S X2 .

Si recordamos el T.C.L., el error típico de la distribución muestral


de la media, siendo todos los grupos de igual tamaño, es σ X = σ / n , o,
lo que es lo mismo, σ X2 = σ 2 / n . De esta forma, si despejamos σ 2 de la
expresión anterior, tendremos:

10 Como vemos, esto es similar al caso de comparación entre medias de dos mues-

tras independientes con varianzas poblacionales desconocidas pero supuestamente


iguales, donde aplicamos el estadístico t-Student para probar la H0 y donde esti-
mamos la varianza poblacional a partir de la suma ponderada de los estimadores
~ ~
muestrales S12 y S 22 . El caso de dos muestras es, en realidad, una aplicación para J
= 2 del planteamiento anterior.
Análisis de varianza de un factor completamente aleatorizado 53

σ 2 = n ⋅ σ X2

De todo esto se deduce que podemos considerar a la MCinter como un


estimador insesgado de la varianza poblacional siempre y cuando, se
haya obtenido de la distribución muestral de las J medias, las cuales
corresponderían a J muestras extraídas de la misma población o bien
de poblaciones con la misma varianza y la misma media (serían po-
blaciones idénticas y hablar de poblaciones idénticas es hablar de la
misma población).
Lo anterior será cierto si se cumple la hipótesis nula de igualdad de
medias de los J grupos e iguales a la media poblacional. De otro modo,
la varianza global de los J grupos no sería únicamente una pondera-
ción de varianzas, sino además habría que añadir el término corres-
pondiente a la varianza de las medias, es decir:

∑ j
(Y j − Y ) 2
J −1

término que no vale cero si no se verifica la hipótesis nula11.


En este caso, la esperanza matemática de la MCinter es:

 ∑ j n j (Y j − Y ) 2  N ∑ j α 2j
E ( MCint er ) = E  = + σ 2 = Nσ α2 + σ 2
 J −1  J −1

2.13. La razón F
En el apartado anterior hemos podido ver que MCinter es un indicativo
de la variación de las medias de los grupos respecto a la media pobla-
cional.

11 Recordemos que una de las propiedades de la varianza establece que si parti-

mos de j grupos, el primero con n1 puntuaciones, mediaY1 y varianza S12 , el segundo


con n2 puntuaciones, mediaY2 y varianza S 22 , ..., el j-ésimo con nj puntuaciones,
mediaYj y varianza S 2j , la varianza, S x2 , de las n1 + n2 + ... + nj = n puntuaciones,

vale S x2 =
∑nS j j
2
j
+
∑ n (Y − Y )2
. Es decir, la varianza de las n puntuaciones es igual
j j

n n
a la media de las varianzas más la varianza de las medias. Una demostración de
esta afirmación se puede encontrar en Amón (1989).
54 Análisis de varianza

Además, ambas estimaciones de la varianza poblacional, MCinter y


MCintra, son independientes puesto que MCinter se obtiene a partir de las
medias muestrales y MCintra de las varianzas muestrales.
Consecuentemente, la H0 de igualdad de medias puede ser puesta a
prueba mediante la razón entre las medias cuadráticas. Si la H0 se
cumple, el valor esperado de MCinter /MCintra será 1 (o cercano a 1), ya
que E ( MC int er ) = σ 2 y E ( MC int ra ) = σ 2 , por ser ambos estimadores de σ 2 .
~
( n − 1) S 2
Por otro lado, podemos recordar que el estadístico se dis-
σ2
tribuye según χ n2−1 . De esta forma, si multiplicamos cada media cua-
drática por sus grados de libertad y dividimos por σ 2 obtendremos
para la MCinter (bajo el supuesto de H0 verdadera):

( J − 1) MC int er
= χ J2 −1
σ2

y para la MCintra (tanto si H0 es cierta como no):

( N − J ) MC int ra
= χ N2 − J
σ2

También sabemos que la distribución F-Fisher se define como la ra-


zón entre dos variables independientes distribuidas según el mode-
lo χ 2 , cada una dividida por sus grados de libertad. De ello se deduce
que el cociente de las expresiones anteriores, divididas por sus respec-
tivos grados de libertad, dará lugar a:

( J − 1) MC int er
/( J − 1)
σ2 =
MC int er
( N − J ) MC int ra MC int ra
/( N − J )
σ2

se distribuirá según FJ - 1; N - J, siempre que no haya un efecto de la


variable independiente.
De todo lo anterior se desprende que, si H0 es cierta, ambas medias
cuadráticas serán parecidas, sus valores esperados igual a σ 2 y su
cociente aproximadamente igual a uno.
Por el contrario, si hay un efecto significativo de la variable inde-
pendiente sobre la dependiente (H0 es falsa), el valor esperado de
Análisis de varianza de un factor completamente aleatorizado 55

N ∑ j α 2j
MCintra será mayor que el valor esperado de MCintra, ya que es
J −1
distinto de cero, y, por tanto, el cociente entre ambas medias cuadráti-
cas será significativamente mayor que uno.
En definitiva, vamos a utilizar la razón

MC int er
F=
MC int ra

como estadístico de contraste para comprobar la falsedad o no de la


H0 (Téngase en cuenta que, si bien el planteamiento de las hipótesis
establece la igualdad o desigualdad de medias o de efectos de los
distintos niveles de la variable independiente, el contraste es unilate-
ral puesto que pretendemos averiguar si la varianza intergrupos es
significativamente mayor que la varianza intragrupo).

2.14. Resumen del ANVAR de un factor


Antes de seguir adelante, tal vez sea conveniente recordar los pasos
que hemos seguido hasta la obtención del estadístico de contraste e,
incluso, presentar la tabla resumen del ANVAR, tal y como aparece en
la mayoría de los textos estadísticos e informes de investigación.
Como en toda prueba estadística, hemos establecido, en primer lu-
gar, las hipótesis a contrastar. Éstas son:
H0 : µj = µ (todas las medias poblacionales son iguales)
H1 : µj ≠ µ (no todas las medias poblacionales son iguales)
o bien
H0 : ∑α j
2
j =0 (no hay un efecto del factor sobre la variable
dependiente)
H1 : ∑α j
2
j ≠ 0 (hay un efecto del factor sobre la variable dependien-
te)
Para poder poner a prueba estas hipótesis, debemos saber, en se-
gundo lugar, cuáles son las condiciones necesarias que nos van a
permitir derivar un estadístico de contraste con distribución muestral
conocida. En el caso que nos ocupa, hemos visto que los supuestos son
de dos tipos:
56 Análisis de varianza

1. Supuestos referidos al modelo lineal en el que se fundamenta el


ANVAR:
a) Especificación completa del modelo.
b) Aditividad del modelo.
c) Esperanza matemática de los errores igual a cero.
2. Supuestos referidos a la prueba F:
d) Independencia de las observaciones (o de los errores).
e) Normalidad de las observaciones (o de los errores).
f) Homogeneidad de varianzas.
En tercer lugar, hemos realizado una descomposición de la varian-
za de las puntuaciones en dos componentes sumativos, las sumas
cuadráticas inter e intra grupos, que, junto con sus correspondientes
grados de libertad, nos han permitido obtener las medias cuadráticas
y, de esta forma, hemos podido desarrollar el estadístico de contraste:

MC int er
F=
MC int ra

que sigue una distribución F-Fisher con J - 1 grados de libertad para


el numerador y N - J grados de libertad para el denominador.
En último lugar, decidiremos rechazar o no la hipótesis nula de
igualdad de medias (o de efecto nulo del factor sobre la variable de-
pendiente) si el estadístico de contraste arroja un valor mayor o igual
que el valor crítico correspondiente al nivel de significación α estable-
cido por el investigador.
Para finalizar, vamos a presentar una tabla de resultados de
ANVAR típica para el modelo de un factor de efectos fijos completa-
mente aleatorizado:

Fuentes de Sumas Grados de Medias Estadístico de


variación: cuadráticas: libertad: cuadráticas: contraste:
FV SC gl MC F

∑ n (Y )2
inter −Y J–1 SCinter / glinter
j j j MC int er
F=
∑ ∑ (Y )2
intra j i ij −Yj N–J SCintra / glintra MC int ra

∑ ∑ (Y ) 2
total
j i ij −Y N–1
Análisis de varianza de un factor completamente aleatorizado 57

Como se puede observar en la tabla, el cálculo de las sumas cuadrá-


ticas puede resultar un tanto tedioso cuando disponemos de muchas
observaciones. Podemos llegar a estas mismas sumas por senderos
menos tortuosos, uno de los cuales vamos a presentar a continuación.

2.15. Procedimientos numéricos


Vamos a recordar ciertas definiciones apuntadas al comienzo de este
capítulo:
N = ∑j nj (número total de observaciones)

T j = ∑iYij (suma de puntuaciones en cada condición)

T = ∑jTj (suma total de todas las puntuaciones)

∑∑ Y
i j
2
ij (suma de todas las puntuaciones al cuadrado)

A partir de esta notación, podemos redefinir cada una de las sumas


cuadráticas, de modo que sus cálculos nos resulten más sencillos. Así,
para la suma cuadrática total tenemos que:

SC total = ∑i∑ j (Yij − Y ) 2 =


= ∑i∑ j (Yij2 − 2Yij Y + Y 2 ) = ∑i∑ j Yij2 − 2Y ∑i∑ j Yij +NY 2 =

(
= ∑i∑ j Yij2 − 2 ∑i∑ j Yij2 ) / N + N (∑ ∑ Y ) / N =
2
i j
2 2
ij

= ∑i∑ j Yij2 − (∑ ∑ Y ) / N =
i j
2 2
ij

= ∑i∑ j Yij2 − T 2 / N

Con respecto a la suma cuadrática intra:

SC int ra = ∑i∑ j (Yij − Y j ) 2 =


= ∑i∑ j (Yij2 − 2Yij Y j + Y 2 ) = ∑i∑ j Yij2 − 2∑ j n j X j X j + ∑ j n j Y j2 =

= ∑i∑ j Yij2 − ∑ j n j Y j2 = ∑i∑ j Yij2 − ∑ j n j (∑ X i ij /nj ) 2


=
= ∑ i∑ j Y − ∑ j T / n j
2
ij ( j
2
)
58 Análisis de varianza

Y en cuanto a la suma cuadrática inter:

SC int er = SC total − SC int ra =


= [∑ ∑ Y
i j
2
ij −T 2 / N − ] [∑ ∑ Y
i j
2
ij ( )]
− ∑ j T j2 / n j =
(
= ∑j T / n j −T / N j
2
) 2

Ejemplo 2.4. Como ejemplo práctico vamos a resolver el problema sobre el rendimien-
to motor propuesto en este tema, teniendo en cuenta que, con tan solo cinco obser-
vaciones por condición, trabajamos con muestras nada representativas de las po-
blaciones de las cuales han sido extraídas, produciéndose con gran probabilidad la
violación de los supuestos básicos del análisis de varianza. Sin embargo, conside-
remos este ejemplo con fines únicamente didácticos.

0’ 5’ 10’
1 5 5
2 3 4
2 5 7
0 6 5
3 1 2
nj 5 5 5 N = 15
Tj 8 20 23 T = 51

Yj 1,6 4,0 4,6 Y = 3,4

1. Planteamiento de las hipótesis:


H0 : µ1 =µ2 =µ3 (todas las medias son iguales: el tiempo de práctica no afecta
al rendimiento motor)
H1 : µj ≠ µ (no todas las medias poblacionales son iguales: el tiempo de prác-
tica afecta al rendimiento motor)
2. Supuestos: (teniendo en cuenta lo dicho anteriormente) poblaciones norma-
les con varianzas iguales, muestras aleatorias e independientes.
3. Estadístico de contraste:
Comenzamos calculando los totales de puntuaciones:

N = ∑ j n j = 5 + 5 + 5 = 15

T = ∑ j T j = 8 + 20 + 23 = 51

∑∑Y i j
2
ij = 12 + 22 + ... + 52 + 22 = 233

Ya podemos calcular las sumas cuadráticas:


Análisis de varianza de un factor completamente aleatorizado 59

SC total = ∑i∑ j Yij2 − T 2 / N = 233 − 512 / 15 = 59,6

( )
SC int ra = ∑i∑ j Yij2 − ∑ j T j2 / n j =
= 233 − (8 2 / 5 + 20 2 / 5 + 23 2 / 5) = 233 − 198,6 = 34,4
SC int er = SC total − SC int ra = 59,6 − 34,4 = 25,2

Los grados de libertad asociados a cada una de las sumas cuadráticas son:

glinter = J - 1 = 3 - 1 = 2
glintra = N - J = 15 - 3 = 12
gltotal = N - 1 = 15 - 1 = 14

Con estos datos podemos construir la tabla de ANVAR:

FV SC gl MC F
inter 25,5 2 25,5 / 2 = 12,6 4,395
intra 34,4 12 34,4 / 12 = 2,86
total 59,6 14

4. Distribución muestral del estadístico de contraste: F se distribuye F2, 12.


Nivel de significación α = 0,05. Por tanto, en la Tabla 4 del apéndice encon-
tramos que F0,95; 2, 12 = 3,89.
5. Decisión: Con un margen de error de 0,05, rechazamos H0 ya que
4,395 > 3,89.
6. Conclusión: A la vista de los resultados, podemos concluir que existen dife-
rencias en el rendimiento motor entre al menos dos grupos experimentales, o,
lo que es lo mismo, respondiendo a la pregunta inicial, se puede afirmar que
sujetos con diferentes tiempos de práctica (0’, 5’ y 10’) tienden a puntuar de
forma distinta en la prueba de rendimiento motor.
60 Análisis de varianza

Podemos representar las medias de las puntuaciones de los tres grupos en la


siguiente gráfica:

V.D. 5

0
0' 5' 10'

En el eje X representamos los niveles del factor y en el eje Y las medias de los
tres grupos.

2.16. Tamaño del efecto


A lo largo de las páginas anteriores hemos podido ver cómo el ANVAR
resuelve eficazmente el problema de comparar J medias sin tener que
recurrir a la prueba t-Student. A partir de un nivel de significación α
establecido por el investigador, éste decidirá si rechazar o no la hipó-
tesis nula sobre las J medias realizando una descomposición de la
varianza de las puntuaciones.
Sin embargo, seguimos teniendo un problema que resolver. Como
ocurre en cualquier prueba de contraste, el tamaño o tamaños mues-
trales influyen en la significación de la misma, de forma que un resul-
tado significativo puede deberse, no sólo al efecto de la variable inde-
pendiente sobre la dependiente, sino también al elevado número de
observaciones. Es decir, podemos encontrar diferencias significativas
entre dos estadísticos aun cuando las diferencias entre ellos sean muy
pequeñas, insignificantes. En otras palabras, siguiendo a Pardo y San
Martín (1994), la significación estadística de un resultado no es sinó-
nima de la significación o importancia real de ese resultado.
La prueba F no escapa a este fenómeno, de modo que podemos obte-
ner resultados significativos partiendo de muestras suficientemente
grandes. Por este motivo, debemos desarrollar algún índice que nos
Análisis de varianza de un factor completamente aleatorizado 61

permita obtener el tamaño del efecto (“el parámetro problemático”,12


como a él se refiere Lipsey y enseguida veremos por qué) para saber
hasta qué punto las diferencias encontradas mediante el ANVAR se
pueden atribuir a la situación experimental. Estos índices responden
al nombre de medidas de asociación o proporción de varianza expli-
cada y pretenden medir el tamaño del efecto, es decir, el grado de
influencia de la variable independiente sobre la dependiente.
Vimos que la suma cuadrática total, SCtotal, se descomponía en dos
partes aditivas: la suma cuadrática intergrupo, SCinter, y la suma
cuadrática intragrupo o de error, SCintra. La primera refleja la varia-
ción debida a los efectos de la variable independiente sobre la depen-
diente y la segunda refleja la variación debida a otros factores no
tenidos en cuenta en el experimento. Pues bien, podemos utilizar estas
sumas cuadráticas para expresar la fuerza de la relación entre la
variable dependiente y el factor:

SCint er SCint er
η yx2 = =
SCint er + SCint ra SCtotal

Esta expresión se denomina razón de correlación y se interpreta, al


igual que el coeficiente de determinación (r2xy) dentro del contexto de
la regresión, como la proporción de varianza de la variable depen-
diente explicada por el factor o variable independiente.13 Es importan-
te saber esto porque así evitamos sobrevalorar resultados significati-
vos que carecen de utilidad práctica. Veamos qué valor obtenemos con
nuestros resultados.

12 Lipsey (1990; cit. por Allison, Gorman y Primavera, 1992).


13No obstante, en la situación que nos ocupa, donde la variable independiente es
categórica o está categorizada (su posible naturaleza cuantitativa no interviene en
ningún momento en el análisis), conviene saber que no son índices intercambiables
ya que, si bien ambos miden el grado de relación entre las dos variables, r2xy mide el
grado de linealidad, mientras que η2yx indica el grado de relación de cualquier tipo
(de hecho, se suele utilizar como indicador del grado de relación curvilínea entre
dos variables, cuando no es aconsejable calcular rxy). Sólo cuando todos los puntos
se encuentren sobre la línea recta serán intercambiables (η2yx = r2xy), de otro modo,
en general, η2yx ∏ r2xy (Martínez, Maciá y Pérez, 1990). Por otro lado, obsérvese que
escribimos η2yx y no η2xy, en analogía con r2xy, cuando en el análisis de regresión sí
podemos hacer este intercambio. Esto es debido a que la razón de correlación es
asimétrica con respecto a sus subíndices.
62 Análisis de varianza

Ejemplo 2.5. En nuestro ejemplo, η2yx arroja un valor de 25,2/59,6 = 0,423, lo que
significa que el 42,3% de la variabilidad de la destreza motora se debe al efecto del
tiempo de práctica.

A pesar de que eta cuadrado nos indica el grado en que la variable


dependiente se ve afectada por la independiente, no es un buen esti-
mador de su parámetro por ser muy sesgado. Un mejor índice que
intenta corregir (o al menos disminuir) el sesgo positivo inherente a
eta es el desarrollado por Hays en 1963 (Tatsuoka, 1993) que se define
como:

SC int er − gl int er ⋅ MC int ra


ω2 =
MC int ra + SC total

y que podemos poner en relación con el valor de F mediante:

F −1
ω2 =
N
F −1 +
J −1

Así, mientras que F es una medida de la significación estadística de


las diferencias de J medias, ω2 es una medida de su importancia prác-
tica o científica. Precisamente porque ambos datos no van siempre en
relación directa, debemos obtener los dos. Vamos a ver qué valor arro-
ja en nuestros datos.

Ejemplo 2.6. Con los datos de nuestro ejemplo,


25,2 − 2 ⋅ 2,86
ω2 = = 0,3118
2,86 + 59,6

o bien

4,395 − 1
ω2 = = 0,3116
15
4,395 − 1 +
3 −1

No obstante lo dicho anteriormente, hay que tener cierta precau-


ción a la hora de interpretar esta medida. Si bien conceptualmente
resulta un buen complemento a la información proporcionada por la
prueba global F, mejor que η2yx, no está exenta de inconvenientes. Por
ejemplo, su error típico es muy grande, sobre todo en tamaños mues-
trales pequeños, lo que nos puede llevar a un valor de ω2 muy grande
Análisis de varianza de un factor completamente aleatorizado 63

cuando el efecto no lo es. O puede ocurrir justo lo contrario (Pardo y


San Martín, 1994).
Por otro lado, también hay que tener en cuenta que, aunque ω2 es la
razón de dos estimadores insesgados (el numerador de σ Y2 − σ Y2 X y el
denominador de σ Y2 )14, en general, la razón de dos estimadores inses-
gados no implica, necesariamente, que sea un estimador insesgado por
sí mismo del parámetro correspondiente.
Por estas razones, debemos interpretar estas medidas del efecto con
mucho cuidado.
Por su parte, Cohen (1988) nos presenta otra medida del tamaño del
efecto basada en la desviación típica de las medias, a saber:

 ∑ Y −Y
 j j ( )
2


 
 J 
 
f =
MC int ra

para tamaños muestrales iguales. En el numerador de la fórmula


tenemos la desviación típica de las medias. Si éste lo dividimos por la
MCintra (estimador insesgado de σ2), f es un número sin unidades que
puede interpretarse como una medida estandarizada de la distancia
promedio entre las medias.
Esta medida del efecto también puede ponerse en relación con eta
cuadrado mediante:

f2
η2 =
1+ f 2

Incluso, podemos realizar la conversión directamente mediante la


tabla que presenta Cohen (1988, pág. 283), dependiendo de qué valor
hemos calculado y con cuál necesitamos trabajar (como veremos en el
siguiente apartado, para el cálculo de la potencia de la prueba, si
utilizamos las tablas de Cohen, es muy práctica esta transformación
directa).
La interpretación de la cuantía de f depende, obviamente, de las
variables investigadas y siempre debe hacerse dentro del contexto en el
que estemos trabajando. No obstante, Cohen (1988) señala que, en las

14 Ver Tatsuoka (1993).


64 Análisis de varianza

ciencias de la conducta, los tamaños de efecto son más bien bajos,


siendo raro encontrar valores de f más allá del rango 0,00 – 0,40. Así
pues, y sólo a modo de orientación, propone como valores de efecto
pequeño, mediano y grande los valores 0,10, 0,25 y 0,40, respectivamen-
te.

2.17. Potencia en el ANVAR de un factor


Hemos señalado en el apartado anterior que el resultado de una prue-
ba global F no debe aparecer de forma aislada en un informe de inves-
tigación, puesto que, en el caso de ser significativo, nada nos indica
que sea importante. Hemos apuntado algunos índices que nos permi-
ten ver el grado de asociación entre el factor y la variable dependiente,
pero también hemos hablado de la precaución en la interpretación de
los mismos. Siguiendo en esta línea de complementar los resultados de
una prueba F con otras medidas, vamos a ver ahora cómo podemos
calcular la potencia de la prueba, de manera que nuestro informe sea
algo más completo.
Como ya sabemos, la potencia, 1 - β, es la capacidad del contraste
para rechazar una H0 falsa. Expresado según la forma habitual de la
Teoría de la Probabilidad, tendríamos:

1 - β = P(F > Fα, J – 1, N - J |H0 falsa)

Siguiendo a Kirk (1982), si la hipótesis nula es verdadera, el esta-


dístico

MC int er
F=
MC int ra

se distribuye como una variable aleatoria F (llamada central), con


parámetros J – 1, N – J, como ya sabemos. Sin embargo, si H0 es falsa,
el estadístico anterior se distribuye como una variable aleatoria no
central, con los mismos grados de libertad y un parámetro de no cen-
tralidad que denominamos δ y que viene dado por:

n j ∑ j α 2j
δ=
σ2

Fijémonos en el hecho de que la distribución F central es un caso


particular de la distribución F no central cuando δ = 0.
Análisis de varianza de un factor completamente aleatorizado 65

Puesto que δ depende directamente del efecto de los tratamientos


(αj), cuanto mayor sea la diferencia entre las medias, mayor será su
valor.
A partir de δ podemos definir el parámetro φ como:

δ n j ∑ j α 2j
φ= =
J σ J

Podemos estimar ∑α
j
2
j mediante15:

( J − 1)
∑ αˆj
2
j =
nj
( MC int er − MC int ra )

Y un estimador insesgado de σ 2 es la media cuadrática intragrupo


o de error, es decir:

σˆ 2 = MC int ra

Vamos a obtener con nuestros datos el valor de φ.

Ejemplo 2.7. Recordemos que en los datos de nuestro ejemplo:


MCinter = 12,6 y MCintra = 2,86
J=3 y nj = 5
Por tanto:

(3 − 1)
∑ αˆ j
2
j =
5
(12,6 − 2,86) = 3,89

σˆ 2 = 2,86

15 La fórmula se basa en los valores esperados de las medias cuadráticas. Como

sabemos,

n j ∑ j α 2j
E ( MCint er ) = σ 2 + y E ( MCint ra ) = σ 2
J −1

Por consiguiente,

( J − 1)  2 n j ∑ j αˆ j 
2
( J − 1)
( MCint er − MCint ra ) = σˆ + − σˆ 2  = ∑ j αˆ 2j
nj nj  J −1 
 
66 Análisis de varianza

n j ∑ j α 2j 5 ⋅ 3,89
φ= = = 2,67
σ J 2,86 3

A partir de aquí podemos consultar la Tabla 5 del apéndice para obtener la po-
tencia. Así, teniendo en cuenta que en nuestro ejemplo los grados de libertad son
glnum = 2 y glden = 12 y que φ = 2,67, con un α = 0,05, si acudimos a la Tabla 5 ésta
nos arroja un valor de β = 0,05, por lo que la potencia será 1 - β = 1 - 0,05 = 0,95.

Si en un contraste determinado vemos que no alcanzamos una po-


tencia, a nuestro entender, satisfactoria, podemos incrementarla de la
siguiente manera: fijamos de antemano tanto la potencia como el α
que deseemos y buscamos en la Tabla 5 el valor de φ correspondiente.
Sólo nos queda despejar el tamaño de la muestra en la fórmula de φ.
Para terminar, Cohen (1988, pág. 289-354) nos ofrece unas tablas
para la obtención directa de la potencia de la prueba F siempre y
cuando tengamos especificados los siguientes valores: nivel de signifi-
cación (α), tamaño del efecto (f, o bien η2 que podemos convertir en f,
como señalamos en el apartado anterior), grados de libertad de la
suma cuadrática intergrupos (glinter) y tamaño muestral (nj).

2.18. Valores F menores que 1


Hay ocasiones en las que nos encontramos con valores F menores que
1, lo cual resulta contradictorio teniendo en cuenta las esperanzas
matemáticas de las medias cuadráticas que vimos en el apartado 2.12.
Raro es, aunque no imposible, que obtengamos por azar un valor de F
muy pequeño en nuestro análisis. Mejor será que sospechemos que algo
ha ocurrido y que, en la medida de lo posible, repitamos el experimen-
to (lo que, en general, no está de más, puesto que resulta muy cuestio-
nable la generalidad de los efectos hallados en cualquier estudio
único).
Si observamos una serie de valores F repetidamente pequeños, esto
nos indica una tendencia sistemática de las medias cuadráticas del
numerador a ser más pequeñas que las medias cuadráticas del deno-
minador, lo que nos puede hablar de un sesgo negativo (Abelson, 1998)
que se produce cuando algún factor sistemático aporta una gran
varianza al término de error, pero no al numerador de la razón F. En
estos casos el modelo es inadecuado. Los valores F excesivamente
pequeños también pueden deberse al incumplimiento de alguno de los
otros supuestos del modelo, ya especificados en el apartado 2.7. De
todo esto se deduce la importancia de verificar, antes de realizar
ningún tipo de análisis, tanto las condiciones que rigen la aplicación
Análisis de varianza de un factor completamente aleatorizado 67

del análisis de varianza como su adecuación. Más adelante veremos


algunas pruebas para hacerlo.

2.19. Valores F demasiado grandes


La otra cara de la moneda la constituye una F excesivamente grande.
Si en una prueba global el investigador encuentra una F de 10 ó 15,
por ejemplo, podrá rechazar la H0 con tranquilidad, pero mejor será
que se plantee qué puede ocurrir en sus datos si obtiene un resultado
de 100, siguiendo el ejemplo.
Es raro que en la investigación psicológica nos encontremos con va-
lores F muy grandes, salvo que las diferencias sean tan enormes que
no resulte necesario el análisis (excepto, claro está, que llevemos a
cabo una comprobación rutinaria de una fuerte manipulación expe-
rimental). En estos casos estaríamos hablando de un sesgo positivo
(Abelson, 1998), según el cual, alguna variable (o variables), aparte de
la que estamos estudiando, aporta más varianza al numerador que al
denominador de la razón F. Cuando esto ocurre las observaciones no
son todas independientes entre sí, como exige el modelo y el resultado
es que se infla indebidamente la F (recordemos el apartado 2.7.4).
También puede suceder que estemos trabajando con muestras exce-
sivamente grandes. En este sentido, cabe todo lo dicho al respecto en el
apartado que hace referencia al tamaño del efecto. Únicamente aña-
dir que para un tamaño de efecto dado, el valor de F es aproximada-
mente proporcional al tamaño de n por grupo. Podemos acudir a
Rosenthal (1991, cit. por Abelson, 1998) para una exposición más deta-
llada. Baste decir que un valor de F/n igual a 0,5 nos habla ya de un
resultado inusual; un valor de 1,0 es muy raro y un valor mayor que
2,0 es extraordinario.
Por último, que la razón F sea excesivamente grande también puede
deberse a la existencia algún tipo de error. Podemos descartar su
presencia mediante una representación gráfica, donde únicamente
deberíamos ver que los grupos son muy diferentes, como lo indica la F.

2.20. Comprobaciones previas


En el apartado 2.7 tuvimos ocasión de ver los supuestos que debe cum-
plir el ANVAR, tanto los referentes al modelo lineal en el que se fun-
damenta, como los referidos a la prueba F de contraste de medias. Si
bien debemos probar el cumplimiento de los supuestos antes de la
realización de cualquier contraste de medias, más adelante se com-
prenderá por qué lo hemos pospuesto a este apartado. No vamos a
68 Análisis de varianza

presentar aquí todas las pruebas disponibles, sólo nos vamos a centrar
en las más utilizadas en relación a las condiciones necesarias para
poder obtener la distribución muestral del estadístico de contraste F
(el lector ya conoce diversos contrastes para probar los supuestos
referidos al modelo lineal general).

2.20.1. Supuesto de independencia de observaciones


En su momento, ya comentamos que es uno de los supuestos más fáciles
de alcanzar puesto que sólo requiere que cada muestra sea obtenida
aleatoriamente (o la asignación aleatoria de los sujetos a los niveles
del factor), siendo cada observación independiente de las demás, y una
buena planificación del experimento hará que se logre. No obstante,
nunca está demás que probemos este supuesto, sobre todo teniendo en
cuenta las graves consecuencias que conlleva su incumplimiento. Por
su facilidad, pasamos a describir el test de rachas. Aunque hay diver-
sos contrastes de rachas, vamos a presentar el que se refiere a las
medianas por ser uno de los más utilizados.
Una racha es una secuencia de observaciones con algo en común. El
número de observaciones que forman una racha se denomina longitud
de la racha.
En este contraste se considera que existe una racha cuando se da
un conjunto de valores por encima o por debajo de la mediana. Se
obtiene el número de rachas, r, representando con un signo + los valo-
res superiores a la mediana, con un signo - los valores inferiores a la
mediana y eliminando aquellos que sean iguales a la misma.
Llamaremos n1 al número de signos negativos que aparecen en la
secuencia y n2 al número de signos positivos.
Para contrastar la hipótesis de independencia, acudimos a la Ta-
bla 8 del apéndice y buscamos los valores para n1 y n2 a un nivel de
confianza dado. Comparamos nuestro valor r con los ofrecidos por la
Tabla 8 y decidimos acerca de la hipótesis nula.
Si los valores de n1 y n2 son superiores a 20, una buena aproxima-
ción a la distribución muestral del estadístico r es la distribución
normal, con media, µr, y desviación típica, σ r:

2 ⋅ n1 ⋅ n 2
µr = +1
N

2n1 n 2 ( 2n1 n 2 − N )
σr =
N 2 ( N − 1)
Análisis de varianza de un factor completamente aleatorizado 69

siendo N el número total de casos.


En este caso se contrastaría la hipótesis nula mediante:

( r ± h) − µ r
z=
σr

donde h = 0,5 si r < µr y h = -0,5 si r > µr.


Como los valores de z así obtenidos son aproximadamente N(0, 1)
bajo la hipótesis nula, se puede contrastar el valor de z con los valores
de la Tabla 1 correspondiente a la distribución normal. Si el valor z
del estadístico de contraste es menor que el valor crítico para un α
dado, no podemos rechazar la H0, concluyendo que no hay evidencias
para pensar que se viola el supuesto de independencia de las observa-
ciones.

Ejemplo 2.8. Volviendo a nuestro ejemplo habitual, vamos a comprobar si las puntua-
ciones son independientes. Recordemos que éstas eran:

niveles 0’ 5’ 10’
1 5 5
2 3 4
observaciones 2 5 7
0 6 5
3 1 2
nº de sujetos 5 5 5 15
total de puntuaciones 8 20 23 51
medias 1,6 4,0 4,6 3,4

La H0 establece que las puntuaciones son independientes.


Como tenemos más de una muestra, podemos juntar todas las puntuaciones
como si de una sola muestra se tratara.
Calculamos, en primer lugar, la mediana de las puntuaciones, cuyo valor es
Md = 3. A partir de este dato, obtenemos la secuencia de números positivos y nega-
tivos:
- - - - + + + - + + + + -
Existen en total 5 rachas, considerando una racha a un grupo de signos iguales.
Además, tenemos 6 signos negativos y 7 positivos. Por tanto, r = 5, n1 = 6 y n2 = 7.
Para un α = 0,05, la Tabla 8 del apéndice nos arroja unos valores de r de 3 y
11. Como nuestro valor r se encuentra dentro de este intervalo, podemos mantener
la hipótesis de independencia de observaciones.
70 Análisis de varianza

2.20.2. Normalidad de las puntuaciones


Para la comprobación de este supuesto vamos a comentar dos pruebas
de bondad de ajuste bastante útiles: prueba de Kolmogorov-Smirnov y
la prueba de Lillierfors. Mediante estos contrastes no paramétricos se
compara la distribución de los datos obtenidos en la muestra con una
determinada distribución poblacional de la que se supone extraída,
con el fin de comprobar si ambas no difieren significativamente.
En la prueba de Kolmogorov-Smirnov se calculan las frecuencias
relativas empíricas de nuestros datos y se comparan con las frecuen-
cias relativas teóricas de la distribución poblacional supuesta. En la
medida en que no difieran significativamente, podremos suponer que
la muestra ha sido extraída de la población propuesta. Para ello, se
determina el punto de mayor diferencia entre ambas distribuciones, lo
que constituye el estadístico de contraste, se compara con un valor
tabular y se rechaza o no la H0, que representa la distribución teórica,
si es o no mayor. Resulta muy útil cuando las muestras son pequeñas,
pero requiere que la distribución poblacional, además de ser continua,
esté completamente especificada (debemos conocer los valores de µ y σ),
cosa bastante infrecuente.
Por el contrario, la prueba de Lillierfors no necesita que sean cono-
cidos los parámetros de la distribución teórica. Éstos se estiman a
partir de la media y desviación típica muestrales. En realidad, esta
prueba no es más que una modificación del contraste de Kolmogo-
rov-Smirnov para la H0 de normalidad, con parámetros desconocidos
(Martínez, Maciá y Pérez, 1990). Ya que en nuestro ejemplo no sabemos
cuáles son los valores de µ y σ correspondientes a cada una de las
subpoblaciones, vamos a ver cómo utilizaríamos el contraste de Lillie-
fors para probar el supuesto de normalidad.

Ejemplo 2.9. En primer lugar, establecemos la H0 de poblaciones normales para cada


nivel. A continuación, siempre dentro de cada nivel, ordenamos las puntuaciones
(Yi), calculamos sus puntuaciones típicas (zi), sus proporciones acumuladas empíri-
cas (Sy) y teóricas (Fy) y determinamos en valor absoluto el punto de mayor discre-
pancia, que es el que constituye el estadístico de contraste. Veamos.

0 minutos
Yi zi Sy Fy = P(Z  zi) Sy – Fy
0 -1,40 0,2 0,081 0,119
1 -0,53 0,4 0,298 0,102
2 0,35 0,6 0,637 0,037
2 0,35 0,8 0,637 0,163
3 1,23 1,0 0,891 0,109
Análisis de varianza de un factor completamente aleatorizado 71

5 minutos
Yi zi Sy Fy = P(Z  zi) Sy – Fy
1 -1,5 0,2 0,668 0,468
3 -0,5 0,4 0,308 0,092
5 0,5 0,6 0,519 0,081
5 0,5 0,8 0,519 0,281
6 1 1,0 0,841 0,159

10 minutos
Yi zi Sy Fy = P(Z  zi) Sy – Fy
2 -1,60 0,2 0,055 0,145
4 -0,37 0,4 0,356 0,044
5 0,25 0,6 0,598 0,002
5 0,25 0,8 0,598 0,202
7 1,48 1,0 0,931 0,069

Para la primera muestra, el estadístico de contraste toma el valor de 0,163; para


la segunda muestra, su valor es de 0,468 y, para la tercera muestra, el valor es de
0,202.
Si buscamos en la Tabla 10 del apéndice, para un α = 0,05 y n = 5, el punto crí-
tico arroja un valor de 0,337. Sólo la segunda muestra tiene un estadístico de con-
traste que supera este valor, por lo que podemos concluir que la condición de 5 mi-
nutos de práctica no pertenece a una población normalmente distribuida.

2.20.3. Homogeneidad de varianzas


Como ya señalamos, la prueba F tiende a ser robusta al incumplimien-
to de la homocedasticidad cuando los modelos son equilibrados. En
otra circunstancia se puede volver conservadora o liberal (remitimos
al apartado 2.7.6 para recordar en qué casos). De los métodos más
empleados para probar este supuesto destacamos los tests de Hartley,
Cochran, Bartlett y Levene. Ya apuntamos anteriormente que los tres
primeros son muy sensibles a la violación del supuesto de normalidad
de las distribuciones16.
Por el contrario, Levene (1960, en Keppel, 1991) propuso un prueba
para contrastar la hipótesis nula del supuesto de homogeneidad de
varianzas, fácil de calcular e insensible, en la mayoría de los casos, a
la violación del supuesto de normalidad.

16 Una mayor información sobre las pruebas mencionadas se puede encontrar en

Martínez, Maciá y Pérez (1990) o en San Martín y Pardo (1989).


72 Análisis de varianza

Consiste, sencillamente, en un análisis de varianza unidireccional


de los valores absolutos de las diferencias entre cada una de las pun-
tuaciones y la media de sus respectivos grupos. Veámoslo con nuestro
ejemplo:

Ejemplo 2.10. En la siguiente tabla aparecen las puntuaciones diferenciales en valor


absoluto de las puntuaciones obtenidas tras la aplicación de la prueba de rendi-
miento motor:

niveles 0’ 5’ 10’
0,6 1 0,4
0,4 1 0,6
observaciones 0,4 1 2,4
1,6 2 0,4
1,4 3 2,6
total de puntuaciones 4,4 8 6,4
medias 0,88 1,6 1,28

Si realizamos un ANVAR con estos datos, llegamos a los resultados que si-
guen:

FV SC gl MC F
inter 1,30 2 0,6507 0,819
intra 9,53 12 0,7947
total 10,83 14

Dado que la probabilidad asociada a F2,12 = 0,819 es p = 0,464, no podemos re-


chazar la H0 acerca de la homogeneidad de las varianzas de las tres subpoblacio-
nes.

2.20.4. Transformación de las puntuaciones


A pesar de que el ANVAR, como ya sabemos, es una prueba robusta al
incumplimiento de alguno de sus supuestos, sobre todo si las muestras
son equilibradas y el modelo de efectos fijos, puede ocurrir que deje de
serlo porque nos desviemos demasiado de las condiciones que rigen su
uso. En estos casos, conviene realizar ciertas transformaciones en los
datos que corrijan esas desviaciones.
Vamos a presentar, siguiendo a Tejedor (1984) y a Martínez, Maciá
y Pérez (1990) algunas de las más frecuentes:
Análisis de varianza de un factor completamente aleatorizado 73

Situación en la que se aplica Tipo Ecuación


falta de normalidad o logarítmica Y’ = logY
falta de aditividad

los datos son frecuencias o siguen Y’ = Y


raíz cuadrada
la distribución de Poisson Y’ = Y + 0,5 ( si n < 10)
los datos siguen la distribución arcoseno Y’ = arcsen p
binomial

Dejamos al lector la transformación de las puntuaciones corres-


pondientes al grupo de la condición 5 minutos de práctica que, como
recordará, no se ajustaba a una distribución normal.
3. Comparaciones múltiples

3.1. Introducción
En el tema anterior hemos visto el procedimiento para comprobar si
más de dos medias poblacionales son o no iguales. Las hipótesis que
establecíamos eran:

H0: µj = µ, j = 1, 2, ..., J (Todas las medias poblacionales son igua-


les)
H1: µj ≠ µ, j = 1, 2, ..., J (No todas las medias poblacionales son
iguales)

y, mediante el análisis de varianza, llegábamos al rechazo o no de la


hipótesis nula.
Démonos cuenta de que el rechazo de H0 supone llegar a la conclu-
sión de que no todas las medias son iguales, lo que en ningún caso
significa que todas sean distintas. La razón F obtenida sólo supone
una valoración global de la efectividad de la variable independiente
sobre la dependiente y, si se rechaza la hipótesis nula, el enunciado no
todas las medias son iguales no nos suministra gran información,
dado que no nos permite conocer de forma concreta qué medias son las
que difieren.
76 Análisis de varianza

Por ejemplo, supongamos dos situaciones en las que se comparan


tres tratamientos. En la primera de ellas el investigador obtiene
Y1 = 20,Y2= 20 yY3 = 40 y en la segundaY1 = 5,Y2 = 10 yY3 = 30. Si en
ambos casos obtiene una razón F significativa, el experimentador
llegará a la conclusión de que H0 es falsa, sin embargo, las relaciones
entre las medias poblacionales son muy diferentes en las dos situacio-
nes.
Por eso, por ser tan general la conclusión a la que llegamos, la
prueba F suele recibir los nombres de prueba global F o prueba ómni-
bus. Parece necesario, por tanto, disponer de alguna técnica que nos
permita localizar entre qué grupos o condiciones se encuentran las
posibles diferencias, una vez hemos rechazado la H0 global de que
todas las medias son iguales.
Otra situación diferente pero que también se nos puede plantear es
aquella en la que ya sabemos que una variable independiente afecta a
la dependiente y sólo queremos ir en busca de algunas diferencias
concretas entre los grupos de interés. En estos casos, no nos interesa la
prueba global F (ni siquiera llegamos a realizarla), sino alguna otra
técnica que nos permita evaluar esos contrastes concretos.
Todo esto es lo que vamos a ver en este tema, no obstante, antes de
presentar algunas de las numerosas técnicas existentes de compara-
ciones concretas entre medias, debemos aclarar ciertos conceptos.

3.2. Comparaciones múltiples o contrastes


Independientemente de si las comparaciones se realizan después de la
prueba global o sin llegar a ella, podemos llevar a cabo diferentes
tipos de contrastes entre las medias, pero siempre serán dos grupos los
que se comparan (comparaciones dos a dos, comparaciones de una
media con el resto, etc.). En cualquier caso, todas reciben el nombre de
comparaciones múltiples porque, como su propio nombre indica, se
puede realizar más de una comparación con los mismos datos. Así
pues, vamos a llamar comparación múltiple o contraste a una combi-
nación lineal de medias cuyos pesos cumplen dos condiciones:
1) al menos dos coeficientes son distintos de cero y
2) los coeficientes suman cero.
Para asignar los pesos, cj, a las medias procederemos de la siguien-
te manera:
Ÿ Aquellas medias que quedan fuera de la comparación de interés,
tienen un peso igual a cero.
Comparaciones múltiples 77

Ÿ Las medias que se comparan tienen pesos con signos opuestos.


Ÿ Si se comparan grupos con distinto número de medias, a las me-
dias del primer grupo se asignan pesos cuyo valor sea el número
de medias del segundo grupo, y viceversa.
Ÿ En una comparación determinada, la suma de los pesos ha de ser
igual a cero: ∑ j c j = 0 .

Veamos el siguiente ejemplo.

Ejemplo 3.1. Supongamos que tenemos cuatro grupos experimentales con me-
dias:Y1,Y2,Y3,Y4 y nos preguntamos, en primer lugar, si las medias poblaciona-
les µ1 y µ2 son distintas; en segundo lugar, si difieren las medias µ1 y µ2 frente a µ3
y µ4 y, en tercer lugar, si la media µ1 es distinta del resto. Responder a estas cues-
tiones supone establecer las siguientes hipótesis nulas:
Para contrastar µ1 - µ2:

H0(1): 1µ1 - 1µ2 + 0µ3 + 0µ4 = 0 ⇔ H0(1): µ1 - µ2 = 0

Para contrastar µ1 y µ2 frente a µ3 y µ4:

H0(2): 2µ1 + 2µ2 - 2µ3 + 2µ4 = 0 ⇔ H0(1): 1µ1 + 1µ2 - 1µ3 - 1µ4 = 0

Para contrastar µ1 frente a µ2 , µ3 y µ4:

H0(3): 3µ1 - 1µ2 - 1µ3 - 1µ4 = 0

3.3. Comparaciones ortogonales


Como se desprende del apartado anterior, podemos hacernos infinidad
de preguntas acerca de nuestros datos y cada una de ellas se puede
resolver mediante un contraste. Ahora bien, cuando se hace más de
una comparación, se debe distinguir, de cara a las pruebas que vamos
a utilizar, entre las que son ortogonales y las que no lo son.
Diremos que dos o más contrastes son ortogonales si son indepen-
dientes, es decir, si la información proporcionada por uno de ellos no
se solapa con la proporcionada por los restantes. Para comprobar si
dos contrastes son ortogonales se ha de cumplir:

∑c c =0
j 1j 2 j

es decir, la suma del producto de sus pesos es igual a cero.


78 Análisis de varianza

Ejemplo 3.2. Tomemos como ejemplo el experimento con el que trabajamos en el tema
anterior acerca del rendimiento motor y el tiempo de práctica previo. Imaginemos
que el investigador está interesado en dar respuesta a dos cuestiones específicas:
¿Es el tiempo de práctica el que afecta al rendimiento? ¿Rinden más los sujetos
cuando aumenta el tiempo de práctica?
La primera pregunta pretende comprobar si la media del grupo 1 (recordemos,
sin tiempo de práctica previo a la realización de la tarea) difiere de la media de los
grupos 2 (con 5 minutos de práctica) y 3 (con 10 minutos de práctica). Dicho de otro
modo, el investigador desea comprobar la falsedad o no de la hipótesis nula:

H0(1): 2µ1 - µ2 - µ3 = 0 (2 - 1 - 1 = 0)

Con respecto a la segunda pregunta, establecerá la siguiente hipótesis nula:

H0(2): µ2 - µ3 = 0 (0 + 1 - 1 = 0)

Podemos comprobar que ambos contrastes son ortogonales:

∑ c c = 2 ⋅ 0 + ( −1) ⋅ 1 + (−1) ⋅ ( −1) = 0


j 1j 2 j

Si ahora nos planteáramos la siguiente cuestión: ¿difiere el rendimiento cuando


los sujetos no disponen de tiempo de práctica frente a permitirles 5 minutos de
práctica?, el contraste sería el siguiente:

H0(3): µ1 - µ2 = 0 (1 - 1 + 0 = 0)

Y, en este caso, se puede ver que H0(1) y H0(3) no son ortogonales:

∑ j
c1 j c 2 j = 0 ⋅1 + 1 ⋅ (−1) + (−1) ⋅ 0 ≠ 0

porque la información que nos da H0(3) ya está contenida en H0(1).

Cada contraste ortogonal analiza una proporción de varianza in-


dependiente de la variable dependiente. Es decir, la suma de cuadra-
dos intergrupo puede ser dividida en tantos componentes independien-
tes como grados de libertad lleve asociados. En consecuencia, cada
uno de estos componentes tendrá un grado de libertad y representará
una unidad de información. Por tanto, si tenemos J medias podemos
realizar J – 1 comparaciones ortogonales con esas medias (aunque
existe un número infinito de grupos de J – 1 comparaciones ortogona-
les).
Es decir, cuando estamos hablando de ortogonalidad nos estamos
refiriendo a que las fuentes de variación analizadas no están solapa-
das o relacionadas, siendo los componentes ortogonales aditivos (la
suma de las partes es igual al todo, a la varianza intergrupo). Esto no
ocurre con contrastes no ortogonales, donde los componentes no son
aditivos en este sentido. No obstante, en la práctica, como señala
Winer (1971), se realizarán las comparaciones que tengan algún sen-
Comparaciones múltiples 79

tido en términos de las variables experimentales; si esas comparacio-


nes son o no ortogonales, no tiene mayor trascendencia. Donde sí
cobran importancia los contrastes ortogonales, como veremos más
adelante, es en un tipo de análisis muy particular donde se examina el
tipo de relación entre la variable dependiente e independiente, cuando
esta última es cuantitativa.
El desarrollo de estas comparaciones lo veremos con más detalle en
apartados posteriores.

3.4. Control de α
Como ya tuvimos ocasión de comprobar en la introducción del tema
anterior, cuando realizamos más de una comparación, el nivel α con el
que trabajamos se ve incrementado al finalizar los contrastes. Concre-
tamente, si tenemos k contrastes independientes, vimos que la probabi-
lidad de cometer, al menos, un error tipo I en nuestros contrastes viene
dada por17:

1 - (1 - α)k

Por ejemplo, si tenemos que realizar 7 contrastes y partimos de un


α = 0,05, la probabilidad de cometer un error tipo I o más en los 7
contrastes es igual a 1 – (1 – 0,05)7 = 0,31. Es decir, existe una probabi-
lidad de 0,31 de que, como mínimo, obtengamos un resultado significa-
tivo por azar.
En este sentido, la desigualdad de Bonferroni establece que la pro-
babilidad conjunta de dos o más sucesos nunca puede exceder la suma
de sus probabilidades individuales. En general, si realizamos k com-
paraciones, siendo α el nivel de significación inicial y αf la probabili-
dad de cometer un error tipo I en la familia de k comparaciones:

αf  k ⋅ α

En el ejemplo anterior, siendo 7 los contrastes a realizar, αf es igual


a 7⋅0,05 = 0,35.
En definitiva, debemos tener claro que la realización de las compa-
raciones múltiples conlleva un aumento del nivel de significación del
que partimos. Al finalizar los contrastes el error tipo I se ve incremen-

17 Si los contrastes no son independientes, el cálculo de esta probabilidad es más

complejo, pero se puede demostrar que nunca excede de este valor (Kirk, 1982).
80 Análisis de varianza

tado de tal forma que puede llegar a límites intolerables. De ahí que
debamos cuidar este aspecto. Si vamos a realizar pocas comparacio-
nes, basta con elegir un α pequeño (mejor utilizar 0,01 que 0,05); cuan-
do debamos realizar muchas comparaciones, podemos controlar αf
utilizando:

αc = α / k

en cada comparación (si bien, como ya veremos, algunas técnicas de


comparaciones múltiples ya tienen en cuenta este aumento). En el
ejemplo, trabajaríamos con un αc = 0,05/7 = 0,007 en cada una de las 7
comparaciones.

Ejemplo 3.3. Recordemos las hipótesis H0(1) y H0(2) que planteamos anteriormente:
H0(1): 2µ1 - µ2 - µ3 = 0
H0(2): µ2 - µ3 = 0

Recordemos también que nuestro nivel de significación era α = 0,05. Pues bien,
si queremos controlar el aumento de α, deberíamos trabajar con:

αc = 0,05 / 2 = 0,025

en cada una de las comparaciones.

3.5. Contrastes a priori y a posteriori


Antes entrar en detalle con cada una de las técnicas de comparaciones
múltiples que nos interesan, debemos hacer una última distinción
importante entre los distintos procedimientos, que hace referencia al
momento en el que los vamos a aplicar, es decir, antes o después de la
prueba global F. Esta distinción ya ha sido esbozada en la introduc-
ción del tema.
Hay ocasiones en las que el investigador, ya antes de la realización
de su experimento, planifica ciertas comparaciones que tienen rele-
vancia directa con la teoría que subyace a su trabajo experimental. En
estas situaciones, sus conjeturas son concretas y corresponden a cues-
tiones que espera responder al realizar el experimento, sin necesidad
de llegar a realizar la prueba global. Las técnicas que se utilizan para
contrastar estas hipótesis concretas se denominan contrastes a priori
o planeados.
Por el contrario, en otras ocasiones, el investigador sospecha que
una variable independiente puede tener un efecto sobre otra depen-
Comparaciones múltiples 81

diente y diseña un experimento con varios niveles de tratamientos


para ver si se confirman sus dudas. En estas situaciones, el análisis de
los datos adecuado es un ANVAR ómnibus ya que es el que le permite
examinar la hipótesis básica de que todas las medias son iguales. Si
éste resulta significativo quiere decir que efectivamente la variable
independiente afecta a la dependiente, pero, dado que el análisis de
varianza es muy general, deberá aplicar alguna técnica que le permi-
ta averiguar dónde están exactamente las diferencias. En estos casos
utilizará procedimientos que responden al término de contrastes a
posteriori o post-hoc18.
Una diferencia estadística importante entre estas pruebas es el con-
trol que ejercen sobre la probabilidad de cometer el error tipo I en los
contrastes que se realicen. Las pruebas planeadas, en general, no
realizan ese control, llevándose a cabo cada una de ellas con niveles
de significación convencionales. Por el contrario, las pruebas a poste-
riori, dado que se utilizan fundamentalmente para indagar entre las
medias (con lo que se llevan a cabo más comparaciones), están dise-
ñadas de manera que sus niveles de significación sean más rigurosos.
En consecuencia, estas últimas tienen una menor sensibilidad de cara
a rechazar una H0. En este sentido, se dice que son menos potentes que
las pruebas a priori.
Las comparaciones a priori se efectúan aunque la razón F no sea
estadísticamente significativa. De hecho, se establecen los contrastes a
realizar incluso antes de la fase de recogida de datos y no se llega a
realizar el análisis de varianza general. Por eso, a estas técnicas se
las suele considerar como alternativas a la prueba global. En cambio,
las comparaciones a posteriori exigen que la razón F sea estadística-
mente significativa, puesto que tratan de determinar dónde se hallan
las diferencias detectadas por el análisis de varianza. De ahí, que a
estas técnicas se las considere como un complemento de éste (San
Martín y Pardo, 1989).
Antes de entrar en el siguiente apartado, debemos señalar que hay
muchos tipos de contrastes a priori y a posteriori. Algunos contrastes

18 Recuérdese que el contraste de hipótesis sólo tiene sentido desde un punto de

vista popperiano que, en nuestro caso, quiere decir que la hipótesis nula es la
predicción (realizada a partir de un modelo) que se supone cierta (honestamente) y
se somete a un contraste estadístico con la potencia adecuada. Así pues, los contras-
tes a posteriori se corresponden con una filosofía de carácter exploratorio, siendo
los a priori los únicos que pueden tener sentido de cara a la construcción teórica.
Por otro lado, incluso cuando se utilizan las pruebas a posteriori en un sentido
exploratorio, de acuerdo con Everitt (1996), hay estar prevenidos de una confianza
excesiva en tales tests y evitar ser seducidos por la facilidad con la que se pueden
aplicar en la mayoría de los paquetes estadísticos.
82 Análisis de varianza

son ortogonales y otros no; algunos controlan el nivel de significación


α inicial mientras que otros no lo hacen; algunos realizan todas las
comparaciones posibles dos a dos, otros analizan comparaciones
concretas y otros están diseñados para comprobar si un grupo control
difiere de los grupos experimentales. Nosotros vamos a seguir con la
distinción entre contrastes a priori y a posteriori y dentro de cada uno
de ellos veremos cuál es su finalidad, en qué se fundamentan y si están
diseñados para controlar el nivel α inicial. Aunque ya ha quedado
claro cuándo se utilizan los contrastes a priori y a posteriori, nos
parece oportuno continuar con nuestro ejemplo habitual en todos los
casos porque nos va a permitir comparar los resultados a los que se
llega cuando utilizamos las diferentes técnicas de comparaciones
múltiples.

3.6. Contrastes a priori


Ya hemos señalado que estas pruebas se utilizan como alternativas al
análisis de varianza global. Por tanto, cuando las llevemos a cabo, no
tendremos que llegar a realizar la razón F.
Existen muchas pruebas disponibles19, pero no vamos a trabajar
con todas ellas, simplemente vamos a ver algunas para ver cómo se
utilizan.

3.6.1. Prueba t
Para cualquier tipo de comparación, podemos utilizar la prueba t que
ya conocemos siempre y cuando se cumplan los supuestos de muestras
independientes con varianzas poblacionales iguales, aunque
desconocidas.
El esquema a seguir es el siguiente:
1. H0: una determinada combinación lineal de medias = 0
2. Supuestos: poblaciones de partida independientes, con varianzas
iguales y muestras independientes (igual que en el ANVAR de un
factor completamente aleatorizado.

19 A este respecto, puede consultarse Kirk (1982) o Toothaker (1993).


Comparaciones múltiples 83

3. Estadístico de contraste:

t=
∑ j
c pjY j
c 2pj
MCint ra ⋅ ∑ j
nj

4. Distribución muestral de t: t-Student con N – J grados de libertad


(Tabla 3 del apéndice).
Si bien el estadístico de contraste parece distinto al que se utiliza
con dos grupos, en realidad se trata del mismo, sólo que entonces se
simplificaba para el caso de sólo dos medias. Veamos. El estadístico
t-Student que ya conocemos tiene la siguiente formulación:

Y1 − Y2
t=
~2 ~2
S1 + S 2 1 1
⋅ +
nj n1 n 2

En el numerador podríamos escribir ∑cj pj Y j que es igual a:

1⋅ Y1 + (−1) ⋅ Y2 = Y1 − Y2

Además, la estimación que hacemos de la varianza poblacional es


una ponderación de las cuasivarianzas muestrales, como se puede ver
en el denominador de la fórmula. Cuando trabajamos con más de dos
grupos, el estimador insesgado de la varianza poblacional ya sabemos
que es la MCintra, que también es una ponderación de las cuasivarian-
zas muestrales.

c 2pj
Por último, ∑ j
nj
para el caso de dos muestras es igual a:

c 2pj 12 ( −1) 2 1 1
∑ j
nj
=
n1
+
n2
= +
n1 n 2

Vamos a realizar pues un ejemplo con dos contrastes.

Ejemplo 3.4. Supongamos que el investigador se hace las siguientes preguntas:


¿Tiene la práctica previa algún efecto sobre el rendimiento motor? y ¿Difiere el ren-
84 Análisis de varianza

dimiento cuando los sujetos no disponen de tiempo de práctica frente a permitirles 5


minutos de práctica? Las hipótesis nulas correspondientes serían:
1. H0(1): -2µ1 + µ2 + µ3 = 0
H0(3): -µ1 + µ2 = 0
2. Supuestos: muestras aleatorias independientes, procedentes de poblaciones
distribuidas normalmente, con varianzas iguales.
3. Estadísticos de contraste:

t1 =
∑ j 1j
c Yj
=
( −2) ⋅ 1,6 + 1 ⋅ 4 + 1 ⋅ 4,6
= 2,91
2
c (−2) 2 12 12
MCint ra ⋅ ∑ j
1j

nj
2,86 ⋅
5
+ +
5 5

t2 =
∑c j 2j Yj
=
(−1) ⋅ 1,6 + 1 ⋅ 4
= 2,24
c 2
(−1) 2 12
MCint ra ⋅ ∑ j
nj
2j
2,86 ⋅
5
+
5

4. Nivel de significación: α = 0,05.


Punto crítico: t0,025; 12 = 2,18 (Tabla 3).
5. Decisión: rechazamos las dos hipótesis nulas.
6. Conclusión: Hemos encontrado evidencias de que el tiempo de práctica pre-
vio influye en el rendimiento motor (primera hipótesis). Además, hemos en-
contrado diferencias significativas entre las condiciones de ningún tiempo de
práctica y 5 minutos de práctica (segunda hipótesis).

3.6.2. Prueba Dunn


En la aplicación de la prueba anterior para comprobar las dos hipóte-
sis, hemos utilizado el mismo nivel de significación en ambos contras-
tes. Si recordamos lo dicho en el apartado 3.4, la probabilidad de
cometer el error tipo I al finalizar las dos comparaciones puede alcan-
zar un valor de 0,10. Dunn (1961; en Klockars y Sax, 1986), basándose
en la desigualdad de Bonferroni, diseñó esta prueba para controlar la
tasa de error, de ahí que también sea conocida como prueba Dunn-
Bonferroni.
Para desarrollar este procedimiento, Dunn utilizó la distribución
t- Student y el contraste de dos medias con varianzas poblacionales
supuestamente iguales, visto en el apartado anterior. En realidad, sólo
se trata de controlar α. El esquema a seguir, por tanto, es el mismo,
pero ahora buscaremos los puntos críticos, tD’, en la Tabla 6 del apén-
dice.
Comparaciones múltiples 85

Veamos un ejemplo.

Ejemplo 3.5. Con las mismas hipótesis que nos planteábamos antes, los estadísticos
de contraste arrojan los mismos valores (aunque ahora vamos a cambiar la nomen-
clatura utilizada para el estadístico de contraste):
1. H0(1): -2µ1 + µ2 + µ3 = 0
H0(3): -µ1 + µ2 = 0
2. Supuestos: muestras aleatorias independientes, procedentes de poblacio-
nes distribuidas normalmente con varianzas homogéneas.
3. Estadísticos de contraste:
t D = 2,91
1

t D = 2,24
2

4. Nivel de significación: α = 0,05.


Punto crítico: tD’ = 2,56 (en la Tabla 6 tenemos que buscar los glintra y el
número de comparaciones que vamos a realizar en total).
5. Decisión: rechazamos el primer contraste y mantenemos el segundo.
6. Conclusión: Hemos encontrado evidencias de que el tiempo de práctica pre-
vio influye en el rendimiento motor (primera hipótesis). En cambio, no he-
mos encontrado diferencias significativas entre las condiciones de ningún
tiempo de práctica y 5 minutos de práctica (segunda hipótesis).

Como vemos, esta prueba protege el nivel α en el conjunto de las dos


comparaciones, siendo más restrictivo en cada uno de ellos. La forma
de hacerlo es simplemente teniendo en cuenta el número total de con-
trastes que vamos a realizar cuando buscamos el punto crítico en la
Tabla 6 (cuantos más contrastes hagamos, mayor será el valor de ese
punto). No obstante, si en la aplicación de la t-Student nos hubiésemos
protegido contra este aumento utilizando αc = α /2 = 0,025, habríamos
llegado a la misma conclusión (dejamos al lector que lo compruebe).
El procedimiento de Dunn también puede utilizarse para construir
intervalos confidenciales simultáneos para el conjunto de las compa-
raciones que queramos realizar. Dado que esta prueba controla el
error tipo I en la familia de comparaciones, al finalizar el experimen-
to podemos establecer con (1 - α) de seguridad que cada una de las
comparaciones se encuentra en su respectivo intervalo. Establecer un
intervalo confidencial es, como ya apuntábamos en el primer tema,
mucho más informativo que un simple contraste de hipótesis porque,
además de permitirnos decidir acerca de la H0, puede ayudarnos a
determinar si nuestros resultados tienen alguna importancia prácti-
86 Análisis de varianza

ca. Así pues, el intervalo confidencial para una comparación cual-


quiera viene dado por:

c12j
∑ c Y ± t D ' ⋅ MCint ra ⋅
j pj j ∑ j
nj

donde tD’ es el valor crítico de la Tabla 6.

Ejemplo 3.6. Si aplicamos la fórmula anterior a nuestros datos tenemos los siguientes
intervalos confidenciales para las diferencias entre las medias:

( −2) 2 12 12
[(−2) ⋅1,6 + 1⋅ 4 + 1⋅ 4,6] ± 2,56 ⋅ 2,86 ⋅ + + = [10,14 ; 0,65]
5 5 5

(−1) 2 12
[(−1) ⋅1,6 + 1⋅ 4] ± 2,56 ⋅ 2,86 ⋅ + = [5,14 ; 0,34]
5 5

Estos intervalos, además de permitirnos decidir sobre H0 (en el primer caso la


rechazamos y en el segundo la mantenemos), nos dicen, con una confianza del
95%, por un lado, que la distancia entre las medias poblacionales de los grupos sin
tiempo de práctica y con tiempo de práctica (5 y 10 minutos, tomados conjuntamen-
te) es de aproximadamente 10 puntos y, por otro lado, que la distancia entre las
medias poblacionales de los grupos sin tiempo de práctica y con 5 minutos de prác-
tica es de aproximadamente 5 puntos.

3.6.3. Prueba F’
Esta prueba no es más que una partición de la suma de cuadrados
intergrupo (SCinter) del ANVAR de un factor, de efectos fijos, completa-
mente aleatorizado, en tantos componentes independientes como gra-
dos de libertad tiene. Recordemos que, por un lado, la SCinter tiene J –
1 grados de libertad y, por otro, que con J medias podemos realizar J –
1 contrastes ortogonales o linealmente independientes, que serán de
la forma:

H0 (1): c11µ1 + c12µ2 + ... + c1JµJ = 0


H0 (2): c21µ1 + c22µ2 + ... + c2JµJ = 0
...
H0 (J - 1): c(J – 1)1µ1 + c(J – 1)2µ2 + ... + c(J – 1)JµJ = 0
Comparaciones múltiples 87

Bajo cada una de estas hipótesis nulas se plantea que los dos gru-
pos de medias (una media frente al resto, dos grupos de medias, etc.)
que se comparan en cada combinación lineal son iguales. Además,
cualquiera de estas combinaciones se puede estimar sustituyendo las
medias poblacionales, µj, por sus estimadores muestrales,Yj:

cp1Y1 + cp2Y2 + ... + cpJYJ = 0 (siendo p = 1, 2, ..., J – 1)

de manera que se pueda convertir en una suma de cuadrados que


exprese las diferencias entre las medias de los dos grupos que se com-
paran. Así, podemos definir la suma de cuadrados de una compara-
ción como:

SC p =
(∑ c j pj ⋅Y j ) 2

c 2pj
∑ j
nj

Como son dos grupos los que se comparan (una media frente a otra,
un grupo de medias frente a otro, etc.), cada una de estas sumas cua-
dráticas lleva asociada un grado de libertad. De esta forma, dividien-
do la SCp por sus grados de libertad obtenemos la media cuadrática
MCp:

MC p = SC p / 1 = SC p

Puesto que la MCintra del ANVAR de un factor es un estimador in-


sesgado de la varianza poblacional y la SCp un componente de la
SCinter,20 podemos dividir la media cuadrática (MCp) por la media
cuadrática intra (MCintra) y obtenemos:

F'=
MC p
=
(∑ c j pj ⋅Yj )
2

MC int ra c 2pj
∑ j
nj
⋅ MC int ra

que sigue una distribución F-Fisher, con 1 y N – J gl.

20 Dadas las J – 1 comparaciones ortogonales, cada una de ellas con sus sumas

cuadráticas, se cumple:

∑ p
SC p = SCint er ( p = 1, 2, ..., J − 1)
88 Análisis de varianza

Este procedimiento no controla la probabilidad de cometer el error


tipo I al finalizar todos los contrastes, por lo tanto, recordando todo lo
dicho en los apartados 3.4 y 3.5, conviene realizar cada prueba, o bien
con un α pequeño, o bien dividir α por el número de contrastes que se
realicen.
En definitiva, el esquema que vamos a seguir con este procedimien-
to de comparaciones a priori ortogonales es el siguiente:
1. H0: una determinada combinación lineal de medias = 0
2. Supuestos: igual que el ANVAR de un factor de efectos fijos com-
pletamente aleatorizado.
3. Estadístico de contraste:

F'=
(∑ c j pj ⋅Y j )
2

c 2pj
∑ j
nj
⋅ MC int ra

4. Distribución muestral de F’: F-Fisher con glnum = 1 y glden = N - J.


Veamos un ejemplo.

Ejemplo 3.7. Recordemos las dos preguntas que se hacía el investigador acerca del
rendimiento motor como consecuencia de la práctica previa: ¿Tiene la práctica pre-
via algún efecto sobre el rendimiento motor? y ¿Rinden más los sujetos cuando
aumenta el tiempo de práctica?
1. Las hipótesis nulas correspondientes serían:
H0(1): 2µ1 - µ2 - µ3 = 0
H0(2): µ2 - µ3 = 0
Puesto que se cumple que

∑ j
c1 j c 2 j = 2 ⋅ 0 + (−1) ⋅1 + ( −1) ⋅ ( −1) = 0

estos contrastes son ortogonales


2. Supuestos: muestras aleatorias independientes, distribuidas normalmente
en la población con varianzas homogéneas.
3. Estadísticos de contraste:

F '1 =
(∑ cj 1j
⋅ Yj )
2

=
[2 ⋅ 1,6 + (−1) ⋅ 4 + (−1) ⋅ 4,6]
2

= 8,49
2
c  22 (−1) 2 ( −1) 2 
∑ j
1j
⋅ MCint ra  + +
5 
 ⋅ 2,86
nj  5 5
Comparaciones múltiples 89

F '2 =
(∑ c j 2j
⋅ Yj )
2

=
[1 ⋅ 4 + (−1) ⋅ 4,6]
2

= 0,31
2
c  12 ( −1) 2 
∑ j
2j
⋅ MCint ra  +
5 
 ⋅ 2,86
nj 5

4. Distribución muestral de F’: F-Fisher con glnum = 1 y glden = 12.


5. Nivel de significación: α = 0,05. No obstante, como queremos controlar la
tasa de error en estos dos contrastes, vamos a utilizar αc = 0,05/2 = 0,025
F’1 = 8,49 con p = 0,013
F’2 = 0,31 con p = 0,585
6. Decisión: rechazamos H0(1) y no rechazamos H0(2).
7. Conclusión: Tenemos evidencia de que la práctica previa tiene un efecto
sobre el rendimiento motor, sin embargo, no podemos afirmar que rinden
más los sujetos que disponen de 10 minutos de práctica previa que los que
disponen de solo 5 minutos.

Tal vez nos hemos dado cuenta de que la fórmula del estadístico de
contraste utilizada aquí es la misma que vimos con la prueba
t-Student, sólo que al cuadrado. En efecto, sabemos ya que t2gl es igual
a F1,gl. La introducción de esta prueba se debe a que es más utilizada
con los contrastes ortogonales y, sobre todo, porque nos va a ayudar a
entender la obtención de sumas cuadráticas cuando llevemos a cabo
los análisis de tendencias (aquellos análisis que nos permiten estudiar
la relación entre la variable dependiente y el factor) que veremos en el
apartado 3.8.

3.7. Contrastes a posteriori


Cuando realizamos un análisis de varianza global, la hipótesis alter-
nativa establece que no todas las medias son iguales. De este modo, el
rechazo de la hipótesis nula no permite aceptar una alternativa
concreta.
Por ejemplo, si nuestra hipótesis nula fuera H0: µ1 = µ2 = µ3, en el ca-
so de rechazarla, la alternativa podría ser µ1 ≠ µ2 = µ3 o µ1 ≠ µ2 ≠ µ3 o
cualquier otra combinación posible. En consecuencia, debemos reali-
zar un análisis más detallado que nos permita encontrar dónde están
exactamente las diferencias. Aunque se pueden utilizar para llevar a
cabo contrastes específicos, su uso más habitual es el de todas las
posibles comparaciones dos a dos. Estos análisis reciben el nombre,
como ya sabemos, de contrastes a posteriori. Nosotros vamos a presen-
tar los dos más utilizados: el método de Tukey y el método de Scheffé.
90 Análisis de varianza

A pesar de la utilidad práctica de las técnicas de comparaciones a


posteriori, debe tenerse en cuenta que, en general, poseen escaso poder
estadístico: en muchas ocasiones no detectan diferencias significativas
a menos que sean tan grandes que incluso resulten obvias sin necesi-
dad de realizar ninguna prueba.

3.7.1. Prueba de Tukey


Desarrollada por Tukey en 1953, es uno de los procedimientos más
utilizado para evaluar todas las comparaciones por pares entre las
medias (Kirk, 1982, Toothaker, 1993). También llamado test de la
diferencia honestamente significativa (DHS), está diseñado para
proteger la probabilidad de cometer el error tipo I (α) en las J(J - 1)/2
comparaciones.
Se basa en la distribución muestral del estadístico de rango estu-
dentizado, q:

Ymax − Ymin
q=
MC int ra
nj

dondeYmax yYmin son, respectivamente, la más grande y la más peque-


ña media de las J medias. La distribución muestral de q depende del
número de medias muestrales utilizadas en el cálculo del rangoYmax
-Ymin. Los puntos críticos de esta distribución se encuentran en la
Tabla 7 del apéndice y para su consulta necesitamos dos valores: los
grados de libertad de la MCintra y el número de medias en las que se
basa el rangoYmax - Ymin.
De acuerdo con el procedimiento de Tukey, la diferencia DHSTukey
que dos medias deben superar para considerase significativa, viene
dada por

MC int ra
DHS Tukey = qα , J , gl ⋅
int ra
nj

donde qα , J , gl int ra
se obtiene en la Tabla 7 para un nivel de significación de
0,05 y 0,01.
Si nos fijamos en la fórmula de q, podemos ver la similitud con la
prueba t que vimos con los contrastes planeados. De hecho, si el núme-
ro de comparaciones es igual a 2, el punto crítico de la distribución
Comparaciones múltiples 91

t-Student es igual al punto crítico de la distribución del rango estu-


dentizado dividido por 2 , es decir:

t α , gl = qα , 2, gl / 2

Otra consideración a tener en cuenta es que mediante esta prueba


protegemos la probabilidad de cometer el error tipo I en el conjunto de
comparaciones buscando el punto crítico en la tabla para el número
de medias involucradas en los contrastes. Si recordamos la prueba
planeada de Dunn, esta protección la llevábamos a cabo buscando el
punto crítico correspondiente sólo al número de contrastes que íbamos
a realizar. La conclusión a la que podemos llegar es clara: la prueba
de Tukey es más conservadora que la prueba de Dunn en la búsqueda
de diferencias significativas entre las medias.
El esquema a seguir con este procedimiento es el siguiente:
1. H0: la diferencia entre dos medias cualesquiera = 0.
2. Supuestos: los mismos que en el ANVAR de un factor completa-
mente aleatorizado. Además, las muestras de cada nivel han de
ser del mismo tamaño.
3. Construcción de la tabla de diferencias de medias:

Y2 Y3 ... YJ


Y1 Y1 -Y2 Y1 -Y3 ... Y1 -YJ
Y2 Y2 -Y3 Y2 -YJ
... ...
YJ – 1 YJ - 1 -YJ

y obtención de:

MC int ra
DHS Tukey = qα , J , gl ⋅
error
nj

Los puntos críticos para 1 - α = 0,95 y para 1 - α = 0,99 se en-


cuentran en la Tabla 7.
4. Será significativa toda diferencia en valor absoluto mayor que
DHSTukey.

El procedimiento de Tukey también puede utilizarse para construir


intervalos confidenciales para todas las comparaciones entre pares de
medias. Como venimos apuntando a lo largo del texto, además de
92 Análisis de varianza

permitirnos comprobar la falsedad o no de la H0, nos dan, con un nivel


de confianza 1 - α, una estimación de las diferencias de medias en la
población. El intervalo viene dado por:

(Y j )
− Y j ' ± DHS Tukey

Ejemplo 3.8. Recordemos que al realizar la prueba global F para comprobar si el


tiempo de práctica afectaba al rendimiento motor, ésta resultó significativa. Para
comprobar entre qué grupos se encuentran las diferencias, vamos a realizar todas
las posibles comparaciones con las 3 medias, es decir, 3(3 - 1)/2 = 3. Vamos a
construir la tabla de diferencias entre cada par de medias:

Y2 Y3
Y1 4 – 1,6 = 2,4 4,6 – 1,6 = 3
Y2 4,6 - 4 = 0,6

La diferencia honestamente significativa viene dada por:

MC int ra 2,86
DHS Tukey = q 0,95;3,12 ⋅ = 3,77 ⋅ = 2,85
nj 5

Serán significativas las diferencias entre las medias que superen el valor 2,85.
Por tanto, sólo la diferencia entre los grupos 1 y 3 es significativa. Esto quiere decir
que el rendimiento es mayor cuando se dispone de 10 minutos de práctica antes de
realizar la tarea que cuando no se dispone de tiempo. Sin embargo, nada podemos
afirmar con respecto a la diferencia entre no tener tiempo de práctica y disponer de
cinco minutos o entre disponer de cinco o diez minutos antes de realizar la tarea.
Por otro lado, recordando la comparación que hacíamos con la prueba de Dunn,
si de las 3 posibles comparaciones sólo queremos realizar 2, el valor crítico que
arroja la Tabla 6 es de 2,56. Bien es cierto que en este ejemplo llegamos a la mis-
ma conclusión, no obstante nos sirve para comprobar cómo el punto crítico de Tu-
key es más restrictivo.
Aplicando la fórmula para los intervalos confidenciales obtenemos:

(Y − Y ) ± DHS
1 2 Tukey = 2,4 ± 2,85 = [− 0,45 ; 5,25]

(Y − Y )± DHS
1 3 Tukey = 3 ± 2,85 = [0,15 ; 5,85]

(Y − Y )± DHS
2 3 Tukey = 0,6 ± 2,85 = [− 2,25 ; 3,45]
Comparaciones múltiples 93

3.7.2. Prueba de Scheffé


La prueba que desarrolló Scheffé en 1953 es uno de los procedimientos
disponibles más flexible, conservador y robusto para curiosear los
datos (Kirk, 1982). Del mismo modo que la prueba de Tukey, sirve para
evaluar todas las comparaciones por pares entre las medias una vez
hemos obtenido una F significativa en el ANVAR, pero además, permi-
te evaluar cualquier tipo de comparación21. Por otro lado, no necesi-
tamos que los tamaños muestrales sean iguales y, como el procedi-
miento anterior, está diseñada para proteger el nivel α del que parti-
mos en cada familia de comparaciones.
De acuerdo con este procedimiento, la diferencia crítica DCScheffé
que dos medias (o una combinación de medias) deben superar para
considerase significativa, viene dada por

c 2j
DCSheffé = ( J − 1) ⋅ Fα , J −1, gl ⋅ MCint ra ⋅ ∑
int ra
nj

Dado que se basa en la distribución muestral F22, es una prueba,


como el ANVAR, robusta frente a la no normalidad y heterogeneidad
de varianzas.
Dos son los esquemas a seguir dependiendo de si lo que queremos es
comprobar todas las posibles diferencias o cualquier comparación que
nos interese:

21 Conviene aclarar que también se puede desarrollar comparaciones concretas

mediante la aproximación de Tukey, sin embargo, es raro encontrarlas porque,


para esta clase de contraste, el método de Scheffé es mucho más potente (Zwick,
1993).
22 En realidad, se basa, como todas las pruebas vistas hasta el momento, en el

estadístico t, puesto que podemos formular de esta manera el estadístico de contras-


te:

tS =
(∑ c j pj ⋅ Yj )
2

c 2pj
MCint ra ⋅ ∑ j
nj

y ya sabemos que t2 = F, sólo que ahora, para controlar α comparamos el valor


del estadístico de contraste con ( J − 1) ⋅ Fα , J −1, gl int ra
, donde Fα , J −1, gl lo buscamos en la
int ra

Tabla 4.
94 Análisis de varianza

A. Estudiar todas las posibles comparaciones entre pares de medias


(en este sentido, es más conservadora que Tukey):
1. H0: la diferencia entre dos medias = 0.
2. Supuestos: los mismos que en el ANVAR de un factor completa-
mente aleatorizado.
3. Construcción de la tabla de diferencias de medias:

Y2 Y3 ... YJ


Y1 Y1 -Y2 Y1 -Y3 ... Y1 -YJ
Y2 Y2 -Y3 Y2 -YJ
... ...
YJ – 1 YJ - 1 -YJ

y cálculo de la diferencia crítica (DCScheffé):

c 2j
DCSheffé = ( J − 1) ⋅ Fα , J −1, gl ⋅ MCint ra ⋅ ∑
int ra
nj

4. Será significativa toda diferencia en valor absoluto mayor que


DCScheffé.

B. Estudiar cualquier tipo de comparación que queramos plantear:

1. H0: una determinada combinación lineal de medias = 0.


2. Supuestos: los mismos que en el ANVAR de un factor.

3. Cálculo de ∑ cY j j j

Cálculo de la diferencia crítica (DCScheffé):

c 2j
DCSheffé = ( J − 1) ⋅ Fα , J −1, gl ⋅ MCint ra ⋅ ∑
int ra
nj

4. Se rechaza H0 si ∑ cY
j j j en valor absoluto es mayor que DCScheffé.

El procedimiento de Scheffé también se puede utilizar para obtener


intervalos confidenciales mediante:

(Y j )
− Y j ' ± DC Scheffé
Comparaciones múltiples 95

cuando realizamos todas las comparaciones dos a dos

∑ cY
j j j ± DCScheffé

cuando realizamos comparaciones concretas.

Ejemplo 3.9. Vamos a aplicar la prueba de Scheffé a nuestros datos. En primer lugar,
estudiaremos todas las posibles comparaciones entre pares de medias. Para ello,
construimos la tabla de diferencias y calculamos la DCScheffé:

Y2 Y3
Y1 4 - 1,6 = 2,4 4,6 - 1,6 = 3
Y2 4,6 - 4 = 0,6

La diferencia crítica se obtiene mediante:

 ( −1) 2 12 
DC Scheffé = (3 − 1) ⋅ 3,89 ⋅ 2,86 ⋅  +  = 2,79 ⋅1,07 = 2,98

 5 5 

Sólo la diferencia entre las medias del primer y tercer grupo supera la diferencia
crítica. Así pues, concluimos que existen diferencias significativas entre las condi-
ciones de ningún tiempo de práctica y diez minutos de práctica.
Observemos que el valor crítico obtenido mediante la prueba de Scheffé es ma-
yor que el que obtuvimos con Tukey: 2,98 frente a 2,85. Aunque en nuestro ejemplo
hemos llegado a la misma conclusión con ambas pruebas, a la vista de los valores
críticos, podemos ver cómo la prueba Tukey es más sensible para detectar diferen-
cias significativas entre las medias, en comparación con la prueba de Scheffé.
Podemos establecer los intervalos confidenciales para el conjunto de las tres
comparaciones:

(Y − Y ) ± DC
1 2 Scheffé = 2,4 ± 2,98 = [− 0,58 ; 5,38]

(Y − Y ) ± DC
1 3 Scheffé = 3 ± 2,98 = [0,02 ; 5,98]

(Y − Y )± DC
2 3 Scheffé = 0,6 ± 2,98 = [− 2,38 ; 3,58]

En segundo lugar vamos a comprobar la siguiente comparación:

H0: 2µ1 - µ2 - µ3 = 0

Calculamos

∑ j
c jY j = 2 ⋅ 1,6 + (−1) ⋅ 4 + (−1) ⋅ 4,6 = −5,4 (en valor absoluto, 5,4)
96 Análisis de varianza

 22 ( −1) 2 ( −1) 2 
y DC Scheffé = (3 − 1) ⋅ 3,89 ⋅ 2,86 ⋅  + +  = 2,79 ⋅1,85 = 5,17

 5 5 5 

Dado que 5,4 es mayor que 5,17, se rechaza H0 y concluimos que los grupos
que disponen de tiempo de práctica rinden más que los que no disponen del mis-
mo.

Ante un determinado contraste, decidir entre el empleo de la prue-


ba de Tukey o de Sheffé dependerá, en primer lugar, del tipo de com-
paración que hagamos. Si se trata de comparaciones por pares entre
medias, hemos visto que es preferible el uso del test de Tukey ya que es
más sensible que el de Scheffé, pero también exige que las muestras
tengan el mismo tamaño; si queremos realizar otro tipo de compara-
ción entre las medias, el test más apropiado es Scheffé.
Por otro lado, la prueba de Scheffé es más robusta frente a la viola-
ción de los supuestos de normalidad e igualdad de varianzas pobla-
cionales. Por el contrario, es muy conservadora, es decir, exige dife-
rencias muy claras entre las medias para que éstas sean detectadas,
tanto, que a veces no es necesario recurrir al contraste.
Por ello, si se desea estudiar dónde se encuentran las diferencias
entre las medias y si se cumplen los requisitos precisos para la aplica-
ción de la prueba de Tukey, es preferible su uso, dado que es más sen-
sible que la de Scheffé.

3.8. Análisis de tendencias


Sabemos ya que el análisis de varianza pone a prueba la efectividad
de una variable independiente sobre una variable dependiente, de
manera que, si rechazamos H0, podemos concluir que no todas las
medias poblacionales son iguales o, lo que es lo mismo, que los valores
en la variable dependiente varían cuando cambian los valores de la
variable independiente. Esto quiere decir que ambas variables están
relacionadas. Si la variable independiente es cuantitativa, podemos,
además, preguntarnos acerca de la forma de la relación entre ambas:
¿es lineal?, ¿cuadrática?, ¿cúbica?
Un ejemplo que nos puede ayudar a captar el sentido de las rela-
ciones entre variables psicológicas es la ley de Yerkes-Dodson. De
acuerdo con esta ley, al realizar una tarea importante, el rendimiento
en la misma está en función de la motivación de la siguiente manera:
cuando la motivación es baja la apatía conlleva, como sabemos, un
bajo rendimiento; según va aumentando la motivación también mejora
el rendimiento; sin embargo, cuando la motivación es muy elevada,
lejos de ser el rendimiento muy alto, por diversos factores que irrum-
Comparaciones múltiples 97

pen en el comportamiento, éste decrece de nuevo. Pues bien, la relación


entre la motivación y el rendimiento se puede expresar mediante una
función cuadrática cuya representación gráfica tiene forma de U
invertida (Jáñez, 1989).
Cuando nos planteamos un diseño cuya variable independiente es
cuantitativa podemos, por supuesto, ignorar los valores numéricos del
factor y realizar un clásico análisis de varianza para comprobar su
posible influencia sobre la variable dependiente o ir en busca de algu-
nas diferencias específicas a través de ciertas comparaciones bien a
priori bien a posteriori. Sin embargo, también podemos estar interesa-
dos en encontrar la forma de la función que relaciona los niveles
numéricos del factor con las medias de cada grupo. La técnica que nos
permite este tipo de análisis recibe el nombre de Análisis de tenden-
cias. Su objetivo es encontrar el grado del polinomio que mejor se
adapte a los datos, lo que es muy interesante ya que nos puede ense-
ñar, como en el ejemplo anterior, acerca del comportamiento de las
variables psicológicas.
Si descubrimos una tendencia en los datos (una relación significa-
tiva entre las dos variables) podemos buscar una ecuación o función
que nos describa de forma satisfactoria esa tendencia. Existen muchos
tipos de funciones, pero van a ser las de tipo polinomial las que nos
proporcionen los ajustes más sencillos de los datos23.
Recordemos que la SCinter se puede descomponer en J – 1 sumas
cuadráticas, cada una de las cuales refleja un contraste ortogonal
entre las medias. Una suma cuadrática para el p – ésimo contraste,
por ejemplo, viene dada por

SC p =
(∑ c
j pj ⋅Y j )
2

c 2pj
∑ j
nj

23 Un polinomio es una expresión algebraica del tipo: β + β X + β X2 + β X3 + ...,


0 1 2 3
donde β0 es una constante, β1 X es el componente lineal, β 2 X2 es el componente
cuadrático, β3 X3 es el componenete cúbico...
Así, una función del tipo Y = β 0 + β1 X es una función de primer grado o lineal;
una función del tipo Y = β0 + β1 X + β2 X2 es una función de segundo grado o cuadrá-
tica; una función del tipo Y = β0 + β1X + β2X2 + β3X3 es una función de tercer grado o
cúbica, etc.
98 Análisis de varianza

Recordemos también que

SC1 + SC2 + ... + SCJ - 1 = SCinter

Pues bien, del mismo modo podemos fraccionar la SCinter en J – 1


sumas cuadráticas que reflejen contrastes de tendencias ortogonales.
Ahora, si tenemos J = 2 medias podemos estudiar la tendencia li-
neal, con J = 3 la tendencia lineal y cuadrática, con J = 4 la tenden-
cia lineal, cuadrática y cúbica, etc.
Así, bajo la hipótesis nula

H0 (t):ct1µ1 + ct2µ2 + ... + ctJµJ = 0

siendo t = 1, 2, ..., J – 1, cada uno de los contrastes de tendencias orto-


gonales, podemos elegir los coeficientes polinomiales ortogonales, ctj,
de forma que nos permitan poner a prueba la forma de la relación
(lineal, cuadrática, cúbica, etc.) entre la variable independiente y la
variable dependiente.
Si los niveles de la variable independiente están igualmente espa-
ciados y los tamaños muestrales son iguales, podemos encontrar estos
coeficientes en la Tabla 9 del apéndice24. Estos coeficientes se han
derivado para que representen, cada conjunto, una y sólo una tenden-
cia o forma de relación.
La forma de proceder es exactamente igual a la que vimos con los
contrastes a priori ortogonales utilizando la prueba F’ (de hecho, las
comparaciones de tendencia son un caso particular de las compara-
ciones ortogonales), solo que ahora los componentes ortogonales, en
lugar de reflejar las diferencias entre dos grupos de medias que se
comparan, reflejan el tipo de relación entre las variables independien-
te y dependiente. Además, bajo las condiciones de variable indepen-
diente cuantitativa con los niveles igualmente espaciados y tamaños
grupales iguales, los coeficientes ortogonales, ctj, los podemos encon-
trar en la Tabla 9.
Antes de seguir adelante, vamos a ver qué tendencias podemos es-
tudiar en nuestro ejemplo.

24 De no ser así, se puede acudir a Kirk (1982) para ver cómo se derivan los coefi-

cientes ortogonales.
Comparaciones múltiples 99

Ejemplo 3.10. En primer lugar, nuestra variable independiente, tiempo de práctica, es


cuantitativa, con 3 niveles igualmente espaciados: 0’, 5’, 10’. Además, los 3 grupos
tienen el mismo tamaño: 5 sujetos cada uno.
Puesto que J = 3, podemos estudiar J - 1 = 2 comparaciones de tendencias,
concretamente, podemos contrastar la tendencia lineal y la tendencia cuadrática.
Tendremos que poner a prueba, por tanto, dos hipótesis, una para cada ten-
dencia, y los pesos que asignemos a las medias los podemos encontrar en la Ta-
bla 9:

H0(lineal): -1µ1 + 0µ2 + 1µ3 = 0

Bajo esta hipótesis establecemos que la tendencia lineal no existe, es nula. En


caso de rechazarla, afirmamos que sí existe una relación lineal entre la variable in-
dependiente y la variable dependiente.

H0(cuadr.): 1µ1 - 2µ2 + 1µ3 = 0

Bajo esta hipótesis establecemos que la tendencia cuadrática no existe, es nu-


la. En caso de rechazarla, afirmamos que sí existe una relación cuadrática entre la
variable independiente y la variable dependiente.
Para cada una de estas hipótesis aplicamos el estadístico de contraste:

F( tendencia ) =
(∑ c j ( tendencia ) j Yj )
2

 c2 
 ∑ ( tendencia ) j  ⋅ MC int ra
 j
nj 
 

que sigue una distribución F-Fisher con g.l.num. = 1 y g.l.den. = N - J.


De este modo:

F( lineal ) =
(∑ c j ( lineal ) j Yj )
2

=
[(−1) ⋅ 1,6 + 0 ⋅ 4 + 1 ⋅ 4,6 ]
2

= 7,87
 c2   (−1) 2 02 12 
 ∑ ( lineal ) j  ⋅ MCint ra  + +  ⋅ 2,86
 j nj   5 5 5
 

F( cuadr .) =
(∑ c j ( cuadr .) j Yj ) 2

=
[1 ⋅ 1,6 + (−2) ⋅ 4 + 1 ⋅ 4,6 ] 2

= 0,94
 c2  12 ( −2) 2 12 
 ∑ ( cuadr .) j  ⋅ MCint ra  + +  ⋅ 2,86
 j
nj  5 5 5
 

Nuestro nivel de significación es α = 0,05. Ahora bien, ocurre lo mismo que en


los contrastes a priori ortogonales, es decir, no hay un control del error tipo I. Por
ello, vamos a llevar a cabo cada contraste con α/2 = 0,025.
Así, F0,975; 1, 12 = 6,55
100 Análisis de varianza

Por tanto, decidimos rechazar H0(lineal) y mantener H0(cuadr.). Esto quiere decir que
la relación entre el tiempo de práctica y el rendimiento es lineal, no pudiendo afir-
mar que sea de otro tipo.

En nuestro ejemplo, con tres grupos sólo estudiamos la tendencia


lineal y la cuadrática, pero ¿qué ocurre cuando tenemos cuatro, cinco
o más grupos?, ¿debemos estudiar todas las tendencias posibles?, ¿cuá-
les describen adecuadamente la relación entre las variables?
Si el investigador no tiene una idea concreta sobre qué tendencia
estudiar, puede comenzar planteándose el contraste de tendencia
lineal. Si éste no es significativo, puede ir probando con sucesivos
contrastes de tendencia cuadrática, cúbica, etc. El problema de encon-
trarse con un contraste de tendencia lineal significativo radica en que
este test no prueba lo apropiado de emplear, en primer lugar, una
recta para ajustar los datos, en lugar de cualquier otra función poli-
nómica. En estos casos puede llevar a cabo un contraste global para
los componentes cuadrático, cúbico, etc. Es lo que se denomina con-
traste de desviación de la linealidad.
La forma de realizarlo es muy sencilla. Simplemente restamos a la
suma cuadrática intergrupos, SCinter, la suma cuadrática del compo-
nente lineal, SClineal:

SCdesv. lin. = SCinter - SClineal

Así mismo, los grados de libertad asociados a esta suma cuadrática


de desviación de la linealidad son:

gldesv. lin. = glinter - gllineal

Por tanto, podemos utilizar el estadístico

MC desv.lin. SC desv.lin. / gl desv.lin.


Fdesv.lin. = =
MC int ra SC int ra / N − J

para probar si la relación entre las variables es o no puramente li-


neal.
La razón de proceder de esta manera es únicamente por simplici-
dad. En un afán de búsqueda de sencillez en la explicación de lo que
ocurre en nuestros datos, es muy común comenzar con un contraste
lineal. Si éste resulta significativo y la suma cuadrática residual no,
entonces la tendencia lineal es una descripción adecuada y parsimo-
niosa de los resultados. Sin embargo, un residual también significati-
vo indica que la tendencia lineal es sólo aparente y en estos casos
podemos ir probando otras tendencias (con sus residuales). Lo que no
Comparaciones múltiples 101

debemos hacer es presentar nuestros datos comentando la tendencia


significativa y obviando por completo la variación residual.
Por último, queremos señalar que, a pesar de que una función poli-
nómica puede describir la relación entre la variable independiente y
la variable dependiente, puede no ser la mejor función. De hecho, en
algunos casos, las funciones logarítmicas, exponenciales, etc., presen-
tan un mejor ajuste a los datos que cualquier función polinómica. Por
ejemplo, de todos es conocida la ley psicofísica de Stevens, que estable-
ce una función potencial entre la cantidad de estimulación y la sensa-
ción que suscita25.

3.9. Un comentario final


En el capítulo introductorio acerca del contraste de hipótesis, ya
apuntábamos algunos de los problemas que se presentan con este
procedimiento de análisis estadístico. Hemos reservado para este
apartado otro problema, de aparición también frecuente, que hace
referencia a los resultados ambiguos que se obtienen mediante en el
contraste de significación debido a la falta de validez de las hipótesis
estadísticas.
Wampold, Davis y Good (1990) señalan que las causas posibles de
esta falta de validez, no sólo se encuentran en el establecimiento de
hipótesis ambiguas (por ejemplo, “el objeto del estudio es determinar
la relación entre...”) o en la incongruencia entre las hipótesis de traba-
jo y estadísticas (por ejemplo, expresar diferencias en variabilidad por
diferencias de medias), sino también en el establecimiento de contras-
tes difusos. Un ejemplo claro lo constituye el contraste ómnibus. Éste,
como ya tuvimos ocasión de examinar en el tema anterior, prueba la
hipótesis nula global de que ninguna de las medias difiere realmente,
en contra de la imprecisa hipótesis alternativa de que no todas son
iguales. Abelson (1998) utiliza una metáfora para referirse a este tipo
de contrastes cuando dice que “hacer pruebas generales es como tocar
la guitarra con guantes de boxeo” (pág. 140).
El problema se encuentra en el hecho de que este tipo de contrastes,
de tan generales que son, no nos dicen nada acerca de qué medias
difieren (cuando se rechaza H0), son muy poco informativos de lo que
puede estar ocurriendo en los datos y pueden no reflejar la hipótesis de

25 Concretamente, para las sensaciones aversivas el exponente de la función es

sistematicamente mayor que la unidad, de forma que la intensidad de la sensación


crece más rápidamente que la de la estimulación, lo que representa un importante
mecanismo adaptativo de nuestro organismo (Jáñez, 1989).
102 Análisis de varianza

trabajo. En este sentido, Abelson (1998) dice que no constituyen una


presentación articulada. La articulación supone tanto una planifica-
ción minuciosa de la investigación como unos resultados acertados
presentados con un foco claro (una de las características de una esta-
dística razonada) y las pruebas ómnibus están lejos de alcanzarla.
Como alternativa a las pruebas F disponemos de las comparaciones
planeadas. Además de ser más potentes a la hora de detectar efectos,
están mejor articuladas, más focalizadas o, en otras palabras, están
mejor enfocadas conceptualmente y conducen a estudios mejor reali-
zados y a teorías más claras. Sin embargo, también hay que hacer una
llamada de atención. La elección de una prueba planeada ciertamente
debe estar bien fundamentada y ser utilizada con cierta frecuencia
por los investigadores para ser convincente, de otro modo, puede hacer
pensar que su elección es el resultado de un análisis retrospectivo
después de la inspección de las medias muestrales (Everitt, 1996), dado
que estos contrastes son más potentes que la prueba F y que las prue-
bas a posteriori.
En efecto, la elección de pruebas planeadas sobre la base del mayor
número de resultados estadísticamente significativos a que dan lugar,
no es correcta. Si un investigador que está realizando un estudio de
carácter más exploratorio (y, por tanto, no parte de una teoría que
dirija claramente sus pasos) quiere incrementar la potencia de las
decisiones de su investigación, deberá intentar hacerlo incrementando
el tamaño de la muestra, la homogeneidad de la misma y mejorando la
calidad de la medida (Zwick, 1993) y no eligiendo contrastes cuya
técnica estadística le permita rechazar más fácilmente su/s hipótesis
nulas/s.
4. Análisis de varianza de dos facto-
res completamente aleatorizado

4.1. Introducción
En muchos casos un simple análisis de varianza de una vía, con o sin
comparaciones múltiples, resulta ser el mejor método para analizar
los datos de nuestra investigación. A veces, sin embargo, los modelos
de un solo factor no son los más apropiados, siendo los modelos facto-
riales los que mejor se adaptan a las necesidades del investigador.
Consideremos el siguiente ejemplo:

Ejemplo 4.1. Supongamos que un investigador desea comprobar, en un estudio con


animales, si en el rendimiento de las ratas de un laberinto influyen tanto su raza
(blancas, marrones o negras) como la forma de crianza (en libertad o en cautiverio).
Con este propósito, escoge 6 ratas de cada raza, la mitad de las cuales se criaron
en libertad y la otra mitad en cautividad. Como variable dependiente se va a utilizar
el número de aciertos de cada una al salir del laberinto. Tenemos, por tanto, un di-
seño con 6 condiciones experimentales. Los datos podrían disponerse como se
muestra en la siguiente tabla:
104 Análisis de varianza

libertad cautiverio
B N M B N M
8 8 8 10 0 15
4 10 6 6 4 9
0 6 4 14 2 12

Yj 4 8 6 10 2 12

Si tal como sabemos hacer aplicamos un análisis de varianza de un factor a es-


tos datos, encontramos diferencias significativas a un nivel α = 0,05 entre los gru-
pos. Los resultados se muestran a continuación:

FV SC gl MC F p
Inter 210 5 42 4,75 0,02
Intra 106 12 8,83
total 316 17

Sin embargo, al investigador le interesaba averiguar si el rendimiento depende,


por un lado, de la forma de crianza y, por otro, de su raza. Se trata, por tanto, de
dar respuesta a dos cuestiones concretas: a) ¿existen diferencias en el rendimiento
entre las ratas criadas en libertad y las criadas en cautividad? y b) ¿hay diferencias
entre las tres razas? Ambas cuestiones se podrían resolver, como ya sabemos,
mediante dos contrastes a priori. Veamos el primero.
Para la pregunta sobre la forma de crianza podemos realizar el siguiente con-
traste:

H0(1): µ1 + µ2 + µ3 - µ4 - µ5 - µ6 = 0

Utilizando la prueba F’ planeada expuesta en el tema 3, tenemos que:

MCintra = 8,83

SC1 =
(∑ c j pj ⋅Yj )
2

=
36
= 18
∑ j c 2pj 2
nj

MC1 18 / 1
F1' = = = 2,038 ; p = 0,179
MC int ra 8,83

por lo que tenemos que concluir que no encontramos diferencias significativas


(siendo α = 0,05) en el rendimiento entre ratas criadas en libertad y criadas en cau-
tividad.
Para la segunda pregunta, podemos responder también mediante un contraste
a priori, solo que, en esta ocasión, al ser tres los grupos a contrastar, debemos
combinar dos comparaciones independientes (3 – 1) en una sola. La H0(2) que ex-
Análisis de varianza de dos factores completamente aleatorizado 105

ponemos a continuación es un ejemplo de las infinitas posibles combinaciones de


contrastes ortogonales:

H0(2A): µ1 - µ2 + 0µ3 + µ4 - µ5 + 0µ6 = 0


H0(2B): µ1 + µ2 - 2µ3 + µ4 + µ5 - 2µ6 = 0
MCintra = 8,83

16
SC 2 A = = 11,94
1,34

144
SC 2 B = = 36
4

MC2 47,94 / 2
F2' = = = 2,71 ; p = 0,106
MCint ra 8,83

Y en este caso, tampoco podemos concluir con la existencia de diferencias sig-


nificativas en el rendimiento según la raza de las ratas.
Llegados a este punto, podemos ver cómo se nos plantea un problema. Hemos
realizado un contraste para ver la posible influencia de la forma de crianza en el
rendimiento y no hemos encontrado diferencias significativas. También hemos rea-
lizado un contraste sobre la raza de las ratas en el rendimiento y tampoco el resul-
tado ha sido significativo. En consecuencia, podríamos concluir que no existen dife-
rencias significativas en el rendimiento, ni como efecto del tipo de crianza, ni como
efecto de la raza. Sin embargo, de haber realizado únicamente el test global sobre
los 6 grupos, sí hubiésemos encontrado diferencias significativas entre los mismos.
De algún modo, parece que hemos perdido esas diferencias al realizar los contras-
tes anteriores26.
Un indicio para la localización de este efecto significativo lo podríamos encon-
trar en los grados de libertad empleados. La F global sobre los 6 grupos tiene 5
grados de libertad (J – 1) para la fuente de variación intergrupos. Según vimos en el
tema de comparaciones múltiples, podemos emplear estos 5 grados de libertad pa-
ra realizar 5 comparaciones ortogonales. En el contraste H0(1) hemos empleado 1
grado de libertad y en el contraste H0(2) hemos empleado 2 grados de libertad.
Luego tan sólo hemos realizado 3 de las 5 posibles comparaciones ortogonales.
Nos quedan 2 grados de libertad por emplear. Vamos a calcular el valor de la razón
F para las diferencias restantes:

SCrestante = SCinter – SC1 – SC2 = 210 – 18 – 48 = 144

que se lleva 2 grados de libertad. Por tanto,

26 No debemos olvidar todo lo que hemos comentado en el tema 3 acerca de los

contrastes a priori, a posteriori y la prueba global F. Nuestra intención, al presen-


tar tanto los contrastes planeados como la prueba ómnibus, tiene un fin meramente
didáctico, de cara a observar la pérdida de información cuando no se tiene en
cuenta la actuación conjunta de las variables tipo de raza y tipo de crianza.
106 Análisis de varianza

MCrestante = 144/2 = 72
F’restante = 72/8,83 = 8,15; p = 0,0058

Existen, pues, diferencias significativas entre las medias, independientes de las


diferencias puestas a prueba en los anteriores contrastes, pero ¿cuáles son esas
diferencias? La respuesta a esta pregunta podemos encontrarla observando la si-
guiente figura:

V.D. 14
12
10
8 L
6 C

4
2
0
B N M

En la gráfica se puede observar claramente que el tipo de crianza sobre el ren-


dimiento en el laberinto depende de la raza de las ratas o, alternativamente, el efec-
to de la raza sobre el rendimiento depende del tipo de crianza. Concretamente, po-
demos decir que criar a las ratas en libertad favorece el rendimiento de las negras,
que son las que menos errores cometen, mientras que la crianza en cautividad
tiende a desfavorecer a las negras frente a las otras dos razas.

Este efecto observado en nuestro ejemplo es lo que se conoce como


interacción entre los dos factores sobre la variable dependiente. Su
representación gráfica aparece en la figura como el cruce de dos
líneas. En la investigación no sólo se estudia el efecto por separado de
las variables independientes sobre la dependiente, sino que también se
estudia el posible efecto de interacción (que no es la suma de los efec-
tos por separado) entre las dos variables independientes sobre la
dependiente. Esta es la principal ventaja de los diseños factoriales
frente a los diseños de un factor.
Siguiendo a Pereda (1987) vamos a presentar otras ventajas de es-
tos diseños frente a los univariados:
No sólo se reduce el tiempo necesario para el experimento, sino que
además hay un considerable ahorro de unidades experimentales. Por
ejemplo, si tenemos dos variables independientes, A y B, con dos y tres
niveles (normalmente se escribe 2 x 3), respectivamente, trabajar con
los dos factores por separado supone utilizar el doble de unidades
experimentales. Como se puede apreciar en las tablas expuestas abajo,
Análisis de varianza de dos factores completamente aleatorizado 107

para cada factor utilizamos 120 unidades, lo que supone un total de


240 unidades experimentales.

A1 A2
nj 60 60 120

B1 B2 B3
nk 40 40 40 120

En cambio, al tratar los dos factores conjuntamente, como se puede


ver en la siguiente tabla, reducimos el número total de unidades a la
mitad, aun cuando seguimos trabajando con 120 en el factor A y otros
120 en el factor B.

B1 B2 B3
A1 20 20 20 60
A2 20 20 20 60
40 40 40 120

Por otro lado, es más fácil controlar las variables extrañas que con-
forman el error experimental, ya que trabajamos con un solo diseño en
lugar de dos.
Por último, la generalización de los resultados se ve incrementada,
dado que nos encontramos en una situación experimental más pareci-
da a la realidad, donde las variables interactúan y sus efectos son
conjuntos más que aislados.
Vamos a pasar ya a estudiar el modelo de dos factores de efectos fi-
jos completamente aleatorizado. Como ya sabemos, esto supone traba-
jar con dos variables independientes, cada una con un número deter-
minado de niveles y sobre las cuales queremos realizar las inferencias
estadísticas. Además, se va a asignar aleatoriamente el total de uni-
dades experimentales a la combinación de A x B niveles de las varia-
bles.
Vamos a seguir los pasos empleados en el ANVAR de un factor, es
decir, empezaremos viendo la notación y estructura de los datos, pre-
sentaremos el modelo y daremos paso a los contrastes de hipótesis
pertinentes.
108 Análisis de varianza

4.2. Estructura y notación de los datos


Si partimos de un diseño con dos factores: A con J niveles y B con K
niveles y distribuimos aleatoriamente a los N sujetos en los JK grupos
de tamaño n, los resultados obtenidos tras la realización del experi-
mento se pueden expresar de la siguiente manera:

B1 B2 ... Bk ... BK Tj+ Yj+


Y111 Y112 Y11k Y11K
Y211 Y212 Y21k Y21K
... ... ... ... ...
A1 Yi11 Yi12 ... Yi1k ... Yi1K T1+ Y1+
... ... ... ... ... ...
Yn11 Yn12 Yn1k ... Yn1K
T11 Y11 T12 Y12 ... T1k Y1k ... T1K Y1K
Y121 Y122 Y12k Y12K
Y221 Y222 Y22k Y22K
... ... ... ...
A2 Yi21 Yi22 ... Yi2k ... Yi2K T2+ Y2+
... ... ... ... ... ...
Yn21 Yn22 ... Yn2k ... Yn2K

T21 Y21 T22 Y22 ... T2k Y2k ... T2K Y2K
... ... ... ... ... ... ...
Y1j1 Y1j2 Y1jk Y1jK
Y2j1 Y2j2 Y2jk Y2jK
... ... ... ... ... ...
Aj Yij1 Yij2 ... Yijk ... YijK Tj+ Yj+
... ... ... ... ... ...
Ynj1 Ynj2 Ynjk YnjK

Tj1 Yj1 Tj2 Yj2 ... Tjk Yjk ... TjK YjK
... ... ... ... ... ... ...
Y1J1 Y1J2 Y1Jk Y1JK
Y2J1 Y2J2 Y2Jk Y2JK
... ... ... ... ... ...
AJ YiJ1 YiJ2 ... YiJk ... YiJK TJ+ YJ+
... ... ... ... ... ...
YnJ1 YnJ2 YnJk YnJK

TJ1 YJ1 TJ2 YJ2 ... TJk YJk ... TJK YJK
T+k T+1 T+2 ... T+k ... T+K T
Y+k Y+1 Y+2 ... Y+k ... Y+K Y
Análisis de varianza de dos factores completamente aleatorizado 109

donde
Yijk: puntuación del sujeto i en la V.D. Y (i: 1, 2, ..., n)
bajo el nivel j del factor A (j: 1, 2, ..., J)
y el nivel k del factor B (k: 1, 2, ..., K)
Tj+: suma de puntuaciones de los sujetos pertenecientes al nivel j
del factor A

T j + = ∑ j ∑ k Yijk

T+k: suma de puntuaciones de los sujetos pertenecientes al nivel k


del factor B

T+ k = ∑i ∑ j Yijk

Tjk: suma de las n puntuaciones de cada casilla

T jk = ∑i Yijk

Yj+: media correspondiente a cada nivel del factor A

Tj +
Yj + =
nK

Y+k: media correspondiente a cada nivel del factor B

T+ k
Y+ k =
nJ

Yjk: media de cada combinación de niveles

T jk
Y jk =
n

Esta forma de expresarnos hace referencia, claramente, a datos


muestrales. Si queremos referirnos a la población, en lugar de los
estadísticosYj,Yk,Yjk,Y, etc., hablaremos de los parámetros µj, µk, µjk,
µ, etc.
El ejemplo expuesto anteriormente sobre el rendimiento de las ratas
en el laberinto puede simplificarse bastante si reorganizamos los
datos presentados en un principio. Veámoslo a continuación.
110 Análisis de varianza

Ejemplo 4.2. En la tabla siguiente definimos las filas como los dos niveles del factor A
(tipo de crianza) y las columnas como los niveles del factor B (tipo de raza).

B
B N M Tj+ Yj+
8 8 4
4 10 6
L 0 6 8
T11 = 12 T12 = 24 T13 = 18 T1+ = 54
A Y11 = 4 Y12 = 8 Y13 = 6 Y1+ = 6
10 0 15
6 4 9
C 14 2 12
T21 = 30 T22 = 6 T23 = 36 T2+ = 72
Y21 = 10 Y22 = 2 Y23 = 12 Y2+ = 8
T+k T+1 = 42 T+2 = 30 T+3 = 54 T = 126
Y+k Y+1 = 7 Y+2 = 5 Y+3 = 9 Y = 7

4.3. Modelo
Básicamente el modelo correspondiente al diseño de dos factores de
efectos simples completamente aleatorizado no se diferencia excesiva-
mente del modelo de un factor, dado que ambos se fundamentan en el
modelo lineal general. Así pues, la puntuación de un sujeto va a venir
dada por la suma de una serie de componentes. En este caso, no obs-
tante, vamos a tener en cuenta tanto el efecto del factor A y del factor
B, así como de la interacción de ambos factores, sobre cada observa-
ción.
De esta manera, el valor de la variable dependiente Y observada en
el sujeto i sometido al tratamiento j del factor A y al tratamiento k del
factor B queda expresado como la suma de cinco componentes:

Yijk = µ + αj + βk + (αβ)jk + εijk

donde µ es el promedio de todas las puntuaciones en la población.


αj es el efecto específico del factor A:

αj = µj+ - µ

βk es el efecto específico del factor B:


Análisis de varianza de dos factores completamente aleatorizado 111

βk = µ+k - µ

(αβ)jk es el efecto de la interacción entre los factores A y B:

(αβ)jk = µjk - µj+ - µ+k + µ

εijk es el término de error:

εijk = Yijk - µjk

En este modelo de ANVAR vemos que para cada observación tene-


mos en cuenta el hecho de estar sometida a un nivel concreto de A
(cuyo efecto es αj) y a un nivel concreto de B (cuyo efecto es βk). Además,
y como variación más importante sobre el modelo de un factor, tene-
mos en cuenta el efecto de interacción, (αβ)jk, el efecto de combinar el
nivel j del factor A con el nivel k del factor B. Es muy importante no
olvidar que trabajamos con un modelo aditivo y esto supone que el
componente (αβ)jk ni es la suma de los efectos por separado ni, por
supuesto, su producto, simplemente refleja el efecto de interacción,
efecto que se suma a los demás en la composición de la observación
Yijk. Además, igual que en el ANVAR de un factor, tenemos en cuenta
aquellos factores que no hemos controlado y que pueden afectar a la
puntuación del sujeto, cuyo efecto viene dado por εijk.
Por otro lado, de las anteriores expresiones se desprende que:

∑α j j = ∑ k β k = ∑ j (αβ ) jk = ∑ k (αβ ) jk = 0

Como en el caso de un factor, la ecuación expresada anteriormente


se de deduce de una expresión más general en la que los parámetros
relativos a todos los efectos del modelo tienen los valores 0 ó 1 en las
variables indicadoras o dummy (Riba, 1987). Si el modelo fuese 2 x 3,
la ecuación del mismo en función de estas variables sería:

Yijk = µX0 + α1X1 + α2X2 + β1X3 + β2X4 + β3X5 + αβ11X6 + αβ12X7 +

+ αβ13X8 + αβ21X9 + αβ22X10 + αβ23X11 + εijk

Como podemos observar, esta expresión tiene la misma forma que el


modelo de regresión múltiple de Y sobre X0, X1, ... variables indicado-
ras o dummy. El cálculo de las significaciones se llevaría a cabo me-
diante una regresión paso a paso. Así, en el primer paso se introduci-
rían las variables correspondientes al factor A, en el segundo paso las
correspondientes al factor B y en el tercer paso las de la interacción.
112 Análisis de varianza

En cada paso se evaluaría la significación del incremento del coefi-


ciente de determinación, lo que se corresponde con la significación de
las razones F de cada uno de los factores que veremos más adelante.

4.4. Supuestos del modelo


Como vimos en el ANVAR de un factor, este modelo es una versión
específica del modelo lineal general, de manera que deberá cumplir
los supuestos básicos de este modelo, además de las condiciones que
permitan obtener la distribución muestral de los estadísticos de con-
traste que nos permitan poner a prueba las hipótesis planteadas. Cabe
decir que los supuestos en el ANVAR de dos factores de efectos fijos
completamente aleatorizado no varían de los ya vistos en el corres-
pondiente modelo de un factor, por tanto, se deberán cumplir las
siguientes condiciones:
1. Especificación completa del modelo.
2. Aditividad del modelo.
3. Esperanza matemática de los errores igual a cero.
4. Independencia de las puntuaciones (o de los errores).
5. Normalidad de las observaciones (o de los errores).
6. Homogeneidad de varianzas de las subpoblaciones.
Por tanto, las Yijk son variables aleatorias normales e independien-
temente distribuidas, con media µjk y varianza σ 2 en cada una de las
JK subpoblaciones. Puesto que αj, βk y αβjk son constantes en cada
combinación JK, los εijk también constituyen una variable aleatoria
normal e independientemente distribuida con media igual a 0 y va-
rianza σ 2, en cada una de las JK poblaciones.
Las pruebas que se utilizan para comprobarlos, así como las conse-
cuencias que se deriven de su incumplimiento son las mismas que
vimos en el ANVAR de un factor y a ese tema remitimos al lector inte-
resado en recordarlas.

4.5. Hipótesis nulas


A partir del modelo establecido y de sus supuestos, podemos expresar
la ecuación propuesta de otra manera:

Yijk = µ + αj + βk + (αβ)jk + εijk =


Análisis de varianza de dos factores completamente aleatorizado 113

= µ + (µj+ - µ) + (µ+k - µ) + (µjk - µj+ - µ+k + µ) + (Yijk - µjk)

Del mismo modo que hicimos en el ANVAR de un factor, aplicando


el método de mínimos cuadrados de forma que la suma de los errores
cuadráticos sea mínima, obtenemos los siguientes estimadores de los
términos del modelo:

µ̂ = Y

α̂ j = Y j + − Y

β̂ k = Y+ k − Y

(αβ) jk = Yjk −Yj + −Y+k +Y

εˆijk = Yijk − Y

De este modo, si

Yijk = µ + (µj+ - µ) + (µ+k - µ) + (µjk - µj+ - µ+k + µ) + (Yijk - µjk)

es válida en la población

Yijk=Y + (Yj+ -Y ) + (Y+k -Y ) + (Yjk -Yj+ -Y+k +Y ) + (Yijk -Yj )

es válida en la muestra.
Las hipótesis nulas que se derivan de este modelo serán las siguien-
tes:
1. H0(A) : µ1+ = µ2+ = ... = µJ+ o bien
H0(A) : αj = 0, para todo valor de j.
Es decir, las J medias poblacionales correspondientes a los nive-
les del factor A no difieren significativamente, o bien, no existe
un efecto significativo del factor A sobre las puntuaciones.
2. H0(B) : µ+1 = µ+2 = ... = µ+K o bien
H0(B) : βk = 0, para todo valor de k.
Es decir, las K medias poblacionales correspondientes a los nive-
les del factor B no difieren significativamente, o bien, no existe
un efecto significativo del factor B sobre las puntuaciones.
114 Análisis de varianza

3. H0(AB) : µjk - µj’k = µj - µj’, para todo valor de j, j’ y k (j ≠ j’)


o bien
H0(AB) : (αβ)jk = 0, para todo valor de j y k.
Es decir, la diferencia entre las medias de dos casillas cuales-
quiera de la misma fila no difiere significativamente de la dife-
rencia entre las medias marginales correspondientes a esas casi-
llas, o bien, no existe un efecto significativo de la interacción de
ambos factores.
Como en el ANVAR de un factor, nuestro siguiente paso es determi-
nar los estadísticos de contraste que nos permitan tomar decisiones
acerca de las hipótesis nulas establecidas. Veamos, pues, cómo se llega
a ellos.

4.6. Descomposición de la varianza total en sus


componentes aditivos
Para llegar a las pruebas inferenciales respecto a las hipótesis nulas
sobre el factor A, el factor B y la interacción debemos calcular, como
ya sabemos, las sumas cuadráticas, los grados de libertad, las medias
cuadráticas y las razones F. En el análisis de varianza de dos factores
se presentan, por tanto, cuatro fuentes de variación: el factor A, el
factor B, la interacción y por último el término de error. Empezaremos
con el cálculo de cada una de las sumas cuadráticas asociadas a estas
fuentes de variación y para ello partimos de la descomposición de la
variabilidad observada.
Para una unidad experimental tenemos que:

(Yijk -Y) = (Yj+ -Y ) + (Y+k -Y ) + (Yjk -Yj+ -Y+k +Y ) + (Yijk -Yjk )

Si en lugar de referirnos sólo a una observación lo hacemos con el


conjunto de todas las observaciones, la expresión anterior quedar
como sigue:

∑ ∑ ∑ (Y
i j k ijk −Y ) = ∑ ∑ ∑ [(Y
2
i j k j+ ) ( ) ( ) (
− Y + Y+ k − Y + Y jk − Y j + − Y+ k + Y + Yijk − Y jk )]
2

Desarrollando esta expresión y teniendo en cuenta que los seis pro-


ductos cruzados son nulos, tenemos que la suma cuadrática total se
descompone en:

∑∑ ∑ (Y ) (
= nK ∑ j Y j + − Y ) (
+ nJ ∑k Y+ k − Y )
2 2 2
i j k ijk −Y +
Análisis de varianza de dos factores completamente aleatorizado 115

(
+ n ∑ j ∑ k Y jk − Y j + − Y+ k + Y ) + ∑ ∑ ∑ (Y
2

i j k ijk − Y jk )
2

El miembro de la izquierda, ∑i∑ j ∑ k (Yijk − Y )2 , representa la desviación


del conjunto de las puntuaciones con respecto a la media total, es
decir, la variabilidad total y la llamaremos suma cuadrática total
(SCtotal).
Por su parte, (
nK ∑ j Y j + − Y ) 2
nos indica cuánto se desvían, entre las fi-
las, las medias de los grupos de la media total; refleja la varibilidad
entre los niveles del factor A, que denominaremos suma cuadrática del
factor A (SCA).
A continuación, (
nJ ∑ k Y+ k − Y )2
nos indica cuánto se desvían, entre las
columnas, las medias de los grupos de la media total; refleja la varia-
bilidad entre los niveles del factor B, que denominaremos suma cua-
drática del factor B (SCB).
Con respecto a (
n ∑ j ∑ k Y jk − Y j + − Y + k + Y )
2
, representa la variabilidad ex-
plicada por la actuación conjunta de A y B, es decir, por la interacción
de ambos factores y que llamaremos suma cuadrática de la interac-
ción de los factores A y B (SCAB).
Por último, ∑ i ∑ j ∑ k (Yijk − Y jk )2 es un indicador de la desviación de cada
puntuación con respecto de la media de su grupo, es decir, de la varia-
bilidad intragrupo o error y que llamaremos suma cuadrática intra
(SCintra).
En definitiva, tenemos que la suma cuadrática total se puede des-
componer en las siguientes sumas cuadráticas:

SCtotal = SCA + SCB + SCAB + SCintra

4.7. Grados de libertad


Volvamos a la ecuación:

∑ ∑ ∑ (Y ) (
= nK ∑ j Y j + − Y ) (
+ nJ ∑ k Y+ k − Y )
2 2 2

i j l ijk −Y +

(
+ n ∑ j ∑ k Y jk − Y j + − Y+ k + Y ) + ∑ ∑ ∑ (Y
2

i j k ijk − Y jk )2

Vamos a detenernos en cada uno de sus miembros a fin de determi-


nar los grados de libertad asociados a cada uno de ellos.
Para la suma cuadrática total (SCtotal), tenemos N desviaciones
cuadráticas respecto a un punto, la mediaY, por tanto, los grados de
116 Análisis de varianza

libertad son N – 1. En otras palabras, para que se verifique que


( )
∑i ∑ j ∑ k (Yijk − Y ) = 0 , las N diferencias Yijk − Y pueden tomar libremente
cualquier valor, excepto una, que será la que haga cumplirse la igual-
dad. Por eso, podemos decir que la suma cuadrática total lleva aso-
ciados N - 1 grados de libertad.
Por su parte, la suma cuadrática del factor A (SCA) lleva asociados
J - 1 grados de libertad, porque implica J desviaciones cuadráticas
respecto a un punto también, la mediaY. De otro modo, de las J dife-
( )
rencias Y j + − Y , todas excepto una pueden asumir cualquier valor de
manera que se verifique ∑ (Yj j+ )
−Y = 0.

Por su parte, la suma cuadrática del factor B (SCB) lleva asociados


K - 1 grados de libertad, porque implica K desviaciones cuadráticas
respecto a un punto, la mediaY. De otro modo, de las K diferencias
( )
Y+ k − Y , todas excepto una pueden asumir cualquier valor de manera
que se verifique ∑ (Y
k +k )
−Y = 0 .

La suma cuadrática de la interacción (SCAB) supone JK desviacio-


nes cuadráticas respecto a las J medias,Yj+, a las K mediasY+k y a la
mediaY. Por tanto, los grados de libertad son JK - (J - 1) - (K - 1) - 1 =
(J - 1)(K - 1).
Por último, la suma cuadrática intragrupos o de error (SCintra) lle-
va asociados N - JK grados de libertad, porque implica N desviaciones
cuadráticas respecto a las JK puntos, lasYjk. De otro modo, dentro de
cada grupo, todas las puntuaciones excepto una pueden tomar cual-
( )
quier valor, de forma que se cumpla que ∑i Yijk − Y jk = 0 , es decir, n - 1.
Como tenemos JK grupos, en total, tendremos JK(n - 1) = N – JK grados
de libertad.
Para finalizar, podemos expresar los grados de libertad asociados
a cada una de las fuentes de variación de forma similar como lo hici-
mos con las sumas cuadráticas:

gltotal = glA + glB + glAB + glintra

N - 1 = (J - 1) + (K - 1) + (J - 1)(K - 1)+ (N - JK)

4.8. Medias cuadráticas


Del mismo modo como hacíamos en el ANVAR de un factor, para cal-
cular las medias cuadráticas, no tenemos más que dividir las sumas
Análisis de varianza de dos factores completamente aleatorizado 117

cuadráticas por sus correspondientes grados de libertad. De esta


forma,
La media cuadrática del factor A (MCA) será igual a:

MCA = SCA / glA

La media cuadrática del factor B (MCB) será igual a:

MCB = SCB / glB

La media cuadrática de la interacción (MCAB) será igual a:

MCAB = SCAB / glAB

Por último, la media cuadrática intragrupo (MCintra) será:

MCintra = SCintra / glintra

4.9. Valores esperados de las medias cuadráti-


cas
Puesto que vamos a estimar la varianza poblacional desde las medias
cuadráticas, conviene saber si son estimadores sesgados o no de la
misma, lo que nos lleva a averiguar cuáles son sus esperanzas mate-
máticas27.
En el caso de la media cuadrática intragrupo:

 ∑ ∑ ∑ (Yijk − Y jk ) 2 
E ( MCint ra ) = E  i j k  =σ2
 N − JK 

podemos ver que es un estimador insesgado de la varianza poblacional


σ 2.

27 Puede seguirse el mismo razonamiento empleado en el ANVAR de un factor, o

bien consultar, para su demostración, a Amón (1984) o San Martín y Pardo (1989).
118 Análisis de varianza

Para el caso de la media cuadrática del factor A:

 nK ∑ j (Y j + − Y ) 2  nK ∑ j α 2j
E ( MC A ) = E  = + σ 2 = nKσ α2 + σ 2
 J −1  J −1

sólo si la H0(A) es cierta, MCA es un estimador insesgado de σ 2, porque


sólo entonces ∑ j α 2j = 0 (no hay un efecto del factor A).

Para el caso de la media cuadrática del factor B:

 nJ ∑ k (Y+ k − Y ) 2  nJ ∑ k β j2
E ( MCB ) = E  = + σ 2 = nJσ β2 + σ 2
 K −1  K −1

sólo si la H0(B) es cierta, MCB es un estimador insesgado de σ 2, porque


sólo entonces ∑ j β j2 = 0 (no hay un efecto del factor B).

Por último, para la interacción:

 n ∑ ∑ (Y jk − Y j + − Yk + + Y ) 2  n∑ ∑ (αβ ) 2jk
E ( MC AB ) = E  j k
= j k
+ σ 2 = nσ αβ
2
+σ 2
 ( J − 1)( K − 1)  ( J − 1)( K − 1)

sólo si la H0(AB) es cierta, MCAB es un estimador insesgado de σ 2, porque


sólo entonces ∑ j ∑ k (αβ ) 2jk = 0 (no hay un efecto de la interacción).

4.10. Las razones F


Recordemos que las tres hipótesis que vamos a probar dentro del mo-
delo de dos factores son:

1. H0(A) : µ1+ = µ2+ = ... = µJ+.


H0(A) : αj = 0, para todo valor de j.
2. H0(B) : µ+1 = µ+2 = ... = µ+K.
H0(B) : βk = 0, para todo valor de k.
3. H0(AB) : µjk - µj’k = µj - µj’, para todo valor de j, j’ y k (j ≠ j’).
H0(AB) : (αβ)jk = 0, para todo valor de j y k.
Análisis de varianza de dos factores completamente aleatorizado 119

Del mismo modo que en el ANVAR de un factor, utilizaremos la ra-


zón F para cada una de las hipótesis. La forma de obtenerlas será
dividiendo cada una de las medias cuadráticas correspondientes a
cada factor y a la interacción por la media cuadrática intragrupo, es
decir:

MC A
FA = para el factor A
MCint ra

MCB
FB = para el factor B
MCint ra

MC AB
FAB = para la interacción,
MCint ra

donde:
FA sigue una distribución F con J – 1 y N – JK grados de libertad.
FB sigue una distribución F con K – 1 y N – JK grados de libertad.
FAB sigue una distribución F con (J – 1)(K – 1) y N – JK grados de
libertad.

4.11. Resumen del ANVAR de dos factores


Vamos a recordar los pasos seguidos hasta la obtención de los estadís-
ticos de contrastes y vamos a presentar la tabla resumen del ANVAR.
1. Planteamiento de las hipótesis:
a) H0(A) : µ1+ = µ2+ = ... = µJ+.
H0(A) : αj = 0, para todo valor de j.
b) H0(B) : µ+1 = µ+2 = ... = µ+K.
H0(B) : βk = 0, para todo valor de k.
c) H0(AB) : µjk - µj’k = µj - µj’, para todo valor de j, j’ y k (j ≠ j’).
H0(AB) : (αβ)jk = 0, para todo valor de j y k.
2. Supuestos:
a) Independencia: JK muestras de tamaño n aleatoriamente ex-
traídas de la población e independientes entre sí.
b) Normalidad: las JK poblaciones de donde se extraen las JK
muestras son normales.
120 Análisis de varianza

c) Homocedasticidad: las JK poblaciones tienen, todas ellas, la


misma varianza.
3. Estadísticos de contraste:
MC A
a) FA =
MCint ra

MCB
b) FB =
MCint ra

MC AB
c) FAB =
MCint ra

Tabla de ANVAR:

FV SC gl MC F

MC A
A SCA J–1 SCA / glA FA =
MCint ra

MCB
B SCB K–1 SCB / glB FB =
MCint ra
MC AB
AB SCAB (J – 1)(K - 1) SCAB / glAB FAB =
MCint ra
intra SCintra N – JK SCintra / glintra
total SCtotal N–1

4. Distribuciones muestrales:
a) FA sigue una distribución FJ - 1, N - JK
b) FB sigue una distribución FK - 1, N - JK
b) FAB sigue una distribución F(J - 1)(K - 1), N - JK
5. Nivel de significación y punto crítico:
α lo impone el investigador
a) valor crítico: F1−α ; J −1, N − JK

b) valor crítico: F1−α ; K −1, N − JK

c) valor crítico: F1−α ;( J −1)( K −1), N − JK

6. Decisión:
Análisis de varianza de dos factores completamente aleatorizado 121

a) Rechazo de H0(A) si FA ∏ F1−α ; J −1, N − JK

b) Rechazo de H0(B) si FB ∏ F1−α ; K −1, N − JK

c) Rechazo de H0(AB) si FAB ∏ F1−α ;( J −1)( K −1), N − JK

4.12. Procedimientos numéricos


Los cálculos necesarios para obtener las sumas cuadráticas se pueden
simplificar recordando ciertas definiciones expuestas con anteriori-
dad:

T j + = ∑ j ∑k Yijk ; T+ k = ∑i ∑ j Yijk ; T jk = ∑iYijk ; T = ∑ j T j + = ∑k Tk

A partir de estas definiciones, podemos obtener cada una de las


sumas cuadráticas de forma más sencilla:

T2
SCtotal = ∑i ∑ j ∑ k Yijk2 −
N

SC A =
∑T
j
2
j+

T2
nK N

SCB =
∑Tk
2
+k

T2
nJ N

SC AB =
∑∑T j k
2
jk

∑T
j
2
j+

∑T
k
2
+k
+
T2
n nK nJ N

 ∑ ∑ T jk2 
SCint ra = ∑i ∑ j ∑ k Yijk2 −  j k 
 n 
 

Vamos a aplicar todo lo visto hasta ahora a nuestro ejemplo.

Ejemplo 4.3. Recordemos que pretendíamos averiguar si el tipo de crianza (Factor A


con dos niveles: libertad y cautiverio) y la raza (Factor B con tres niveles: blancas,
negras y marrones) afectan al rendimiento de las ratas en el laberinto. Los datos
eran los siguientes:
122 Análisis de varianza

B
B N M Tj+ Yj+
8 8 4
4 10 6
L 0 6 8
T11 = 12 T12 = 24 T13 = 18 T1+ = 54
A Y11 = 4 Y12 = 8 Y13 = 6 Y1+ = 6
10 0 15
6 4 9
C 14 2 12
T21 = 30 T22 = 6 T23 = 36 T2+ = 72
Y21 = 10 Y22 = 2 Y23 = 12 Y2+ = 8
T+k T+1 = 42 T+2 = 30 T+3 = 54 T = 126
Y+k Y+1 = 7 Y+2 = 5 Y+3 = 9 Y = 7

1. Planteamiento de las hipótesis:


a) H0(A) : µ1+ = µ2+
El tipo de crianza no afecta al rendimiento.
b) H0(B) : µ+1 = µ+2 = µ+3
El tipo de raza no afecta al rendimiento.
c) H0(AB) : µjk - µj’k = µj - µj’, para todo valor de j, j’ y k (j ≠ j’)
La interacción entre raza y tipo de crianza no afecta al rendimiento.

2. Supuestos:
a) Independencia: 6 muestras de tamaño 3 aleatoriamente extraídas de la
población e independientes entre sí.
b) Normalidad: las 6 poblaciones de donde se extraen las 6 muestras son
normales.
c) Homocedasticidad: las 6 poblaciones tienen, todas ellas, la misma va-
rianza.

3. Estadístico de contraste:
Sumas cuadráticas:

1262
SCtotal = (82 + 4 2 + ... + 9 2 + 122 ) − = 1198 − 882 = 316
18

54 2 + 722 1262
SC A = − = 900 − 882 = 18
3⋅3 18
Análisis de varianza de dos factores completamente aleatorizado 123

422 + 302 + 54 2 126 2


SCB = − = 930 − 882 = 48
3⋅ 2 18

122 + 24 2 + 182 + 302 + 62 + 362


SC AB = − 900 − 930 + 882 = 144
3

122 + 24 2 + ... + 62 + 362


SCint ra = (82 + 42 + ... + 92 + 122 ) − = 1198 − 1092 = 106
3

Grados de libertad:
N = 18 (número total de sujetos)
J = 2 (número de niveles del factor A)
K = 3 (número de niveles del factor B)
gltotal = N - 1 = 18 - 1 = 17
glA = J - 1 = 2 - 1 = 1
glB = K - 1 = 3 - 1 = 2
glAB = (J - 1)(K - 1) = 1∃2 = 2
glintra = N - JK = 18 - 2∃3 = 12
Tabla de ANVAR:

FV SC gl MC F
A 18 1 18 2,03
B 48 2 24 2,71
AB 144 2 72 8,15
intra 106 12 8,83
total 316 17

4. Distribuciones muestrales de los estadísticos de contraste:


a) FA = 2,03 sigue una distribución F1, 12
b) FB = 2,71 sigue una distribución F2, 12
b) FAB = 8,15 sigue una distribución F2, 12
5. Nivel de significación:
α = 0,05.
a) valor crítico: F 0 , 95 ;1 ,12 = 4 , 75

b) valor crítico: F0,95; 2 ,12 = 3,88

c) valor crítico: F0,95; 2 ,12 = 3,88


124 Análisis de varianza

6. Decisiones:
a) No rechazo H0(A) porque FA  F0 ,95;1,12

b) No rechazo H0(B) porque FB  F0 ,95; 2 ,12

c) Rechazo H0(AB) porque FAB ∏ F0 ,95; 2 ,12

4.13. Interpretación de los efectos principales y


de la interacción
En el ANVAR de un factor era clara la interpretación de los resultados
obtenidos tras la realización del análisis, esto es, si rechazábamos la
hipótesis nula, podíamos concluir que había un efecto significativo de
la variable independiente sobre la dependiente. En el caso que ahora
nos ocupa, las conclusiones a las que podemos llegar tras el rechazo o
no de las hipótesis nulas no resultan tan sencillas debido, precisamen-
te, al nuevo elemento que se ha introducido en el modelo: el efecto de
interacción. Por tanto, para interpretar adecuadamente los resultados
obtenidos en el ANVAR de dos factores debemos distinguir entre los
efectos principales y el efecto de interacción.
Los efectos principales no son más que los efectos de un factor inde-
pendientes de los efectos de otro factor. En nuestro ejemplo tendría-
mos, por un lado, el efecto del tipo de raza (factor A) sobre el rendi-
miento de las ratas y, por otro lado, el efecto de la forma de crianza
(factor B) también sobre el rendimiento de las mismas. El efecto de
interacción ya sabemos que es la actuación conjunta de los factores
principales sobre la variable dependiente. En nuestro caso, sería la
actuación conjunta que del tipo de raza y de la forma de crianza sobre
el rendimiento que, recordemos una vez más, es un efecto distinto de la
suma de los efectos principales.
Cuando no existe una interacción significativa no hay mayor pro-
blema en la interpretación de los efectos principales. En estos casos,
los factores A y B actúan de forma independiente sobre la variable
dependiente y podemos concluir directamente a partir de los resulta-
dos obtenidos en cada uno de ellos. Además podemos realizar los con-
trastes o comparaciones múltiples oportunos, de cara a la identifica-
ción de diferencias específicas. Sin embargo, cuando la interacción es
significativa, la interpretación de los efectos principales requiere
bastantes precauciones y no debe hacerse al margen de ésta.
Un efecto de interacción, αβjk, significativo quiere decir que la me-
dia,Yjk, de cada combinación de niveles ABjk, no se puede predecir a
partir de la suma de sus correspondientes efectos principales, αj y βk.
Análisis de varianza de dos factores completamente aleatorizado 125

En otras palabras, indica la no aditividad de estos efectos. Esto impli-


ca que los efectos de un factor dependen de los niveles del otro factor,
de ahí la precaución de la generalización de los efectos principales a
la que aludíamos anteriormente.
La ausencia o presencia de una interacción se puede ver claramen-
te en una gráfica. Podemos respresentar los niveles, por ejemplo, del
factor B como valores del eje X y las medias de cada uno de estos nive-
les como valores del eje Y, dibujando una línea separada para cada
uno de los nieves del factor A (véanse los dibujos). Si las líneas son
paralelas, no existe interacción. Por el contrario, una interacción
significativa se verá reflejada en el cruce o convergencia de las lí-
neas.28

V.D.

A1
A2

B1 B2 B3

No hay interacción entre los factores A y B.

28 La presencia o no de la interacción entre los factores se puede ver muy bien en

la gráfica, que nos ayuda a la interpretación. Ahora bien, de esto no se deduce que
una representación gráfica nos dirá si existe o no una interacción significativa.
Siempre hay que realizar el contraste de hipótesis porque podemos encontrarnos un
cruce o convergencia de líneas en el dibujo, lo que significa la presencia de una
interacción, pero no ser ésta significativa.
126 Análisis de varianza

V.D.

A1
A2

B1 B2 B3

Hay interacción entre los factores A y B.

Ejemplo 4.4. En nuestro ejemplo acerca del rendimiento de las ratas se puede apreciar
en la gráfica el efecto de interacción, indicándonos que criar a las ratas en libertad
favorece el rendimiento de las negras, mientras que la crianza en cautividad favore-
ce el rendimiento de las blancas y las marrones:

V.D. 14
12
10
8 L
6 C

4
2
0
B N M

Cuando existe un efecto de interacción significativo, no es conve-


niente, pues, interpretar los resultados obtenidos con el análisis de los
efectos principales. En estos casos conviene que el investigador realice
las interpretaciones a partir de los contrastes de hipótesis sobre los
llamados efectos simples. Es lo que lo vamos a ver a continuación.

4.14. Efectos simples


Los contrastes de efectos simples son análisis de varianza de una sola
vía de todos los niveles de un factor a través de solo uno de los niveles
Análisis de varianza de dos factores completamente aleatorizado 127

del otro factor. Podemos realizar, por ejemplo, un ANVAR de los efec-
tos del factor A para cada uno de los niveles del factor B (o viceversa).
Los efectos simples se definen “como los efectos atribuidos a un
componente del modelo lineal después de fijar los niveles de otro com-
ponente del modelo” (Riba, 1987). Se trata de eliminar del modelo el
término de interacción, por lo tendremos una nueva ecuación estruc-
tural con sus hipótesis nulas específicas. Además, tanto las sumas
cuadráticas como los grados de libertad suponen una partición de la
suma de cuadrados de los factores principales más la suma de cua-
drados de la interacción.
Para no confundirlos con los efectos principales recordemos que, en
un diseño de dos factores, la ecuación estructural se establece como:

Yijk = µ + αj + βk + (αβ)jk + εijk

Para los factores A y B, los efectos principales son, respectivamente:

αj = µj+ - µ

βk = µ+k - µ

y sus correspondientes hipótesis nulas:

H0(A) : µ1+ = µ2+ = ... = µJ+ o bien H0(A) : αj = 0 (para todo j).

H0(B) : µ+1 = µ+2 = ... = µ+K o bien H0(B) : βk = 0 (para todo k).

Las ecuaciones estructurales de los efectos simples del factor A en


los niveles de B y del factor B en los niveles de A serían:

Yijk = µ + βk + βk(αj) + εijk

Yijk = µ + αj + αj(βk) + εijk

Los efectos simples se definirían como:

αj = µjk - µ+k en el nivel Bk

βk = µjk - µj+ en el nivel Aj

Y sus correspendientes hipótesis nulas serían:

H0(Aj) : µj1 = µj2 = ... = µjK o bien H0(Aj) : αj = 0, para todo j en el nivel Bk
128 Análisis de varianza

H0(Bk) : µ1k = µ2k = ... = µJk o bien H0(Bk) : βk = 0, para todo k en el nivel Aj

La suma de cuadrados del factor A en el nivel Bk del factor B es


igual a la suma de cuadrados del factor A más la suma de cuadrados
de la interacción en el modelo de dos factores. Lo mismo se puede decir
con respecto a los grados de libertad. Es decir:

SCA + SCAB = SCA(B1) + SCA(B2) + ... + SCA(BK) = ∑ k


SC A( Bk )

glA + glAB = glA(B1) + glA(B2) + ... + glA(BK) = ∑ k


gl A( Bk )

Para el factor B se establece la misma correspondencia:

SCB + SCAB = SCB(A1) + SCB(A2) + ... + SCB(AJ) = ∑ j


SC B ( Aj )

glB + glAB = glB(A1) + glB(A2) + ... + glB(AJ) = ∑ j


gl B ( Aj )

Vamos a aplicar estos análisis a nuestro ejemplo.

Ejemplo 4.5. En nuestros datos no obtuvimos unos efectos principales significativos,


sin embargo, no debemos realizar inferencias sobre los mismos a la ligera, ya que
el efecto de interacción sí lo fue. Por eso, de cara a las concluisiones, vamos a ver
qué ocurre en el análisis de efectos simples, por ejemplo, para el factor B (raza) en
cada uno de los niveles del factor A (tipo de crianza). Dejamos al lector que realice
el mismo análisis con el factor A.
Los resultados para el factor B en el nivel A1 (libertad):

FV SC gl MC F p
inter 24 2 12 1,5 0,30
intra 48 6 8
total 72 8

Los resultados para el factor B en el nivel A2 (cautividad):

FV SC gl MC F p
inter 168 2 84 8,5 0,02
intra 58 6 9,67
total 226 8
Análisis de varianza de dos factores completamente aleatorizado 129

Si bien en el análisis de efectos principales hubiésemos concluido para el factor


B que no hemos encontrado diferencias significativas en el rendimiento de las ratas
como consecuencia del tipo de raza, en estos resultados se aprecia cómo sí existe
una diferencia significativa en el efecto de la raza al criar a las ratas en cautividad,
aunque no ocurra lo mismo al criarlas en libertad. De cara a las conclusiones, po-
demos complementar estos resultados con la gráfica que hicimos anteriormente.
Así, podemos decir que, viviendo en cautividad, las negras son las que peor rendi-
miento tienen.
(Por otro lado, recordando los valores que obtuvimos en las sumas cuadráticas
en el ANVAR de efectos prinicipales, vemos que se cumple:

SCB + SCAB = SCB(A1) + SCB(A2)


48 + 144 = 24 + 168

glB + glAB = glB(A1) + glB(A2)


2 + 2 = 2 + 2

La cuestión de la interacción ha provocado muchos debates entre


los investigadores. Aunque existe un acuerdo generalizado en que su
presencia indica que el efecto de un factor depende de los niveles del
otro factor, describirla y explicarla resulta más problemático. En este
sentido, convendría distinguir dos aspectos que a menudo se confun-
den: el análisis del efecto de interacción y la interpretación de tal
efecto (Allison y cols., 1992). El primero, dado que es una cuestión
esencialmente estadística, no presenta mayor controversia. En cambio,
el segundo sí constituye una fuente de discusión.
Se ha propuesto desde diversas estrategias de actuación (como re-
presentaciones gráficas, transformaciones de los valores de la varia-
ble dependiente, análisis de regresión, etc.), en un intento de eliminar-
la o comprenderla mejor, hasta simplemente considerarla como un
“término sin significado científico interpretable”, que tan solo nos
habla de la “inadecuación de nuestro modelo científico: el reconoci-
miento de que la mera suma de efectos no describe lo que realmente
ocurre; más allá de esto, nada dice acerca de cómo es el proceso subya-
cente de interacción” (Murphy, 1982; en Allison y cols., 1992, pág. 177),
por lo que no cabría concluir nada dada su presencia.
Tal vez, como dicen Allison y cols., esta afirmación es cierta en di-
seños de más de dos factores, pero no hay razón para considerarla
como un principio general aplicable a todos los diseños factoriales. En
el caso de dos factores, aunque no siempre sea fácil, bien se puede
130 Análisis de varianza

llegar a interpretaciones científicas y con sentido acerca de las inter-


acciones29.

4.15. Comparaciones múltiples


En el apartado anterior hemos visto cómo la presencia de una interac-
ción significativa hace una llamada de atención en la interpretación
de los efectos principales debiendo, en estos casos, tomar las precau-
ciones oportunas en nuestras conclusiones. Sin embargo, cuando la
interacción no es significativa y sí lo es el factor A, o el factor B, o
ambos, el rechazo de las hipótesis nulas sólo nos lleva a las conclusio-
nes de que no todas las medias son iguales. Ocurre lo mismo que en el
ANVAR de un factor completamente aleatorizado: los resultados son
muy generales y sólo mediante las comparaciones múltiples podremos
afinar más en nuestras interpretaciones.
Todos los contrastes a priori y a posteriori, así como el análisis de
tendencias, presentados en el tema Comparaciones múltiples pueden
ser aplicados al ANVAR de dos factores completamente aleatorizado,
de forma independiente, tanto para el factor A como para el factor B30.
Por eso, remitimos al lector a ese tema para todas las consideraciones
oportunas en la aplicación de las pruebas y simplemente vamos a
presentar los estadísticos de contraste de cada una de ellas adaptadas
a este modelo.

4.15.1. Pruebas a priori


1. Prueba t:

29 Nosostros no vamos a adentrarnos más en el tema. Sin embargo, para el lector

interesado en los diferentes tipos de interacción, estos autores nos recomiendan el


artículo de Southwood (1978), por su excelente y detallada exposición; sobre la
interpretación de las interacciónes, las posibles razones de su presencia y represen-
tación de las mismas se puede acudir al manual de Rosenthal y Rosnow (1991),
claro y sencillo; por último, si se desea estudiar el efecto de interacción desde el
contexto de la regresión, una presentación inteligible se puede encontrar en Dar-
lington (1990; cap. 13).
30 Con respecto a las pruebas a priori, sólo nos referiremos a los factores A y B y

no al efecto de interacción. Esto no quiere decir que no se utilicen para esta fuente
de variación, más bien al contrario, podemos estar interesados en la búsqueda de
comparaciones planeadas concretas en situaciones donde, por ejemplo, nos encon-
tramos con alguna/s media/s muy diferente/s del resto (en estos casos el test ómnibus
de la interacción, sin necesidad de realizarlo, sabremos que resultará significati-
vo). Sin embargo, los contrastes a priori referidos a la interacción son bastante
complejos, sobre todo en su interpretación, razón por la que no los incluimos aquí.
Análisis de varianza de dos factores completamente aleatorizado 131

Para el factor A:

tA =
∑ j
c pj ⋅ Y j
c 2pj
MCint ra ⋅ ∑ j
n

que sigue una distribución t-Student con N – JK grados de libertad.


Para el factor B:

tB =
∑ k
c pk ⋅ Yk
c 2pk
MCint ra ⋅ ∑ k
n

que sigue una distribución t-Student con N – JK grados de libertad.


No debemos olvidar que en esta prueba no se controla el nivel α
inicial por lo es conveniente, o bien trabajar con un α pequeño en
cada contraste, o bien utilizar en cada uno de ellos α dividido por el
número de contrastes que vayamos a realizar.

2. Prueba de Dunn:
Tanto para el factor A como para el factor B, utilizamos los mismos
estadísticos que anteriormente, sólo que ahora buscamos los puntos
críticos en la Tabla 6 del apéndice. Recordemos que en esta prueba,
para cada factor, controlamos la probabilidad de incrementar el
error tipo I inicial teniendo en cuenta el número total de compara-
ciones que vamos a realizar en cada uno de ellos.
Así mismo, podemos calcular los intervalos confidenciales para
cada una de las diferencias que, como ya sabemos, no sólo nos per-
miten decidir sobre las hipótesis nulas en cuestión, sino que además
nos informan, con un determinado nivel de confianza, de la cuantía
de la diferencias en la población. Estos intervalos vienen dados por.

c12j
∑ j c pjY j ± tD ' ⋅ MCint ra ⋅ ∑ j
nj

para el factor A y

c12k
∑ k
c pkYk ± t D ' ⋅ MCint ra ⋅ ∑ k
n
132 Análisis de varianza

para el factor B y donde tD’ es el valor crítico de la Tabla 6.

3. Prueba F’:
Para el factor A:

F 'A =
(∑ cj pj ⋅ Yj ) 2

c 2pj
MCint ra ⋅ ∑ j
n

que sigue una distribución F-Fisher, con 1 y N – JK gl.


Para el factor B:

F 'B =
(∑ ck pk ⋅ Yk ) 2

c 2pk
MCint ra ⋅ ∑ k
n

que sigue una distribución F-Fisher, con 1 y N – JK gl.


Recordemos también que en esta prueba no se controla α en el
conjunto de comparaciones que realicemos, por lo que tomaremos
las precauciones que sean necesarias.

4.15.2. Pruebas a posteriori


1. Prueba de Tukey:

MCint ra
DHSTukey = qα , v , gl N − JK

n

donde v es el número de medias del factor en cuestión (J para el


factor A y K para el factor B) y qα ,v , gl se obtiene en la Tabla 7 del
N − JK

apéndice para un nivel de significación de 0,05 y 0,01.


Será significativa toda diferencia que supere el valor de DHSTu-
key.

Los intervalos de confianza vienen dados por.

(Y j )
− Y j ' ± DHS Tukey para el factor A

(Yk )
− Yk ' ± DHSTukey para el factor B
Análisis de varianza de dos factores completamente aleatorizado 133

2. Prueba de Scheffé:
Se calculan las diferencias críticas para cada uno de los factores:

c 2j
DCSheffé ( A) = ( J − 1) ⋅ Fα , J −1, gl ⋅ MCint ra ⋅ ∑ j
int ra
nK

para el factor A.

ck2
DCSheffé ( B ) = ( K − 1) ⋅ Fα , K −1, gl ⋅ MCint ra ⋅ ∑ k
int ra
nJ

para el factor B.
Si, para cualquiera de los dos factores, la diferencia entre dos
medias (cuando realizamos todas las comparaciones por pares en-
tre medias) o el sumatorio de los pesos por las medias (cuando rea-
lizamos comparaciones concretas) supera la diferencia crítica, se
rechaza la hipótesis nula.
Los intervalos confidenciales los podemos calcular mediante:

(Y j )
− Y j ' ± DCScheffé o bien ∑cY j j j ± DC Scheffé

para el factor A.

(Yk )
− Yk ' ± DCScheffé o bien ∑ k
ckYk ± DCScheffé

para el factor B.
Por último, y aun a fuerza de ser repetitivos, no debemos olvidar
que, tanto si realizamos contrastes a priori como si son a posteriori,
nunca es prudente llevar a cabo más comparaciones de las absolu-
tamente necesarias.

4.16. Medias del tamaño del efecto


En ANVAR de un factor ya apuntábamos que es importante disponer
de algún índice que nos permita valorar en su justa medida los resul-
tados significativos que podamos obtener con el análisis estadístico.
Concretamente, veíamos η2xy (la razón de correlación), ω2 (omega cua-
drado) y f (distancia entre las medias). Vamos a presentar estos mis-
mos índices adaptándolos al diseño que nos ocupa.
134 Análisis de varianza

En primer lugar, la razón de correlación para las tres fuentes de


variación, es decir, para el factor A, para el factor B y para la interac-
ción, se obtiene, respectivamente, mediante:

SC A SCB SC AB
η A2 = ηB2 = η AB
2
=
SC A + SCint ra SCB + SCint ra SC AB + SCint ra

Cuando trabajábamos con una sola variable independiente, este


índice lo definíamos como la proporción de varianza de la variable
dependiente explicada por el factor. Téngase en cuenta que, entonces,
en el denominador sumábamos SCinter y SCintra, lo que equivalía a la
SCtotal. Ahora, si bien la obtención de este índice es prácticamente la
misma, su interpretación tenemos que matizarla. Por ejemplo, en el
caso del factor A, dado que en el denominador de η A2 solamente suma-
mos SCA y SCintra, éste ya no equivale a la SCtotal y, por tanto, se debe
interpretar como la proporción, no de varianza total, sino de la va-
rianza de la variable dependiente, una vez hemos eliminado la va-
rianza correspondiente al factor B y a la interacción. Por tanto, si
entonces comparábamos eta cuadrado con el coeficiente de determina-
ción múltiple de la regresión, ahora debemos equipararlo al coeficien-
te de correlación parcial al cuadrado31. Lo mismo puede decirse de las
otras fuentes de variación. Vamos a calcularlo.

Ejemplo 4.6. Con nuestros datos:


SC A 18
η A2 = = = 0,14
SC A + SCint ra 18 + 106

SCB 48
ηB2 = = = 0,31
SCB + SCint a 48 + 106

SC AB 144
η AB
2
= = = 0,58
SC AB + SCint ra 144 + 106

Dado que eta cuadrado, como ya dijimos en su momento, no es un


buen estimador de su parámetro, conviene calcular omega cuadrado,
que es mucho menos sesgado. Para cada una de las fuentes de varia-
ción, su valor viene dado por:

31 Si dividiésemos la SC por la SC
A TOTAL obtendríamos una medida similar al co-
eficiente de correlación semiparcial al cuadrado utilizado en la regresión múltiple
y podríamos interpretarlo como la explicación exclusiva del factor A de la variabi-
lidad de la V.D.
Análisis de varianza de dos factores completamente aleatorizado 135

SC A − gl A ⋅ MCint ra
ω A2 =
MCint ra + SCtotal

SCB − glB ⋅ MCint ra


ω B2 =
MCint ra + SCtotal

SC AB − gl AB ⋅ MCint ra
ω AB
2
=
MCint ra + SCtotal

Ejemplo 4.7. Con nuestros datos:


SC A − gl A ⋅ MCint ra 18 − 1 ⋅ 8,83
ω A2 = = = 0,028
MCint ra + SCtotal 8,83 + 316

SCB − glB ⋅ MCint ra 48 − 2 ⋅ 8,83


ω B2 = = = 0,093
MCint ra + SCtotal 8,83 + 316

SC AB − gl AB ⋅ MCint ra 144 − 2 ⋅ 8,83


ω AB
2
= = = 0,389
MCint ra + SCtotal 8,83 + 316

Como se desprende de los resultados obtenidos, la mayor proporción de varia-


ción en el rendimiento viene explicada por la interacción de los dos factores, lo que
está en consonancia con los resultados obtenidos en el análisis de varianza.

Por último, si queremos obtener una medida tamaño del efecto en


cada factor utilizando la que nos propone Cohen (1988), a saber, f
(recordemos, una medida estandarizada de la distancia promedio
entre las medias), podemos, o bien utilizar las fórmulas:

 (
 ∑ j Yj − Y ) 
2
 (
 ∑ k Yk − Y ) 
2  (
 ∑ j ∑ k Y jk − Y ) 
2

 J     JK 
k
f =   f =   f =  
MCint ra MCint ra MCint ra

O bien, calcular f a partir de las fórmulas de eta cuadrado median-


te:

η2
f =
1 −η2

Esta correspondencia podemos obtenerla directamente mediante la


tabla que presenta Cohen (1988, pág. 283).
136 Análisis de varianza

4.17. Potencia en el ANVAR de dos factores


En el ANVAR de dos factores completamente aleatorizado estimamos
la potencia (o el número de sujetos necesarios para alcanzar una
determinada potencia) como lo hicimos en el modelo de un factor.
Para obtener los valores de φ no tenemos más que aplicar las fórmulas:

∑α 2
j J
φA =
j

σ Kn

con glnum = J – 1 y glden = N – JK, para el factor A.

φB =
∑ k
β k2 K
σ Jn

con glnum = K – 1 y glden = N – JK, para el factor B.

∑∑ (αβ ) 2jK ( J − 1)( K − 1) + 1


φ AB =
j K

σ n

con glnum = (J – 1)(K – 1) y glden = N – JK para la interacción.


En los tres casos, para estimar σ 2 utilizamos la media cuadrática
intragrupo o de error, es decir:

σˆ 2 = MCint ra

Una vez hemos obtenido los valores de φ, acudimos a la Tabla 5 del


apéndice para obtener β. De esta manera, la potencia será igual a 1 - β.
Vamos a ver un ejemplo para el factor A y para el factor B.

Ejemplo 4.8. Calculemos la potencia de la prueba para los factores A y B, en los que
no hemos obtenido un efecto significativo. Los datos de los que disponemos son:
MCA = 18, MCB = 24, MCintra = 8,83, J = 2, K = 3, n = 3. Veamos pues cómo se cal-
cula.

( J − 1) (2 − 1)
∑ αˆ j
2
j =
n
( MC A − MCint ra ) =
3
(18 − 8,83) = 3,06
Análisis de varianza de dos factores completamente aleatorizado 137

∑α 2
j J 3,06 2
φA = = = 1,25
j

σ Kn 8,83 3 ⋅ 3

Con un α = 0,05, 1 y 12 g.l., la Tabla 5 nos da un valor de β = 0,65, por lo que la


potencia del test para el factor A es 1 - β = 1- 0,65 = 0,35.
Para el factor B procedemos de la misma manera:

(k − 1) (3 − 1)
∑ j
βˆ j2 =
n
( MCB − MCint ra ) =
3
(24 − 8,83) = 10,11

φB =
∑ k
β k2 k
=
10,11 3
= 1,51
σ Jn 8,83 2 ⋅ 3

Con un α = 0,05, 2 y 12 g.l., la Tabla 5 nos da un valor de β comprendido entre


0,53 y 0,42. En estos casos, podemos interpolar, de forma que β = 0,47. Así pues,
1 - β = 0,53, es la potencia con la que hemos llevado a cabo el test del factor B.
Aunque la potencia para el factor B es mayor que para el factor A (0,53 frente a
0,35), en ambos casos es muy baja. La forma más sencilla de incrementarla sería,
como ya sabemos, aumentando el tamaño muestral.

También podemos utilizar las tablas de Cohen (1998, págs. 289-354)


para obtener directamente la potencia de cada fuente de variación,
siempre y cuando tengamos los valores del nivel de significación (α),
de su tamaño del efecto (f o bien η2), de sus grados de libertad (gl) y
tamaño muestral (n). Únicamente tendremos que realizar un ajuste de
n porque el valor de la potencia que nos arroja la tabla ignora el
hecho de tratarse de un diseño factorial. Este ajuste se realiza me-
diante:

N − JK
n' = +1
u +1

donde u es el número de grados de libertad de la fuente de variación


en cuestión.
Cabe hacer un comentario acerca de la potencia cuando en el
ANVAR de dos factores el efecto de interacción no es significativo.
Recordemos que en estos casos podemos interpretar los factores prin-
cipales de forma independiente e incluso llevar a cabo las compara-
ciones múltiples que nos parezcan oportunas. Es más, cuando el efecto
de interacción no es significativo, la MCAB se convierte en una estima-
ción más de la varianza de error. En consecuencia, podemos fusionar
la suma cuadrática de error (SCintra) y la suma cuadrática de interac-
ción (SCAB). De este modo, al tener más grados de libertad, la media
138 Análisis de varianza

cuadrática de error (MCintra) queda corregida, dando lugar a un test


más potente para los efectos principales (Everitt, 1996).
Sin embargo, si bien suele utilizarse este procedimiento para au-
mentar la potencia, hay que tener cuidado porque puede suceder justo
lo contrario. Si el contraste de interacción no es significativo, pero de
hecho esa interacción sí existe, al hacer la corrección la suma cuadrá-
tica de error aumentará, pero el incremento de los grados de libertad
puede ser tan grande que la media cuadrática de error disminuya
mucho y perdamos potencia, en lugar de aumentarla. Como dice Eve-
ritt (1996), debemos tener buenas y bien fundamentadas razones para
asumir que la interacción no existe y basar la decisión de utilizar el
término de error corregido en consideraciones independientes de los
datos concretos con los que trabajamos.

4.18. Algunos casos particulares


Todo lo visto hasta ahora en este tema es aplicable al caso de muestras
equilibradas, es decir, aquellas en las que tenemos el mismo número
de sujetos, n. Sin embargo, por multitud de razones, no siempre es
posible tener la misma cantidad de observaciones por celda e, incluso,
puede ocurrir que sólo dispongamos de una observación en cada una.
Aunque no vamos a entrar en detalle, veamos qué podemos hacer en
estos casos32.

4.18.1. Una sola observación por celda


En esta situación no existe variación dentro de cada celda, por lo que
la suma cuadrática de error (y por tanto, también su media cuadráti-
ca) será igual a cero. En consecuencia, no podremos llevar a cabo
ningún contraste.
Para solucionar este problema, sólo en el caso de que podamos con-
siderar que la interacción no existe en la población, entonces:

E (MC AB ) = σ 2

Podemos utilizar en el denominador de las razones F, correspon-


dientes a cada uno de los factores A y B, la media cuadrática de la

32 El lector interesado en profundizar en las consideraciones correspondientes a

los apartados 4.18.1 y 4.18.2 puede consultar Winer (1971), Kirk (1982) o Amón
(1984).
Análisis de varianza de dos factores completamente aleatorizado 139

interacción (MCAB) y los grados de libertad del denominador serán:


(J – 1)(K – 1).

4.18.2. Tamaños de celdas desiguales


Cuando no se dispone del mismo número de observaciones dentro de
cada celda, los diseños reciben el nombre de diseños no balanceados o
no ortogonales. Las razones de estas desigualdades en los tamaños
muestrales pueden ir desde una pérdida aleatoria de datos (por ejem-
plo, algún sujeto no entiende bien las instrucciones y rellena mal el
cuestionario) hasta un reflejo de diferencias reales en la población
(por ejemplo, no hay el mismo número de psicóticos que de normales en
la población y esto ha de repercutir en los tamaños grupales).
Siempre y cuando el desequilibrio en las muestras sea aleatorio (no
está relacionado con las variables experimentales) o las frecuencias
sean proporcionales a los totales marginales, las varianzas debidas a
los efectos principales y a la interacción son aditivas:

SCinter = SCA + SCB + SCAB

La aditividad, en este sentido, es sinónimo de ortogonalidad o de


independencia de las variables. Además de minimizar los efectos de la
violación de algunos supuestos distribucionales del análisis de va-
rianza, simplifica la interpretación de las distintas fuentes de varia-
ción, que no están solapadas (Keppel, 1991).
Cuando los tamaños muestrales son diferentes y esto no es producto
del azar, se pierden las ventajas de la asignación aleatoria de los
sujetos a las distintas condiciones y la garantía de trabajar con gru-
pos de sujetos equivalentes. Tampoco es posible dividir la variación
total en sumas cuadráticas independientes o no solapadas que reflejen
los efectos principales y la interacción. En estos casos, debemos acudir
a otros análisis estadísticos distintos del análisis de varianza emplea-
do hasta ahora33.
Si la pérdida es esencialmente aleatoria y no está relacionada con
las variables experimentales, existen métodos que nos permiten reali-

33 Aunque no existe un acuerdo definitivo sobre qué método emplear, se puede

consultar Keren (1993) y Everitt (1996) para una mayor información sobre las
soluciones más utilizadas.
140 Análisis de varianza

zar algunos ajustes de manera que podamos analizar los datos me-
diante la técnica del ANVAR34. Distinguiremos dos casos:
1. Cuando el número de sujetos por celda no es el mismo pero sí
proporcional a los totales marginales, es decir:

n j + ⋅ n+ k
n jk =
N

donde njk es el número de observaciones en cada celda


nj+ es el número de observaciones por fila = ∑ k
n jk

n+k es el número de observaciones por columna = ∑ j


n jk

Todo lo que hemos visto es válido, simplemente hay que tener cui-
dado en la realización de los cálculos, donde njk sustituye a n, nj+ a nK
y n+k a nJ.
2. Cuando, además de no tener el mismo número de sujetos por cel-
da, no se guarda la proporcionalidad anterior, se puede trabajar
considerando el mismo número de observaciones por celda, pero el
valor de n necesario para llevar a cabo todos los cálculos, será la
media armónica del número de observaciones por celda:

JK
na =
∑∑ j k
(1 / n jk )

Se utiliza esta media en lugar de la media aritmética porque el


error típico de una media es proporcional a 1 n jk , más que a n jk .

A continuación, se calculan las medias por celda, por filas, por co-
lumnas y total. Consideramos, por tanto, una sola observación por
celda (la media de sus puntuaciones). El cálculo de las sumas y me-
dias cuadráticas de los efectos principales lo llevamos a cabo de la
manera que conocemos, solo que utilizamos estas medias en lugar de
las puntuaciones y na en lugar de n. La media cuadrática de error la
calcularemos mediante:

34 Aunque hayamos dejado para este tema el caso de tamaños de celdas desigua-

les, también se aplica al diseño de un factor.


Análisis de varianza de dos factores completamente aleatorizado 141

1
∑∑
j k
n jk
ra = MCint ra ⋅
*
MCint
JK

donde MCintra se calcula con los datos sin promediar. MC*intra será un
estimador insesgado de la varianza, supuestamente idéntica, de las JK
subpoblaciones, cuando en cada celda sólo tenemos la media de las
observaciones.

4.19. Diseños de más de dos factores


Una de las ventajas de los diseños factoriales, como ya comentamos en
la introducción del tema, es que nos permiten estudiar simultánea-
mente el efecto de varios factores sobre las mismas unidades experi-
mentales. Y, lo que es más importante, nos permiten evaluar el posible
efecto de interacción entre esos factores.
En este tema hemos tratado únicamente el caso de un diseño facto-
rial con dos factores A y B, pero se puede extender el estudio a más de
dos variables independientes35. En estos casos, asumimos el mismo
modelo lineal y las mismas condiciones de aplicación del análisis de
varianza ya vistas. Así mismo, la ecuación estructural es muy similar,
no obstante, se complica más al tener en cuenta (por ejemplo, en el
caso de tres factores), no sólo los componentes referidos a los efectos de
cada uno de los factores y el componente de interacción entre todos
ellos (interacción de segundo orden), sino que además hay que añadir
los componentes que reflejan los efectos de interacción debidos a las
combinaciones entre factores (interacciones de primer orden). Esto nos
habla ya de una mayor complejidad de cálculos y, sobre todo, de difi-
cultad en las interpretaciones de resultados. Ésta última constituye
una de las desventajas de los diseños factoriales.
Aunque por desgracia en las ciencias de la conducta no podemos
obviar la presencia de interacciones entre variables, el uso de los
diseños factoriales hace que perdamos simplicidad y parsimonia en la
interpretación de los resultados. Como señalan Cohen y Cohen (1975),
las interacciones de segundo orden y superiores, aun cuando sean
analizables matemáticamente, son, en Psicología, “muy difíciles de
conceptualizar, poco probable que existan y costosas a la hora de
hacer inferencias estadísticas” (pág. 348).

35 Remitimos a los manuales de Winer (1971) y Kirk (1982).


142 Análisis de varianza

En la misma línea, San Luis y Sánchez (1985) afirman que “en mu-
chas ocasiones aparecen en la literatura diseños con un considerable
número de factores (a su vez, con muchos niveles) que, a pesar de su
aparente elegancia, implican un elevado número de interacciones que,
en la mayoría de los casos, son imposibles de definir de antemano por
la teoría, difíciles de interpretar y artefactuales”, de ahí que “algunos
autores recomienden que, como norma metodológica general, limite-
mos el uso del ANVAR a investigaciones en las que sólo existan dos
variables independientes de no demasiados niveles” (San Luis y Sán-
chez, 1985).
5. Análisis de varianza de medidas
repetidas

5.1. Introducción
En el segundo tema hicimos una clasificación de los diferentes mode-
los de ANVAR atendiendo a varios aspectos, uno de los cuales era la
forma de manejar el error experimental. Vamos a detenernos un poco
más en este punto.
Ya sabemos que no todos los cambios observados en la variable de-
pendiente se deben únicamente a los cambios introducidos en la/s
variable/s independiente/s. En efecto, en todo experimento existen otros
factores no estudiados directamente por el investigador que afectan a
sus resultados, a los valores observados en la variable dependiente.
Estos factores constituyen el error experimental y la variabilidad a
que dan lugar la englobamos en la varianza intragrupo.
Un objetivo que nos planteamos en nuestros experimentos es conse-
guir que las variaciones en la variable dependiente se deban, lo más
sistemáticamente posible, a los cambios introducidos en la/s variable/s
independiente/s, procurando mantener constante, y en la menor cuan-
tía posible, el error experimental. En consecuencia, el análisis de
varianza captará más adecuadamente la variación entre los grupos.
De otro modo, al finalizar el experimento, no podremos saber hasta
144 Análisis de varianza

qué punto la variabilidad observada se debe a nuestras manipulacio-


nes experimentales o al error experimental.
Así, y volviendo a nuestra clasificación, podemos manejar el error
experimental de diferentes maneras, con lo que tendremos, también,
diferentes tipos de diseños. Por ejemplo, podemos asignar aleatoria-
mente a los sujetos (o unidades experimentales) a los niveles del factor,
de forma que cada uno de ellos reciba un solo tratamiento. En estos
casos, el investigador, de algún modo, considera que los sujetos son
homogéneos y, así, todas las variables extrañas actuarán por igual
sobre cada uno. Estaríamos tratando, por tanto, con un diseño comple-
tamente aleatorizado, que es lo que hemos estudiado hasta el momen-
to.
Si, por el contrario, los sujetos no son homogéneos, las diferencias
entre ellos contribuirán a aumentar el error experimental. En esta
situación, el investigador puede conseguir una mayor homogeneidad
estableciendo bloques. En primer lugar, va a dividir al grupo total de
sujetos en subgrupos homogéneos con respecto a una característica.
Por ejemplo, si en una prueba de rendimiento, sospecha que los sujetos
son muy diferentes en cuanto a inteligencia se refiere, puede controlar
esta variable contaminadora, haciendo varios grupos, cada uno de los
cuales, estará formado por sujetos con una inteligencia similar. A
continuación, dentro de cada bloque, asignará aleatoriamente a los
sujetos a cada uno de los niveles de la variable independiente. Si, por
ejemplo, lo que el investigador quiere estudiar es el efecto de las horas
de estudio (3, 5 y 8 horas) sobre el rendimiento, una vez tiene divididos
a los sujetos en grupos según su inteligencia, asignará a cada uno de
ellos a una condición (de 3, 5 ó 7 horas de estudio). Este diseño se
englobaría, como ya vimos, en los diseños por bloques.
Una forma de reducir al máximo las fuentes de error debidas a las
diferencias entre los sujetos sería hacerles pasar a todos y cada uno de
ellos por todas las condiciones experimentales. Se trata de una forma
de bloqueo máximo, puesto que se considera a cada sujeto como un
bloque. Este sería el caso en el que el investigador mide el rendimiento
de sus sujetos habiéndoles dejado, a cada uno de ellos, 3, 5 y 7 horas de
estudio previamente. Estamos hablando de diseños intrasujeto o dise-
ños de medidas repetidas y son los que nos van a ocupar este tema.
La ventaja de utilizar este tipo de diseño (amén de la disminución
que supone en el número de unidades experimentales a utilizar) es
clara: reducimos al mínimo la fuente de error experimental que se
debe a las diferencias individuales, con lo que el experimento se torna
más sensible de cara a captar las variaciones producidas por la va-
riable/s independiente/s sobre la dependiente.
Análisis de varianza de medidas repetidas 145

Sin embargo, también presenta unos inconvenientes que debemos


tener presente. Por un lado, si todos los sujetos pasan por todas las
condiciones experimentales, no siempre podrán hacerlo simultánea-
mente, ni siquiera en el mismo día y puede ocurrir que no estén dispo-
nibles en todas las sesiones, por lo que puede haber una falta impor-
tante de datos. Es lo que suele llamarse mortandad experimental.
Otro problema, tan importante o más que el anterior, surge del
aprendizaje o cansancio en los sujetos al ser sometidos a todas las
condiciones experimentales, o bien al transcurso del tiempo entre cada
una de las sesiones. En estos casos, si bien pretendíamos reducir el
error experimental fruto de las diferencias individuales, podemos
volver a incrementarlo introduciendo estas nuevas fuentes de error.
Estos inconvenientes no invalidan este tipo de diseño. Si somos cui-
dadosos con estos aspectos (por ejemplo, llevando a cabo un contraba-
lanceo del orden de aplicación de las pruebas o distribuyendo aleato-
riamente para cada sujeto el orden de aplicación), puede resultar un
procedimiento útil para nuestro propósito último, es decir, aumentar
la sensibilidad del análisis de varianza en el estudio del efecto de la
variable independiente sobre la dependiente, controlando adecuada-
mente el error experimental.
Para finalizar, y dentro ya del tema que nos ocupa, a saber, del
análisis de los datos de este tipo de diseños, vamos a clasificar el
ANVAR de medidas repetidas en modelos de un factor y modelos facto-
riales. Dentro de estos últimos, podemos trabajar con medidas repeti-
das en todos los factores o sólo en alguno. En todos ellos, el procedi-
miento para llegar a las razones F no varía excesivamente del estu-
diado con los modelos completamente aleatorizados. Además, todo lo
ya comentado a propósito del tamaño del efecto, potencia y compara-
ciones múltiples, es aplicable a estos diseños, por lo que nos vamos a
centrar más en las nuevas cuestiones que surjan. Empecemos, pues,
con el modelo más simple de todos, el ANVAR de un factor de medidas
repetidas.

5.2. Análisis de varianza de un factor de efectos


fijos de medidas repetidas
En este diseño vamos a estudiar el efecto de una varible independiente
sobre una variable dependiente, controlando las diferencias indivi-
duales. Para ello, a n sujetos se les va a aplicar los J tratamientos en
los que se ha dividido el factor A.
La estructura y notación de los datos será de la siguiente manera:
146 Análisis de varianza

niveles del factor


sujetos A1 A2 ... Aj ... AJ Ti+ Yi+
S1 Y11 Y12 ... Y1j ... Y1J T1+ Y1+
S2 Y21 Y22 ... Y2j ... Y2J T2+ Y2+
... ... ... ... ... ... ... ... ...
Si Yi1 Yi2 ... Yij ... YiJ Ti+ Yi+
... ... ... ... ... ... ... ... ...
Sn Yn1 Yn2 ... Ynj ... YnJ Tn+ Yn+
T+j T+1 T+2 ... T+j ... T+J T
Y+j Y+1 Y+2 ... Y+j ... Y+J Y

donde:
i: 1, 2, ..., n (hace referencia a los sujetos)
j: 1, 2, ..., J (hace referencia a los niveles)
Yij: puntuación del sujeto i perteneciente al nivel j
Ti+: suma de puntuaciones de cada sujeto en todos los niveles de j

Ti + = ∑ j Yij

T+j: suma de puntuaciones de todos los sujetos en cada nivel del fac-
tor

T+ j = ∑i Yij

T: suma total de todas las puntuaciones

T = ∑ j T j = ∑i ∑ j Yij

n: número de sujetos
N: número total de observaciones

N = J ⋅n

Veamos el siguiente ejemplo.


Análisis de varianza de medidas repetidas 147

Ejemplo 5.1. Supongamos que queremos averiguar cómo afecta el tipo de examen a la
calificación en una asignatura. Para ello, se van a elaborar tres formatos de res-
puesta: desarrollo de problemas (1), respuestas concretas (2) y respuestas tipo test
(3). Supongamos además que 10 sujetos pasan por las tres pruebas y que los re-
sultados obtenidos han sido los siguientes:

tipo de examen
sujetos 1 2 3 Ti+ Yi+
1 0 3 8 11 3,6
2 3 5 6 14 4,6
3 3 6 3 12 4
4 2 3 4 9 3
5 1 2 8 11 3,6
6 4 2 9 15 5
7 4 6 5 15 5
8 6 7 9 22 7,3
9 2 3 7 12 4
10 5 8 7 10 6,6
T+j 30 45 66 141
Y+j 3 4,5 6,6 4,7

Recordemos que en el ANVAR de un factor completamente aleatorizado, el


número de sujetos coincidía con el número de observaciones. En cambio, ahora,
siendo n = 10 el número de sujetos y J = 3 niveles, el número total de observacio-
nes es N = 30.
El hecho de aparecer la variable sujetos, puede dar lugar a confusión y hacer
pensar que estamos trabajando con dos variables independientes o factores. No
tratamos de introducir una nueva fuente de variación, lo que sería un diseño de dos
factores, sino de reducir la variación intragrupo. En el ANVAR de dos factores tra-
bajábamos con tres fuentes de variación intergrupo (correspondientes al factor A, al
factor B y a la interacción AB) y una intragrupo (correspondiente al error experimen-
tal). Ahora seguimos teniendo una sola fuente de variación intergrupo (correspon-
diente al factor estudiado, al tipo de tarea a memorizar) y lo que hacemos es aislar
del error experimental aquella variación que se debe a las diferencias individuales.
En consecuencia, la variación intragrupo se ve reducida y se potencia la variabili-
dad intergrupo.

5.2.1. Modelo aditivo


Cada una de las observaciones Yij se puede descomponer, de acuerdo
con el modelo lineal general, de la siguiente manera:

Yij = µ + αj + si + εij

donde
148 Análisis de varianza

µ es el promedio de todas las puntuaciones en la población


αj es el efecto específico del nivel j sobre la puntuación Yij:

αj = µ+j - µ (µ+j hace referencia a la media de cada condición)

si es el efecto debido a la variación entre los sujetos:

si = µi+ - µ (µi+ hace referencia a la media de cada sujeto)

εij es el término de error:

εij = Yij - µ - αj – si = Yij - µ - (µ+j - µ) - (µi+ - µ) = Yij - µ+j - µi+ + µ

Como se puede apreciar, lo único que cambia con respecto al mode-


lo de un factor completamente aleatorizado es el término si. Ahora, al
utilizar los mismos sujetos, podemos separar del error experimental la
variación debida a las diferencias individuales (con lo que su cuantía
disminuirá) y es precisamente este nuevo término, si, quien recoge esta
fuente de variabilidad.
Además de los supuestos referidos a la prueba F que ya conocemos:
1. normalidad de las observaciones (y de los errores),
2. homogeneidad de varianzas de las subpoblaciones,
3. observaciones entre individuos independientes,
hay que añadir uno nuevo:
4. si es una variable aleatoria normal e independiente de los αj y de
los εij, es decir, los tratamientos diferirán, o no, independientemente de
los sujetos sobre los que se aplican. En otras palabras, el modelo asu-
me que el efecto de cada nivel, αj, es constante para cada sujeto, por
tanto, no existe interacción entre los tratamientos y los sujetos, es
decir: (sα)ij = 0. De ahí que se conozca a este modelo como aditivo.
A partir de lo establecido anteriormente podemos poner a prueba la
siguiente hipótesis nula:

H0 : µ+1 = µ+2 = ... = µ+J = µ

es decir, no hay diferencias significativas entre las medias de los


tratamientos. Como vemos, es la misma que en el ANVAR de un factor
completamente aleatorizado.
Además, podemos expresar la ecuación propuesta del modelo de
otra manera:
Análisis de varianza de medidas repetidas 149

Yij = µ + αj + si + εij = µ + (µ+j - µ) + (µi+ - µ) + (Yij - µ+j - µi+ + µ)

de forma que si:

Yij = µ + (µ+j - µ) + (µi+ - µ) + (Yij - µ+j - µi+ + µ)

es válida en la población y si sustituimos los parámetros por sus esti-


madores muestrales:

Yij =Y + (Y+j -Y) + (Y i+ -Y) + (Yij -Y +j -Y i+ +Y)

es válida en la muestra.
Para llegar al estadístico de contraste que nos permita el rechazo o
no de la hipótesis nula debemos seguir los pasos que ya conocemos, es
decir, descomponer la varianza total de las puntuaciones, obtener las
sumas cuadráticas, así como los grados de libertad y las medias cua-
dráticas. Es lo que vamos a hacer en los siguientes párrafos.
Para una unidad experimental tenemos:

(Yij -Y) = (Y+j -Y ) + (Yi+ -Y ) + (Yij -Y+j -Yi+ +Y )

Para todas las unidades experimentales:

∑ ∑ (Y
i j ij −Y ) = ∑ ∑ [(Y − Y ) + (Y − Y ) + (Y − Y − Y + Y )] =
2
i j +j i+ ij +j i+
2

= n ∑ (Y − Y ) + J ∑ (Y − Y ) + n∑ ∑ (Y − Y − Y )
2 2 2
j +j i i+ i j jk +j i+ +Y

A la izquierda de la ecuación tenemos la variabilidad de todas las


puntuaciones (la suma cuadrática total). El primer miembro de la
parte derecha expresa la variabilidad que se debe al efecto del factor
que estamos estudiando (la suma cuadrática intergrupo); el segundo,
la que se debe a las diferencias entre los sujetos (la suma cuadrática
intersujeto) y, el último, la que se debe a esos factores no controlados y
que constituyen el error experimental (la suma cuadrática intragru-
po).
Podemos escribir estas sumas cuadráticas en los términos habitua-
les, es decir:

SCtotal = SCinter + SCS + SCintra


150 Análisis de varianza

Con respecto a los grados de libertad asociados a estas sumas cua-


dráticas tenemos que, tanto los grados de libertad de la SCtotal como los
de la SCinter siguen siendo N – 1 y J – 1, respectivamente.
Con respecto a la suma de cuadrados intersujeto, SCS, tenemos n
desviaciones cuadráticas alrededor de un punto, la media,Y, por
tanto, los grados de libertad son n – 1. En otras palabras, para que se
(2
) ( 2
)
verifique que ∑i Yi + − Y = 0 , las n diferencias Yi + − Y pueden tomar
cualquier valor excepto una, que será la que haga cumplirse la igual-
dad.
La suma de cuadrados intragrupos, SCintra, supone N desviaciones
cuadráticas respecto a las J medias,Y+j, a las n medias,Yi+, y a la
media total,Y. Por tanto, los grados de libertad son N – (J – 1) – (n –
1) – 1 = (J – 1)(n – 1).
En definitiva tenemos:

N - 1 = (J - 1) + (n - 1) + (J - 1)(n - 1)

Dividiendo cada una de las sumas cuadráticas intergrupos e intra-


grupos por sus correspondientes grados de libertad obtenemos las
medias cuadráticas que se precisan para la obtención del estadístico
de contraste.
Téngase en cuenta que no necesitamos la media cuadrática intersu-
jeto, puesto que no vamos a llevar a cabo ningún contraste de hipótesis
del tipo H0: si = 0 (para todo i). Las diferencias entre los sujetos, recor-
demos, no son un efecto principal en este diseño, sino una fuente de
variabilidad que aislamos del error experimental, con el fin de hacer
más sensible el contraste del efecto del factor sobre la variable depen-
diente. Así pues:
La media cuadrática intergrupo (MCinter) será igual a:

MCinter = SCinter / glinter

La media cuadrática intragrupo (MCintra) será igual a:

MCintra = SCintra / glintra

Siguiendo el mismo razonamiento que en el modelo completamente


aleatorizado, llegamos a los siguientes valores esperados de las me-
dias cuadráticas:
Análisis de varianza de medidas repetidas 151

 n ∑ j (Y+ j − Y ) 2  n∑ j α 2j
E ( MCint er ) = E  = + σ 2 = nσ α2 + σ 2
 J −1  J −1

 ∑ ∑ (Y jk − Y+ j − Yi + + Y ) 2 
E ( MCint ra ) = E  i j  =σ2
 ( J − 1)(n − 1) 

Vemos que MCintra es un estimador insesgado de la varianza pobla-


cional, mientras que MCinter sólo lo es cuando H0: µ1 = µ2 = ... = µJ = µ
es cierta, porque sólo entonces no hay un efecto del factor y
E(MCinter) = σ 2.
Multiplicando cada media cuadrática por sus grados de libertad y
diviendo por σ 2, estas variables aleatorias seguirán una distribución
χ2, es decir:

( J − 1) MCint er
= χ J2 −1 si H0 es verdadera.
σ2

( J − 1) (n − 1) MCint ra
= χ (2J −1)( n −1) tanto si H0 es verdadera como si no.
σ2

Por tanto, el cociente entre estas dos variables:

( J − 1) MCint er
/( J − 1)
σ2 =
MCint er
=F
( J − 1) (n − 1) MCint ra MC
/( J − 1)( n − 1) int ra
σ2

se distribuirá según FJ - 1; (J – 1)(n – 1) y podremos utilizarlo como estadísti-


co de contraste para comprobar o no la falsedad de la hipótesis nula
de igualdad de medias poblacionales.
Como hacemos habitualmente, vamos a presentar la tabla resumen
del ANVAR de este modelo:

FV SC gl MC F
Intergrupos SCinter J–1 SCinter / glinter F=
MCint er
Intersujetos SCS n–1 MCint ra
Intragrupos SCintra (J – 1)(n - 1) SCintra / glintra
Total SCtotal N–1
152 Análisis de varianza

A fin de facilitar los cálculos para la obtención de las sumas cua-


dráticas, presentamos las siguientes fórmulas:

T2
SCtotal = ∑i ∑ j Yij2 −
N

T+2j T2
SCint er = ∑ j −
n N

Ti +2 T 2
SC S = ∑i −
J N

T+2j Ti +2 T 2
SC int ra = ∑i∑ j Yij2 − ∑ j − ∑i +
n J N

A modo de resumen del procedimiento, vamos a analizar los datos


del ejemplo para, así, asentar los nuevos conocimientos.

Ejemplo 5.2. Recordemos que pretendemos averiguar cómo afecta el tipo de examen
a la calificación en una asignatura y que 10 sujetos van a realizar los tres exáme-
nes. Supongamos que los resultados obtenidos son los siguientes:

tipo de examen
sujetos 1 2 3 Ti+ Yi+
1 0 3 8 11 3,6
2 3 5 6 14 4,6
3 3 6 3 12 4
4 2 3 4 9 3
5 1 2 8 11 3,6
6 4 2 9 15 5
7 4 6 5 15 5
8 6 7 9 22 7,3
9 2 3 7 12 4
10 5 8 7 10 6,6
T+j 30 45 66 141
Y+j 3 4,5 6,6 4,7

n = 10; J = 3; N = 30; T = 141


1. Planteamiento de las hipótesis:
H0 : µ+1 =µ+2 =µ+3 = µ
Análisis de varianza de medidas repetidas 153

Bajo esta hipótesis establecemos que las 3 medias poblacionales son igua-
les, es decir, la calificación en los tres tipos de examen es la misma.
H1 : µ+j ≠ µ
Bajo esta hipótesis establecemos que la calificación en los tres tipos de
examen no es la misma.
2. Supuestos:
1) Normalidad de las observaciones (o de los errores).
2) Homogeneidad de varianzas.
3) Los sujetos (si) no interactúan ni con los tratamientos (αj) ni con los erro-
res (εij).
3. Estadístico de contraste:

1412
SC total = 839 − = 839 − 662,7 = 176,3
30

30 2 45 2 66 2 1412
SC int er = + + − = 728,1 − 662,7 = 65,4
10 10 10 30

15 2 9 2 12 2 112 1412
SC S = + + ... + + − = 713,7 − 662,7 = 51
3 3 3 3 30

SC int ra = 839 − 728,1 − 713,7 + 662,7 = 59,9

Obtención de la tabla de ANVAR:

FV SC gl MC F
Intergrupos 65,4 2 65,4 / 2 = 32,7 32,7
Intersujetos 51 9 F= = 9,83
3,3
Intragrupos 59,9 18 59,9 / 18 = 3,3
Total 176,3 29

4. Distribución muestral del estadístico de contraste:


F sigue una distribución F2, 18
5. Nivel de significación y punto crítico:
α = 0,05
valor crítico: F0 ,95; 2,18 = 3,55

6. Decisión:
Rechazo de H0 porque F > F0,95; 2 ,18
154 Análisis de varianza

En otras palabras, la probabilidad asociada a F = 9,83 es p = 0,0013, por lo


que llegamos a la misma decisión.
7. Podemos concluir que la calificación de los sujetos no será la misma depen-
diendo de los tres tipos de examen que hemos estudiado. Para ver dónde
se encuentran exactamente las diferencias podemos recurrir a las pruebas a
posteriori que vimos en el tema 3, únicamente hay que tener en cuenta que
los grados de libertad de la SCintra ahora son (J – 1)(n - 1) y no los N – J de
la SCintra del ANVAR de un factor completamente aleatorizado (dejamos al
lector que realice esta tarea).
Es interesante preguntarse qué hubiese sucedido si en lugar de utilizar este
análisis, hubiésemos empleado un ANVAR de un factor completamente aleatoriza-
do. En este caso hubiésemos utilizado 10 sujetos distintos por condición, con lo que
al final tendríamos tantos sujetos como observaciones, es decir, 30. Se puede
comprobar que ni la suma cuadrática intergrupos ni la total cambian, es decir: SCinter
= 65,4 y SCtotal = 176,3. ¿Qué ocurre con la varianza de error?

T j2
SCint ra = ∑i∑ j Yij2 − ∑ j = 839 − 728,1 = 110,9
nj

La SCintra es de 110,9 frente a 59,9 que hemos obtenido con el diseño de medi-
das repetidas y la MCintra es igual a 110,9 / 27 = 4,11 frente al valor de 3,3. Pode-
mos ver cómo ahora el análisis es más sensible debido, precisamente, a que
hemos apartado del error experimental la varianza que se debe a las diferencias in-
dividuales.

5.2.2. Modelo no aditivo


Démonos cuenta del hecho de que, si bien los sujetos son independien-
tes entre sí (y, por tanto, las observaciones dentro de cada nivel), las
puntuaciones de cada uno de ellos (observaciones de las filas) no lo
son. Al tratarse del mismo sujeto, sus puntuaciones estarán correla-
cionadas. En este tipo de diseños es más realista pensar que, además
de los efectos αj y si, existe un efecto de interacción entre ellos, por lo
que tendremos que introducir este componente en el modelo. De esta
forma, la puntuación, Yij, de cada sujeto vendrá dada por:

Yij = µ + αj + si + (sα)ij + εij

Se asume que este nuevo componente, (sα)ij, se distribuye normal-


mente con media igual a cero y varianza igual
(J − 1) σ 2
.

J

La estimación de µ, αj y si, es la misma que vimos anteriormente, es


decir:

µ =Y
Análisis de varianza de medidas repetidas 155

αj =Y+j -Y

si =Yi+ -Y

Por su parte, el componente de interacción, (sα)ij, lo estimamos me-


diante:

(sα)ij = Yij -Y+j -Yi+ +Y

y el error aleatorio, εij = Yij – µ - αj – si – (sα)ij, podemos estimarlo


mediante:

εij = Yij –Y – (Y+j – Y) – (Yi+ –Y) – (Yij -Y+j -Yi+ +Y) = 0

El término de error, que es un indicador de la desviación de cada


puntuación a la media de su grupo, es igual a cero al haber una sola
observación en cada celda (como sucedía en el ANVAR de dos factores
completamente aleatorizado con una sola puntuación por celda). Así
pues, el modelo queda de la siguiente manera:

Yij = µ + αj + si + (sα)ij

Sustituyendo cada término de la ecuación por sus estimadores, te-


nemos:

Yij = µ + (Y+j -Y) + (Yi+ -Y) + (Yij -Y+j -Yi+ +Y)

Para un sujeto podemos establecer la siguiente relación:

Yij - µ = (Y+j -Y) + (Yi+ -Y) + (Yij -Y+j -Yi+ +Y)

Para todos los sujetos tenemos:

SCtotal = SCA + SCS + SCSA

con los siguientes grados de libertad:

(N – 1) = (J – 1) + (n – 1) + (n – 1)(J – 1)

En principio, si el término de error es igual a cero, parece imposible


desarrollar un estadístico que nos permita poner a prueba la hipótesis
nula referida al efecto de la variable independiente. Sin embargo, el
hecho de haber diferencias entre las puntuaciones de los sujetos en la
misma condición, nos habla de la existencia de una variación intra-
156 Análisis de varianza

grupo, necesaria para llevar a cabo el análisis. ¿A qué se debe esta


variación? Precisamente a la diferente afectación de cada sujeto por el
tratamiento, es decir, a la interacción del factor sujeto y del factor
estudiado. Así pues, podemos utilizar la MCSA para llevar a cabo el
contraste sobre H0. En definitiva, podemos utilizar la razón F:

MC A
F=
MC SA

que sigue una distribución Fα , J −1, ( n −1)( J −1) para contrastar la hipótesis
nula de igualdad de medias de los tratamientos.
En general, nos encontraremos que en los diseños de medidas repe-
tidas, la variabilidad de todas las observaciones suele descomponerse
en dos fuentes de variación: la variación atribuible a las diferencias
entre las medias de los sujetos (variación inter-sujetos) y la variación
que se debe a las diferencias de las puntuaciones de cada sujeto (va-
riación intra-sujetos). Es decir:

SCtotal = SCinter-suj + SCintra-suj

A su vez, las diferencias en las puntuaciones del mismo sujeto (va-


riación intra-sujetos), se deben al efecto de los tratamientos del factor
(variación inter-grupos) y al error experimental (variación intra-
grupos). Es decir:

SCintra-suj = SCinter + SCintra

Por tanto, podemos descomponer la variación total en las siguien-


tes fuentes de variación:

SCtotal = SCinter-suj + SCintra-suj =

= SCinter-suj + (SCinter + SCintra)

La variación intra-grupos, como vimos anteriormente, incluirá o


bien la variación residual o bien la interacción, según el modelo aditi-
vo o no con el que trabajemos (no obstante en el diseño de un factor de
medidas repetidas, en la práctica, ambos modelos nos llevan a los
mismos resultados).
Análisis de varianza de medidas repetidas 157

5.3. Análisis de varianza de dos factores de me-


didas repetidas
Bajo este diseño vamos a estudiar el efecto que dos factores (A y B)
tienen sobre una variable dependiente. Siendo el modelo de medidas
repetidas, se pueden dar dos situaciones:
1. Los dos factores (A y B) son de medidas repetidas, por lo que todos
los sujetos pasan por todas y cada una de las condiciones.
2. Un factor, llamado intersujeto, es completamente aleatorizado
(por ejemplo, el factor A) y el otro, llamado intrasujeto, es de medidas
repetidas (por ejemplo, el factor B).
Vamos a presentar los dos casos siguiendo el esquema habitual y
sólo nos detendremos en aquello que suponga una novedad a nivel
conceptual.

5.3.1. ANVAR de dos factores de medidas repetidas en


ambos
Partimos de n sujetos distribuidos aleatoriamente en todas y cada una
de las JK combinaciones de tratamientos. La disposición de los datos
sería la siguiente:

A1 ... Aj ... AJ

suj. B1 ... Bk ... BK B1 ... Bk ... BK B1 ... Bk ... BK

S1 Y111 ... Y11k ... Y11K Y1j1 ... Y1jk ... Y1jK Y1J1 ... Y1Jk ... Y1JK
S2 Y211 ... Y21k ... Y21K Y2j1 ... Y2jk ... Y2jK Y2J1 ... Y2Jk ... Y2JK
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
Si Yi11 ... Yi1k ... Yi1K Yij1 ... Yijk ... YijK YiJ1 ... YiJk ... YiJK
... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ...
Sn Yn11 ... Yn1k ... Yn1K Ynj1 ... Ynjk ... YnjK YnJ1 ... YnJk ... YnJK

donde:
i: 1, 2, ..., n (hace referencia a los sujetos)
j: 1, 2, ..., J (hacer referencia a los niveles del factor A)
k: 1, 2, ..., K (hacer referencia a los niveles del factor B)
Yijk: puntuación del sujeto i perteneciente al nivel j y al nivel k
Ti++: puntuación total de cada sujeto
158 Análisis de varianza

Ti + + = ∑ j ∑k Yijk

Tij+: puntuación de cada sujeto en cada nivel de A

Tij + = ∑k Yijk

Ti+k: puntuación de cada sujeto en cada nivel de B

Ti + k = ∑ j Yijk

T+jk: puntuación total de cada nivel de B en cada nivel de A

T+ jk = ∑iYijk

T+j+: puntuación total de cada nivel de A

T+ + k = ∑∑
i
Y
k ijk

T++k: puntuación total de cada nivel de B

T+ + k = ∑∑
i
Y
j ijk

T: suma total de todas las puntuaciones

T = ∑i∑ j ∑k Yijk

Podemos establecer el siguiente modelo para una puntuación cual-


quiera:

Yijk = µ + αj + βk + (α β)jk + si + εijk

siendo
µ = promedio de todas las puntuaciones en la población.
αj = efecto específico del nivel j sobre la puntuación Yijk:

αj = µ+j+ - µ

βk = efecto específico del nivel k sobre la puntuación Yijk:

βk = µ++k - µ
Análisis de varianza de medidas repetidas 159

(αβ)jk = efecto de interacción entre los factores A y B:

(αβ)jk = µ+jk - µ+j+ - µ++k + µ

si = efecto debido a las diferencias entre los sujetos:

si = µi++ - µ

εijk = término de error:

εijk = Yijk - µ+j+ - µ++k + µ

Los supuestos de este modelo son los siguientes: normalidad, inde-


pendencia, homogeneidad de varianzas, que ya nos resultan conoci-
dos, y uno nuevo, que es si es una v.a. normal e independiente de los αj,
de los βk, y de los εijk. Por tanto: (sα)ij = (sβ)ik = (sαβ)ijk = 0.
A partir del modelo y de sus supuestos podemos poner a prueba las
siguientes hipótesis nulas:
1. H0(A) : µ+1+ = µ+2+ = ... µ+j+ = ... = µ+J+ o bien
H0(A) : αj = 0, para todo valor de j.
Es decir, las J medias poblacionales correspondientes a los nive-
les del factor A no difieren significativamente, o bien, no existe
un efecto significativo del factor A sobre las puntuaciones.
2. H0(B) : µ++1 = µ++2 = ...= µ++k = ... = µ++K o bien
H0(B) : βk = 0, para todo valor de k.
Es decir, las K medias poblacionales correspondientes a los nive-
les del factor B no difieren significativamente, o bien, no existe
un efecto significativo del factor B sobre las puntuaciones.
3. H0(AB) : µ+jk - µ+j’k = µ+j+ - µ+j’+, para todo valor de j, j’ y k (j ≠ j’) o bien
H0(AB) : (αβ)+jk = 0, para todo valor de j y k.
Es decir, la diferencia entre las medias de dos casillas cuales-
quiera de la misma fila no difiere significativamente de la dife-
rencia entre las medias marginales correspondientes a esas casi-
llas, o bien, no existe un efecto significativo de la interacción de
ambos factores.
Como vemos, son las mismas que en el ANVAR de dos factores com-
pletamente aleatorizado.
160 Análisis de varianza

Podemos expresar la ecuación propuesta del modelo de otra mane-


ra:

Yijk = µ + αj + βk + (α β)jk + si + εijk =

= µ + (µ+j+ - µ) + (µ++k - µ) + (µ+jk - µ+j+ - µ++k + µ) + (µi++ - µ) +

+ (Yijk - µ+j+ - µ++k + µ)

de forma que, si es válidad en la población y sustituimos los paráme-


tros por sus estimadores muestrales, entonces:

Yijk =Y + (Y+j+ -Y) + (Y++k -Y) + (Y+jk -Y+j+ -Y++k +Y) +

+ (Y i++ -Y) + (Yijk -Y+j+ -Y++k +Y)

es válida en la muestra.
Si para una unidad experimental:

Yijk -Y = (Y+j+ -Y) + (Y++k -Y) + (Y+jk -Y+j+ -Y++k +Y) +

+ (Y i++ -Y) + (Yijk -Y+j+ -Y++k +Y)

para todas las unidades experimentales:

∑i ∑ j ∑k (Yijk − Y ) = ∑i ∑ j ∑k [(Y+ j + − Y ) + (Y+ +k − Y ) + (Y+ jk − Y+ j + − Y+ +k + Y ) + (Yi + + − Y ) + (Yijk − Y+ j + − Y+ +k + Y )]


2 2

Desarrollando la expresión anterior llegamos a la habitual des-


composición de las sumas cuadráticas: intergrupo (factores principa-
les e interacción) e intragrupo (de la que extraemos la intersujetos):

SCtotal = SCinter + SCS + SCintra =

= (SCA + SCB + SCAB) + SCS + SCintra

Cuyos grados de libertad son:


gltotal = N – 1
glA = J – 1
glB = K – 1
glAB = (J – 1)(K – 1)
glS = n – 1
Análisis de varianza de medidas repetidas 161

glintra = (JK – 1)(n – 1)


N – 1 = (J – 1) + (K – 1) + (J – 1)(K – 1) + (n – 1) + (JK – 1)(n – 1)

Si dividimos las sumas cuadráticas por sus correspondientes gra-


dos de libertad, obtenemos las medias cuadráticas que ya conocemos.
Las presentamos a continuación junto con sus esperanzas matemáti-
cas36:
MCA = SCA / glA E(MCA) = σ 2 + nKσ 2α
MCB = SCB / glB E(MCB) = σ 2 + nJσ 2β
MCAB = SCAB / glAB E(MCAB) = σ 2 + nσ 2αβ
MCS = SCS / glS E(MCS) = σ 2 + nJKσ 2S
MCintra = SCintra / glintra E(MCintra) = σ 2

De lo anterior se deduce que podemos poner a prueba las hipótesis


nulas establecias mediante las correspondentes razones F que apare-
cen la siguiente tabla resumen de este diseño de ANVAR:

FV SC gl MC F
Intergrupos: SCinter JK – 1
MC A
A SCA J–1 SCA / glA FA =
MCint ra
MC B
B SCB K–1 SCB / glB FB =
MCint ra
MC AB
AB SCAB (J – 1)(K – 1) SCAB / glAB FAB =
MCint ra
Intersujetos SCS n–1
Intragrupos SCintra (JK – 1)(n – 1) SCintra / glintra
Total SCtotal N–1

Las distribuciones muestrales de los estadísticos de contraste son:


FA sigue una distribución F1 – α; J – 1, (JK – 1)(n – 1)
FB sigue una distribución F1 – α; K – 1, (JK – 1)(n – 1)
FAB sigue una distribución F1 – α; (J – 1)(K – 1), (JK – 1)(n – 1)

36 Se puede consultar Winer (1971) y Kirk (1982) para ver cómo se obtienen las

esperanzas matemáticas.
162 Análisis de varianza

Las fórmulas que nos facilitan los cálculos de estas sumas cuadrá-
ticas son las siguientes:

T2
SCtotal = ∑∑
i j ∑l ijk
Y2 −
N

SCint er =
∑T j
2
+ jk

T2
n N

SC A =
∑T j
2
+ j+

T2
nK N

SC B =
∑T k
2
++ k

T2
nJ N

SC AB =
∑∑T j k
2
+ jk

∑T j
2
+ j+

∑T
k
2
++ k
+
T2
= SCint er − SC A − SC B
n nK nJ N

SC S =
∑T k
2
i++

T2
JK N

 ∑ j ∑k T+2jk 
SCint ra = ∑i∑ j ∑k Yijk2 −  
 n 
 

Antes de continuar, vamos a realizar un ejemplo con los pasos a se-


guir en este diseño.

Ejemplo 5.3. Supongamos que deseamos comprobar si la ansiedad (Factor A) y la


motivación (Factor B) inciden en el rendimiento. Para ello, seleccionamos 5 sujetos
a los que medimos su rendimiento en una tarea con presentación de estímulos an-
siógenos (CA) y bajo 3 tipos de instrucciones que manipulan la motivación, de ma-
nera que ésta sea alta (A), media (M) y baja (B). Posteriormente, se somete a los
mismos sujetos también a la misma tarea, pero esta vez en un ambiente sin estímu-
los ansiógenos (SA). Al utilizar a los mismos sujetos en todas las condiciones, es-
tamos ante un diseño de dos factores y de medidas repetidas en ambos factores.
Los resultados de este hipotético experimento se encuentran en la siguiente tabla.
Análisis de varianza de medidas repetidas 163

CA SA
suj. A M B A M B Ti++ Tij+ Ti+k
1 7 4 1 10 9 2 33 12 21 17 13 3
2 2 3 1 7 5 4 22 6 16 9 8 5
3 4 5 2 5 6 1 23 11 12 9 11 3
4 4 6 5 9 10 5 39 15 24 13 16 10
5 6 6 3 10 8 6 39 15 24 16 14 9
T+jk 23 24 12 41 38 18 156
T+j+ 59 97
T++k 64 62 30

1. Planteamiento de las hipótesis nulas:


H0(A) : µ+1+ = µ+2+
Es decir, las 2 medias poblacionales correspondientes a los niveles del fac-
tor A no difieren significativamente, o bien, no existe un efecto significativo
de la ansiedad sobre el rendimiento.
H0(B) : µ++1 = µ++2 = µ++3
Es decir, las 3 medias poblacionales correspondientes a los niveles del fac-
tor B no difieren significativamente, o bien, no existe un efecto significativo
de la motivación sobre el rendimiento.
H0(AB) : µ+jk - µ+j’k = µ+j+ - µ+j’+, para todo valor de j, j’ y k (j ≠ j’)
Es decir, la diferencia entre las medias de dos casillas cualesquiera de la
misma fila no difiere significativamente de la diferencia entre las medias
marginales correspondientes a esas casillas, o bien, no existe un efecto sig-
nificativo conjunto de la ansiedad y motivación sobre el rendimiento.
2. Supuestos:
1. Normalidad de las observaciones (o de los errores).
2. Homogeneidad de varianzas de las subpoblaciones.
3. si es una v.a. normal e independiente de los αj, de los βk, y de los εijk. Por
tanto: (sα)ij = (sβ)ik = (sαβ)ijk = 0.
3. Estadísticos de contraste:
Comenzaremos realizando los calculos necesarios para obtener las sumas
cuadráticas y presentaremos la tabla de ANVAR.

156 2
SCtotal = 7 2 + 2 2 + ... + 5 2 + 6 2 − = 1026 − 811,2 = 214,8
30

232 + 24 2 + 12 2 + 412 + 38 2 + 18 2
SCint er = − 811,2 = 128,4
5
164 Análisis de varianza

59 2 + 97 2 156 2
SC A = − = 859,34 − 811,2 = 48,14
5⋅3 30

64 2 + 62 2 + 30 2 156 2
SC B = + = 884 − 811,2 = 72,8
5⋅ 2 30
SC AB = SCint er − SC A − SC B = 128,4 − 48,14 − 72,8 = 7,46

332 + 22 2 + ... + 39 2 + 39 2 156 2


SC S = − = 857,34 − 811,2 = 46,134
2⋅3 30
SCint ra = SCtotal − SCint er − SC S = 214,8 − 128,4 − 46,134 = 40,266

Tabla de ANVAR:

FV SC gl MC F
Intergrupos: 128,4 5
A 48,14 1 48,14 48,14 / 2,01 = 23,95
B 72,8 2 36,4 36,4 / 2,01 = 18,11
AB 7,46 2 3,73 3,73 / 2,01 = 1,86
Intersujeto 46,134 4
Intragrupos 40,266 20 2,01
Total 214,8 29

4. Distribuciones muestrales de los estadísticos de contraste:


FA sigue una distribución F1, 20
FB sigue una distribución F2, 20
FAB sigue una distribución F2, 20
5. Nivel de significación y puntos críticos:
α = 0,05
valores críticos:

F0,95;1, 20 = 4,35

F0,95; 2, 20 = 3,49

F0,95; 2, 20 = 3,49

6. Decisiones:
Rechazo de H0(A) porque FA > F0,95;1, 20

Rechazo de H0(B) porque FB > F0 ,95; 2 , 20


Análisis de varianza de medidas repetidas 165

No rechazo de H0(AB) porque FAB < F0,95; 2 , 20

7. Podemos concluir que, para las condiciones estudiadas, tanto la ansiedad


(Factor A) como la motivación (Factor B) afectan al rendimiento de los suje-
tos. Sin embargo, no hemos encontrado un efecto significativo de la actua-
ción conjunta de estas variables sobre el rendimiento. Al no resultar signifi-
cativa la interacción, podemos buscar las diferencias en el Factor B recu-
rriendo a las pruebas de comparaciones múltiples que ya conocemos (sólo
hay que tener en cuenta que los grados de libertad de la media cuadrática
de error son diferentes). El Factor A sólo tiene dos niveles, por tanto, pode-
mos decir que el rendimiento es mayor cuando los sujetos realizan la tarea
sin estímulos ansiógenos.

Como ya vimos en el ANVAR de un factor de medidas repetidas, lo


habitual es que no podamos suponer independencia entre el efecto de
los sujetos y el efecto de los factores A y B y de interacción, es decir,
(sα)ij ≠ 0, (sβ)ik ≠ 0 y (sαβ)ijk ≠ 0. En este caso, el modelo será el siguien-
te:

Yijk = µ + αj + βk + (α β)jk + si + (sα)ij + (sβ)ik + (sαβ)ijk + εijk

Dado que tenemos una sola observación por celda, en la variabili-


dad intragrupos se recogen estos nuevos componentes de interacción.
De esta manera, podemos descomponer la suma cuadrática total en
las siguientes sumas cuadráticas:

SCtotal = SCinter + SCS + SCintra =

= (SCA + SCB + SCAB) + SCS + (SCSA + SCSB + SCSAB)

Los grados de libertad de estas nuevas sumas cuadráticas son:


glSA = (J – 1)(n – 1)
glSB = (K – 1)(n – 1)
glSAB = (J – 1)(K – 1) (n – 1)
Por su parte, las nuevas medias cuadráticas, junto con sus valores
esperados, son:
MCA = SCA / glA E(MCA) = σ 2 + Kσ 2sα + nKσ 2α
MCB = SCB / glB E(MCB) = σ 2 + Jσ 2sβ + nJσ 2β
MCAB = SCAB / glAB E(MCAB) = σ 2 + σ 2sαβ + nσ 2αβ
MCSA = SCSA / glSA E(MCSA) = σ 2 + Kσ 2sα
MCSB = SCSB / glSB E(MCSB) = σ 2 + Jσ 2sβ
166 Análisis de varianza

MCSAB = SCSAB / glSAB E(MCSAB) = σ 2 + σ 2sαβ


Bajo este modelo no aditivo podemos poner a prueba las hipótesis
nulas referidas a los efectos de los factores A y B y de la interacción
mediante las razones F que aparecen la siguiente tabla resumen:

FV SC gl MC F
Intergru- SCinter JK – 1
pos:
MC A
A SCA J–1 SCA / glA FA =
MCSA
MC B
B SCB K–1 SCB / glB FB =
MCSB
MC AB
AB SCAB (J – 1)(K – 1) SCAB / glAB FAB =
MCSAB
Intersujetos SCS n–1
Intragru- SCintra (JK – 1)(n – 1)
pos: SCSA (J – 1)(n – 1) SCSA / glSA
SA SCSB (K – 1)(n – 1) SCSB / glSB
SB SCSAB (J – 1)(K – 1)(n – SCSAB /
SAB 1) glSAB

Total SCtotal N–1

Si nos fijamos en las razones F, probablemente nos llame la aten-


ción que en los denominadores de cada una de ellas no aparece la
media cuadrática de error o intragrupo que nos resulta familiar. En
efecto, la elección de una razón F apropiada para probar la efectivi-
dad de los factores principales y de la interacción depende de los
valores esperados de las medias cuadráticas. Como siempre, debemos
formar una razón entre dos medias cuadráticas que difieran única-
mente en la ausencia/presencia del término correspondiente al efecto
que se esté contrastando.
Así, para el factor A por ejemplo, a la vista del valor esperado de su
media cuadrática, debemos utilizar en la razón F la media cuadrática
correspondiente a la interacción SA, por ser la que nos permite aislar
adecuadamente el efecto de este factor. Si el cociente no difiere signifi-
cativamente de 1, no podemos concluir que existe un efecto de A sobre
la variable dependiente. Si, por el contrario, este cociente se aleja
significativamente de 1, entonces el componente nKσ2α (véanse las
esperanzas matemáticas de MCA y MCSA) es distinto de cero, lo que
Análisis de varianza de medidas repetidas 167

indica un efecto significativo de este factor. Algo similar puede decirse


del factor B y de la interacción AB.
Las distribuciones muestrales de los estadísticos de contraste son:
FA sigue una distribución F1 – α, J – 1, (J – 1)(n – 1)
FB sigue una distribución F1 – α, K – 1, (K – 1)(n – 1)
FAB sigue una distribución F1 – α, (J – 1)(K – 1), (J – 1)(K – 1)(n – 1)
Las fórmulas que nos facilitan los cálculos de estas sumas cuadrá-
ticas son las siguientes:

SCSA =
∑∑ T
i j
2
ij +

∑T
j
2
+ j+

∑T 2
i i++
+
T2
K nK JK N

SC SB =
∑∑ T
i k
2
i+k

∑T
k
2
++ k

∑T 2
i i++
+
T2
J nJ JK N

SC SAB = SCint ra − SC SA − SC SB

Vamos a aplicar todos estos conceptos nuevos a los datos de nuestro


ejemplo.

Ejemplo 5.4. Recordemos que nuestro interés es comprobar si existe un efecto signifi-
cativo de la ansiedad (Factor A) y de la motivación (Factor B) sobre el rendimiento
de los sujetos. Ahora no vamos a suponer un modelo aditivo, sino que existe un
efecto de interacción entre los sujetos y los factores principales. Calcularemos pri-
mero las sumas cuadráticas y presentaremos la tabla de ANVAR, para pasar a
continuación a las decisiones.

12 2 + 6 2 + ... + 24 2 + 24 2
SC SA = − 859,34 − 857,34 + 811,2 = 9,19
3

17 2 + 9 2 + ... + 102 + 9 2
SCSB = − 884 − 857,34 + 811,2 = 22,86
2
SC SAB = 40,27 − 9,19 − 22,86 = 8,22
168 Análisis de varianza

Tabla de ANVAR:

FV SC gl MC F
Intergrupos: 128,4 5
A 48,14 1 48,14 FA = 48,14 / 2,30 = 20,9
B 72,8 2 36,4 FB = 36,4 / 2,86 = 12,73
AB 7,46 2 3,73 FAB = 3,73 / 1,03 = 3,62
Intersujetos 46,13 4
Intragrupos: 40,27 20
SA 9,19 4 2,30
SB 22,86 8 2,86
SAB 8,22 8 1,03
Total 214,8 29

Nivel de significación y puntos críticos:


α = 0,05
F0,95; 1, 4 = 7,71
F0,95; 2, 8 = 6,04
F0,95; 2, 8 = 6,04
Decisiones:
Rechazo de H0(A) porque FA > F0 ,95;1, 4

Rechazo de H0(B) porque FB > F0,95; 2,8

No rechazo de H0(AB) porque FAB < F0 ,95; 2 ,8

Podemos concluir que, para las condiciones estudiadas, tanto la ansiedad (Fac-
tor A) como la motivación (Factor B) afectan al rendimiento de los sujetos. Tampoco
en esta ocasión hemos encontrado un efecto significativo de interacción de ambos
factores sobre el rendimiento de los sujetos.

En este tipo de diseños, también podemos encontrarnos con la si-


guiente descomposición de la variabilidad de las observaciones: la
variación que se debe a las diferencias entre los sujetos (variación
intersujetos) y la variación que se debe a las diferencias en las pun-
tuaciones del mismo sujeto (variación intrasujetos), es decir:

SCtotal = SCinter-suj + SCintra-suj

A su vez, las diferencias en las puntuaciones del mismo sujeto (va-


riación intra-sujetos) se deben al efecto de los tratamientos de los
factores A y B, así como de la interacción (variación inter-grupos) y al
error experimental (variación intra-grupos). Es decir:
Análisis de varianza de medidas repetidas 169

SCintra-suj = SCA + SCB + SCAB + SCintra

Por tanto, podemos descomponer la variación total en las siguien-


tes fuentes de variación:

SCtotal = SCinter-suj + SCintra-suj =

= SCinter-suj + [(SCA + SCB + SCAB) + SCintra]

La variación intra-grupos, como vimos anteriormente, incluirá o


bien la variación residual o bien las interacciones entre los efectos de
los sujetos y los efectos principales y de interacción, según el modelo
aditivo o no que asumemos.

5.3.2. ANVAR de dos factores de medidas repetidas en


un solo factor
Como ya señalamos anteriormente, esta situación se da cuando cada
uno de los sujetos utilizados en el experimento pasa por todas las
condiciones de un factor (llamado intrasujeto) y por una sola condi-
ción del otro factor (llamado intersujeto). Este diseño también es
conocido con el nombre de diseño mixto o split-plot.
Ahora la puntuación de un sujeto va a venir dada por la suma de
los siguientes componentes:

Yijk = µ + αj + βk + (α β)jk + si + (sβ)jk + εijk

Después de todos los modelos que ya hemos visto, ninguno de los


componentes nos resulta nuevo. Únicamente aclarar que el efecto de
interacción entre sujetos y factores sólo sucede con el factor B, por
cuyos niveles pasan todos los sujetos. Suponer que esta interacción es
nula es poco realista, por eso debemos incluir este componente en el
modelo. Por el contrario, al ser el factor A completamente aleatorizado
(las observaciones son independientes entre sus niveles), no existe una
interacción entre los sujetos y el factor. Esto se puede apreciar en la
tabla:
170 Análisis de varianza

Suj. B1 ... Bk ... BK


S11 Y111 ... Y11k ... Y11K
S21 Y211 ... Y21k ... Y21K
A1 ... ... ... ... ... ...
Si1 Yi11 ... Yi1k ... Yi1K
... ... ... ... ... ...
Sn1 Yn11 ... Yn1k ... Yn1K
... ... ... ... ... ... ...
S1j Y1j1 ... Y1jk ... Y1jK
S2j Y2j1 ... Y2jk ... Y2jK
Aj ... ... ... ... ... ...
Sij Yij1 ... Yijk ... YijK
... ... ... ... ... ...
Snj Ynj1 ... Ynjk ... YnjK
... ... ... ... ... ... ...
S1J Y1J1 ... Y1Jk ... Y1JK
S2J Y2J1 ... Y2Jk ... Y2JK
AJ ... ... ... ... ... ...
SiJ YiJ1 ... YiJk ... YiJK
... ... ... ... ... ...
SnJ YnJ1 ... YnJk ... YnJK

donde:
Yijk: puntuación del sujeto i perteneciente al nivel j y al nivel k
n: número de sujetos en cada condición de A
Tij+: puntuación de cada sujeto en cada nivel de A

Tij + = ∑k Yijk

T+jk: puntuación total de cada nivel de B en cada nivel de A

T+ jk = ∑iYijk

T+j+: puntuación total de cada nivel de A

T+ + k = ∑∑
i
Y
k ijk
Análisis de varianza de medidas repetidas 171

T++k: puntuación total de cada nivel de B

T+ + k = ∑∑
i
Y
j ijk

T: suma total de todas las puntuaciones

T = ∑∑
i j ∑ k ijk
Y

De cara a obtener los estadísticos de contraste que nos permiten


poner a prueba las hipótesis nulas (como sabemos, son las mismas que
en el modelo anterior), vamos a realizar la siguiente descomposición
de la varianza de todas las puntuaciones:

SCtotal = SCinter-suj + SCintra-suj

Recordemos que las diferencias entre todas puntuaciones se expli-


can, no sólo por las diferencias existentes entre los sujetos (son recogi-
das en la variabilidad inter-sujetos), sino también por las diferencias
que hay en los mismos de sujetos (lo que se recoge en la variabilidad
intra-sujetos).
Además, la variabilidad intersujetos se debe a las diferencias pro-
ducidas por el efecto de los tratamientos del factor A (SCA) y por el
efecto las diferencias entre los sujetos (SCS), lo que se puede expresar
de la siguiente manera:

SCinter-suj = SCA + SCS

Por otro lado, la variabilidad intrasujetos recoge la variabilidad


correspondiente al efecto del factor B (SCB), de la interacción AB
(SCAB) y de la interacción SB (SCSB), como se muestra a continuación:

SCintra-suj = SCB + SCAB + SCSB

En definitiva tenemos que la suma cuadrática total se puede des-


componer en los siguientes elementos:

SCtotal = SCinter-suj + SCintra-suj =

= (SCA + SCS) + ( SCB + SCAB + SCSB)

Cuyos grados de libertad son:

gltotal = N – 1
172 Análisis de varianza

glinter-suj = nJ – 1

glA = J – 1

glS = J(n – 1)

glintra-suj = nJ(K – 1)

glB = K – 1

glAB = (J – 1)(K – 1)

glSB = J(K – 1)(n – 1)

Si dividimos las sumas cuadráticas por sus correspondientes gra-


dos de libertad, obtenemos las medias cuadráticas que ya conocemos.
Las presentamos a continuación junto con sus esperanzas matemáti-
cas37:

MCA = SCA / glA E(MCA) = σ 2 + Kσ 2S + nKσ 2α

MCS = SCS / glS E(MCS) = σ 2 + Kσ 2S

MCB = SCB / glB E(MCB) = σ 2 + σ 2Sβ + nJσ 2β

MCAB = SCAB / glAB E(MCAB) = σ 2 + σ 2Sβ + nσ 2αβ

MCSB = SCSB / glSB E(MCSB) = σ 2 + σ 2Sβ

A partir de los valores esperados anteriores, si queremos aislar de-


bidamente los efectos y poner a prueba las hipótesis nulas correspon-
dientes, las razones F que nos permiten hacerlo son las que aparecen
en la siguiente tabla resumen de este diseño:

37 Se puede consultar Winer (1971) y Kirk (1982) para ver cómo se obtienen las

esperanzas matemáticas.
Análisis de varianza de medidas repetidas 173

FV SC gl MC F
MC A
A SCA J–1 SCA / glA FA =
MC S
S SCS J(n – 1) SCS / glS
MC B
B SCB K–1 SCB / glB FB =
MCSB
MC AB
AB SCAB (J – 1)(K – 1) SCAB / glAB FAB =
MC SB
SB SCSB J(K – 1)(n – 1) SCSB / glSB
Total SCtotal N–1

Las distribuciones muestrales de los estadísticos de contraste son:


FA sigue una distribución F1 – α; J – 1, J(n – 1)
FB sigue una distribución F1 – α; K – 1, J(K – 1)(n – 1)
FAB sigue una distribución F1 – α; (J – 1)(K – 1), J(K – 1)(n – 1)
Las fórmulas que nos facilitan los cálculos de las sumas cuadráti-
cas son las siguientes:

T2
SCtotal = ∑∑
i j ∑k ijk
Y2 −
N

SCint er −suj =
∑∑ T i j
2
ij +

T2
K N

SC A =
∑T j
2
+ j+

T2
nK N

SC S =
∑∑ T i j
2
ij +

∑T j
2
+ j+

K nk

SCint ra = ∑∑
∑∑ T 2

j ∑k ijk
ij +
Y2 −
i j
i
K

SC B =
∑T k
2
++ k

T2
nJ N
174 Análisis de varianza

SC AB =
∑∑T j k
2
+ jk

∑Tj
2
+ j+

∑T k
2
++ k
+
T2
n nk nJ N

SC SB = ∑∑
∑∑ T 2
∑∑T 2
∑T 2

j ∑k ijk
ij + + jk + j+
Y2 − − +
i j j k j
i
K n nk

Vamos a realizar un ejercicio donde expondremos el resumen del


procedimiento.

Ejemplo 5.5. Recordemos el ejemplo anterior en el que deseábamos comprobar si la


ansiedad (Factor A) y la motivación (Factor B) inciden en el rendimiento. Suponga-
mos que hemos obtenido los mismos resultados pero habiendo utilizado 5 sujetos
distintos en cada condición del factor A, lo que implica un total de 10 sujetos en
nuestro experimento. Recordemos también que el factor A tiene dos niveles: pre-
sentación de estímulos ansiógenos (CA) y ambiente sin estímulos ansiógenos (SA)
y el factor B tiene tres: motivación alta (A), media (M) y baja (B). Veamos cómo se
organizarían ahora los datos:

suj. A M B Tij+ T+j+


1 7 4 1 12
2 2 3 1 6
CA 3 4 5 2 11 59
4 4 6 5 15
5 6 6 3 15
6 10 9 2 21
7 7 5 4 16
SA 8 5 6 1 12 97
9 9 10 5 24
10 10 8 6 24
T++k 64 62 30 156

T+jk 23 24 12
41 38 18

1. Planteamiento de las hipótesis nulas:


H0(A) : µ+1+ = µ+2+
Es decir, las 2 medias poblacionales correspondientes a los niveles del fac-
tor A no difieren significativamente, o bien, no existe un efecto significativo
de la ansiedad sobre el rendimiento.
H0(B) : µ++1 = µ++2 = µ++3
Es decir, las 3 medias poblacionales correspondientes a los niveles del fac-
tor B no difieren significativamente, o bien, no existe un efecto significativo
de la motivación sobre el rendimiento.
Análisis de varianza de medidas repetidas 175

H0(AB) : µ+jk - µ+j’k = µ+j+ - µ+j’+, para todo valor de j, j’ y k (j ≠ j’)


Es decir, la diferencia entre las medias de dos casillas cualesquiera de la
misma fila no difiere significativamente de la diferencia entre las medias
marginales correspondientes a esas casillas, o bien, no existe un efecto sig-
nificativo conjunto de la ansiedad y motivación sobre el rendimiento.
2. Supuestos:
1. Normalidad de las observaciones (o de los errores).
2. Homogeneidad de varianzas de las subpoblaciones.
3. si es una v.a. normal e independiente de los αj. Por tanto: (sα)ij = 0.
3. Estadísticos de contraste:
Comenzaremos realizando los calculos necesarios para obtener las sumas
cuadráticas y presentaremos la tabla de ANVAR.

156 2
SCtotal = 1026 − = 1026 − 811,2 = 214,8
30

12 2 + 6 2 + ... + 24 2 + 24 2
SCint er −suj = − 811,2 = 914,67 − 811,2 = 103,47
3

59 2 + 97 2
SC A = − 811,2 = 859,34 − 811,2 = 48,14
5⋅3

SC S = 914,67 − 859,34 = 55,33

SCint ra = 1026 − 914,67 = 111,33

64 2 + 62 2 + 30 2
SC B = − 811,2 = 884 − 811,2 = 72,8
5⋅ 2

232 + 412 + ... + 12 2 + 18 2


SC AB = − 859,34 − 884 − 811,2 = 7,46
5

SC SB = 1026 − 914,67 − 939,6 − 859,34 = 31,07

Tabla de ANVAR:

FV SC gl MC F
A 48,14 1 48,14 48,14 / 6,92 = 6,96
S 55,33 8 6,92
B 72,8 2 36,4 36,4 / 1,94 = 18,76
AB 7,46 2 3,73 3,73 / 1,94 = 1,92
SB 31,07 16 1,94
Total 214,8 29
176 Análisis de varianza

4. Distribuciones muestrales de los estadísticos de contraste:


FA sigue una distribución F1, 8
FB sigue una distribución F2, 16
FAB sigue una distribución F2, 16
5. Nivel de significación y puntos críticos:
α = 0,05
valores críticos:

F0,95;1,8 = 5,32

F0,95; 2,16 = 3,63

F0,95; 2,16 = 3,63

6. Decisiones:

Rechazo de H0(A) porque FA > F0,95;1,8

Rechazo de H0(B) porque FB > F0,95; 2 ,16

No rechazo de H0(AB) porque FAB < F0,95; 2 ,16

7. Podemos concluir que, para las condiciones estudiadas, tanto la ansiedad


(Factor A) como la motivación (Factor B) afectan al rendimiento de los suje-
tos. Sin embargo, no hemos encontrado un efecto significativo de la actua-
ción conjunta de estas variables sobre el rendimiento. Al no resultar signifi-
cativa la interacción, podemos buscar las diferencias en el Factor B recu-
rriendo a las pruebas de comparaciones múltiples que ya conocemos (sólo
hay que tener en cuenta que los grados de libertad de la media cuadrática
de error son diferentes). El Factor A sólo tiene dos niveles, por tanto, pode-
mos decir que el rendimiento es mayor cuando los sujetos realizan la tarea
sin estímulos ansiógenos.

5.4. Comprobación del supuesto de aditividad


El ANVAR de medidas repetidas, como cualquier otro diseño de análi-
sis de varianza, se fundamenta en una serie de supuestos expresados
por Fisher en 1940, pero que no fueron demostrados hasta 1950. En
consecuencia, muchos estudios anteriores a los años 50 pudieron
llegar a conclusiones falsas acerca de la influencia de los factores
sobre la variable dependiente. Como señala Girden (1992), este hecho
no deja de ser sorprendente porque ya entonces se conocían los efectos
perniciosos de la fatiga y aprendizaje de los sujetos y esto dio lugar a
la implantación del procedimiento de contrabalanceo, al que aludía-
mos en la introducción al tema, para minimizarlos.
Análisis de varianza de medidas repetidas 177

Ya hemos comentado algunos de los supuestos de este tipo de dise-


ños, tales como subpoblaciones de partida normales, con varianzas
homogéneas y puntuaciones, entre sujetos, independientes. Todas estas
condiciones nos resultan familiares. Además, hemos añadido un su-
puesto que hace referencia a la aditividad del factor sujeto, es decir, a
la no interacción entre sujetos y tratamientos. De no cumplirse este
supuesto, debemos elegir el modelo no aditivo. El inconveniente del
modelo no aditivo es que, en general, pierde potencia de cara a recha-
zar una H0 falsa (compare el lector, en ambos modelos, los valores
esperados de las medias cuadráticas utilizadas en los denominadores
de las razones F).
El conocimiento sobre la materia en cuestión y la experimentación
anterior acerca de la relación funcional de las fuentes de variación
subyacentes, constituyen las mejores guías para decidirse entre los
modelos aditivo y no aditivo (Winer, 1971). No obstante, para comple-
mentar esas fuentes de información, el experimentador puede realizar
un primer examen en los datos, a fin de elegir correctamente un mode-
lo u otro. Siguiendo a Kirk (1982) vamos a presentar la prueba de no
aditividad de Tukey, muy útil con medidas repetidas, aplicándola a
los datos del ejemplo 5.1. (Si bien hemos comentado que en el diseño de
un factor llegamos a los mismos resultados, por razones de sencillez,
la vamos a utilizar con este ejemplo).

Ejemplo 5.6. La prueba de Tukey consiste en dividir la SCintra en dos componentes:


uno debido a la interacción entre sujetos y tratamientos y otro que proporciona un
término residual que nos sirve para contrastar la aditividad. Bajo la H0 de no inter-
acción, deberemos realizar una serie de cálculos que nos permitan obtener el esta-
dístico de contraste.
En la siguiente tabla presentamos los datos del ejemplo, a la que añadimos dos
columnas y dos filas correspondientes a las siguientes diferencias (y a sus valores
cuadráticos):

d i + = Yi + − Y

d + j = Y+ j − Y
178 Análisis de varianza

tipo de examen

sujetos 1 2 3 Yi+ d i+ d i2+

1 0 3 8 3,6 -1,1 1,21


2 3 5 6 4,6 -0,1 0,01
3 3 6 3 4 -0,7 0,49
4 2 3 4 3 -1,87 2,89
5 1 2 8 3,6 -1,1 1,21
6 4 2 9 5 0,3 0,09
7 4 6 5 5 0,3 0,09
8 6 7 9 7,3 2,6 6,76
9 2 3 7 4 -0,7 0,49
10 5 8 7 6,6 1,9 3,61

Y+j 3 4,5 6,6 4,7 16,85


d+ j -1,7 -0,2 1,9

d +2 j 2,89 0,04 3,61 6,54

Además debemos obtener los valores d ij = d i + ⋅ d + j , con los que construimos la


siguiente tabla:

1 2 3
1 1,87 0,22 -2,09
2 0,17 0,02 -0,19
3 1,19 0,14 -1,33
4 3,17 0,37 -3,55
5 1,87 0,22 -2,09
6 -0,51 -0,06 0,57
7 -0,05 -0,06 0,53
8 -4,42 -0,52 4,94
9 1,19 0,14 -1,33
19 -3,23 -0,38 3,61

A partir de estos datos podemos calcular las siguientes sumas cuadráticas:

(∑∑ d ⋅ Y ) = (1,87 ⋅ 4 + ... + 3,61 ⋅ 8)


2
2

(∑ d )(∑ d )
ij ij
= = 0,27
i j
SC no aditividad
i
2
i+ 16,85 ⋅ 6,54
j
2
+j

SCres = SCint ra − SCno aditividad = 59,9 − 0,27 = 59,63

Cuyos grados de libertad son, respectivamente:

glno aditividad = 1
Análisis de varianza de medidas repetidas 179

glres = glint ra − glno aditividad = 18 − 1 = 17

La razón F que nos permite poner a prueba la H0 de aditividad se obtiene me-


diante:

SCno aditividad / glno aditividad 0,27 / 1


F= = = 0,78
SCres / glres 59,63 / 17

Para un α = 0,05, F0 , 05;1,17 = 4,45 . De este modo, no podemos rechazar la H0 y


mantenemos el modelo aditivo.

Relacionado con lo anterior está el hecho de que si bien las puntua-


ciones dentro de cada nivel son independientes, para cada sujeto, las
observaciones están correlacionadas. Para la correcta aplicación de
la prueba F, el diseño de medidas repetidas exige que la correlación
entre cada par de puntuaciones de un mismo sujeto sea la misma. De
otro modo, la prueba se vuelve muy liberal.
En 1954, Box (Girden, 1992) establecía que podríamos escribir en
una matriz (llamada matriz de varianzas-covarianzas) todas las
varianzas de los tratamientos y las covarianzas entre cada par de
tratamientos38:

A1 A2 ... Aj ... AJ
A1 S 1
2
S12 ... S1 j ... S1J
A2 S12 S 2
2
... S2 j ... S2J
... ... ... ... ... ... ...
Aj S1 j S2 j ... S 2j ... S jJ
... ... ... ... ... ... ...
AJ S1J S2J ... S jJ ... S J2

38 Recordemos que la covarianza es una medida del promedio de la variación

conjunta de pares de puntuaciones alrededor de sus respectivas medias:

S XY =
∑ ( X − X )(Y − Y )
N −1

Recordemos también que la covarianza de un único conjunto de puntuaciones es


igual a su varianza:

S XX =
∑ ( X − X )( X − X ) = S 2

N −1
X
180 Análisis de varianza

y comprobar si las varianzas de la diagonal son iguales y también las


covarianzas. De ser así, se dice que la matriz tiene simetría compues-
ta.
Sin embargo, aunque el componente de simetría es suficiente para
que el estadístico de contraste se ajuste a una distribución F, no es un
supuesto necesario. En 1970 Huynh y Feldt, por un lado, y Rouanet y
Lépine, por otro (Girden, 1992), establecieron que, para llevar a cabo
un ANVAR de medidas repetidas, la matriz de varianzas-covarianzas
ha de tener la propiedad de esfericidad (así la llamaron los dos pri-
meros investigadores) o circularidad (como la llamaron los segundos).
Esta propiedad implica que en la matriz de varianzas-covarianzas,
aunque no tenga componente de simetría, las varianzas de todas las
diferencias entre pares de puntuaciones sean iguales39.
Para realizar la comprobación, podemos calcular las diferencias
entre todos los pares de puntuaciones entre niveles, con lo que tendre-
mos un total de J(J – 1) grupos de diferencias. A continuación, calcu-
lamos las varianzas de esos grupos y deberán ser homogéneas. De
cumplirse el supuesto, la razón F = MCA / MCintra se podrá comparar
con el valor tabular sin mayor problema. En caso contrario, la prueba
se torna muy liberal y se incrementará la probabilidad de cometer el
error tipo I.
Bajo esta última circunstancia, las soluciones son dos:
a) Introducir un término correctivo en los grados de libertad de
manera que la prueba se vuelva más conservadora, o bien
b) realizar un análisis multivariado de la varianza, que no exige el
cumplimiento de este supuesto, y que puede ser tan potente como el
análisis univariado cuando el número de observaciones excede el
número de medias repetidas en más de 20 (Everitt, 1996).
Cabe decir, sin embargo, que las pruebas de esfericidad disponibles
presentan problemas de potencia y son inadecuadas bajo condiciones
de normalidad (Wilcox, 1996). No obstante, con el fin de saber si debe-
mos realizar las correcciones oportunas, podemos hacer el siguiente
examen previo, sugerido por Greenhouse y Geisser, con los resultados
del análisis de varianza:
1. Comparamos la razón F obtenida con el valor tabular correspon-
diente a J – 1, (J – 1)(n – 1) grados de libertad. Dado que este valor es

39 Las matrices que tienen componente de simetría también tienen la propiedad

de esfericidad. En realidad, el componente de simetría es más restrictivo (dado que


requiere la igualdad de varianzas y de covarianzas) que la la esfericidad (que sólo
requiere la igualdad de varianzas de las diferencias).
Análisis de varianza de medidas repetidas 181

el más liberal que podemos buscar, si no rechazamos la hipótesis nula,


nos detenemos aquí y escribimos las conclusiones pertinentes.
2. Si la razón F supera este valor liberal, buscamos en la tabla el
punto correspondiente a 1, (n – 1) grados de libertad, que es el más
conservador. Si la F obtenida es mayor que este valor, es significativa,
nos detenemos aquí y concluimos.
3. Si la razón F es mayor que el valor tabular correspondiente a J –
1, (J - 1)(n – 1) grados de libertad, pero menor que el valor tabular
para 1, (n – 1) grados de libertad, entonces realizaremos la corrección
o el análisis mediante una aproximación multivariada.
Dado que se escapa de nuestros propósitos, no vamos a entrar a es-
pecificar cómo se realiza la corrección o el análisis multivariado, pero
el lector interesado puede consultar Camacho (1995) donde se explican
detalladamente ambos métodos junto con ejemplos de salidas del
programa SPSS/PC+. Nosotros nos vamos a limitar a ver en los resul-
tados del ejemplo que realizamos anteriormente cómo haríamos esta
inspección.

Ejemplo 5.7. Recordemos que pretendíamos averiguar si la memoria afecta al rendi-


miento y utilizábamos los mismos 10 sujetos en las tres condiciones. La tabla de
ANVAR a la que llegábamos era la siguiente:

FV SC gl MC F
Intergrupos 65,4 2 65,4 / 2 = 32,7
32,7
Intersujetos 51 9 F= = 9,83
Intragrupos 59,9 18 59,9 / 18 = 3,3 3,3

Total 176,3 29

1. Comparamos la razón F obtenida con el valor tabular correspondiente a J - 1,


(J – 1)(n – 1) grados de libertad. Es decir, 9,83 con 3,55. Dado que este último valor
es el más liberal y nos lleva a rechazar la hipótesis nula, debemos continuar con es-
te examen preliminar.
2. Comparamos la razón F con el valor de la tabla correspondiente a 1, (n – 1)
grados de libertad, que es el más conservador. Es decir, 9,83 con 5,18. Puesto que
la F obtenida es mayor que este último valor, es significativa, nos detenemos aquí y
podemos concluir que la memoria afecta al rendimiento.
182 Análisis de varianza

5.5. Diseños de medidas repetidas vs. completa-


mente aleatorizados
A lo largo de las páginas precedentes, hemos aprendido a realizar un
análisis de varianza de medidas repetidas, tanto para un factor como
para dos factores. Así mismo, conocemos la técnica de ANVAR para
diseños completamente aleatorizados, también para uno y dos facto-
res. Lógicamente, ahora cabe preguntarse por qué tipo de diseño de-
cantarse en una investigación. Aunque ya en la introducción hemos
esbozado algunas diferencias entre ambos diseños, la respuesta no
resulta sencilla.
Desde un punto de vista estadístico, hemos tenido ocasión de ver las
características de ambos tipos de diseño. En principio, podemos tener
la impresión de que la técnica de medidas repetidas puede ser más
potente de cara a rechazar una hipótesis nula, ya que eliminamos del
error experimental aquella parte que se debe a las diferencias indivi-
duales, con lo que las razones F resultan en mayor cuantía.
Sin embargo, no debemos olvidar que las condiciones que rigen el
análisis de datos de medidas repetidas son muy restrictivas, sobre todo
en lo que a la indepencia/dependencia de puntuaciones se refiere, y su
incumplimiento nos puede llevar a un considerable aumento del error
tipo I. Además, ni las pruebas disponibles para su verificación son
concluyentes, ni tampoco resulta fácil elegir la técnica adecuada para
el manejo de los datos cuando no se satisfacen.
Por otro lado, en los diseños de medidas repetidas tenemos la venta-
ja de necesitar menos unidades experimentales que en los diseños
completamente aleatorizados para estimar el efecto de los tratamien-
tos. Sin embargo, se pueden introducir otros efectos contextuales, como
el aprendizaje o el cansancio de los sujetos, que ni siquiera un proce-
dimiento de contrabalanceo puede resultar satisfactorio para contro-
larlos (Keren, 1993).
Si algo parece claro es que los resultados obtenidos con un diseño y
otro no son equiparables y los inconvenientes de uno son ventajas en el
otro. Por desgracia, “no exite un algoritmo que proporcione al investi-
gador una respuesta definitiva” (Keren, 1993; pág. 271). No obstante,
hay que darse cuenta de que ambas técnicas de análisis estadístico
bien pueden dirigirse hacia cuestiones distintas y, como venimos di-
ciendo a lo largo del texto, la elección de una técnica particular debe
atender a varios aspectos (no sólo técnicos), siendo el más importante
de todos ellos, el marco teórico de referencia de la investigación y las
hipótesis que uno desea contrastar, aspectos estos, no siempre tenidos
en cuenta por los investigadores.
Análisis de varianza de medidas repetidas 183

En definitiva, la pregunta crucial no es qué técnica de análisis de


datos utilizar, si una completamente aleatorizada u otra de medidas
repetidas, sino qué información se precisa de las variables, que son las
que dirigen las hipótesis del estudio de investigación, y a partir de ahí,
y teniendo como marco de referencia la teoría subyacente al trabajo,
planificar el diseño (Allison y cols., 1992).
6. Análisis de varianza de efectos
aleatorios

6.1. Introducción
Hasta el momento, tanto en los diseños completamente aleatorizados
como de medidas repetidas, hemos trabajado con ejemplos donde los
niveles de las variables estudiadas conforman todos los posibles o son
aquellos sobre los que nos interesa realizar las inferencias estadísti-
cas. Así, en el ejemplo del rendimiento de las ratas en el laberinto
(visto en el tema sobre ANVAR de dos factores completamente aleatori-
zado), el estilo de vida de las mismas (factor A) estaba compuesto de
los dos únicos posibles niveles: libertad y cautiverio. Y la raza (factor
B) estaba constituida por tres niveles, blancas, marrones y negras, que
eran aquellos que nos interesaban (ciertamente, puede haber otras
razas, pero nuestra atención estaba centrada en éstas).
Otro ejemplo bien distinto sería el siguiente. Imaginemos que que-
remos estudiar el efecto de la psicoterapia sobre los síntomas depresi-
vos. En este caso, como lo que nos interesa evaluar es la efectividad en
general de la psicoterapia, en nuestra selección de niveles no nos va a
importar tanto que entren tal o cual terapia psicológica, sino que la
selección de todas las posibles sea aleatoria. Cuando más tarde reali-
cemos la inferencia estadística, ésta se hará sobre todos los tipos de
186 Análisis de varianza

psicoterapia existentes, es decir, sobre la efectividad o no de la psico-


terapia en general sobre los síntomas depresivos.
La primera situación, como ya sabemos de la clasificación que
hicimos en el segundo tema, responde al nombre de diseño de efectos
fijos, frente a la segunda situación, más propia de los diseños de efec-
tos aleatorios, que son aquellos de los que vamos a tratar, de forma
introductoria, en este tema.
La diferencia entre fijo y aleatorio, como podemos ver, hace refe-
rencia al tipo de factor que vamos a estudiar, por tanto, podemos
distinguir entre:
1. Factor fijo: aquél cuyos niveles son seleccionados de forma no
aleatoria o constituyen la población entera de posibles niveles.
2. Factor aleatorio: aquél cuyos niveles constituyen una muestra
aleatoria de la población de todos los posibles niveles.
En los diseños de un factor, lógicamente, sólo podemos hablar de
modelos de efectos fijos o de modelos de efectos aleatorios. En cambio,
en los diseños factoriales caben más posibilidades y, así, podemos
distinguir entre modelos de efectos fijos (llamado también modelo I),
cuando todos los factores son fijos; modelos de efectos aleatorios (mo-
delo II), cuando todos son aleatorios y modelos mixtos (modelo III),
cuando unos factores son fijos y otros aleatorios.
Veamos algunas diferencias más entre ambos tipos de modelos.
La ecuación estructural que establecíamos en el modelo de un fac-
tor de efectos fijos era la siguiente:

Yij = µ + αj + εij

donde Yij y εij eran variables aleatorias y αj una constante que refleja
el efecto propio del nivel Aj sobre las puntuaciones de ese nivel.
La ecuación estructural que vamos a establecer bajo el modelo de
efectos aleatorios es la siguiente:

Yij = µ + aj + εij

donde Yij y εij siguen siendo dos variables aleatorias, pero también lo es
aj. Veamos por qué. Bajo el modelo de efectos fijos, el nivel Aj es aquél
sobre el que queremos inferir conclusiones, es un nivel constante y por
tanto su efecto, αj, también lo es. Por el contrario, en el modelo de
efectos aleatorios, el nivel Aj constituye un nivel seleccionado de todos
los posibles. Por eso, se trata de una variable aleatoria cuyo efecto, aj,
Análisis de varianza de efectos aleatorios 187

también lo es (de ahí que se utilice normalmente diferente nomencla-


tura para ambos tipos de efectos).
Dado que ahora en el modelo la variable aleatoria, Yij, está com-
puesta por la suma de otras dos variables aleatorias, αj y εij (más el
término constante, µ), su varianza viene dada por:

σ y2 = σ a2 + σ ε2

donde σ a2 y σ ε2 son dos componentes de σ y2 . Por esta razón, el modelo de


efectos aleatorios se conoce también como modelo de componentes de
la varianza (Riba, 1987).
Si en el modelo de efectos fijos queremos probar la efectividad de
una variable independiente mediante tres niveles concretos, por ejem-
plo, la hipótesis nula que ponemos a prueba es una cualquiera de las
siguientes:

H0 : α1 = α2 = α3

H0 : µ1 = µ2 = µ3

Ahora, en este nuevo contexto, ya no queremos probar unos efectos


concretos, no estamos interesados en si a1 difiere de a2. Nuestro interés
va más allá de los niveles tratados, queremos saber si difieren todos
los posibles niveles del factor, si hay una efectividad general de la
variable independiente que estamos estudiando. Para probar esta
efectividad, no planteamos una hipótesis nula acerca de unas medias
concretas, o unos efectos concretos, sino acerca de la varianza de las
medias o de los efectos. Es decir:

H0 : σ a2 = 0

Si todas las posibles medias son iguales o todos los posibles niveles son
igualmente efectivos, no existe variabilidad entre ellos y, lógicamente,
la varianza será igual a cero. En este caso, no podremos pensar otra
cosa que la variable independiente no tiene un efecto sobre la variable
dependiente. Por el contrario, el rechazo de la hipótesis nula signifi-
caría que todos los tratamientos en general difieren, existe una varia-
ción entre las medias, de lo que es reflejo una varianza entre ellas
distinta de cero.
El hecho de hablar en términos de un efecto en general, nos puede
hacer pensar que el tipo de inferencia que se puede hacer a partir de
estos modelos es más interesante porque, al ir más allá de unas medias
188 Análisis de varianza

concretas, presenta la ventaja de una generalización de resultados,


algo que no se puede hacer con el modelo de efectos fijos. Sin embargo,
aunque en teoría esto es así, sólo puede garantizarse esta generaliza-
ción cuando efectivamente los niveles han sido seleccionados aleato-
riamente de la población de todos los posibles y, como dice Everitt
(1996), es bastante improbable que esta situación tenga lugar en el
contexto de la investigación psicológica, por lo que los diseños de
efectos fijos, son los más utilizados.
No obstante, el que estos últimos diseños sean los más frecuentes no
debe hacernos pensar que es mejor tratar un factor como fijo cuando
en realidad es aleatorio. Si hacemos esto cometeríramos un error
cuyas secuelas pueden ser desastrosas, ya que se pierde el control del
error tipo I, volviéndose la prueba muy liberal. Si no obtenemos resul-
tados significativos en un contraste de significación, nada podemos
concluir y el juicio se reserva por falta de una base suficiente, pero
imaginemos las consecuencias que se pueden derivar de un rechazo
indadecuado de la hipótesis nula (Más adelante veremos un ejemplo
donde compararemos los resultados que se obtienen con los mismos
datos utilizando uno u otro diseño).
Por último, démonos cuenta de que en estos modelos no tiene senti-
do establecer hipótesis concretas, como lo hacíamos con los modelos de
efectos fijos, para los que dedicamos un tema sobre comparaciones
múltiples. Dado que ahora elegimos aleatoriamente los niveles del
factor, pudiendo trabajar con unos u otros, ¿qué información nos
proporcionan unas comparaciones concretas entre los grupos elegi-
dos? (Obviamente, en el modelo mixto, sí podemos realizar estos con-
trastes con el factor de efectos fijos).
Vamos a ver, muy brevemente, los modelos de uno y dos factores.

6.2. Modelo de un factor de efectos aleatorios


Cabe decir que este modelo no difiere del modelo de efectos fijos, salvo,
claro está, en los aspectos que comentamos anteriormente. Vamos a
verlo en las medias cuadráticas.
Para el modelo de efectos fijos las esperanzas matemáticas de la
MCinter y de la MCintra vienen dadas por:

N ∑ j α 2j
E ( MC int er ) = + σ 2 = N ⋅ σ α2 + σ 2
J −1

E ( MC int ra ) = σ 2
Análisis de varianza de efectos aleatorios 189

En el modelo de un factor de efectos aleatorios, las esperanzas ma-


temáticas de las medias cuadráticas40 son iguales a:

Jp − J
E ( MC int er ) = N ⋅ ⋅ σ a2 + σ 2
Jp

E ( MC int ra ) = σ 2

Bajo esta nueva situación, normalmente compararemos unos cuan-


tos niveles (J) de toda la población de posibles niveles (Jp), por lo que
el cociente que diferencia a la media cuadrática intergrupo de ambos
modelos será prácticamente igual a uno y las dos MCintra serán iguales.
Así, bajo la H0, la MCinter y la MCintra son dos estimaciones indepen-
dientes de la varianza y podemos utilizar la razón F:

MC int er
F=
MC int ra

para ponerla a prueba.


Los resultados que obtengamos en las razones F con ambos modelos
serán iguales. Lo único que cambia es el supuesto referente a la natu-
raleza de los efectos de los tratamientos (recordemos que aquí se con-
sideran variables aleatorias), por lo que las conclusiones que apunte-
mos serán más generales: podremos extrapolar a toda la población de
niveles del factor, más allá de los estudiados, los resultados muestra-
les obtenidos.
Además de diferir en las conclusiones, también es distinta la forma
de estimar el tamaño del efecto, que como sabemos, conviene que
acompañe al resultado de la significación de la prueba. Recordemos
que en el modelo de efectos fijos, la fórmula que propone Hays es:

SC int er − gl int er ⋅ MC int ra


ω2 =
MC int ra + SC total

Ahora, la obtención del tamaño del efecto se realiza mediante el


cálculo del coeficiente de correlación intraclase:

40 Consultar Kirk (1982) para ver cómo se derivan.


190 Análisis de varianza

MC int er − MC int ra
ρ=
MC int er + (n − 1) ⋅ MC int ra

Aunque su interpretación no difiere de ω2 como una estimación de


la fuerza de asociación entre la variable independiente y dependiente,
es más apropiada su utilización en los modelos aleatorios (Keren,
1982). Recordemos también que podemos obtener un resultado signifi-
cativo mediante la prueba F únicamente por trabajar con tamaños
muestrales grandes, pero este estadístico no nos dice si el efecto de la
variable independiente sobre la dependiente tiene alguna importancia
práctica. Por eso debemos acompañar los resultados de la prueba de
significación de alguna medida que nos informe del tamaño del efecto
encontrado.
Por otro lado, también es importante saber con qué potencia llega-
mos a nuestras conclusiones. En el modelo de efectos aleatorios pode-
mos obtener una estimación de esta medida a partir de:

Fα ;( J −1),( N − J )
F=
 ρ 
1 + n  
 1− ρ 

Como el valor obtenido mediante la expresión anterior normalmen-


te será menor que uno, calculamos 1/F y determinamos su nivel de
significación para (N – J) y (J – 1) grados de libertad. El nivel de
significación resultante se denomina β y estimamos la potencia me-
diante 1 - β (Kirk, 1982).
Veamos el ejemplo con el que trabajamos en el ANVAR de un factor
de efectos fijos y vamos a ver qué ocurriría si fuese de efectos aleato-
rios.

Ejemplo 6.1. Recordemos que pretendíamos averiguar si el rendimiento motor se veía


afectado por el tiempo de práctica previo a la realización de la tarea. Utilizábamos
los niveles: 0, 5 y 10 minutos de práctica. Supongamos que estos niveles hubiesen
resultado de una selección aleatoria de todos los posibles minutos de práctica. Es-
taríamos bajo un modelo de efectos aleatorios, cuyas hipótesis serían:

H0 : σ a2 = 0 (todas las medias poblacionales son iguales: el tiempo de práctica


no afecta al rendimiento motor)

H1 : σ 2
a ≠ 0 (no todas las medias poblacionales son iguales: el tiempo de prác-
tica afecta al rendimiento motor)
La obtención del estadístico de contraste sería la misma, llegando también a la
misma razón F, es decir, 4,39. Con un nivel de significación α = 0,05, el punto críti-
Análisis de varianza de efectos aleatorios 191

co sería F0,95; 2, 12 = 3,89. Por tanto, la decisión con respecto a la hipótesis nula sería
su rechazo. A diferencia del modelo de efectos fijos, las conclusiones a las que se
llega no versan sólo sobre los tres niveles estudiados, sino que se generalizan al
conjunto de posibles valores de tiempo de práctica. Podríamos decir, por tanto, que
en general el tiempo de práctica tiene una influencia sobre el rendimiento de los su-
jetos.
Sin embargo, si bien antes realizábamos comparaciones entre medias, utilizan-
do la prueba de Tukey o la de Scheffé, para averiguar entre qué niveles se encon-
traban las diferencias, ahora no tienen sentido ya que la generalización va más allá
de los tres niveles estudiados.
Por otro lado, tras la aplicación de omega cuadrado en el ANVAR de efectos fi-
jos llegábamos al siguiente resultado:

25,2 − 2 ⋅ 2,86
ω2 = = 0,3118
2,86 + 59,6
lo que significaba que el 31,18% de la variabilidad de la destreza motora se debía al
efecto de los tres niveles de tiempo de práctica estudiados.
Aplicando el índice apropiado para el modelos de efectos aleatorios, obtendría-
mos el siguiente resultado:

12,6 − 2,86
ρ= = 0,185
12,6 + 4 ⋅ 2,86
es decir, el 18,5% de la variabilidad de la destreza motora se debe al efecto del
tiempo de práctica. No debe sorprendernos esta disminución en el resultado del
tamaño del efecto. Téngase en cuenta que en el modelo de efectos fijos el tamaño
del efecto es una medida promedio para los tres niveles considerados, mientras
que en el caso de efectos aleatorios, es una estimación para el conjunto de niveles
posibles y en nuestro ejemplo sólo hemos utilizado tres.
Por otro lado, la potencia que obteníamos en el modelo de efectos fijos era de
1 - β = 0,95. Vamos a calcularla bajo este nuevo contexto:

3,89
F= = 0,545
 0,185 
1 + 5  
 1 − 0,185 

1 1
= = 1,835 con p = 0,406
F 0,545

Por tanto, la potencia será: 1 − β = 0,60 .

Como ocurre con el tamaño del efecto, existe una disminución con respecto al mo-
delo de efectos fijos debido a que estamos utilizando pocos niveles en una prueba
cuyos resultados se van a generalizar a todos los posibles niveles de la población.
Aunque en el modelo de un factor de efectos aleatorios lleguemos a la misma
significación que en el modelo de efectos fijos, vemos la importancia de acompañar
192 Análisis de varianza

el resultado del ANVAR de una medida del tamaño del efecto, así como de la po-
tencia de la prueba.

Si, como hemos indicado, en los diseños de un factor los resultados


de la prueba F a los que llegamos aplicando uno u otro modelo son
iguales, esto no ocurre en los diseños factoriales. A continuación va-
mos a ver las implicaciones del modelo de efectos aleatorios en los
diseños de dos factores.

6.3. Modelo de dos factores de efectos aleatorios


Trabajando con dos factores, las situaciones que se nos pueden presen-
tar son tres:
1. Los dos factores (A y B) son de efectos fijos. Éste constituiría el
modelo I y sería el mismo que estudiamos en el tema de ANVAR
de dos factores de efectos fijos completamente aleatorizado. Por
ello, no cabe decir más sobre este modelo y remitimos al lector a
ese tema para recordar lo que estime oportuno.
2. Los dos factores (A y B) son de efectos aleatorios. Estamos bajo el
modelo II. Aquí los niveles de ambos factores se han escogido
aleatoriamente de toda la población de posibles niveles. Por lo
tanto, la generalización de resultados se hará en los dos facto-
res.
3. El factor A es de efectos fijos y el factor B de efectos aleatorios (o
viceversa). Estamos bajo el modelo III. La generalización de re-
sultados se realizará sólo para el factor B, mientras que las con-
clusiones a las que lleguemos con el factor A se referirán única-
mente a las medias poblacionales correspondientes a los niveles
estudiados (o viceversa).
Como hemos venido haciendo a lo largo del texto, debemos determi-
nar las razones F que nos permitan poner a prueba las hipótesis nulas
acerca de los efectos principales y de la interacción. Para ello, necesi-
tamos las sumas cuadráticas, grados de libertad, medias cuadráticas
y sus valores esperados. Puesto que las sumas cuadráticas y los grados
de libertad se obtienen del mismo modo que en el modelo de efectos
fijos, nos centraremos en lo que realmente necesitamos para la obten-
ción de las razones F.
Recordemos que en el modelo de dos factores de efectos fijos (Tema
4) comparábamos las medias cuadráticas de los efectos principales y
de la interacción con la media cuadrática de error. Estas razones nos
permitían aislar adecuadamente los efectos de interés y poner a prue-
ba sus hipótesis nulas. Cuando trabajamos con un modelo de dos
Análisis de varianza de efectos aleatorios 193

factores de efectos aleatorios la situación cambia, complicándose la


elección de los estadísticos de contraste adecuados para probar los
efectos principales y de interacción (de forma análoga a lo que ocurre
en el modelo de medidas repetidas).
En primer lugar, al trabajar con factores aleatorios cambian las
esperanzas matemáticas de las medias cuadráticas, que reflejan no
sólo la variación intragrupo, sino también la variación debida al
muestreo de niveles (no olvidemos que los niveles de los factores consti-
tuyen una muestra aleatoria de todos los posibles). De los diferentes
métodos para derivar estas medias cuadráticas esperadas, recomen-
damos por su sencillez el que proponen Jackson y Brashers (1994),
basado en el algoritmo de Cornfield-Tukey. Nosotros nos limitaremos a
presentar estas medias cuadráticas junto con sus valores esperados
para el modelo II:

MCA = SCA / glA E(MCA) = σ 2 + nσ 2ab + nKσ 2a

MCB = SCB / glB E(MCB) = σ 2 + nσ 2ab + nJσ 2b

MCAB = SCAB / glAB E(MCAB) = σ 2 + nσ 2ab

MCintra = SCintra / glintra E(MCintra) = σ 2

En segundo lugar, de acuerdo con los valores esperados de las me-


dias cuadráticas, para aislar adecuadamente el efecto de los factores
A y B debemos comparar sus medias cuadráticas con la de la interac-
ción, de manera que si no hay un efecto significativo de cualquiera de
los dos o de ambos, las razones F serán próximas a 1. Para la interac-
ción, lo propio será comparar su media cuadrática con la media cua-
drática intra o de error (recordemos que esto es similar a lo que
hacíamos en el modelo de medidas repetidas).
194 Análisis de varianza

En la siguiente tabla de ANVAR podemos encontrar las razones F


que necesitamos para poner a prueba las hipótesis nulas:

FV SC gl MC F
MC A
A SCA J–1 SCA / glA FA =
MC AB
MC B
B SCB K–1 SCB / glB FB =
MC AB
MC AB
AB SCAB (J – 1)(K – 1) SCAB / glAB FAB =
MC int ra
Intra SCintra N – JK SCintra / glintra
Total SCtotal N–1

Para el modelo III suponemos que el factor A es de efectos fijos y el


factor B de efectos aleatorios (téngase en cuenta que puede ser al
revés). En esta situación, aunque A sea un factor fijo, la inclusión del
factor aleatorio B hace que su media cuadrática cambie. En este dise-
ño, como se desprende de las medias cuadráticas expuestas más abajo,
para probar el efecto del factor A utilizaremos en el denominador de
la razón F la media cuadrática de la interacción, y no la media cua-
drática de error que utilizábamos cuando también el factor B era de
efectos fijos. Así pues, las medias cuadráticas junto con sus valores
esperados son:

MCA = SCA / glA E(MCA) = σ 2 + nσ 2ab + nKσ 2a

MCB = SCB / glB E(MCB) = σ 2 + nJσ 2b

MCAB = SCAB / glAB E(MCAB) = σ 2 + nσ 2ab

MCintra = SCintra / glintra E(MCintra) = σ 2


Análisis de varianza de efectos aleatorios 195

Y la correspondiente tabla de ANVAR:

FV SC gl MC F
MC A
A SCA J–1 SCA / glA FA =
MC AB
MC B
B SCB K–1 SCB / glB FB =
MC int ra
MC AB
AB SCAB (J – 1)(K – 1) SCAB / glAB FAB =
MC int ra
Intra SCintra N – JK SCintra / glintra
Total SCtotal N–1

Vamos a presentar los resultados de un ejemplo donde se lleva a


cabo un ANVAR de dos factores de efectos fijos. Posteriormente, consi-
deraremos que se trata de un modelo de efectos aleatorios con el fin de
ver qué sucede en las conclusiones a las que se llega en ambos casos.

Ejemplo 6.2. Supongamos que queremos evaluar el efecto del profesor (factor A) y de
la forma de enseñanza (factor B) sobre el rendimiento de unos estudiantes universi-
tarios. Para el factor A escogemos a los profesores Ruiz, Pérez y González que son
los que imparten dicha asignatura. Puesto que no hay otros profesores, este factor
es de efectos fijos. Con respecto a la forma de enseñanza, también hay tres niveles
para este factor (factor B): enseñanza tradicional en el aula (A), enseñanza informa-
tizada (B) y una mezcla de las dos (C). Como sólo están disponibles estos méto-
dos, también este factor es de efectos fijos. Tras la evaluación del rendimiento de
los alumnos, los resultados del ANVAR son los siguientes:

FV SC gl MC F punto crítico
A 1,87 2 0,93 0,93 / 1,7 = 0,55 F0,05; 2,27 = 3,35
B 16,95 2 8,47 8,47 / 1,7 = 4,98 F0,05; 2,27 = 3,35
AB 17,73 4 4,43 4,43 / 1,7 = 2,60 F0,05; 4,27 = 2,73
intra 46 27 1,7
total 81,55 35

Sólo el factor B es significativo, por lo que únicamente podemos concluir que los
métodos de enseñanza A, B y C producen un efecto significativo en el rendimiento
de los sujetos.
Ahora bien, ¿qué puede ocurrir si queremos evaluar la forma de enseñar en ge-
neral, así como el profesor que lo hace, sobre el rendimiento? Supongamos que
existen multitud de métodos para enseñar, nosotros hemos seleccionado aleato-
riamente tres y son los métodos A, B y C. También podrían haber sido selecciona-
dos los métodos D, J y P. ¿Nos conducirían estos métodos a los mismos resulta-
196 Análisis de varianza

dos, o no? Lo mismo podemos preguntarnos con respecto al profesor que imparte
la asignatura. Supongamos que para la misma asignatura existen muchos profeso-
res disponibles y en la selección aleatoria surgen Ruiz, Pérez y González. Para
ambos factores, donde queremos estudiar el efecto del método de enseñanza y del
profesor que imparte la asignatura sobre el rendimiento, que surjan en la selección
unos métodos u otros y unos profesores u otros nos da lo mismo, lo realmente im-
portante es que la selección sea aleatoria. Supongamos entonces que tras esta se-
lección se han extraído los métodos A, B y C y los profesores anteriormente nom-
brados. Nos encontramos, pues, ante un diseño de efectos aleatorios. Veamos los
resultados:

FV SC gl MC F punto crítico
A 1,87 2 0,93 0,93 / 4,43 = 0,21 F0,05; 2,4 = 6,94
B 16,95 2 8,47 8,47 / 4,43 = 1,91 F0,05; 2,4 = 6,94
AB 17,73 4 4,43 4,43 / 1,7 = 2,60 F0,05; 4,27 = 2,73
intra 46 27 1,7
total 81,55 35

El factor A sigue sin resultar significativo, por lo que no podemos concluir que el
rendimiento de los alumnos depende del profesor que imparte la asignatura. En
cambio, el factor B, que antes era significativo, ha dejado de serlo y por tanto, ahora
tampoco podemos concluir que el método de enseñanza influye sobre el rendimien-
to (ni siquiera para los tres métodos). ¿Qué ha pasado con este factor?
Si recordamos los valores esperados de la media cuadrática del factor en el
modelo de efectos fijos y en el modelo de efectos aleatorios, en este último esta-
mos considerando una posible interacción entre A y B, de manera que es mayor. La
media cuadrática intra no contiene esa interacción y si la utilizáramos para evaluar
el efecto del factor B, la razón F resultaría positivamente sesgada. Para evitar este
sesgo, utilizamos la media cuadrática de la interacción para probar el efecto de B,
de ahí que la razón F resulte más pequeña.
Además, para el mismo nivel de significación, los valores críticos también resul-
tan muy diferentes: F2,27 = 3,35 frente a F2,4 = 6,94. Si nos fijamos en los grados de
libertad utilizados, en el caso de efectos aleatorios se puede apreciar cómo la gene-
ralización se lleva a cabo a través de los métodos de enseñanza que, de todos los
posibles, sólo hemos escogido tres, mientras que en el caso de efectos fijos se rea-
liza a través del número de sujetos, cuya cuantía es mayor. Por eso es más restric-
tivo el valor crítico para el caso de efectos aleatorios.
Por otro lado, convendría disponer de una medida de la potencia de la prueba,
tal y como veíamos en el caso de efectos fijos. Sin embargo, en el caso de efectos
aleatorios, dado que la potencia para detectar un efecto depende tanto del tamaño
del mismo como de su variabilidad, su cálculo no sólo es muy complicado, sino
también incierto (Jackson y Brashers, 1994).
Como vemos, si queremos generalizar los resultados del efecto de un factor,
tenemos que considerarlo aleatorio y esto trae consigo una serie de implicaciones
que no debemos obviar. Dado que en nuestras conclusiones nos vamos a referir a
todos los posibles niveles del factor, es fundamental una selección aleatoria de ni-
Análisis de varianza de efectos aleatorios 197

veles, pero además, debemos trabajar con un número importante de los mismos
para que el análisis resulte sensible (ni que decir tiene que una prueba de generali-
dad resultará tanto mejor cuantos más niveles se abarque). De otro modo, pode-
mos no llegar conclusión alguna.

Este ejemplo nos sirve para ilustrar que, si bien en principio resulta
atractivo llevar a cabo un análisis de varianza con factores de efectos
aleatorios, puesto que nos permite una generalización de resultados,
tampoco es tarea fácil, ni se puede tomar a la ligera. Decidir si un
factor es de efectos fijos o aleatorios es la primera cuestión que debe-
mos plantearnos. En la introducción al tema ya vimos una diferencia-
ción entre ambos basada en la selección aleatoria o no de niveles, que
es la que encontraremos en la mayoría de los manuales.
Sin embargo, como señalan Jackson y Brashers (1994) hay situa-
ciones en las que no es posible la selección al azar de los niveles y
también podemos considerar al factor como aleatorio. Un caso sería
aquel en el que se eligen unos niveles concretos, siendo éstos arbitra-
rios o sustituibles y no tienen mayor trascencia que otros de cara a la
investigación. Por ejemplo, cuando estamos estudiando la influencia
de las horas de práctica sobre el rendimiento y nos da lo mismo esco-
ger unas que otras, entonces el factor se puede considerar aleatorio
aunque la selección no lo sea.
Otra forma de decidir si un factor es de efectos fijos o aleatorios es
teniendo en cuenta las conclusiones a las que podemos llegar con los
análisis. Si la inferencia para esos niveles concretos puede ser rele-
vante por los niveles en sí mismos, entonces el factor habrá de ser de
efectos fijos. Si las conclusiones no necesariamente se tienen que res-
tringir a esos niveles específicos entonces el factor se puede considerar
aleatorio, aunque no se haya llevado a cabo el muestreo de niveles
(Jackson y Brashers, 1994).
Lo que hay que tener presente es que la elección no es arbitraria y
de ella van a depender los resultados del análisis. Como ya se dijo
anteriormente considerar un factor aleatorio como fijo nos lleva a un
aumento de la probabilidad de cometer el error tipo I. Por otro lado,
con los factores de efectos fijos nuestras conclusiones no pueden ir más
allá de los niveles concretos estudiados, por lo que la generalización
puede resultar muy pobre. Sin embargo, la utilización de efectos alea-
torios (amén de las dificultades inherentes al cálculo del tamaño del
efecto y de la potencia para detectarlo), si no se hace bien, puede lle-
varnos a una pérdida de sensibilidad tal en el análisis que la genera-
lización, que no resulta fácil, puede llegar a ser imposible de realizar.
Como dice Abelson (1998, pág. 182), “así es sencillamente la vida inves-
tigadora. Uno no merere un resultado general sólo por desearlo”.
Apéndice

Tabla 1 Distribución normal.


Tabla 2 Distribución χ2.
Tabla 3 Distribución t-Student.
Tabla 4 Distribución F.
Tabla 5 Distribución F no centrada. Valores de β.
Tabla 6 Puntos críticos t D para el estadístico de Dunn.

Tabla 7 Puntos críticos q de la distribución del rango estudenti-


zado.
Tabla 8 Valores críticos de r del test de rachas.
Tabla 9 Coeficientes de polinomios ortogonales.
Tabla 10 Prueba de Lilliefors.
200 Análisis de varianza

TABLA 1
Distribución normal, P (Z ≤ z )

z 0 1 2 3 4 5 6 7 8 9
-3,5 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002
-3,4 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0002
-3,3 0,0005 0,0005 0,0005 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0003
-3,2 0,0007 0,0007 0,0006 0,0006 0,0006 0,0006 0,0006 0,0005 0,0005 0,0005
-3,1 0,0010 0,0009 0,0009 0,0009 0,0008 0,0008 0,0008 0,0008 0,0007 0,0007
-3,0 0,0013 0,0013 0,0013 0,0012 0,0012 0,0011 0,0011 0,0011 0,0010 0,0010
-2,9 0,0019 0,0018 0,0018 0,0017 0,0016 0,0016 0,0015 0,0015 0,0014 0,0014
-2,8 0,0026 0,0025 0,0024 0,0023 0,0023 0,0022 0,0021 0,0021 0,0020 0,0019
-2,7 0,0035 0,0034 0,0033 0,0032 0,0031 0,0030 0,0029 0,0028 0,0027 0,0026
-2,6 0,0047 0,0045 0,0044 0,0043 0,0041 0,0040 0,0039 0,0038 0,0037 0,0036
-2,5 0,0062 0,0060 0,0059 0,0057 0,0055 0,0054 0,0052 0,0051 0,0049 0,0048
-2,4 0,0082 0,0080 0,0078 0,0075 0,0073 0,0071 0,0069 0,0068 0,0066 0,0064
-2,3 0,0107 0,0104 0,0102 0,0099 0,0096 0,0094 0,0091 0,0089 0,0087 0,0084
-2,2 0,0139 0,0136 0,0132 0,0129 0,0125 0,0122 0,0119 0,0116 0,0113 0,0110
-2,1 0,0179 0,0174 0,0170 0,0166 0,0162 0,0158 0,0154 0,0150 0,0146 0,0143
-2,0 0,0228 0,0222 0,0217 0,0212 0,0207 0,0202 0,0197 0,0192 0,0188 0,0183
-1,9 0,0287 0,0281 0,0274 0,0268 0,0262 0,0256 0,0250 0,0244 0,0239 0,0233
-1,8 0,0359 0,0351 0,0344 0,0336 0,0329 0,0322 0,0314 0,0307 0,0301 0,0294
-1,7 0,0446 0,0436 0,0427 0,0418 0,0409 0,0401 0,0392 0,0384 0,0375 0,0367
-1,6 0,0548 0,0537 0,0526 0,0516 0,0505 0,0495 0,0485 0,0475 0,0465 0,0455
-1,5 0,0668 0,0655 0,0643 0,0630 0,0618 0,0606 0,0594 0,0582 0,0571 0,0559
-1,4 0,0808 0,0793 0,0778 0,0764 0,0749 0,0735 0,0721 0,0708 0,0694 0,0681
-1,3 0,0968 0,0951 0,0934 0,0918 0,0901 0,0885 0,0869 0,0853 0,0838 0,0823
-1,2 0,1151 0,1131 0,1112 0,1093 0,1075 0,1056 0,1038 0,1020 0,1003 0,0985
-1,1 0,1357 0,1335 0,1314 0,1292 0,1271 0,1251 0,1230 0,1210 0,1190 0,1170
-1,0 0,1587 0,1562 0,1539 0,1515 0,1492 0,1469 0,1446 0,1423 0,1401 0,1379
-0,9 0,1841 0,1814 0,1788 0,1762 0,1736 0,1711 0,1685 0,1660 0,1635 0,1611
-0,8 0,2119 0,2090 0,2061 0,2033 0,2005 0,1977 0,1949 0,1922 0,1894 0,1867
-0,7 0,2420 0,2389 0,2358 0,2327 0,2296 0,2266 0,2236 0,2206 0,2177 0,2148
-0,6 0,2743 0,2709 0,2676 0,2643 0,2611 0,2578 0,2546 0,2514 0,2483 0,2451
-0,5 0,3085 0,3050 0,3015 0,2981 0,2946 0,2912 0,2877 0,2843 0,2810 0,2776
-0,4 0,3446 0,3409 0,3372 0,3336 0,3300 0,3264 0,3228 0,3192 0,3156 0,3121
-0,3 0,3821 0,3783 0,3745 0,3707 0,3669 0,3632 0,3594 0,3557 0,3520 0,3483
-0,2 0,4207 0,4168 0,4129 0,4090 0,4052 0,4013 0,3974 0,3936 0,3897 0,3859
-0,1 0,4602 0,4562 0,4522 0,4483 0,4443 0,4404 0,4364 0,4325 0,4286 0,4247
-0,0 0,5000 0,4960 0,4920 0,4880 0,4840 0,4801 0,4761 0,4721 0,4681 0,4641
Apéndice 201

TABLA 1
(continuación)

z 0 1 2 3 4 5 6 7 8 9
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
3,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998
202 Análisis de varianza

TABLA 2
(
Distribución χ2, P X ≤ χ12−α , gl )
1–α
gl 0,005 0,010 0,025 0,050 0,100 0,900 0,950 0,975 0,990 0,995
1 0,000 0,000 0,001 0,004 0,016 2,71 3,84 5,02 6,63 7,88
2 0,010 0,020 0,051 0,103 0,211 4,61 5,99 7,38 9,21 10,60
3 0,072 0,115 0,216 0,352 0,584 6,25 7,81 9,35 11,34 12,84
4 0,207 0,297 0,484 0,711 1,06 7,78 9,49 11,14 13,28 14,86
5 0,412 0,554 0,831 1,15 1,61 9,24 11,07 12,83 15,09 16,75
6 0,676 0,872 1,24 1,64 2,20 10,64 12,59 14,45 16,81 18,55
7 0,989 1,24 1,69 2,17 2,83 12,02 14,07 16,01 18,48 20,28
8 1,34 1,65 2,18 2,73 3,49 13,36 15,51 17,53 20,09 21,96
9 1,73 2,09 2,70 3,33 4,17 14,68 16,92 19,02 21,67 23,59
10 2,16 2,56 3,25 3,94 4,87 15,99 18,31 20,48 23,21 25,19
11 2,60 3,05 3,82 4,57 5,58 17,28 19,68 21,92 24,72 26,76
12 3,07 3,57 4,40 5,23 6,30 18,55 21,03 23,34 26,22 28,30
13 3,57 4,11 5,01 5,89 7,04 19,81 22,36 24,74 27,69 29,82
14 4,07 4,66 5,63 6,57 7,79 21,06 23,68 26,12 29,14 31,32
15 4,60 5,23 6,26 7,26 8,55 22,31 25,00 27,49 30,58 32,80
16 5,14 5,81 6,91 7,96 9,31 23,54 26,30 28,85 32,00 34,27
17 5,70 6,41 7,56 8,67 10,09 24,77 27,59 30,19 33,41 35,72
18 6,26 7,01 8,23 9,39 10,86 25,99 28,87 31,53 34,81 37,16
19 6,84 7,63 8,91 10,12 11,65 27,20 30,14 32,85 36,19 38,58
20 7,43 8,26 9,59 10,85 12,44 28,41 31,41 34,17 37,57 40,00
21 8,03 8,90 10,28 11,59 13,24 29,62 32,67 35,48 38,93 41,40
22 8,64 9,54 10,98 12,34 14,04 30,81 33,92 36,78 40,29 42,80
23 9,26 10,20 11,69 13,09 14,85 32,01 35,17 38,08 41,64 44,18
24 9,89 10,86 12,40 13,85 15,66 33,20 36,42 39,36 42,98 45,56
25 10,52 11,52 13,12 14,61 16,47 34,38 37,65 40,65 44,31 46,93
26 11,16 12,20 13,84 15,38 17,29 35,56 38,89 41,92 45,64 48,29
27 11,81 12,88 14,57 16,15 18,11 36,74 40,11 43,19 46,96 49,64
28 12,46 13,56 15,31 16,93 18,94 37,92 41,34 44,46 48,28 50,99
29 13,21 14,26 16,05 17,71 19,77 39,09 42,56 45,72 49,59 52,34
30 13,79 14,95 16,79 18,49 20,60 40,26 43,77 46,98 50,89 53,67
40 20,71 22,16 24,43 26,51 29,05 51,80 55,76 59,34 63,69 66,77
50 27,99 29,71 32,36 34,76 37,69 63,17 67,50 71,42 76,15 79,49
60 35,53 37,48 40,48 43,19 46,46 74,40 79,08 83,30 88,38 91,95
70 43,28 45,44 48,76 51,74 55,33 85,53 90,53 95,02 100,42 104,22
80 51,17 53,54 57,15 60,39 64,28 96,58 101,88 106,63 112,33 116,32
90 59,20 61,75 65,65 69,13 73,29 107,56 113,14 118,14 124,12 128,30
100 67,33 70,06 74,22 77,93 82,36 118,50 124,34 129,56 135,81 140,17
Apéndice 203

TABLA 3
(
Distribución t-Student, P t ≤ t1−α , gl )
1–α
gl 0,900 0,950 0,975 0,990 0,995 0,999
1 3,078 6,314 12,706 31,821 63,656 318,289
2 1,886 2,920 4,303 6,965 9,925 22,328
3 1,638 2,353 3,182 4,541 5,841 10,214
4 1,533 2,132 2,776 3,747 4,604 7,173
5 1,476 2,015 2,571 3,365 4,032 5,894
6 1,440 1,943 2,447 3,143 3,707 5,208
7 1,415 1,895 2,365 2,998 3,499 4,785
8 1,397 1,860 2,306 2,896 3,355 4,501
9 1,383 1,833 2,262 2,821 3,250 4,297
10 1,372 1,812 2,228 2,764 3,169 4,144
11 1,363 1,796 2,201 2,718 3,106 4,025
12 1,356 1,782 2,179 2,681 3,055 3,930
13 1,350 1,771 2,160 2,650 3,012 3,852
14 1,345 1,761 2,145 2,624 2,977 3,787
15 1,341 1,753 2,131 2,602 2,947 3,733
16 1,337 1,746 2,120 2,583 2,921 3,686
17 1,333 1,740 2,110 2,567 2,898 3,646
18 1,330 1,734 2,101 2,552 2,878 3,610
19 1,328 1,729 2,093 2,539 2,861 3,579
20 1,325 1,725 2,086 2,528 2,845 3,552
21 1,323 1,721 2,080 2,518 2,831 3,527
22 1,321 1,717 2,074 2,508 2,819 3,505
23 1,319 1,714 2,069 2,500 2,807 3,485
24 1,318 1,711 2,064 2,492 2,797 3,467
25 1,316 1,708 2,060 2,485 2,787 3,450
26 1,315 1,706 2,056 2,479 2,779 3,435
27 1,314 1,703 2,052 2,473 2,771 3,421
28 1,313 1,701 2,048 2,467 2,763 3,408
29 1,311 1,699 2,045 2,462 2,756 3,396
30 1,310 1,697 2,042 2,457 2,750 3,385
40 1,303 1,684 2,021 2,423 2,704 3,307
50 1,299 1,676 2,009 2,403 2,678 3,261
60 1,296 1,671 2,000 2,390 2,660 3,232
70 1,294 1,667 1,994 2,381 2,648 3,211
80 1,292 1,664 1,990 2,374 2,639 3,195
90 1,291 1,662 1,987 2,368 2,632 3,183
100 1,290 1,660 1,984 2,364 2,626 3,174
120 1,289 1,658 1,980 2,358 2,617 3,160
150 1,287 1,655 1,976 2,351 2,609 3,145
200 1,286 1,653 1,972 2,345 2,601 3,131
∞ 1,282 1,645 1,960 2,326 2,576 3,090
204 Análisis de varianza

TABLA 4
(
Distribución F, P F ≤ F0,95, gl
num , glden )
glnum
glden 1 2 3 4 5 6 7 8 9 10 12 15 16
1 161,4 199,5 215,7 224,6 230,2 234,0 236,8 238,9 240,5 241,9 243,9 246,0 246,5
2 18,51 19,00 19,16 19,25 19,30 19,33 19,35 19,37 19,38 19,40 19,41 19,43 19,43
3 10,13 9,55 9,28 9,12 9,01 8,94 8,89 8,85 8,81 8,79 8,74 8,70 8,69
4 7,71 6,94 6,59 6,39 6,26 6,16 6,09 6,04 6,00 5,96 5,91 5,86 5,84
5 6,61 5,79 5,41 5,19 5,05 4,95 4,88 4,82 4,77 4,74 4,68 4,62 4,60
6 5,99 5,14 4,76 4,53 4,39 4,28 4,21 4,15 4,10 4,06 4,00 3,94 3,92
7 5,59 4,74 4,35 4,12 3,97 3,87 3,79 3,73 3,68 3,64 3,57 3,51 3,49
8 5,32 4,46 4,07 3,84 3,69 3,58 3,50 3,44 3,39 3,35 3,28 3,22 3,20
9 5,12 4,26 3,86 3,63 3,48 3,37 3,29 3,23 3,18 3,14 3,07 3,01 2,99
10 4,96 4,10 3,71 3,48 3,33 3,22 3,14 3,07 3,02 2,98 2,91 2,85 2,83
11 4,84 3,98 3,59 3,36 3,20 3,09 3,01 2,95 2,90 2,85 2,79 2,72 2,70
12 4,75 3,89 3,49 3,26 3,11 3,00 2,91 2,85 2,80 2,75 2,69 2,62 2,60
13 4,67 3,81 3,41 3,18 3,03 2,92 2,83 2,77 2,71 2,67 2,60 2,53 2,51
14 4,60 3,74 3,34 3,11 2,96 2,85 2,76 2,70 2,65 2,60 2,53 2,46 2,44
15 4,54 3,68 3,29 3,06 2,90 2,79 2,71 2,64 2,59 2,54 2,48 2,40 2,38
16 4,49 3,63 3,24 3,01 2,85 2,74 2,66 2,59 2,54 2,49 2,42 2,35 2,33
17 4,45 3,59 3,20 2,96 2,81 2,70 2,61 2,55 2,49 2,45 2,38 2,31 2,29
18 4,41 3,55 3,16 2,93 2,77 2,66 2,58 2,51 2,46 2,41 2,34 2,27 2,25
19 4,38 3,52 3,13 2,90 2,74 2,63 2,54 2,48 2,42 2,38 2,31 2,23 2,21
20 4,35 3,49 3,10 2,87 2,71 2,60 2,51 2,45 2,39 2,35 2,28 2,20 2,18
21 4,32 3,47 3,07 2,84 2,68 2,57 2,49 2,42 2,37 2,32 2,25 2,18 2,16
22 4,30 3,44 3,05 2,82 2,66 2,55 2,46 2,40 2,34 2,30 2,23 2,15 2,13
23 4,28 3,42 3,03 2,80 2,64 2,53 2,44 2,37 2,32 2,27 2,20 2,13 2,11
24 4,26 3,40 3,01 2,78 2,62 2,51 2,42 2,36 2,30 2,25 2,18 2,11 2,09
25 4,24 3,39 2,99 2,76 2,60 2,49 2,40 2,34 2,28 2,24 2,16 2,09 2,07
26 4,23 3,37 2,98 2,74 2,59 2,47 2,39 2,32 2,27 2,22 2,15 2,07 2,05
27 4,21 3,35 2,96 2,73 2,57 2,46 2,37 2,31 2,25 2,20 2,13 2,06 2,04
28 4,20 3,34 2,95 2,71 2,56 2,45 2,36 2,29 2,24 2,19 2,12 2,04 2,02
29 4,18 3,33 2,93 2,70 2,55 2,43 2,35 2,28 2,22 2,18 2,10 2,03 2,01
30 4,17 3,32 2,92 2,69 2,53 2,42 2,33 2,27 2,21 2,16 2,09 2,01 1,99
40 4,08 3,23 2,84 2,61 2,45 2,34 2,25 2,18 2,12 2,08 2,00 1,92 1,90
50 4,03 3,18 2,79 2,56 2,40 2,29 2,20 2,13 2,07 2,03 1,95 1,87 1,85
60 4,00 3,15 2,76 2,53 2,37 2,25 2,17 2,10 2,04 1,99 1,92 1,84 1,82
70 3,98 3,13 2,74 2,50 2,35 2,23 2,14 2,07 2,02 1,97 1,89 1,81 1,79
80 3,96 3,11 2,72 2,49 2,33 2,21 2,13 2,06 2,00 1,95 1,88 1,79 1,77
90 3,95 3,10 2,71 2,47 2,32 2,20 2,11 2,04 1,99 1,94 1,86 1,78 1,76
100 3,94 3,09 2,70 2,46 2,31 2,19 2,10 2,03 1,97 1,93 1,85 1,77 1,75
120 3,92 3,07 2,68 2,45 2,29 2,18 2,09 2,02 1,96 1,91 1,83 1,75 1,73
150 3,90 3,06 2,66 2,43 2,27 2,16 2,07 2,00 1,94 1,89 1,82 1,73 1,71
200 3,89 3,04 2,65 2,42 2,26 2,14 2,06 1,98 1,93 1,88 1,80 1,72 1,69
Apéndice 205

TABLA 4
(
Distribución F, P F ≤ F0,975, gl
num , glden )
glnum
glden 1 2 3 4 5 6 7 8 9 10 12 15 16
1 647,8 799,5 864,2 899,6 921,8 937,1 948,2 956,6 963,3 968,6 976,7 984,9 986,9
2 38,51 39,00 39,17 39,25 39,30 39,33 39,35 39,37 39,39 39,40 39,41 39,43 39,44
3 17,44 16,04 15,44 15,10 14,88 14,73 14,62 14,54 14,47 14,42 14,34 14,25 14,23
4 12,22 10,65 9,98 9,60 9,36 9,20 9,07 8,98 8,90 8,84 8,75 8,66 8,63
5 10,01 8,43 7,76 7,39 7,15 6,98 6,85 6,76 6,68 6,62 6,52 6,43 6,40
6 8,81 7,26 6,60 6,23 5,99 5,82 5,70 5,60 5,52 5,46 5,37 5,27 5,24
7 8,07 6,54 5,89 5,52 5,29 5,12 4,99 4,90 4,82 4,76 4,67 4,57 4,54
8 7,57 6,06 5,42 5,05 4,82 4,65 4,53 4,43 4,36 4,30 4,20 4,10 4,08
9 7,21 5,71 5,08 4,72 4,48 4,32 4,20 4,10 4,03 3,96 3,87 3,77 3,74
10 6,94 5,46 4,83 4,47 4,24 4,07 3,95 3,85 3,78 3,72 3,62 3,52 3,50
11 6,72 5,26 4,63 4,28 4,04 3,88 3,76 3,66 3,59 3,53 3,43 3,33 3,30
12 6,55 5,10 4,47 4,12 3,89 3,73 3,61 3,51 3,44 3,37 3,28 3,18 3,15
13 6,41 4,97 4,35 4,00 3,77 3,60 3,48 3,39 3,31 3,25 3,15 3,05 3,03
14 6,30 4,86 4,24 3,89 3,66 3,50 3,38 3,29 3,21 3,15 3,05 2,95 2,92
15 6,20 4,77 4,15 3,80 3,58 3,41 3,29 3,20 3,12 3,06 2,96 2,86 2,84
16 6,12 4,69 4,08 3,73 3,50 3,34 3,22 3,12 3,05 2,99 2,89 2,79 2,76
17 6,04 4,62 4,01 3,66 3,44 3,28 3,16 3,06 2,98 2,92 2,82 2,72 2,70
18 5,98 4,56 3,95 3,61 3,38 3,22 3,10 3,01 2,93 2,87 2,77 2,67 2,64
19 5,92 4,51 3,90 3,56 3,33 3,17 3,05 2,96 2,88 2,82 2,72 2,62 2,59
20 5,87 4,46 3,86 3,51 3,29 3,13 3,01 2,91 2,84 2,77 2,68 2,57 2,55
21 5,83 4,42 3,82 3,48 3,25 3,09 2,97 2,87 2,80 2,73 2,64 2,53 2,51
22 5,79 4,38 3,78 3,44 3,22 3,05 2,93 2,84 2,76 2,70 2,60 2,50 2,47
23 5,75 4,35 3,75 3,41 3,18 3,02 2,90 2,81 2,73 2,67 2,57 2,47 2,44
24 5,72 4,32 3,72 3,38 3,15 2,99 2,87 2,78 2,70 2,64 2,54 2,44 2,41
25 5,69 4,29 3,69 3,35 3,13 2,97 2,85 2,75 2,68 2,61 2,51 2,41 2,38
26 5,66 4,27 3,67 3,33 3,10 2,94 2,82 2,73 2,65 2,59 2,49 2,39 2,36
27 5,63 4,24 3,65 3,31 3,08 2,92 2,80 2,71 2,63 2,57 2,47 2,36 2,34
28 5,61 4,22 3,63 3,29 3,06 2,90 2,78 2,69 2,61 2,55 2,45 2,34 2,32
29 5,59 4,20 3,61 3,27 3,04 2,88 2,76 2,67 2,59 2,53 2,43 2,32 2,30
30 5,57 4,18 3,59 3,25 3,03 2,87 2,75 2,65 2,57 2,51 2,41 2,31 2,28
40 5,42 4,05 3,46 3,13 2,90 2,74 2,62 2,53 2,45 2,39 2,29 2,18 2,15
50 5,34 3,97 3,39 3,05 2,83 2,67 2,55 2,46 2,38 2,32 2,22 2,11 2,08
60 5,29 3,93 3,34 3,01 2,79 2,63 2,51 2,41 2,33 2,27 2,17 2,06 2,03
70 5,25 3,89 3,31 2,97 2,75 2,59 2,47 2,38 2,30 2,24 2,14 2,03 2,00
80 5,22 3,86 3,28 2,95 2,73 2,57 2,45 2,35 2,28 2,21 2,11 2,00 1,97
90 5,20 3,84 3,26 2,93 2,71 2,55 2,43 2,34 2,26 2,19 2,09 1,98 1,95
100 5,18 3,83 3,25 2,92 2,70 2,54 2,42 2,32 2,24 2,18 2,08 1,97 1,94
120 5,15 3,80 3,23 2,89 2,67 2,52 2,39 2,30 2,22 2,16 2,05 1,94 1,92
150 5,13 3,78 3,20 2,87 2,65 2,49 2,37 2,28 2,20 2,13 2,03 1,92 1,89
200 5,10 3,76 3,18 2,85 2,63 2,47 2,35 2,26 2,18 2,11 2,01 1,90 1,87
206 Análisis de varianza

TABLA 4
(
Distribución F, P F ≤ F0,99, gl num , glden )
glnum
glden 1 2 3 4 5 6 7 8 9 10 12 15 16
1 4052 4999 5403 5625 5764 5859 5928 5981 6022 6056 6107 6157 6170
2 98,50 99,00 99,16 99,25 99,30 99,33 99,36 99,37 99,39 99,40 99,42 99,43 99,43
3 34,12 30,82 29,46 28,71 28,24 27,91 27,67 27,49 27,34 27,23 27,05 26,87 26,83
4 21,20 18,00 16,69 15,98 15,52 15,21 14,98 14,80 14,66 14,55 14,37 14,20 14,15
5 16,26 13,27 12,06 11,39 10,97 10,67 10,46 10,29 10,16 10,05 9,89 9,72 9,68
6 13,74 10,92 9,78 9,15 8,75 8,47 8,26 8,10 7,98 7,87 7,72 7,56 7,52
7 12,25 9,55 8,45 7,85 7,46 7,19 6,99 6,84 6,72 6,62 6,47 6,31 6,28
8 11,26 8,65 7,59 7,01 6,63 6,37 6,18 6,03 5,91 5,81 5,67 5,52 5,48
9 10,56 8,02 6,99 6,42 6,06 5,80 5,61 5,47 5,35 5,26 5,11 4,96 4,92
10 10,04 7,56 6,55 5,99 5,64 5,39 5,20 5,06 4,94 4,85 4,71 4,56 4,52
11 9,65 7,21 6,22 5,67 5,32 5,07 4,89 4,74 4,63 4,54 4,40 4,25 4,21
12 9,33 6,93 5,95 5,41 5,06 4,82 4,64 4,50 4,39 4,30 4,16 4,01 3,97
13 9,07 6,70 5,74 5,21 4,86 4,62 4,44 4,30 4,19 4,10 3,96 3,82 3,78
14 8,86 6,51 5,56 5,04 4,69 4,46 4,28 4,14 4,03 3,94 3,80 3,66 3,62
15 8,68 6,36 5,42 4,89 4,56 4,32 4,14 4,00 3,89 3,80 3,67 3,52 3,49
16 8,53 6,23 5,29 4,77 4,44 4,20 4,03 3,89 3,78 3,69 3,55 3,41 3,37
17 8,40 6,11 5,19 4,67 4,34 4,10 3,93 3,79 3,68 3,59 3,46 3,31 3,27
18 8,29 6,01 5,09 4,58 4,25 4,01 3,84 3,71 3,60 3,51 3,37 3,23 3,19
19 8,18 5,93 5,01 4,50 4,17 3,94 3,77 3,63 3,52 3,43 3,30 3,15 3,12
20 8,10 5,85 4,94 4,43 4,10 3,87 3,70 3,56 3,46 3,37 3,23 3,09 3,05
21 8,02 5,78 4,87 4,37 4,04 3,81 3,64 3,51 3,40 3,31 3,17 3,03 2,99
22 7,95 5,72 4,82 4,31 3,99 3,76 3,59 3,45 3,35 3,26 3,12 2,98 2,94
23 7,88 5,66 4,76 4,26 3,94 3,71 3,54 3,41 3,30 3,21 3,07 2,93 2,89
24 7,82 5,61 4,72 4,22 3,90 3,67 3,50 3,36 3,26 3,17 3,03 2,89 2,85
25 7,77 5,57 4,68 4,18 3,85 3,63 3,46 3,32 3,22 3,13 2,99 2,85 2,81
26 7,72 5,53 4,64 4,14 3,82 3,59 3,42 3,29 3,18 3,09 2,96 2,81 2,78
27 7,68 5,49 4,60 4,11 3,78 3,56 3,39 3,26 3,15 3,06 2,93 2,78 2,75
28 7,64 5,45 4,57 4,07 3,75 3,53 3,36 3,23 3,12 3,03 2,90 2,75 2,72
29 7,60 5,42 4,54 4,04 3,73 3,50 3,33 3,20 3,09 3,00 2,87 2,73 2,69
30 7,56 5,39 4,51 4,02 3,70 3,47 3,30 3,17 3,07 2,98 2,84 2,70 2,66
40 7,31 5,18 4,31 3,83 3,51 3,29 3,12 2,99 2,89 2,80 2,66 2,52 2,48
50 7,17 5,06 4,20 3,72 3,41 3,19 3,02 2,89 2,78 2,70 2,56 2,42 2,38
60 7,08 4,98 4,13 3,65 3,34 3,12 2,95 2,82 2,72 2,63 2,50 2,35 2,31
70 7,01 4,92 4,07 3,60 3,29 3,07 2,91 2,78 2,67 2,59 2,45 2,31 2,27
80 6,96 4,88 4,04 3,56 3,26 3,04 2,87 2,74 2,64 2,55 2,42 2,27 2,23
90 6,93 4,85 4,01 3,54 3,23 3,01 2,84 2,72 2,61 2,52 2,39 2,24 2,21
100 6,90 4,82 3,98 3,51 3,21 2,99 2,82 2,69 2,59 2,50 2,37 2,22 2,19
120 6,85 4,79 3,95 3,48 3,17 2,96 2,79 2,66 2,56 2,47 2,34 2,19 2,15
150 6,81 4,75 3,91 3,45 3,14 2,92 2,76 2,63 2,53 2,44 2,31 2,16 2,12
200 6,76 4,71 3,88 3,41 3,11 2,89 2,73 2,60 2,50 2,41 2,27 2,13 2,09
Apéndice 207

TABLA 4
(
Distribución F, P F ≤ F0,995, gl
num , glden )
glnum
glden 1 2 3 4 5 6 7 8 9 10 12 15 16
1 16211 19999 21613 22497 23058 23437 23715 23924 24091 24225 24426 24631 24681
2 198,5 199,0 199,2 199,2 199,3 199,3 199,3 199,4 199,4 199,4 199,4 199,4 199,4
3 55,55 49,80 47,47 46,20 45,39 44,84 44,44 44,13 43,88 43,69 43,39 43,09 43,01
4 31,33 26,28 24,26 23,16 22,46 21,97 21,62 21,35 21,14 20,97 20,70 20,44 20,37
5 22,79 18,31 16,53 15,56 14,94 14,51 14,20 13,96 13,77 13,62 13,38 13,15 13,09
6 18,63 14,54 12,92 12,03 11,46 11,07 10,79 10,57 10,39 10,25 10,03 9,81 9,76
7 16,24 12,40 10,88 10,05 9,52 9,16 8,89 8,68 8,51 8,38 8,18 7,97 7,91
8 14,69 11,04 9,60 8,81 8,30 7,95 7,69 7,50 7,34 7,21 7,01 6,81 6,76
9 13,61 10,11 8,72 7,96 7,47 7,13 6,88 6,69 6,54 6,42 6,23 6,03 5,98
10 12,83 9,43 8,08 7,34 6,87 6,54 6,30 6,12 5,97 5,85 5,66 5,47 5,42
11 12,23 8,91 7,60 6,88 6,42 6,10 5,86 5,68 5,54 5,42 5,24 5,05 5,00
12 11,75 8,51 7,23 6,52 6,07 5,76 5,52 5,35 5,20 5,09 4,91 4,72 4,67
13 11,37 8,19 6,93 6,23 5,79 5,48 5,25 5,08 4,94 4,82 4,64 4,46 4,41
14 11,06 7,92 6,68 6,00 5,56 5,26 5,03 4,86 4,72 4,60 4,43 4,25 4,20
15 10,80 7,70 6,48 5,80 5,37 5,07 4,85 4,67 4,54 4,42 4,25 4,07 4,02
16 10,58 7,51 6,30 5,64 5,21 4,91 4,69 4,52 4,38 4,27 4,10 3,92 3,87
17 10,38 7,35 6,16 5,50 5,07 4,78 4,56 4,39 4,25 4,14 3,97 3,79 3,75
18 10,22 7,21 6,03 5,37 4,96 4,66 4,44 4,28 4,14 4,03 3,86 3,68 3,64
19 10,07 7,09 5,92 5,27 4,85 4,56 4,34 4,18 4,04 3,93 3,76 3,59 3,54
20 9,94 6,99 5,82 5,17 4,76 4,47 4,26 4,09 3,96 3,85 3,68 3,50 3,46
21 9,83 6,89 5,73 5,09 4,68 4,39 4,18 4,01 3,88 3,77 3,60 3,43 3,38
22 9,73 6,81 5,65 5,02 4,61 4,32 4,11 3,94 3,81 3,70 3,54 3,36 3,31
23 9,63 6,73 5,58 4,95 4,54 4,26 4,05 3,88 3,75 3,64 3,47 3,30 3,25
24 9,55 6,66 5,52 4,89 4,49 4,20 3,99 3,83 3,69 3,59 3,42 3,25 3,20
25 9,48 6,60 5,46 4,84 4,43 4,15 3,94 3,78 3,64 3,54 3,37 3,20 3,15
26 9,41 6,54 5,41 4,79 4,38 4,10 3,89 3,73 3,60 3,49 3,33 3,15 3,11
27 9,34 6,49 5,36 4,74 4,34 4,06 3,85 3,69 3,56 3,45 3,28 3,11 3,07
28 9,28 6,44 5,32 4,70 4,30 4,02 3,81 3,65 3,52 3,41 3,25 3,07 3,03
29 9,23 6,40 5,28 4,66 4,26 3,98 3,77 3,61 3,48 3,38 3,21 3,04 2,99
30 9,18 6,35 5,24 4,62 4,23 3,95 3,74 3,58 3,45 3,34 3,18 3,01 2,96
40 8,83 6,07 4,98 4,37 3,99 3,71 3,51 3,35 3,22 3,12 2,95 2,78 2,74
50 8,63 5,90 4,83 4,23 3,85 3,58 3,38 3,22 3,09 2,99 2,82 2,65 2,61
60 8,49 5,80 4,73 4,14 3,76 3,49 3,29 3,13 3,01 2,90 2,74 2,57 2,53
70 8,40 5,72 4,66 4,08 3,70 3,43 3,23 3,08 2,95 2,85 2,68 2,51 2,47
80 8,33 5,67 4,61 4,03 3,65 3,39 3,19 3,03 2,91 2,80 2,64 2,47 2,43
90 8,28 5,62 4,57 3,99 3,62 3,35 3,15 3,00 2,87 2,77 2,61 2,44 2,39
100 8,24 5,59 4,54 3,96 3,59 3,33 3,13 2,97 2,85 2,74 2,58 2,41 2,37
120 8,18 5,54 4,50 3,92 3,55 3,28 3,09 2,93 2,81 2,71 2,54 2,37 2,33
150 8,12 5,49 4,45 3,88 3,51 3,25 3,05 2,89 2,77 2,67 2,51 2,33 2,29
200 8,06 5,44 4,41 3,84 3,47 3,21 3,01 2,86 2,73 2,63 2,47 2,30 2,25
208 Análisis de varianza

TABLA 5
Distribución F no centrada. Valores de β.
(α = 0,05)
φ

glnum glden 0,5 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,6 3,0
2 0,93 0,86 0,83 0,78 0,74 0,69 0,64 0,59 0,49 0,40
4 0,91 0,80 0,74 0,67 0,59 0,51 0,43 0,35 0,22 0,12
6 0,91 0,78 0,70 0,62 0,52 0,43 0,34 0,26 0,14 0,06
8 0,90 0,76 0,68 0,59 0,49 0,39 0,30 0,22 0,11 0,04
1 10 0,90 0,75 0,66 0,57 0,47 0,37 0,28 0,20 0,09 0,03
12 0,90 0,74 0,65 0,56 0,45 0,35 0,26 0,19 0,08 0,03
16 0,90 0,74 0,64 0,54 0,43 0,33 0,24 0,17 0,07 0,02
20 0,90 0,73 0,63 0,53 0,42 0,32 0,23 0,16 0,06 0,02
30 0,89 0,72 0,62 0,52 0,40 0,31 0,22 0,15 0,06 0,02
2 0,93 0,88 0,85 0,82 0,78 0,75 0,70 0,66 0,56 0,48
4 0,92 0,82 0,77 0,70 0,62 0,54 0,46 0,38 0,24 0,14
6 0,91 0,79 0,71 0,63 0,53 0,43 0,34 0,26 0,13 0,05
8 0,91 0,77 0,68 0,58 0,48 0,37 0,28 0,20 0,08 0,03
2 10 0,91 0,75 0,66 0,55 0,44 0,34 0,24 0,16 0,06 0,02
12 0,90 0,74 0,64 0,53 0,42 0,31 0,22 0,14 0,05 0,01
16 0,90 0,73 0,62 0,51 0,39 0,28 0,19 0,12 0,04 0,01
20 0,90 0,72 0,61 0,49 0,36 0,16 0,17 0,11 0,03 0,01
30 0,90 0,71 0,59 0,47 0,35 0,24 0,15 0,09 0,02 0,00
2 0,93 0,89 0,86 0,83 0,80 0,76 0,73 0,69 0,60 0,52
4 0,92 0,83 0,77 0,71 0,63 0,55 0,47 0,39 0,25 0,14
6 0,91 0,79 0,71 0,62 0,52 0,42 0,33 0,24 0,11 0,04
8 0,91 0,76 0,67 0,57 0,46 0,35 0,25 0,18 0,06 0,02
3 10 0,91 0,75 0,65 0,53 0,41 0,30 0,21 0,13 0,04 0,01
12 0,90 0,73 0,62 0,50 0,38 0,27 0,18 0,11 0,03 0,01
16 0,90 0,71 0,60 0,47 0,34 0,23 0,14 0,08 0,02 0,00
20 0,90 0,70 0,58 0,45 0,32 0,21 0,13 0,07 0,01 0,00
30 0,89 0,68 0,55 0,42 0,29 0,18 0,10 0,05 0,01 0,00
2 0,94 0,89 0,87 0,84 0,81 0,77 0,74 0,70 0,62 0,54
4 0,92 0,83 0,78 0,71 0,64 0,55 0,47 0,39 0,25 0,14
6 0,92 0,79 0,71 0,62 0,52 0,41 0,31 0,23 0,10 0,04
8 0,91 0,76 0,66 0,55 0,44 0,33 0,23 0,15 0,05 0,01
4 10 0,91 0,74 0,63 0,51 0,39 0,27 0,18 0,11 0,03 0,01
12 0,90 0,72 0,61 0,48 0,35 0,24 0,15 0,08 0,02 0,00
16 0,90 0,70 0,57 0,44 0,31 0,19 0,11 0,06 0,01 0,00
20 0,89 0,68 0,55 0,41 0,28 0,17 0,09 0,04 0,01 0,00
30 0,89 0,66 0,52 0,37 0,24 0,14 0,07 0,03 0,00 0,00
Apéndice 209

TABLA 5
Distribución F no centrada. Valores de β.
(α = 0,01)
φ

glnum glden 0,5 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,6 3,0
2 0,99 0,97 0,96 0,95 0,94 0,93 0,91 0,90 0,87 0,83
4 0,98 0,95 0,93 0,90 0,87 0,83 0,78 0,73 0,62 0,50
6 0,98 0,93 0,90 0,86 0,81 0,75 0,69 0,61 0,46 0,31
8 0,98 0,92 0,89 0,84 0,78 0,70 0,62 0,54 0,37 0,22
1 10 0,98 0,92 0,87 0,82 0,75 0,67 0,58 0,49 0,31 0,17
12 0,97 0,91 0,87 0,81 0,73 0,65 0,55 0,46 0,28 0,14
16 0,97 0,90 0,85 0,79 0,71 0,61 0,52 0,42 0,24 0,11
20 0,97 0,90 0,85 0,78 0,69 0,59 0,49 0,39 0,21 0,10
30 0,97 0,89 0,83 0,76 0,67 0,57 0,46 0,36 0,19 0,08
2 0,99 0,98 0,97 0,96 0,95 0,94 0,93 0,92 0,89 0,86
4 0,98 0,96 0,94 0,92 0,89 0,85 0,81 0,76 0,66 0,54
6 0,98 0,94 0,91 0,87 0,82 0,76 0,70 0,62 0,46 0,31
8 0,98 0,93 0,89 0,84 0,78 0,70 0,61 0,52 0,34 0,19
2 10 0,98 0,92 0,88 0,82 0,74 0,65 0,55 0,45 0,26 0,13
12 0,98 0,91 0,86 0,80 0,71 0,61 0,51 0,40 0,22 0,09
16 0,97 0,90 0,84 0,77 0,67 0,57 0,45 0,34 0,16 0,06
20 0,97 0,90 0,83 0,75 0,65 0,53 0,42 0,31 0,14 0,04
30 0,97 0,88 0,82 0,72 0,61 0,49 0,37 0,26 0,10 0,03
2 0,99 0,98 0,97 0,96 0,96 0,95 0,94 0,93 0,90 0,88
4 0,98 0,96 0,94 0,92 0,89 0,86 0,82 0,77 0,67 0,55
6 0,98 0,94 0,91 0,87 0,82 0,76 0,69 0,61 0,44 0,29
8 0,98 0,93 0,89 0,84 0,77 0,68 0,59 0,49 0,30 0,16
3 10 0,98 0,92 0,87 0,80 0,72 0,62 0,52 0,41 0,22 0,09
12 0,98 0,91 0,85 0,78 0,69 0,58 0,46 0,35 0,17 0,06
16 0,97 0,90 0,83 0,74 0,64 0,51 0,39 0,28 0,11 0,03
20 0,97 0,89 0,82 0,72 0,60 0,47 0,35 0,24 0,08 0,02
30 0,97 0,87 0,79 0,68 0,55 0,42 0,29 0,18 0,05 0,01
2 0,99 0,98 0,97 0,97 0,96 0,95 0,94 0,93 0,91 0,88
4 0,98 0,96 0,94 0,92 0,89 0,86 0,82 0,78 0,67 0,56
6 0,98 0,94 0,91 0,87 0,82 0,76 0,68 0,60 0,43 0,28
8 0,98 0,93 0,89 0,83 0,76 0,67 0,57 0,47 0,28 0,14
4 10 0,98 0,92 0,86 0,79 0,70 0,60 0,49 0,37 0,19 0,07
12 0,98 0,91 0,85 0,76 0,66 0,55 0,42 0,31 0,13 0,04
16 0,97 0,89 0,82 0,72 0,60 0,47 0,34 0,23 0,08 0,02
20 0,97 0,88 0,80 0,69 0,56 0,42 0,29 0,18 0,05 0,01
30 0,97 0,86 0,77 0,64 0,50 0,35 0,22 0,13 0,03 0,00
210 Análisis de varianza

TABLA 6
Puntos críticos t D para el estadístico de Dunn (contrastes bilaterales)
(α = 0,05)

Número total de comparaciones


glintra 2 3 4 5 6 7 8 9 10
5 3,16 3,53 3,81 4,03 4,22 4,38 4,53 4,66 4,77
6 2,97 3,29 3,52 3,71 3,86 4,00 4,12 4,22 4,32
7 2,84 3,13 3,34 3,50 3,64 3,75 3,86 3,95 4,03
8 2,75 3,02 3,21 3,36 3,48 3,58 3,68 3,76 3,83
9 2,69 2,93 3,11 3,25 3,36 3,46 3,55 3,62 3,69
10 2,63 2,87 3,04 3,17 3,28 3,37 3,45 3,52 3,58
11 2,59 2,82 2,98 3,11 3,21 3,29 3,37 3,44 3,50
12 2,56 2,78 2,93 3,05 3,15 3,24 3,31 3,37 3,43
13 2,53 2,75 2,90 3,01 3,11 3,19 3,26 3,32 3,37
14 2,51 2,72 2,86 2,98 3,07 3,15 3,21 3,27 3,33
15 2,49 2,69 2,84 2,95 3,04 3,11 3,18 3,23 3,29
16 2,47 2,67 2,81 2,92 3,01 3,08 3,15 3,20 3,25
17 2,46 2,65 2,79 2,90 2,98 3,06 3,12 3,17 3,22
18 2,45 2,64 2,77 2,88 2,96 3,03 3,09 3,15 3,20
19 2,43 2,63 2,76 2,86 2,94 3,01 3,07 3,13 3,17
20 2,42 2,61 2,74 2,85 2,93 3,00 3,06 3,11 3,15
21 2,41 2,60 2,73 2,83 2,91 2,98 3,04 3,09 3,14
22 2,41 2,59 2,72 2,82 2,90 2,97 3,02 3,07 3,12
23 2,40 2,58 2,71 2,81 2,89 2,95 3,01 3,06 3,10
24 2,39 2,57 2,70 2,80 2,88 2,94 3,00 3,05 3,09
25 2,38 2,57 2,69 2,79 2,86 2,93 2,99 3,03 3,08
30 2,36 2,54 2,66 2,75 2,82 2,89 2,94 2,99 3,03
40 2,33 2,50 2,62 2,70 2,78 2,84 2,89 2,93 2,97
50 2,31 2,48 2,59 2,68 2,75 2,81 2,85 2,90 2,94
75 2,29 2,45 2,56 2,64 2,71 2,77 2,81 2,86 2,89
100 2,28 2,43 2,54 2,63 2,69 2,75 2,79 2,83 2,87
Apéndice 211

TABLA 6
Puntos críticos t D para el estadístico de Dunn (contrastes bilaterales)
(α = 0,01)

Número total de comparaciones


glintra 2 3 4 5 6 7 8 9 10
5 4,77 5,25 5,60 5,89 6,14 6,35 6,54 6,71 6,87
6 4,32 4,70 4,98 5,21 5,40 5,56 5,71 5,84 5,96
7 4,03 4,36 4,59 4,79 4,94 5,08 5,20 5,31 5,41
8 3,83 4,12 4,33 4,50 4,64 4,76 4,86 4,96 5,04
9 3,69 3,95 4,15 4,30 4,42 4,53 4,62 4,71 4,78
10 3,58 3,83 4,00 4,14 4,26 4,36 4,44 4,52 4,59
11 3,50 3,73 3,89 4,02 4,13 4,22 4,30 4,37 4,44
12 3,43 3,65 3,81 3,93 4,03 4,12 4,19 4,26 4,32
13 3,37 3,58 3,73 3,85 3,95 4,03 4,10 4,16 4,22
14 3,33 3,53 3,67 3,79 3,88 3,96 4,03 4,09 4,14
15 3,29 3,48 3,62 3,73 3,82 3,90 3,96 4,02 4,07
16 3,25 3,44 3,58 3,69 3,77 3,85 3,91 3,96 4,01
17 3,22 3,41 3,54 3,65 3,73 3,80 3,86 3,92 3,97
18 3,20 3,38 3,51 3,61 3,69 3,76 3,82 3,87 3,92
19 3,17 3,35 3,48 3,58 3,66 3,73 3,79 3,84 3,88
20 3,15 3,33 3,46 3,55 3,63 3,70 3,75 3,80 3,85
21 3,14 3,31 3,43 3,53 3,60 3,67 3,73 3,78 3,82
22 3,12 3,29 3,41 3,50 3,58 3,64 3,70 3,75 3,79
23 3,10 3,27 3,39 3,48 3,56 3,62 3,68 3,72 3,77
24 3,09 3,26 3,38 3,47 3,54 3,60 3,66 3,70 3,75
25 3,08 3,24 3,36 3,45 3,52 3,58 3,64 3,68 3,73
30 3,03 3,19 3,30 3,39 3,45 3,51 3,56 3,61 3,65
40 2,97 2,12 3,23 2,31 2,37 2,43 2,47 2,51 2,55
50 2,94 3,08 2,18 3,26 3,32 3,38 3,42 3,46 3,50
75 2,89 3,03 3,13 3,20 3,26 3,31 3,35 3,39 3,43
100 2,87 3,01 3,10 3,17 3,23 3,28 3,32 3,36 3,39
212 Análisis de varianza

TABLA 7
Puntos críticos q de la distribución del rango estudentizado
(1 – α = 0,95)

Número de medias
glintra 2 3 4 5 6 7 8 9 10 11 12
5 3,64 4,60 5,22 5,67 6,03 6,33 6,58 6,80 7,00 7,17 7,32
6 3,46 4,34 4,90 5,31 5,63 5,90 6,12 6,32 6,49 6,65 6,79
7 3,34 4,16 4,68 5,06 5,36 5,61 5,82 6,00 6,16 6,30 6,43
8 3,26 4,04 4,53 4,89 5,17 5,40 5,60 5,77 5,92 6,05 6,18
9 3,20 3,95 4,42 4,76 5,02 5,24 5,43 5,60 5,74 5,87 5,98
10 3,15 3,88 4,33 4,65 4,91 5,12 4,30 5,46 5,60 5,72 5,83
11 3,11 3,82 4,26 4,57 4,82 5,03 5,20 5,35 5,49 5,60 5,71
12 3,08 3,77 4,20 4,51 4,75 4,95 5,12 5,26 5,40 5,51 5,62
13 3,06 3,74 4,15 4,45 4,69 4,88 5,05 5,19 5,32 5,43 5,53
14 3,03 3,70 4,11 4,41 4,64 4,83 4,99 5,13 5,25 5,36 5,46
15 3,01 3,67 4,08 4,37 4,60 4,78 4,94 5,08 5,20 5,31 5,40
16 3,00 3,65 4,05 4,33 4,56 4,74 4,90 5,03 5,15 5,26 5,35
18 2,97 3,61 4,00 4,28 4,50 4,67 4,82 4,96 5,07 5,17 5,27
20 2,95 3,58 3,96 4,23 4,44 4,62 4,77 4,90 5,01 5,11 5,20
24 2,92 3,53 3,90 4,17 4,17 4,54 4,68 4,81 4,92 5,01 5,10
30 2,89 3,49 3,84 4,10 4,30 4,46 4,60 4,72 4,82 4,92 5,00
40 2,86 3,44 3,79 4,04 4,23 4,39 4,52 4,64 4,74 4,82 4,90
60 2,83 3,40 3,74 3,98 4,16 4,31 4,44 4,55 4,65 4,73 4,81
Apéndice 213

TABLA 7
Puntos críticos q de la distribución del rango estudentizado
(1 – α = 0,99)

Número de medias
glintra 2 3 4 5 6 7 8 9 10 11 12
5 5,70 6,98 7,80 8,42 8,91 9,32 9,67 9,97 10,24 10,48 10,70
6 5,24 6,33 7,03 7,56 7,97 8,32 8,62 8,87 9,10 9,30 9,48
7 4,95 5,92 6,54 7,00 7,37 7,68 7,94 8,17 8,37 8,55 8,71
8 4,75 5,64 6,20 6,62 6,96 7,24 7,47 7,68 7,86 8,03 8,18
9 4,60 5,43 5,96 6,35 6,66 6,92 7,13 7,32 7,50 7,65 7,78
10 4,48 5,27 5,77 6,14 6,43 6,67 6,88 7,06 7,21 7,36 7,48
11 4,39 5,15 5,62 5,97 6,25 6,48 6,67 6,84 6,99 7,13 7,25
12 4,32 5,05 5,50 5,84 6,10 6,32 6,51 6,67 6,81 6,94 7,06
13 4,26 4,96 5,40 5,73 5,98 6,19 6,37 6,53 6,67 6,79 6,90
14 4,21 4,90 5,32 5,63 5,88 6,08 6,26 6,41 6,54 6,66 6,77
15 4,17 4,84 5,25 5,56 5,80 5,99 6,16 6,31 6,44 6,56 6,66
16 4,13 4,79 5,19 5,49 5,72 5,92 6,08 6,22 6,35 6,46 6,56
18 4,07 4,70 5,09 5,38 5,60 5,79 5,94 6,08 6,20 6,31 6,41
20 4,02 4,64 5,02 5,29 5,51 5,69 5,84 5,97 6,09 6,19 6,28
24 3,96 4,55 4,91 5,17 5,37 5,54 5,69 5,81 5,92 6,02 6,11
30 3,89 4,46 4,80 5,05 5,24 5,40 5,54 5,65 5,76 5,85 5,93
40 3,82 4,37 4,70 4,93 5,11 5,26 5,39 5,50 5,60 5,69 5,76
60 3,76 4,28 4,60 4,82 4,99 5,13 5,25 5,36 5,45 5,53 5,60
214 Análisis de varianza

TABLA 8
Valores críticos de r del test de rachas

n1 = 2
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
2 4 4 4 4
3 5 5 5 5
4 5 5 5 5
5 5 5 5 5
6 5 5 5 5
7 5 5 5 5
8 2 3 5 5 5
9 2 5 5 5 5
10 2 5 5 5 5
11 2 5 5 5 5
12 2 2 5 5 5 5
13 2 2 5 5 5 5
14 2 2 5 5 5 5
15 2 2 5 5 5 5
16 2 2 5 5 5 5
17 2 2 5 5 5 5
18 2 2 5 5 5 5
19 2 2 2 5 5 5 5
20 2 2 2 5 5 5 5

n1 = 3
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
3 6 6 6 6
4 6 7 7 7
5 2 7 7 7 7
6 2 2 7 7 7 7
7 2 2 7 7 7 7
8 2 2 7 7 7 7
9 2 2 2 7 7 7 7
10 2 2 3 7 7 7 7
11 2 2 3 7 7 7 7
12 2 2 2 3 7 7 7 7
13 2 2 2 3 7 7 7 7
14 2 2 2 3 7 7 7 7
15 2 2 2 3 7 7 7 7
16 2 2 2 3 7 7 7 7
17 2 2 2 3 7 7 7 7
18 2 2 2 3 7 7 7 7
19 2 2 2 3 7 7 7 7
20 2 2 2 3 7 7 7 7
Apéndice 215

TABLA 8
Valores críticos de r del test de rachas
(continuación)

n1 = 4
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
4 2 7 8 8 8
5 2 2 8 8 9 9
6 2 2 3 8 8 9 9
7 2 2 3 8 8 9 9
8 2 2 3 3 9 9 9 9
9 2 2 3 3 9 9 9 9
10 2 2 3 3 9 9 9 9
11 2 2 3 3 9 9 9 9
12 2 3 3 4 9 9 9 9
13 2 3 3 4 9 9 9 9
14 2 3 3 4 9 9 9 9
15 3 3 3 4 9 9 9 9
16 3 3 4 4 9 9 9 9
17 3 3 4 4 9 9 9 9
18 3 3 4 4 9 9 9 9
19 3 3 4 4 9 9 9 9
20 3 3 4 4 9 9 9 9

n1 = 5
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
5 2 2 3 8 9 9 10
6 6 2 3 3 9 9 10 10
7 2 2 3 3 9 10 10 11
8 2 2 3 3 10 10 11 11
9 2 3 3 4 10 11 11 11
10 3 3 3 4 10 11 11 11
11 3 3 4 4 11 11 11 11
12 3 3 4 4 11 11 11 11
13 3 3 4 4 11 11 11 11
14 3 3 4 5 11 11 11 11
15 3 4 4 5 11 11 11 11
16 3 4 4 5 11 11 11 11
17 3 4 4 5 11 11 11 11
18 4 4 5 5 11 11 11 11
19 4 4 5 5 11 11 11 11
20 4 4 5 5 11 11 11 11
216 Análisis de varianza

TABLA 8
Valores críticos de r del test de rachas
(continuación)

n1 = 6
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
6 2 2 3 3 10 10 11 11
7 2 3 3 4 10 11 11 12
8 3 3 3 4 11 11 12 12
9 3 3 4 4 11 12 12 12
10 3 3 4 5 11 12 13 13
11 3 4 4 5 12 12 13 13
12 3 4 4 5 12 12 13 13
13 3 4 5 5 12 13 13 13
14 4 4 5 5 12 13 13 13
15 4 4 5 6 13 13 13 13
16 4 4 5 6 13 13 13 13
17 4 5 5 6 13 13 13 13
18 4 5 5 6 13 13 13 13
19 4 5 6 6 13 13 13 13
20 4 5 6 6 13 13 13 13

n1 = 7
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
7 3 3 3 4 11 12 12 12
8 3 3 4 4 12 12 12 13
9 3 4 4 5 12 13 13 14
10 3 4 5 5 12 13 14 14
11 4 4 5 5 13 13 14 14
12 4 4 5 6 13 13 14 15
13 4 5 5 6 13 14 15 15
14 4 5 5 6 13 14 15 15
15 4 5 6 6 14 14 15 15
16 5 5 6 6 14 15 15 15
17 5 5 6 7 14 15 15 15
18 5 5 6 7 14 15 15 15
19 5 6 6 7 14 15 15 15
20 5 6 6 7 14 15 15 15
Apéndice 217

TABLA 8
Valores críticos de r del test de rachas
(continuación)

n1 = 8
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
8 8 4 4 5 12 13 13 14
9 3 4 5 5 13 13 14 14
10 4 4 5 6 13 14 14 15
11 4 5 5 6 14 14 15 15
12 4 5 6 6 14 15 15 16
13 5 5 6 6 14 15 16 16
14 5 5 6 7 15 15 16 16
15 5 5 6 7 15 15 16 17
16 5 6 6 7 15 16 16 17
17 5 6 7 7 15 16 17 17
18 6 6 7 8 15 16 17 17
19 6 6 7 8 15 16 17 17
20 6 6 7 8 16 16 17 17

n1 = 9
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
9 4 4 5 6 13 14 15 15
10 4 5 5 6 14 15 15 16
11 5 5 6 6 14 15 16 16
12 5 5 6 7 15 15 16 17
13 5 6 6 7 15 16 17 17
14 5 6 7 7 16 16 17 17
15 6 6 7 8 16 17 17 18
16 6 6 7 8 16 17 17 18
17 6 7 7 7 8 16 17 18
18 6 7 8 8 17 17 18 19
19 6 7 8 9 17 17 18 19
20 7 7 8 9 17 17 18 19
218 Análisis de varianza

TABLA 8
Valores críticos de r del test de rachas
(continuación)

n1 = 10
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
10 5 5 6 6 15 15 16 16
11 5 5 6 7 15 16 17 17
12 5 6 7 7 16 16 17 18
13 5 6 7 8 16 17 18 18
14 6 6 7 8 16 17 18 18
15 6 7 7 8 17 17 18 19
16 6 7 8 8 17 18 19 19
17 7 7 8 9 17 18 19 19
18 7 7 8 9 18 18 19 20
19 7 8 8 9 18 19 19 20
20 7 8 9 9 18 19 19 20

n1 = 11
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
11 5 6 7 7 16 16 17 18
12 6 6 7 8 16 17 18 18
13 6 6 7 8 17 18 18 19
14 6 7 8 8 17 18 19 19
15 7 7 8 9 18 18 19 20
16 7 7 8 9 18 19 20 20
17 7 8 9 9 18 19 20 21
18 7 8 9 10 19 19 20 21
19 8 8 9 10 19 20 21 21
20 8 8 9 10 19 20 21 21

n1 = 12
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
12 6 7 7 8 17 18 18 19
13 6 7 8 9 17 18 19 20
14 7 7 8 9 18 19 20 20
15 7 8 8 9 18 19 20 21
16 7 8 9 10 19 20 21 21
17 8 8 9 10 19 20 21 21
18 8 8 9 10 20 20 21 22
19 8 9 10 10 20 21 22 22
20 8 9 10 11 20 21 22 22
Apéndice 219

TABLA 8
Valores críticos de r del test de rachas
(continuación)

n1 = 13
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
13 7 7 8 9 18 19 20 20
14 7 8 9 9 19 19 20 21
15 7 8 9 10 19 20 21 21
16 8 8 9 10 20 20 21 22
17 8 9 10 10 20 21 22 22
18 8 9 10 11 20 21 22 23
19 9 9 10 11 21 22 23 23
20 9 10 10 11 21 22 23 23

n1 = 14
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
14 7 8 9 10 19 20 21 22
15 8 8 9 10 20 21 22 22
16 8 9 10 11 20 21 22 22
17 8 9 10 11 21 22 23 23
18 9 9 10 11 21 22 23 24
19 9 10 11 12 22 22 23 24
20 9 10 11 12 22 23 24 24

n1 = 15
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
15 8 9 10 11 20 21 22 23
16 9 9 10 11 21 22 23 23
17 9 10 11 11 21 22 23 24
18 9 10 11 12 22 23 24 24
19 10 10 11 12 22 23 24 25
20 10 11 12 12 23 24 25 25

n1 = 16
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
16 9 10 11 11 22 22 23 24
17 9 10 11 12 22 23 24 25
18 10 10 11 12 23 24 25 25
19 10 10 11 12 22 23 24 25
20 10 10 11 12 23 24 25 25
220 Análisis de varianza

TABLA 8
Valores críticos de r del test de rachas
(continuación)

n1 = 17
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
17 10 10 11 12 23 24 25 25
18 10 11 12 13 23 24 25 26
19 10 11 12 13 23 24 25 26
20 11 11 13 13 24 25 26 27

n1 = 18
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
18 11 11 12 13 24 25 26 26
19 11 12 13 14 24 25 26 27
20 11 12 13 14 25 26 27 28

n1 = 19
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
19 11 12 13 14 25 26 27 28
20 12 12 13 14 26 28 28 28

n1 = 20
n2 0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995
20 12 13 14 15 26 27 28 29
Apéndice 221

TABLA 9
Coeficientes de polinomios ortogonales

J Polinomio 1 2 3 4 5 6 7 8 9 10
Lineal -1 0 1
3
Cuadráti- 1 -2 1
co
Lineal -3 -1 1 3
4 Cuadráti- 1 -1 -1 1
co
Cúbico -1 3 -3 1
Lineal -2 -1 0 1 2
Cuadráti- 2 -1 -2 -1 2
5 co
Cúbico -1 2 0 -2 1
De 4º 1 -4 6 -4 1
grado
Lineal -5 -3 -1 1 3 5
Cuadráti- 5 -1 -4 -4 -1 5
6 co
Cúbico -5 7 4 -4 -7 5
De 4º 1 -3 2 2 -3 1
grado
Lineal -3 -2 -1 0 1 2 3
Cuadráti- 5 0 -3 -4 -3 0 5
7 co
Cúbico -1 1 1 0 -1 -1 1
De 4º 3 -7 1 6 1 -7 3
grado
Lineal -7 -5 -3 -1 1 3 5 7
Cuadráti- 7 1 -3 -5 -5 -3 1 7
8 co
Cúbico -7 5 7 3 -3 -7 -5 7
De 4º 7 -13 -3 9 9 -3 -13 7
grado
De 5º -7 23 -17 -15 15 17 -23 7
grado
Lineal -4 -3 -2 -1 0 1 2 3 4
Cuadráti- 28 7 -8 -17 -20 -17 -8 7 28
9 co
Cúbico -14 7 13 9 0 -9 -13 -7 14
De 4º 14 -21 -11 9 18 9 -11 -21 14
grado
De 5º -4 11 -4 -9 0 9 4 -11 4
grado
Lineal -9 -7 -5 -3 -1 1 3 5 7 9
Cuadráti- 6 2 -1 -3 -4 -4 -3 -1 2 6
10 co
Cúbico -42 14 35 31 12 -12 -31 -35 -14 42
De 4º 18 -22 -17 3 18 18 3 -17 -22 18
grado
De 5º -6 14 -1 -11 -6 6 11 1 -14 6
grado
222 Análisis de varianza

TABLA 10
Prueba de Lilliefors

1–α
n 0,80 0,85 0,90 0,95 0,99
4 0,300 0,319 0,352 0,381 0,417
5 0,285 0,299 0,315 0,337 0,405
6 0,265 0,277 0,294 0,319 0,364
7 0,247 0,258 0,276 0,300 0,348
8 0,233 0,244 0,261 0,285 0,331
9 0,223 0,233 0,249 0,271 0,311
10 0,215 0,224 0,239 0,258 0,294
11 0,206 0,217 0,230 0,249 0,284
12 0,199 0,212 0,223 0,242 0,275
13 0,190 0,202 0,214 0,234 0,268
14 0,183 0,194 0,207 0,227 0,261
15 0,177 0,187 0,201 0,220 0,257
16 0,173 0,182 0,195 0,213 0,250
17 0,169 0,177 0,189 0,206 0,245
18 0,166 0,173 0,184 0,200 0,239
19 0,163 0,169 0,179 0,195 0,235
20 0,160 0,166 0,174 0,190 0,231
25 0,142 0,147 0,158 0,173 0,200
30 0,131 0,136 0,144 0,161 0,187
Referencias bibliográficas
Abelson, R.P. (1998). La estadística razonada: reglas y principios.
Barcelona: A&M Gràfic. Traducción del original en inglés de
1995.
Allison, D.B., Gorman, B.S. y Primavera, L.H. (1992). Some of the Most
Common Questions Asked Of Statistical Consultants: Our Favor-
ite Responses and Recommended Readings. Genetic, Social, and
General Psychology Monographs, 119(2), 153-185.
Amón, J. (1984). Estdística para psicólogos II. Madrid: Pirámide.
Amón, J. (1989). Estdística para psicólogos I. Madrid: Pirámide.
Arnau i Gras, J. (1996). Técnicas de análisis avanzadas y diseños de
investigación: tendencias actuales y líneas futuras de desarrollo.
En J. Arnau i Gras (Ed.) Métodos y técnicas avanzadas de análi-
sis de datos en ciencias del comportamiento. Barcelona: Edicions
de la Universitat de Barcelona.
Bakan, D. (1966). The test of significance in Psychological Research.
Psychological Bulletin, 66(6), 423-437. En B. Lieberman (Ed.)
Contemporary Problems in Statistics (1971). New York: Oxford
University Press.
Binder, A. (1963). Further Considerations on Testing the Null Hypothe-
sis and the Strategy and Tactics of Investigating Theoretical
Models. Psychological Review, 70, 107-115. En B. Lieberman (Ed.)
224 Análisis de varianza

Contemporary Problems in Statistics (1971). New York: Oxford


University Press.
Bolles, R.C. (1962). The difference between statistical hypotheses and
scientific hypotheses. Psychological Reports, 11, 639-645.
Camcho, J. (1995). Análisis multivariado con SPSS/PC+. Barcelona:
EUB.
Cohen, J. (1962). The statistical power of abnormal social psychologi-
cal research: a review. Journal of Abnormal and Social Psychol-
ogy, 65, 145-153.
Cohen, J. (1988). Statistical Power Analysis for the Behavioral Sci-
ences. Hillsdale, New Jersey: LEA.
Cohen, J. (1990). Things I have learned (so far). American Psycholo-
gist, 45(12), 1304-1312.
Cohen, J. (1994). The earth es round (p < .05). American Psychologist,
49(12), 997-1003.
Cohen, J. y Cohen, P. (1975). Applied Multiple Regression/Correlation
Analysis for the Behavioral Sciences. New Jersey: Lawrence Erl-
baum Associates Publishers.
DeGroot, M.H. (1988). Probabilidad y estadística. Mexico: Addison
Wesley Iberoamericana. Traducción del original en inglés de
1986.
Darlington, R.B. (1990). Regression and linear models. New York:
McGraw-Hill.
Dunn, O.J. (1961). Multiple Comparisons Among Mean. Journal of
American Statistical Association, 56, 52-64.
Everitt, B.S. (1996). Making Sense of Statistics in Psychology. Gran
Bretaña: Oxford University Press.
Giere, R.N. (1984). Understanding Scientific Reasoning. U.S.A: Holt,
Rinehart and Winston.
Gigerenzer, G. (1993). The Superego, the Ego, and the Id in statistical
reasoning. En G. Keren y C. Lewis (Eds.). A Handbook for Data
Analysis in the Behavioral Sciences: Methodogical Issues. Hills-
dale: Erlbaum.
Gigerenzer, G. y Murray, D.J. (1987). Cognition as intuitive statistics.
Hillsdale, NJ: Lawrence Erlbaum Associates.
Girden, E.R. (1992). ANOVA Repeated Measures. Newbury Park, CA:
Sage Publications.
Referencias bibliográficas 225

Henkel, R.E. (1984). Tests of Significance. U.S.A: Sage Publications.


Hernández, J., Borges, A. y Ramírez, G. (1996). Análisis de la robustez
del ANOVA en el caso de tamaños muestrales distintos y no pro-
porcionales frente a los contrastes de aleatorización. Psi-
cológica, 17, 127-141.
Hsu, L.M. (1989). Random sampling, randomization, and equivalence
of contrasted groups in Psychoterapy outcome research. Journal
of Consulting and Clinical Psychology, 57, 131-137.
Jáñez, L. (1989). Fundamentos de Psicología Matemática. Madrid:
Pirámide.
Jackson, S. y Brashers, D.E. (1994). Random Factors in ANOVA. New-
bury Park, CA: Sage Publications.
Johnstone, D.J. (1987). Test of significance Following R.A. Fisher. The
British Journal for the Philosophy of Science, 38, 481-490.
Kazdin, A.E. y Bass, D. (1989). Power to detect differences between
alternative treatements in comparative psychoterapy outcome
research. Journal of Consulting and Clinical Psychology, 57,
138-147.
Keren, G. (1993). Between or Within-Subjets Design: A Methodological
Dilema. En G. Keren y C. Lewis (Eds.). A Handbook for Data
Analysis in the Behavioral Sciences: Methodogical Issues. Hills-
dale: Erlbaum.
Keppel, S. (1991). Design and Analysis. A Researcher’s Handbook. New
Jersey: Prentice Hall.
Kirk, R.E. (1982). Experimental Design. California: Brooks/Cole Pub-
lishing Company.
Klockars, A.J. y Sax, G. (1986). Multiple Comparisons. Newburg Park,
C.A: Sage Publications.
Levene, H. (1960). Robust test for the equality of variance. En J. Olkin
(Ed.). Contributions to probability and statistics. Palo Alto, CA:
Standford University Press.
Lipsey, M.W. (1990). Design sensitivity. Statistical power for experi-
mental research. Newburg Park, CA: Sage.
Martin, P. y Bateson,P. (1991). La medición del comportamiento. Ma-
drid: Alianza. Traducción del original en inglés de 1986.
Martínez, M.R., Maciá, M.A. y Pérez, J.A. (1990). Psicología matemática
II(1 y 2). Madrid: Simancas Ediciones.
226 Análisis de varianza

Mohr, L.B. (1990). Understanding Significance Testing. Gran Bretaña:


Sage Publications.
Nunnally, J. (1960). The place of statistics in Psychology. Education
and Psychological Measurement; 20, 661-650.
Pardo, A. y San Martín, R. (1994). Análisis de datos en psicología II.
Madrid: Pirámide.
Pereda, S. (1987). Psicología Experimental. I Metodología. Madríd:
Pirámide.
Riba, M.D. (1987). Modelo lineal de la Análisis de la Varian-
cia.Barcelona: Universidad Autónoma de Barcelona.
Rosenthal, R. (1991). Meta-analytic procedures for social research.
Newbury Park, C.A: Sage.
Rosenthal, R. y Rosnow, R.L. (1991). Essentials of behavioral research:
Methods and data analysis. New York: McGraw-Hill.
Rosnow, R.L. y Rosenthal, R. (1989). Statistical procedures and the
justification of knowledge in psychological science. American
Psychologist, 44, 1276-1284.
Rozeboom, W.W. (1971). The fallacy of the Null-Hypothesis significance
test. En B. Lieberman (Ed.) Contemporary Problems in Statistics.
U.S.A: Oxford University Press.
San Luis, C. y Sánchez, J.A. (1985). Problemas de la interpretación de
la interacción en el ANOVA con datos psicológicos. III Interna-
tional Meeting of Statistics in the Basque Country. Bilbao,
agosto de 1985.
San Martín, R. y Pardo, A. (1989). Psicoestadística. Contrastes para-
métricos y no paramétricos. Madrid: Pirámide.
Schmidt, F.L. (1992). What do data really mean. American Psychology,
47, 1173-1181.
Serlin, R.C. (1987). Hypothesis testing, theory building and the Phi-
losophy of Science. Journal of Counseling Psychology, 34, 365-
371.
Southwood, K.E. (1978). Substantive theory and statistical interaction:
Five models. American Journal of Sociology, 83, 1154-1203.
Tatsuoka, M. (1993). Effect Size. En G. Keren y C. Lewis (Eds.). A
Handbook for Data Analysis in the Behavioral Sciences: Meth-
odogical Issues. Hillsdale: Erlbaum.
Referencias bibliográficas 227

Tejedor, F.J. (1984). Análisis de varianza aplicado a la investigación


en Pedagogía y Psicología. Madrid: Anaya.
Toothaker, L.E. (1993). Multiple Comparison Procedures. Newburg
Park, C.A: Sage Publications.
Underwood, B.J., Duncan, C.P., Taylor, J.A. y Cotton, J.W. (1954),
Elementary Statistics. U.S.A: Appleton-Century-Crofts. En D.
Bakan (Ed.) The test of significance in Psychological Research
(1966). Psychological Bulletin, 66(6), 423-437.
Wampold, B.E., Davis, B. y Good, R.H. (1990). Hypothesis Validity of
Clinical Research. Journal of Consulting and Clinical Psychol-
ogy, 58, 360-367.
Wilcox, R.R. (1996). Statistics for the Social Sciences. U.S.A: Academic
Press, Inc.
Wilson, K.V. (1961). Subjectivistic statistics for the current crisis.
Contemporary Psychology, 6, 229-231.
Winer, B.J. (1971). Statistical Principles in Experimental Design. New
York: McGraw-Hill.
Zwick, R. (1993). Pairwise Comparison Procedures for One-Way Analy-
sis of Variance Designs. En G. Keren y C. Lewis (Eds.). A Hand-
book for Data Analysis in the Behavioral Sciences: Methodogical
Issues. Hillsdale: Erlbaum.

También podría gustarte