Documentos de Académico
Documentos de Profesional
Documentos de Cultura
4.2.2. Supuesto del ANOVA de dos factores y medidas de tamaño del efecto ................... 10
4.4.2. Ejecución de ANOVA de dos factores con medidas repetidas en uno en SPSS .......... 25
Resumen ...................................................................................................................... 35
2
UD 4. Modelos de ANOVA
En estos modelos se designa a las VI como «factores», que son siempre tratados como
variables categoriales (ya que son las variables manipuladas que generan los grupos que se
comparan), y se comprueba su efecto sobre las VD, aunque estén registradas en escala
cuantitativa. También es posible incluir en estos modelos variables extrañas con métrica
cuantitativa (como covariables) para la relación VI-VD que se quieren controlar
estadísticamente. Es importante recordar aquí que el esclarecimiento de la relación explicativa-
causal entre VI y VD es una cuestión que atañe más al diseño previo de la investigación que al
análisis de datos posterior, por lo que la propia interpretación y las conclusiones de los estadísticos
inferenciales se ven limitadas por este hecho. Pero, independientemente del diseño empírico
utilizado, la idoneidad del uso de los modelos de ANOVA es el contexto de una exploración de
relación asimétrica entre variables, ya sea VI-VD o predictor-criterio.
3
4.1 Modelos de análisis de la varianza
Los modelos de ANOVA se encuadran en un marco matemático más amplio denominado modelo
lineal general (que comparten con los modelos de regresión lineal referidos en la siguiente
unidad didáctica). Esta concepción es una forma de representar, desde una estructura de ecuación
matemática, que el valor de una variable dependiente o criterio es el resultado de la combinación
lineal de un conjunto de efectos. Aplicándolo a un contexto empírico, implica asimilar que un
valor concreto de un sujeto en una VD (por ejemplo, rendimiento en una tarea) está determinado
por multitud de factores y que en una investigación particular solo será posible controlar y
medir un número limitado de estos. Los factores en los que el investigador centra su atención
directamente son los que ocupan el rol de variable independiente o de variable predictora,
mientras que los demás elementos son otras variables cuyo efecto o bien se mantiene constante
mediante estrategias de control experimental (efectos constantes) o son variables
incontroladas cuyo efecto conjunto se agrupa bajo el término error. De esta forma, el valor de
la variable dependiente se puede expresar mediante la siguiente estructura elemental de modelo
lineal (Pardo y Ruiz, 2012):
Figura 2. Ecuación lineal de efectos en los modelos de ANOVA. Fuente: Pardo y Ruiz, 2012 (adaptación).
Sin embargo, esta ecuación es un planteamiento teórico y es necesario estimar sus elementos a
partir de los datos recogidos en la muestra de estudio para poder realizar contrastes de hipótesis
sobre los efectos de las VI o variables predictoras. El procedimiento habitual para ello en los
modelos de ANOVA es el denominado criterio de mínimos cuadrados ordinarios (MCO), que
parte del principio básico de estos modelos, que es que la distancia o el tamaño de la variación
de un valor de VD observado particular con respecto al promedio total de todos los valores
observados de la VD se divide en dos componentes (Balluerka y Vergara, 2002):
• Desviación explicada: distancia del promedio de VD del grupo de cada categoría del
factor (VI o predictora) respecto a la media global de la VD, que recoge la parte de la
desviación total causada por el factor.
4
• Desviación no explicada: variación de cada observación con respecto al promedio del
grupo de observaciones de su misma categoría del factor, que recoge la parte de la
desviación total debida a factores extraños no manipulados ni controlados por el
investigador.
El cálculo de estos dos componentes se inicia con los dos elementos denominados de suma de
cuadrados intergrupo e intragrupo, que estiman la proporción de varianza que se corresponde
a cada concepto (debido al factor o debido a elementos no controlados), que después de ser
divididos por sus grados de libertad dan lugar a las dos medias cuadráticas (entre grupos y error)
cuyo cociente da como resultado el estadístico F, como ya se explicó en la UD 3. Este estadístico
permite contrastar la hipótesis nula de no diferencia entre grupos, que en la ecuación lineal se
correspondería con la nulidad del efecto debido a los factores de estudio.
Número de factores
5
• Si cada sujeto es asignado a un único nivel, la comparativa se realizará bajo el
supuesto de independencia de las observaciones, analizando las diferencias
intersujetos o también denominado entre sujetos (comparación entre grupos).
• Pero si a cada sujeto se le aplican de forma sucesiva cada uno de los niveles del
factor contemplados (medidas repetidas), las observaciones no son independientes
y lo que se analizará son las diferencias intrasujeto entre los diferentes momentos de
medida.
• Si los niveles del factor (como variable categórica) que se tienen en cuenta en el estudio
son exactamente sobre los que se pretende realizar la inferencia (porque no existen
realmente más niveles o porque esos sean los de interés), se denomina factor de efectos
fijos.
• Pero si lo que plantea es una selección aleatoria representativa de niveles del factor
para el estudio, a través de los cuales se pretende realizar una inferencia que incluya
también niveles del factor no contemplados en el estudio particular, se denominará
factor de efectos aleatorios.
• La situación de factores de efectos fijos es la más habitual en investigación.
En los siguientes apartados de la unidad, se van a presentar los modelos de ANOVA más utilizados
en investigación en psicología en su forma más elemental (ver tabla 1), para maximizar su
asimilación. Pero es importante tener en cuenta que no es una exposición exhaustiva de todas
las posibilidades y permutaciones que permiten este tipo de análisis, por lo que para mayor
nivel de especificidad se recomienda la obra de Balluerka y Vergara (2002).
Modelo Objetivo VI VD
6
ANOVA Comprobar la variación en la VD en un VI ≥ 1 en efecto 1 VD
factorial mixto diseño de medidas parcialmente repetidas intersujeto cuantitativa
donde exista como mínimo un factor
VI ≥ 1 de efectos
intersujetos y otro intrasujetos.
intrasujeto
Viaja
Pero la ventaja más evidente de esta estrategia de análisis es la posibilidad de examinar los
efectos de interacción entre los diferentes factores. El concepto de interacción es clave para la
interpretación de este tipo de análisis, y se puede identificar de forma resumida con la siguiente
definición: «Existe interacción entre dos factores cuando el efecto de uno de ellos sobre la variable
dependiente no es el mismo en todos los niveles del otro factor» (Pardo y San Martín, 2010, p.
250). Por lo que, si la interacción de dos factores resulta significativa, la influencia de un factor
sobre la variable independiente va a estar condicionada por los valores de otro factor y, por tanto,
no se podrá generalizar su efecto de forma independiente al otro factor.
7
Ejemplo de investigación con interacción de dos factores:
Ansiedad Medias
(F2) marginales F1
Medias
marginales F2 7 7,27 6,5
Tabla 2. Ejemplo de interacción de dos factores (actitud y ansiedad) sobre la calidad de testimonio.
Como se puede ver, si solo se atendiese a las medias marginales (las medias de los niveles
de los dos factores por separado), se podría llegar a la conclusión de que con respecto a F1
la segunda categoría (actitud cercana) presenta puntuación promedio más alta de calidad de
testimonio. Pero al observar la intersección con el F2, se observa que esta diferencia se
invierte cuando el nivel de ansiedad es alto, ya que entonces la actitud distante presenta un
promedio mayor de testimonio; esto evidencia una interacción entre ambos factores. Esta
interacción se puede observar fácilmente cuando se representan gráficamente las medias de
intersección entre los dos factores y sus dos líneas se cruzan precisamente en esta tercera
categoría (en caso de que estas líneas fuesen paralelas no cabría suponer la posibilidad de
interacción).
8
Figura 3. Representación gráfica de ejemplo de interacción entre dos factores.
9
Nota
Con más de dos factores, además de las interacciones por pares, también habrá que
analizar las interacciones de segundo orden que contemplen todos los factores de forma
simultánea. Por ejemplo, con tres factores se estudiaran las interacciones F1 x F2, F1 x F3,
F2 x F3, y también la interacción múltiple F1 x F3 x F3 de interpretación más compleja.
Como se puede constatar en el esquema de la figura 4, en la ecuación lineal teórica con dos
factores, la parte de la varianza debida a los factores de estudio (varianza intergrupo) se desglosa
en tres fuentes: efecto del factor 1 por separado, el factor 2 por separado (los denominados
efectos principales) y la correspondiente al efecto de la interacción entre los dos factores. Para
contrastar las hipótesis nulas en relación con estos elementos será necesario estimar tres
estadísticos F que den cuenta de la razón de las medias cuadráticas de cada elemento (derivadas
también de sus correspondientes sumas de cuadrados), entre la media cuadrática del error
(componente residual no explicado del modelo). Aunque esto implica contrastar tres valores de
significación (p < 0,05), el correspondiente a la interacción tiene una prioridad jerárquica sobre
los factores por separado, ya que limita la interpretación de estos. Si la interacción resulta
estadísticamente significativa, quiere decir que el efecto de un factor sobre la VD está
condicionado por los valores del otro factor, por lo que el análisis de los factores por separado
pierde relevancia de cara a sacar conclusiones inferenciales. Pero si el contraste de la interacción
resulta no significativo y si lo es en alguno de los factores por separado, la interpretación aislada
de los factores principales será más consistente y relevante.
4.2.2. Supuesto del ANOVA de dos factores y medidas de tamaño del efecto
Al igual que sucede con el ANOVA de un solo factor, los contrastes del ANOVA de dos factores
requieren de poder asumir una serie de supuestos sobre las distribuciones de la variable
dependiente: distribución normal en la población, homogeneidad de varianza e independencia
de observaciones.
Este análisis es bastante resistente al no cumplimiento del primer supuesto (normalidad) y solo
ante muestras pequeñas o distribuciones muy asimétricas (con casos con valores atípicos)
puede perder potencia estadística y sería recomendable realizar un contraste previo para su
comprobación (Shapiro-Wilk, como se explicó en la unidad anterior). Sin embargo, el segundo
supuesto de homocedasticidad sí puede distorsionar en gran medida el contraste, por lo que será
necesario realizar el contraste estadístico de Levene (ver unidad anterior) para comprobar la
homogeneidad de varianza respecto a las agrupaciones que generan los dos factores. El supuesto
de independencia hace referencia a que cada valor de la variable dependiente registrado en la
muestra (cada registro puntual) es independiente de los demás valores. Este punto se suele
suponer cumplido siempre que solo haya un registro por persona (no son medidas repetidas),
figurando únicamente en uno de los niveles de cada factor, pero puede se puede problematizar
si por el tipo de relación entre los sujetos de la muestra, la puntuación de unos sujetos puede
influir sobre la de otros.
10
Pero, al contrario que con el ANOVA de un factor, para el ANOVA de múltiples factores no hay
pruebas de contraste alternativas específicas en caso de no cumplimiento de los supuestos
(y el SPSS no ofrece ninguna solución al respecto), por lo que puede ser necesario recurrir a
estrategias como la transformación de las puntuaciones de la variable dependiente o al análisis
no paramétrico de cada factor por separado.
Aunque no hay un consenso técnico respecto a qué vías alternativas utilizar cuando no se
pueden asumir los supuestos del ANOVA de dos factores, en los siguientes enlaces se plantean
algunas sugerencias: Oliver-Rodríguez et al., 2009 y Serra-Añó, 2014.
Respecto al tamaño del efecto, el indicador más habitual en los modelos de ANOVA es la ya
mencionada eta cuadrado, que estima la proporción de varianza compartida entre factor y
variable dependiente. Pero, en el caso del ANOVA de dos factores, en realidad se pueden indicar
para diferentes tipos de efectos. Por un lado, una medida general basada en todos los efectos de
los factores de forma conjunta sobre la variable dependiente y, por otro lado, tres medidas
individuales de cada efecto por separado (factor 1, factor 2 e interacción factor 1 × factor 2). En
el contexto del SPSS, la medida del efecto global se señala como R cuadrado, y también se ofrece
una corrección más recomendable que ajusta el efecto con los grados de libertad denominada R
cuadrado corregida, y los tamaños de los efectos individuales se presentan designados como
eta cuadrado parcial. Respecto a la interpretación de estos indicadores (como proporciones que
son), cuanto más se alejen de 0 y se acerquen a la unidad, mayor magnitud de efecto se podrá
considerar.
Los estadísticos F que contrastan la hipótesis nula de los tres efectos en un ANOVA de dos
factores (factor 1, factor 2 e interacción factor 1 × factor 2) se realizan como contrastes
globales de las diferencias de todas las categorías de los factores, es decir, su rechazo permite
concluir que no todos los grupos son iguales, pero no permite concretar qué categorías difieren
de otras. Para conocer con exactitud el significado de estas diferencias es necesario recurrir a
comparaciones múltiples posteriores a los contrastes globales.
Sobre las comparaciones post hoc de los factores por separado, denominados en este contexto
comparaciones de efectos principales, los procedimientos de contraste son equivalentes a los
expuestos respecto al ANOVA de un factor: pruebas post hoc como Tukey, Sheffé, Games-
Howell o T3 de Dunnet, en las que se comparan por pares las categorías de cada factor, para
ubicar las diferencias estadísticamente significativas (ver unidad anterior). Pero es relevante
señalar que, si alguno de los factores contemplados solo tiene dos niveles, no es necesario este
post hoc para ese factor, ya que no hay ambigüedad respecto a entre qué pares de categorías
existe la diferencia con el contraste global.
11
Figura 5. Comparaciones múltiples de efectos principales y efectos simples.
Pero la interpretación de los efectos principales puede verse subordinada por el contraste referido
a la interacción entre factores, ya que, si esta interacción resulta estadísticamente significativa,
los efectos principales pasarán a un segundo plano. Para comprobar los factores con respecto a
cada intersección de categorías (combinación concreta de niveles), se tiene que recurrir a las
comparaciones múltiples denominadas de efectos simples. Estos contrastes implican realizar
múltiples contrastes parciales con el estadístico F, contrastando las diferencias de la VD entre
niveles de un factor, teniendo en cuenta únicamente un solo nivel del otro factor cada vez. Como
se realizan múltiples contrastes sucesivos, puede aumentar la tasa de error tipo I (rechazar la
hipótesis nula cuando esta es verdadera en la población), por lo que la recomendación es ajustar
la significación de estos contrastes mediante la corrección de Bonferroni. En SPSS no existe una
opción preconfigurada para los contrastes de efectos simples, por lo que será necesario solicitar
el contraste mediante comandos de sintaxis del programa (ver después). Un contraste
estadísticamente significativo en un efecto simple señala que el efecto del factor sobre la VD es
significativo cuando los sujetos presentan el nivel particular del otro factor contrastado en ese
efecto, pero no es generalizable a otros niveles del segundo factor.
Recuperando el enunciado del ejemplo del apartado anterior, si después de realizar los
contrastes de hipótesis nula globales la interacción entre el factor «actitud del juez» y el
factor «nivel de ansiedad» resulta ser estadísticamente significativa, será relevante estudiar
los efectos simples. En este caso las comparaciones múltiples implicarán realizar contrastes
parciales entre los subgrupos que se corresponden a las «casillas» de intersección de
categorías representadas en la siguiente tabla.
Ansiedad
(F2)
Cercana- Cercana-
Cercana Cercana-bajo medio alto
Tabla 3. Ejemplo de comparaciones múltiples de efectos simples.
12
De esta forma, para el factor 1 «actitud del juez» con respecto al factor 2 se podrán
realizar 3 contrastes de efectos simples (uno para cada categoría del factor 2):
Práctica:
13
o /EMMEANS=TABLES(Nombre del factor1) COMPARE ADJ(BONFERRONI)
o /EMMEANS=TABLES(Nombre del factor2) COMPARE ADJ(BONFERRONI)
• Sustituir las líneas anteriores por las siguientes:
o /EMMEANS=TABLES(Nombre de factor 1*Nombre de factor 2)COMPARE(Nombre
de Factor1) ADJ(BONFERRONI)
o /EMMEANS=TABLES(Nombre de factor 1*Nombre de factor 2)COMPARE(Nombre
de Factor2) ADJ(BONFERRONI)
• Sin salir del visor de sintaxis, darle al botón «Ejecutar selección» (símbolo play
verde).
Figura 6. Salida de resultados de SPSS prueba ANOVA de dos factores (actitud del juez y nivel de ansiedad previo)
sobre calidad de testimonio, parte 1: descriptivos, gráficos y prueba de Levene.
14
Figura 7. Salida de resultados de SPSS prueba ANOVA de dos factores (actitud del juez y nivel ansiedad previo) sobre
calidad de testimonio, parte 2: contrastes de hipótesis nulas globales de efectos intersujetos.
Figura 8. Salida de resultados de SPSS prueba ANOVA de dos factores (actitud del juez y nivel ansiedad previo) sobre
calidad de testimonio, parte 3: comparaciones múltiples de efectos simples de interacción.
15
4.3. ANOVA de un factor de medidas repetidas
En los apartados anteriores se ha presentado la lógica de los modelos ANOVA cuando se pretende
estudiar el efecto de un factor a través de las diferencias intersujetos. Esto implica que los sujetos
solo se ubican con su medida en un único nivel de cada factor y, por tanto, los grupos generados
incluyen diferentes sujetos. Sin embargo, entre las opciones de diseño metodológico para valorar
los efectos de VI sobre VD, también existe la posibilidad de hacerlo realizando la comparativa
de forma intrasujeto. Si se dispone de un factor de forma intrasujeto, todos los sujetos de la
muestra van a pasar por todos los niveles del factor y, por tanto, los grupos de medidas que
se comparan se corresponden a los mismos sujetos en diferentes momentos.
A nivel metodológico esta disposición tiene ventajas evidentes, como suprimir la fuente de error
debida a la posible no equivalencia de los grupos (diferencias de base entre los individuos de cada
grupo) o requerir tamaños muestrales más reducidos para estudiar los efectos, pero también
desventajas, como la posibilidad de efectos acumulativos distorsionadores debido a aplicar
sucesivamente diferentes niveles del factor (ya sea de aprendizaje entre condiciones o
solapamiento de efectos y cambios). Por eso, la idoneidad de esta estrategia debe valorarse desde
un marco general del estudio teniendo en cuenta la naturaleza del factor.
Nota
El simple efecto del paso del tiempo sobre la variable dependiente es un factor bastante
habitual en este tipo de diseños, como, por ejemplo, comprobar el deterioro de la calidad
del recuerdo de un testigo según se aleja temporalmente de los acontecimientos declarados,
comprobado sobre los mismos sujetos en diferentes momentos.
16
El modelo de ANOVA de medidas repetidas es una herramienta específica para valorar el efecto
de los factores dispuestos de forma intrasujeto. Cuando solo se tiene en cuenta un único factor
se puede considerar una generalización de la lógica de la prueba t de Student para muestras
relacionadas, pero para la situación donde existan más de dos medidas (y por tanto más de
dos medias grupales).
Aunque el contraste de hipótesis nula tenga ciertos paralelismos conceptuales con el ANOVA
factorial entre sujetos, la disposición de medidas repetidas implica que sea necesario partir de
supuestos diferentes y sean necesarias estimaciones de elementos particulares. En este
contexto, las puntuaciones de las medidas recogidas en la muestra tienen tres fuentes de
variabilidad:
• Las diferencias entre niveles del factor (medidas repetidas), denominadas intrasujetos.
• Las diferencias que se dan entre los individuos que configuran la muestra, denominadas
intersujetos.
• Un término de error que en este contexto se define como la interacción entre las
diferencias entre sujetos y las diferencias intrasujetos (que sustituye a la variabilidad
intragrupos de los modelos anteriores como estimación de fuentes no controladas).
Para contrastar la hipótesis nula de no diferencia entre momentos de medida, será necesario
estimar las fuentes de variabilidad mediante el procedimiento de suma de cuadrados, para
calcular la media cuadrática intrasujeto y la media cuadrática error (intrasujeto × intersujeto).
La división del primer elemento entre el segundo expresa la discrepancia entre la variabilidad de
los diferentes promedios de los niveles del factor y la variabilidad que cabría esperar por azar,
independientemente de las medias de cada categoría. Este cociente es el estadístico F, que se
comparará con la distribución teórica de referencia para obtener el valor de significación.
Este modelo de ANOVA sigue implicando realizar una prueba inferencial paramétrica, por lo que
se vuelve a requerir asumir una serie de supuestos sobre la distribución de la variable
dependiente. El primer supuesto es el de distribución normal en la población, que tiene las
mismas implicaciones y procedimientos de comprobación que se han especificado anteriormente,
incluidos la relativa robustez de los modelos de ANOVA ante el no ajuste estricto de este
supuesto. Cuando se trabaje con muestras reducidas y los contrastes de normalidad señalen
discrepancias estadísticamente significativas, es recomendable, para el contraste principal de
hipótesis nula, utilizar una alternativa no paramétrica que convierta las puntuaciones
cuantitativas de la VD a rangos ordinales, como es la prueba de Friedman (que es una extensión
de la prueba de Wilcoxon para más de dos categorías).
17
contrastar tres diferencias entre pares: primer momento respecto a segundo momento, primer
momento respecto a tercer momento y segundo momento respecto a tercer momento. El
supuesto de esfericidad requiere que las varianzas de las diferencias entre pares de medidas
no resulten significativamente diferentes, es decir, que sean equivalentes entre los pares de
medidas. En caso de no cumplir este supuesto, aumenta el riesgo de rechazar la hipótesis nula
cuando esta es cierta, con el uso del estadístico F. Para comprobar su cumplimiento, se puede
recurrir a la prueba de esfericidad de Mauchly, que con un resultado estadísticamente
significativo (p < 0,05) señala la imposibilidad de aceptar el supuesto de esfericidad.
• Se basan en multiplicar los grados de libertad del contraste del estadístico F por un
índice corrector denominado Epsilon.
• El índice Epsilon ajusta a la baja los grados de libertad, haciendo el contraste más
conservador (más exigente para señalar una p reducida).
• El SPSS ofrece diferentes procedimientos de estimación de Epsilon: Greenhouese-
Geisser, Huynh-Feldt y Límite inferior.
• En caso de resultados discrepantes, seleccionar la alternativa que más potencia
estadística presente.
Contrastes multivariados
18
4.3.2. Contrastes múltiples y tamaño del efecto
La significación del contraste de hipótesis nula global hace referencia a las diferencias entre
medias de todas las categorías (momentos de medida) del factor de forma general, pero no
identifica entre qué par de momentos se ubican esas diferencias. Por lo que, si la prueba global
resulta ser estadísticamente significativa, será necesario realizar comparaciones múltiples
post hoc. En el contexto de medidas repetidas, es recomendable realizar estas comparaciones
por pares de medidas utilizando la prueba t de Student para muestras relacionadas, pero
corrigiendo su tasa de error mediante el método Bonferroni.
Al disponer una media cuadrática intrasujetos referida al efecto del factor y una media cuadrática
de error, es posible calcular un indicador de tamaño del efecto que expresa la proporción de
variabilidad que comparten factor y variable dependiente (varianza común), de forma
equivalente al procedimiento que realiza con el ANOVA factorial intersujetos. En el SPSS se
muestra el indicador eta cuadrado parcial, que como proporción implica que cuanto más se
acerque a la unidad, mayor será la relación entre VI y VD. Algunos autores proponen la alternativa
de cálculo la medida de asociación de omega cuadrado (Pardo y San Martin, 2010), cuyas
estimaciones son algo más conservadoras y precisas que eta cuadrado, pero el SPSS no ofrece
esta opción, por lo que si se pretende estimarlo por este procedimiento, sería necesario calcularlo
de forma externa al programa.
Nota
19
Práctica:
20
Figura 12. Salida de resultados de SPSS prueba ANOVA de un factor de medidas repetidas, efecto del paso del tiempo
(categorial) sobre calidad del recuerdo de los testigos (cuantitativa), parte 1: Prueba de esfericidad y contrastes
principales de hipótesis nula con alternativas a F sin ajuste.
Figura 13. Salida de resultados de SPSS prueba ANOVA de un factor de medidas repetidas, efecto del paso del tiempo
(categorial) sobre calidad del recuerdo de los testigos (cuantitativa), parte 2: Estadísticos descriptivos y comparaciones
múltiples post hoc con Bonferroni.
21
4.4. ANOVA factorial mixto
En esta unidad didáctica se están presentando los modelos de ANOVA de forma separada y
elemental, pero la flexibilidad de estos permite combinar diferentes modalidades según las
necesidades de los diseños de investigación particulares. En este apartado, se va a exponer una
estructura de diseño-análisis, que combina los modelos presentados en los dos anteriores
apartados y que es relativamente frecuente en la investigación en psicología, especialmente en
estudios sobre efecto de intervenciones psicológicas (ya sean estas terapéuticas,
psicoeducativas o rehabilitadoras).
Nota
Este diseño de medidas parcialmente repetidas tal vez te resulte familiar, dado que es la base
de la estructura de los famosos ensayos clínicos controlados en biomedicina. El combinar
las comparativas intragrupo e intergrupo tiene el potencial de superar las limitaciones
provenientes de solo tener en cuenta una de las dos perspectivas.
22
Momentos de
medida-cambio (F2)
El tener en cuenta al mismo tiempo un factor intergrupo y un factor intrasujeto permite comparar
entre diferentes grupos de intervención al mismo tiempo que se tiene en cuenta su evolución
diferencial (seguimiento). Además, de esta forma, se reduce significativamente la variabilidad
de error debida a las condiciones por separado.
Como ya se explicó anteriormente, cuando se realiza un ANOVA con dos factores, se pueden
estimar dos efectos principales (uno con cada factor) y un efecto de interacción entre ambos
factores (F1 × F2); esto también implica que se pueden realizar tres contrastes de hipótesis nula
diferentes, uno para cada factor. Pero, a diferencia de la situación en que la que los dos factores
son intergrupos, no existe una única fuente de variabilidad de error estimable y tampoco un
único procedimiento para estimar las medias cuadráticas de los efectos.
23
Por ello, para el contraste de hipótesis nula se tendrán en cuenta diferentes elementos:
Al combinar ambos tipos de factores, se han de tener en cuenta los supuestos requeridos en
los dos modelos de ANOVA, que se corresponden con los mismos (factorial y medidas
repetidas). Sobre el supuesto de distribución normal de la variable dependiente, habitual en
las pruebas paramétricas, solo es relevante estudiar su cumplimiento cuando la muestra de
estudio es muy reducida o la distribución cuenta con casos con puntuaciones extremas muy
alejadas de su centro muestral, ya que, en la mayoría de las circunstancias, los modelos de
ANOVA se muestran resistentes al no ajuste de este supuesto. Respecto a los supuestos de
independencia de observaciones y homogeneidad de la varianza, se tendrán que asumir
respecto al factor intergrupo y, por tanto, comprobar con las agrupaciones de las categorías de
ese factor, tal y como se ha explicado en el ANOVA factorial (prueba de Levene).
Dado que tanto el factor intrasujeto como el efecto de la interacción contemplan la situación
de medidas repetidas, vuelve a ser necesario asumir el efecto de esfericidad respecto a F2
(comprobación con prueba Mauchly como se explicó en el anterior modelo), pero, además, se
añade un requisito adicional respecto a las matrices varianza-covarianza que se generan en
la interacción de cada nivel de F1, por el cual se requiere que estas sean equivalentes. Este
último requisito en el SPSS se comprueba con la prueba de Box, cuyo resultado estadísticamente
significativo (p ≤ 0,05) no permitiría asumirlo. Estos dos supuestos juntos se enuncian como
esfericidad multimuestra y, si no se cumplen, será aconsejable utilizar alternativas como la
corrección de los grados de libertad epsilon para el contraste del estadístico F. Pero es
importante destacar que estas condiciones y correcciones de esfericidad no serán necesarias (o
más bien posibles) cuando el factor intrasujeto solo disponga de dos medidas repetidas (dos
categorías), porque solo existe un par de observaciones.
Lo referido anteriormente respecto a tamaños del efecto y comparaciones múltiples post hoc
también es aplicable a estas situaciones mixtas, pero teniendo en cuenta que, como existen dos
factores, se pueden diferenciar los efectos principales de cada factor por separado y los efectos
simples que se derivan de la interacción. Aunque en el diseño elemental de 2 × 2 no serán
necesarias comparaciones múltiples, ya que no hay ambigüedad entre que grupos, existe la
diferencia en el contraste de hipótesis nula principal, y solo será necesario cuando los factores
tengan más de dos categorías.
Aunque en este análisis se contrastan los tres efectos, a nivel práctico lo que suele importarle
realmente al investigador en este tipo de diseños es el efecto de interacción.
24
4.4.2. Ejecución de ANOVA de dos factores con medidas repetidas en uno en
SPSS
Práctica:
25
Figura 14. Salida de resultados de SPSS prueba ANOVA de dos factores con medidas repetidas en uno (2 × 2), F1 =
Grupo tratamiento / Grupo Control, F2 = Antes / Después y VD = Agresividad interpersonal. Comprobación supuestos
intrasujeto y contrastes principales de los tres efectos (F1, F2 y F1 × F2).
Como se comentó en la UD 2, una de las funciones principales del diseño metodológico de estudios
es controlar, en la medida de lo posible, las fuentes de error sistemáticas que pudiesen
distorsionar las relaciones entre variables de interés para el investigador. Sin embargo, a nivel
práctico, este control no siempre es posible en la ejecución del estudio (por ejemplo, en un diseño
cuasiexperimental).
26
El ANCOVA es en realidad una técnica general de análisis que puede aplicarse en diferentes
modelos de ANOVA y diseños de investigación (univariado, multivariado, intergrupos,
intrasujetos, mixto…). El objetivo de esta técnica es eliminar la influencia de las covariables
sobre la variable dependiente, en el curso del análisis de la varianza. De esta forma, se ajustarán
las puntuaciones de la variable dependiente, evitando el posible sesgo provocado por la
covariable. Además, así también se aumentará la precisión de la estimación de los efectos. Es
decir, al incluir la covariable en el modelo lineal, se reducirá el término de error y se ajustarán
los efectos de los factores de interés. Esta estrategia de control solo tendrá sentido si
efectivamente la covariable se relaciona linealmente con la variable dependiente.
Figura 15. Ecuación lineal de efectos ANCOVA con un solo factor intergrupo.
Para lograr el objetivo descrito, la técnica de ANCOVA combina en un mismo procedimiento dos
métodos de análisis: regresión lineal y ANOVA. De forma simplificada y resumida, el
procedimiento con un factor y una covariable consiste en (Balluerka y Vergara, 2002):
Al ajustar los efectos, lo que se trata de contrastar es cuál va a ser el efecto del factor si todos
los grupos-categoría tienen la misma media en la covariable. Esto provoca que al realizar el
ANCOVA, las medias de VD en los diferentes grupos se ajusten a lo que se denomina medias
corregidas (Pardo y Ruiz, 2012).
Los supuestos requeridos de un ANCOVA estarán determinados por el tipo del modelo ANOVA
en el que se esté aplicando, por ejemplo, en una situación univariada con un factor intergrupo
sus supuestos serán: normalidad distribución, independencia observaciones y homogeneidad de
varianzas, tal y como se ha explicado en anteriores apartados. Pero, de forma adicional a estos
supuestos, al incluir una o varias covariables se tendrán que cumplir adicionalmente unos
requisitos adicionales particulares de esta técnica:
27
Supuestos particulares de la ANCOVA
• Se asume que los valores de la covariable son fijos porque se han medido sin error
(imprecisión e inconsistencia).
• En la práctica, las medidas en psicología suelen tener cierto grado de error, pero si la
fiabilidad del instrumento de medida es suficientemente elevada, el análisis no se verá
afectado (coeficientes de más de 0,80).
• El factor no ejerce ningún efecto sobre la covariable, lo que significa que no hay
diferencia significativa entre categorías del factor en el valor promedio de la covariable.
• Se puede comprobar realizando una ANOVA de nuevo con la variable independiente
como factor, pero con la covariable como variable dependiente de este análisis. Un
resultado estadísticamente significativo (p ≤ 0,05) en este análisis impide asumir el
supuesto.
• El grado de relación lineal existente ente covariable y VD tiene que ser el mismo en
todos los grupos-categoría del factor.
• Esto implica que no existe efecto de interacción entre VI y covariable sobre la VD.
• Se puede comprobar realizando un ANCOVA personalizado, en el que se especifique
estudiar el efecto interacción entre VD y VI. Un resultado estadísticamente significativo
en la interacción (p ≤ 0,05) impide asumir el supuesto.
28
Ejemplo de investigación con covariable:
Nota
29
Práctica:
30
Figura 16. Salida de resultados de SPSS comprobación de supuestos para ANCOVA de un factor: VD = Calidad del
testimonio, VI = Tipo de audiencia y Covariable = CI verbal.
Esto es particularmente importante si de hecho esas variables se pueden agrupar bajo un mismo
constructo teórico. Por ejemplo, tres medidas particulares de activación fisiológica, inquietud
motora y temor cognitivo seguramente vayan a presentar correlación en los sujetos estudiados
al representar diferentes sistemas de respuesta ansiosa y, por tanto, ser parte de un mismo
constructo denominado ansiedad. Lo mismo puede suceder con medidas acerca de atención,
memoria a corto plazo y memoria a largo plazo respecto al constructo deterioro cognitivo.
31
Llega más lejos
La hipótesis nula en un MANOVA se establece sobre el conjunto de medias de todos los grupos-
categorías, para todas las variables dependientes de forma simultáneamente. Esto implica que
la estimación de los elementos necesarios para el contraste se tiene que realizar de forma
matricial (matrices en las que una ANOVA univariada representaría un único vector). Aunque se
sigue basando en la comparación entre una variación explicada y variación no explicada (error o
residual), también se computa la relación entre las diferentes variables dependientes en el
proceso de suma de cuadrados. Como el contraste es sobre todas las VD al mismo tiempo, es
necesario generar funciones discriminantes (también llamadas variado), que combinan
linealmente las VD, pero de forma ponderada para maximizar las diferencias entre grupos del
factor. Cuando el factor tiene tres o más categorías se estimarán varias funciones discriminantes,
que servirán para calcular los estadísticos de contraste de hipótesis nula multivariante.
Al igual que con otros modelos de ANOVA, el MANOVA es una prueba paramétrica que requiere
asumir los supuestos habituales del ANOVA respecto a las variables dependientes, es decir, si
el factor es intergrupos estos serán: distribución normal, independencia de observaciones dentro
de cada VD y homogeneidad de varianza entre categorías del factor. Pero, de forma adicional, el
MANOVA requiere siempre cumplir el requisito de homogeneidad de matrices de covarianza,
que como vimos en el ANOVA de medidas repetidas, se comprueba con la prueba de Box, cuyo
resultado estadísticamente significativo (p ≤ 0,05) no permitiría asumirlo. Por otro lado, el
MANOVA no se recomienda cuando las VD no están correlacionadas entre sí o la muestra de
estudio es muy pequeña, en estas circunstancias es mejor realizar pruebas ANOVA univariadas.
32
El SPSS ofrece varios estadísticos de contraste multivariado que cumplen la misma función que
cubría el estadístico F en situaciones univariadas: Lambda de Wilks, Traza de Pillai-Barlett,
Raíz Mayor de Roy y Traza de Hotelling-Lawley. Cada uno sigue sus propios procedimientos
de cómputo (aunque todos basados en las funciones de discriminación) y podrán ofrecer valores
de significación diferentes. Para el tipo de variables habituales en psicología la menos
recomendable es la Raíz Mayor de Roy. Aunque en condiciones de cumplimiento de supuestos no
hay mucha diferencia entre las otras tres opciones, cuando no se cumple el supuesto de
normalidad y/o el supuesto de homogeneidad de matrices de covarianza es más potente y robusta
la traza de Pillai-Barlett, aunque también es más exigente para rechazar H 0 (Balluerka y Vergara,
2002). En cualquier caso, para todos los estadísticos se puede establecer el umbral de
significación en p ≤ 0,05, a partir del cual se puede rechazar la hipótesis nula de no diferencia
entre categorías.
Se ha de tener en cuenta que los contrastes multivariados anteriores hacen referencia a una
combinación lineal de todas de las variables dependientes juntas y a las diferencias entre
categorías de forma general. Por lo que, ante un resultado estadísticamente significativo, de este
contraste global, puede ser interesante estudiar sus componentes de forma desglosada
(dependientes, factores y niveles entre factores) en diferentes análisis posteriores tales como:
pruebas F univariadas, análisis Step-Down, análisis de discriminación y contrastes multivariados
parciales.
Play
Práctica:
33
• Botón «Opciones»: Seleccionar factor para recuadro «Mostrar medias para». En
visualización marcar como mínimo «Pruebas de homogeneidad» (también se pueden
solicitar tamaños del efecto, «Potencia observada», «Estadísticos descriptivos»).
Darle a «Continuar».
• Aceptar para ejecutar análisis: En tabla «Contrastes multivariados» mirar valor
de significación en columna «Sig.» de los diferentes estadísticos de contraste, pero
en las filas que se corresponden al factor (no en intersección). Después tomar
decisiones sobre siguientes pasos.
34
Resumen
Los modelos de ANOVA son una categoría de técnicas de análisis estadístico inferencial idóneas
para situaciones en las que se pretende estudiar la relación entre variables independientes o
predictores de tipo categorial (que generan grupos de medidas) y variables dependientes o
criterio de tipo cuantitativo (métricas). Desde el inicio del desarrollo de estas estrategias de
análisis se han vinculado al contexto de la investigación experimental, por lo que se han generado
diversas modalidades de análisis de varianza que se adecuan a diferentes necesidades de diseño
empírico.
De forma general, los modelos ANOVA se basan en contrastar la hipótesis nula de no diferencia
en las VD ente categorías de los factores, para lo cual realizan una estimación de la varianza de
la VD que queda explicada (por los factores) y la varianza que queda sin explicar (error). Los
contrastes estadísticos de estos modelos son pruebas paramétricas que requieren de poder
asumir ciertos supuestos sobre la VD para su ejecución, aunque algunos serán requisitos
particulares de cada modelo.
Los diferentes modelos de ANOVA se disponen para responder a cuatro características básicas de
los diseños de investigación: número de factores, número de variables dependientes, modo de
asignación de sujetos a niveles del factor (condiciones experimentales) y modo de establecer los
niveles del factor. En esta unidad se han destacado las siguientes formas elementales de 5
modelos de ANOVA:
35
Modelo Capacidad de interés
36
Mapa de contenidos
37
Recursos bibliográficos
Bibliografía básica
Pardo, A. y Ruiz, M. A. (2012). Análisis de datos en ciencias sociales y de la salud (vol. 3).
Editorial Síntesis.
Pardo, A. y San Martín, R. (2010). Análisis de datos en ciencias sociales y de la salud (vol. 2).
Editorial Síntesis.
Bibliografía complementaria
Elorza, H. (2008). Estadística para las ciencias sociales, del comportamiento y de la salud (3.ª
ed.). Cengage Learning.
Otros recursos
38
Ramos-Álvarez, M. M. (2005). Manual de bases conceptuales del MANOVA y MANCOVA.
Universidad de Jaén.
http://www4.ujaen.es/~mramos/Cursos/CADIPI/REMEDI_10_MANOVA.pdf
Serra-Añó, P. (14 de junio de 2014). Introducción II - Anova Factorial Entre Sujetos. [Vídeo].
YouTube. https://youtu.be/TFmZ9G5DycU
39